char mit 7 Bits?



  • Ist es möglich das ein Compiler für eine char genau 7 Bit verwendet und dabei noch Standardkonfrom ist?

    in meinem Buch steht: "So muss der Datentyp char beispielsweise groß genug sein, dass alle Zeichen des unterstützten Zeichensatzes (üblicherweiße ASCII oder ANSI) in char-Variablen abgespeichert und unterschieden werden können."

    mir ist unklar was "Zeichen des unterstützten Zeichensatzes" bedeutet - wenn ich lustig bin, dann verwende ich halt einen Zeichensatz der nur 1 Bit benötigt

    welche Richtlinien gibt es da?



  • 8 ist das Minimum.



  • mir ist unklar was "Zeichen des unterstützten Zeichensatzes" bedeutet - wenn ich lustig bin, dann verwende ich halt einen Zeichensatz der nur 1 Bit benötigt

    😉
    Mit einem bit hast du zwei möglichkeiten entweder 0 oder 1.
    Binär 0 = 0 Dezimal, Binär 1 = 1 Dezimal
    du brauchst aber min 8 bits wie Bashar schon gesagt hat, damit du den ASCII code der aus 0-255 Zeichen besteht darstellen kannst!
    Weil sich mit 8 bit, Deziaml Zahlen von 0 - 255 darstellen lassen!

    mfg hohesC



  • hohesC schrieb:

    du brauchst aber min 8 bits wie Bashar schon gesagt hat, damit du den ASCII code der aus 0-255 Zeichen besteht darstellen kannst!

    Ja und, im Standard steht nichts von ASCII, und es gibt auch nicht nur ASCII. Die Frage ist absolut berechtigt.



  • Ja klar ist die Frage berechtigt, hab nicht gesagt das es verboten wäre zu fragen, aber ich musste lachen als ich las:

    dann verwende ich halt einen Zeichensatz der nur 1 Bit benötigt

    und deshalb wollte ich am beispiel des ASCII codes klarstellen das ein bit nie ausreichen würde!

    mfg hohesC 🙂



  • Genausogut könntest du am Beispiel des Unicode-Zeichensatzes zeigen, dass 8 Bit nie und nimmer ausreichen.



  • 😃 Ist doch egal mit welchem Zeichensatz ich das Bsp. mach oder? 😃

    Naja...

    mfg hohesC



  • Nasenbär(TM)
    In dem Fall wär es falsch.



  • was ist falsch?
    ich wollte nur zeigen das ein zeichensatz mit einem bit unmöglich ist?

    Nasenbär(TM)

    Der mensch geht zu 89% von sich selbst aus!

    mfg hohesC



  • hohesC schrieb:

    was ist falsch?
    ich wollte nur zeigen das ein zeichensatz mit einem bit unmöglich ist?

    Aber mit einem falschen Argument.



  • 😃 Ist gut! 😃

    🙄



  • hab jetzt Erfahren das der Standard eine mindestgröße für den Datentyp char vorschreibt die bei einem Byte, also 8 Bit liegt - damit ist meine Frage auch beantwortet - dachte nur für einen Moment das es da keine genauen Vorschriften gibt...


Anmelden zum Antworten