char mit 7 Bits?
-
Ist es möglich das ein Compiler für eine char genau 7 Bit verwendet und dabei noch Standardkonfrom ist?
in meinem Buch steht: "So muss der Datentyp char beispielsweise groß genug sein, dass alle Zeichen des unterstützten Zeichensatzes (üblicherweiße ASCII oder ANSI) in char-Variablen abgespeichert und unterschieden werden können."
mir ist unklar was "Zeichen des unterstützten Zeichensatzes" bedeutet - wenn ich lustig bin, dann verwende ich halt einen Zeichensatz der nur 1 Bit benötigt
welche Richtlinien gibt es da?
-
8 ist das Minimum.
-
mir ist unklar was "Zeichen des unterstützten Zeichensatzes" bedeutet - wenn ich lustig bin, dann verwende ich halt einen Zeichensatz der nur 1 Bit benötigt
Mit einem bit hast du zwei möglichkeiten entweder 0 oder 1.
Binär 0 = 0 Dezimal, Binär 1 = 1 Dezimal
du brauchst aber min 8 bits wie Bashar schon gesagt hat, damit du den ASCII code der aus 0-255 Zeichen besteht darstellen kannst!
Weil sich mit 8 bit, Deziaml Zahlen von 0 - 255 darstellen lassen!mfg hohesC
-
hohesC schrieb:
du brauchst aber min 8 bits wie Bashar schon gesagt hat, damit du den ASCII code der aus 0-255 Zeichen besteht darstellen kannst!
Ja und, im Standard steht nichts von ASCII, und es gibt auch nicht nur ASCII. Die Frage ist absolut berechtigt.
-
Ja klar ist die Frage berechtigt, hab nicht gesagt das es verboten wäre zu fragen, aber ich musste lachen als ich las:
dann verwende ich halt einen Zeichensatz der nur 1 Bit benötigt
und deshalb wollte ich am beispiel des ASCII codes klarstellen das ein bit nie ausreichen würde!
mfg hohesC
-
Genausogut könntest du am Beispiel des Unicode-Zeichensatzes zeigen, dass 8 Bit nie und nimmer ausreichen.
-
Ist doch egal mit welchem Zeichensatz ich das Bsp. mach oder?
Naja...
mfg hohesC
-
Nasenbär(TM)
In dem Fall wär es falsch.
-
was ist falsch?
ich wollte nur zeigen das ein zeichensatz mit einem bit unmöglich ist?Nasenbär(TM)
Der mensch geht zu 89% von sich selbst aus!
mfg hohesC
-
hohesC schrieb:
was ist falsch?
ich wollte nur zeigen das ein zeichensatz mit einem bit unmöglich ist?Aber mit einem falschen Argument.
-
Ist gut!
-
hab jetzt Erfahren das der Standard eine mindestgröße für den Datentyp char vorschreibt die bei einem Byte, also 8 Bit liegt - damit ist meine Frage auch beantwortet - dachte nur für einen Moment das es da keine genauen Vorschriften gibt...