1 Kilobyte nichtmehr 1024 Byte?



  • warum fragt hier keiner, warum man den "blödsinn" mal eingeführt hat? muß ja mal nen sinn gehabt haben. und solange 2^10 1024 sind, und das sind sie soweit ich weiß auch heute noch, hat diese namensgebung nach wie vor ihren sinn.



  • scrub schrieb:

    warum fragt hier keiner, warum man den "blödsinn" mal eingeführt hat?

    Weil's jeder weiß.

    muß ja mal nen sinn gehabt haben.

    Wie kommst Du auf dieses schmale Brett? Alles, was mal war, hatte seinen, äh, Sinn?

    und solange 2^10 1024 sind, und das sind sie soweit ich weiß auch heute noch, hat diese namensgebung nach wie vor ihren sinn.

    Genauso, wie Megasekunde gleich 2 Wochen zu definieren.



  • Daniel E. schrieb:

    scrub schrieb:

    warum fragt hier keiner, warum man den "blödsinn" mal eingeführt hat?

    Weil's jeder weiß.

    schön. warum ist dieses argument, daß ja jeder kennt, plötzlich nicht mehr einleuchtend? das war es nämlich über jahre hinweg.

    Daniel E. schrieb:

    muß ja mal nen sinn gehabt haben.

    Wie kommst Du auf dieses schmale Brett? Alles, was mal war, hatte seinen, äh, Sinn?

    jedenfalls muß es mehr sinn gehabt haben als das, was jetzt eingeführt/definiert werden soll.

    Daniel E. schrieb:

    und solange 2^10 1024 sind, und das sind sie soweit ich weiß auch heute noch, hat diese namensgebung nach wie vor ihren sinn.

    Genauso, wie Megasekunde gleich 2 Wochen zu definieren.

    ne, nicht wirklich. die woche hat nämlich ihren sinn. komischerweise kommt aber niemand darauf, daß sie, dem dezimalsystem folgend, doch besser zehn tage haben sollte. komisch, eh?



  • scrub schrieb:

    Daniel E. schrieb:

    scrub schrieb:

    warum fragt hier keiner, warum man den "blödsinn" mal eingeführt hat?

    Weil's jeder weiß.

    schön. warum ist dieses argument, daß ja jeder kennt, plötzlich nicht mehr einleuchtend? das war es nämlich über jahre hinweg.

    Es gibt einen Unterschied unserer jeders. Die einen -- darauf bezog sich deine Frage -- sitzen hier, also im Forum, die anderen in der großen weiten Welt, wo die Pizza herkommt. Nur, weil es in einer eingeschränkten Gruppe jeder versteht, ist das kein Argument dafür, das Wort überall zu verwenden. Ist eigentlich nicht so schwierig zu verstehen.

    jedenfalls muß es mehr sinn gehabt haben als das, was jetzt eingeführt/definiert werden soll.

    Warum muß es das? Der Standard ist von 98, also etwa so alt, wie der aktuelle C-Standard. Wieviele C99-Compiler haben wird? Eben. Also wäre es überraschend, wenn sich KiB jetzt schon durchgesetzt hätte, findest Du nicht? Abgesehen davon, ist das Thema nicht so brisant, nur die informatikerseits vorhandene Arroganz stört doch etwas.

    Daniel E. schrieb:

    Genauso, wie Megasekunde gleich 2 Wochen zu definieren.

    ne, nicht wirklich. die woche hat nämlich ihren sinn. komischerweise kommt aber niemand darauf, daß sie, dem dezimalsystem folgend, doch besser zehn tage haben sollte. komisch, eh?

    Komisch wäre es nur, wenn Informatiker einen neuen Wochentyp, den Dekatag, einführen -- mit 8 Tagen natürlich.



  • scrub schrieb:

    schön. warum ist dieses argument, daß ja jeder kennt, plötzlich nicht mehr einleuchtend? das war es nämlich über jahre hinweg.

    1. damals hat man zwischen kilo und K unterschieden (hatte ich schon gesagt), größere Einheiten waren damals utopisch
    2. K = 1024 verursacht einen Fehler von 2,4%, heute haben wir G, also schon 7,3% Fehler

    Es fällt also erstens die eindeutige Unterscheidung zu den 1000er-Einheiten weg, und zweitens sind die Fehler wesentlich größer. Der Grund, warum das damals so eingeführt wurde, musste neu überdacht werden.



  • perfekt. bin glattweg überzeugt. ABER:

    warum soll denn nun eine weitere einheit eingeführt werden? dann wird halt einfach redefiniert 1.000.000 bit = 1000 kilobit = 1 megabit?



  • Damit die Hemmschwelle, die neuen Einheiten zu benutzen, geringer ist.



  • scrub schrieb:

    perfekt. bin glattweg überzeugt. ABER:

    warum soll denn nun eine weitere einheit eingeführt werden? dann wird halt einfach redefiniert 1.000.000 bit = 1000 kilobit = 1 megabit?

    Weil in einigen wenigen Bereichen (gibts noch was anderes ausser Hauptspeicher?) halt doch sinnvoll ist, binäre Einheiten zu verwenden.



  • Muss ich meinen C64 in Zukunft als C65,536 bezeichnen? Oder war das etwa der Grund, das man den C65 entwickelt hat?

    Wenn hier immer gesagt wird, kilo = 1000 und mega = 1000000, dann ist das übrigens sehr missverständlich! Bitte drückt euch klar aus, das ihr die Dezimalzahl 1000 meint und nicht binär oder hexadezimal! Sonst kann niemand wissen, was ihr wirklich sagen wollt.

    Bye, TGGC (NP Intelligenz)



  • Ist das deutsch, was du da redest? Benutzt du den gleichen Zeichensatz wie ich? Ich hab zwar ne Vermutung, was du sagen willst, aber sicher bin ich mir jetzt doch nicht mehr 😉



  • Bitte drückt euch klar aus, das ihr die Dezimalzahl 1000 meint und nicht binär oder hexadezimal! Sonst kann niemand wissen, was ihr wirklich sagen wollt.

    Das darf doch nicht wahr sein! TGGC sollte man im Normalbereich bannen, nur im Spielebereich zulassen. 😉 😃



  • ... schrieb:

    Bitte drückt euch klar aus, das ihr die Dezimalzahl 1000 meint und nicht binär oder hexadezimal! Sonst kann niemand wissen, was ihr wirklich sagen wollt.

    Das darf doch nicht wahr sein! TGGC sollte man im Normalbereich bannen, nur im Spielebereich zulassen. 😉 😃

    ROFL! 😃

    Bedingtes Bannen sozusagen... 🤡


Anmelden zum Antworten