Echte Zufallszahlen keine pseudo ( CryptGenRandom )



  • Nix lol, wir können nix dafür, dass du beschränkt denkst.



  • OT/@ Unregs: Vor 100 Jahren wurde etwas entwickelt, was sich Quantenmechanik schmipft. Beschäftigt euch mal damit.



  • Popo schrieb:

    Nix lol, wir können nix dafür, dass du beschränkt denkst.

    #include "/universum/milchstraße/sol/kosmologie/lesch/quanten/zufall/zufall/zufall"
    #define tellen weilchen
    

    und wundere Dich.



  • Jodocus schrieb:

    OT/@ Unregs: Vor 100 Jahren wurde etwas entwickelt, was sich Quantenmechanik schmipft. Beschäftigt euch mal damit.

    was soll das jetzt falsifizieren?



  • okkkk schrieb:

    Jodocus schrieb:

    OT/@ Unregs: Vor 100 Jahren wurde etwas entwickelt, was sich Quantenmechanik schmipft. Beschäftigt euch mal damit.

    was soll das jetzt falsifizieren?

    Man kann nur eine These falsifizieren, die greifbar ist, sicher nicht eine, wo der Urheber alle zwei Postings den Namen wechselt und stets verschwindet, wenn man ihn logisch an den Eiern packt. Sorry, keine ernsthaften Diskussionen mit unregs.



  • was soll das jetzt falsifizieren?

    Glaubst du, dass insbesondere die relativistische Quantenmechanik stimmt? Ja? Auch die Quantenfeldtheorien? Okay. Wie interpretierst du diese denn deterministisch? Mit einer verborgenen Variable?



  • volkard schrieb:

    okkkk schrieb:

    Jodocus schrieb:

    OT/@ Unregs: Vor 100 Jahren wurde etwas entwickelt, was sich Quantenmechanik schmipft. Beschäftigt euch mal damit.

    was soll das jetzt falsifizieren?

    Man kann nur eine These falsifizieren, die greifbar ist, sicher nicht eine, wo der Urheber alle zwei Postings den Namen wechselt und stets verschwindet, wenn man ihn logisch an den Eiern packt. Sorry, keine ernsthaften Diskussionen mit unregs.

    das war jetzt getrollt, oder?



  • Wie wäre es, wenn man evtl. eine oder mehrere der folgenden Punkte mit in die Generierung der Zufallszahl einfliesen lässt?

    - MAC-Adresse (Hardware)
    - Seriennummer CPU / HDD (Hardware)
    - eine bestimmte Größe des Datenverkehrs über die Netzwerkkarte verwenden
    - eine bestimmte Größe des Streams des Soundbuffers verwenden.
    - Screenshot erstellen und diese Daten mit einfließen lassen.



  • va!n schrieb:

    Wie wäre es, wenn man evtl. eine oder mehrere der folgenden Punkte mit in die Generierung der Zufallszahl einfliesen lässt?

    - MAC-Adresse (Hardware)
    - Seriennummer CPU / HDD (Hardware)
    - eine bestimmte Größe des Datenverkehrs über die Netzwerkkarte verwenden
    - eine bestimmte Größe des Streams des Soundbuffers verwenden.
    - Screenshot erstellen und diese Daten mit einfließen lassen.

    Je nach Zweck.
    Gehts um Anonymiität (maximalen Zufall), dann darf man all das eben genau nicht einfließen lassen.

    http://de.wikipedia.org/wiki/Universally_Unique_Identifier



  • knivil schrieb:

    Weil du das Rauschen wahrnehmen kannst ist es eine Information

    Nein, das ist die Definition eines Signals .. ich kann es messen. Information muss es trotzdem nicht enthalten.

    Da hast du Recht. Aber in meinem Kontext : Ich messe das Rauschen was man nicht deterministisch erklären kann also ein Wert den ich messe der für mich zufällig erscheint. Wenn ich nun diesen für meinen Anschein zufälligen Wert nehme und mit diesem meine Verschlüsselung realisiere, dann ist dieser gemessene Wert für mich eine sehr wertvolle Information. Es häng also vom Kontext ab.

    Ob das Universum determistisch ist ist nur eine These der Beweis fehlt.



  • volkard schrieb:

    Je nach Zweck.
    Gehts um Anonymiität (maximalen Zufall), dann darf man all das eben genau nicht einfließen lassen.

    Schmarrn.
    Da rechnet man rein was man reinrechnen will, und dann anonymisiert man das ganze durch nen cryptographisch sicheren Hash.



  • hustbaer schrieb:

    volkard schrieb:

    Je nach Zweck.
    Gehts um Anonymiität (maximalen Zufall), dann darf man all das eben genau nicht einfließen lassen.

    Schmarrn.
    Da rechnet man rein was man reinrechnen will, und dann anonymisiert man das ganze durch nen cryptographisch sicheren Hash.

    jein

    Man sollte schon gute Entropie Quellen nehmen. Nicht einfach nach dem Motto

    Skein("00-ff-ff-dd-bb-bb"). das wären 2^48 nicht sehr viel was...

    Wenn man gute Entropie Quellen hat und sie dann Hash't hat man sehr sehr sehr guten Zufall, denn nie jemand brechen Wird. Und dazu brauchts nicht mal Hardware, denn das ist meiner Meinung nach nur 'theoretisch' hergeleiteter Schwachsinn denn niemand braucht!



  • Hmm, wenn man 48 Bits Mac-Adresse nimmt und mit mindestens 48 Bits gutem Zufall auffüllt und das dann durch nen cryptographisch sicheren Hash schickt, hat man dann die Mac-Adresse in der enstehenden GUID vollkommen verdeckt? Ich meine, daß jede Mac-Adresse mit gleicher Wahrscheinlichkeit diese GUID erzeugen könnte?



  • volkard schrieb:

    Hmm, wenn man 48 Bits Mac-Adresse nimmt und mit mindestens 48 Bits gutem Zufall auffüllt und das dann durch nen cryptographisch sicheren Hash schickt, hat man dann die Mac-Adresse in der enstehenden GUID vollkommen verdeckt? Ich meine, daß jede Mac-Adresse mit gleicher Wahrscheinlichkeit diese GUID erzeugen könnte?

    Habe ich von GUID gesprochen?



  • -lowbyte- schrieb:

    Habe ich von GUID gesprochen?

    Hatte das Gefühl, hustbaer und ich hätten unter anderem davon gesprochen.



  • @volkard:
    Ich schätze du wirst es mit 128 Bit gutem Zufall auffüllen müssen damit dann jede Mac Adresse mit gleicher Wahrscheinlichkeit die GUID erzeugen könnte.
    So lange es insgesamt genug Zutaten sind, und die Hash-Funktion nicht umkehrbar ist, sollte das mMn. aber egal sein.



  • hustbaer schrieb:

    @volkard:
    Ich schätze du wirst es mit 128 Bit gutem Zufall auffüllen müssen damit dann jede Mac Adresse mit gleicher Wahrscheinlichkeit die GUID erzeugen könnte.

    Ich schätze, daß die Eigenschaft der Hashfunktion, daß jedes Eingabebit jedes Ausgabebit gleich stark beeinflusst, es egal macht, über welche Bits ich den Zufall lege, gleich mit XOR auf die Zutaten oder drangehängt.

    Dann wäre Zutaten + viel Zufall nicht besser als nur Zufall.

    hustbaer schrieb:

    So lange es insgesamt genug Zutaten sind, und die Hash-Funktion nicht umkehrbar ist, sollte das mMn. aber egal sein.

    Also hoffen, daß in genau dem gleichen Maß, wie die Zufälligkeit (durch arg wenig, vielleicht nur 16 Zufallsbits) beschnitten wird, also ich weniger Hashwerte erzeugen kann, die Hashergebnisse sich besser nach den konstant bleibenden Zutaten gruppieren, also alle anderen auch weniger Hashergebnisse erzeigen, und die Überschneidungen irgendwie bevorzugt verschwinden. Ich weiß ja nicht, das scheint mir recht vage. Beim schlichten Zufall weiß ich, was ich in der Hand habe, und er ist gut genug.



  • Jodocus schrieb:

    Bashar schrieb:

    Jodocus schrieb:

    Bashar schrieb:

    Jodocus schrieb:

    Bashar schrieb:

    Woher kommt diese Anforderung?

    Das ist die Definition.

    Die Definition wovon?

    Na die vom Informationsgehalt. Ziel der Geschichte war doch, die effizienteste (hier kleinste) Möglichkeit der Kodierung eines Zeichens zu finden. Die findet man in der Zahl des Informationsgehaltes.

    Und woher kommt jetzt die Anforderung, dass der Informationsgehalt darüber hinaus minimal zu sein hat?

    Ich zitiere dich nochmal:

    Der Informationsgehalt eines Zeichens drückt sich darin aus, wie viele Bits man zu dessen Darstellung mindestens benötigt. Wenn der Erwartungswert des Informationsgehaltes (= die Entropie) nun den maximalen Wert (in Abh. der Auftrittswahrscheinlichkeit) annimmt, spricht das nicht gerade für die Extremalanforderung an den Informationsgehalt, so klein zu sein wie nur möglich.

    Im Falle einer gleichverteilten Zufallsvariable ist die minimale Codierungslänge, also der Informationsgehalt, einfach mal sehr groß. Wo ist denn da der Widerspruch?

    Nochmal: Bei einer gleichverteilten Zufallsvariable (also mit gleichgroßem Informationsgehalt für jedes Zeichen) trägt ein einzelnes Bit sehr wenig Information, da du sehr viele brauchst, um das Zeichen zu kodieren.

    Das Argument finde ich nicht schlüssig. Jedes Bit trägt ein Bit an Information, das ist fast schon trivial.

    Da ist kein Widerspruch (habe ich auch nicht behauptet).

    Doch:

    Der Informationsgehalt eines Zeichens drückt sich darin aus, wie viele Bits man zu dessen Darstellung mindestens benötigt. Wenn der Erwartungswert des Informationsgehaltes (= die Entropie) nun den maximalen Wert (in Abh. der Auftrittswahrscheinlichkeit) annimmt, spricht das nicht gerade für die Extremalanforderung an den Informationsgehalt, so klein zu sein wie nur möglich.

    Ich paraphrasiere mal: "1) Der Informationsgehalt eines Zeichens ist maximal. 2) An den Informationsgehalt besteht die Anforderung, minimal zu sein." Wenn du damit keinen Widerspruch ausdrücken wolltest, solltest du dein Argument nochmal anders formulieren.

    Warum hängst du dich jetzt an diesem Begriff so auf?

    Du gibst mir nicht viel anderes, um dein Argument zu verstehen.

    Es gibt keine einheitliche Definition von Information. Erkläre mir erst mal, was du unter Information verstehst, andernfalls bringt das hier nichts. Wenn du die intuitive meinst, dann bist du mit einer Erklärung dieses Informationsbegriffs über die Entropie auf dem Holzweg. Das funktioniert nicht.

    Ich hatte meine intuitive Vorstellung schon genannt:

    Bashar schrieb:

    Der Informationsgehalt einer Nachricht besteht intuitiv darin, dass du etwas erfährst, was du noch nicht wusstest, das passt wunderbar zum Entropiebegriff.

    Bashar schrieb:

    Lösung: Gleichverteiltes Rauschen hat die größte Shannon-Entropie, also nach Shannons Interpretation des Informationsbegriffs die kleinst mögliche Information

    Nanu? Ich denke doch, dass es die größtmögliche Information bedeutet.

    Nicht nach der üblichen Interpretation.

    Du hattest aber "nach Shannons Interpretation" geschrieben. Steht oben noch.

    Wenn du z.B. ein physikalisches System im therm. GG hast, ist seine Entropie auch maximal und dabei hast du so gut wie garkeine Information über den Mikrozustand des Systems.

    Dann guck dir den Mikrozustand doch an, dann kennst du ihn.

    Shannon's Annahme, Information stamme aus der bestmöglichen Zahl zur Kodierung einer Nachricht, dessen Zeichen aus einer W'keitsverteilung stammen, ist überhaupt nicht konform mit dem geläufigen Verständnis von Information. brennessel und nebeslsrne haben die gleiche W'keitsverteilung/Shannon-Entropie und trotzdem hat letzteres keine Information, das erste hingegen schon.

    Die Entropie ist eine Eigenschaft der Zufallsvariable, nicht einer konkreten Ausprägung.

    Es gibt keinen Zusammenhang zwischen Shannon-Information und "echter" Information.
    Was zu einer Information gehört, ist, wie man sie interpretiert, das ist (bisher) nicht formalisierbar.

    Nach deinem:

    Für den unformalen Informationsbegriff können sich Philosophen kümmern, da gibts Argumente dafür, dagegen oder dafür, dass man keine Aussage machen kann, ob Rauschen nun Information enthält oder nicht.

    hätte ich jetzt irgendwie erwartet, dass du einen formalen Informationsbegriff, der sich von Shannon unterscheidet, nennst. Aber gut, bleiben wir bei Shannon, wenn das der einzige formale Begriff ist.

    Dass der ziemlich primitiv ist, ist klar. Er koppelt die Interpretation der Nachricht ab. Das ist eine Stärke, keine Schwäche. Die Information einer Nachricht mit N Bit Informationsgehalt teilt dem Empfänger lediglich mit, welcher einer mit bestimmten Wahrscheinlichkeiten möglichen Ausgänge tatsächlich vorliegt, nicht was diese Ausgänge sind oder was sie bedeuten.

    Im Zusammenhang mit Zufallszahlen wollen wir, dass der Empfänger durch die Zufallszahl möglichst viel Information erhält, das ist gleichbedeutend damit, dass er diese Information nur sehr schwer hätte erraten können.



  • Jodocus schrieb:

    was soll das jetzt falsifizieren?

    Glaubst du, dass insbesondere die relativistische Quantenmechanik stimmt? Ja? Auch die Quantenfeldtheorien? Okay. Wie interpretierst du diese denn deterministisch? Mit einer verborgenen Variable?

    ok, du willst mir also folgendes weismachen: dass exakt gleiche voraussetzungen die logisch deterministisch als ursache nur eine bestimmte wirkung erzielen kann aber trotzdem gleichzeitig auch völlig andere ergebnisse hätte haben können obwohl die ausgangssitation exakt identisch ist wobei man auf deren zurückführung dieser ergebnisse zu anderen ursachen kommen müsste (d.h. A führt zweifelsfrei zu B (A->B) und reversibel auf einmal (C,D,X,...[unbestimmbar]<-B)? mit anderen worten: unter einbezug aller relevanzen ist der apfel vom baum gefallen aufgrund deterministisch kausalen prozessen und nur die eine wirkung ist logisch möglich aber gleichzeitig hätte es obwohl äquivalenten vorraussetzungen anders passieren können und das nicht vorhersehbar? wo ist dann der einfluss? das macht keinen sinn. zufall kann hier nur abstrakt als terminus verwendet werden, wenn es der aktuelle forschungsstand nicht "zulässt", dass man das messen kann. aber das ist irrelevant. nur weil ich nicht eruieren kann warum B enstanden ist, heißt es nicht automatisch dass es zufall ist.



  • dass exakt gleiche voraussetzungen die logisch deterministisch als ursache nur eine bestimmte wirkung

    Wenn man die Welt der Teilchen betrachtet, scheitert deine Aussage hier schon.

    Um gleiche Vorraussetzungen machen zu können, müsste man ständig messen und die gewünschten Teilchen in die richtige Position zur richtigen Zeit bringen, was dank Heisenberg unmöglich ist.

    Sehr vereinfacht ausgedrückt: Um die Position eines Objektes festzustellen, muss dies mit irgenteinem anderem Teilchen interagieren. Ich muss ein Objekt mit Licht (Photonen) bestrahlen, damit ich diese sehe. Einem Apfel tut das nicht weh, aber was ist mit einem Teilchen, was genauso groß ist wie ein Photon?

    ---

    Uhh, von den vielen Entropie, Informationsgehalt Begriffen brummt mir der Schädel. 😕

    Wenn ich eine Nachricht verschlüssele, so werden alle sprachlichen Korrelanzen so gut wie möglich eleminiert. Die Nachricht sollte nicht von Rauschen zu unterscheiden sein.

    In welchem Zusammenhang muss man hier den Informationsbegriff sehen?


Anmelden zum Antworten