Echte Zufallszahlen keine pseudo ( CryptGenRandom )



  • hustbaer schrieb:

    volkard schrieb:

    Je nach Zweck.
    Gehts um Anonymiität (maximalen Zufall), dann darf man all das eben genau nicht einfließen lassen.

    Schmarrn.
    Da rechnet man rein was man reinrechnen will, und dann anonymisiert man das ganze durch nen cryptographisch sicheren Hash.

    jein

    Man sollte schon gute Entropie Quellen nehmen. Nicht einfach nach dem Motto

    Skein("00-ff-ff-dd-bb-bb"). das wären 2^48 nicht sehr viel was...

    Wenn man gute Entropie Quellen hat und sie dann Hash't hat man sehr sehr sehr guten Zufall, denn nie jemand brechen Wird. Und dazu brauchts nicht mal Hardware, denn das ist meiner Meinung nach nur 'theoretisch' hergeleiteter Schwachsinn denn niemand braucht!



  • Hmm, wenn man 48 Bits Mac-Adresse nimmt und mit mindestens 48 Bits gutem Zufall auffüllt und das dann durch nen cryptographisch sicheren Hash schickt, hat man dann die Mac-Adresse in der enstehenden GUID vollkommen verdeckt? Ich meine, daß jede Mac-Adresse mit gleicher Wahrscheinlichkeit diese GUID erzeugen könnte?



  • volkard schrieb:

    Hmm, wenn man 48 Bits Mac-Adresse nimmt und mit mindestens 48 Bits gutem Zufall auffüllt und das dann durch nen cryptographisch sicheren Hash schickt, hat man dann die Mac-Adresse in der enstehenden GUID vollkommen verdeckt? Ich meine, daß jede Mac-Adresse mit gleicher Wahrscheinlichkeit diese GUID erzeugen könnte?

    Habe ich von GUID gesprochen?



  • -lowbyte- schrieb:

    Habe ich von GUID gesprochen?

    Hatte das Gefühl, hustbaer und ich hätten unter anderem davon gesprochen.



  • @volkard:
    Ich schätze du wirst es mit 128 Bit gutem Zufall auffüllen müssen damit dann jede Mac Adresse mit gleicher Wahrscheinlichkeit die GUID erzeugen könnte.
    So lange es insgesamt genug Zutaten sind, und die Hash-Funktion nicht umkehrbar ist, sollte das mMn. aber egal sein.



  • hustbaer schrieb:

    @volkard:
    Ich schätze du wirst es mit 128 Bit gutem Zufall auffüllen müssen damit dann jede Mac Adresse mit gleicher Wahrscheinlichkeit die GUID erzeugen könnte.

    Ich schätze, daß die Eigenschaft der Hashfunktion, daß jedes Eingabebit jedes Ausgabebit gleich stark beeinflusst, es egal macht, über welche Bits ich den Zufall lege, gleich mit XOR auf die Zutaten oder drangehängt.

    Dann wäre Zutaten + viel Zufall nicht besser als nur Zufall.

    hustbaer schrieb:

    So lange es insgesamt genug Zutaten sind, und die Hash-Funktion nicht umkehrbar ist, sollte das mMn. aber egal sein.

    Also hoffen, daß in genau dem gleichen Maß, wie die Zufälligkeit (durch arg wenig, vielleicht nur 16 Zufallsbits) beschnitten wird, also ich weniger Hashwerte erzeugen kann, die Hashergebnisse sich besser nach den konstant bleibenden Zutaten gruppieren, also alle anderen auch weniger Hashergebnisse erzeigen, und die Überschneidungen irgendwie bevorzugt verschwinden. Ich weiß ja nicht, das scheint mir recht vage. Beim schlichten Zufall weiß ich, was ich in der Hand habe, und er ist gut genug.



  • Jodocus schrieb:

    Bashar schrieb:

    Jodocus schrieb:

    Bashar schrieb:

    Jodocus schrieb:

    Bashar schrieb:

    Woher kommt diese Anforderung?

    Das ist die Definition.

    Die Definition wovon?

    Na die vom Informationsgehalt. Ziel der Geschichte war doch, die effizienteste (hier kleinste) Möglichkeit der Kodierung eines Zeichens zu finden. Die findet man in der Zahl des Informationsgehaltes.

    Und woher kommt jetzt die Anforderung, dass der Informationsgehalt darüber hinaus minimal zu sein hat?

    Ich zitiere dich nochmal:

    Der Informationsgehalt eines Zeichens drückt sich darin aus, wie viele Bits man zu dessen Darstellung mindestens benötigt. Wenn der Erwartungswert des Informationsgehaltes (= die Entropie) nun den maximalen Wert (in Abh. der Auftrittswahrscheinlichkeit) annimmt, spricht das nicht gerade für die Extremalanforderung an den Informationsgehalt, so klein zu sein wie nur möglich.

    Im Falle einer gleichverteilten Zufallsvariable ist die minimale Codierungslänge, also der Informationsgehalt, einfach mal sehr groß. Wo ist denn da der Widerspruch?

    Nochmal: Bei einer gleichverteilten Zufallsvariable (also mit gleichgroßem Informationsgehalt für jedes Zeichen) trägt ein einzelnes Bit sehr wenig Information, da du sehr viele brauchst, um das Zeichen zu kodieren.

    Das Argument finde ich nicht schlüssig. Jedes Bit trägt ein Bit an Information, das ist fast schon trivial.

    Da ist kein Widerspruch (habe ich auch nicht behauptet).

    Doch:

    Der Informationsgehalt eines Zeichens drückt sich darin aus, wie viele Bits man zu dessen Darstellung mindestens benötigt. Wenn der Erwartungswert des Informationsgehaltes (= die Entropie) nun den maximalen Wert (in Abh. der Auftrittswahrscheinlichkeit) annimmt, spricht das nicht gerade für die Extremalanforderung an den Informationsgehalt, so klein zu sein wie nur möglich.

    Ich paraphrasiere mal: "1) Der Informationsgehalt eines Zeichens ist maximal. 2) An den Informationsgehalt besteht die Anforderung, minimal zu sein." Wenn du damit keinen Widerspruch ausdrücken wolltest, solltest du dein Argument nochmal anders formulieren.

    Warum hängst du dich jetzt an diesem Begriff so auf?

    Du gibst mir nicht viel anderes, um dein Argument zu verstehen.

    Es gibt keine einheitliche Definition von Information. Erkläre mir erst mal, was du unter Information verstehst, andernfalls bringt das hier nichts. Wenn du die intuitive meinst, dann bist du mit einer Erklärung dieses Informationsbegriffs über die Entropie auf dem Holzweg. Das funktioniert nicht.

    Ich hatte meine intuitive Vorstellung schon genannt:

    Bashar schrieb:

    Der Informationsgehalt einer Nachricht besteht intuitiv darin, dass du etwas erfährst, was du noch nicht wusstest, das passt wunderbar zum Entropiebegriff.

    Bashar schrieb:

    Lösung: Gleichverteiltes Rauschen hat die größte Shannon-Entropie, also nach Shannons Interpretation des Informationsbegriffs die kleinst mögliche Information

    Nanu? Ich denke doch, dass es die größtmögliche Information bedeutet.

    Nicht nach der üblichen Interpretation.

    Du hattest aber "nach Shannons Interpretation" geschrieben. Steht oben noch.

    Wenn du z.B. ein physikalisches System im therm. GG hast, ist seine Entropie auch maximal und dabei hast du so gut wie garkeine Information über den Mikrozustand des Systems.

    Dann guck dir den Mikrozustand doch an, dann kennst du ihn.

    Shannon's Annahme, Information stamme aus der bestmöglichen Zahl zur Kodierung einer Nachricht, dessen Zeichen aus einer W'keitsverteilung stammen, ist überhaupt nicht konform mit dem geläufigen Verständnis von Information. brennessel und nebeslsrne haben die gleiche W'keitsverteilung/Shannon-Entropie und trotzdem hat letzteres keine Information, das erste hingegen schon.

    Die Entropie ist eine Eigenschaft der Zufallsvariable, nicht einer konkreten Ausprägung.

    Es gibt keinen Zusammenhang zwischen Shannon-Information und "echter" Information.
    Was zu einer Information gehört, ist, wie man sie interpretiert, das ist (bisher) nicht formalisierbar.

    Nach deinem:

    Für den unformalen Informationsbegriff können sich Philosophen kümmern, da gibts Argumente dafür, dagegen oder dafür, dass man keine Aussage machen kann, ob Rauschen nun Information enthält oder nicht.

    hätte ich jetzt irgendwie erwartet, dass du einen formalen Informationsbegriff, der sich von Shannon unterscheidet, nennst. Aber gut, bleiben wir bei Shannon, wenn das der einzige formale Begriff ist.

    Dass der ziemlich primitiv ist, ist klar. Er koppelt die Interpretation der Nachricht ab. Das ist eine Stärke, keine Schwäche. Die Information einer Nachricht mit N Bit Informationsgehalt teilt dem Empfänger lediglich mit, welcher einer mit bestimmten Wahrscheinlichkeiten möglichen Ausgänge tatsächlich vorliegt, nicht was diese Ausgänge sind oder was sie bedeuten.

    Im Zusammenhang mit Zufallszahlen wollen wir, dass der Empfänger durch die Zufallszahl möglichst viel Information erhält, das ist gleichbedeutend damit, dass er diese Information nur sehr schwer hätte erraten können.



  • Jodocus schrieb:

    was soll das jetzt falsifizieren?

    Glaubst du, dass insbesondere die relativistische Quantenmechanik stimmt? Ja? Auch die Quantenfeldtheorien? Okay. Wie interpretierst du diese denn deterministisch? Mit einer verborgenen Variable?

    ok, du willst mir also folgendes weismachen: dass exakt gleiche voraussetzungen die logisch deterministisch als ursache nur eine bestimmte wirkung erzielen kann aber trotzdem gleichzeitig auch völlig andere ergebnisse hätte haben können obwohl die ausgangssitation exakt identisch ist wobei man auf deren zurückführung dieser ergebnisse zu anderen ursachen kommen müsste (d.h. A führt zweifelsfrei zu B (A->B) und reversibel auf einmal (C,D,X,...[unbestimmbar]<-B)? mit anderen worten: unter einbezug aller relevanzen ist der apfel vom baum gefallen aufgrund deterministisch kausalen prozessen und nur die eine wirkung ist logisch möglich aber gleichzeitig hätte es obwohl äquivalenten vorraussetzungen anders passieren können und das nicht vorhersehbar? wo ist dann der einfluss? das macht keinen sinn. zufall kann hier nur abstrakt als terminus verwendet werden, wenn es der aktuelle forschungsstand nicht "zulässt", dass man das messen kann. aber das ist irrelevant. nur weil ich nicht eruieren kann warum B enstanden ist, heißt es nicht automatisch dass es zufall ist.



  • dass exakt gleiche voraussetzungen die logisch deterministisch als ursache nur eine bestimmte wirkung

    Wenn man die Welt der Teilchen betrachtet, scheitert deine Aussage hier schon.

    Um gleiche Vorraussetzungen machen zu können, müsste man ständig messen und die gewünschten Teilchen in die richtige Position zur richtigen Zeit bringen, was dank Heisenberg unmöglich ist.

    Sehr vereinfacht ausgedrückt: Um die Position eines Objektes festzustellen, muss dies mit irgenteinem anderem Teilchen interagieren. Ich muss ein Objekt mit Licht (Photonen) bestrahlen, damit ich diese sehe. Einem Apfel tut das nicht weh, aber was ist mit einem Teilchen, was genauso groß ist wie ein Photon?

    ---

    Uhh, von den vielen Entropie, Informationsgehalt Begriffen brummt mir der Schädel. 😕

    Wenn ich eine Nachricht verschlüssele, so werden alle sprachlichen Korrelanzen so gut wie möglich eleminiert. Die Nachricht sollte nicht von Rauschen zu unterscheiden sein.

    In welchem Zusammenhang muss man hier den Informationsbegriff sehen?



  • Bitte ein Bit schrieb:

    dass exakt gleiche voraussetzungen die logisch deterministisch als ursache nur eine bestimmte wirkung

    Um gleiche Vorraussetzungen machen zu können, müsste man ständig messen und die gewünschten Teilchen in die richtige Position zur richtigen Zeit bringen, was dank Heisenberg unmöglich ist.

    es geht darum, ob es prinzipiell wahr ist, nicht ob man mit aktuellen forschungsinstrumente das messen kann. das sind zwei verschiedene paar schuh und somit zieht dein argument hier nicht.



  • Mr.Pupswindel schrieb:

    Bitte ein Bit schrieb:

    dass exakt gleiche voraussetzungen die logisch deterministisch als ursache nur eine bestimmte wirkung

    Um gleiche Vorraussetzungen machen zu können, müsste man ständig messen und die gewünschten Teilchen in die richtige Position zur richtigen Zeit bringen, was dank Heisenberg unmöglich ist.

    es geht darum, ob es prinzipiell wahr ist, nicht ob man mit aktuellen forschungsinstrumente das messen kann. das sind zwei verschiedene paar schuh und somit zieht dein argument hier nicht.

    Und schon hast du diese sehr vereinfachte Erklärung der Unschärfe missverstanden. Die heisenberg'sche Unschärfe ist von theoretischer Natur, es ist prinzipiell Unmöglich, z.B. Ort und Impuls gleichzeitig beliebig genau aufzulösen, selbst wenn deine Messgeräte überhaupt keine systematischen Fehler hätten.

    Die Unschärferelation lässt sich aus der Cauchy-Schwarz-Ungleichung (mit relativ wenig Annahmen) herleiten. Lies mal etwas Quantenmechanik.



  • Ad aCTa schrieb:

    es ist prinzipiell Unmöglich

    falsch



  • Mr.Pupswindel schrieb:

    Ad aCTa schrieb:

    es ist prinzipiell Unmöglich

    falsch

    Und da du keine Argumente anführst, hast du dich soeben als Troll geoutet. Sieh ein, dass du nicht schlauer bist als Heisenberg oder die ganzen anderen Quantenmechaniker. Da du vermutlich eher auf populärwissenschaftlich stehst: sogar auf Wikipedia steht:

    http://de.wikipedia.org/wiki/Heisenbergsche_Unschärferelation schrieb:

    Die Unschärferelation ist nicht die Folge von technisch behebbaren Unzulänglichkeiten eines entsprechenden Messinstrumentes, sondern prinzipieller Natur.

    (Hervorhebung von mir).
    Den mathematischen Beweis findest du sogar im gleichen Artikel.

    Und jetzt, troll dich!



  • Ad aCTa schrieb:

    Sieh ein, dass du nicht schlauer bist als Heisenberg oder die ganzen anderen Quantenmechaniker.

    kannst du diese sehr gewagte these überhaupt verifizieren? du weißt selbst, dass du das nicht pauschal so sagen kannst. und das war deinerseits getrollt, siehe auch: http://de.wikipedia.org/wiki/Argumentum_ad_hominem



  • Thesosaurus schrieb:

    kannst du diese sehr gewagte these überhaupt verifizieren?

    Ja, du hast die Ansätze der Quantenmechanik nicht verstanden. Ist nicht schlimm, Quantenmechanik ist schwer zu schlucken, wenn man das erste mal von hört.

    Nur zur Erinnerung bzgl. deinem Argumentum ad hominem: Dein "Argument" war:

    Mr.Pupswindel/Thesosaurus/noch mehr dumme Namen schrieb:

    falsch

    Und ich verabschiede mich jetzt aus dem Thread.



  • Ad aCTa schrieb:

    Ja, du hast die Ansätze der Quantenmechanik nicht verstanden

    Alle deutschen Bürger sind Nazis. - Warum, kannst du das denn beweisen? - Ja, weil sie halt Nazis sind.

    ok



  • Ad aCTa schrieb:

    Mr.Pupswindel/Thesosaurus/noch mehr dumme Namen

    Was sind "dumme Namen"?


Anmelden zum Antworten