Goldbach Vermutung



  • Erhard Henkes schrieb:

    Die Idee des "high prime lookup" spart gerade beim Testen vieler Zahlen in einem hohen Zahlenbereich eine Vielzahl an Miller-Rabin-Tests.

    Thanks to DJohn. 👍

    Auch wenn ich mich wieder unbeliebt mache, schau mal nach "fensterweise" auf der ersten Seite dieses Threads. Ich fürchte, dahin geht es zunächst. Wir werden festestellen, daß bis zu grotesken Größen die beiden äußeren Fester reichen; evenuelle Zweifler kann man dann ja noch extra untersuchen.

    Ich denke gerade darüber nach, statt der äußeren Fenster nur ein einziges inneres Fenster um sqrt(n) zu führen. Dann könnte man bis 2^128 untersuchen obwohl man nur isPrime(UInt64) hat.

    An einem schnellen isPrime(UInt64) arbeite ich seit einer Woche, alse genau die Gegenrichtung von Dir.



  • Mich überrascht bei diesem Thema (noch immer unbewiesene Vermutung des Herren Goldbach) die Vielfalt der Möglichkeiten bei der Herangehensweise und dass man mit einem leistungsstarken PC in wirklich beeindruckende Zahlenbereiche vordringen kann. Ich bin gespannt auf Volkards Neuerungen.



  • Der Satz ist zwar unbewiesen, aber man kann sehr einfach beweisen, dass es verdammt unwahrscheinlich wäre, wenn er nicht wahr wäre 😃



  • Erhard Henkes schrieb:

    [...] und dass man mit einem leistungsstarken PC in wirklich beeindruckende Zahlenbereiche vordringen kann. Ich bin gespannt auf Volkards Neuerungen.

    Wobei man bei der ganzen Sache nicht vergessen sollte, das man zwar im Bereich 10^120 einzelne Zahlen in ein paar Millisekunden testen kann aber nicht alle Zahlen bis dahin. Selbst wenn du die gesamte Rechenkapazität der Erde nutzen würdest, kriegst du bis zum Weltuntergang nicht alle Zahlen getestet. Nur so als Vergleich: Das Universum ist ca. 4*10^17 Sekunden alt.



  • sebi707: Ja, das ist richtig. Egal, wie toll ein Algorithmus oder Rechner ist, einfach einige hundert Zehnerpotenzen weiter, und schon ist Schluss. Alle Zahlen bis 2^64 zu checken erfordert umfangreiches verteiltes Rechnen. Bei Collatz habe ich da mal vor ein paar Jahren Teil genommen. Da gabs 20000er Pakete. http://www.ericr.nl/wondrous/

    Hier ist ein interessanter Artikel zum Berechnen der Goldbach Vermutung (schon 15 Jahre alt): http://www.ams.org/journals/mcom/2001-70-236/S0025-5718-00-01290-4/S0025-5718-00-01290-4.pdf



  • Ich bin mit dem aktuellen Programm wieder etwas weiter ins "Zahlen-Universum" vorgestoßen und habe den Bereich von 10^360 bis 10^360 + 100 durchgerechnet:

    `total time: 9302703 ms

    total time at mulmod: 8612644 ms (92 😵

    High Numbers to be tested: 28593

    Number of successful Division Prechecks: 8801 (30.8 😵

    Number of MR tests: 758 (2.65 😵

    Number of saved MR tests by high prime lookup: 19034 (66.6 %)`

    Alle Ergebnisse: http://pastebin.com/Ftgq6eMt

    Die höchste Spanne nach unten zur nächsten Primzahl ist dort 34259.



  • Bengo schrieb:

    Der Satz ist zwar unbewiesen, aber man kann sehr einfach beweisen, dass es verdammt unwahrscheinlich wäre, wenn er nicht wahr wäre 😃

    Kann man einem, der in Mathe nicht sonderlich bewandert ist, halbwegs einfach erklären wie dieser "Beweis der Unwahrscheinlichkeit" aussieht? Bzw. was da jetzt überhaupt mit unwahrscheinlich gemeint ist?
    Würde mich nämlich interessieren.


  • Mod

    hustbaer schrieb:

    Bengo schrieb:

    Der Satz ist zwar unbewiesen, aber man kann sehr einfach beweisen, dass es verdammt unwahrscheinlich wäre, wenn er nicht wahr wäre 😃

    Kann man einem, der in Mathe nicht sonderlich bewandert ist, halbwegs einfach erklären wie dieser "Beweis der Unwahrscheinlichkeit" aussieht? Bzw. was da jetzt überhaupt mit unwahrscheinlich gemeint ist?
    Würde mich nämlich interessieren.

    Das Argument beruht auf der Primzahlhäufigkeit. Wenn man zufällig eine Zahl X wählt, ist diese im Durchschnitt zu 1/log(X) eine Primzahl.

    Wenn wir nun eine große Zahl N nehmen, die sich als Summe aus M und N-M darstellen lässt, dann ist die Wahrscheinlichkeit, dass M und N-M beides Primzahlen sind 1/(log(M)*log(N-M)). Wenn wir nun alle Möglichkeiten für M betrachten (also M zwischen 3 und N/2), dann ist die durchschnittliche Anzahl von Primzahlpaaren M und N-M die Summe über alle M von obiger Wahrscheinlichkeit. Das ist für sehr große N ungefähr N/(2*log(N)^2). Die Anzahl von im Schnitt zu erwartenden Primzahlpaaren, um N darzustellen, wird also immer größer, wenn N größer wird. Da wir wissen, dass für kleine N stets solche Paare existieren, ist nicht zu erwarten, dass wir bei größeren N irgendwann kein solches Paar finden werden. Im Gegenteil sollte die Anzahl der Darstellungen als Summe eines Primzahlpaares sogar immer größer werden.

    Das wird natürlich einem strengen mathematischen Beweis nicht annähernd gerecht, aber es vermittelt eine starke Vorstellung davon, wieso die Vermutung wahrscheinlich richtig ist. Die Anzahl möglicher Zahlenpaare, die in der Summe eine bestimmte Zahl ergeben, nimmt schneller zu als die Wahrscheinlichkeit, dass beide diese Zahlen Primzahlen sind, abnimmt.



  • SeppJ schrieb:

    hustbaer schrieb:

    Bengo schrieb:

    Der Satz ist zwar unbewiesen, aber man kann sehr einfach beweisen, dass es verdammt unwahrscheinlich wäre, wenn er nicht wahr wäre 😃

    Kann man einem, der in Mathe nicht sonderlich bewandert ist, halbwegs einfach erklären wie dieser "Beweis der Unwahrscheinlichkeit" aussieht? Bzw. was da jetzt überhaupt mit unwahrscheinlich gemeint ist?
    Würde mich nämlich interessieren.

    Das Argument beruht auf der Primzahlhäufigkeit. Wenn man zufällig eine Zahl X wählt, ist diese im Durchschnitt zu 1/log(X) eine Primzahl.

    Wenn wir nun eine große Zahl N nehmen, die sich als Summe aus M und N-M darstellen lässt, dann ist die Wahrscheinlichkeit, dass M und N-M beides Primzahlen sind 1/(log(M)*log(N-M)). Wenn wir nun alle Möglichkeiten für M betrachten (also M zwischen 3 und N/2), dann ist die durchschnittliche Anzahl von Primzahlpaaren M und N-M die Summe über alle M von obiger Wahrscheinlichkeit. Das ist für sehr große N ungefähr N/(2*log(N)^2). Die Anzahl von im Schnitt zu erwartenden Primzahlpaaren, um N darzustellen, wird also immer größer, wenn N größer wird. Da wir wissen, dass für kleine N stets solche Paare existieren, ist nicht zu erwarten, dass wir bei größeren N irgendwann kein solches Paar finden werden. Im Gegenteil sollte die Anzahl der Darstellungen als Summe eines Primzahlpaares sogar immer größer werden.

    Das wird natürlich einem strengen mathematischen Beweis nicht annähernd gerecht, aber es vermittelt eine starke Vorstellung davon, wieso die Vermutung wahrscheinlich richtig ist. Die Anzahl möglicher Zahlenpaare, die in der Summe eine bestimmte Zahl ergeben, nimmt schneller zu als die Wahrscheinlichkeit, dass beide diese Zahlen Primzahlen sind, abnimmt.

    Mhmm.
    Damit kann ich jetzt aber auch "beweisen", daß Jede ungerade Zahl ist kleiner als 10^100 oder Summe zweier Primzahlen..



  • ... und noch etwas weiter, nun der Bereich von 10^420 bis 10^420 + 100:

    `total time: 10921016 ms

    High Numbers to be tested: 20269

    Number of successful Division Prechecks: 4254 (21 😵

    Number of MR tests: 487 (2.4 😵

    Number of saved MR tests by high prime lookup: 15528 (76.6 %)`

    Hier das ganze Ergebnis: http://pastebin.com/RBb8pjX6

    Die Zeitmessung in mulmod wurde dabei abgeschaltet.



  • Man kann sich auch gut einen Eindruck machen, wenn man sich mal die Größe der Summanden anschaut. Beim letzten Test mit 10^420 liegt der größte Summand bei ca. 11k. Im Vergleich zu 10^420 ist das gar nichts. Und der typische Wert liegt eher um 1k. Übrigens ist das wohl auch ein Grund warum du in diesem Zahlenbereich überhaupt noch was findest. Wenn du wirklich bis 0.5*10^420 alle Paare an Summanden testen müsstest, würde die Laufzeit wieder jede Zeitskala sprengen.



  • volkard schrieb:

    SeppJ schrieb:

    hustbaer schrieb:

    Bengo schrieb:

    Der Satz ist zwar unbewiesen, aber man kann sehr einfach beweisen, dass es verdammt unwahrscheinlich wäre, wenn er nicht wahr wäre 😃

    Kann man einem, der in Mathe nicht sonderlich bewandert ist, halbwegs einfach erklären wie dieser "Beweis der Unwahrscheinlichkeit" aussieht? Bzw. was da jetzt überhaupt mit unwahrscheinlich gemeint ist?
    Würde mich nämlich interessieren.

    Das Argument beruht auf der Primzahlhäufigkeit. Wenn man zufällig eine Zahl X wählt, ist diese im Durchschnitt zu 1/log(X) eine Primzahl.

    Wenn wir nun eine große Zahl N nehmen, die sich als Summe aus M und N-M darstellen lässt, dann ist die Wahrscheinlichkeit, dass M und N-M beides Primzahlen sind 1/(log(M)*log(N-M)). Wenn wir nun alle Möglichkeiten für M betrachten (also M zwischen 3 und N/2), dann ist die durchschnittliche Anzahl von Primzahlpaaren M und N-M die Summe über alle M von obiger Wahrscheinlichkeit. Das ist für sehr große N ungefähr N/(2*log(N)^2). Die Anzahl von im Schnitt zu erwartenden Primzahlpaaren, um N darzustellen, wird also immer größer, wenn N größer wird. Da wir wissen, dass für kleine N stets solche Paare existieren, ist nicht zu erwarten, dass wir bei größeren N irgendwann kein solches Paar finden werden. Im Gegenteil sollte die Anzahl der Darstellungen als Summe eines Primzahlpaares sogar immer größer werden.

    Das wird natürlich einem strengen mathematischen Beweis nicht annähernd gerecht, aber es vermittelt eine starke Vorstellung davon, wieso die Vermutung wahrscheinlich richtig ist. Die Anzahl möglicher Zahlenpaare, die in der Summe eine bestimmte Zahl ergeben, nimmt schneller zu als die Wahrscheinlichkeit, dass beide diese Zahlen Primzahlen sind, abnimmt.

    Mhmm.
    Damit kann ich jetzt aber auch "beweisen", daß Jede ungerade Zahl ist kleiner als 10^100 oder Summe zweier Primzahlen..

    Nein nur Jede ungerade Zahl ist kleiner als 10^100 oder sehr sehr wahrscheinlich Summe zweiter Primzahlen, weiß nicht, bis wo hin man weiß, dass Paare existieren, aber glaube es ist weniger als 10^100.

    Was genau damit gemeint ist, wird hier sehr schön deutlich http://www.spiegel.de/wissenschaft/mensch/primzahlen-wer-lueftet-das-geheimnis-der-unteilbarkeit-a-598096-2.html



  • ... und nun noch von Zentillion (10^600 - die höchste benannte Zahl) bis Zentillion + 100 (Rechenzeit etwas über 6 h):

    total time: 22634299 ms
    
    High Numbers to be tested: 27121
    Number of successful Division Prechecks: 4377 (16.1 %)
    Number of MR tests: 451 (1.66 %)
    Number of saved MR tests by high prime lookup: 22293 (82.2 %)
    

    DIVISOR_PRECHECK_MAX = 2999999 <== erhöht



  • Erhard Henkes schrieb:

    Zentillion (10^600 - die höchste benannte Zahl)

    Hat man mir in der Schule auch beigebraucht.
    Aber ich sag mal frech Zentilliarde und bin traurig, daß ich dem Lehrer glaubte.



  • Als Kind habe ich im TV aufgeschnappt, dass dies die größte Zahl überhaupt sei. Das glaubt man dann sogar. Fazit: Man darf einfach keine Grenzen akzeptieren, sondern man muss frech dahinter denken/schauen oder einfach weiter spazieren. 🙂



  • Die größte bekannte Zahl ist Graham 64 😃

    Ist auch eine ganz lustige Aufgabe, die letzen Dezimalstellen der Zahl zu berechnen 😉



  • Laut Guinness-Buch der Rekorde ist sie die größte jemals in einem mathematischen Beweis verwendete Zahl. In der Zwischenzeit kamen aber in einigen ernsthaften mathematischen Beweisen noch wesentlich größere Zahlen vor, zum Beispiel im Zusammenhang mit Kruskals Baum-Theorem.

    https://de.wikipedia.org/wiki/Grahams_Zahl



  • Erhard Henkes schrieb:

    Laut Guinness-Buch der Rekorde ist sie die größte jemals in einem mathematischen Beweis verwendete Zahl. In der Zwischenzeit kamen aber in einigen ernsthaften mathematischen Beweisen noch wesentlich größere Zahlen vor, zum Beispiel im Zusammenhang mit Kruskals Baum-Theorem.

    https://de.wikipedia.org/wiki/Grahams_Zahl

    hab ich auch gelesen, aber hab noch keine dieser Zahlen gefunden, und Graham 64 ist schon verdammt groß 😃


Anmelden zum Antworten