Wer kann die schnellsten Primzahlen?



  • otze schrieb:

    überleg ich auch grad. besten algo für einmalige 4byte werte raussuchen, und dann mal schauen...

    falls du nur eine primzahlenliste brauchst, die speicher man wohl optimal als char-array von primzahlendifferenzen. und rutsch dann zu programmbeginn einmal durch und summiert und kopiert es in ein int-array.



  • wie bescheißen?

    Von den Compileroptionen angefangen (Optimiert auf Pentium, etc.) über die Eingabe bei der man bereits alle geraden Zahlen kickt (bzw. wenn die Eingabe überhaupt dem User überlassen wird gilt sowieso wer am schnellsten von stdin lesen kann). Außerdem kann ich Algorithmen anfertigen die eine gewisse Prozentchance haben richtige zahlen auszuspucken. Dann optimiere ich nur noch um einerseits noch schnell genug und andererseits noch genügend Chance zu haben. Damit die Chance noch höher wird schicke ich dreimal die selbe Binary ab und behaupte ein anderer Algo käme zur Verwendung und ihr testet alle bis es bei einem rein zufällig funktioniert.

    MfG SideWinder



  • SideWinder schrieb:

    Da fällt mir ein: Caching in irgendeiner Weise erlaubt?

    ja. es zu verbieten wäre zu willkürlich.
    aber es trifft ja eh nur die sehr kleinen zahlen, wo man chache-treffer erwarten kann.



  • volkard schrieb:

    otze schrieb:

    überleg ich auch grad. besten algo für einmalige 4byte werte raussuchen, und dann mal schauen...

    falls du nur eine primzahlenliste brauchst, die speicher man wohl optimal als char-array von primzahlendifferenzen. und rutsch dann zu programmbeginn einmal durch und summiert und kopiert es in ein int-array.

    gute idee 🙂 aber sind die primzahlen nicht hinterher schon sehr weit voneinander entfernt?



  • otze schrieb:

    gute idee 🙂 aber sind die primzahlen nicht hinterher schon sehr weit voneinander entfernt?

    wenn ich mich recht erinnere, sind dir durchschnittlichen lücken bei primzahlen der größen x ungefäht ln(x) groß.
    aber du brauchst ja die größten lücken. genaueres auf http://primes.utm.edu/notes/gaps.html

    aber ich fürchte, es ist piepegal, ob du 30k primzahlen speicherst oder berechnest. weiß es aber nicht.





  • juhu, ich hab meinen algo dazu gebracht, nichtmehr >10mins zu brauchen:

    range 1-10.000.000
    primzahlen:664579
    zeit:9s

    *stolz*



  • warum eigentlich hauptsächlich die relativ kleinen zahlen testen?
    die anzahl der primzahlen zwischen 0 und 2^32 ist verschindend gering im gegensatz zu den primzahlen zwischen 2^32 und 2^64. wenn jetzt ein großteil der zu testenden zahlen im kleinen bereich liegt wird man ja fast dazu gezwungen tabellen anzulegen und zu versuchen die in 64kb zu packen 🙄

    zwischen 0 und 2^32 liegen ca. 200000000 primzahlen
    zwischen 2^32 und 2^64 liegen ca. 400000000000000000 primzahlen
    nur mal so zum vergleich. (anzahl primzahlen zwischen 0 und x: x/ln(x))



  • klein ist relativ, wenn der hier vorgestellte zufallsgenerator hauptsächlich zahlen ausserhalb des 32 bit bereichs erzeugt(um genau zu sein 65%)



  • otze schrieb:

    klein ist relativ, wenn der hier vorgestellte zufallsgenerator hauptsächlich zahlen ausserhalb des 32 bit bereichs erzeugt(um genau zu sein 65%)

    naja das bedeutet, er erzeugt 35% innerhalb des 32 bit bereiches, normalverteilt wären es weit unter 0,1%. eine tabelle wird sich auf jedenfall lohnen, imo. 🤡



  • ---vergesst es... dummer fehler---

    @otze: Hast du dafür einen Cache genutzt oder nicht? ^^



  • EnERgYzEr schrieb:

    @otze: Hast du dafür einen Cache genutzt oder nicht? ^^

    damit hab ich den cache berechnet(wenn du damit nen cache in form einer datei mit vorberechneten werten meinst)

    //edit hab aber auch nen absoluten primitiv algo benutzt^^
    //edit2 nur halt hinterher männlich aufgemotzt^^



  • Wollen wir denn jetzt erstmal volkards letzten Generator als Vorlage nehmen?
    Zusätzlich bräuchten wir eine Anzahl an Nummern, die wir testen sollen, um
    schon mal eine ungefähre Vergleichbarkeit zu schaffen.

    Dann kann der Spaß beginnen 🙂

    @otze: War so gedacht, ob du nur einmalig die Primzahlen in dem Bereich gezählt
    hast oder für jede im Bereich den isPrime Test gemacht hast. Aus deiner Antwort
    entnehme ich Fall Nr. 1 😉



  • man könnte ab jetzt ja auch erstmal so im geheimen werkeln, und dann erst wenige tage vor beginn mit werten protzen...

    //edit jede zahl im bereich wurde auf primzahl getestet



  • borg schrieb:

    warum eigentlich hauptsächlich die relativ kleinen zahlen testen?

    weil das auch die anforderung für eine isPrime() wäre, die man in die c++-standardbibliothek aufnehmen könnte.

    wenn jetzt ein großteil der zu testenden zahlen im kleinen bereich liegt wird man ja fast dazu gezwungen tabellen anzulegen und zu versuchen die in 64kb zu packen 🙄

    eigentlich nicht. unter 100000 waren ja nur 7%. also kannste schonmal nur maximal 7% zeit sparen mit cachen oder tabellen.
    zu erwarten ist aber, daß die großen zahlen so viel überproportional mehr zeit fressen als die mini-zahlen, daß am ende eigentlich kaum gewinn da ist.

    andererseits wird bei praktisch gleichen implementierungen für große zahlen sich vielleicht doch ein trick für kleine zahlen auswirken. ich denke gar nicht an tabellen oder cachen. das ist mir zu popelig und irrelevant. ich bin aber sicher, daß man für zahlen unter 2^32 eine schnellere implemetierung machen kann als für zahlen über 2^32.

    bool isPrime(i64 n){
       if(n<2 hoch 32)
          return isPrimeSmall(n);
       else
          isPrimeBig(n);
    }
    

    ich bin auch sicher, daß man sich im ram eine tabelle mit 30k primzahlen sowas von schnell bauen kann (ein mikrosekündchen oder so), daß jeder versuch, es in den code zu packen, pure zweitverschwendung ist.

    würde ich mitmachen, dann mit einem algo, der gar nix cachet und keine tabellen benutzt. ich darf doch außer konkurrenz mitmachen?

    das häufen der kleinen zahlen ist einfach, damit man den siegercode dann sich kopieren kann auf die eigene platte und immer nehmen kann, wenn man mal primzahlen braucht. manche sorten hashtables sollen ja primzahlen als größe haben. plant der user 1200000 einträge, ruft er HashTable ht(1200000) auf und ich reserviere mir erstmal mehr platz, damit sie nur zu 80% voll wird, also 1200000/80%==1500000 und suche dann möglichst schnell die nächste primzahl. gäbe es eine isPrime(), die in allen größenbereichen einigermaßen tauglich ist, würde ich mir ein loch in den bauch freuen und einfach die benutzen. gäbe es nur eine für zahlen unter 1000 und eine, die für echt große zahlen taugt aber nicht für kleine, würde ich traurig sein.

    vielleicht können wir am samstag ja im zuge der vorträge auch die ganzen angewandten tricks vorstellen und Jester erklärt uns die mathematik dahinter.

    aber werkeln könnt ihr auf jeden fall schon. unabhängin vom generator wird es so sein, daß ihr ne funktion für saugroße zahlen braucht und vielleicht fallen euch auch feinere funktionen für kleinere zahlen ein.



  • Also die Schätzfunktionen scheinen für kleine Zahlen grottenlangsam zu sein. Unter 100-binär-stelligen Zahlen braucht man damit gar nicht anfangen. 😃
    (bei einer Wahrscheinlichkeit von 0.5^40, dass eine erkannte Primzahl doch keine ist)



  • Optimizer schrieb:

    Also die Schätzfunktionen scheinen für kleine Zahlen grottenlangsam zu sein. Unter 100-binär-stelligen Zahlen braucht man damit gar nicht anfangen. 😃
    (bei einer Wahrscheinlichkeit von 0.5^40, dass eine erkannte Primzahl doch keine ist)

    das beruhigt mich.
    0.5^40 ist gerade so am rande, was man wagen könnte.
    dann kann's ja anfangen mit dem spaß. *freu*



  • Also wie ist das jetzt genau?

    Muß das Programm *immer* die korrekte Antwort liefern, oder genügt es die Antwort mit hoher Wahrscheinlichkeit zu liefern (sprich: beim testen liegt man immer richtig).



  • Jester schrieb:

    Also wie ist das jetzt genau?

    Muß das Programm *immer* die korrekte Antwort liefern, oder genügt es die Antwort mit hoher Wahrscheinlichkeit zu liefern (sprich: beim testen liegt man immer richtig).

    klar ist, daß jemand, der einen probalisistischen test macht und gewinnt, seinen gewinn aberkannt kriegt, und die nächsten nachrücken, wenn einer seine lücke findet.

    aber ich sehe keine chance, beweise zu fordern. Optimizer könnte ja kommen und sagen, daß er drei wochen lang seinen rechner hat laufen lassen und mit einem testprogramm nachgewiesen hat, daß sein probalistischer test den gesamten bereich abdeckt.

    als zwischenweg könnte man fordern, daß gegebenenfalls das testprogramm auch gezeigt werden muß, damit wir wenigstens innerhalb von drei wochen feststellen können, ob das wahr ist?



  • Okay, das wollte ich wissen. Es genügt also nicht mit hoher Wahrscheinlichkeit das richtige zu produzieren, sondern man muß immer das richtige produzieren. Ob man das jetzt beweisen will oder nicht... ist ja ein ganz anderes Thema.


Anmelden zum Antworten