Wer kann die schnellsten Primzahlen?
-
hab ein sieb hochgeladen, falls jemand ne referenzimplementierung braucht.
windows: http://www.volkard.de/download/primeGenerator.exe
linux: http://www.volkard.de/download/primeGeneratoraufruf: primeGenerator 100
und ausgabe ist
"2 3 5 7 11 13 17 19 23 29 31 37 41 43 47 53 59 61 67 71 73 79 83 89 97 "
statt 100 darf man auch größere zahlen nehmen.die geschwindigkeit ist vermutlich höher als eure lösung, aber es ist ja auch ein sieb des eratosthenes. kann also nur aufeianderfolgende prim zahlen schnell finden. ihr macht ja ne funktion, die die zahlen durcheiander kriegt und jede zahl einzeln testen muss, weil sie gar nicht hintereinander sind.
-
Da fällt mir ein: Caching in irgendeiner Weise erlaubt? Was natürlich dann auch ein Durchschnittsergebnis aus ~50 Messugnen benötigt um aussagekräftig zu werden. Sonst kann man Glück und Pech haben.
MfG SideWinder
-
Also ich messe mit so ner Timerklasse die irgendwer mal gepostet hatte. Wie genau die ist, k.A. Deckt sich jedenfalls halbwegs mit der Stoppuhr.
#ifndef TIMER_HPP #define TIMER_HPP #include <ctime> #include <iostream> class Timer { unsigned n; clock_t start; public: Timer(unsigned number = 0) : n(number), start(clock()) {} ~Timer() { std::cout << "timer " << n << ": " << static_cast<float>(clock() - start) / CLOCKS_PER_SEC << " sec." << std::endl; } }; #endif
Aber ich glaube ich muss mein Ergebnis mit den 2^32 nochmal zurückziehen. Irgendwie sind das zu wenige Primzahlen, die der findet...
-
FireFlow schrieb:
Was muss alles in dem Archiv drin sein? 64Kb sind wenig^^
naja, gepackt ist das schon einiges. viel größer kann's aber nicht sein, da sonst die leute mit monster-tabellen ankommen.
Reicht der Source und nen Comment zu den Compile-Einstellungen?
reicht völlig. das ist mir sogar am liebsten.
Welcher Compiler wird beim Test genutzt?
keine ahnung. mal sehen, was wir beim forentreff zur verfügung haben. es haben bisher immer ein genügend leute rechner mitgehabt. nsbesondere moderne rechner. das testen auf meiner alten hardware ergibt eh keine guten ergebnisse. ich hoffe, daß jemand linux und windows auf einem rechner hat. ich denke mal, vom gcc für linux und vom msvc für windows können wir ausgehen. aber wie gesagt, ich weiß nichtmal, ob überhaupt auf dem treffen getestet werden kann.
weil ich nix über die hardware sagen kann, kann man auch mehrere einsendungen abgeben. vielleicht will SideWinder ja 512MB ram dazu benutzen, eine riesige std::map als cache anzulegen. und wenn der rechner nur 256MB hat, kackt das programm ab. deswegen sollte er zur sicherheit dann auch eine version ohne cache einreichen.
[quote]Ich mein fertige Binarys testen kanns net sein da kann man bescheissen ;)/quote]
wie bescheißen?das problem ist, daß einer vielleicht was in lisp oder forth oder algol66 einreicht und wir keinen compiler dafür beschaffen können.
-
otze schrieb:
überleg ich auch grad. besten algo für einmalige 4byte werte raussuchen, und dann mal schauen...
falls du nur eine primzahlenliste brauchst, die speicher man wohl optimal als char-array von primzahlendifferenzen. und rutsch dann zu programmbeginn einmal durch und summiert und kopiert es in ein int-array.
-
wie bescheißen?
Von den Compileroptionen angefangen (Optimiert auf Pentium, etc.) über die Eingabe bei der man bereits alle geraden Zahlen kickt (bzw. wenn die Eingabe überhaupt dem User überlassen wird gilt sowieso wer am schnellsten von stdin lesen kann). Außerdem kann ich Algorithmen anfertigen die eine gewisse Prozentchance haben richtige zahlen auszuspucken. Dann optimiere ich nur noch um einerseits noch schnell genug und andererseits noch genügend Chance zu haben. Damit die Chance noch höher wird schicke ich dreimal die selbe Binary ab und behaupte ein anderer Algo käme zur Verwendung und ihr testet alle bis es bei einem rein zufällig funktioniert.
MfG SideWinder
-
SideWinder schrieb:
Da fällt mir ein: Caching in irgendeiner Weise erlaubt?
ja. es zu verbieten wäre zu willkürlich.
aber es trifft ja eh nur die sehr kleinen zahlen, wo man chache-treffer erwarten kann.
-
volkard schrieb:
otze schrieb:
überleg ich auch grad. besten algo für einmalige 4byte werte raussuchen, und dann mal schauen...
falls du nur eine primzahlenliste brauchst, die speicher man wohl optimal als char-array von primzahlendifferenzen. und rutsch dann zu programmbeginn einmal durch und summiert und kopiert es in ein int-array.
gute idee
aber sind die primzahlen nicht hinterher schon sehr weit voneinander entfernt?
-
otze schrieb:
gute idee
aber sind die primzahlen nicht hinterher schon sehr weit voneinander entfernt?
wenn ich mich recht erinnere, sind dir durchschnittlichen lücken bei primzahlen der größen x ungefäht ln(x) groß.
aber du brauchst ja die größten lücken. genaueres auf http://primes.utm.edu/notes/gaps.htmlaber ich fürchte, es ist piepegal, ob du 30k primzahlen speicherst oder berechnest. weiß es aber nicht.
-
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=95859
rapso->greets();
-
juhu, ich hab meinen algo dazu gebracht, nichtmehr >10mins zu brauchen:
range 1-10.000.000
primzahlen:664579
zeit:9s*stolz*
-
warum eigentlich hauptsächlich die relativ kleinen zahlen testen?
die anzahl der primzahlen zwischen 0 und 2^32 ist verschindend gering im gegensatz zu den primzahlen zwischen 2^32 und 2^64. wenn jetzt ein großteil der zu testenden zahlen im kleinen bereich liegt wird man ja fast dazu gezwungen tabellen anzulegen und zu versuchen die in 64kb zu packenzwischen 0 und 2^32 liegen ca. 200000000 primzahlen
zwischen 2^32 und 2^64 liegen ca. 400000000000000000 primzahlen
nur mal so zum vergleich. (anzahl primzahlen zwischen 0 und x: x/ln(x))
-
klein ist relativ, wenn der hier vorgestellte zufallsgenerator hauptsächlich zahlen ausserhalb des 32 bit bereichs erzeugt(um genau zu sein 65%)
-
otze schrieb:
klein ist relativ, wenn der hier vorgestellte zufallsgenerator hauptsächlich zahlen ausserhalb des 32 bit bereichs erzeugt(um genau zu sein 65%)
naja das bedeutet, er erzeugt 35% innerhalb des 32 bit bereiches, normalverteilt wären es weit unter 0,1%. eine tabelle wird sich auf jedenfall lohnen, imo.
-
---vergesst es... dummer fehler---
@otze: Hast du dafür einen Cache genutzt oder nicht? ^^
-
EnERgYzEr schrieb:
@otze: Hast du dafür einen Cache genutzt oder nicht? ^^
damit hab ich den cache berechnet(wenn du damit nen cache in form einer datei mit vorberechneten werten meinst)
//edit hab aber auch nen absoluten primitiv algo benutzt^^
//edit2 nur halt hinterher männlich aufgemotzt^^
-
Wollen wir denn jetzt erstmal volkards letzten Generator als Vorlage nehmen?
Zusätzlich bräuchten wir eine Anzahl an Nummern, die wir testen sollen, um
schon mal eine ungefähre Vergleichbarkeit zu schaffen.Dann kann der Spaß beginnen
@otze: War so gedacht, ob du nur einmalig die Primzahlen in dem Bereich gezählt
hast oder für jede im Bereich den isPrime Test gemacht hast. Aus deiner Antwort
entnehme ich Fall Nr. 1
-
man könnte ab jetzt ja auch erstmal so im geheimen werkeln, und dann erst wenige tage vor beginn mit werten protzen...
//edit jede zahl im bereich wurde auf primzahl getestet
-
borg schrieb:
warum eigentlich hauptsächlich die relativ kleinen zahlen testen?
weil das auch die anforderung für eine isPrime() wäre, die man in die c++-standardbibliothek aufnehmen könnte.
wenn jetzt ein großteil der zu testenden zahlen im kleinen bereich liegt wird man ja fast dazu gezwungen tabellen anzulegen und zu versuchen die in 64kb zu packen
eigentlich nicht. unter 100000 waren ja nur 7%. also kannste schonmal nur maximal 7% zeit sparen mit cachen oder tabellen.
zu erwarten ist aber, daß die großen zahlen so viel überproportional mehr zeit fressen als die mini-zahlen, daß am ende eigentlich kaum gewinn da ist.andererseits wird bei praktisch gleichen implementierungen für große zahlen sich vielleicht doch ein trick für kleine zahlen auswirken. ich denke gar nicht an tabellen oder cachen. das ist mir zu popelig und irrelevant. ich bin aber sicher, daß man für zahlen unter 2^32 eine schnellere implemetierung machen kann als für zahlen über 2^32.
bool isPrime(i64 n){ if(n<2 hoch 32) return isPrimeSmall(n); else isPrimeBig(n); }
ich bin auch sicher, daß man sich im ram eine tabelle mit 30k primzahlen sowas von schnell bauen kann (ein mikrosekündchen oder so), daß jeder versuch, es in den code zu packen, pure zweitverschwendung ist.
würde ich mitmachen, dann mit einem algo, der gar nix cachet und keine tabellen benutzt. ich darf doch außer konkurrenz mitmachen?
das häufen der kleinen zahlen ist einfach, damit man den siegercode dann sich kopieren kann auf die eigene platte und immer nehmen kann, wenn man mal primzahlen braucht. manche sorten hashtables sollen ja primzahlen als größe haben. plant der user 1200000 einträge, ruft er HashTable ht(1200000) auf und ich reserviere mir erstmal mehr platz, damit sie nur zu 80% voll wird, also 1200000/80%==1500000 und suche dann möglichst schnell die nächste primzahl. gäbe es eine isPrime(), die in allen größenbereichen einigermaßen tauglich ist, würde ich mir ein loch in den bauch freuen und einfach die benutzen. gäbe es nur eine für zahlen unter 1000 und eine, die für echt große zahlen taugt aber nicht für kleine, würde ich traurig sein.
vielleicht können wir am samstag ja im zuge der vorträge auch die ganzen angewandten tricks vorstellen und Jester erklärt uns die mathematik dahinter.
aber werkeln könnt ihr auf jeden fall schon. unabhängin vom generator wird es so sein, daß ihr ne funktion für saugroße zahlen braucht und vielleicht fallen euch auch feinere funktionen für kleinere zahlen ein.
-
Also die Schätzfunktionen scheinen für kleine Zahlen grottenlangsam zu sein. Unter 100-binär-stelligen Zahlen braucht man damit gar nicht anfangen.
(bei einer Wahrscheinlichkeit von 0.5^40, dass eine erkannte Primzahl doch keine ist)