<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[NTFS Dateianzahl pro Verzeichnis und Performance]]></title><description><![CDATA[<p>Ich will eine Berechnung beschleunigen und wiederaufsetzbar machen, indem ich manche Daten auf Platte speichere. Die Dateien heißen sinnvollerweise 0000000002.txt bis 4294967296.txt, aber nicht alle 2^32-2 Dateien werden entstehen. Ich rechne mal mit nur 10Mio bis 100Mio Stück. Eine Datei hat 2k bis 3k.<br />
Ich denke daran, daß ich 42950 Verzeichnisse mache und dann 00000/00002.txt bis 42949/67296.txt ablege.<br />
Ich weiß, daß DOS und Win95 bei mehr als 10K Verzeichniseinträgen lächerlich langsam wurden. Ist das bei XP mit NTFS auch noch so? Oder kann ich ruhigen Gewissens zweistufig bleiben?</p>
]]></description><link>https://www.c-plusplus.net/forum/topic/251319/ntfs-dateianzahl-pro-verzeichnis-und-performance</link><generator>RSS for Node</generator><lastBuildDate>Fri, 24 Apr 2026 15:39:54 GMT</lastBuildDate><atom:link href="https://www.c-plusplus.net/forum/topic/251319.rss" rel="self" type="application/rss+xml"/><pubDate>Fri, 02 Oct 2009 18:29:18 GMT</pubDate><ttl>60</ttl><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Fri, 02 Oct 2009 18:29:18 GMT]]></title><description><![CDATA[<p>Ich will eine Berechnung beschleunigen und wiederaufsetzbar machen, indem ich manche Daten auf Platte speichere. Die Dateien heißen sinnvollerweise 0000000002.txt bis 4294967296.txt, aber nicht alle 2^32-2 Dateien werden entstehen. Ich rechne mal mit nur 10Mio bis 100Mio Stück. Eine Datei hat 2k bis 3k.<br />
Ich denke daran, daß ich 42950 Verzeichnisse mache und dann 00000/00002.txt bis 42949/67296.txt ablege.<br />
Ich weiß, daß DOS und Win95 bei mehr als 10K Verzeichniseinträgen lächerlich langsam wurden. Ist das bei XP mit NTFS auch noch so? Oder kann ich ruhigen Gewissens zweistufig bleiben?</p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787445</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787445</guid><dc:creator><![CDATA[volkard]]></dc:creator><pubDate>Fri, 02 Oct 2009 18:29:18 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Fri, 02 Oct 2009 18:56:26 GMT]]></title><description><![CDATA[<p>ausprobieren?</p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787454</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787454</guid><dc:creator><![CDATA[XXXL]]></dc:creator><pubDate>Fri, 02 Oct 2009 18:56:26 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Fri, 02 Oct 2009 19:06:59 GMT]]></title><description><![CDATA[<p>volkard schrieb:</p>
<blockquote>
<p>Ich will eine Berechnung beschleunigen und wiederaufsetzbar machen, indem ich manche Daten auf Platte speichere. Die Dateien heißen sinnvollerweise 0000000002.txt bis 4294967296.txt, aber nicht alle 2^32-2 Dateien werden entstehen. Ich rechne mal mit nur 10Mio bis 100Mio Stück. Eine Datei hat 2k bis 3k.<br />
Ich denke daran, daß ich 42950 Verzeichnisse mache und dann 00000/00002.txt bis 42949/67296.txt ablege.<br />
Ich weiß, daß DOS und Win95 bei mehr als 10K Verzeichniseinträgen lächerlich langsam wurden. Ist das bei XP mit NTFS auch noch so? Oder kann ich ruhigen Gewissens zweistufig bleiben?</p>
</blockquote>
<p>^^ich weiss zwar auch nicht ob win das packt, aber falls nicht, zerleg den dateinamen in unterverzeichnisse, wie: 1234\5678\9abc\defg.txt. das macht windoof die zugriffe vielleicht einfacher.<br />
<img
      src="https://www.c-plusplus.net/forum/plugins/nodebb-plugin-emoji/emoji/emoji-one/1f642.png?v=ab1pehoraso"
      class="not-responsive emoji emoji-emoji-one emoji--slightly_smiling_face"
      title=":)"
      alt="🙂"
    /></p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787459</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787459</guid><dc:creator><![CDATA[;fricky]]></dc:creator><pubDate>Fri, 02 Oct 2009 19:06:59 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sat, 03 Oct 2009 00:30:06 GMT]]></title><description><![CDATA[<p>Ich glaube du solltest dein Konzept noch mal überdenken.</p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787531</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787531</guid><dc:creator><![CDATA[_Luckie]]></dc:creator><pubDate>Sat, 03 Oct 2009 00:30:06 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sat, 03 Oct 2009 01:20:52 GMT]]></title><description><![CDATA[<p>MS meint dazu:</p>
<blockquote>
<p>If you use large numbers of files in an NTFS folder (300,000 or more), disable short-file name generation for better performance, and especially if the first six characters of the long file names are similar.</p>
</blockquote>
<p>Link: <a href="http://technet.microsoft.com/en-us/library/cc781134%28WS.10%29.aspx" rel="nofollow">http://technet.microsoft.com/en-us/library/cc781134(WS.10).aspx</a></p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787537</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787537</guid><dc:creator><![CDATA[Ivo]]></dc:creator><pubDate>Sat, 03 Oct 2009 01:20:52 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sat, 03 Oct 2009 05:58:12 GMT]]></title><description><![CDATA[<p>Ivo schrieb:</p>
<blockquote>
<p>MS meint dazu:</p>
<blockquote>
<p>If you use large numbers of files in an NTFS folder (300,000 or more), disable short-file name generation for better performance, and especially if the first six characters of the long file names are similar.</p>
</blockquote>
<p>Link: <a href="http://technet.microsoft.com/en-us/library/cc781134%28WS.10%29.aspx" rel="nofollow">http://technet.microsoft.com/en-us/library/cc781134(WS.10).aspx</a></p>
</blockquote>
<p>Vielen Dank.</p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787546</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787546</guid><dc:creator><![CDATA[volkard]]></dc:creator><pubDate>Sat, 03 Oct 2009 05:58:12 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sat, 03 Oct 2009 10:41:07 GMT]]></title><description><![CDATA[<p>Wie wàre es anstelle Millionen von Dateien mit einer einzigen, als Hashtabelle?</p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787597</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787597</guid><dc:creator><![CDATA[frag0r]]></dc:creator><pubDate>Sat, 03 Oct 2009 10:41:07 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sat, 03 Oct 2009 11:22:53 GMT]]></title><description><![CDATA[<p>frag0r schrieb:</p>
<blockquote>
<p>Wie wàre es anstelle Millionen von Dateien mit einer einzigen, als Hashtabelle?</p>
</blockquote>
<p>Nö, besser nicht.<br />
Wenn eine Datei gelesen wird, werden die drin stehenden Zahlen (zum Beispiel 600 Stück) nach aufsteigender Größe gelesen und verarbeitet. Wenn eine neue Zahl zu einer Datei hinzukommt, ist sie größer als alle bisherigen Zahlen der Datei, also kann einfach hinten drangehängt werden. Das macht Dateien schonmal recht praktisch.</p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787617</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787617</guid><dc:creator><![CDATA[volkard]]></dc:creator><pubDate>Sat, 03 Oct 2009 11:22:53 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sat, 03 Oct 2009 12:06:34 GMT]]></title><description><![CDATA[<p>Wie waere es mit einer Datenbank? Muss ja nicht gleich mysql sein, nimmt halt sqlite.</p>
<p>Mit python und <a href="http://sqlalchemy.org/" rel="nofollow">alchemy</a> ist sowas in 5min gemacht. Oder besser in <a href="http://elixir.ematia.de/trac/wiki" rel="nofollow">elixir</a></p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787630</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787630</guid><dc:creator><![CDATA[DEvent]]></dc:creator><pubDate>Sat, 03 Oct 2009 12:06:34 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sat, 03 Oct 2009 16:34:06 GMT]]></title><description><![CDATA[<p>DEvent schrieb:</p>
<blockquote>
<p>Wie waere es mit einer Datenbank? Muss ja nicht gleich mysql sein, nimmt halt sqlite.</p>
</blockquote>
<p>Dateien sind für mich optimal, solange das Dateisystem nicht völlig überlastet ist. Es sieht nicht danach aus, daß NTFS schnell in die Knie ginge.</p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787713</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787713</guid><dc:creator><![CDATA[volkard]]></dc:creator><pubDate>Sat, 03 Oct 2009 16:34:06 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sat, 03 Oct 2009 18:30:17 GMT]]></title><description><![CDATA[<p>volkard schrieb:</p>
<blockquote>
<p>Dateien sind für mich optimal, solange das Dateisystem nicht völlig überlastet ist.</p>
</blockquote>
<p>was hast du eigentlich vor, beschreib doch mal? es ist keine seltenheit, dass ein DBMS (wie schon DEvent vorgeschlagen hat), wesentlich effektiver mit grossen datenmengen umgehen kann, als wenn man alles selber in dateien schreiben würde. ich habe z.b. letztens erst recht positive erfahrungen mit HSQLDB (ein DBMS komplett in Java geschrieben, spottet jeder aussage, dass Java langsam sei) gemacht und früher auch schon (mit DB2, mySQL).<br />
<img
      src="https://www.c-plusplus.net/forum/plugins/nodebb-plugin-emoji/emoji/emoji-one/1f642.png?v=ab1pehoraso"
      class="not-responsive emoji emoji-emoji-one emoji--slightly_smiling_face"
      title=":)"
      alt="🙂"
    /></p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787732</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787732</guid><dc:creator><![CDATA[;fricky]]></dc:creator><pubDate>Sat, 03 Oct 2009 18:30:17 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sat, 03 Oct 2009 20:27:47 GMT]]></title><description><![CDATA[<p>;fricky schrieb:</p>
<blockquote>
<p>was hast du eigentlich vor, beschreib doch mal?</p>
</blockquote>
<p>Ich mache das da (mußt Du nicht ganz lesen, ich fasse gleich zusammen)<br />
<a href="http://www.gpgpgpu.com/gecco2009/6.pdf" rel="nofollow">http://www.gpgpgpu.com/gecco2009/6.pdf</a><br />
Allerdings ohne GPU und ohne genetische Algorithmen. Darüberhinaus auf einem alten Rechner und single threaded.</p>
<p>Die Funktion isPrime(x) sagt, ob x eine Primzahl ist.<br />
Die Funktion isSPRP(x,a) sagt, ob x eine stark wahrscheinliche Primzahl zur Basis a ist. <a href="http://en.wikipedia.org/wiki/Probable_prime" rel="nofollow">http://en.wikipedia.org/wiki/Probable_prime</a><br />
Die isSPRP() verbläst praktisch die gesamte Rechentzeit.<br />
Sie verbläst für einmal isSPRP(x,a) leider log(x) Integer-Divisionen.<br />
isSPRP(x,irgendwas) liefert sehr oft das gleiche wie isPrime(x). Leider nicht immer. Aber zum Beispiel liefert isSPRP(x,2) das gleiche wie isPrime(x), solange x&lt;2047. Wenn man alle Basen bis 2^32 ausprobiert, kommt man zu der am weitesten tragenden Basis:<br />
isSPRP(x,42162995) liefert das gleiche Ergebnis wie isPrime(x), solange x&lt;97921.<br />
Damit kann man eine isPrime() deutlich beschleunigen, indem man ein leckeres</p>
<pre><code class="language-cpp">//vorher ein wenig trial division durch 2,3,5,7
if(x&lt;97921)
  return !isSPRP(x,42162995);
//nachher der test für große zahlen
</code></pre>
<p>baut.<br />
Man braucht dann in diesem Bereich nur noch log(x) Divisionen statt der normalen sqrt(x) Divisionen. Das rockt die Bude.<br />
Ist aber auch nicht neu <a href="http://www.groupsrv.com/science/post-3260091.html" rel="nofollow">http://www.groupsrv.com/science/post-3260091.html</a></p>
<p>Im Wesentlichen ist mein Programm nur ein</p>
<pre><code>for a=2 to maxint (bin jetzt bei ca 70000)
  for b=3 to a-1 (bin dauernd zwischen 3 und ca 70000)
//also laufe über alle paare (a;b) mit a,b&lt;=maxint
    for x=2 to inf (sehr oft bis ein paar milliönchen)
       if isSPRP(x,a) and isSPRP(x,b) and (not isPrime(x))
//also finde den ersten Aussetzer für dieses Basenpaar
          if x&gt;bestesXBisher
             print a,b,x,teilerVon(x)
             break, also exit for, also beim nächsten b weitermachen
</code></pre>
<p>Aber das braucht EWIG. Und dann kommen halt die Optimierungen. Die allerstärkste Optimierung von mir ist die, daß ich &quot;die üblichen Verdächtigen&quot; in einem Move-To-Front-Cache halte und vor der x-Schleife erstmal &quot;die üblichen Verdächtigen&quot; gegen die beiden Basen prüfe. Ein x wird zum &quot;üblichen Verdächtigen&quot;, wenn es den Vergleich x&gt;bestesXBisher auslösen kann.</p>
<p>Wenn a so um 30k ist, sorgt diese Optimierung dafür, daß während b von 2 bis 30k läuft, alle b bis auf ungefähr eins bereits einen Treffer in &quot;den üblichen Verdächtigen&quot; haben und nicht die x-Schleife bis ein paar Milliönchen betreten muß.<br />
Bei a=30k ist die Anzahl &quot;der üblichen Verdächtigen&quot; gerde mal 2042. Also Hammer-Beschleunigung. Mit Move-To-Front in &quot;den üblichen Verdächtigen&quot; habe ich sogar meistens nur weniger als 10 isSPRP() pro neuem b zu zahlen.</p>
<p>Manchmal aber muß die x-Schleife laufen. Und hier kommt die Optimierung mit den Dateien. Dann habe ich für a und für b, falls ich jemals a oder b in einer x-Schleife schon laufen ließ, die kleinen SPRPs für a und b schon auf der Platte und kann einfach die beiden Dateien laden und die erste Gleichheit suchen. Ist keine Gleichheit da, wird die x-Schleife genommen, die aber zusätzlich alle SPRPs, die anfallen, in die beiden Dateien ablegt für's nächste mal.</p>
<p>Für die Suche bis a=75k sind lustigerweise nur 3000 Dateien entstanden mit zusammen 5MB (weil die erste Optimierung so sagenhaft gut greift).<br />
Die letzen beiden Dateien sind<br />
0000074616.txt</p>
<pre><code>217
451
793
899
2201
2407
2573
3097
4123
6533
6817
7471
8321
8911
16849
17767
18721
23653
25351
27511
28639
31609
34279
35371
41251
41431
45449
45551
68101
74615
74617
81631
83333
105163
113201
114211
134383
134413
145351
193999
194407
196093
226801
230323
252601
284581
302177
320131
328021
334729
340367
355577
398413
418801
463079
468541
497503
522319
533681
551953
597871
615421
627751
646601
651511
653251
671977
672049
689323
741751
833341
876961
910303
1024651
1053313
1092547
1109593
1212751
1219661
1266481
1278781
1297741
1346413
1386529
1407737
1480337
1562809
1585693
1602319
1641041
1718431
1722913
1746979
1773289
1836541
1907851
1963501
2125759
2146651
2259583
2346121
2428511
2484121
2527291
2636461
2746387
2907521
2948947
3126337
3273913
3337741
3363121
3458011
3464131
3522481
3539101
3542533
3654691
3700897
3828001
3855439
4157455
4224533
4335241
4499701
4564913
4800277
4863127
4932841
</code></pre>
<p>und<br />
0000000659.txt</p>
<pre><code>15
33
55
91
165
329
529
703
901
1045
2035
2413
2821
3439
4097
4699
5713
6643
6697
6985
9955
12403
12773
13333
15841
17161
19909
22987
24013
24727
27307
30857
32477
34455
38665
49051
49141
50293
52633
58969
68251
73841
80137
80477
89281
91001
97939
104833
119341
121153
124073
127243
128627
132715
133141
141373
145585
147187
153401
159031
188191
189145
190061
194221
197209
197633
208339
217141
234199
246061
258445
264773
317683
318551
336169
343001
360533
368335
396271
415351
434941
436753
438751
474631
479107
485357
490831
514447
533513
546535
610091
627203
677615
694153
701677
724087
736291
748661
765937
776383
787081
789319
810701
850519
853469
873181
919921
929633
935713
985249
1032533
1033853
1040299
1044199
1056331
1066781
1082401
1093471
1151809
1197373
1200601
1264285
1277371
1348327
1452811
1621777
1670257
1684621
1690501
1717223
1717903
1843873
1850971
1860841
1892323
1904033
1934227
2008007
2030341
2156883
2162473
2237017
2337301
2367307
2457577
2746279
2766115
3003589
3044587
3076481
3093697
3294187
3375487
3387781
3446071
3568661
3593863
3616273
3624209
3632581
3746041
3882139
3888165
4024297
4077151
4181815
4181921
4184041
4209461
4219129
4225453
4238191
4253971
4293181
4378769
4384693
4441501
4448221
4518457
4710763
4720927
4846337
4865911
4906441
4910455
4932841
</code></pre>
<p>Entsprechen war 4932841 das kleinste x, das zu den Basen 74616 und 659 ein Aussetzer war.<br />
Meine 49Mio sind noch weit weg von den 177Mio von David McAllister.<br />
Aber ich mache ja auch eine erschöpfende Suche und lasse keinen Kandidaten aus, um irgendwann ich wenigen hundert Prozessorjahren das optimale Paar zu haben.</p>
<p>Die Dateien-Optimierung soll dafür sorgen und sorgt dafür, daß die x-Schleife immer jene milliönchen SPRP-Tests nicht machen muß, die bereits auf einer der beiden Basen schon passiert sind. Ich muß also manchmal (ca einmal pro Sekunde) so zwei kleine Datein lesen und die werden dann auch sequentiell gelesen. Ich denke, Dateien sind da optimal.</p>
<p>Übrigens habe ich festgestellt, daß statt 543756235327412.txt eine 5437/5623/5327/412.txt nicht so schlau ist. Besser ist es, mit den Verzeichnissen nur einen Suchweg zu machen und zu zerlegen in 5437/5623/5327/543756235327412.txt. Da kann ich mit normalen tools oder mit freaktools und weniger Nachdenken leichter umstrukturieren. 5437/5623/5327/412.txt nur nehmen, wenn nur automatisch drauf zugegriffen wird wie in ccache oder so.</p>
<p>Die Dateien, die entstehen, sind als soche von Bestand und können unmittelbar für den komplett wahnwitzigen Versuch genommen werden, auch das perfekte Basentripel zu finden. Aber dazu brächte es bis zum Ende Milliarden von Rechnern, die hunderte von Jahren laufen. Mal schauen, eine (fremderfundene) vielleicht tausendstarke mathematische Optimierung gärt in mir. Vielleicht gilt Moore's Gesetz weiter und in 15 Jahren haben wir wider 1000-mal mehr Rechenpower als jetzt.</p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787760</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787760</guid><dc:creator><![CDATA[volkard]]></dc:creator><pubDate>Sat, 03 Oct 2009 20:27:47 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sat, 03 Oct 2009 21:23:29 GMT]]></title><description><![CDATA[<p>volkard schrieb:</p>
<blockquote>
<p>;fricky schrieb:</p>
<blockquote>
<p>was hast du eigentlich vor, beschreib doch mal?</p>
</blockquote>
<p>Ich mache das da (mußt Du nicht ganz lesen, ich fasse gleich zusammen)<br />
<a href="http://www.gpgpgpu.com/gecco2009/6.pdf" rel="nofollow">http://www.gpgpgpu.com/gecco2009/6.pdf</a></p>
</blockquote>
<p>ein primzahlen-sucher? vielleicht interessiert dich das: <a href="http://www.alpertron.com.ar/ECM.HTM" rel="nofollow">http://www.alpertron.com.ar/ECM.HTM</a><br />
kann relativ schnell relativ grosse zahlen faktorisieren, source code ist auch auf der seite, der code sieht zwar furchtbar aus, aber vielleicht kannstes irgendwie für deine zwecke verwerten.<br />
<img
      src="https://www.c-plusplus.net/forum/plugins/nodebb-plugin-emoji/emoji/emoji-one/1f642.png?v=ab1pehoraso"
      class="not-responsive emoji emoji-emoji-one emoji--slightly_smiling_face"
      title=":)"
      alt="🙂"
    /></p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787770</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787770</guid><dc:creator><![CDATA[;fricky]]></dc:creator><pubDate>Sat, 03 Oct 2009 21:23:29 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sun, 04 Oct 2009 07:59:34 GMT]]></title><description><![CDATA[<p>;fricky schrieb:</p>
<blockquote>
<p>?</p>
</blockquote>
<p>Ach, übrigens, ich benutze C++ mit Objektorientierung.<br />
Die teure x-Schleife ist derzeit:</p>
<pre><code class="language-cpp">{
				sa.start(a);
				sb.start(b);
				while(sa.peek()!=sb.peek()){
					cout&lt;&lt;a&lt;&lt;' '&lt;&lt;b&lt;&lt;' '&lt;&lt;sa.peek()&lt;&lt;' '&lt;&lt;sb.peek()&lt;&lt;&quot;           \r&quot;;
					if(sa.peek()&lt;sb.peek()){
						sa.pop();
					}
					else{
						sb.pop();
					}
				}
</code></pre>
<p>sa und sb sind dabei vom Typ SPRPGenerator. Und der erledigt die ganzen Geschichten um Laden und Speichern und ums Dazuberechnen, wenn noch nicht genug Daten da sind.</p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787780</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787780</guid><dc:creator><![CDATA[volkard]]></dc:creator><pubDate>Sun, 04 Oct 2009 07:59:34 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sun, 04 Oct 2009 08:10:57 GMT]]></title><description><![CDATA[<p>;fricky schrieb:</p>
<blockquote>
<p>volkard schrieb:</p>
<blockquote>
<p>;fricky schrieb:</p>
<blockquote>
<p>was hast du eigentlich vor, beschreib doch mal?</p>
</blockquote>
<p>Ich mache das da (mußt Du nicht ganz lesen, ich fasse gleich zusammen)<br />
<a href="http://www.gpgpgpu.com/gecco2009/6.pdf" rel="nofollow">http://www.gpgpgpu.com/gecco2009/6.pdf</a></p>
</blockquote>
<p>ein primzahlen-sucher? vielleicht interessiert dich das: <a href="http://www.alpertron.com.ar/ECM.HTM" rel="nofollow">http://www.alpertron.com.ar/ECM.HTM</a><br />
kann relativ schnell relativ grosse zahlen faktorisieren, source code ist auch auf der seite, der code sieht zwar furchtbar aus, aber vielleicht kannstes irgendwie für deine zwecke verwerten.<br />
<img
      src="https://www.c-plusplus.net/forum/plugins/nodebb-plugin-emoji/emoji/emoji-one/1f642.png?v=ab1pehoraso"
      class="not-responsive emoji emoji-emoji-one emoji--slightly_smiling_face"
      title=":)"
      alt="🙂"
    /></p>
</blockquote>
<p>Denke nicht. Bis 2^64 nehme ich zum Faktorisieren Pollard's Rho mit Brent. Aber was treibt Dich dazu, so unpassende Links zu posten? Google-Größenwahn, daß Du meinst, mit zwei Minuten Googlen was Tolles beitragen zu können?</p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787783</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787783</guid><dc:creator><![CDATA[volkard]]></dc:creator><pubDate>Sun, 04 Oct 2009 08:10:57 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sat, 03 Oct 2009 22:12:12 GMT]]></title><description><![CDATA[<p>;fricky schrieb:</p>
<blockquote>
<p>volkard schrieb:</p>
<blockquote>
<p>;fricky schrieb:</p>
<blockquote>
<p>was hast du eigentlich vor, beschreib doch mal?</p>
</blockquote>
<p>Ich mache das da (mußt Du nicht ganz lesen, ich fasse gleich zusammen)<br />
<a href="http://www.gpgpgpu.com/gecco2009/6.pdf" rel="nofollow">http://www.gpgpgpu.com/gecco2009/6.pdf</a></p>
</blockquote>
<p>ein primzahlen-sucher?</p>
</blockquote>
<p>Nee, ein Primzahlen-Sucher-Sucher.</p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787786</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787786</guid><dc:creator><![CDATA[volkard]]></dc:creator><pubDate>Sat, 03 Oct 2009 22:12:12 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sun, 04 Oct 2009 09:03:26 GMT]]></title><description><![CDATA[<p>volkard schrieb:</p>
<blockquote>
<p>Aber was treibt Dich dazu, so unpassende Links zu posten?</p>
</blockquote>
<p>ich hatte das applet noch in erinnerung, finde es ganz schick.</p>
<p>volkard schrieb:</p>
<blockquote>
<p>Google-Größenwahn, daß Du meinst, mit zwei Minuten Googlen was Tolles beitragen zu können</p>
</blockquote>
<p>google ist einfach toll. kennste schon diese seite: <a href="http://primes.utm.edu/prove/index.html" rel="nofollow">http://primes.utm.edu/prove/index.html</a><br />
<img
      src="https://www.c-plusplus.net/forum/plugins/nodebb-plugin-emoji/emoji/emoji-one/1f642.png?v=ab1pehoraso"
      class="not-responsive emoji emoji-emoji-one emoji--slightly_smiling_face"
      title=":)"
      alt="🙂"
    /></p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787832</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787832</guid><dc:creator><![CDATA[;fricky]]></dc:creator><pubDate>Sun, 04 Oct 2009 09:03:26 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sun, 04 Oct 2009 11:15:52 GMT]]></title><description><![CDATA[<p>;fricky schrieb:</p>
<blockquote>
<p>volkard schrieb:</p>
<blockquote>
<p>Aber was treibt Dich dazu, so unpassende Links zu posten?</p>
</blockquote>
<p>ich hatte das applet noch in erinnerung, finde es ganz schick.</p>
<p>volkard schrieb:</p>
<blockquote>
<p>Google-Größenwahn, daß Du meinst, mit zwei Minuten Googlen was Tolles beitragen zu können</p>
</blockquote>
<p>google ist einfach toll. kennste schon diese seite: <a href="http://primes.utm.edu/prove/index.html" rel="nofollow">http://primes.utm.edu/prove/index.html</a><br />
<img
      src="https://www.c-plusplus.net/forum/plugins/nodebb-plugin-emoji/emoji/emoji-one/1f642.png?v=ab1pehoraso"
      class="not-responsive emoji emoji-emoji-one emoji--slightly_smiling_face"
      title=":)"
      alt="🙂"
    /></p>
</blockquote>
<p>Vor 5 Jahren kannte ich sie noch, wie<br />
<a href="http://www.c-plusplus.net/forum/viewtopic-var-t-is-67513-and-start-is-10.html" rel="nofollow">http://www.c-plusplus.net/forum/viewtopic-var-t-is-67513-and-start-is-10.html</a><br />
beweist.</p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787883</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787883</guid><dc:creator><![CDATA[volkard]]></dc:creator><pubDate>Sun, 04 Oct 2009 11:15:52 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sun, 04 Oct 2009 11:43:10 GMT]]></title><description><![CDATA[<p>volkard schrieb:</p>
<blockquote>
<p>Vor 5 Jahren kannte ich sie noch, wie<br />
<a href="http://www.c-plusplus.net/forum/viewtopic-var-t-is-67513-and-start-is-10.html" rel="nofollow">http://www.c-plusplus.net/forum/viewtopic-var-t-is-67513-and-start-is-10.html</a><br />
beweist.</p>
</blockquote>
<p>wow, du beschäftigst dich wohl schon ziemlich lange mit dem thema, bist wohl ein echter zahlentheorie-freak? schon mal dran gedacht, eine eigene webseite mit deinen forschungsergebnissen aufzumachen?<br />
<img
      src="https://www.c-plusplus.net/forum/plugins/nodebb-plugin-emoji/emoji/emoji-one/1f642.png?v=ab1pehoraso"
      class="not-responsive emoji emoji-emoji-one emoji--slightly_smiling_face"
      title=":)"
      alt="🙂"
    /></p>
]]></description><link>https://www.c-plusplus.net/forum/post/1787891</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1787891</guid><dc:creator><![CDATA[;fricky]]></dc:creator><pubDate>Sun, 04 Oct 2009 11:43:10 GMT</pubDate></item><item><title><![CDATA[Reply to NTFS Dateianzahl pro Verzeichnis und Performance on Sun, 11 Oct 2009 23:27:23 GMT]]></title><description><![CDATA[<p>;fricky schrieb:</p>
<blockquote>
<p>wow, du beschäftigst dich wohl schon ziemlich lange mit dem thema,</p>
</blockquote>
<p>Ja. 1997 oder so spendierte ich ein halbes Jahr Freizeit darein und seitdem gelegentlich vielleicht mal eine Woche im Jahr. Heuer ein wenig mehr, und ursprünglich gar nicht dessentwegen, sondern weil ich eine Spielwiese für das Range-Konzept brauchte. Uih, das Konzept ist stark!</p>
<p>;fricky schrieb:</p>
<blockquote>
<p>bist wohl ein echter zahlentheorie-freak?</p>
</blockquote>
<p>Nur Hobby-Mathematiker. Mir fehlt der Unterbau.</p>
<p>;fricky schrieb:</p>
<blockquote>
<p>schon mal dran gedacht, eine eigene webseite mit deinen forschungsergebnissen aufzumachen?</p>
</blockquote>
<p>Ja, langsam wird es dringend. Inzwischen kriege ich ca. eine Milliarde mal mehr Tests pro Stunde unter als am Anfang. Immernoch ohne jeden mathematischen Trick. Im Endeffekt nur ein paar Beobachtungen, die erlauben, Rechenzeit zu sparen und C++-Code ohne abstraction overhead. Primzahlen sind kacke, die fliehen immer und jeder beobachtete Trick ist dann doch nur für ein paar Tausend oder Millionen gültig. Die Geschichte meines Suchers ist aber schreibenswert, weil da der Reihe nach hunderte von geilen Programmiertricks vorkommen, allein in den letzten Tagen eine move-to-front-list als intrusive ring, ein verzögertes bubble-sort, ein update-log und sentinel-ranges. Aber meine Klassen sind obzwar minimalistisch noch ziemlich hingekotzt. Und das alles zum Aufschreiben nachzuvollziehen wird voll lange dauern, in der Zeit könnte ich ja soo viel sinnvolles machen...</p>
]]></description><link>https://www.c-plusplus.net/forum/post/1791151</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1791151</guid><dc:creator><![CDATA[volkard]]></dc:creator><pubDate>Sun, 11 Oct 2009 23:27:23 GMT</pubDate></item></channel></rss>