64 BIT - mehr nicht sinnvoll?
-
Um Speicher anzusprechen, wird man vermutlich nie mehr als 64 bit benötigen. Klar, solche Sprüche gab es in der Geschichte schon öfters, aber irgendwo setzt dann die Physik eben ihre Grenzen.
Aber eine 128 Bit-CPU kann ja noch mehr, z.B. "von Haus aus" mit 128-Bit-Integers rechnen.
-
Versuch z.B. mal ne Stadt mit ein paar tausend Leuten als halbwegs physikalisch realistisch zu simmulieren. Da wird dir schnell der Speicher ausgehen bei der Menge an Daten die es da gibt.
-
Wer will den mit 128 bit int rechnen? Es waere toll, wenn die CPU mit 4 Flieskommazahlen auf einmal rechnen koennte.
Ich waere schon froh, wenn man endlich 32bit Systeme einfach beiseite schieben koennten und endlich mal alle auf 64bit migriegen wuerden.
-
ach schrieb:
Versuch z.B. mal ne Stadt mit ein paar tausend Leuten als halbwegs physikalisch realistisch zu simmulieren. Da wird dir schnell der Speicher ausgehen bei der Menge an Daten die es da gibt.
Naja, so meinte ich das auch nicht. Ideen, wofür man so viel Speicher verwenden könnte, gibt es genug... man kann ja gleich noch höher hinaus wollen und versuchen, das Universum quark-genau vom Urknall aus an zu simulieren.
Ich meinte eher, dass Menschen nie in der Lage sein werden, einen Speicher zu konstruieren, für den 64 bit zur Adressierung nicht ausreichen. Und selbst wenn, dann wird das niemand von uns erleben (und unsere Urenkel vermutlich auch nicht).
-
Der Adreßraum kann auch mit der internen Wortbreite brechen, so nutzen beispielsweise 8bit-Prozessoren selten auch 8bit Adreßräume, sondern in der Regel 16bit. Logisch, denn selbst mit getrennten Adreßregistern für Programm- und Datenspeicher, wären sonst nur 256Byte jeweils für Daten und Programmcode verfügbar, das ist zu wenig.
Genauso könnte man ja, wenn 128bit Adreßräume nicht sinnvoll sind, auch in einem 128-Bitter 64bit Adreßräume nutzen und dafür die Verarbeitungsgeschwindigkeit erhöhen.
-
Im Jahre 2037 wird es ein 60 Exabyte Flashspeicherkarte geben, auf der sich 5000 RL-Bilder speichern lassen. Das Real-Life Format wurde 5 Jahre zuvor von der Adobe Research Group in Kooperation mit Microsoft entwickelt und ist in der Lage Bilder ohne Qualitätsverlust dreidimensional zu speichern. Die Betrachtung dieser Bilder erfolgt teilweise in VR-immersion-Räumen, die werden zu diesem Zeitpunkt aber immer noch eher teuer sein und deshalb bedient man sich vorzugsweise den wesentlich günstigeren (und viel besser ausgereiften) Hologramprojektoren.
Naja, das hat mir jedenfalls mein Freund aus der Zukunft geflüstert. Und ich glaube ihm, weil ich ihn seit 20 Jahren kenne! Hat er mir zumindest gesagt, ich freu mich schon wenn ich ihn 2017 das erste mal in meiner Zeit treffe!

Achso, Zeitreisen gibt es ab 2035!

-
Natürlich hab ihn wegen der Baupläne gefragt, aber die wollte er mir nicht geben. Ein Freund von ihm, aus einer noch viel weiter entfernten Zukunft hat ihm nämlich berichtet, dass wir den Zeitreisenzyklus auf diese Weise ausnutzen würden um immer mehr Technologie der Zukunft in die Vergangenheit zu transferieren. Und deshalb würde schon im Jahre 2042 die Zeit stehen bleiben.
Aus diesem Grund werden wir auch weiterhin auf unsere bewärten Technologien setzen und Zeitreisen nur mit Bedacht durchführen!
-
Gerade x86 Prozessoren sind sowieso keine klassischen N-Bit Architekturen mehr. Bereits seit x87, obwohl der ursprüngliche 8086 16-bittig war, gibt es ebenfalls eine 80 Bit Pipeline. Mit MMX kam eine 64 Bit Pipeline hinzu, noch vor AMD64. Mit SSE gibt es mittlerweile auch eine 128 Bit Pipeline. Und seit dem Core 2 und K10 ist diese sogar direkt in Hardware umgesetzt. Mit AVX plant Intel sogar eine 256 Bit Pipeline. Da dürfte so langsam aber sicher auch die Grenze erreicht sein. Der Bedarf an vektorisierten Operationen wird zwar auch in Zukunft steigen. Das werden in Zukunft aber GPU Einheiten übernehmen. Ähnlich wie beim 8086er die FPU werden das Zukunft vermutlich ebenfalls Coprozessoren direkt integriert ins Design. Die Basisbreite von 64 Bit wird uns noch lange erhalten bleiben. 128 Bit würde ich dort aber definitiv nicht ausschliessen. Für Speicherkapazitäten braucht man es nun mal. Und die werden auch in Zukunft stetig wachsen. Alles darüber dürfte uns sowieso nicht mehr interessieren.
-
Hat IBM nicht mal den weltweiten Bedarf an Computern auf 4 geschaetzt?
Also immer etwas vorsichtig sein, wenn nicht gerade eine Glaskugel da ist...Ivo
-
Ich hab einen von den 4
-
Ivo schrieb:
Hat IBM nicht mal den weltweiten Bedarf an Computern auf 4 geschaetzt?
Also immer etwas vorsichtig sein, wenn nicht gerade eine Glaskugel da ist...Ivo
naja, vielleicht sind wir irgendwann soweit. wenn die welt an einem riesigen netz hängt und zuhause nur noch softwalls hängen dann gibts 4 computer: einer als data miner, einer als psychologe, einer als entertainer und einer der sich der rettung des planeten verschrieben hat und das virus mensch zerstören will

naja und diese riesen computer brauchen dann schon ihre 256 cores mit jeweils 32768bit
-
Spätestens für Crysis 12 wird auch 64Bit nicht mehr reichen!11
-
DEvent schrieb:
Wer will den mit 128 bit int rechnen? Es waere toll, wenn die CPU mit 4 Flieskommazahlen auf einmal rechnen koennte.
Öhm. Ist das ironisch gemeint? Das können heutige CPUs doch eigentlich alle: SSE, 3DNow!, etc.
MfG SideWinder
-
SideWinder schrieb:
DEvent schrieb:
Wer will den mit 128 bit int rechnen? Es waere toll, wenn die CPU mit 4 Flieskommazahlen auf einmal rechnen koennte.
Öhm. Ist das ironisch gemeint?
vermutlich, weil da jemand eine 128bit pipeline mit einer 128bit einheit vermischt.
-
schaut euch doch mal um... schaut aus dem fenster, schaut die detail und realistische psysikalische umgebung um euch an. Dafür werden 64bit nich reichen.
-
Ich vermute die richtige Frage wäre eher, wann der Wechsel auf 128 Bit geschieht. Das mag heute noch nahezu unvorstellbar sein, aber das war es bei den 640k damals ja auch...
-
ach, das ist garnicht so weit weg. eigentlich sogar nah dran

das stichwort dazu heisst virtualisierung. speicher muss nicht mehr real vorhanden sein, sondern wird virtuel allokiert (und damit mein ich weit mehr als heutzutage beim betriebssystem wenn es daten auf HDD auslagert). das wird dinge, lazy wie wir programmierer sind, vereinfachen.
wenn man ein terrain rendern will, allokiert man sich einen 64bit addressbereich. will jemand auf bestimmte pages zugreifen, bekommt man das als 'hint' mit und dann diese generieren/laden oder fallback pages angeben. wird 99.9% nicht benutzt -> wayne?
es ist eh nur eine addresse und kostet garnichts, ausser einem addressbereich.garbage collector? speicher defragmentierung? -> virtuallisierung.
1. fragmentierung ist kaum ein problem (wenn der addressbereich der zur verfuegung steht der realen speichermenge weit ueberlegen ist)
2. garbage? alle ausgelagerten variablen die ihre page hatten. natuerlich kann man diese nicht deallokieren, aber das stoert heute auch wenige dass eine simple gui applikation mit C# 10mal mehr speicher zieht als in c++ (_meiner_ erfahrung nach). wenn der speicher virtuallisiert ist und man braucht nun 1TB, so wayne?datenbanken?
1TB hashtable mit so ziemlich 0 collisions?kopfzerbrechen werden die cpu hersteller haben, wenn sie hierarchische MMUs&TLBs bauen muessen.
-
rapso schrieb:
kopfzerbrechen werden die cpu hersteller haben, wenn sie hierarchische MMUs&TLBs bauen muessen.
Das müssen die doch schon lange. Oder glaubst du dass eine 64 (oder auch nur 32) Bit MMU "flat" ist?
-
hustbaer schrieb:
rapso schrieb:
kopfzerbrechen werden die cpu hersteller haben, wenn sie hierarchische MMUs&TLBs bauen muessen.
Das müssen die doch schon lange. Oder glaubst du dass eine 64 (oder auch nur 32) Bit MMU "flat" ist?
ja, ich bin so naiv und glaube intels paper. dass die GDT und LDT linear im speicher liegende table sind ohne jegliche hierarchy informationen.
-
w000t schrieb:
Spätestens für Crysis 12 wird auch 64Bit nicht mehr reichen!11
Du meinst wohl Crysis 2^12