Wann wird sich 64 bit komplett durchsetzen?
-
rapso schrieb:
aber die atom cpus gibt es in den meisten faellen nur als 32bit version und deswegen...
Eigentlich ist das nur mehr bei zwei oder drei alten Single-Core-Serien des Atom der Fall, alle anderen können schon 64 Bit.
Zum Thema: Für Server ist 64 Bit schon seit Jahren eine äußerst praktische Sache und auch bei Desktops stört mittlerweile doch nur mehr die Stabilität von Flash oä. ernsthaft, oder? Die <4GB, die man auf 32 Bit Systemen ohne PAE maximal nutzen kann, sind einfach nicht wahnsinnig viel und der Adressraum pro Prozess kann mittlerweile auch schon vergleichsweise schnell knapp werden.
-
nman schrieb:
rapso schrieb:
aber die atom cpus gibt es in den meisten faellen nur als 32bit version und deswegen...
Eigentlich ist das nur mehr bei zwei oder drei alten Single-Core-Serien des Atom der Fall, alle anderen können schon 64 Bit.
mit der mengenangabe bezog ich mich auf die menge die verkauft wurde, nicht auf die modellvarianz. die meisten sind wohl N270 N280 (und die Z.. auch, obwohl es von denen wohl genauso wenige ausgelieferte gibt wie von den nettop versionen), und die koennen nur 32bit.
mit Win7 zielt MS auch sehr auf den netbook markt ab, auf dem winxp bisher vorherrscht, von daher bleibt uns 32bit wohl noch lange erhalten.
-
Wenn man sich endlich von dem 32bit müll trennen würde, dann würde mein windows 64bit nicht mehr soviel speicher verbrauchen, oder?
-
Grohool schrieb:
Wenn man sich endlich von dem 32bit müll trennen würde, dann würde mein windows 64bit nicht mehr soviel speicher verbrauchen, oder?
Würden 64 Bit Anwendungen nicht sogar mehr Speicher brauchen? Von wegen größere Pointer und so?
-
SeppJ schrieb:
Grohool schrieb:
Wenn man sich endlich von dem 32bit müll trennen würde, dann würde mein windows 64bit nicht mehr soviel speicher verbrauchen, oder?
Würden 64 Bit Anwendungen nicht sogar mehr Speicher brauchen? Von wegen größere Pointer und so?
Ich meinte jetzt hauptsächlich den Speicher den Windows selbst verbraucht. Wenn ich auf die ganzen 32bit teile in Windows 64bit verzichten kann, dann würde Windows wohl weniger Speicher verbrauchen als die 64bit version mit 32bit teilen.
Ich hab keine Ahnung ob Pointer in 64bit Anwendungen unbedingt 64bit groß sein müssen oder ob der 64bit Maschienencode länger als der 32bit Maschienencode ist. Und wieviel Prozent des Speichers wird durch Pointer belegt? Ist der Anteil überhaupt relevant?
-
;fricky schrieb:
Orakel@Urlaub schrieb:
Es ist ja keine Frage, dass 64 bit die Zukunft ist
ach nö, meinste '2^64 ought to be enough for anyone'? kann garnicht sein, da geht doch noch viel mehr.

Naja, Du bräuchtest weitere ~30 Miniaturisierungsschritte bis weiterer Adressraum benötigt wird. Kannst ja mal ausrechnen, wie klein die Strukturen dann sein müssten. Momentan sind wir bei 45nm. Wenn es noch 30 Miniaturisierungsschritte gibt, dann sind wir bei 0,0014nm. Zum Vergleich: Ein Atom hat typischerweise eine Größe von ~0,1nm. Mit anderen Worten, so weit kommt man nicht.
...es sei denn, man schafft es, Computerchips dreidimensional zu bauen. Der Planarprozess zur Herstellung von Computerchips ist nunmal auf Ebenen ausgelegt und es ist genau dieser Prozess, dem wir die ganzen Miniaturisierungen verdanken. Wenn man zu einer prinzipiell anderen Herstellungsmethode übergeht, dann ist es absolut nicht automatisch gegeben, dass sich diese Methode ähnlich skalieren lässt. Das ist sogar sehr unwahrscheinlich.
-
Gregor schrieb:
...Ein Atom hat typischerweise eine Größe von ~0,1nm. Mit anderen Worten, so weit kommt man nicht.
es ging mir ja nicht um grenzenlose verkleinerung, PC-prozessoren haben sowieso schon gewaltige bauformen (und eine hohe verlustleistung), es würde keinen stören, wenn sie doppelt so gross und 1.5 mal mehr elektrische energie in wärme verwandeln würden. solange das intel-logo und '256 bit technology' draufstehen.
Die <4GB, die man auf 32 Bit Systemen ohne PAE maximal nutzen kann, sind einfach nicht wahnsinnig viel und der Adressraum pro Prozess kann mittlerweile auch schon vergleichsweise schnell knapp werden.
warum ist das eigentlich so? kaum wurden adressraum und registerbreiten verdoppelt und schon reichts mal wieder kaum aus.

-
;fricky schrieb:
Gregor schrieb:
...Ein Atom hat typischerweise eine Größe von ~0,1nm. Mit anderen Worten, so weit kommt man nicht.
es ging mir ja nicht um grenzenlose verkleinerung, PC-prozessoren haben sowieso schon gewaltige bauformen (und eine hohe verlustleistung), es würde keinen stören, wenn sie doppelt so gross und 1.5 mal mehr elektrische energie in wärme verwandeln würden. solange das intel-logo und '256 bit technology' draufstehen.
Die Verkleinerung ist bei solchen Überlegungen schon wichtig. Wenn man von der Entwicklung des Herstellungsprozesses absieht, dann sind die Kosten zur Herstellung eines Computerchips mindestens proportional zur Fläche, die dieser Chip benötigt. Wenn Du einen doppelt so großen Chip herstellst, dann kostet der also auch mindestens doppelt so viel. Mindestens, weil auch die Wahrscheinlichkeit dafür, dass ein Computerchip einen Fehler enthält, von der Fläche abhängt. Wenn Du sehr große Chips herstellst, dann hast Du fast keine Ausbeute und kannst praktisch alle hergestellten Chips wegschmeißen, weil sie fehlerhaft sind. Letztendlich ist die Größe von Computerchips in der Praxis also durch diverse Überlegungen begrenzt. Und eine Vergrößerung eines Speicherchips um einen Faktor 2, 3 oder 4, wie es vielleicht denkbar wäre, macht praktisch keinen Unterschied bezüglich des sinnvollen Adressraums. Damit erhöht man die Menge der Speicherzellen nur in dem Maße, wie es ein oder 2 Miniaturisierungsschritte auch machen würden.
Nochmal zur Verkleinerung: Moore's Gesetz ist ein Markttrend. Insofern sind diesbezüglich auch immer wirtschaftliche Überlegungen in Betracht zu ziehen. Dieser Markttrend existiert nur deshalb, weil durch ihn die Parallelisierung in der Herstellung erhöht wird und somit die Kosten pro Transistor entsprechend der jeweiligen Verkleinerung verringert werden. Man kann heutzutage Milliarden von Transistoren parallel gleichzeitig herstellen.
-
Gregor@Uni schrieb:
Die Verkleinerung ist bei solchen Überlegungen schon wichtig. Wenn man von der Entwicklung des Herstellungsprozesses absieht, dann sind die Kosten zur Herstellung eines Computerchips mindestens proportional zur Fläche, die dieser Chip benötigt.
stimmt schon, aber wie's so üblich ist, werden herstellungskosten an den endkunden weitergereicht. d.h. solange der käufer gewillt ist, seine kohle für ein vermeintliches hochtechnologie-produkt auszugeben, ist es letztlich egal, auf welche weise der fortschritt zustandekam. z.b. computermäuse für ~150€ verkaufen sich ja auch. es könnte auch mit einem mega-x86 von doppelter grösse klappen, allein schon, weil 'grösser' auch 'mehr power' suggeriert. ein toller name und ein schickes design dazu und das wäre schon die halbe miete.

-
;fricky schrieb:
stimmt schon, aber wie's so üblich ist, werden herstellungskosten an den endkunden weitergereicht. d.h. solange der käufer gewillt ist, seine kohle für ein vermeintliches hochtechnologie-produkt auszugeben, ist es letztlich egal, auf welche weise der fortschritt zustandekam.
Aber genau das ist der Punkt: Die dadurch zustandekommenden Preise, würde kein Konsument zahlen. Oder nicht genug Konsumenten, damit sich das auszahlt.
Wer seine Hardware bei Mediamarkt und Aldi kauft, interessiert sich nicht für 2000€-CPUs. Und wer ein bisschen versierter oder gar wirklich auf Recherche angewiesen ist, gibt auch nicht mehr Geld für eine 256 Bit CPU aus.
Damit hast Du das Problem, dass die größten Käuferschichten wegfallen; wieviel teurer müsstest Du dann die Produkte für die verbleibenden 2% der User machen, um die Gesamtkosten wieder hereinzubekommen. Und würden die Deine CPUs um diesen Preis dann noch kaufen? Unwahrscheinlich.
-
Wann wird sich 64 bit komplett durchsetzen?
Wenn alle nur noch ueber 256 Bit reden.
-
rapso schrieb:
mit der mengenangabe bezog ich mich auf die menge die verkauft wurde, nicht auf die modellvarianz. die meisten sind wohl N270 N280 (und die Z.. auch, obwohl es von denen wohl genauso wenige ausgelieferte gibt wie von den nettop versionen), und die koennen nur 32bit.
mit Win7 zielt MS auch sehr auf den netbook markt ab, auf dem winxp bisher vorherrscht, von daher bleibt uns 32bit wohl noch lange erhalten.Das ist doch egal. Netbooks sind ja nicht auf ewig lange Lebensdauer ausgelegt; in 2 Jahren verkauft niemand mehr 32Bit CPUs. Und dann wird es langsam aber sicher auch mit den Treibern komplizierter werden und irgendwann nicht viel später ist es dann einfach billiger und bequemer, nur mehr 64Bit-Consumer-Hardware zu betreiben, wenn es nicht um irgendwelche Spezialanforderungen geht.