Die Rückkehr von Assembler und C, C++ wenn dass Mooresche Gesetz am Ende ist?



  • Das Mooresche Gesetzt ist laut WP nur noch bis ins Jahr 2020 gesichert.

    http://de.wikipedia.org/wiki/Mooresches_Gesetz#Technische_Grenzen

    Das ist in 7 Jahren und dauert nicht mehr lange.
    Aber was dann?

    Wie werden wir dann weiterhin immer schnellere Computer bekommen, wenn die Physik dies nicht mehr zu läßt?

    Könnte das Ende der Miniaturisierung der Punkt sein, bei dem man sich wieder auf frühere Tage zurückbesinnt und den Code hochoptimiert und auf Performancefressende Sprachen verzichtet?

    Denn was soll man sonst machen, wenn die Hardware fest gegeben ist und man trotzdem weiterhin immer ein schnelleres besseres Produkt abliefern können möchte?

    Dann muss man ja zwangsläufig sich wieder auf die alten Tage zurückbesinnen und die Algorithmen und den Code optimieren.



  • Mehr Transistoren in weniger Platz zu packen war nur der Weg des geringsten Widerstandes. Es gibt noch viele andere Optimierungmöglichkeiten (Instruction Set z.B.). Abgesehen davon: Computer sind doch jetzt schon so schnell, dass man sehr sehr viel Code nicht "handoptimieren" muss. Computer werden ja nun nicht langsamer. Und so viel mehr wird eine normale Desktop-Anwendung on 20 Jahren auch nicht können müssen. AAA-Spiele sind auch jetzt zu großen teilen Handoptimiert. Also was wird sich ändern? Nichts. Außer vielleicht dass Intel dicht machen muss, aber dafür gibt's dann ja auch noch Graphen. 😉



  • Wenn äs mit der CPU nicht klappt, dann muss es die Grafikkarte richten.



  • es war schon immer so dass man 'das baldige ende' gesehen hat, z.b. hat man bei den lasern die die silicium scheiben bestrahlen gesagt dass bei 192nm oder so sense ist, intel nutzt heute immer noch 192nm laser, aber mittels licht brechender materialien kommen die auf 14nm runter (und planen noch weiter zu gehen damit).
    man forscht auch an anderen materialien usw. so schnell wird es da kein ende geben.

    aber es stimmt, wenn die platform fest ist, dann faengt es an notwendig zu werden (und sogar auch sich zu lohnen), eher low level optimierungen anzugehen. sieht man ja immer bei konsolenspielen, die ueber die jahre immer besser aussehen, eben weil man keine wahl hat, als immer weiter zu optimieren. dinge wo du dir am anfang denkst "ach, das waere zuviel arbeit fuer die 5% leistung" sind irgendwann die top performance offenders und durch die optimierung anderer teile dann vielleicht 25% an der laufleistung beteiligt.

    und so schlimm ist optimieren eigentlich nicht, mit den richtigen tools kann das auf jeder ebene spass machen.

    und bezueglich graphikkarten, gerade die brauchen imense optimierung auf allen ebenen damit die sachen effizient laufen. natuerlich bekommen viele es hin 2 bis 10mal schneller auf der gpu zu sein als ihr c programm auf einem core auf der cpu laeuft. aber oft sind das <10% des theoretisch moeglichen.
    interesante case study:
    http://www.uni-graz.at/~haasegu/Lectures/GPU_CUDA/Lit/reduction.pdf
    🙂



  • Back2roots? schrieb:

    Das Mooresche Gesetzt ist laut WP nur noch bis ins Jahr 2020 gesichert.

    http://de.wikipedia.org/wiki/Mooresches_Gesetz#Technische_Grenzen

    Das ist in 7 Jahren und dauert nicht mehr lange.
    Aber was dann?

    Wie werden wir dann weiterhin immer schnellere Computer bekommen, wenn die Physik dies nicht mehr zu läßt?

    Es wird vermutlich ein bisschen in die 3. Dimension gehen. Allerdings sollte das auch sehr beschraenkt sein, da man dann mehr Probleme mit der Abwaerme hat und der Kostensenkungsefekt des Moore'schen Gesetzes dabei auch nicht zum Tragen kommt.

    knivil schrieb:

    Wenn äs mit der CPU nicht klappt, dann muss es die Grafikkarte richten.

    Ich bin skeptisch, ob es 2020 noch Grafikkarten geben wird. Wir sehen momentan den Anfang von der Integration von GPUs in die CPU. 2020 wird es nur dann noch Grafikkarten geben, wenn sie einem noch einen wirklichen Mehrwert bieten.



  • rapso schrieb:

    es war schon immer so dass man 'das baldige ende' gesehen hat, z.b. hat man bei den lasern die die silicium scheiben bestrahlen gesagt dass bei 192nm oder so sense ist, intel nutzt heute immer noch 192nm laser, aber mittels licht brechender materialien kommen die auf 14nm runter (und planen noch weiter zu gehen damit).
    man forscht auch an anderen materialien usw. so schnell wird es da kein ende geben.

    2020 wird man in etwa bei Strukturgroessen von 5nm sein. In einem Wuerfel mit 5nm Kantenlaenge findet man etwa 6000 Si-Atome. Das ist eine Groessenordnung bei der es langsam anfaengt, dass man Fremdatome im Atomgitter oder Gitterfehlstellungen nicht mehr statistisch behandeln kann. Die sind aber statistisch verteilt. Das heisst, dass man die gewuenschte Physik in den Transistoren nur noch sehr schwer garantieren kann. Vielleicht geht es dann noch etwas weiter runter und es ist erst 2022 oder 2024 oder so Schluss, aber wesentlich weiter wird es nicht gehen, es sei denn, es kommt eine voellig andere Herstellungstechnik fuer ein voellig anderes Prinzip, wie man Computerchips baut. Da bin ich aber skeptisch. Moore's Gesetz ist eine Aussage ueber die Fortschritte in der momentane Herstellungstechnik (Photolithografie) und keine Aussage ueber andere Herstellungsverfahren. Man koennte sich ja zum Beispiel molekulare Elektronik auf der Basis von selbstorganisiertem Wachstum oder so denken. Aber das ist reine Science Fiction.



  • Gregor, was hälst du eigentlich von Graphen? Mal in's Blaue geraten, meinst du da kommt in den nächsten 5-10 Jahren was? (10Ghz CPU?)



  • cooky451 schrieb:

    Gregor, was hälst du eigentlich von Graphen? Mal in's Blaue geraten, meinst du da kommt in den nächsten 5-10 Jahren was? (10Ghz CPU?)

    Es gab in den letzten Jahren eine ganze Menge Ideen, wie man Computerchips jenseits der etablierten Siliziumtechnologie bauen kann. Zum Beispiel wurden vor etwa 10 Jahren Kohlenstoff Nanoroehrchen (CNTs) diesbezueglich sehr gehypt. Die Leute haben damit durchaus auch schon Transistoren hergestellt:

    http://en.wikipedia.org/wiki/Carbon_nanotube_field-effect_transistor

    Trotzdem haben wir bis jetzt keine Computerchips auf Basis von CNTs.

    Graphen ist jetzt das naechsten Kohlenstoff-Material, das sehr gehypt wird und auf dessen Basis man Computerchips bauen moechte. AFAIK ist Graphen diesbezueglich auch jenseits des Hypes wesentlich besser geeignet als es CNTs sind. Vor allem ist es wohl leichter, mit Graphen genau die Strukturen herzustellen, die man haben will, waehrend das bei CNTs nicht sehr gut kontrollierbar ist. Es besteht also eine echte Chance, dass sich Graphen einen Platz in der Halbleiterindustrie erkaempft.

    Allerdings sicherlich nicht innerhalb der naechsten 5-10 Jahre. So weit ist Graphen einfach noch nicht. Und: Man darf auch nicht unterschaetzen, wie ausgereift die Herstellung auf Basis von Si-Technologie ist. In Vergangenheit sind viele interessante Ansaetze bezueglich der Chip-Herstellung daran gescheitert, dass sie sich nicht gut in die Si-Technologie integrieren liessen.

    Generell ist es so, dass die Halbleiterindustrie auch jenseits dieser stark gehypten Ansaetze diverse Ideen weiterentwickelt und testet. Von den meisten hoert man nie etwas. Falls Du mal einen kleinen Ueberblick haben moechtest, was so im Gespraech ist, dann schau mal auf:

    http://www.itrs.net/Links/2012ITRS/Home2012.htm

    Dort gibt es Tabellen und Text zu Emerging Research Devices (ERD) und Emerging Research Materials (ERM).



  • Mal in's Blaue geraten, meinst du da kommt in den nächsten 5-10 Jahren was? (10Ghz CPU?)

    Ähh ich glaube dass wir so langsam für diesen Prozessortyp am Ende der Taktrate ankommen. Stromaufnahme, Wärmeentwicklung und auch mikroskopsiche Effekte machen da zu schaffen.

    Und was nützt es schon einen 20% schnellerern Prozessor zu haben, wenn das RAM um ein Faktor 1000 langsamer ist und wenn die Festplatte um einen Faktor von 1000*1000 langsamer ist? Und na klar, bei SSD fällt dies nicht so deutlich aus.

    Asynchrone Schaltung oder Multiprozessorsysteme kenne ich da als Zukunft. Und natürlich, wie angedeutet, wäre schnelleres RAM/Festplatte/Bussysteme auch besser.

    Ich bin skeptisch, ob es 2020 noch Grafikkarten geben wird. Wir sehen momentan den Anfang von der Integration von GPUs in die CPU. 2020 wird es nur dann noch Grafikkarten geben, wenn sie einem noch einen wirklichen Mehrwert bieten.

    Das wagen ich zu bezweifeln. Eine GPU ist eine auf ihren Aufgabenbereich entwickelter Prozessor und daher in dem Aufgabenbereich der CPU überlegen, da die CPU für allgemeine Aufgaben entwickelt wurde.

    Render mal mir einer CPU Millionen von Dreiecken...



  • Bitte ein Bit schrieb:

    Ich bin skeptisch, ob es 2020 noch Grafikkarten geben wird. Wir sehen momentan den Anfang von der Integration von GPUs in die CPU. 2020 wird es nur dann noch Grafikkarten geben, wenn sie einem noch einen wirklichen Mehrwert bieten.

    Das wagen ich zu bezweifeln. Eine GPU ist eine auf ihren Aufgabenbereich entwickelter Prozessor und daher in dem Aufgabenbereich der CPU überlegen, da die CPU für allgemeine Aufgaben entwickelt wurde.

    Render mal mir einer CPU Millionen von Dreiecken...

    Ich denk, er meint damit nicht, dass GPUs verschwinden, sondern dass die GPU in Zukunft nichtmehr separate Komponente, sondern eher sowas wie eine GPU als Koprozessor zusammen mit der CPU auf dem selben Chip sitzt. Das seh ich ähnlich. Ich denk aber nicht, dass GPU und CPU auf funktionaler Ebene zu einem Ding konvergieren werden, das keines der beiden Enden des Spektrum so richtig abdeckt. Es sind einfach zwei grundverschiedene Welten die sich gegenseitig ergänzen...



  • Bitte ein Bit schrieb:

    Und was nützt es schon einen 20% schnellerern Prozessor zu haben, wenn das RAM um ein Faktor 1000 langsamer ist und wenn die Festplatte um einen Faktor von 1000*1000 langsamer ist? Und na klar, bei SSD fällt dies nicht so deutlich aus.

    Auch hier scheint es ja Entwicklung zu geben. in ein paar Monaten wird Intel mit neuen Prozessoren kommen. Und einige dieser Prozessoren werden die neue "Crystalwell-Technologie" nutzen. Mit diesem Ansatz bringt Intel wesentlich mehr Speicher in Form von Embedded DRAM ganz nah an den Prozessor. Entsprechend wird dieser Speicher auch sehr schnell anzusprechen sein.

    Ich denke, dass wir diesbezueglich in den naechsten Jahren noch weitere Entwicklungen sehen werden. Es ist ein Problem, die Prozessoren mit Daten zu fuellen, weil die Anbindung an den Hauptspeicher zu langsam ist. Also wird mehr Speicher auf den Prozessor (zum Beispiel durch Die-Stacking) oder in die Naehe des Prozessors im Rahmen eines Multi-Chip-Packages wandern. Wir werden hier vielleicht eine neue Hierarchiestufe in der Speicherhierarchie kriegen.

    Bitte ein Bit schrieb:

    Eine GPU ist eine auf ihren Aufgabenbereich entwickelter Prozessor und daher in dem Aufgabenbereich der CPU überlegen, da die CPU für allgemeine Aufgaben entwickelt wurde.

    Render mal mir einer CPU Millionen von Dreiecken...

    Ich dachte es so, wie dot es interpretiert hat. Ich denke, dass die GPUs, die in die CPUs integriert werden, in den naechsten Jahren wesentlich an Rechenleistung gewinnen werden und fuer die meisten Zwecke ausreichen werden. Trotzdem kann es natuerlich sein, dass Grafikkarten uns auch ueber 2020 hinweg erhalten bleiben. Auch wenn GPUs in die CPU integriert werden, werden diese integrierten Loesungen sicherlich nie so stark sein wie separate Grafikkarten. Die Frage ist dann, ob diese weitergehende Grafikleistung benoetigt wird oder ob die Grafikleistung der in die CPU integrierten GPUs fuer die meisten Sachen ausreichen wird. Die separaten Grafikkarten muessen einer grossen Nutzerschaft auch nach 2020 noch einen wesentlichen Mehrwert liefern, sonst werden sie verschwinden. Und da ist dann die Frage, ob Spiele dann auf eine entsprechend hohe Grafikleistung angewiesen sein werden. Ich zweifel einfach daran, dass der Markt diesbezueglich gross genug sein wird.



  • Ich denke nicht, dass ein separater Grafikchip verschwinden wird. Für "Heimanwender" die keine anspruchsvollen Spiele spielen reichen auch jetzt schon die integrierten Chips. Für Spieler die über 150€ für eine Grafikkarte ausgeben werden die auch in 10 Jahren nicht reichen, weil diese sich ihre Karte aussuchen wollen - und wenn das alles in einem Chip ist müsste man ohne Ende verschiedene Kombinationen produzieren. Aber vielleicht bekommt der Grafikchip einen festen Platz auf dem Mainboard. Das wäre sogar ziemlich cool, weil dann könnte man da endlich mal einen ordentlichen Kühler drauf setzen.



  • Mal so ein Gedanke dazu: Eines der größten Bottlenecks heutzutage liegt genau zwischen CPU und GPU. Indem man GPU und CPU gemeinsam auf einen Chip packt und beide den selben Speicher und Addressraum verwenden lässt (dank 64 Bit haben wir davon mittlerweile ja nun im Überfluss), könnte man dieses Bottleneck vermutlich weitgehend eliminieren...



  • rapso schrieb:

    es war schon immer so dass man 'das baldige ende' gesehen hat, z.b. hat man bei den lasern die die silicium scheiben bestrahlen gesagt dass bei 192nm oder so sense ist, intel nutzt heute immer noch 192nm laser, aber mittels licht brechender materialien kommen die auf 14nm runter (und planen noch weiter zu gehen damit).
    man forscht auch an anderen materialien usw. so schnell wird es da kein ende geben.

    Das ist nicht das gleiche.

    Denn Atome sind nicht unendlich klein.
    http://hypertextbook.com/facts/MichaelPhillip.shtml



  • Gregor schrieb:

    Vielleicht geht es dann noch etwas weiter runter und es ist erst 2022 oder 2024 oder so Schluss, aber wesentlich weiter wird es nicht gehen, es sei denn, es kommt eine voellig andere Herstellungstechnik fuer ein voellig anderes Prinzip, wie man Computerchips baut. Da bin ich aber skeptisch.

    Vor ein paar Jahren habe ich mal gelesen, dass man anstatt Silizium auch Kohlenstoff in Form von Diamanten nehmen könnte, damit währen dann CPU Temperaturen von 800 °C möglich, bei entsprechenden Taktraten.

    Dumm ist nur, dass es unheimlich viel Geld kostet, Diamnten zu fertigen.
    Billig wird das nicht, aber vielleicht ist das dann wenigstens ein Weg für Supercomputer bei denen es auf Single Threading Leistung ankommt.



  • Ah, hier habe ich was:

    81 GHz mit einer CPU aus Diamant:

    http://www.geek.com/chips/81ghz-diamond-semiconductor-created-551147/



  • dot schrieb:

    Ich denk, er meint damit nicht, dass GPUs verschwinden, sondern dass die GPU in Zukunft nichtmehr separate Komponente, sondern eher sowas wie eine GPU als Koprozessor zusammen mit der CPU auf dem selben Chip sitzt. Das seh ich ähnlich.

    Das hat auch jede Menge Vorteile.

    Kürzere Laufzeiten, bei CPU Takt und dann noch ohne BUS Overhead.

    Damit kann man richtig günstig Daten von der CPU zur GPU und zurück schieben, damit dürften viele neue Dinge Möglich sein, was momentan nicht geht, weil PCIe das Nadelöhr ist.

    PCIe = Lange Signalwege, niedrige Taktrate (im Vergleich zur > 3 GHZ CPU) => hohe Latenz



  • wie wär's langfristig mit Netzen aus einer Vielzahl einfacher CPUs mit je etwas Speicher, die sich gegenseitig aktivieren und kommunizieren ?

    Da kann man auch prima Objektmodelle drauf abbilden (z.B. jedes wichtige Objekt in je einer rudimentären CPU halten und ein Methodenaufruf entspräche dem Zustellen einer Nachricht und gegenseitige Aktivierung). Neue Software müßte allerdings her, die nicht mehr auf serielle, sondern auf parallele Geschwindigkeit optimiert ist.

    hoffentlich können solche Computer dann nicht intelligenter werden als das menschliche Gehirn, sonst kämen sie vielleicht eines Tages auf die Idee, uns als Haustiere zu halten.



  • Gregor schrieb:

    rapso schrieb:

    es war schon immer so dass man 'das baldige ende' gesehen hat, z.b. hat man bei den lasern die die silicium scheiben bestrahlen gesagt dass bei 192nm oder so sense ist, intel nutzt heute immer noch 192nm laser, aber mittels licht brechender materialien kommen die auf 14nm runter (und planen noch weiter zu gehen damit).
    man forscht auch an anderen materialien usw. so schnell wird es da kein ende geben.

    2020 wird man in etwa bei Strukturgroessen von 5nm sein. In einem Wuerfel mit 5nm Kantenlaenge findet man etwa 6000 Si-Atome. Das ist eine Groessenordnung bei der es langsam anfaengt, dass man Fremdatome im Atomgitter oder Gitterfehlstellungen nicht mehr statistisch behandeln kann. Die sind aber statistisch verteilt. Das heisst, dass man die gewuenschte Physik in den Transistoren nur noch sehr schwer garantieren kann. Vielleicht geht es dann noch etwas weiter runter und es ist erst 2022 oder 2024 oder so Schluss, aber wesentlich weiter wird es nicht gehen, es sei denn, es kommt eine voellig andere Herstellungstechnik fuer ein voellig anderes Prinzip, wie man Computerchips baut.

    hatte dasselbe gespraech von jahre wegen der lithographie mit einem kumpel der da voll der 'crack' ist und der meinte, dass spaetestens 2000 schluss ist mit kleineren strukturen, weil man dann die leiterbahnen nicht mehr herstellen kann. und alle zeitlang sagen 'experten' dass bei intel bald schluss ist, weil sie ein verfahren verwenden das ein 'death end' hat und die ganze konkurenz verwendet wohl ein anderes lithographie verfahren, jedoch scheint intel schon seit 13jahren weiter zu machen, wie sie es machen.
    das zeigt mir irgendwie, dass es sehr sehr viele leute gibt die 'alles darueber wissen', aber die zunkunft hatte keiner richtig vorhergesagt, bisher. somit sehe ich dem entspannt entgegen wo es hingeht. es gibt sehr viele firmen die an neuen stoffen oder dotierungen arbeiten, die an light basierenden transistoren arbeiten, die supraleiter in chips verwenden wollen, die chips sparsammer aber dafuer 'breiter' machen wollen. es gibt firmen die chips stacken wollen etc.
    es gibt zwar immer undurchdringbare gesetze, aber bisher hat man sie umgangen. ich bin mir sicher, es wird irgendwie weitergehen, somit wird es sicher nicht deswegen eine rueckkehr zu assembler geben (wenn es die mal gibt).



  • Back2roots? schrieb:

    Denn Atome sind nicht unendlich klein.

    aber das kleinste was es gibt, haben experten aus griechenland gesagt.


Anmelden zum Antworten