Die Rückkehr von Assembler und C, C++ wenn dass Mooresche Gesetz am Ende ist?



  • Bitte ein Bit schrieb:

    Ich bin skeptisch, ob es 2020 noch Grafikkarten geben wird. Wir sehen momentan den Anfang von der Integration von GPUs in die CPU. 2020 wird es nur dann noch Grafikkarten geben, wenn sie einem noch einen wirklichen Mehrwert bieten.

    Das wagen ich zu bezweifeln. Eine GPU ist eine auf ihren Aufgabenbereich entwickelter Prozessor und daher in dem Aufgabenbereich der CPU überlegen, da die CPU für allgemeine Aufgaben entwickelt wurde.

    Render mal mir einer CPU Millionen von Dreiecken...

    Ich denk, er meint damit nicht, dass GPUs verschwinden, sondern dass die GPU in Zukunft nichtmehr separate Komponente, sondern eher sowas wie eine GPU als Koprozessor zusammen mit der CPU auf dem selben Chip sitzt. Das seh ich ähnlich. Ich denk aber nicht, dass GPU und CPU auf funktionaler Ebene zu einem Ding konvergieren werden, das keines der beiden Enden des Spektrum so richtig abdeckt. Es sind einfach zwei grundverschiedene Welten die sich gegenseitig ergänzen...



  • Bitte ein Bit schrieb:

    Und was nützt es schon einen 20% schnellerern Prozessor zu haben, wenn das RAM um ein Faktor 1000 langsamer ist und wenn die Festplatte um einen Faktor von 1000*1000 langsamer ist? Und na klar, bei SSD fällt dies nicht so deutlich aus.

    Auch hier scheint es ja Entwicklung zu geben. in ein paar Monaten wird Intel mit neuen Prozessoren kommen. Und einige dieser Prozessoren werden die neue "Crystalwell-Technologie" nutzen. Mit diesem Ansatz bringt Intel wesentlich mehr Speicher in Form von Embedded DRAM ganz nah an den Prozessor. Entsprechend wird dieser Speicher auch sehr schnell anzusprechen sein.

    Ich denke, dass wir diesbezueglich in den naechsten Jahren noch weitere Entwicklungen sehen werden. Es ist ein Problem, die Prozessoren mit Daten zu fuellen, weil die Anbindung an den Hauptspeicher zu langsam ist. Also wird mehr Speicher auf den Prozessor (zum Beispiel durch Die-Stacking) oder in die Naehe des Prozessors im Rahmen eines Multi-Chip-Packages wandern. Wir werden hier vielleicht eine neue Hierarchiestufe in der Speicherhierarchie kriegen.

    Bitte ein Bit schrieb:

    Eine GPU ist eine auf ihren Aufgabenbereich entwickelter Prozessor und daher in dem Aufgabenbereich der CPU überlegen, da die CPU für allgemeine Aufgaben entwickelt wurde.

    Render mal mir einer CPU Millionen von Dreiecken...

    Ich dachte es so, wie dot es interpretiert hat. Ich denke, dass die GPUs, die in die CPUs integriert werden, in den naechsten Jahren wesentlich an Rechenleistung gewinnen werden und fuer die meisten Zwecke ausreichen werden. Trotzdem kann es natuerlich sein, dass Grafikkarten uns auch ueber 2020 hinweg erhalten bleiben. Auch wenn GPUs in die CPU integriert werden, werden diese integrierten Loesungen sicherlich nie so stark sein wie separate Grafikkarten. Die Frage ist dann, ob diese weitergehende Grafikleistung benoetigt wird oder ob die Grafikleistung der in die CPU integrierten GPUs fuer die meisten Sachen ausreichen wird. Die separaten Grafikkarten muessen einer grossen Nutzerschaft auch nach 2020 noch einen wesentlichen Mehrwert liefern, sonst werden sie verschwinden. Und da ist dann die Frage, ob Spiele dann auf eine entsprechend hohe Grafikleistung angewiesen sein werden. Ich zweifel einfach daran, dass der Markt diesbezueglich gross genug sein wird.



  • Ich denke nicht, dass ein separater Grafikchip verschwinden wird. Für "Heimanwender" die keine anspruchsvollen Spiele spielen reichen auch jetzt schon die integrierten Chips. Für Spieler die über 150€ für eine Grafikkarte ausgeben werden die auch in 10 Jahren nicht reichen, weil diese sich ihre Karte aussuchen wollen - und wenn das alles in einem Chip ist müsste man ohne Ende verschiedene Kombinationen produzieren. Aber vielleicht bekommt der Grafikchip einen festen Platz auf dem Mainboard. Das wäre sogar ziemlich cool, weil dann könnte man da endlich mal einen ordentlichen Kühler drauf setzen.



  • Mal so ein Gedanke dazu: Eines der größten Bottlenecks heutzutage liegt genau zwischen CPU und GPU. Indem man GPU und CPU gemeinsam auf einen Chip packt und beide den selben Speicher und Addressraum verwenden lässt (dank 64 Bit haben wir davon mittlerweile ja nun im Überfluss), könnte man dieses Bottleneck vermutlich weitgehend eliminieren...



  • rapso schrieb:

    es war schon immer so dass man 'das baldige ende' gesehen hat, z.b. hat man bei den lasern die die silicium scheiben bestrahlen gesagt dass bei 192nm oder so sense ist, intel nutzt heute immer noch 192nm laser, aber mittels licht brechender materialien kommen die auf 14nm runter (und planen noch weiter zu gehen damit).
    man forscht auch an anderen materialien usw. so schnell wird es da kein ende geben.

    Das ist nicht das gleiche.

    Denn Atome sind nicht unendlich klein.
    http://hypertextbook.com/facts/MichaelPhillip.shtml



  • Gregor schrieb:

    Vielleicht geht es dann noch etwas weiter runter und es ist erst 2022 oder 2024 oder so Schluss, aber wesentlich weiter wird es nicht gehen, es sei denn, es kommt eine voellig andere Herstellungstechnik fuer ein voellig anderes Prinzip, wie man Computerchips baut. Da bin ich aber skeptisch.

    Vor ein paar Jahren habe ich mal gelesen, dass man anstatt Silizium auch Kohlenstoff in Form von Diamanten nehmen könnte, damit währen dann CPU Temperaturen von 800 °C möglich, bei entsprechenden Taktraten.

    Dumm ist nur, dass es unheimlich viel Geld kostet, Diamnten zu fertigen.
    Billig wird das nicht, aber vielleicht ist das dann wenigstens ein Weg für Supercomputer bei denen es auf Single Threading Leistung ankommt.



  • Ah, hier habe ich was:

    81 GHz mit einer CPU aus Diamant:

    http://www.geek.com/chips/81ghz-diamond-semiconductor-created-551147/



  • dot schrieb:

    Ich denk, er meint damit nicht, dass GPUs verschwinden, sondern dass die GPU in Zukunft nichtmehr separate Komponente, sondern eher sowas wie eine GPU als Koprozessor zusammen mit der CPU auf dem selben Chip sitzt. Das seh ich ähnlich.

    Das hat auch jede Menge Vorteile.

    Kürzere Laufzeiten, bei CPU Takt und dann noch ohne BUS Overhead.

    Damit kann man richtig günstig Daten von der CPU zur GPU und zurück schieben, damit dürften viele neue Dinge Möglich sein, was momentan nicht geht, weil PCIe das Nadelöhr ist.

    PCIe = Lange Signalwege, niedrige Taktrate (im Vergleich zur > 3 GHZ CPU) => hohe Latenz



  • wie wär's langfristig mit Netzen aus einer Vielzahl einfacher CPUs mit je etwas Speicher, die sich gegenseitig aktivieren und kommunizieren ?

    Da kann man auch prima Objektmodelle drauf abbilden (z.B. jedes wichtige Objekt in je einer rudimentären CPU halten und ein Methodenaufruf entspräche dem Zustellen einer Nachricht und gegenseitige Aktivierung). Neue Software müßte allerdings her, die nicht mehr auf serielle, sondern auf parallele Geschwindigkeit optimiert ist.

    hoffentlich können solche Computer dann nicht intelligenter werden als das menschliche Gehirn, sonst kämen sie vielleicht eines Tages auf die Idee, uns als Haustiere zu halten.



  • Gregor schrieb:

    rapso schrieb:

    es war schon immer so dass man 'das baldige ende' gesehen hat, z.b. hat man bei den lasern die die silicium scheiben bestrahlen gesagt dass bei 192nm oder so sense ist, intel nutzt heute immer noch 192nm laser, aber mittels licht brechender materialien kommen die auf 14nm runter (und planen noch weiter zu gehen damit).
    man forscht auch an anderen materialien usw. so schnell wird es da kein ende geben.

    2020 wird man in etwa bei Strukturgroessen von 5nm sein. In einem Wuerfel mit 5nm Kantenlaenge findet man etwa 6000 Si-Atome. Das ist eine Groessenordnung bei der es langsam anfaengt, dass man Fremdatome im Atomgitter oder Gitterfehlstellungen nicht mehr statistisch behandeln kann. Die sind aber statistisch verteilt. Das heisst, dass man die gewuenschte Physik in den Transistoren nur noch sehr schwer garantieren kann. Vielleicht geht es dann noch etwas weiter runter und es ist erst 2022 oder 2024 oder so Schluss, aber wesentlich weiter wird es nicht gehen, es sei denn, es kommt eine voellig andere Herstellungstechnik fuer ein voellig anderes Prinzip, wie man Computerchips baut.

    hatte dasselbe gespraech von jahre wegen der lithographie mit einem kumpel der da voll der 'crack' ist und der meinte, dass spaetestens 2000 schluss ist mit kleineren strukturen, weil man dann die leiterbahnen nicht mehr herstellen kann. und alle zeitlang sagen 'experten' dass bei intel bald schluss ist, weil sie ein verfahren verwenden das ein 'death end' hat und die ganze konkurenz verwendet wohl ein anderes lithographie verfahren, jedoch scheint intel schon seit 13jahren weiter zu machen, wie sie es machen.
    das zeigt mir irgendwie, dass es sehr sehr viele leute gibt die 'alles darueber wissen', aber die zunkunft hatte keiner richtig vorhergesagt, bisher. somit sehe ich dem entspannt entgegen wo es hingeht. es gibt sehr viele firmen die an neuen stoffen oder dotierungen arbeiten, die an light basierenden transistoren arbeiten, die supraleiter in chips verwenden wollen, die chips sparsammer aber dafuer 'breiter' machen wollen. es gibt firmen die chips stacken wollen etc.
    es gibt zwar immer undurchdringbare gesetze, aber bisher hat man sie umgangen. ich bin mir sicher, es wird irgendwie weitergehen, somit wird es sicher nicht deswegen eine rueckkehr zu assembler geben (wenn es die mal gibt).



  • Back2roots? schrieb:

    Denn Atome sind nicht unendlich klein.

    aber das kleinste was es gibt, haben experten aus griechenland gesagt.



  • rapso schrieb:

    Back2roots? schrieb:

    Denn Atome sind nicht unendlich klein.

    aber das kleinste was es gibt, haben experten aus griechenland gesagt.

    Oh mann, ist das mal wieder ne dumme Antwort.
    Und dabei hast du sie doch nur gegeben, um einfach nur zu zeigen "Dagegen, wie dumm es auch sein mag."

    Aber du darfst gerne mal zeigen, wie du Protonen* in eine Struktur pressen möchtes, so dass Elektronen den gewünschten Bahnen folgen, die man für die Elektronik zum Rechnen gerne hätte.

    * Ja, ich bin großzügig, du darfst es auch mit Leptonen, Quarks und Co probieren, vielleicht fällt dir dann ganz von selbst auf, wie dumm dein Beitrag wirklich ist.



  • Back2roots? schrieb:

    rapso schrieb:

    Back2roots? schrieb:

    Denn Atome sind nicht unendlich klein.

    aber das kleinste was es gibt, haben experten aus griechenland gesagt.

    Oh mann, ist das mal wieder ne dumme Antwort.
    Und dabei hast du sie doch nur gegeben, um einfach nur zu zeigen "Dagegen, wie dumm es auch sein mag."

    eigentlich hab ich die hoffnung gehabt du merkst anhand einer gleichdummen sinnlosen klugscheiss antwort, wie arm deine rueberkommt. haette auch ein
    http://4.bp.blogspot.com/-xfgrqiXbnyc/T3_g_2D3plI/AAAAAAAACH4/a5-0GqXGvCs/s1600/true+story.jpg
    posten koennen zu deiner smartigkeit, aber naja, selbstreflektion und so...

    Aber du darfst gerne mal zeigen, wie du Protonen* in eine Struktur pressen möchtes, so dass Elektronen den gewünschten Bahnen folgen, die man für die Elektronik zum Rechnen gerne hätte.

    klar, so wie ich im jahr 2000 gezeigt hatte dass lithographie entgegen der expertenmeinungen mit 192nm lasern bis zu 10nm runter geht. so wie ich gezeigt habe, wie man prozessoren ueber 12GHz hinaus takten wird und bei 12GHz prozessoren garnicht schluss sein wird, weil experten behaupten dass ab dort die signallaufzeit limitieren wird und das physikalische gesetzt garnicht schnellere CPUs erlaubt.
    merkst du ueberhaupt dass du so sehr klugscheissen moechtest dass du am punkt vorbei redest?

    es geht um Moor's law, das einfach nur sagt, dass schaltungskomplexitaet sich alle zwei jahre verdoppelt. dass manche das auf performance oder strukturelle verkleinerung, oder taktung uebersetzen aendert nichts daran, dass es nur darum geht schaltungen komplexer werden.

    wikipedia schrieb:

    The complexity for minimum component costs has increased at a rate of roughly a factor of two per year... Certainly over the short term this rate can be expected to continue, if not to increase. Over the longer term, the rate of increase is a bit more uncertain, although there is no reason to believe it will not remain nearly constant for at least 10 years. That means by 1975, the number of components per integrated circuit for minimum cost will be 65,000. I believe that such a large circuit can be built on a single wafer

    kleinere strukturen sind nicht der einzige weg, so wie taktbarkeit nicht der einzige weg war. das ist als ob du projezieren wuredest, dass PKWs sparsammer werden weil sie zunehmende weniger zylinder haben und das ende der sparsamkeit erreicht ist wenn alle nur noch ein zylinder haben.
    eine relation die zu einem gewissen grad besteht, aber daraufhin zu projektionen auf das ende der komplexitaet erreicht ist wenn man bei atomen ankommt ist recht naiv. schon heute koennte man sehr viel komplexerere schaltungen machen und das limitierende ist dabei nicht das herstellungsverfahren, sondern wirtschaftlichkeit.
    wenn du NVidia 300euro gibst, bekommst du 3.5Mrd transistor prozessoren, wenn du ihnen 900euro gibst, sogar 7Mrd transistor prozessoren, wenn sie den weltmark erobern koennten mit 14Mrd transistor prozessoren fuer 6k euro, wuerdest du das kaufen koennen. und jetzt kannst du nochmal klugscheissen und ausrechnen wieviel Mrd Euroequivalent es auf der erde gibt, damit du dann behaupten kannst, wie moor's law limitiert sein wird aufgrund der investitionssumme. tatsache ist, dass 'experten' sagen, dass die kosten fuer solche verfahren viel eher zum problem werden als die verfahren selbst, das naechste 14nm verfahren soll nur noch wirtschaftlich sein mit 450mm wafern und fuer beides geld zu investieren soll sich nur Intel, TMSC leisten koennen (und falls sich alle anderen hersteller zusammen legen, dann deren gemeinschafts-fab als 3.).



  • Back2roots? schrieb:

    Aber du darfst gerne mal zeigen, wie du Protonen* in eine Struktur pressen möchtes, so dass Elektronen den gewünschten Bahnen folgen, die man für die Elektronik zum Rechnen gerne hätte.

    kumpel von intel meinte das geht auch noch kleiner, aber waere zu teuer. hat mir http://www.nature.com/nnano/journal/v7/n4/full/nnano.2012.21.html verlinkt.

    ist das die antwort auf die unmoegliche frage? hab nicht die zeit alles durchzulesen, aber vom ueberfliegen klingt es mir als ob die wirklich mit individuellen elektronen gates basteln.



  • rapso schrieb:

    kleinere strukturen sind nicht der einzige weg, so wie taktbarkeit nicht der einzige weg war.

    "Kleinere Strukturen" hat gegenüber anderen Wegen einen enormen Vorteil. Man erhöht damit die Parallelität in der Herstellung. Wenn man zu einem gegebenen Zeitpunkt 1.000.000.000 Transistoren parallel herstellen kann, kann man nach dem nächsten Miniaturisierungsschritt 2.000.000.000 Transistoren parallel herstellen. Das impliziert halbwegs gleichbleibende Kosten. Wenn man stattdessen das Die vergrößert, dann wird der Chip teurer. Wenn man Die-Stacking betreibt, wird der Chip auch teurer. Jenseits davon hat Miniaturisierung auch weitere Vorteile. Zum Beispiel sinkt die benötigte Energie zum Schalten eines Transistors. In den anderen beiden skizzierten Wegen ist das nicht so. Aus meiner Sicht heißt das, dass Miniaturisierung der Weg ist, den man am weitesten gehen kann. Man kann zwar auch anderes machen, aber die möglichen Wege sind dort immer relativ kurz.

    rapso schrieb:

    Back2roots? schrieb:

    Aber du darfst gerne mal zeigen, wie du Protonen* in eine Struktur pressen möchtes, so dass Elektronen den gewünschten Bahnen folgen, die man für die Elektronik zum Rechnen gerne hätte.

    kumpel von intel meinte das geht auch noch kleiner, aber waere zu teuer. hat mir http://www.nature.com/nnano/journal/v7/n4/full/nnano.2012.21.html verlinkt.

    ist das die antwort auf die unmoegliche frage? hab nicht die zeit alles durchzulesen, aber vom ueberfliegen klingt es mir als ob die wirklich mit individuellen elektronen gates basteln.

    Naja, zum einen ist ein einzelnes Atom natürlich größer als ein Proton, zum anderen besteht dieser "Single-Atom-Prozessor" nicht nur aus einem einzelnen Atom. Außerdem: Jenseits des Kerns eines Transistors müssen die anderen Strukturen auch entsprechend klein sein. Was bringt mit ein Transistor, bei dem man argumentieren kann, dass alles an einem einzelnen Atom hängt, wenn die Zuleitungen immer noch 10nm dick sein müssen. Und: Es ist ein gewaltiger Unterschied zwischen "man kann einen Transistor herstellen" und "man kann 10 Mrd. Transistoren genau an den Stellen und mit den Eigenschaften herstellen, die man braucht".



  • 2020 haben wir Quantencomputer und dann werden wir ueber die heutigen Probleme lachen.



  • 2020 ist schon ziemlich optimistisch.


Anmelden zum Antworten