Moore's law



  • marmor kuchen schrieb:

    da der Löwenanteil aller global verbrauchter Rechenzeit auf die Kappe von relativ wenigen Algorithmen geht (Suchen, Sortieren, ...),

    Quatsch



  • mit sose schrieb:

    marmor kuchen schrieb:

    da der Löwenanteil aller global verbrauchter Rechenzeit auf die Kappe von relativ wenigen Algorithmen geht (Suchen, Sortieren, ...),

    Quatsch

    Schonmal von Google gehört 😃 ?



  • Headhunter schrieb:

    mit sose schrieb:

    marmor kuchen schrieb:

    da der Löwenanteil aller global verbrauchter Rechenzeit auf die Kappe von relativ wenigen Algorithmen geht (Suchen, Sortieren, ...),

    Quatsch

    Schonmal von Google gehört 😃 ?

    85% des Internets bestehen aus Pörn und noch 8% Youtube Videos ➡ größter globaler Rechenzeitverbrauch steckt in Bild- und Videokompression, skalierung usw...



  • Flummiesser schrieb:

    85% des Internets bestehen aus Pörn und noch 8% Youtube Videos ➡ größter globaler Rechenzeitverbrauch steckt in Bild- und Videokompression, skalierung usw...

    Das stimmt. Aber weniger wegen der Menge des Content, sondern wegen der recht hohen Komplexität. Wenn ich heute einen H.264 enkodierten Film von einer Blu-Ray rippe und auf sagen wir mal 4 GB herunterrechnen will, mit variabler Bitrate und natürlich auch wieder mit H.264 als Zielcodec, dann dauert das auf nem modernen Quadcore auch gerne mal zwölf Stunden.



  • ja, und wie viele Directory-Zugriffe, Einfüge/Lösch/Suchvorgänge in OS-Strukturen, Datenbank-Zugriffe, DNS-resolvings usw. kommen auf eine Multimedia (De-)/kompression ?? na also.



  • marmor kuchen schrieb:

    ja, und wie viele Directory-Zugriffe, Einfüge/Lösch/Suchvorgänge in OS-Strukturen, Datenbank-Zugriffe, DNS-resolvings usw. kommen auf eine Multimedia (De-)/kompression ?? na also.

    ihr seid immer wieder lustig



  • Headhunter schrieb:

    Stimmt Moore's Law praktisch überhaupt noch?

    Ja

    Headhunter schrieb:

    Wenn ich jetzt 100x mehr Rechenpower brauche und nicht bis 2017 warten möchte, miete ich mir bei der Amazon EC einfach die Performance an. Dank relativ einfacher MapReduce Frameworks (Apache Hadoop) ist auch ein beliebig skalierbares Programm kein großes Problem zu schreiben.

    Was soll das mit Moore's Law zu tun haben?



  • ein bischen enttäuscht bin ich ja schon - Faktor 3-4 (Takt) und Faktor 8 (RAM) binnen der letzten 8 Jahre, da ist man von früher aber größere Steigerungsraten gewohnt.
    Von 1992 bis 1999 bekam man eine schätzungsweise rund 30-fache Steigerung an CPU-Takt mit einem durchschnittlichen PC, und beim RAM wohl auch eine Zunahme rund um das 30-fache, größenordnungsmäßig.



  • Vergleiche doch mal in einem Test einen alten Prozessor von 1990 mit einem vergleichbaren (gleicher Einsatzzweck) von Heute, beide mit der gleichen Taktfrequenz betrieben.

    Die Taktfrequenz ist keine Angabe für die Rechenleistung eines Prozessors! Sie bezeichnet nur die Frequenz, in der der Prozessor eine Art "Jetzt!"-Signal bekommt, damit die faule Socke mal wieder etwas macht. Was genau der Prozessor innerhalb eines Taktzyklus macht, ist aber ebenfalls sehr wichtig. Um es mal einfach und übertrieben darzustellen: Ein Prozessor könnte gerade in einem Taktzyklus den 20. Schritt einer Addition durchführen, während ein Anderer gleichzeitig eine jeweils komplette Multiplikation und Addition durchführt.



  • marmor kuchen schrieb:

    ein bischen enttäuscht bin ich ja schon - Faktor 3-4 (Takt) und Faktor 8 (RAM) binnen der letzten 8 Jahre, da ist man von früher aber größere Steigerungsraten gewohnt.

    In den letzten Jahren stagniert die Taktfrequenz ja sogar oder geht sogar zurück. Der Grund dafür ist einfach die Hitze, die ein Transistor erzeugt. AFAIK ist die proportional zum Quadrat der Schaltfrequenz. Zumindest hat man bei der erzeugten Hitze eine Obergrenze, die man nicht überschreiten kann. Und bezüglich der erzeugten Hitze ist die Verkleinerung als Kompensation zur Erhöhung der Transistordichte und der Taktfrequenz nicht gut genug. Deshalb kann es mit der Taktfrequenz bei aktueller Technik nicht weiter nach oben gehen.

    Ich würde nicht damit rechnen, dass sich bei der Taktfrequenz in den nächsten Jahren wesentliches ändert.

    Beim RAM würde ich allerdings von einem Faktor 16 in den letzten 8 Jahren ausgehen. Weiß nicht, ob Du Dich da auf bestimmte Zahlen beziehst, aber es gab in letzter Zeit AFAIK alle 2 Jahre einen Miniaturisierungsschritt, der zu einer Verdopplung der Transistordichte geführt hat. Mehr ist nach der aktuellen Formulierung von Moore's Gesetz nicht zu erwarten. Aber frühere Formulierungen hatten ja auch mal eine Verdopplung der Transistordichte alle 18 oder sogar alle 12 Monate vorgesehen.

    Klar, es wäre toll gewesen, noch stärkeres Wachstum bei der Transistordichte zu sehen, aber ich finde, das, was wir da sehen, ist schon ziemlich cool. Hoffentlich kann das noch eine gewisse Zeit aufrechterhalten werden. Momentan sind wir bei Strukturgrößen von 32nm. Da muss man sich schon die Frage stellen, wie weit das noch gehen kann. Wenn die bis auf 4nm runterkommen, dann wäre das schon richtig, richtig cool. Und es würde die Computerrevolution der letzten Jahrzehnte noch ein erhebliches Stück weitertreiben.



  • Ich musste letztens mal ein Passwort für ein PDF knacken. Der Brute Force Kancker kam als Win32 Binary mit Source daher. Auf meinem 2Ghz Dualcore Rechner (2008 gekauft) habe ich den Source mit dem Intel Compiler unter Windows und dem GCC unter Linux kompiliert. Dann habe ich den Source als x86 standard kompiliert und auf meinem alten Athlon 1,2 Ghz (2001 gekauft) laufen gelassen. Obwohl zwischen beiden Rechnern 7 Jahre lagen war der neuere Rechner nicht einmal doppelt so schnell. (Es wurde nur ein Core benutzt)

    Bei den kryptologischen Verfahren sind die neuen Rechner also kaum schneller geworden. Der Transistorenzuwachs muß dann wohl anderen Bereichen zugute gekommen sein? Mächtigere Multimedia Operationen?



  • abcd schrieb:

    Der Transistorenzuwachs muß dann wohl anderen Bereichen zugute gekommen sein? Mächtigere Multimedia Operationen?

    Cache dürfte ein großer Teil sein. Dann die von dir erwähnten Erweiterungen wie SSEx und natürlich multicore. Such mal nach Bildern von dice aktueller und älterer Prozessoren. Oft sind auf den Bildern die jeweiligen Regionen gekennzeichet, da sieht man recht gut was z.B. 2nd level cache ausmacht. Natürlich ist auch der Wechsel auf 64Bit nicht ganz "Transistorneutral" gewesen.



  • Gregor schrieb:

    Wenn die bis auf 4nm runterkommen, dann wäre das schon richtig, richtig cool. Und es würde die Computerrevolution der letzten Jahrzehnte noch ein erhebliches Stück weitertreiben.

    Wenn für Dich Computerrevolution bedeutet, dass man immer schneller immer mehr Daten verarbeiten kann, demzufolge jeder Furz digitalisiert wird d.h. immer mehr Daten anfallen, was wiederum noch schnellere Maschinen fordert, dann hast Du vermutlich recht.



  • wenn der Takt nicht mehr so rasant steigt wie früher, aber pro Takt immer mehr an Funktionalität passiert (IPS per Hz), dann scheint für die Zukunft wohl noch Potential in "intelligenteren" CPUs zu stecken, bei denen pro Takt nicht nur eine Handvoll Maschinenbefehle, sondern high-level-Befehle ausgeführt werden, etwa java Bytecode oder ähnliches.

    vielleicht gibt es auch eine Naturgesetzmäßigkeit, die verhindert, daß uns die Maschinen über den Kopf wachsen ? 😃



  • HackerJoe schrieb:

    Gregor schrieb:

    Wenn die bis auf 4nm runterkommen, dann wäre das schon richtig, richtig cool. Und es würde die Computerrevolution der letzten Jahrzehnte noch ein erhebliches Stück weitertreiben.

    Wenn für Dich Computerrevolution bedeutet, dass man immer schneller immer mehr Daten verarbeiten kann, demzufolge jeder Furz digitalisiert wird d.h. immer mehr Daten anfallen, was wiederum noch schnellere Maschinen fordert, dann hast Du vermutlich recht.

    Ich würde es anders formulieren. Computerrevolution heißt für mich, dass Computer durch den technischen Fortschritt immer mehr Anwendungsgebiete kriegen und somit in der Gesellschaft immer präsenter werden. Und das beziehe ich natürlich nicht nur auf klassische PCs, sondern auf alles, was einen Computerchip enthält oder von soetwas abhängt. Da gehört in den letzten 10 Jahren sowohl die rasante Entwicklung des Internets, als auch die Fortschritte bei Mobiltelefonen dazu. Auch die eingebetteten Systeme, die die Dinge intelligenter machen, gehören für mich dazu. Zum Beispiel das ESP beim Auto.

    Ich denke übrigens, dass gerade bei den eingebetteten Systeme in den nächsten Jahren jede Menge Fortschritte kommen werden. Hier wirkt sich nicht nur die Verbilligung der Rechenleistung aus, sondern auch die Verbilligung von Sensoren. Bei denen tut sich in letzter Zeit nämlich auch jede Menge.


Anmelden zum Antworten