Programme mit Multicore Unterstützung



  • unbekannter schrieb:

    Hat schon mal einer versucht, wie lange ein bestimmter Code auf 386, Pentium, Pentium 4 und aktuellen CPUs compiliert?

    Auf meinem P200 damals hat bei Suse 6.1 ein Linux-Kernel-Build irgendwas in der Größenordnung von zwei Stunden gedauert. Heutzutage bin ich eher bei zwei Minuten, nur dass ich praktisch keine Kernels mehr selbst kompiliere.

    Linux war damals aber um Größenordnungen kleiner und die GCC konnte viel weniger. Kann mich an fette Kernels mit ~400KB erinnern; heutige Kernels wiegen eher so um die 4MB.

    Suse 6.1 muss so um 1998 herum gewesen sein.

    Mal sehen…

    scale=0
    2^((2012-1998)/1.5)
    512
    (4*10^6/2)/(400*10^3/120)
    600
    

    Wenn wir also so tun, als würde der alte Moore aussagen, dass Rechner alle 1.5 Jahre doppelt so schnell werden, dann müssten wir seit 1998 ungefähr um einen Faktor 512 schneller geworden sein.

    Heutzutage produzieren wir 4MB Kernel in 2 Minuten, 1998 4KB Kernel in 2 Stunden. Da ist also ein Faktor 600 dazwischen. Wenn auch sonst nichts passt an der Rechnung, die Größenordnungen bleiben erhalten.

    Die Schmerzen bei all den unzulässigen Vereinfachungen sind zwar böse, aber nicht annähernd so böse wie die dabei, mich mit Uraltrechnern und aktuellen Compilern bzw. Uraltcompilern und aktuellen Rechnern herumschlagen zu müssen. :xmas2:



  • mein PC von 2003 war 1 x 1.7 GHz
    und bootete in 39 s bis zum login

    mein jetziger ist von 2010: 4 x 2.6-3.2 GHz

    dazwischen liegen 7 Jahre.

    Bei einer angenommenen Tempo-Verdoppelung alle 1.5 Jahre müßte mein jetziger das gleiche OS ja in rund anderthalb sekunden booten, oder wie


  • Mod

    Das Mooresche Gesetz bezieht sich nicht auf Festplattengeschwindigkeit.



  • !rr!rr_.: Ich dachte, dass aus dem Kontext klar sei, dass ich mich auf CPUs beziehe.

    Linux zu kompilieren war 1998 so derb CPU-bound, dass ich nicht glaube, dass eine Festplatte mit den Leistungsdaten meiner aktuellen SSD damals viel Geschwindigkeitszuwachs gebracht hätte. Insofern ist IO bei so einer Überschlagsrechnung IMO eher zu vernachlässigen als viele andere Faktoren, die aber sehr viel schwerer in Zahlen zu gießen sind.

    Und wie gesagt: War nur um ganz grob und ganz naiv die Größenordnungen zu überschlagen. Wer sowas richtig ernst nimmt, ist selbst schuld. 😉



  • letztendlich zählt, was für den Normalbenutzer an Beschleunigung bei rauskommt. Daß zwischen 1980 und 2000 ein Beschleunigungs-Faktor von 10000 gelegen haben kann, glaube ich gerne.

    Es gibt aber nicht nur ein Moore'sches, sondern auch ein Wirth'sches Gesetz.



  • !rr!rr_. schrieb:

    letztendlich zählt, was für den Normalbenutzer an Beschleunigung bei rauskommt. Daß zwischen 1980 und 2000 ein Beschleunigungs-Faktor von 10000 gelegen haben kann, glaube ich gerne.

    Glaub ich eher nicht. Gab da doch diesen "Wie lange dauert es, bis ich gebootet habe und einen kurzen Brief geschrieben habe"-Test, dessen Name mir gerade entfallen ist. Da haben irgendwelche Mitt-Achtziger-Kisten regelmäßig die Nase ziemlich weit vorne gehabt. Klar wird's Anwendungsgebiete gegeben haben, wo plötzlich alles viel viel schneller ging, aber die gibt's heute auch noch en masse.

    Mal ganz abgesehen davon, dass manchmal mehr Performance gar nicht so spannend ist wie das Mehr an Features, das dazu beiträgt, die Performance bei neuerer Software trotz immer schnellerer Hardware gleich bleiben zu lassen.

    Oder anders: Auch wenn ich auf meinem Rechner heutzutage Doom bestimmt mit 18000FPS spielen kann, sieht Skyrim (noch nicht selbst gespielt) doch einladender aus.



  • !rr!rr_. schrieb:

    mein PC von 2003 war 1 x 1.7 GHz
    und bootete in 39 s bis zum login

    mein jetziger ist von 2010: 4 x 2.6-3.2 GHz

    dazwischen liegen 7 Jahre.

    Bei einer angenommenen Tempo-Verdoppelung alle 1.5 Jahre müßte mein jetziger das gleiche OS ja in rund anderthalb sekunden booten, oder wie

    könnte hinkommen. mein aktuelles os bootet in 5 sec (mac osx lion). allerdings nutze ich das feature selten. denn starten aus dem ruhezustand dauert 0 sec.



  • was meinst du mit "Ruhezustand" ? suspend-to-RAM ?

    suspend-to-disk jedenfalls dauert bei mir umso länger, je mehr RAM in Verwendung ist.



  • OS X verwendet standardmäßig ein Hybrid-Sleep. Also suspend-to-RAM mit Disk-Suspend falls mal der Akku arg knapp wird.



  • Ok - mit Suspend-to-RAM läßt sich das Problem der Bootzeit umgehen, solange der Computer an ist.

    nützt mir persönlich aber wenig, weil ich a) den stationären computer nicht ständig am Netz haben kann und b) mein PC statistisch alle 20-30 Tage unter l*n*x beim suspend-to-disk einfriert, sodaß ich dann rebooten muß, ob ich will oder nicht 🙄

    ich habe gerade mal nachgezählt: bei einer von mir häufig benutzten Bytecode-vm beläuft sich der speedup innerhalb von 11 Jahren (1999: PII/400, 2010: i5/4x2.7-3.2) auf 48 (codes/s) bzw 118 (sends/s), das entspricht einer Verdoppelung rund alle 2 bzw 1.6 Jahre.



  • grade mal gemessen: kaltstart dauert genau 13 sec bis login screen (macbook pro 13'', i7, 8GB, SSD).



  • lolhehe schrieb:

    grade mal gemessen: kaltstart dauert genau 13 sec bis login screen (macbook pro 13'', i7, 8GB, SSD).

    Mein Rechner darf sich da mal ordentlich schämen - Da ist für den überwiegenden Teil der Bootzeit das Bios alleine (mit sagenhaften 20s Schuld) 😉



  • meiner bootet in 52 sek bis zum betriebsbereiten Desktop, dabei ist die cd-Erkennung im BIOS schon abgeschaltet (bringt ein paar sek) und nur ein kleiner window manager ohne desktop environment.

    Witzig, der 8 Jahre ältere PC mit 91% weniger RAM, 75% weniger CPU-Kernen und 34% niedrigerem Takt bootete die damals aktuelle Version des gleichen OS ein paar Sekunden schneller.



  • mein zweitrechner (core2duo, 0815 HDD, win7) braucht 44 sek. davon 12 sek bios.

    wobei bootzeit ja ziemlich wurscht ist bei normalen arbeitsrechnern. die macht man ja idr morgens an und abends aus. bei nem notebook ist es aber imo schon sehr wichtig, wenn mans häufig auf und zu klappt.


Anmelden zum Antworten