AMD Bulldozer vernichtende Entäuschung



  • Gruum schrieb:

    Also die heutigen Spiele werden wohl alle problemlos mit der CPU laufen, schließlich werden die zum Großteil für Konsolen entwickelt. Von zukünftigen Spielen erwarte ich eine Optimierung auf multi-core cpus.

    Es gibt nicht nur Konsolenspiele.
    ARMA 2 (oder 3), Shogun 2 usw. profitieren alle von einer schnellen CPU.



  • sdf_ausgeloggt schrieb:

    Jeden Gamer und von den Heimanwendern sind das bis auf wenige Ausnahmen wie Videoschnitt & Renderfreakminderheiten die einzigen, die heute überhaupt noch daheim so viel Rechenleistung brauchen.

    Du wirst es nicht glauben aber die Welt besteht nicht nur aus Gamern, manche machen auch Ernst:
    http://openwall.info/wiki/john/parallelization



  • volkard schrieb:

    (...)

    Ja, ist je nach Projekt total unterschiedlich.
    Ein Projekt das mit MSVC und LTCG unverhältnismässig lange braucht, ist die DevIL.

    Per Default haben die DevIL Projektfiles LTCG nicht an, aber wenn man es andreht, und Release baut.... huiiii.
    Und das obwohl das alles harmloses C-ohne-++ ist, und auch nicht massiv viel Code.



  • EOP schrieb:

    sdf_ausgeloggt schrieb:

    Jeden Gamer und von den Heimanwendern sind das bis auf wenige Ausnahmen wie Videoschnitt & Renderfreakminderheiten die einzigen, die heute überhaupt noch daheim so viel Rechenleistung brauchen.

    Du wirst es nicht glauben aber die Welt besteht nicht nur aus Gamern, manche machen auch Ernst:
    http://openwall.info/wiki/john/parallelization

    Als ob so ein Nischenprogramm irgend eine Relevanz hat.

    Der treibende Faktor für HW ist heute noch viel mehr als damals die Spieleindustrie.



  • hustbaer schrieb:

    volkard schrieb:

    (...)

    Ja, ist je nach Projekt total unterschiedlich.
    Ein Projekt das mit MSVC und LTCG unverhältnismässig lange braucht, ist die DevIL.

    Per Default haben die DevIL Projektfiles LTCG nicht an, aber wenn man es andreht, und Release baut.... huiiii.
    Und das obwohl das alles harmloses C-ohne-++ ist, und auch nicht massiv viel Code.

    Ihr müsst mal ein großes Projekt auf ner Ram-Disk kompilieren - Das macht Spass! Wundert mich übrigens nicht mit AMD, die haben vor Wochen schon einen finsteren Unternehmensausblick gegeben wohlwissend das sie diese Runde nicht mehr gegen Intel anstinken können.



  • @Cpp_Junky:
    Was bringt mir ne Ramdisk wenn die Sache CPU-bound ist?
    Ich hab auch privat und in der Firma ne SSD drinnen auf der ich compiliere, IO bremst da kaum bis garnicht.



  • Klar bremst die Platte.. Das läuft hier (Core i5 2400, 6 GB RAM / 2 GB für die RD) gefühlt fast doppelt so schnell durch, wenn ichs auf der RD kompilieren lasse (Und meine HDD ist ein Sata II Stripe). Und was hat überhaupt SSD damit zu tun?! 😕



  • Cpp_Junky schrieb:

    Und was hat überhaupt SSD damit zu tun?! 😕

    Wie wärs damit: Zugriffsgeschwindigkeiten im Bereich von 100x schneller als normale HDD?

    @hustbaer: Rein aus Interesse, wenn du da ständig auf die SSD kompilierst, hast du da schonmal eine SSD komplett abgenutzt, oder zumindest gemerkt, dass sie langsamer wird? Ich hab mir ja nun auch eine SSD als Systemlaufwerk zugelegt und bin sehr begeistert davon. Allerdings hab ich alles mögliche unternommen, um die Writes auf die Platte möglichst gering zu halten. Was SSD write endurance angeht, findet man ja leider viel zu viel widersprüchliche Aussagen...



  • Das kann man so pauschal zwar nicht sagen, aber wenn du ne ordentliche SSD hast ist bei dir der Unterschied zur RD wohl nicht so groß wie bei einer "normalen" HDD. Dann wunderts mich auch nicht, das du keinen I/O Flaschenhals hast. darf ich fragen, welche SSD du verbaut hast?

    dot schrieb:

    ...Wie wärs damit: Zugriffsgeschwindigkeiten im Bereich von 100x schneller als normale HDD?

    Lesen oder Schreiben? :p



  • Kariiya schrieb:

    Der treibende Faktor für HW ist heute noch viel mehr als damals die Spieleindustrie.

    Glaube ich nicht. Damals (vor 15 Jahren) gab es regelmaessig neue Spiele, die selbst mit den neuesten Rechnern kaum fluessig spielbar waren. Heute ist das nicht mehr so. Zumindest ist es mir nicht bekannt. Welche aktuellen Spiele brauchen denn die neuste Hardware, um halbwegs spielbar zu sein?



  • Ja, die Spieleindustrie wird, was das angeht, atm von den Konsolen gebremst. Wenn die nächste Konsolengeneration draußen ist, geht's wieder weiter 😉



  • Gregor schrieb:

    Kariiya schrieb:

    Der treibende Faktor für HW ist heute noch viel mehr als damals die Spieleindustrie.

    Glaube ich nicht. Damals (vor 15 Jahren) gab es regelmaessig neue Spiele, die selbst mit den neuesten Rechnern kaum fluessig spielbar waren. Heute ist das nicht mehr so. Zumindest ist es mir nicht bekannt. Welche aktuellen Spiele brauchen denn die neuste Hardware, um halbwegs spielbar zu sein?

    Das gibts heute auch noch... für Starcraft 2 gibt´s z.B. Fun Maps, die mein System über seine Grenzen belasten. Bei einer Auflösung von 1920x1200 und maximaler Grafikqualität hatte ich teilweise nur noch 11 FPS (Core i7-2500K und GeForce 470 GTX).



  • Firefox-Compilieren gemessen:
    auf Ramdisk: 9m10s
    auf SSD: 9m32s



  • dot schrieb:

    Wie wärs damit: Zugriffsgeschwindigkeiten im Bereich von 100x schneller als normale HDD?

    Schon, aber beim Compilieren gehen die Uhren anders.
    Gelesen wird fast nur aus dem Cache. Geschrieben wird nur in den Cache.
    Wenn die Platte langsamer ist als die Ramdisk, dürfte das wohl vor allem am Dateisystem liegen, nämlich daß tmpfs einfacher aufgebaut ist und dafür weniger gerechnet werden muß, weniger gelockt werden muß oder so Kram.



  • volkard schrieb:

    dot schrieb:

    Wie wärs damit: Zugriffsgeschwindigkeiten im Bereich von 100x schneller als normale HDD?

    Schon, aber beim Compilieren gehen die Uhren anders.
    Gelesen wird fast nur aus dem Cache. Geschrieben wird nur in den Cache.

    Naja, aber dann bin ich ja nicht I/O bound, ich dachte wir reden hier von einem hypothetischen Fall wo ich I/O bound bin 😉



  • dot schrieb:

    Naja, aber dann bin ich ja nicht I/O bound, ich dachte wir reden hier von einem hypothetischen Fall wo ich I/O bound bin 😉

    Ich wollte einwerfen, daß man diesen hypothetischen Fall nicht befürchten muß, wenn man nicht gerade zu wenig RAM eingebaut hat. Mir war nicht klar, daß die Diskussion in den hypothetischen Fall gerutscht war.



  • Naja, ist trotzdem durchaus interessant. Ich hab das Argument, dass man mit einer schnelleren Festplatte die Compiletime evtl. stark reduzieren kann, schon ziemlich oft gehört. Gut mal von jemandem der Erfahrung hat zu hören, was wirklich dran ist 😉



  • Ernsthafte Vergleiche habe ich nur unter Linux mit reiserfs, nilfs2 oder btrfs.
    Insbesondere mit nilfs2 habe ich monatelang auf einem USB-Stick gearbeitet. Null problemo auch mit solch einer ultra-langsamen "Platte". Außer mit Firefox, der anscheinend dauernd die gesamte Platte synct.

    Unter Windows könnte das anders sein. Da will ich mal nichts versprechen.

    Aber lesen kann auch Windows aus dem Cache und schreiben tut auch Windows in den Cache. Zum Beispiel schreibt keiner eine Ramdisk für Windows, weil es nichts bringen würde. Das könnte man eigentlich auch nur totmachen, wenn man andauerd unsinnigerweise die gesamte Platte synct.

    Früher hatten viele Leute einfach zu wenig RAM, dann brachte eine schnelle Platte natürlich sehr viel. Mit meinen 2GB war ich aber schon jenseits der Probleme. Und bis Win95 war Schreiben wohl auch nicht kostenlos (aber für Win95 gab es prima Ramdisks).


  • Mod

    dot schrieb:

    Naja, ist trotzdem durchaus interessant. Ich hab das Argument, dass man mit einer schnelleren Festplatte die Compiletime evtl. stark reduzieren kann, schon ziemlich oft gehört. Gut mal von jemandem der Erfahrung hat zu hören, was wirklich dran ist 😉

    Das hättest du doch auch selber ausprobieren können. Du compilierst doch sicherlich oft genug irgendwas.



  • SeppJ schrieb:

    dot schrieb:

    Naja, ist trotzdem durchaus interessant. Ich hab das Argument, dass man mit einer schnelleren Festplatte die Compiletime evtl. stark reduzieren kann, schon ziemlich oft gehört. Gut mal von jemandem der Erfahrung hat zu hören, was wirklich dran ist 😉

    Das hättest du doch auch selber ausprobieren können. Du compilierst doch sicherlich oft genug irgendwas.

    Natürlich, aber ich hatte noch nie das Problem mit derart langen Compilezeiten, dass es mich irgendwie gestört hätte 😉


Anmelden zum Antworten