Wann kommen sparsamere Grafikkarten auf den Markt?



  • Hallo,
    da ich vor hatte mir nächtes Jahr mit dem Release der Skylake Desktop-CPUs einen neuen PC zu kaufen, habe ich mal geguckt, wie es momentan so mit Grafikkarten aussieht. Ich war ein bisschen überrascht, dass die neue Nividia-900-series immer noch auf 28nm basiert und unmengen an Strom frisst.
    Gibt es da schon Infos, wann genau eine neuere Architektur veröffentlicht wird und wie diese heißen wird?


  • Mod

    Wenn bei Nvidia alles so läuft, wie sich das die Entwickler in ihren Träumen vorstellen, kannst du vielleicht, mit Glück, eventuell, gerüchteweise mit einer verkleinerten Version (16 nm) der aktuellen Maxwell-Architektur im ersten Halbjahr 2015 rechnen.



  • Nieder mit der EEG schrieb:

    Hallo,
    da ich vor hatte mir nächtes Jahr mit dem Release der Skylake Desktop-CPUs einen neuen PC zu kaufen,...

    Skylake kommt nicht nächstes Jahr. Da kommt erst einmal Broadwell und Intel wird sich das auch versilbern lassen, sofern sie durch Konkurrenzdruck nicht müssen.

    Und da Broadwell sehr sparsam ist, wird es Intel auch den Druck bezüglich der ARM Konkurrenz nehmen.
    AMD stellt seit dem Core2Duo für Intel keine Gefahr da und das wird auf absehbarer Zeit wohl auch so bleiben. Mit der Miniaturisierung von Intel hinken die einfach um Jahre zurück.

    Fazit:

    Mit Skylake kannst du daher frühstens Ende 2016 rechnen.



  • Nunja, es wurde ja eine lange Zeit davon ausgegangen, dass sich Intel mit Skylake noch eine Menge Zeit lässt. Da aber im Desktopbereich Broadwell noch nicht angekommen ist, und es wohl auch noch im nächsten Jahr noch was dauern wird, hat sich Intel wohl gedacht das ganze Dilemma mehr oder weniger zu überspringen und für Desktops Broadwell und Skylake (Broadwell K-Modelle, Skylake ohne K) zeitnah herauszubringen um Broadwell hinter sich zu bringen. Für Notebooks sieht das ganze wohl anders aus, da wird Skylake wohl noch etwas länger brauchen.

    SeppJ schrieb:

    Wenn bei Nvidia alles so läuft, wie sich das die Entwickler in ihren Träumen vorstellen, kannst du vielleicht, mit Glück, eventuell, gerüchteweise mit einer verkleinerten Version (16 nm) der aktuellen Maxwell-Architektur im ersten Halbjahr 2015 rechnen.

    Vielleicht wirds ja was, bis Skylake erscheint, vielleicht auch nicht 🙂


  • Mod

    Du musst noch dran denken, dass die Überschneidungen zwischen Leuten, die eine leistungsfähige Grafikkarte wollen und Leuten, die eine stromsparende Grafikkarte wollen, eher klein ist. Wenn denn tatsächlich die 16 nm Technik kommt, wird man damit hauptsächlich folgendes bauen:
    a) Grafikkarten, die so viel verbrauchen, wie derzeitige High-End Grafikkarten, aber viel mehr Grafikleistung bieten.
    b) Grafikkarten, die genau so lahm sind wie derzeitige Low-End Grafikkarten, aber viel weniger Stromleistung verbrauchen.
    Das sieht man hübsch an den Entwicklungen der letzten Jahre: Obwohl Performance pro Watt immer besser wird, erhöht sich vor allem die Spitzenleistungsfähigkeit. Die Kühlungs- und Stromversorgungsbedürfnisse für Rechner bleiben auf dem Niveau, an das sich die Kunden gewöhnt haben und das daher als akzeptabler Kompromiss gilt. Die real erfolgten Verbesserungen beim Stromverbrauch beruhen vor allem darauf, dass die Technik bessere Stromsparmodi bietet und die Rechner daher wesentlich weniger Leistung aufnehmen, wenn sie im Leerlauf sind.

    Du wirst dir also eine sehr spezifische Ausführung einer abgespeckten 16 nm Grafikkarte suchen müssen, um deine Bedürfnisse zu stillen. Und hättest immer das Wissen im Hinterkopf, dass du da eine Komponente im Rechner hast, die absichtlich in schlechterer Version verbaut wurde, als es nötig gewesen wäre (mich zumindest würde das stören).



  • Angeblich soll Skylake schon nächstes Jahr kommen: http://www.phoronix.com/scan.php?page=news_item&px=MTc4NDE



  • SeppJ schrieb:

    Wenn denn tatsächlich die 16 nm Technik kommt, wird man damit hauptsächlich folgendes bauen:
    a) Grafikkarten, die so viel verbrauchen, wie derzeitige High-End Grafikkarten, aber viel mehr Grafikleistung bieten.
    b) Grafikkarten, die genau so lahm sind wie derzeitige Low-End Grafikkarten, aber viel weniger Stromleistung verbrauchen.

    Also im Midrange Bereich findet man durchaus einen Kompromiss zwischen Stromverbrauch (unter Last) und der Leistung.

    Meine letzte Midrange Karte, die ich mir gekauft habe, habe ich z.b. dahingehend ausgelegt, dass sie etwas schneller ist als meine vorherige Karte, aber dafür wesentlich leiser ist und weniger Strom verbraucht.
    Und bei der Shaderleistung ist sie sogar deutlich stärker.

    Ein Trick nicht immer die neuste High End GPU benötigen zu müssen besteht z.B. auch darin, einen Monitor zu verwenden, der nicht die aktuellste High End Auflösung besitzt.
    Heute ein Ultra HD Display zum Spielen zu kaufen ist z.B. Blödsinn, weil es bedeutet, dass man entweder, eine sau teure High End Karte dazu kauft oder,
    weil es die Midrange Karte nicht packt, die Auflösung runterregeln muss, damit es die GPU packt, aber was dann auf dem Display doof aussieht, weil es eben keine native Auflösung ist.
    In letzter Konsequenz drehen dann die meisten lieber die Effekte und Details runter, als das sie das Spiel in einer nicht nativen Displayauflösung spielen.
    Und das ist dann die schlechteste Lösung von allen.

    Daher gilt:
    Besser einen Monitor mit einer kleinere Auflösung kaufen, dann kann man jedes gängige Spiel in voller Grafikpracht auch auf einer aktuellen Midrange Karte geniesen.

    @Biolunar
    Was den Phoronix Artikel betrifft, schreiben kann man viel.
    Ich glaube da bezüglich des Releasedatums kein Wort.
    Das Vorraussagen von Releaseterminnen ist meist auch mehr Kaffesatz lesen, als irgendetwas festest, worauf man sich verlassen könnte.

    Und das es für Intel keinen Grund gibt, sich zu beeilen, spricht eigentlich dafür, das es länger dauert.
    Gerade auch deswegen, weil Die Shrinks inzwischen unheimlich teuer geworden sind.



  • Kauf Broadwell schrieb:

    @Biolunar
    Was den Phoronix Artikel betrifft, schreiben kann man viel.
    Ich glaube da bezüglich des Releasedatums kein Wort.
    Das Vorraussagen von Releaseterminnen ist meist auch mehr Kaffesatz lesen, als irgendetwas festest, worauf man sich verlassen könnte.

    Und das es für Intel keinen Grund gibt, sich zu beeilen, spricht eigentlich dafür, das es länger dauert.
    Gerade auch deswegen, weil Die Shrinks inzwischen unheimlich teuer geworden sind.

    Die aktuelle Roadmap für Desktop-CPUs verspricht Skylake CPUs Mitte 2015. Natürlich kann sich das ganze noch verspäten aber ich denke so lang es keine Produktionsschwierigkeiten wie bei Broadwell gibt wird Intel sich wohl an seine eigene Roadmap halten.
    Hier mal ein Link. Bei Google findet man auch noch zu hauf andere Artikel über die Desktop Roadmap



  • Wenn Intel die zeitgleich herausbringen will, dann frage ich mich, wer die dann veralteten Broadwell CPUs, quasi eine Sackgasse, dann kaufen soll.

    Und gerade K Modelle werden ja von High End Usern gekauft, die definitiv nicht alte Technik kaufen.

    Eventuell ist es sinnvoller, wenn man den Broadwell zum Celeron abwertet, wenn man die schon gleichzeitig herausbringen möchte.



  • Auf deine Frage kann ich dir leider keine Antwort geben.

    Nieder mit der EEG schrieb:

    dass die neue Nividia-900-series immer noch auf 28nm basiert und unmengen an Strom frisst.

    Unmengen an Strom verglichen mit was? Sicher nicht verglichen mit AMD Grafikkarten. Und auch nicht wirklich verglichen mit den "eingebauten" Lösungen von Intel oder AMD. Klar, ich würde mir auch was wünschen was mit ner GTX 970 mithalten kann und mit 30W auskommt. Wird's aber so bald nicht spielen.



  • Kauf Broadwell schrieb:

    Wenn Intel die zeitgleich herausbringen will, dann frage ich mich, wer die dann veralteten Broadwell CPUs, quasi eine Sackgasse, dann kaufen soll.

    Leute wie ich die schon nen Haswell haben und upgraden möchten ohne ein neues Board zu kaufen 🙂



  • hustbaer schrieb:

    Kauf Broadwell schrieb:

    Wenn Intel die zeitgleich herausbringen will, dann frage ich mich, wer die dann veralteten Broadwell CPUs, quasi eine Sackgasse, dann kaufen soll.

    Leute wie ich die schon nen Haswell haben und upgraden möchten ohne ein neues Board zu kaufen 🙂

    Wozu willst du denn upgraden?
    Ein Haswell sollte für alles schnell genug sein und der Broadwell wird nur unwesentlich schneller sein, so dass das Update überhaupt keinen Sinn macht.

    Ich habe jedenfalls noch nie nur die CPU upgegraded.
    Wenn ich einen Rechner upgegraded habe, dann war der Rechner schon so alt, dass ich gleich noch ein Mainboard und RAM dazukaufen konnte.



  • Hab' irgendwo gelesen dass die Broadwell Xeon E3 v4 die GT3e Grafikeinheit bekommen sollen. Das ist ein super Upgrade verglichen mit der GT2 vom Xeon E3 v3.

    Falls das stimmt werd' ich mir wohl so ein Teil besorgen.

    Wegen der paar Prozent Rechenleistung und der paar Watt niedrigeren TDP würde ich auch nicht umsteigen.

    Und falls Intel die Heat-Spreader bei Broadwell wieder verlötet bin ich sowieso fix dabei. Wobei ich eher davon ausgehe dass sie bei der billigen Pampe bleiben die sie seit Ivy-Bridge verwendet haben.



  • hustbaer schrieb:

    Hab' irgendwo gelesen dass die Broadwell Xeon E3 v4 die GT3e Grafikeinheit bekommen sollen. Das ist ein super Upgrade verglichen mit der GT2 vom Xeon E3 v3.

    Also wenn ich GPU Leistung brauche, dann würde ich eher eine dedizierte NVidia GPU kaufen.
    Wegen so etwas tauscht man doch keine CPU aus.


Log in to reply