Was bringt eine 4 Kern CPU inzwischen?



  • Denkt ihr, der Otto Normal User bemerkt einen Unterschied bei der KI der Fische von so nem Aquariumbildschirmschoner, wenn dieser auf einem 2 Kern vs. >= 4 Kern CPU läuft?



  • Für sich intelligent verhaltende Fische beim Aquariumbildschirmschoner, dafür braucht man nen Quadcore! <mahnend Zeigefinger heb>

    Auf nem Dualcore sind die Fische nicht so intelligent, weil weniger Rechenpower der KI zur Verfügung steht.



  • Wenn 30 Programme gleichzeitig laufen, was beim typischen Heimanwender üblich ist, da er die Programme nie schließt, dann hilft ein Quadcore.



  • nachtfeuer schrieb:

    edit: ich könnte mich immer beömmeln, wenn die in Computerzeitschriften bei Tests mit neueren Dualcores schreiben "für Büro und Office Ok" Die Rechenleistung die man dafür braucht, bringt glaube ich auch ein kleiner C16 oder Atari bei 8 Mhz locker.

    Ich will dann aber mal den 8 Mhz-Atari sehen, der ein halbwegs aktuelles Office-Paket locker flockig stemmen kann 😉


  • Mod

    GPC schrieb:

    Ich will dann aber mal den 8 Mhz-Atari sehen, der ein halbwegs aktuelles Office-Paket locker flockig stemmen kann 😉

    Wenn du "aktuell" durch "ausreichend" ersetzt, dann tippe ich auf den Atari 🙂 .



  • SeppJ schrieb:

    Wenn du "aktuell" durch "ausreichend" ersetzt, dann tippe ich auf den Atari 🙂 .

    Wer ist denn mit "ausreichend" zufrieden? Mein Office muss allen Schnickschnack haben, Live-Formatierungs-Preview und solchen Kram. Da gerät der Atari dann wohl doch ins Wanken. 🕶



  • SeppJ schrieb:

    GPC schrieb:

    Ich will dann aber mal den 8 Mhz-Atari sehen, der ein halbwegs aktuelles Office-Paket locker flockig stemmen kann 😉

    Wenn du "aktuell" durch "ausreichend" ersetzt, dann tippe ich auf den Atari 🙂 .

    Na ja, je nachdem was man eben für Funktionen des Office-Pakets man braucht. Wobei es vmtl. schon so ist, dass 90% der oft genutzten Funktionen bereits in alten Office-Suites drin war 😉
    Trotzdem ist das ein ziemlicher Abturner, mit so altem Zeugs arbeiten zu müssen.. ich will 'ne funky UI mit Ribbons und so 'nem Shit :p

    Edit:
    Meine nächste CPU wird aber auch ein Quadcore aus der Ivy Bridge-Serie 🙂 Es ist wie bei Autos, man braucht die Leistung zwar selten, aber es ist schön zu wissen, dass man sie hat 🤡



  • Ich definiere Wysiwyg und den Funktionsumfang von Ami Pro 3.1 als untersten Maßstab.

    Ich glaube nicht, daß der Atari hier mitbieten kann.
    Aber meinr 486er mit 8 MB RAM könnte es.



  • Gruum schrieb:

    Wenn 30 Programme gleichzeitig laufen, was beim typischen Heimanwender üblich ist...

    Nach meinen Beobachtungen ist das mit den vielen Programmen parallel tatsächlich eher der Standard...

    Der Nutzen für einen 0815-Anwender mag nicht extrem sein, aber ich bemerke schon bei nicht so extremen Bedingungen Unterschiede im Reaktionsverhalten (1-2 Kerne versus 4+).



  • Was bringt eine 4 Kern CPU inzwischen

    Ne saftige Stromrechnung 😃



  • asc schrieb:

    Gruum schrieb:

    Wenn 30 Programme gleichzeitig laufen, was beim typischen Heimanwender üblich ist...

    Nach meinen Beobachtungen ist das mit den vielen Programmen parallel tatsächlich eher der Standard...

    Der Nutzen für einen 0815-Anwender mag nicht extrem sein, aber ich bemerke schon bei nicht so extremen Bedingungen Unterschiede im Reaktionsverhalten (1-2 Kerne versus 4+).

    Du kannst nicht 1 Kern vs. 4 Kerne vergleichen!

    Vergleiche 2 Kern vs. 4 Kern, wenn du wirklich wissen willst, ob der 4 Kern subjektiv sichtbare Verbesserungen bei Alltagsaufgaben liefert.



  • Fehler im Versuch schrieb:

    Du kannst nicht 1 Kern vs. 4 Kerne vergleichen!

    Vergleiche 2 Kern vs. 4 Kern, wenn du wirklich wissen willst, ob der 4 Kern subjektiv sichtbare Verbesserungen bei Alltagsaufgaben liefert.

    Dann lies bitte genau was ich geschrieben habe. Ich vergleiche 1 BIS 2 Kerne (Ich habe sowohl 1x als auch 2x Rechner) mit Geräten mit 4 oder mehr Kernen (Ich arbeite z.B. an der Arbeit mit einem 6x, ebenso wie ich dort vorher einen 2x hatte).

    Bis EINSCHLIESSLICH 2 Kerne merke ich wesentlich eher hänger als ab 4 Kernen aufwärts. Ich würde mir auch privat als Desktopgeräte nur noch Geräte mit 4 oder mehr Kernen holen, selbst bei normalen Arbeiten. Eher würde ich etwas Taktfrequenz opfern als die Anzahl der physikalischen Kerne.



  • asc schrieb:

    Fehler im Versuch schrieb:

    Du kannst nicht 1 Kern vs. 4 Kerne vergleichen!

    Vergleiche 2 Kern vs. 4 Kern, wenn du wirklich wissen willst, ob der 4 Kern subjektiv sichtbare Verbesserungen bei Alltagsaufgaben liefert.

    Dann lies bitte genau was ich geschrieben habe. Ich vergleiche 1 BIS 2 Kerne (Ich habe sowohl 1x als auch 2x Rechner) mit Geräten mit 4 oder mehr Kernen (Ich arbeite z.B. an der Arbeit mit einem 6x, ebenso wie ich dort vorher einen 2x hatte).

    Bis EINSCHLIESSLICH 2 Kerne merke ich wesentlich eher hänger als ab 4 Kernen aufwärts.

    Wenn du objektiv wärst, dann würdest du zugeben können, daß man den größten Unterschied bereits zwischen einem 1 und 2 Kerner merkt.

    Und der Quad und Sexkerner nur noch ein eher unbedeutender Tropfen auf dem heißen Stein ist.



  • Fehler im Versuch schrieb:

    Wenn du objektiv wärst, dann würdest du zugeben können, daß man den größten Unterschied bereits zwischen einem 1 und 2 Kerner merkt.

    Fakt ist, das ich nie behauptet habe das man keine Unterschiede bemerkt. Doch ich bemerke ebenso noch wie Prozesse hängen bleiben unter einem DualCore, wohingegen ich ab einen Quad selbiges ausschließlich bei anderen Flaschenhälsen (wie massiven Festplattenzugriffen) bemerke.

    Fehler im Versuch schrieb:

    Und der Quad und Sexkerner nur noch ein eher unbedeutender Tropfen auf dem heißen Stein ist.

    Für mich ist der unterschied zwischen Dual und Quad noch groß genug um diesen auch in der Desktopwelt vorzuziehen (An einen 3x saß ich noch nie, so das ich nur den Quad nennen kann).

    Zwischen 4x und 6x merke ich wiederum keinerlei Unterschiede, wenn es nicht gerade um massiv parallelisierte Aufgaben geht und man die Zeit stoppt.

    Du magst mich nicht objektiv halten, ich habe aber nahezu ausschließlich 1x und 2x Geräte, und merke auf beiden regelmäßig noch hänger (auch wenn die Unterschiede zwischen 1x und 2x sicherlich wesentlich extremer sind als zwischen 2x und 4+x - aber bemerkbar sind sie auch auf 2x).



  • _matze schrieb:

    SeppJ schrieb:

    Wenn du "aktuell" durch "ausreichend" ersetzt, dann tippe ich auf den Atari 🙂 .

    Wer ist denn mit "ausreichend" zufrieden? Mein Office muss allen Schnickschnack haben, Live-Formatierungs-Preview und solchen Kram. Da gerät der Atari dann wohl doch ins Wanken. 🕶

    Vermutlich. Nichtsdestotrotz, es gab auch Latex und Vi für Ataris, gar keine so schlechte Ausgangsposition. Auf dem C16 konnte man kleine Basicprogramme schreiben, und sie auch gleich am Bildschirm plotten, fand ich auch super komfortabel und auch sehr anfängerfreundlich. Am Atari war es sehr komfortabel, daß er total schnell bootet, keinerlei Lüftergeräusch abgibt, man konnte seine Klangerzeuger über Midi anzuschließen und alle beide (C16 und Atari) hatten einen Fernsehanschluß, also Top-Monitorgröße, auch sehr komfortabel und Druckkosten klein, auch nicht zu verachten, aber das ist jetzt auch zeitbedingt, weniger technikbedingt. Und der Atari war sowieso, und noch lange bis in die 2000+ Zeit sogar viel(aber immer weniger werdend...)genutzte Profiplattform, was schon einiges über das zu erwartende Leistungspotential erzählt. Bei den heutigen Multimediaanforderungen geht dem Atari aber die Puste aus und natürlich bei den Anforderungen moderner Betriebssysteme und Officeanwendungen (was da immer auch so viel Zeit verschlingt beim Laden) auch.



  • Ist jetzt ziemlich off-topic:

    nachtfeuer schrieb:

    Zu otzes Problem fällt mir noch ein, dass es mittlerweile eigentlich viele "Schnittstellen" für Cuda gibt, Bibs wie Cuda Fortran, Cuda Haskell, Cuda Matlab
    ( http://www.txcorp.com/products/GPULib/ )

    Schon mal auf einer GPU gerechnet? Also mehr als "oh was passiert wenn ich eine 1000x1000 matrix da rein gebe und multipliziere". Die GPU versagt bei meinen Anforderungen völlig: ich habe ein iteratives Problem bei dem ich unglaublich viele kleine(20x40) matrix-matrix multiplikationen durchführen muss (double precision). Und diese Operation ist seriell. Hinzu kommen Zufallszahlen, die gezogen werden müssen und weitere nichtlineare Transformationen. Der Overhead für die GPU-calls ist länger als die Rechenzeit auf der CPU. Das einzige was ich machen kann ist ausnutzen, dass ich das Problem ca 50 mal unter anderen Startbedingugnen lösen muss -> super parallelisierbar auf multicore rechner.



  • nachtfeuer schrieb:

    Am Atari war es sehr komfortabel, daß er total schnell bootet, keinerlei Lüftergeräusch abgibt, man konnte seine Klangerzeuger über Midi anzuschließen und alle beide (C16 und Atari) hatten einen Fernsehanschluß, also Top-Monitorgröße...

    Atari hatte den Fernsehanschluß nicht bei allen Geräten (z.B. fehlte dieser bei den frühen Auflagen des Atari 1024 ST, die späteren hatten einnen), was mir als Kind missviel 😉 [Statt dessen s/w-Monitor].

    nachtfeuer schrieb:

    Und der Atari war sowieso, und noch lange bis in die 2000+ Zeit sogar viel(aber immer weniger werdend...)genutzte Profiplattform, was schon einiges über das zu erwartende Leistungspotential erzählt.

    Ich kenne noch immer Musiker die ihn nutzen, wobei diese inzwischen Seltenheit haben (und es soll noch Exemplare in der Industrie geben).



  • asc schrieb:

    Gruum schrieb:

    Wenn 30 Programme gleichzeitig laufen, was beim typischen Heimanwender üblich ist...

    Nach meinen Beobachtungen ist das mit den vielen Programmen parallel tatsächlich eher der Standard...

    Programme die im Hintergrund eher schlafen und nichts tun, also auf die Eingabe des Anwenders starten.

    ICQ -> tut so gut wie nichts, wenn der Anwender surft. Vielleicht mal für wenige ms die Verbindung aufrecht erhalten und auf Kontakte reagieren, aber das ist so wenig Rechenarbeit, daß es vernachlässigbar ist. Fazit: 2 Kerner reicht

    Editor -> Hier tut der Editor nix, außer den Cursor blinken zu lassen und auf den Benutzer zu warten. Fazit: 2 Kerner reicht

    Mehrere Browser gleichzeitig geöffnet -> Hier zeigt der Browser nur die sichtbare Webseite an, im Hintergrund läuft höchtestens der Dateidownload und falls auf der sichtbaren Webseite Flash läuft, wird ein Kern gut ausgelastet.
    Dafür gibt's aber FlashBlacker. Fazit 2 Kerner reicht

    Office Programm -> Gleicher Fall wie beim Editor. 2 Kerner reicht.

    E-Mail Programm -> Gleicher Fall wie bei ICQ. 2 Kerner reicht.

    TV Programm -> Hier braucht man mindestens einen Kern der durchgehend dekodiert, sofern das TV Bild sichtbar ist. GPUs redzieren die Arbeit.
    Ist das Programm im Hintergrund, dann wird nur der Ton dekodiert und die Sendung aufgenommen, sofern der Nutzer das wollte. So lange es nur eine DVB-* TV Karte ist gilt: Fazit: 2 Kerner reicht.

    3d Spiel -> Nimmt den Rechner maximal in Behschlag. Fazit: Beste CPU ist sinnvoll, auch Quads, aber nicht zwangsläufig für das Spiel notwendig. Es hängt vom Spiel ab.

    Video wird enkodiert -> Hier gilt wieder, beste CPU bringt am meisten. Allerdings könnte prinzipiell der Nutzer das Video nur auf einem Kern enkodieren lassen, dann hätte er den anderen Kern frei.
    Tut er dies nicht, dann geht auch ein Quadcore maximal in die Knie, weil alle Kerne belegt werden. Das Video wird lediglich schneller fertig.
    Ist halt die Frage ob der Nutzer warten kann oder nebenbei etwas machen will.
    Prinzipiell würde aber für letzteres auch ein 2 Kerne reichen, denn der Nutzer kommt mit einem freien Kern auch gut aus. Ging in den letzten 20 Jahren ja auch.
    Anders sieht's nur aus, wenn sich Video endkodieren, TV Gucken und Seite mit Flash überschneiden, dann kann sich ein Quad lohnen.

    Skype & Videotelefonie -> Hier braucht der User mindestens einen freien Kern um das Videosignal zu enkodieren und zu dekodieren. Das Programm berücksichtigt das, wenn nur ein Kern für das Programm verfügbar ist. Ein 2 Kerner reicht also, wenn der Nutzer die Resourcen zuteilt und nichts zusätzliches wie beim Video enkodieren (obiger Punkt) erwähnt, daziwschen kommt.

    So, viel mehr Anwendungszenarien gibt es für den normalen Heimanwender nicht.

    Nichtsdesto trotz nimmt man natürlich nen Quad mit, wenn das Geld vorhanden ist.
    Aber ein hochgetakteter Dual Core bringt in den meisten Fällen mehr, als ein Quadcore mit niedrigerem Takt.
    Deswegen zählt die MHz und Leistungszahl auf einem Kern mehr als die Anzahl der Kerne. Das gilt immer noch so.



  • otze schrieb:

    Ist jetzt ziemlich off-topic:

    nachtfeuer schrieb:

    Zu otzes Problem fällt mir noch ein, dass es mittlerweile eigentlich viele "Schnittstellen" für Cuda gibt, Bibs wie Cuda Fortran, Cuda Haskell, Cuda Matlab
    ( http://www.txcorp.com/products/GPULib/ )

    Schon mal auf einer GPU gerechnet? Also mehr als "oh was passiert wenn ich eine 1000x1000 matrix da rein gebe und multipliziere". Die GPU versagt bei meinen Anforderungen völlig: ich habe ein iteratives Problem bei dem ich unglaublich viele kleine(20x40) matrix-matrix multiplikationen durchführen muss (double precision). Und diese Operation ist seriell. Hinzu kommen Zufallszahlen, die gezogen werden müssen und weitere nichtlineare Transformationen. Der Overhead für die GPU-calls ist länger als die Rechenzeit auf der CPU. Das einzige was ich machen kann ist ausnutzen, dass ich das Problem ca 50 mal unter anderen Startbedingugnen lösen muss -> super parallelisierbar auf multicore rechner.

    Schonmal an einen FPGA gedacht?



  • otze schrieb:

    Ist jetzt ziemlich off-topic:
    Der Overhead für die GPU-calls ist länger als die Rechenzeit auf der CPU. Das einzige was ich machen kann ist ausnutzen, dass ich das Problem ca 50 mal unter anderen Startbedingugnen lösen muss -> super parallelisierbar auf multicore rechner.

    Na immerhin, besser als nix. Wie machen wir das eigentlich, wenn wir seriell Kopfrechen? 😉 Die genannten Zeiten von dir sahen halt wirklich so nach 9:3 ->
    1/4 + 3/4 aus, sehr lineare 300 %...
    Falls die Speicherschnittstelle ein Problem ist, wären vielleicht FPGA...aber lassen wir das jetzt lieber, ;)(oh, da ist mir aber jemand zuvorgekommen)
    Ich mache mir so einige Gedanken über Parallelisierbarkeit u.a. wegen
    http://www.youtube.com/watch?v=xb7G07ivPZ8 sieht nicht spektakulär aus, ist es aber doch (das Auto fährt übrigens mehrmals am Rechenzentrum vorbei, das letzte Gebäude im Video links die Unibib, rechts nicht sichtbar wäre der kurze Weg zum Mensateil).

    Was mir zu dem Thema noch einfällt, ist ein ziemlicher Witz, aber fast zum Heulen:
    http://www.amazon.de/Intel-i7-3930K-Prozessor-12MB-Cache-Sockel/dp/B00681D9ZI/
    vs
    http://www.amazon.de/PlayStation-Konsole-K-Model-Wireless-Controller/dp/B005C5XXI4/
    Der Intel ist kein Stück performanter als der sogar noch kastrierte Cell Proc.
    Das gabs aber früher auch schon: die Dos-Pcs waren teuer, die Apples waren teuer, hatten aber dem Atari/Amiga nix voraus, im Gegenteil. Die Entwicklungskits hatten fast nix gekostet und es gab nette Zusatzmöglichkeiten (inklusive Bastelfreuden (abenteuerliches Speicherauflöten etc.)
    Was ich in diesem Zusammenhang erst recht nicht verstehe, ist die Preispolitik von AMD, der Bulldozer hat schon einen schlechten Ruf, und die Illusion irgendetwas nützliches zu verkaufen, neben günstiger Cell und GPU-Power, und dem was SeppJ schon erklärt hatte, ist gar nicht so einfach aufrechtzuhalten, denke ich mal.


Anmelden zum Antworten