Was bringt eine 4 Kern CPU inzwischen?


  • Mod

    GPC schrieb:

    Ich will dann aber mal den 8 Mhz-Atari sehen, der ein halbwegs aktuelles Office-Paket locker flockig stemmen kann 😉

    Wenn du "aktuell" durch "ausreichend" ersetzt, dann tippe ich auf den Atari 🙂 .



  • SeppJ schrieb:

    Wenn du "aktuell" durch "ausreichend" ersetzt, dann tippe ich auf den Atari 🙂 .

    Wer ist denn mit "ausreichend" zufrieden? Mein Office muss allen Schnickschnack haben, Live-Formatierungs-Preview und solchen Kram. Da gerät der Atari dann wohl doch ins Wanken. 🕶



  • SeppJ schrieb:

    GPC schrieb:

    Ich will dann aber mal den 8 Mhz-Atari sehen, der ein halbwegs aktuelles Office-Paket locker flockig stemmen kann 😉

    Wenn du "aktuell" durch "ausreichend" ersetzt, dann tippe ich auf den Atari 🙂 .

    Na ja, je nachdem was man eben für Funktionen des Office-Pakets man braucht. Wobei es vmtl. schon so ist, dass 90% der oft genutzten Funktionen bereits in alten Office-Suites drin war 😉
    Trotzdem ist das ein ziemlicher Abturner, mit so altem Zeugs arbeiten zu müssen.. ich will 'ne funky UI mit Ribbons und so 'nem Shit :p

    Edit:
    Meine nächste CPU wird aber auch ein Quadcore aus der Ivy Bridge-Serie 🙂 Es ist wie bei Autos, man braucht die Leistung zwar selten, aber es ist schön zu wissen, dass man sie hat 🤡



  • Ich definiere Wysiwyg und den Funktionsumfang von Ami Pro 3.1 als untersten Maßstab.

    Ich glaube nicht, daß der Atari hier mitbieten kann.
    Aber meinr 486er mit 8 MB RAM könnte es.



  • Gruum schrieb:

    Wenn 30 Programme gleichzeitig laufen, was beim typischen Heimanwender üblich ist...

    Nach meinen Beobachtungen ist das mit den vielen Programmen parallel tatsächlich eher der Standard...

    Der Nutzen für einen 0815-Anwender mag nicht extrem sein, aber ich bemerke schon bei nicht so extremen Bedingungen Unterschiede im Reaktionsverhalten (1-2 Kerne versus 4+).



  • Was bringt eine 4 Kern CPU inzwischen

    Ne saftige Stromrechnung 😃



  • asc schrieb:

    Gruum schrieb:

    Wenn 30 Programme gleichzeitig laufen, was beim typischen Heimanwender üblich ist...

    Nach meinen Beobachtungen ist das mit den vielen Programmen parallel tatsächlich eher der Standard...

    Der Nutzen für einen 0815-Anwender mag nicht extrem sein, aber ich bemerke schon bei nicht so extremen Bedingungen Unterschiede im Reaktionsverhalten (1-2 Kerne versus 4+).

    Du kannst nicht 1 Kern vs. 4 Kerne vergleichen!

    Vergleiche 2 Kern vs. 4 Kern, wenn du wirklich wissen willst, ob der 4 Kern subjektiv sichtbare Verbesserungen bei Alltagsaufgaben liefert.



  • Fehler im Versuch schrieb:

    Du kannst nicht 1 Kern vs. 4 Kerne vergleichen!

    Vergleiche 2 Kern vs. 4 Kern, wenn du wirklich wissen willst, ob der 4 Kern subjektiv sichtbare Verbesserungen bei Alltagsaufgaben liefert.

    Dann lies bitte genau was ich geschrieben habe. Ich vergleiche 1 BIS 2 Kerne (Ich habe sowohl 1x als auch 2x Rechner) mit Geräten mit 4 oder mehr Kernen (Ich arbeite z.B. an der Arbeit mit einem 6x, ebenso wie ich dort vorher einen 2x hatte).

    Bis EINSCHLIESSLICH 2 Kerne merke ich wesentlich eher hänger als ab 4 Kernen aufwärts. Ich würde mir auch privat als Desktopgeräte nur noch Geräte mit 4 oder mehr Kernen holen, selbst bei normalen Arbeiten. Eher würde ich etwas Taktfrequenz opfern als die Anzahl der physikalischen Kerne.



  • asc schrieb:

    Fehler im Versuch schrieb:

    Du kannst nicht 1 Kern vs. 4 Kerne vergleichen!

    Vergleiche 2 Kern vs. 4 Kern, wenn du wirklich wissen willst, ob der 4 Kern subjektiv sichtbare Verbesserungen bei Alltagsaufgaben liefert.

    Dann lies bitte genau was ich geschrieben habe. Ich vergleiche 1 BIS 2 Kerne (Ich habe sowohl 1x als auch 2x Rechner) mit Geräten mit 4 oder mehr Kernen (Ich arbeite z.B. an der Arbeit mit einem 6x, ebenso wie ich dort vorher einen 2x hatte).

    Bis EINSCHLIESSLICH 2 Kerne merke ich wesentlich eher hänger als ab 4 Kernen aufwärts.

    Wenn du objektiv wärst, dann würdest du zugeben können, daß man den größten Unterschied bereits zwischen einem 1 und 2 Kerner merkt.

    Und der Quad und Sexkerner nur noch ein eher unbedeutender Tropfen auf dem heißen Stein ist.



  • Fehler im Versuch schrieb:

    Wenn du objektiv wärst, dann würdest du zugeben können, daß man den größten Unterschied bereits zwischen einem 1 und 2 Kerner merkt.

    Fakt ist, das ich nie behauptet habe das man keine Unterschiede bemerkt. Doch ich bemerke ebenso noch wie Prozesse hängen bleiben unter einem DualCore, wohingegen ich ab einen Quad selbiges ausschließlich bei anderen Flaschenhälsen (wie massiven Festplattenzugriffen) bemerke.

    Fehler im Versuch schrieb:

    Und der Quad und Sexkerner nur noch ein eher unbedeutender Tropfen auf dem heißen Stein ist.

    Für mich ist der unterschied zwischen Dual und Quad noch groß genug um diesen auch in der Desktopwelt vorzuziehen (An einen 3x saß ich noch nie, so das ich nur den Quad nennen kann).

    Zwischen 4x und 6x merke ich wiederum keinerlei Unterschiede, wenn es nicht gerade um massiv parallelisierte Aufgaben geht und man die Zeit stoppt.

    Du magst mich nicht objektiv halten, ich habe aber nahezu ausschließlich 1x und 2x Geräte, und merke auf beiden regelmäßig noch hänger (auch wenn die Unterschiede zwischen 1x und 2x sicherlich wesentlich extremer sind als zwischen 2x und 4+x - aber bemerkbar sind sie auch auf 2x).



  • _matze schrieb:

    SeppJ schrieb:

    Wenn du "aktuell" durch "ausreichend" ersetzt, dann tippe ich auf den Atari 🙂 .

    Wer ist denn mit "ausreichend" zufrieden? Mein Office muss allen Schnickschnack haben, Live-Formatierungs-Preview und solchen Kram. Da gerät der Atari dann wohl doch ins Wanken. 🕶

    Vermutlich. Nichtsdestotrotz, es gab auch Latex und Vi für Ataris, gar keine so schlechte Ausgangsposition. Auf dem C16 konnte man kleine Basicprogramme schreiben, und sie auch gleich am Bildschirm plotten, fand ich auch super komfortabel und auch sehr anfängerfreundlich. Am Atari war es sehr komfortabel, daß er total schnell bootet, keinerlei Lüftergeräusch abgibt, man konnte seine Klangerzeuger über Midi anzuschließen und alle beide (C16 und Atari) hatten einen Fernsehanschluß, also Top-Monitorgröße, auch sehr komfortabel und Druckkosten klein, auch nicht zu verachten, aber das ist jetzt auch zeitbedingt, weniger technikbedingt. Und der Atari war sowieso, und noch lange bis in die 2000+ Zeit sogar viel(aber immer weniger werdend...)genutzte Profiplattform, was schon einiges über das zu erwartende Leistungspotential erzählt. Bei den heutigen Multimediaanforderungen geht dem Atari aber die Puste aus und natürlich bei den Anforderungen moderner Betriebssysteme und Officeanwendungen (was da immer auch so viel Zeit verschlingt beim Laden) auch.



  • Ist jetzt ziemlich off-topic:

    nachtfeuer schrieb:

    Zu otzes Problem fällt mir noch ein, dass es mittlerweile eigentlich viele "Schnittstellen" für Cuda gibt, Bibs wie Cuda Fortran, Cuda Haskell, Cuda Matlab
    ( http://www.txcorp.com/products/GPULib/ )

    Schon mal auf einer GPU gerechnet? Also mehr als "oh was passiert wenn ich eine 1000x1000 matrix da rein gebe und multipliziere". Die GPU versagt bei meinen Anforderungen völlig: ich habe ein iteratives Problem bei dem ich unglaublich viele kleine(20x40) matrix-matrix multiplikationen durchführen muss (double precision). Und diese Operation ist seriell. Hinzu kommen Zufallszahlen, die gezogen werden müssen und weitere nichtlineare Transformationen. Der Overhead für die GPU-calls ist länger als die Rechenzeit auf der CPU. Das einzige was ich machen kann ist ausnutzen, dass ich das Problem ca 50 mal unter anderen Startbedingugnen lösen muss -> super parallelisierbar auf multicore rechner.



  • nachtfeuer schrieb:

    Am Atari war es sehr komfortabel, daß er total schnell bootet, keinerlei Lüftergeräusch abgibt, man konnte seine Klangerzeuger über Midi anzuschließen und alle beide (C16 und Atari) hatten einen Fernsehanschluß, also Top-Monitorgröße...

    Atari hatte den Fernsehanschluß nicht bei allen Geräten (z.B. fehlte dieser bei den frühen Auflagen des Atari 1024 ST, die späteren hatten einnen), was mir als Kind missviel 😉 [Statt dessen s/w-Monitor].

    nachtfeuer schrieb:

    Und der Atari war sowieso, und noch lange bis in die 2000+ Zeit sogar viel(aber immer weniger werdend...)genutzte Profiplattform, was schon einiges über das zu erwartende Leistungspotential erzählt.

    Ich kenne noch immer Musiker die ihn nutzen, wobei diese inzwischen Seltenheit haben (und es soll noch Exemplare in der Industrie geben).



  • asc schrieb:

    Gruum schrieb:

    Wenn 30 Programme gleichzeitig laufen, was beim typischen Heimanwender üblich ist...

    Nach meinen Beobachtungen ist das mit den vielen Programmen parallel tatsächlich eher der Standard...

    Programme die im Hintergrund eher schlafen und nichts tun, also auf die Eingabe des Anwenders starten.

    ICQ -> tut so gut wie nichts, wenn der Anwender surft. Vielleicht mal für wenige ms die Verbindung aufrecht erhalten und auf Kontakte reagieren, aber das ist so wenig Rechenarbeit, daß es vernachlässigbar ist. Fazit: 2 Kerner reicht

    Editor -> Hier tut der Editor nix, außer den Cursor blinken zu lassen und auf den Benutzer zu warten. Fazit: 2 Kerner reicht

    Mehrere Browser gleichzeitig geöffnet -> Hier zeigt der Browser nur die sichtbare Webseite an, im Hintergrund läuft höchtestens der Dateidownload und falls auf der sichtbaren Webseite Flash läuft, wird ein Kern gut ausgelastet.
    Dafür gibt's aber FlashBlacker. Fazit 2 Kerner reicht

    Office Programm -> Gleicher Fall wie beim Editor. 2 Kerner reicht.

    E-Mail Programm -> Gleicher Fall wie bei ICQ. 2 Kerner reicht.

    TV Programm -> Hier braucht man mindestens einen Kern der durchgehend dekodiert, sofern das TV Bild sichtbar ist. GPUs redzieren die Arbeit.
    Ist das Programm im Hintergrund, dann wird nur der Ton dekodiert und die Sendung aufgenommen, sofern der Nutzer das wollte. So lange es nur eine DVB-* TV Karte ist gilt: Fazit: 2 Kerner reicht.

    3d Spiel -> Nimmt den Rechner maximal in Behschlag. Fazit: Beste CPU ist sinnvoll, auch Quads, aber nicht zwangsläufig für das Spiel notwendig. Es hängt vom Spiel ab.

    Video wird enkodiert -> Hier gilt wieder, beste CPU bringt am meisten. Allerdings könnte prinzipiell der Nutzer das Video nur auf einem Kern enkodieren lassen, dann hätte er den anderen Kern frei.
    Tut er dies nicht, dann geht auch ein Quadcore maximal in die Knie, weil alle Kerne belegt werden. Das Video wird lediglich schneller fertig.
    Ist halt die Frage ob der Nutzer warten kann oder nebenbei etwas machen will.
    Prinzipiell würde aber für letzteres auch ein 2 Kerne reichen, denn der Nutzer kommt mit einem freien Kern auch gut aus. Ging in den letzten 20 Jahren ja auch.
    Anders sieht's nur aus, wenn sich Video endkodieren, TV Gucken und Seite mit Flash überschneiden, dann kann sich ein Quad lohnen.

    Skype & Videotelefonie -> Hier braucht der User mindestens einen freien Kern um das Videosignal zu enkodieren und zu dekodieren. Das Programm berücksichtigt das, wenn nur ein Kern für das Programm verfügbar ist. Ein 2 Kerner reicht also, wenn der Nutzer die Resourcen zuteilt und nichts zusätzliches wie beim Video enkodieren (obiger Punkt) erwähnt, daziwschen kommt.

    So, viel mehr Anwendungszenarien gibt es für den normalen Heimanwender nicht.

    Nichtsdesto trotz nimmt man natürlich nen Quad mit, wenn das Geld vorhanden ist.
    Aber ein hochgetakteter Dual Core bringt in den meisten Fällen mehr, als ein Quadcore mit niedrigerem Takt.
    Deswegen zählt die MHz und Leistungszahl auf einem Kern mehr als die Anzahl der Kerne. Das gilt immer noch so.



  • otze schrieb:

    Ist jetzt ziemlich off-topic:

    nachtfeuer schrieb:

    Zu otzes Problem fällt mir noch ein, dass es mittlerweile eigentlich viele "Schnittstellen" für Cuda gibt, Bibs wie Cuda Fortran, Cuda Haskell, Cuda Matlab
    ( http://www.txcorp.com/products/GPULib/ )

    Schon mal auf einer GPU gerechnet? Also mehr als "oh was passiert wenn ich eine 1000x1000 matrix da rein gebe und multipliziere". Die GPU versagt bei meinen Anforderungen völlig: ich habe ein iteratives Problem bei dem ich unglaublich viele kleine(20x40) matrix-matrix multiplikationen durchführen muss (double precision). Und diese Operation ist seriell. Hinzu kommen Zufallszahlen, die gezogen werden müssen und weitere nichtlineare Transformationen. Der Overhead für die GPU-calls ist länger als die Rechenzeit auf der CPU. Das einzige was ich machen kann ist ausnutzen, dass ich das Problem ca 50 mal unter anderen Startbedingugnen lösen muss -> super parallelisierbar auf multicore rechner.

    Schonmal an einen FPGA gedacht?



  • otze schrieb:

    Ist jetzt ziemlich off-topic:
    Der Overhead für die GPU-calls ist länger als die Rechenzeit auf der CPU. Das einzige was ich machen kann ist ausnutzen, dass ich das Problem ca 50 mal unter anderen Startbedingugnen lösen muss -> super parallelisierbar auf multicore rechner.

    Na immerhin, besser als nix. Wie machen wir das eigentlich, wenn wir seriell Kopfrechen? 😉 Die genannten Zeiten von dir sahen halt wirklich so nach 9:3 ->
    1/4 + 3/4 aus, sehr lineare 300 %...
    Falls die Speicherschnittstelle ein Problem ist, wären vielleicht FPGA...aber lassen wir das jetzt lieber, ;)(oh, da ist mir aber jemand zuvorgekommen)
    Ich mache mir so einige Gedanken über Parallelisierbarkeit u.a. wegen
    http://www.youtube.com/watch?v=xb7G07ivPZ8 sieht nicht spektakulär aus, ist es aber doch (das Auto fährt übrigens mehrmals am Rechenzentrum vorbei, das letzte Gebäude im Video links die Unibib, rechts nicht sichtbar wäre der kurze Weg zum Mensateil).

    Was mir zu dem Thema noch einfällt, ist ein ziemlicher Witz, aber fast zum Heulen:
    http://www.amazon.de/Intel-i7-3930K-Prozessor-12MB-Cache-Sockel/dp/B00681D9ZI/
    vs
    http://www.amazon.de/PlayStation-Konsole-K-Model-Wireless-Controller/dp/B005C5XXI4/
    Der Intel ist kein Stück performanter als der sogar noch kastrierte Cell Proc.
    Das gabs aber früher auch schon: die Dos-Pcs waren teuer, die Apples waren teuer, hatten aber dem Atari/Amiga nix voraus, im Gegenteil. Die Entwicklungskits hatten fast nix gekostet und es gab nette Zusatzmöglichkeiten (inklusive Bastelfreuden (abenteuerliches Speicherauflöten etc.)
    Was ich in diesem Zusammenhang erst recht nicht verstehe, ist die Preispolitik von AMD, der Bulldozer hat schon einen schlechten Ruf, und die Illusion irgendetwas nützliches zu verkaufen, neben günstiger Cell und GPU-Power, und dem was SeppJ schon erklärt hatte, ist gar nicht so einfach aufrechtzuhalten, denke ich mal.





  • nachtfeuer schrieb:

    Das gabs aber früher auch schon: die Dos-Pcs waren teuer, die Apples waren teuer, hatten aber dem Atari/Amiga nix voraus, im Gegenteil.

    Stimmt nicht!

    Mein 286 hatte ne Taktfrequenz von 16 MHz, der Amiga 500 meines Kumpels nur 7,02 MHz.

    Die Entwicklungskits hatten fast nix gekostet und es gab nette Zusatzmöglichkeiten (inklusive Bastelfreuden (abenteuerliches Speicherauflöten etc.)

    Der PC hatte damals schon ISA und Speicherslots für Bastelfreuden jeder Art.

    Und die serielle und parallele Schnittstelle gab's auch.



  • toter link schrieb:

    nachtfeuer schrieb:

    http://www.amazon.de/PlayStation-Konsole-K-Model-Wireless-Controller/dp/B005DEZO

    Toter link.

    danke, korrigiert.

    @Dos Pc
    Ja, aber Taktfrequenz ist eben nicht alles, und kostengünstig waren die Doskisten auch nicht gerade. Und was für ein doofes Schlabberdiskettenformat 😉 Die 68000 waren (und sind) den 8086 und auch den Nachfolgern bis Pentium weit voraus, was Programmierung und Speicheranbindung usw. betraf. Das zeigt ja auch die Spieleentwicklung für den Atari. Ganz davon abgesehen, wird es immer (eher nervtötende als abenteuerliche) Konfigurierschwierigkeiten bei Doskisten gegeben haben, die gabs für die 68000er eher nicht so. Und das Windows war doch zu der Zeit eigentlich fast noch unbenutzbar, fast schlimmer als heutiges Linux-Desktopgezicke. Aber eine oder zwei Ausnahmen kann man machen: Die Norton Bücher waren erstklassig, die gab es für den Atari in der Form nicht, und bei der Abwärtskompatibilität und Weiterentwicklung hatte Motorolas irgendwo doch ziemlich abgekackt.

    edit: mir fällt noch ein, man konnte die 68000er eigentlich ganz gut auf 16Mhz übertakten, hatte dann aber ein ernsthaftes Kühlungsproblem.



  • nachtfeuer schrieb:

    Und was für ein doofes Schlabberdiskettenformat 😉

    Der DOS PC hatte ebenfalls das 3,5" Format, es kam in der Entwicklung des PCs einfach dazu.

    Mit MS-DOS 3.2 im Dezember 1985 gingne dann die 3,5-Zoll-Disketten mit 720 KB.
    1,4 MB ging dann im April 1987 mit MS-DOS 3.3, also zu einem Zeitpunkt, als der Amiga 500 gerade auf den Markt kam.
    Während der Amiga 500 die HD Disketten AFAIK nie beherrschte.

    Die 68000 waren (und sind) den 8086 und auch den Nachfolgern bis Pentium weit voraus, was Programmierung und Speicheranbindung usw. betraf.

    Schon der 386er hatte 32-Bit Protected Mode, es fehlte lediglich die breite Unterstützung des passenden OS.
    http://de.wikipedia.org/wiki/Protected_Mode

    Das zeigt ja auch die Spieleentwicklung für den Atari.

    Naja, diejenigen, die Zeit zum Programmieren lernen hatten, war die damalige Jugend und die konnte sich keinen PC leisten.

    Daher war eigentlich klar, weshalb die Spieleentwicklung bei den Homecomputern schneller voranschritt.
    Es gab dafür einfach mehr qualifizierte Programmierer.

    Ganz davon abgesehen, wird es immer (eher nervtötende als abenteuerliche) Konfigurierschwierigkeiten bei Doskisten gegeben haben,

    Meinst du das setzen von IRQs oder beziehst du dich nur auf die Probleme von MS DOS?

    Mit dem richtigen OS konnte man da schon einiges reißen.

    Und das Windows war doch zu der Zeit eigentlich fast noch unbenutzbar, fast schlimmer als heutiges Linux-Desktopgezicke.

    Windows NT 3.2 erschien mitte 1993 eher einfach zu spät.
    Aber es gab ja noch OS/2 als brauchbares OS, welches im Textmodus auch früher erschien.

    Windows 3.1 war zwar nicht das beste, aber für die damalige Zeit bei Speicherknappheit eigentlich ganz okay.
    Es lief ja auf 16 Bit Rechnern und sparte somit ne Menge Speicherplatz, weshalb Win 3.1 schon auf 4 MB Maschinen recht benutzbar lief.

    edit: mir fällt noch ein, man konnte die 68000er eigentlich ganz gut auf 16Mhz übertackten, hatte dann aber ein ernsthaftes Kühlungsproblem.

    Mein 286er hatte keinen Kühler auf der CPU.

    Keine Ahnung ob man den auch übertakten konnte, damals war ich einfach zu jung um so etwas zu wissen.
    Richtig Ahnung sammelte ich erst mit meinem 486DX.


Anmelden zum Antworten