Was bringt eine 4 Kern CPU inzwischen?



  • Ich definiere Wysiwyg und den Funktionsumfang von Ami Pro 3.1 als untersten Maßstab.

    Ich glaube nicht, daß der Atari hier mitbieten kann.
    Aber meinr 486er mit 8 MB RAM könnte es.



  • Gruum schrieb:

    Wenn 30 Programme gleichzeitig laufen, was beim typischen Heimanwender üblich ist...

    Nach meinen Beobachtungen ist das mit den vielen Programmen parallel tatsächlich eher der Standard...

    Der Nutzen für einen 0815-Anwender mag nicht extrem sein, aber ich bemerke schon bei nicht so extremen Bedingungen Unterschiede im Reaktionsverhalten (1-2 Kerne versus 4+).



  • Was bringt eine 4 Kern CPU inzwischen

    Ne saftige Stromrechnung 😃



  • asc schrieb:

    Gruum schrieb:

    Wenn 30 Programme gleichzeitig laufen, was beim typischen Heimanwender üblich ist...

    Nach meinen Beobachtungen ist das mit den vielen Programmen parallel tatsächlich eher der Standard...

    Der Nutzen für einen 0815-Anwender mag nicht extrem sein, aber ich bemerke schon bei nicht so extremen Bedingungen Unterschiede im Reaktionsverhalten (1-2 Kerne versus 4+).

    Du kannst nicht 1 Kern vs. 4 Kerne vergleichen!

    Vergleiche 2 Kern vs. 4 Kern, wenn du wirklich wissen willst, ob der 4 Kern subjektiv sichtbare Verbesserungen bei Alltagsaufgaben liefert.



  • Fehler im Versuch schrieb:

    Du kannst nicht 1 Kern vs. 4 Kerne vergleichen!

    Vergleiche 2 Kern vs. 4 Kern, wenn du wirklich wissen willst, ob der 4 Kern subjektiv sichtbare Verbesserungen bei Alltagsaufgaben liefert.

    Dann lies bitte genau was ich geschrieben habe. Ich vergleiche 1 BIS 2 Kerne (Ich habe sowohl 1x als auch 2x Rechner) mit Geräten mit 4 oder mehr Kernen (Ich arbeite z.B. an der Arbeit mit einem 6x, ebenso wie ich dort vorher einen 2x hatte).

    Bis EINSCHLIESSLICH 2 Kerne merke ich wesentlich eher hänger als ab 4 Kernen aufwärts. Ich würde mir auch privat als Desktopgeräte nur noch Geräte mit 4 oder mehr Kernen holen, selbst bei normalen Arbeiten. Eher würde ich etwas Taktfrequenz opfern als die Anzahl der physikalischen Kerne.



  • asc schrieb:

    Fehler im Versuch schrieb:

    Du kannst nicht 1 Kern vs. 4 Kerne vergleichen!

    Vergleiche 2 Kern vs. 4 Kern, wenn du wirklich wissen willst, ob der 4 Kern subjektiv sichtbare Verbesserungen bei Alltagsaufgaben liefert.

    Dann lies bitte genau was ich geschrieben habe. Ich vergleiche 1 BIS 2 Kerne (Ich habe sowohl 1x als auch 2x Rechner) mit Geräten mit 4 oder mehr Kernen (Ich arbeite z.B. an der Arbeit mit einem 6x, ebenso wie ich dort vorher einen 2x hatte).

    Bis EINSCHLIESSLICH 2 Kerne merke ich wesentlich eher hänger als ab 4 Kernen aufwärts.

    Wenn du objektiv wärst, dann würdest du zugeben können, daß man den größten Unterschied bereits zwischen einem 1 und 2 Kerner merkt.

    Und der Quad und Sexkerner nur noch ein eher unbedeutender Tropfen auf dem heißen Stein ist.



  • Fehler im Versuch schrieb:

    Wenn du objektiv wärst, dann würdest du zugeben können, daß man den größten Unterschied bereits zwischen einem 1 und 2 Kerner merkt.

    Fakt ist, das ich nie behauptet habe das man keine Unterschiede bemerkt. Doch ich bemerke ebenso noch wie Prozesse hängen bleiben unter einem DualCore, wohingegen ich ab einen Quad selbiges ausschließlich bei anderen Flaschenhälsen (wie massiven Festplattenzugriffen) bemerke.

    Fehler im Versuch schrieb:

    Und der Quad und Sexkerner nur noch ein eher unbedeutender Tropfen auf dem heißen Stein ist.

    Für mich ist der unterschied zwischen Dual und Quad noch groß genug um diesen auch in der Desktopwelt vorzuziehen (An einen 3x saß ich noch nie, so das ich nur den Quad nennen kann).

    Zwischen 4x und 6x merke ich wiederum keinerlei Unterschiede, wenn es nicht gerade um massiv parallelisierte Aufgaben geht und man die Zeit stoppt.

    Du magst mich nicht objektiv halten, ich habe aber nahezu ausschließlich 1x und 2x Geräte, und merke auf beiden regelmäßig noch hänger (auch wenn die Unterschiede zwischen 1x und 2x sicherlich wesentlich extremer sind als zwischen 2x und 4+x - aber bemerkbar sind sie auch auf 2x).



  • _matze schrieb:

    SeppJ schrieb:

    Wenn du "aktuell" durch "ausreichend" ersetzt, dann tippe ich auf den Atari 🙂 .

    Wer ist denn mit "ausreichend" zufrieden? Mein Office muss allen Schnickschnack haben, Live-Formatierungs-Preview und solchen Kram. Da gerät der Atari dann wohl doch ins Wanken. 🕶

    Vermutlich. Nichtsdestotrotz, es gab auch Latex und Vi für Ataris, gar keine so schlechte Ausgangsposition. Auf dem C16 konnte man kleine Basicprogramme schreiben, und sie auch gleich am Bildschirm plotten, fand ich auch super komfortabel und auch sehr anfängerfreundlich. Am Atari war es sehr komfortabel, daß er total schnell bootet, keinerlei Lüftergeräusch abgibt, man konnte seine Klangerzeuger über Midi anzuschließen und alle beide (C16 und Atari) hatten einen Fernsehanschluß, also Top-Monitorgröße, auch sehr komfortabel und Druckkosten klein, auch nicht zu verachten, aber das ist jetzt auch zeitbedingt, weniger technikbedingt. Und der Atari war sowieso, und noch lange bis in die 2000+ Zeit sogar viel(aber immer weniger werdend...)genutzte Profiplattform, was schon einiges über das zu erwartende Leistungspotential erzählt. Bei den heutigen Multimediaanforderungen geht dem Atari aber die Puste aus und natürlich bei den Anforderungen moderner Betriebssysteme und Officeanwendungen (was da immer auch so viel Zeit verschlingt beim Laden) auch.



  • Ist jetzt ziemlich off-topic:

    nachtfeuer schrieb:

    Zu otzes Problem fällt mir noch ein, dass es mittlerweile eigentlich viele "Schnittstellen" für Cuda gibt, Bibs wie Cuda Fortran, Cuda Haskell, Cuda Matlab
    ( http://www.txcorp.com/products/GPULib/ )

    Schon mal auf einer GPU gerechnet? Also mehr als "oh was passiert wenn ich eine 1000x1000 matrix da rein gebe und multipliziere". Die GPU versagt bei meinen Anforderungen völlig: ich habe ein iteratives Problem bei dem ich unglaublich viele kleine(20x40) matrix-matrix multiplikationen durchführen muss (double precision). Und diese Operation ist seriell. Hinzu kommen Zufallszahlen, die gezogen werden müssen und weitere nichtlineare Transformationen. Der Overhead für die GPU-calls ist länger als die Rechenzeit auf der CPU. Das einzige was ich machen kann ist ausnutzen, dass ich das Problem ca 50 mal unter anderen Startbedingugnen lösen muss -> super parallelisierbar auf multicore rechner.



  • nachtfeuer schrieb:

    Am Atari war es sehr komfortabel, daß er total schnell bootet, keinerlei Lüftergeräusch abgibt, man konnte seine Klangerzeuger über Midi anzuschließen und alle beide (C16 und Atari) hatten einen Fernsehanschluß, also Top-Monitorgröße...

    Atari hatte den Fernsehanschluß nicht bei allen Geräten (z.B. fehlte dieser bei den frühen Auflagen des Atari 1024 ST, die späteren hatten einnen), was mir als Kind missviel 😉 [Statt dessen s/w-Monitor].

    nachtfeuer schrieb:

    Und der Atari war sowieso, und noch lange bis in die 2000+ Zeit sogar viel(aber immer weniger werdend...)genutzte Profiplattform, was schon einiges über das zu erwartende Leistungspotential erzählt.

    Ich kenne noch immer Musiker die ihn nutzen, wobei diese inzwischen Seltenheit haben (und es soll noch Exemplare in der Industrie geben).



  • asc schrieb:

    Gruum schrieb:

    Wenn 30 Programme gleichzeitig laufen, was beim typischen Heimanwender üblich ist...

    Nach meinen Beobachtungen ist das mit den vielen Programmen parallel tatsächlich eher der Standard...

    Programme die im Hintergrund eher schlafen und nichts tun, also auf die Eingabe des Anwenders starten.

    ICQ -> tut so gut wie nichts, wenn der Anwender surft. Vielleicht mal für wenige ms die Verbindung aufrecht erhalten und auf Kontakte reagieren, aber das ist so wenig Rechenarbeit, daß es vernachlässigbar ist. Fazit: 2 Kerner reicht

    Editor -> Hier tut der Editor nix, außer den Cursor blinken zu lassen und auf den Benutzer zu warten. Fazit: 2 Kerner reicht

    Mehrere Browser gleichzeitig geöffnet -> Hier zeigt der Browser nur die sichtbare Webseite an, im Hintergrund läuft höchtestens der Dateidownload und falls auf der sichtbaren Webseite Flash läuft, wird ein Kern gut ausgelastet.
    Dafür gibt's aber FlashBlacker. Fazit 2 Kerner reicht

    Office Programm -> Gleicher Fall wie beim Editor. 2 Kerner reicht.

    E-Mail Programm -> Gleicher Fall wie bei ICQ. 2 Kerner reicht.

    TV Programm -> Hier braucht man mindestens einen Kern der durchgehend dekodiert, sofern das TV Bild sichtbar ist. GPUs redzieren die Arbeit.
    Ist das Programm im Hintergrund, dann wird nur der Ton dekodiert und die Sendung aufgenommen, sofern der Nutzer das wollte. So lange es nur eine DVB-* TV Karte ist gilt: Fazit: 2 Kerner reicht.

    3d Spiel -> Nimmt den Rechner maximal in Behschlag. Fazit: Beste CPU ist sinnvoll, auch Quads, aber nicht zwangsläufig für das Spiel notwendig. Es hängt vom Spiel ab.

    Video wird enkodiert -> Hier gilt wieder, beste CPU bringt am meisten. Allerdings könnte prinzipiell der Nutzer das Video nur auf einem Kern enkodieren lassen, dann hätte er den anderen Kern frei.
    Tut er dies nicht, dann geht auch ein Quadcore maximal in die Knie, weil alle Kerne belegt werden. Das Video wird lediglich schneller fertig.
    Ist halt die Frage ob der Nutzer warten kann oder nebenbei etwas machen will.
    Prinzipiell würde aber für letzteres auch ein 2 Kerne reichen, denn der Nutzer kommt mit einem freien Kern auch gut aus. Ging in den letzten 20 Jahren ja auch.
    Anders sieht's nur aus, wenn sich Video endkodieren, TV Gucken und Seite mit Flash überschneiden, dann kann sich ein Quad lohnen.

    Skype & Videotelefonie -> Hier braucht der User mindestens einen freien Kern um das Videosignal zu enkodieren und zu dekodieren. Das Programm berücksichtigt das, wenn nur ein Kern für das Programm verfügbar ist. Ein 2 Kerner reicht also, wenn der Nutzer die Resourcen zuteilt und nichts zusätzliches wie beim Video enkodieren (obiger Punkt) erwähnt, daziwschen kommt.

    So, viel mehr Anwendungszenarien gibt es für den normalen Heimanwender nicht.

    Nichtsdesto trotz nimmt man natürlich nen Quad mit, wenn das Geld vorhanden ist.
    Aber ein hochgetakteter Dual Core bringt in den meisten Fällen mehr, als ein Quadcore mit niedrigerem Takt.
    Deswegen zählt die MHz und Leistungszahl auf einem Kern mehr als die Anzahl der Kerne. Das gilt immer noch so.



  • otze schrieb:

    Ist jetzt ziemlich off-topic:

    nachtfeuer schrieb:

    Zu otzes Problem fällt mir noch ein, dass es mittlerweile eigentlich viele "Schnittstellen" für Cuda gibt, Bibs wie Cuda Fortran, Cuda Haskell, Cuda Matlab
    ( http://www.txcorp.com/products/GPULib/ )

    Schon mal auf einer GPU gerechnet? Also mehr als "oh was passiert wenn ich eine 1000x1000 matrix da rein gebe und multipliziere". Die GPU versagt bei meinen Anforderungen völlig: ich habe ein iteratives Problem bei dem ich unglaublich viele kleine(20x40) matrix-matrix multiplikationen durchführen muss (double precision). Und diese Operation ist seriell. Hinzu kommen Zufallszahlen, die gezogen werden müssen und weitere nichtlineare Transformationen. Der Overhead für die GPU-calls ist länger als die Rechenzeit auf der CPU. Das einzige was ich machen kann ist ausnutzen, dass ich das Problem ca 50 mal unter anderen Startbedingugnen lösen muss -> super parallelisierbar auf multicore rechner.

    Schonmal an einen FPGA gedacht?



  • otze schrieb:

    Ist jetzt ziemlich off-topic:
    Der Overhead für die GPU-calls ist länger als die Rechenzeit auf der CPU. Das einzige was ich machen kann ist ausnutzen, dass ich das Problem ca 50 mal unter anderen Startbedingugnen lösen muss -> super parallelisierbar auf multicore rechner.

    Na immerhin, besser als nix. Wie machen wir das eigentlich, wenn wir seriell Kopfrechen? 😉 Die genannten Zeiten von dir sahen halt wirklich so nach 9:3 ->
    1/4 + 3/4 aus, sehr lineare 300 %...
    Falls die Speicherschnittstelle ein Problem ist, wären vielleicht FPGA...aber lassen wir das jetzt lieber, ;)(oh, da ist mir aber jemand zuvorgekommen)
    Ich mache mir so einige Gedanken über Parallelisierbarkeit u.a. wegen
    http://www.youtube.com/watch?v=xb7G07ivPZ8 sieht nicht spektakulär aus, ist es aber doch (das Auto fährt übrigens mehrmals am Rechenzentrum vorbei, das letzte Gebäude im Video links die Unibib, rechts nicht sichtbar wäre der kurze Weg zum Mensateil).

    Was mir zu dem Thema noch einfällt, ist ein ziemlicher Witz, aber fast zum Heulen:
    http://www.amazon.de/Intel-i7-3930K-Prozessor-12MB-Cache-Sockel/dp/B00681D9ZI/
    vs
    http://www.amazon.de/PlayStation-Konsole-K-Model-Wireless-Controller/dp/B005C5XXI4/
    Der Intel ist kein Stück performanter als der sogar noch kastrierte Cell Proc.
    Das gabs aber früher auch schon: die Dos-Pcs waren teuer, die Apples waren teuer, hatten aber dem Atari/Amiga nix voraus, im Gegenteil. Die Entwicklungskits hatten fast nix gekostet und es gab nette Zusatzmöglichkeiten (inklusive Bastelfreuden (abenteuerliches Speicherauflöten etc.)
    Was ich in diesem Zusammenhang erst recht nicht verstehe, ist die Preispolitik von AMD, der Bulldozer hat schon einen schlechten Ruf, und die Illusion irgendetwas nützliches zu verkaufen, neben günstiger Cell und GPU-Power, und dem was SeppJ schon erklärt hatte, ist gar nicht so einfach aufrechtzuhalten, denke ich mal.





  • nachtfeuer schrieb:

    Das gabs aber früher auch schon: die Dos-Pcs waren teuer, die Apples waren teuer, hatten aber dem Atari/Amiga nix voraus, im Gegenteil.

    Stimmt nicht!

    Mein 286 hatte ne Taktfrequenz von 16 MHz, der Amiga 500 meines Kumpels nur 7,02 MHz.

    Die Entwicklungskits hatten fast nix gekostet und es gab nette Zusatzmöglichkeiten (inklusive Bastelfreuden (abenteuerliches Speicherauflöten etc.)

    Der PC hatte damals schon ISA und Speicherslots für Bastelfreuden jeder Art.

    Und die serielle und parallele Schnittstelle gab's auch.



  • toter link schrieb:

    nachtfeuer schrieb:

    http://www.amazon.de/PlayStation-Konsole-K-Model-Wireless-Controller/dp/B005DEZO

    Toter link.

    danke, korrigiert.

    @Dos Pc
    Ja, aber Taktfrequenz ist eben nicht alles, und kostengünstig waren die Doskisten auch nicht gerade. Und was für ein doofes Schlabberdiskettenformat 😉 Die 68000 waren (und sind) den 8086 und auch den Nachfolgern bis Pentium weit voraus, was Programmierung und Speicheranbindung usw. betraf. Das zeigt ja auch die Spieleentwicklung für den Atari. Ganz davon abgesehen, wird es immer (eher nervtötende als abenteuerliche) Konfigurierschwierigkeiten bei Doskisten gegeben haben, die gabs für die 68000er eher nicht so. Und das Windows war doch zu der Zeit eigentlich fast noch unbenutzbar, fast schlimmer als heutiges Linux-Desktopgezicke. Aber eine oder zwei Ausnahmen kann man machen: Die Norton Bücher waren erstklassig, die gab es für den Atari in der Form nicht, und bei der Abwärtskompatibilität und Weiterentwicklung hatte Motorolas irgendwo doch ziemlich abgekackt.

    edit: mir fällt noch ein, man konnte die 68000er eigentlich ganz gut auf 16Mhz übertakten, hatte dann aber ein ernsthaftes Kühlungsproblem.



  • nachtfeuer schrieb:

    Und was für ein doofes Schlabberdiskettenformat 😉

    Der DOS PC hatte ebenfalls das 3,5" Format, es kam in der Entwicklung des PCs einfach dazu.

    Mit MS-DOS 3.2 im Dezember 1985 gingne dann die 3,5-Zoll-Disketten mit 720 KB.
    1,4 MB ging dann im April 1987 mit MS-DOS 3.3, also zu einem Zeitpunkt, als der Amiga 500 gerade auf den Markt kam.
    Während der Amiga 500 die HD Disketten AFAIK nie beherrschte.

    Die 68000 waren (und sind) den 8086 und auch den Nachfolgern bis Pentium weit voraus, was Programmierung und Speicheranbindung usw. betraf.

    Schon der 386er hatte 32-Bit Protected Mode, es fehlte lediglich die breite Unterstützung des passenden OS.
    http://de.wikipedia.org/wiki/Protected_Mode

    Das zeigt ja auch die Spieleentwicklung für den Atari.

    Naja, diejenigen, die Zeit zum Programmieren lernen hatten, war die damalige Jugend und die konnte sich keinen PC leisten.

    Daher war eigentlich klar, weshalb die Spieleentwicklung bei den Homecomputern schneller voranschritt.
    Es gab dafür einfach mehr qualifizierte Programmierer.

    Ganz davon abgesehen, wird es immer (eher nervtötende als abenteuerliche) Konfigurierschwierigkeiten bei Doskisten gegeben haben,

    Meinst du das setzen von IRQs oder beziehst du dich nur auf die Probleme von MS DOS?

    Mit dem richtigen OS konnte man da schon einiges reißen.

    Und das Windows war doch zu der Zeit eigentlich fast noch unbenutzbar, fast schlimmer als heutiges Linux-Desktopgezicke.

    Windows NT 3.2 erschien mitte 1993 eher einfach zu spät.
    Aber es gab ja noch OS/2 als brauchbares OS, welches im Textmodus auch früher erschien.

    Windows 3.1 war zwar nicht das beste, aber für die damalige Zeit bei Speicherknappheit eigentlich ganz okay.
    Es lief ja auf 16 Bit Rechnern und sparte somit ne Menge Speicherplatz, weshalb Win 3.1 schon auf 4 MB Maschinen recht benutzbar lief.

    edit: mir fällt noch ein, man konnte die 68000er eigentlich ganz gut auf 16Mhz übertackten, hatte dann aber ein ernsthaftes Kühlungsproblem.

    Mein 286er hatte keinen Kühler auf der CPU.

    Keine Ahnung ob man den auch übertakten konnte, damals war ich einfach zu jung um so etwas zu wissen.
    Richtig Ahnung sammelte ich erst mit meinem 486DX.



  • DOS PC schrieb:

    Stimmt nicht!

    Mein 286 hatte ne Taktfrequenz von 16 MHz, der Amiga 500 meines Kumpels nur 7,02 MHz.

    Dafür hatte der aber kein Multitasking und bestimmt auch nicht so viele Farben. (Mein seliger PC10SD hatte übrigens ganze 16 Graustufen.)



  • nachtfeuer schrieb:

    Was mir zu dem Thema noch einfällt, ist ein ziemlicher Witz, aber fast zum Heulen:
    http://www.amazon.de/Intel-i7-3930K-Prozessor-12MB-Cache-Sockel/dp/B00681D9ZI/
    vs
    http://www.amazon.de/PlayStation-Konsole-K-Model-Wireless-Controller/dp/B005C5XXI4/
    Der Intel ist kein Stück performanter als der sogar noch kastrierte Cell Proc.

    Oh Gott, ein Cell Fanboy. 🤡

    Der Cell ist mit "general purpose" Code ein schweinslangsames Drecksteil (ja, ist stark übertrieben, ich weiss). So lange man die äusserst fummelig zu programmierenden SPEs nicht nutzen kann, hat er gegen einen i7 keine Chance. Wo die eine PPE im Cell wohl erstaunlich gut ist (aber auch nicht an aktuelle i7 drankommt, wobei der Vergleich natürlich nicht "fair" ist - der i7 hat ja mehr Cores), sind FPU Berechnungen.
    Bei Dingen wo Branch-Prediction und ähnliches wichtig werden hat der Cell überhaupt keine Chance.

    IMO ist deine Behauptung ca. gleich sinnvoll, wie zu behaupten dass eine €100 AMD Grafikkarte schneller als ein i7 ist. Bei bestimmten Programmen ist das ja auch so, aber mit "general purpose" Code würde die Grafikkarte ganz fürchterlich abstinken. Was vermutlich auch der Grund ist warum es keiner macht 😉

    ps: wie es i7 mit HD Graphics 3000/4000 vs. Cell mit SPEs aussieht weiss ich nicht. Wäre aber mal interessant. Falls wer Daten hat, immer her damit.



  • TdZ schrieb:

    DOS PC schrieb:

    Stimmt nicht!

    Mein 286 hatte ne Taktfrequenz von 16 MHz, der Amiga 500 meines Kumpels nur 7,02 MHz.

    Dafür hatte der aber kein Multitasking und bestimmt auch nicht so viele Farben. (Mein seliger PC10SD hatte übrigens ganze 16 Graustufen.)

    Schwachsinn!

    Natürlich konnte der 80286 dank Protected Mode Multitasking, man mußte nur das richtige OS verwenden.
    Z.B. OS/2.

    Der 80286 konnte es sogar besser als der 68000 des Amiga 500, denn der 80286 hatte schon eine MMU, die dem 68000 noch fehlte.
    Der Amiga 500 konnte also kein brauchbares Multitasking, die Prozesse konnten sich beim Amiga 500 aufgrund fehlender MMU noch gegenseitig abschießen, was beim 80286 mit dem richtigen OS dank MMU schon nicht mehr möglich war.

    Und Farben hatte mein 80286er auch mehr als der Amiga 500, denn meiner hatte schon eine VGA Karte eingebaut. :p

    Damit waren selbst bei Spielen bis zu 256 Farben gleichzeitig möglich, was beim Amiga 500 aus Performancegründen nicht ging, weswegen diese beim Amiga 500 auf 32 und 64 gleichzeitig dargestellte Farben beschränkt war.
    Der Amiga 500 hatte zwar noch einen 4096 Farben Modus, aber der war für Spiele unbraucbar, da zu langsam.
    Mit einer SVGA Karte bot auch hier schon der PC mehr, auch wenn man 2^16 und 2^24 Farbmodi auch aus Performancegründen erst in späteren Rechnergenerationen in Spielen verwendete, konnte auch der PC mit einer SVGA Karte schon mehr Farben darstellen.

    Für guten Sound konnte man den 80286er auch schon mit einer Adlib oder Soundblaster Karte ausstatten. Das war alles kein Problem.

    Zur Frage des RAMs.

    Ich weiß leider nicht wieviel RAM mein 80286er hatte und ich kann auch nicht mehr nachschauen, weil ich den 286er verkauft habe und die Rechnung nicht mehr habe, aber 1 MB hatte er sicher, das war zum Zeitpunkt des kaufes üblich.
    Selbst 2 MB könnten möglich sein, aber das weiß ich nicht mehr.


Anmelden zum Antworten