Das Ende der alten Festplatten



  • Und das sagen die Hersteller:

    http://www.transcend.de/products/ModDetail.asp?ModNo=164&SpNo=-99&LangNo=20

    Tja, nur für was brauch ich jetzt ne SSD, wenn nicht für das OS?
    Also kommt man um SLC nicht herum, wenn's gescheit laufen soll.

    Denn im Falle einer MLC kann man auch über ein RAID 0 System mit großen 1,5 TB Festplatten nachdenken.
    Das ist günstiger, kann mehr speichern und ist nur unwesentlich langsamer.



  • Das Transcend-Teil hat scheinbar nen JMicron-Controller, nur ne IDE-Schnittstelle und mit "68MB/s, Schreiben mit bis zu 46MB/s" (laut Webseite) wohl eher lächerliche Werte. Ein besserer USB-Stick quasi 😉

    Bei der SATA-Version sind zumindest die Datenraten höher:
    http://shop.transcend.de/product/ItemDetail.asp?ItemID=TS128GSSD25S-M
    ...aber laut pcwelt ebenfalls JMicron-Controller.

    Die sind berüchtigt dafür bei viel gleichzeitiger IO das ganze System ne Runde einzufrieren...



  • Mich würde mal interessiere was für einen Sinn diese Platten im privaten Bereich machen. Ich habe nie Probleme mit der Festplattengeschwindigkeit, obwohl meine Festplatten Voll-verschlüsselt sind. Und ob mein Windows in 10 Sekunden oder in 5 Sekunden bootet ist mir sicher nicht mehrere hundert Euro wert. Ich investiere lieber in RAM als in SSD, davon hab ich mehr.



  • fhfhg schrieb:

    Mich würde mal interessiere was für einen Sinn diese Platten im privaten Bereich machen. Ich habe nie Probleme mit der Festplattengeschwindigkeit, obwohl meine Festplatten Voll-verschlüsselt sind. Und ob mein Windows in 10 Sekunden oder in 5 Sekunden bootet ist mir sicher nicht mehrere hundert Euro wert.

    Das ist doch nicht nur der Bootvorgang, das gilt für alle Programmstarts und generell für alle Dinge, bei denen Daten von der Festplatte gelesen werden.

    fhfhg schrieb:

    Ich investiere lieber in RAM als in SSD, davon hab ich mehr.

    Nein! Wie kommst du darauf? Die heute üblichen 4-8 GB sind für Programme vollkommen ausreichend, so dass jede Menge für den Filecache übrigbleibt. Sofern kein Precaching betrieben wird, wandern die Dateien da aber erst hinein, während sie das erste Mal gelesen werden. Ist also nur begrenzt nützlich.
    Mit einer flotten SSD wird das ganze derart beschleunigt, dass du z.B. bei Programmstarts kaum noch beurteilen kannst, ob die Daten aus dem Filecache oder direkt von der SSD kamen.
    Die Rezensionen zu SSDs sprechen da Bände (naja, jedenfalls für die Intel-SSDs).

    Edit: Ein Beispiel von dem, was ich meine:
    http://www.alternate.de/html/product/Solid_State_Drive_2,5_Zoll_SATA/Intel(R)/X25-M_G2_Postville_80_GB/358792/?cmd=showRatings&page=1#tabberBox

    Diese Menschen leiden sicher nicht alle unter dem Placebo-Effekt. Auch gibt es keine/kaum schlechte Bewertungen. Wenn du mal einen Abstecher zu den herkömmlichen Festplatten machst, siehst du, dass das keineswegs selbstverständlich ist. Dort besagt je nach Modell jede zweite oder dritte Rezension "Platte nach wenigen Wochen defekt" o.ä.


  • Mod

    Sofern kein Precaching betrieben wird

    Ein wichtiger Punkt. Wo ist das schon nicht der Fall?

    Ich schätze, langfristig (d.h. in ca. 10 Jahren) werden die SSD die Festplatten im Privatbereich verdrängen, die dann nur noch als billiger Massenspeicher in Rechenzentren benutzt werden.

    Ich habe selbst mal eine SSD ausprobiert, war aber nicht begeistert. Wie fhfhg bereits anmerkte, sind normale Festplatten, gegebenenfalls mit Procaching, bereits so schnell, dass keine Wünsche offen bleiben. SSD war zwar nochmal spürbar schneller. Aber das bringt mir keine Vorteile, weil von der Festplatte Programme schon schneller geladen sind, als ich als Mensch vernünftig darauf reagieren kann. Echte Vorteile hätte SSD wohl nur bei sehr datenträgerintensiven Anwendungen (wenn die Schreibgeschwindigkeit und Wiederbeschreibbarkeit der SSD gut ist).

    Was ich aber gut fand, war die Geräuschlosigkeit. Ein wichtiger Schritt auf dem Weg zum absolut geräuschfreien Rechner 👍 .



  • Kann man die auch zum Entwickeln verwenden, oder gehen die zu schnell kaputt bei so vielen schreibzugriffen?



  • BTW: Vielleicht ist das da im Kontext dieses Threads auch ganz interessant:

    http://www.anandtech.com/storage/showdoc.aspx?i=3731



  • mausekäbel schrieb:

    Kann man die auch zum Entwickeln verwenden, oder gehen die zu schnell kaputt bei so vielen schreibzugriffen?

    Das hängt davon ab, ob du > 1 Million Schreibzugriffe erreichst.

    Umso größer die Festplatte umso mehr Schreibzugriffe sind machbar, weil das alles über den Chip schön verteilt wird.

    Du solltest aber ein OS mit Trim Support haben.
    Also mindestens Windows 7 oder Linux ab Kernel 2.6.33 (der auch erstmal rauskommen muß)



  • Gregor schrieb:

    BTW: Vielleicht ist das da im Kontext dieses Threads auch ganz interessant:

    http://www.anandtech.com/storage/showdoc.aspx?i=3731

    Geil, so ein SSD Chip eignet sich als Farbspektrometer.

    Dann kann ich mein Prisma ja wegschmeißen und mir in Zukunft so nen Chip kaufen.
    Ich bräuchte ihn ca. 6 cm * 2 cm groß.



  • SSD2 schrieb:

    Du solltest aber ein OS mit Trim Support haben.
    Also mindestens Windows 7 oder Linux ab Kernel 2.6.33 (der auch erstmal rauskommen muß)

    TRIM Support hat keinen so grossen Einfluss auf die Haltbarkeit.

    @mausekäbel:
    Ja, kann man.
    BTW: was meinst du mit "so viele Schreibzugriffe"? Die paar Megabyte die geschrieben werden wenn ich auf "compile" drücke?


  • Administrator

    hustbaer schrieb:

    BTW: was meinst du mit "so viele Schreibzugriffe"?

    Wahrscheinlich meint er das krankhafte drücken von <Ctrl>+<S> nach jeder geänderten Zeile 😉

    Grüssli



  • SSD2 schrieb:

    oder Linux ab Kernel 2.6.33 (der auch erstmal rauskommen muß)

    sollte TRIM nicht schon seit 2.6.28 enthalten sein?



  • hustbaer schrieb:

    @mausekäbel:
    Ja, kann man.
    BTW: was meinst du mit "so viele Schreibzugriffe"? Die paar Megabyte die geschrieben werden wenn ich auf "compile" drücke?

    Wenn ich das ganze Projekt in der Arbeit compiliere, ist das schnell mehr als 1GB an pbds usw.

    Auf was beziehen sich die 1 Million Schreibzugriffe? 1 Million mal jedes einzelne Byte? 1 Million mal was schreiben?



  • mausekäbel schrieb:

    Auf was beziehen sich die 1 Million Schreibzugriffe? 1 Million mal jedes einzelne Byte? 1 Million mal was schreiben?

    Wenn man einzelne Bitzellen betrachtet, dann kann man ganz gut die Daten der "International Roadmap for Semiconductors" nehmen. Die aktuellen Daten sind in der Tabelle da enthalten:

    http://www.itrs.net/Links/2009ITRS/2009Chapters_2009Tables/2009Tables_FOCUS_B_ITRS.xls

    ...und zwar unter dem Punkt "Current Baseline and Prototypical Memory Technologies". Da steht bei Flash Speicher (bzw. Floating Gate Speicher), dass die Anzahl der Schreibzyklen bei >100.000 liegt. Also eher weniger als 1 Mio. Zyklen.



  • Gregor schrieb:

    ...und zwar unter dem Punkt "Current Baseline and Prototypical Memory Technologies". Da steht bei Flash Speicher (bzw. Floating Gate Speicher), dass die Anzahl der Schreibzyklen bei >100.000 liegt. Also eher weniger als 1 Mio. Zyklen.

    Aber nur einzelne Bitzellen zu beachten ist wohl nicht sinnvoll um zu erheben, wie lange eine SSD bequem beschreibbar ist; SSDs haben ja auch Reserven wegen Wear Levelling und zur Verhinderung der Fragmentierung und zur sector relocation (wie sie normale HDDs ja auch haben).

    Dadurch sollte sich die Anzahl der Schreibzyklen doch nochmal kräftig nach oben verschieben, oder?



  • Nochmal der Verständnis halber:
    ich habe es bisher immer so verstanden, dass Wear Levelling so funktioniert, dass bei einem anstehenden Schreibvorgang auf einen überdurchschnittlich genutzten Block stattdessen das Ganze lieber auf einen weniger genutzten Block umgeleitet wird. Wenn dieser nicht als frei markiert ist (entweder noch nie beschrieben oder durch TRIM), wird er vorher in den anderen Block kopiert.
    Das scheint für mich auch die einzig sinnvolle Umsetzung zu sein.

    Wenn dem aber so ist, wieso wird dann ständig von limitierten Schreibzyklen gesprochen und warum wird vielerorts ein non-journaling Dateisystem wie ext2 für SSDs empfohlen? Ist doch vollkommen egal, wenn der Journaling-Bereich ständig beschrieben wird, der sollte sich mit Wear-Levelling ja ständig auf immer wieder anderen Blöcken befinden. Im Idealfall kann man dann schon auf eine 80 GB-SSD bei 100,000 Schreibzyklen pro Zelle insgesamt 8 PB schreiben.
    Das ist doch deutlich mehr Durchsatz, als man von einer konventionellen Festplatte während ihrer Lebenszeit je erwarten kann. Bei 24/7-Betrieb und 10 MB/s durchschnittlicher Schreibrate sind das schon 25 Jahre, realistisch sind bei moderatem Nutzungsprofil übers Jahr verteilt aber eher 5-20 KB/s.
    Es ist daher auch bei MLC-Chips doch völlig irrealistisch, das Schreiblimit je zu erreichen, da geht längst vorher was anderes kaputt und schon lange vorher hat man sich eine neue angeschafft...



  • Bei MLC Speicher sind es AFAIK eher 10k Schreib-Zyklen, und nicht 100.
    Aber auch 10.000 * 64GB sind viel.

    @mausekäbel:
    Milchmädchenrechnung:

    Wenn du pro Compilieren 1 GB schreibst, dann wären es 640.000 Compiliervorgänge die das Ding aushält - bei einer 64GB SSD mit optimalem Wear-Leveling.
    Sagen wir sicherheitshalber es sind 10 GB und nicht 1 GB. Wären es immer noch 64K Compiliervorgänge.

    Wenn du am Tag 100x einen kompletten Rebuild machst, hält die Platte immer noch ~2 Jahre. Wenn ich mich nicht verrechnet habe, würde das reine Schreiben dieser Datenmenge schon fast 3 Stunden brauchen (100 * 10 GB, bei ca. 100MB/sec -> 10.000 sec -> 2,78 Stunden).

    Da ich davon ausgehe dass du LANGE nicht 100 Rebuilds pro Tag machst, sehe ich da kein Problem.

    @Athar:

    Wenn dem aber so ist, wieso wird dann ständig von limitierten Schreibzyklen gesprochen und warum wird vielerorts ein non-journaling Dateisystem wie ext2 für SSDs empfohlen? Ist doch vollkommen egal, wenn der Journaling-Bereich ständig beschrieben wird, der sollte sich mit Wear-Levelling ja ständig auf immer wieder anderen Blöcken befinden.

    Weiss nicht. Vielleicht saufen die Leute alle die sowas schreiben. Vielleicht ist das Wear-Leveling aber auch nicht SO perfekt. 100% perfekt kann es IMO auch nicht sein - zumindest nicht ohne die Write-Amplification zu sehr hoch zu treiben. Und die will man ja auch niedrig halten.

    Trotzdem gehe ich davon aus, dass eine SSD effektiv "lange genug" hält. Egal ob MLC oder SLC, egal ob man nun viel Compiliert oder nicht. Ausnahmen fallen mir jetzt kaum welche ein. Vermutlich irgendwelche sehr speziellen Server-Anwendungen.


Anmelden zum Antworten