Magnetplatten - Wieso eigentlich noch?



  • atomfish schrieb:

    bis dann die holografischen speicher alles in den schatten stellen:

    http://de.wikipedia.org/wiki/Holografischer_Speicher

    DAS wäre endlich ein Fortschritt, ein Sprung wie von Röhren zu Microchips. Aber es wird wohl noch eine Weile dauern bis man einen 0,5cm³ Kristallblock mit 1000 Terrabyte Datenkapazität in der Hosentasche rumtragen kann.



  • DEvent schrieb:

    atomfish schrieb:

    bis dann die holografischen speicher alles in den schatten stellen:

    http://de.wikipedia.org/wiki/Holografischer_Speicher

    DAS wäre endlich ein Fortschritt, ein Sprung wie von Röhren zu Microchips. Aber es wird wohl noch eine Weile dauern bis man einen 0,5cm³ Kristallblock mit 1000 Terrabyte Datenkapazität in der Hosentasche rumtragen kann.

    Bevor das kommt, wird man sich erstmal mit herkömmlichen Methoden in die 3. Dimension bewegen. Die-Stacking wird zum Beispiel sicherlich in den nächsten 5 bis 10 Jahre kommen. Und dann vergleich mal die Größenverhältnisse. Beim holografischen Speicher braucht ein Bit ein Volumen mit einer Seitenlänge, die der Wellenlänge des genutzten Lichts entspricht. Gehen wir da mal von 400nm oder so aus.

    Intel hat hingegen inzwischen eine erste Testanlage, die Testwafer mit Strukturgrößen von 45nm herstellt. Da erscheint der holografische Speicher plötzlich gar nicht mehr so grandios. Ok, die Dies sind momentan sicherlich deutlich dicker als 400nm oder so. Trotzdem denke ich, dass Die-Stacking vorerst der Weg sein wird, den man geht.

    Ich bin mir sicher, dass man momentan keine Halbleiterlaser hat, die entsprechend kurzwelligere Strahlung von sich geben. ...und mal so BTW: Willst Du nen Röntgenlaser in Deinem Rechner haben? 😉



  • Gregor schrieb:

    ...und mal so BTW: Willst Du nen Röntgenlaser in Deinem Rechner haben? 😉

    JAAAAAA!!!! *augenleucht*



  • Gregor schrieb:

    Intel hat hingegen inzwischen eine erste Testanlage, die Testwafer mit Strukturgrößen von 45nm herstellt.

    45nm ist eigentlich ein alter Hut... Zeiss hat die Lithographie für 13nm (Deep UV) bereits fertig, wird zur Zeit nur noch nicht nachgefragt. Eigentlich war geplant, direkt von 90nm auf 13nm zu springen, aber dann hat die Amis der Mut verlassen und sie führten den Zwischenschritt bei 45nm ein.



  • Willst Du nen Röntgenlaser in Deinem Rechner haben?

    Währ doch toll, wenn mir nächstes mal was breche halte ich es einfach in den rechner und kann mir am Monitor direkt ansehen wieviel Gibs ich anrühren muß 😃



  • Marc++us schrieb:

    45nm ist eigentlich ein alter Hut... Zeiss hat die Lithographie für 13nm (Deep UV) bereits fertig, wird zur Zeit nur noch nicht nachgefragt. Eigentlich war geplant, direkt von 90nm auf 13nm zu springen, aber dann hat die Amis der Mut verlassen und sie führten den Zwischenschritt bei 45nm ein.

    Interessant. Was macht Zeiss in dem Bereich eigentlich? Der Firmenname hört sich so an, als ob die optische Geräte herstellen würden, die in solchen Prozessen benötigt werden. Oder machen die andere Sachen?

    Und wie sieht es mit den anderen benötigten Dingen für diese Wellenlänge aus? Zum Beispiel die entsprechenden Lacke usw.? Ist das auch schon alles da?



  • Gregor schrieb:

    Was macht Zeiss in dem Bereich eigentlich? Der Firmenname hört sich so an, als ob die optische Geräte herstellen würden, die in solchen Prozessen benötigt werden. Oder machen die andere Sachen?

    Das trifft es sehr gut. Zeiss befasst sich vor allem mit den Optiken, die zur Lithographie notwendig sind (große Linsen), aber auch mit den Masken (Beschichtungen).

    Zeiss, Jenoptik und Schott haben mit den entsprechenden Tochterfirmen in diesem Segment eine sehr starke Position. Ist wie üblich: deutsche Hochleistungstechnik, aufgebaut in Taiwan, und das Geld fliesst in die USA. Immerhin ein Trost für alle, die immer denken, Deutschland habe in der Halbleiterei keine starke Position - ohne diese Firmen ginge fast nichts auf dem Weltmarkt der Halbleiterei.

    Gregor schrieb:

    Und wie sieht es mit den anderen benötigten Dingen für diese Wellenlänge aus? Zum Beispiel die entsprechenden Lacke usw.? Ist das auch schon alles da?

    Soweit ich weiß ja. Gerade Intel hat wegen des zeitlichen Aufschubs Zeiss richtig Geld gekostet...



  • Gregor schrieb:

    DEvent schrieb:

    atomfish schrieb:

    bis dann die holografischen speicher alles in den schatten stellen:

    http://de.wikipedia.org/wiki/Holografischer_Speicher

    DAS wäre endlich ein Fortschritt, ein Sprung wie von Röhren zu Microchips. Aber es wird wohl noch eine Weile dauern bis man einen 0,5cm³ Kristallblock mit 1000 Terrabyte Datenkapazität in der Hosentasche rumtragen kann.

    Bevor das kommt, wird man sich erstmal mit herkömmlichen Methoden in die 3. Dimension bewegen. Die-Stacking wird zum Beispiel sicherlich in den nächsten 5 bis 10 Jahre kommen. Und dann vergleich mal die Größenverhältnisse. Beim holografischen Speicher braucht ein Bit ein Volumen mit einer Seitenlänge, die der Wellenlänge des genutzten Lichts entspricht. Gehen wir da mal von 400nm oder so aus.

    Intel hat hingegen inzwischen eine erste Testanlage, die Testwafer mit Strukturgrößen von 45nm herstellt. Da erscheint der holografische Speicher plötzlich gar nicht mehr so grandios. Ok, die Dies sind momentan sicherlich deutlich dicker als 400nm oder so. Trotzdem denke ich, dass Die-Stacking vorerst der Weg sein wird, den man geht.

    Ich bin mir sicher, dass man momentan keine Halbleiterlaser hat, die entsprechend kurzwelligere Strahlung von sich geben. ...und mal so BTW: Willst Du nen Röntgenlaser in Deinem Rechner haben? 😉

    wozu sollte man bei den holospeichern im röntgenbereich agieren,
    wenn man, wie im artikel angemerkt bei 632 nm schon 500 Mio TB/ccm
    hat ?

    ausserdem sind die ersten anwendungen wie die HVD anscheinend so gut
    wie in den startlöchern.



  • atomfish schrieb:

    wozu sollte man bei den holospeichern im röntgenbereich agieren,
    wenn man, wie im artikel angemerkt bei 632 nm schon 500 Mio TB/ccm
    hat ?

    Mal gucken. Da steht:

    Hologramme können theoretisch ein Bit in einem Würfel mit der Kantenlänge der Wellenlänge des Lichts, das zum Schreiben benutzt wurde, speichern.

    Jetzt rechnen wir mal:
    (1cm/632nm)^3 entsprechen 3.961.400.619.424 Bit = 495.175.077.428 Byte. Also nur knapp 500GB/ccm und nicht 500 Mio TB/ccm. In 10 Jahren hat man eine Speicherkapazität von 500GB auch in normalen Flash-Speicher basierten USB-Sticks. ...sofern das Moore'sche Gesetz so lange Gültigkeit behält, was aber für die nächsten 10 Jahre noch sehr wahrscheinlich ist. Und der Flash-Speicher, der da zum Einsatz kommt, ist deutlich kleiner als ein Kubikzentimeter. So, wenn man jetzt davon ausgeht, dass sich das Die-Stacking in den nächsten Jahren durchsetzt, dann muss man auch davon ausgehen, dass solche Kapazitäten noch deutlich schneller kommen als oben prognostiziert.

    Mit anderen Worten: Solche holografischen Speicher würden zum Zeitpunkt ihres Erscheinens vermutlich keinen deutlichen Mehrwert mehr bringen. Es sei denn, sie wären deutlich billiger herzustellen. ...wer weiß, ob das so ist.

    ...bei obiger Rechnung habe ich etwas geschummelt: Man wird als Material für den Würfel sicherlich ein Material mit einem Brechungsindex n > 1 wählen, also vielleicht n = 1,5 oder so. Dadurch verringert man die Wellenlänge des Laserlichts im Würfel und erreicht damit eine höhere Speicherdichte. Ähnliches macht man ja auch bei CDs, DVDs usw.. Das würde einem aber auch bei weitem nicht die angepeilten 500 Mio TB/ccm bringen. Dazu kommt, dass bisher keine Bits für die Fehlerkorrektur vorgesehen sind, was sich negativ auswirken würde.

    ...und BTW: Ich finde es schon interessant, dass da ein Helium-Neon-Laser als Beispiel gebracht wird: Hat hier schonmal einer davon gehört, dass in so einem Anwendungsbereich Gaslaser genutzt werden? 🙂

    Um nochmal Deine Frage zu beantworten: "Röntgenlaser" stand bei mir oben eigentlich nur repräsentativ für einen Laser mit deutlich höherer Frequenz des Ausgestrahlten Lichts. Um die Dichte der gespeicherten Daten zu erhöhen, ist das im Prinzip DER Weg. Man ist bei der Speicherdichte vor allem durch die Wellenlänge des Lichts beschränkt, also muss man diese Wellenlänge möglichst verkleinern. Die Strukturen, die man in Flash-Speichern heutzutage hat, sind von der Größenordnung einiger 10nm. In 10 Jahren werden es so um die 10nm sein. Licht mit einer Wellenlänge von 10nm ist i.A. Röntgenlicht. Deshalb sehe ich das hier als mehr oder weniger äquivalent an. OK, vielleicht braucht man keinen Röntgenlaser, aber ein EUV-Laser sollte es schon sein. Eigentlich macht das keinen Unterschied: AFAIK fehlen Halbleiterlaser in diesem Wellenlängenbereich einfach. Und bis man soetwas möglicherweise irgendwann einmal hat, kann eine unbestimmt lange Zeit vergehen. Vor einigen Jahren hatte man ja noch nichtmal blaue Halbleiterlaser: Bei der CD hat man im Gegensatz zur DVD einen roten Laser genutzt, weil es keine entsprechenden blauen Laser gab. Die Entwicklung blauer Halbleiterlaser war dann letztendlich auch DER Schritt von CD zu DVD. Die Gültigkeit von Moore's Gesetz ist bis zu den 10nm hingegen relativ sicher.

    atomfish schrieb:

    ausserdem sind die ersten anwendungen wie die HVD anscheinend so gut
    wie in den startlöchern.

    Da glaube ich nicht dran. Es ist ja noch nicht mal die Blu-Ray Disk wirklich da. Und das, obwohl man da schon seit Jahren von hört. Naja, andererseits ist "in den Startlöchern" ja auch eine relativ subjektive Beschreibung. Aber die HVD wird möglicherweise schon irgendwann in irgendeiner Form kommen. ...als Ersatz für Blu-Ray Disk oder HD-DVD.



  • Dann nehmen wir zur Speicherung eben Abkömmlinge der RasterKraftMikroskope.
    http://de.wikipedia.org/wiki/Millipede
    Die derzeit existierenden sind zwar noch nicht im Bereich der bereits genannten Technologien, allerdings sind hier Bits/Atom möglich.



  • atomfish schrieb:

    ausserdem sind die ersten anwendungen wie die HVD anscheinend so gut wie in den startlöchern.

    Nicht mal entfernt.

    Zur Zeit sind Maschinen zur Serienfertigung von Bluray und HD-DVD (PRERECORDED - also für Filme) marktreif und verfügbar.

    Für die beschreibbaren Formate (einmal -R und mehrfach -RW) sind noch keine Maschinen verfügbar, die diese Discs am Stück fertigen können, diese Scheiben werden zur Zeit noch in einer Art "halbautomatisierten Fertigung" produziert.

    Anwendungen wie HVD sind heute in einigen Labors in der Mache, aber das ist noch rund 5 Jahre von ersten Anwendungen entfernt.


  • Administrator

    Braunstein schrieb:

    Dann nehmen wir zur Speicherung eben Abkömmlinge der RasterKraftMikroskope.
    http://de.wikipedia.org/wiki/Millipede
    Die derzeit existierenden sind zwar noch nicht im Bereich der bereits genannten Technologien, allerdings sind hier Bits/Atom möglich.

    Mit Millipede ist das nicht möglich. Man kann zwar sehr klein gehen, aber nicht ein Bit pro Atom, das ist von der Technik hier nicht machbar. Lies dir mal den Wikipedia Artikel durch.

    Die Sache Bit/Atom ist allerdings in der Entwicklung und schon erfolgreich im Labor gemacht worden. Man nimmt einem Atom ein Elektron weg dann ist der Zustand 1 und fügt das Elektron wieder dazu und der Zustand ist wieder 0. Das will man erweitern, so dass man am Ende eine Platte hat, wo man einfach die Atome als Bits misbraucht. Da sind unglaubliche Speicher dann möglich, unvorstellbar. Und man ist bereits auch schon am forschen ob es nicht noch weiter geht. Ein Proton besteht nämlich auch wieder aus verschiedenen "Teilchen". Aber da hat man noch nichts geschafft 😉

    Grüssli



  • Braunstein schrieb:

    Dann nehmen wir zur Speicherung eben Abkömmlinge der RasterKraftMikroskope.
    http://de.wikipedia.org/wiki/Millipede
    Die derzeit existierenden sind zwar noch nicht im Bereich der bereits genannten Technologien, allerdings sind hier Bits/Atom möglich.

    Den Millipede-Speicher finde ich persönlich sehr interessant. Da hatte IBM ja auch schon einen Prototyp präsentiert, wenn ich mich nicht irre. Ich bin mal gespannt, ob und wann der kommt.

    Mit der atomaren Auflösung wäre ich aber etwas vorsichtig. Vorerst gibt es die sicherlich nicht. Ich habe mal in einen Praktikumsversuch Rasterkraftmikroskopie betrieben und habe da natürlich auch ein bischen was von den Problemen mitgekriegt, die da auftauchen. Vertikal ist eine atomare Auflösung praktisch kein Problem, das haben wir in dem Versuch auch hingekriegt (mit nem handelsüblichen 50.000€-Rasterkraftmikroskop). Eine laterale atomare Auflösung ist aber ein deutlich größeres Problem. Unser Praktikumsleiter meinte, das hätten bisher nur 5 Leute weltweit hingekriegt (und 2 davon sind in Hamburg.) 😃 Ok, was gibt es da für Probleme:

    Stell Dir vor, Du hast eine atomar spitze Spitze, mit der Du die Oberfläche abrasterst. Was passiert jetzt, wenn Du Dich mit der Spitze an die Oberfläche annäherst? Dann sind die Van-der-Waals-Kräfte an irgendeinem Punkt plötzlich so stark, dass die Spitze ruckartig zur Oberfläche hingezogen wird, bis sie praktisch direkt damit in Verbindung steht. Das Problem ist jetzt, dass das einzelne Atom an der Spitze die ganze Kraft "tragen" müsste. So stark sind diese Strukturen da aber nicht. In so einem Fall verformt sich die Spitze, bis genügend Atome mit der Oberfläche in Kontakt sind, dass ein Gleichgewicht eintritt. Mit anderen Worten: Die Spitze wird plattgedrückt und wenn man ne platte Spitze hat, kann man laterale atomare Auflösung vergessen.

    Was man da tun muss ist, die Spitze gar nicht in Kontakt mit der Probe kommen lassen. Bei der Rasterkraftmikroskopie lässt man den Kantilever mit der Spitze dann knapp oberhalb der Probe schwingen. Dann kann man über das Schwingverhalten Rückschlüsse auf den herrschenden Kraftgradienten ziehen und damit dann laterale atomare Auflösung erreichen. ...und das wird dann typischerweise noch im Hochvakuum bei 4,2K gemacht. 😉

    Das Problem dabei ist, dass Du eben nicht in Kontakt mit der Probe kommst. Und deshalb wird man da auch Schwierigkeiten haben, etwas auf der Probe zu verändern. Und das will man ja bei einem Speicher: Man will ihn auch beschreiben können.

    Aber die angegebenen 10nm in dem Wikipedia-Artikel finde ich durchaus auch schon sehr gut. 🙂

    Letztendlich kann man sich aber überraschen lassen, was da in Zukunft kommt. Es gibt etliche Möglichkeiten der weiteren Entwicklung in diesem Bereich. Wer weiß, was sich durchsetzen wird. ...es gibt ja auch noch MRAMs oder "Phase Change Speicher" und sicherlich auch noch diverse weiter Speichermethoden, die in Zukunft kommen könnten. In jedem Fall haben wir aber in Zukunft schnelle Speicher mit einer deutlich höheren Speicherdichte gegenüber heutigen Speichern zur Verfügung. 🙂 Hört sich doch gut an. 👍



  • Braunstein schrieb:

    Dann nehmen wir zur Speicherung eben Abkömmlinge der RasterKraftMikroskope.
    http://de.wikipedia.org/wiki/Millipede
    Die derzeit existierenden sind zwar noch nicht im Bereich der bereits genannten Technologien, allerdings sind hier Bits/Atom möglich.

    Das ist auch interessant.

    Aber eins steht fest: Wir müssen endlich weg von mechanisch beweglicher Medien. Der Fortschritt der Speichermedien ist immernoch bei den Relais http://de.wikipedia.org/wiki/Relais stehengeblieben.

    Wenn wir endlich weg von der Mechanik kommen, egal ob zu optischen (Datenkristall) oder elektronischen Speichermedien (Flash), dann hätten wir viele Nachteile heutiger Speichermedien beseitigt (langsame Zugriffszeit, geringe Belastung, uvm).



  • Braunstein schrieb:

    Dann nehmen wir zur Speicherung eben Abkömmlinge der RasterKraftMikroskope.
    http://de.wikipedia.org/wiki/Millipede
    Die derzeit existierenden sind zwar noch nicht im Bereich der bereits genannten Technologien, allerdings sind hier Bits/Atom möglich.

    Das ist auch interessant.

    Aber eins steht fest: Wir müssen endlich weg von mechanisch beweglicher Medien. Der Fortschritt der Speichermedien ist immernoch bei den Relais http://de.wikipedia.org/wiki/Relais stehengeblieben.

    Wenn wir endlich weg von der Mechanik kommen, egal ob zu optischen (Datenkristall) oder elektronischen Speichermedien (Flash), dann hätten wir viele Nachteile heutiger Speichermedien beseitigt (langsame Zugriffszeit, geringe Belastung, uvm).



  • DEvent schrieb:

    Aber eins steht fest: Wir müssen endlich weg von mechanisch beweglicher Medien. Der Fortschritt der Speichermedien ist immernoch bei den Relais http://de.wikipedia.org/wiki/Relais stehengeblieben.

    Warum das denn? Mechanik in Festplatten ist doch gar nicht so störanfällig... das Problem ist hier doch der Preisdruck, deswegen taugen die Platten nicht mehr so viel und gehen früher kaputt. Kaufst Du weiterhin speziell für Server zertifizierte Platten, so laufen die 5 Jahre in 24/7. Die häufigeren Ausfälle von Platten liegen ausschließlich an der Absenkung der Qualitätskriterien der Hersteller, nicht am Medium oder der Technik.

    DEvent schrieb:

    Wenn wir endlich weg von der Mechanik kommen, egal ob zu optischen (Datenkristall) oder elektronischen Speichermedien (Flash), dann hätten wir viele Nachteile heutiger Speichermedien beseitigt (langsame Zugriffszeit, geringe Belastung, uvm).

    Optische Speichermedien lassen vermutlich auch in Zukunft ebenfalls nicht ohne Mechanik auslesen (Laserspiegel o.ä.). Außerdem ist die Drehung von Medien eine ideale Methode, um möglichst große Flächen mit geringer geometrischer Variation zu überstreichen. Drehende optische Speicher werden uns sicherlich noch lange erhalten bleiben. Aber auch optische Medien haben große Nachteile, zum einen ist die Oberfläche empfindlich, zum anderen sind sie sehr anfällig gegen Verformung (da sich hier wegen des Strahensatzes und der Fokusierungsebene eine leichte Deformation der Oberfläche sofort als Lesefehler auswirkt).



  • Die Begründung ist ganz einfach: Wieso sind wir weg von Relaise und über Elektronik hin zu Microelektronik?



  • DEvent schrieb:

    Die Begründung ist ganz einfach: Wieso sind wir weg von Relaise und über Elektronik hin zu Microelektronik?

    Und was hat ein Relais mit Festplatten zu tun? Nur weil es Mechanik ist?

    Kann ich nicht nachvollziehen.

    Abgesehen davon: man setzt heute nach wie vor Relais ein. Ohne Relais würde sich kein Roboter und keine Maschine bewegen. Nur weil im Computer keine Relais sind, heißt das nicht, daß man sie abgeschafft hat.



  • Dravere und Gregor
    Ich hatte mich vielleicht unglücklich ausgedrückt. Ich meinte natürlich nicht, dass der Millipede oder andere derzeit verwendeten Techniken dieser Art in den Einatombereich kommen, sondern dass das die untere Grenze dieses Verfahrens darstellt.
    Bezüglich der Holographie bin ich skeptisch. Auf diesem Gebiet haben schon viele Firmen gearbeitet und bisher ist noch nichts vernünftiges rausgekommen. IBM hat vor ein paar Jahren sogar die Forschung auf diesem Gebiet eingestellt, da die Aussichten zu gering erschienen. Das sehe ich ähnlich.



  • Braunstein schrieb:

    Ich meinte natürlich nicht, dass der Millipede oder andere derzeit verwendeten Techniken dieser Art in den Einatombereich kommen, sondern dass das die untere Grenze dieses Verfahrens darstellt.

    Das sehe ich ähnlich. Die Größe eines Atoms stellt sicherlich eine untere Grenze bezüglich Strukturgrößen dar, über die man vermutlich nicht hinaus kommt. Mal abwarten, wie nah man an diese Größenordnung (einige 0,1 nm) heran kommt.

    Ich vermute, dass deutlich vorher Schluss sein wird, da sich bei diesen Größenordnungen prinzipiell Fehler aus der Thermodynamik ergeben. Das heißt, dass man bei diesen Größenordnungen Redundanz einbauen muss. Man muss zum Speichern zum Beispiel fehlerkorrigierende Codes nutzen und man muss auch auch logische Schaltungen redundant auslegen. Bei so einer Größenordnung wird einfach nicht alles so funktionieren, wie es funktionieren soll. Die Frage ist dann aber, ob es sich überhaupt lohnt, so weit runter zu gehen, wenn man bei groberen Strukturen ohne Redundanz oder mit weniger Redundanz auskommt. Ich vermute, dass bei Strukturgrößen von einigen Nanometern Schluss sein wird.

    Intel geht momentan AFAIK davon aus, dass Strukturgrößen bis 8nm schaffbar sind. Wer weiß: Vielleicht kommen sie mit einigen Kraftanstrengungen auch noch bis 5nm oder 2nm oder so. Viel weiter wird es aber sicherlich nicht gehen.


Anmelden zum Antworten