bestes Archiv-Format ?
-
SeppJ schrieb:
Wenn es um wirklich wichtige Sachen geht, würde ich gar nicht komprimieren. Ein winziger Datenfehler und alles ist weg.
Quatsch, wozu gibt es Prüfsummen?
-
Computer-Profi schrieb:
SeppJ schrieb:
Wenn es um wirklich wichtige Sachen geht, würde ich gar nicht komprimieren. Ein winziger Datenfehler und alles ist weg.
Quatsch, wozu gibt es Prüfsummen?
Um festzustellen, ob Fehler da sind.
-
abgesehen von Proprietärem reduziert sich die Frage dann wohl auf:
.tar.gz, .tar.bz2 oder .zipwelches der drei ist denn wohl am zukunftssichersten und liegt in einer für alle Zeiten festgelegten Spezifikation vor ?
@SeppJ: ohne Kompression wäre mir auch lieber, aber ich kann nicht darauf verzichten, vor allem nicht bei "sparse" Dateien mit vielen genullten Bereichen.
Selbst 50er Ringe nehmen mit den Jahren Platz weg .... und mit jewel cases füllen sich schnell ganze Regale mit wöchentlichen Backups
-
noch was vergessen: ist eigentlich tar 100% zukunftssicher ?
-
Hallo,
ich würde mich auf den Aspekt "zukunftssicher" gar nicht verlassen sondern lieber ein 1:1 Backup erstellen. Um welche Datengrößen gehts denn dabei und wie lange müssen die archiviert bleiben?
Ich gehe jetzt einfach mal davon aus dass die Sicherung auf Datenträgern wie CD's oder DVD's abgelegt wird? Die Haltbarkeit dieser Datenträger ist sowieso begrenzt.
LG, Micha!
-
u-ser_l schrieb:
noch was vergessen: ist eigentlich tar 100% zukunftssicher ?
Die Spezifikation für tar passt vermutlich auf ein einseitig beschriebenes A4 Blatt. Hab jetzt aber trotzdem keine Lust, da noch mehr drüber zu schreiben
EDIT:
Hier ist es: http://www.mkssoftware.com/docs/man4/tar.4.asp
Schnell ausdrucken auf säurefreiem Papier und in den Tresor damit.
-
Wenn Du Dir darum solche Sorgen machst, sicher den Quellcode des aktuell verwendeten Sicherungsprogramms zusammen mit den Daten weg. Den Quellcode natürlich nicht archiviert.
-
GNU-Fan schrieb:
Von .rar würde ich abraten, da es zwar leistungsfähig ist, es aber keine bedienfreundlichen, freien Programme dafür gibt.
kennst nicht winrar? benutzerfreundlicher geht's kaum (ok, bis auf diese blöde einschaltmeldung, von wegen testversion und so).
-
~fricky schrieb:
GNU-Fan schrieb:
Von .rar würde ich abraten, da es zwar leistungsfähig ist, es aber keine bedienfreundlichen, freien Programme dafür gibt.
kennst nicht winrar? benutzerfreundlicher geht's kaum (ok, bis auf diese blöde einschaltmeldung, von wegen testversion und so).
Na ja, er meint wahrscheinlich, dass WinRAR im Grunde ne kostenpflichtige Software ist, die du nach den 30 Tagen (oder so) deinstallieren müsstest. Aber bei WinRAR ist das wohl auch von den Entwicklern so gewollt, dass die ganze Welt eine Testversion auf dem Rechner hat (bessere Werbung gibts ja wohl nicht). Insofern würde ich das eigentlich eher als Freeware für den privaten Gebrauch ansehen...
-
Dass es diese Doppeldeutigkeit von "frei" im Englischen gibt, wusste ich. Aber wir haben dieses Problem doch eigentlich nicht, oder?
-
Zip ist kein Kompressionsverfahren, sondern ein Container. Aus diesem Grunde ist es sinnlos, Zip und z.B. BZip2 zu vergleichen, weil sie mitunter genau das selbe Verfahren nutzen können. Und ähnlich verhält es sich glaube ich auch mit 7zip, aber das ohne Gewähr.
-
ohne zu wissen wie lange es 'zukunftssicher' sein soll, wie gross die daten sind und wie heikel macht es wenig sinn backup lösungen aufzuzählen.
-
GNU-Fan schrieb:
Die Spezifikation für tar passt vermutlich auf ein einseitig beschriebenes A4 Blatt.
thx für den link - tar ist also ein schön einfaches Format.
Sehr beruhigend: Im Notfall könnte man sich ja fast selbst einen rudimentären tar-Entpacker programmieren, falls es in 100+ Jahren keinen mehr geben sollte
-
u-ser_l schrieb:
GNU-Fan schrieb:
Die Spezifikation für tar passt vermutlich auf ein einseitig beschriebenes A4 Blatt.
thx für den link - tar ist also ein schön einfaches Format.
Sehr beruhigend: Im Notfall könnte man sich ja fast selbst einen rudimentären tar-Entpacker programmieren, falls es in 100+ Jahren keinen mehr geben sollte
Nach dem Entpacken muss man dann nur noch die Programme zum Anzeigen der Daten nachprogrammieren.
-
Ja, aber denk dran, dass tar nur ein Aneinanderkleben von mehreren Dateien zu einer Datei ist.
Komprimiert wird extra. (Deshalb ja auch zwei Namensendungen)
-
RandomAccess85 schrieb:
Um welche Datengrößen gehts denn dabei und wie lange müssen die archiviert bleiben?
1-3 G pro Woche, Haltbarkeit 10 Jahre. Für längere Haltbarkeit wird nach ein paar Jahren umkopiert.
Ich habe mit CDR bisher gute Erfahrungen gemacht.
gerade neulich habe ich alte CDRs umkopiert - die waren vor 8 Jahren mit Tempo 2x und 4x beschrieben worden und sind heute fehlerfrei mit hohem Tempo lesbar.
Beim Auslesen war für mich überraschenderweise kaum ein Unterschied zwischen no-name Rohlingen aus dem Supermarkt und diversen Marken-Rohlingen zu merken.
-
also tar ist damit klar. Für ein solch einfaches Format kann man sich im größten Notfall ja sogar selbst einen Entpacker programmieren. Bleibt die Frage nach der zukunftssicheren Kompression.
-
Warum sollte ein Algorithmus, der ja auf mathematischer Sprache basiert, nach einiger Zeit nicht mehr reproduzierbar sein?
-
gzip is ja open source, da kannst du dir den source gleich mitbrennen (wurd ja schonmal gesagt)
-
ja, ist wahr, aber ich hätte wenig Lust, einen Algorithmus zum Entpacken von .gz zu codieren, falls es einen Entpacker für zukünftige Plattformen irgendann nicht mehr geben sollte, und außerdem können auch die Texte von Spezifikationen und Algorithmen irgendwann verloren gehen, wenn sich lange Zeit niemand mehr dafür interessiert.
Kurzum: es vereinfacht die Sache, wenn die Kompressions-Methode möglichst zukunftssicher (sprich: auf zukünftigen Plattformen lauffähiges Entpacker-Programm) ist.