RAR und par2, welches redunancy Level (in Prozent) ist sinnvoll?



  • Man kann ja praktisch alles einstellen.
    Von 0 % bis 100 %.

    Aber wenn man das redunancy Level auf 100 % setzt, dann kann man die Daten auch gleich spiegeln.
    Insofern würde mich einmal interessieren, welches redunancy Level sinnvoll ist?
    Wer hat hier Erfahrungswerte?



  • Ich würde es auf 0 lassen, außer du hast wirklich Gründe die dafür sprechen dass die Ausfallchance hoch ist. Oder bei sehr sehr wichtigen Daten.

    Ich meine, ich habe ja auch im laufenden Betrieb kein RAID.. Warum dann bei Archiven ?



  • Weil die Archive Teil des Backups sind.
    Zum Dateienaustausch braucht man so etwas bei den heutige relativ robusten Medien oder robusten und schnellen Datenverbindungen meiner Einschätzung zwar nicht mehr, aber gerade für die Backupstrategie bietet es zusätzliche Sicherheit.

    Denn ein Backup wird man zwar sinnvollerweise auf mindestens zwei Datentärgermedien speichern, aber dies bedeutet auch mehr Aufwand und
    wenn man vergessen hat, diese Datenträger zu synchronisieren, oder man vergessen hat, die Integrität der Daten vor dem synchronisieren zu prüfen, dann hätte man mithilfe der redunanten Fehlerkorrektur wenigstens noch eine Möglichkeit die Daten wieder zu rekonstruieren.

    Es könnte z.B. folgendes Szenario auftreten.
    Man hat ein Backup, welches jeweils auf zwei verschiedenen Festplatten vorhanden ist.
    Nun wird die 1. Festplatte mit neuen Daten versehen, aber man vergisst das synchronisieren, oder weil man gerade wenig Zeit hat oder aus irgendeinem anderen Grund.

    In diesem Zustand hat HD 1 und HD 2 also unterschiedliche Daten.
    4 Tage später möchte man die Synchronisation nachholen, doch HD 1 ist in dieser Zeit leicht defekt geworden, sie hat noch kleine, kaum bemerkbare Lesefehler.
    Man Synchronisiert die Daten, aber vergisst die Daten auf HD 1 vorher zu prüfen.
    Die Folge ist, dass aufgrund der Lesefehler defekte Daten auf HD 2 gespiegelt werden.
    Das ganz Backup ist somit kaputt, obwohl es doppelt vorhanden war.
    Mit ein paar Prozent redunancy Level bei kritischen Daten könnte man die Daten dennoch wiederherstellen.

    Es versteht sich natürlich von selbst, dass man das nicht auf alle Dateien anwenden müsste.
    Aber gerade bei binären Programmdaten, wie z.B. Patches, Vollversionen etc. würde ich das wichtig halten.



  • Klar, schiefgehen kann immer etwas. Die Frage ist wie groß das Restrisiko ist.
    Theoretisch könnten auch beide Platten gleichzeitig ausfallen...

    Zu deinem Szenario: Es wäre aber deutlich einfacher die Integrität der Daten zu testen statt nochmal Redundanz aufzubauen.
    Oder einfach nicht von HD 1 nach HD 2 zu synchronisieren, sondern nur von der Quelle. Dann hat HD 2 immer den korrekten Zustand. Hier wäre dann höchstens noch das Problem dass die Quelle inzwischen defekt ist.. Aber wie wahrscheinlich ist es dass HD 1 und die Quelle gleichzeitig nen Schaden haben ?

    Darum hab ich auch nur ein Backup statt zweien. Einmal die Daten auf dem PC, und einmal die Kopie auf der externen. Reicht meiner Meinung nach aus als Schutz, außerdem hab ich eh nicht mehr Speicher. 😃



  • Meiner Meinung nach ist diese Funktion in 99% aller Szenerien bei realem Datenverlust sinnlos. Wann verliert man schonmal irgendwo nur ein paar wenige Bits, die man dann so wiederherstellen kann?



  • TGGC schrieb:

    Meiner Meinung nach ist diese Funktion in 99% aller Szenerien bei realem Datenverlust sinnlos. Wann verliert man schonmal irgendwo nur ein paar wenige Bits, die man dann so wiederherstellen kann?

    Wenn die Festplatte den Geist aufgibt und es nicht sofort der Controller ist.

    Oft klackerts da erst noch ein Weilchen, und es können noch Daten mit einigen Lesefehlern gerettet werden.

    In so einem Zustand kann man also noch Daten Retten und so ein Rettungszeugs ist noch sinnvoll.
    Man sollte die kaputte Platte dann natürlich nicht beschreiben, sondern das Zeugs erst auf eine andere Kopieren und da die Rettung dann anhand der Rettungsdaten durchführen.



  • TGGC schrieb:

    Meiner Meinung nach ist diese Funktion in 99% aller Szenerien bei realem Datenverlust sinnlos. Wann verliert man schonmal irgendwo nur ein paar wenige Bits, die man dann so wiederherstellen kann?

    Wenn auf einer Festplatte ein Badblock auftritt. Da häufig gleich ein zusammenhängender Bereich den Geist aufgibt, sind dann 10 Blocks weg, macht 40kB. 40kB sind heute oftmals nur ein minimaler Prozentsatz, können aber u.U. den kompletten Datensatz unlesbar machen. Hier würden bereits wenige Prozent Redundanz helfen.

    Ich frage mich daher gerade eher, wieso es kein Dateisystem gibt, dass automatisch eine einstellbare Datenredundanz anbietet.



  • Xin schrieb:

    TGGC schrieb:

    Meiner Meinung nach ist diese Funktion in 99% aller Szenerien bei realem Datenverlust sinnlos. Wann verliert man schonmal irgendwo nur ein paar wenige Bits, die man dann so wiederherstellen kann?

    Wenn auf einer Festplatte ein Badblock auftritt. Da häufig gleich ein zusammenhängender Bereich den Geist aufgibt, sind dann 10 Blocks weg, macht 40kB. 40kB sind heute oftmals nur ein minimaler Prozentsatz, können aber u.U. den kompletten Datensatz unlesbar machen. Hier würden bereits wenige Prozent Redundanz helfen.

    Ich frage mich daher gerade eher, wieso es kein Dateisystem gibt, dass automatisch eine einstellbare Datenredundanz anbietet.

    Weil sich das RAID nennt...



  • Shade Of Mine schrieb:

    Xin schrieb:

    Ich frage mich daher gerade eher, wieso es kein Dateisystem gibt, dass automatisch eine einstellbare Datenredundanz anbietet.

    Weil sich das RAID nennt...

    Ein RAID ist kein Dateisystem und hilft beim Totalausfall einer Festplatte, in dem es dem auf dem RAID-Laufwerk installierten Dateisystem gar nicht erst mitteilt, dass hier Teile des Mediums kaputt sind.

    Ein Lesefehler durch Badblocks könnte man auch ohne ein Array hinbekommen. Ein Flash-Speicher jedenfalls dürfte nicht vorrangig an einem defekten Schreiblesekopf oder festgefressenen Motor komplett ausfallen, sondern erstmal nur am Verschleiß einzelner Speichereinheiten.



  • @Xin
    SSDs haben diese Art der Fehlerkorrektur soweit ich weiss eingebaut. Weil die Fehlerquote ohne diese Massnahmen viel zu hoch wäre.



  • Wenn auf einer Festplatte ein Badblock auftritt. Da häufig gleich ein zusammenhängender Bereich den Geist aufgibt, sind dann 10 Blocks weg, macht 40kB. 40kB sind heute oftmals nur ein minimaler Prozentsatz, können aber u.U. den kompletten Datensatz unlesbar machen. Hier würden bereits wenige Prozent Redundanz helfen.

    Ja aber wenn ich z.b. 10% Redundanz habe habe ich dann doch auch nur ca. 10% Wahrscheinlichkeit das genau dieser defekte Block redundant ist oder nicht ? 😕



  • @DarkShadow44
    Nein.
    Wenn du 10 Blöcke hast, von denen 9 Nutzdaten haben + einer hat ECC Daten, dann kannst du den Verlust eines beliebigen Blocks verschmerzen.
    Wenn du 8 Nutzdaten + 2 ECC Daten hast, dann kannst du den Verlust von 2 beliebigen Blöcken verschmerzen.
    Wenn du 7 + 3 hast, dann kannst du 3 beliebige Sektoren rekonstruieren.
    Usw.

    N + 1 geht ganz simpel, das geht einfach mit XOR.
    Für N + 2, N + 3 etc. benötigt man schon einiges an Mathematik. Eine oft verwendete Variante sind Reed-Solomon Codes:
    http://en.wikipedia.org/wiki/Reed-Solomon_error_correction

    Wenn dich das Thema interessiert kannst du auch mal nach "double parity raid" bzw. "triple parity raid". Gibt da ein paar ganz interessante Papers wo verschiedene Ansätze beschrieben sind wie man das machen kann.


Anmelden zum Antworten