Muß man Platten wipen?
-
Jo. Wenn es sich um _wirklich_ sensible Daten handelt, würde ich auch aufgrund der div. Relocated Sectors kein Risiko eingehen und die Platte physisch vernichten.
48x überschreiben ist natürlich Blödsinn, aber verschlüsseln bzw. in echten Härtefällen physisch vernichten ist durchaus sinnvoll.
-
abcd schrieb:
Man muß auch die ausgelagerten Sektoren bedenken. Die kann man mit dd nicht erreichen,
nman schrieb:
auch aufgrund der div. Relocated Sectors kein Risiko eingehen und die Platte physisch vernichten.
Ja, das ist unangenehm. Eigentlich müßte ich die Platte jetzt kaputthauen. Danke für den Hinweis.
-
Gibt's keine Möglichkeit die Platte wieder in einen Fabrikzustand zu versetzen, so daß diese davon ausgeht, das auch die relocated Sektoren erstmal wieder benutzt werden können?
Dann kann man ja da mal kurz drüberlöschen und die Hardwarefehlersuche findet dann die alten kaputten Sektoren dann halt nochmal und markiert sie entsprechend.
-
Ich weiß von einem Bekannten der bei einem Spezialisten für Datenwiederherstellung arbeitet.
Er sagte mir, dass man ein überschriebenes Bit zu ca 90% Wahrscheinlichkeit wieder herstellen kann.
Das wäre bei einem Byte schon 0.9^8 = 0,43% ein byte richtig wieder herzustellen.
Also selbst bei so kleinen Datenmengen ist es nicht mehr möglich.
(Die W'keit geht bei größeren Datenmengen sehr schnell gegen 0)
-
MisterX schrieb:
Er sagte mir, dass man ein überschriebenes Bit zu ca 90% Wahrscheinlichkeit wieder herstellen kann.
Das sieht bei den geleakten Daten dann so aus:
(Als angenommen, wir hätten das Byte lokalisiert und eine ASCII-Ziffer wäre bedeutsam.)Wir haben zwar ausgelesen, daß es eine 3 war.
Aber am Wahrscheinlichsten ist es, daß genau ein Bit falsch gelesen wurde, also ist es es wahrscheinlicher, daß eine 1, eine 2 oder eine 7 richtig ist. Eine 3 ist nicht so wahrscheinlich. Sehr unwahrscheinlich sind 0, 5, 6 und 9. Die 8 aber ist so unwahrscheinlich, daß wie sie ausschließen können.
-
MisterX schrieb:
Das wäre bei einem Byte schon 0.9^8 = 0,43%
du meinst 43%? Das ist nicht wenig. wenn man aus einem Text jedes zweite Zeichen löscht ist immmer noch genug da um zu wissen worum es ging.
-
djasdlfk n schrieb:
MisterX schrieb:
Das wäre bei einem Byte schon 0.9^8 = 0,43%
du meinst 43%? Das ist nicht wenig. wenn man aus einem Text jedes zweite Zeichen löscht ist immmer noch genug da um zu wissen worum es ging.
Das 1. Byte bestimmst du mit ca 43% richtig.
Aber das du zwei Bytes richtig bestimmst liegt bei:
0.9 ^16 = 0.18. Also nur noch bei 18%10 Bytes bestimmst du mit ca: 0.9 ^80 = 0.0002 = 0.02% richtig.
Es ist also nur von Bedeutung, wenn die geheimen Daten sehr klein sind (1-5 Buchstaben mit viel Glück) und der "Spion" auch noch genau weiß an welchen Stellen er suchen muß. (Ich habe mal angenommen die Codierung sei perfect in dem Sinn, das jedes Bit (0 oder 1) gleich oft vorkommt)
-
djasdlfk n schrieb:
MisterX schrieb:
Das wäre bei einem Byte schon 0.9^8 = 0,43%
du meinst 43%? Das ist nicht wenig. wenn man aus einem Text jedes zweite Zeichen löscht ist immmer noch genug da um zu wissen worum es ging.
Ja.
WEr¿re[lg sohsyõTáf5~cp Naq¿t"q¯F└Wknõ? Us yst õmV RiÈÕr(,mv`sahjÕ\áki.`.Erzeugt mit
#include <iostream> #include <cstdlib> using namespace std; int fehler(){ int r=0; for(int i=0;i!=8;++i) if(rand()%100<10) r|=(1<<i); return r; } int main() { srand(*****); char text[]="*****"; for(char* p=text;p!=text+sizeof(text);++p) cout<<char(*p^fehler()); cout<<'\n'; }Hängt natürlich stark vom Zufall ab, ob man den text erkennt.
Diese Würfelung dürfe von manchen schon erkannt werden.Was`reite| wo"sxýt ftzcj0♀`chtÇUnd$Îind▲)Gw act¬$er`VatÕ mh se┴nem Kin`.
-
volkard schrieb:
djasdlfk n schrieb:
MisterX schrieb:
Das wäre bei einem Byte schon 0.9^8 = 0,43%
du meinst 43%? Das ist nicht wenig. wenn man aus einem Text jedes zweite Zeichen löscht ist immmer noch genug da um zu wissen worum es ging.
Ja.
WEr¿re[lg sohsyõTáf5~cp Naq¿t"q¯F└Wknõ? Us yst õmV RiÈÕr(,mv`sahjÕ\áki.`.Erzeugt mit
#include <iostream> #include <cstdlib> using namespace std; int fehler(){ int r=0; for(int i=0;i!=8;++i) if(rand()%100<10) r|=(1<<i); return r; } int main() { srand(*****); char text[]="*****"; for(char* p=text;p!=text+sizeof(text);++p) cout<<char(*p^fehler()); cout<<'\n'; }Hängt natürlich stark vom Zufall ab, ob man den text erkennt.
Diese Würfelung dürfe von manchen schon erkannt werden.Was`reite| wo"sxýt ftzcj0♀`chtÇUnd$Îind▲)Gw act¬$er`VatÕ mh se┴nem Kin`.Die Rechnung stimmt doch nicht!
Man erkennt doch nur 1 !!!!!!! Zeichen mit 43% richtig.
schon das zweite nur noch mit 18%. Und nicht einfach jedes zweite.
Die Wahrscheinlichkeiten multiplizieren sich mit jedem weiteren bit und werden immer kleiner.
-
Warum? Die Chance die Zeichenkette als Gesamtes zu erkennen wird kleiner, die Chance auf jedes Byte bleibt natürlich gleich.
MfG SideWinder
-
MisterX schrieb:
volkard schrieb:
djasdlfk n schrieb:
MisterX schrieb:
Das wäre bei einem Byte schon 0.9^8 = 0,43%
du meinst 43%? Das ist nicht wenig. wenn man aus einem Text jedes zweite Zeichen löscht ist immmer noch genug da um zu wissen worum es ging.
Ja.
WEr¿re[lg sohsyõTáf5~cp Naq¿t"q¯F└Wknõ? Us yst õmV RiÈÕr(,mv`sahjÕ\áki.`.Erzeugt mit
#include <iostream> #include <cstdlib> using namespace std; int fehler(){ int r=0; for(int i=0;i!=8;++i) if(rand()%100<10) r|=(1<<i); return r; } int main() { srand(*****); char text[]="*****"; for(char* p=text;p!=text+sizeof(text);++p) cout<<char(*p^fehler()); cout<<'\n'; }Hängt natürlich stark vom Zufall ab, ob man den text erkennt.
Diese Würfelung dürfe von manchen schon erkannt werden.Was`reite| wo"sxýt ftzcj0♀`chtÇUnd$Îind▲)Gw act¬$er`VatÕ mh se┴nem Kin`.Die Rechnung stimmt doch nicht!
Man erkennt doch nur 1 !!!!!!! Zeichen mit 43% richtig.
schon das zweite nur noch mit 18%. Und nicht einfach jedes zweite.
Die Wahrscheinlichkeiten multiplizieren sich mit jedem weiteren bit und werden immer kleiner.Ich habe nur jedes Bit mit einer Wahrscheinlichkeit von 10% umgeschmissen.
-
SideWinder schrieb:
Warum? Die Chance die Zeichenkette als Gesamtes zu erkennen wird kleiner, die Chance auf jedes Byte bleibt natürlich gleich.
MfG SideWinder
Beispiel:
Text: A B C D E F G H
W'Keit das A zu erkennen: 43%
W'Keit das B zu erkennen: 43%Achtung: W'Keit das A und B zu erkennen = 0.43*0.43 = 18%
Wkeit das C zu erkennen: 43%
Wkeit das A und B und C zu erkenne = 0.43*0.43*0.43 = 7.9%W'keit das D zu erkennen: 43%
Wkeit das A und B und C und D zu erkenne = 0.43*0.43*0.43*0.43 = 3.4%usw.
Das selbe passiert wenn du jedes 2. Zeichen nimmst.
-
Soweit ich weiß stimmt das mit den einzelnen Bits gar nicht mehr. Es werden immer mehrere Bits zusammengefasst, einem Muster zugeordnet und dann auf die Platte geschrieben. Wird dieses Muster überschrieben läßt sich nur noch sehr schwer rekonstruieren, weil es viele Ausgangsmöglichkeiten gibt warum das aktuelle Muster so verbogen ist wie es.
Stattdessen wird das analoge Signal in Abschnitte zerlegt, diese aufbereitet ("Partial Response") und das Ergebnis mit vorgegebenen Mustern verglichen, um das ähnlichste zu finden ("Maximum Likelihood"). Jedes der vorgegebenen Muster steht für eine bestimmte Bitfolge.
-
Das stimmt was MisterX schreibt.
Man übersieht leicht, das es ja noch mehr Kombinationen gibt.
2 Zeichen: A B
Wahrscheinlichkeit A zu erkennen = 43%
Wahrscheinlichkeit B zu erkennen = 43%Wahrscheinlichkeit A und nicht B zu erkennen = 0.43 * 0.57 = 0.2451 ca 24 %
Wahrscheinlichkeit nicht A und B zu erkennen = 0.57 * 0.43 = 0.2451 ca 24 %
Wahrscheinlichkeit nicht A und nicht B zu erkennen = 0.57*0.57 = 0.3249 ca 32%
Wahrscheinlichkeit A und B zu erkennen = 0.43 * 0.43 = 0.1849 ca 18 %(Die % Zahlen weichen zusammen um 2% von 100% wegen des Rundens ab)
-
MisterX schrieb:
Wkeit das A und B und C und D zu erkenne = 0.43*0.43*0.43*0.43 = 3.4%
Ja, klar. Und die Wahrscheinlichkeit, einen 1000 Bytes großen Text vollständig korrekt zu entziffern ist praktisch gleich 0.
Ich nehme mal ein paar Jahre der Magnetoskopentwicklung vorweg und setze die Wahrscheinlichkeit eines Bitumkippers auf 1%.
Bei einem Text mit 1000 Zeichen ist die Volltrefferwahrscheinlichkeit: 0.998000=1.2*10-35. Also praktisch 0.
Hier eine Würfelung von 576 Zeichen:deinen Stachel gegen!alle"Insekten brauchen, um dir Achtwng ju verschaffen und um dich zu vertekdigen, Aber wenn du åin warmblütages Ti%r! stichst oder ear eynen Menschen, so m}ßt du sterfen, weil dein Stqchel in ihrer`Haut hängenbleibt und`zerbriclt. Óteche solche Sesen nub im$Famle der höchsten!Not, abEr dann tu es íutig und fürchtg den Pod night, denn wir Bieþen ferdanken unser`großes Ansehen und die Achtung, die wir übezill genießen, unsereí Mut Und unserer Jlugheit. Ujd nun`leb wohl, kleine Oaja, hab Glück in der Welt und sei8deinem Volk und deiner Köniwyn treu.+
-
Deutsches wörtbuch und Mustererkennung würde wohl helfen, den Text wieder lesbar zu machen =o
-
Damit kannstde deine platte wippen
http://images.mytoys.com/intershoproot/eCS/Store/de/images/197/03/1970396-n.jpg
-
volkard schrieb:
MisterX schrieb:
Wkeit das A und B und C und D zu erkenne = 0.43*0.43*0.43*0.43 = 3.4%
Ja, klar. Und die Wahrscheinlichkeit, einen 1000 Bytes großen Text vollständig korrekt zu entziffern ist praktisch gleich 0.
Ich nehme mal ein paar Jahre der Magnetoskopentwicklung vorweg und setze die Wahrscheinlichkeit eines Bitumkippers auf 1%.
Bei einem Text mit 1000 Zeichen ist die Volltrefferwahrscheinlichkeit: 0.998000=1.2*10-35. Also praktisch 0.
Hier eine Würfelung von 576 Zeichen:deinen Stachel gegen!alle"Insekten brauchen, um dir Achtwng ju verschaffen und um dich zu vertekdigen, Aber wenn du åin warmblütages Ti%r! stichst oder ear eynen Menschen, so m}ßt du sterfen, weil dein Stqchel in ihrer`Haut hängenbleibt und`zerbriclt. Óteche solche Sesen nub im$Famle der höchsten!Not, abEr dann tu es íutig und fürchtg den Pod night, denn wir Bieþen ferdanken unser`großes Ansehen und die Achtung, die wir übezill genießen, unsereí Mut Und unserer Jlugheit. Ujd nun`leb wohl, kleine Oaja, hab Glück in der Welt und sei8deinem Volk und deiner Köniwyn treu.+Wenn du den Algorithmus genommen hast jedes Zeichen mit 1% unleserlich zu machen passt das nicht!
Du mußt das erste Byte mit 1% W'keit unleserlich machen. Das zweite mit ca 2%
das dritte mit ca 3 usw. Die W'Keiten es unleserlich zu machen müssen mit jedem weiteren Zeichen ansteigen.
-
MisterX schrieb:
Wenn du den Algorithmus genommen hast jedes Zeichen mit 1% unleserlich zu machen passt das nicht!
Du mußt das erste Byte mit 1% W'keit unleserlich machen. Das zweite mit ca 2%
das dritte mit ca 3 usw. Die W'Keiten es unleserlich zu machen müssen mit jedem weiteren Zeichen ansteigen....und das zweihundertste mit einer W'keit von 200%!?
-
Nein das Ergeinis ist unabhänig. Ein weiteres zu erkennen hängt nicht vom ersten Ab. Du selbst hast es geschrieben.
Achtung: W'Keit das A und B zu erkennen = 0.43*0.43 = 18%
Wir sind nicht beim Lotto, wo der Menge der Ereignise kleiner wird.