Hat die Datenkompresion ihre Grenzen ereicht?
-
Hat die Datenkompresion ihre Grenzen ereicht, oder werden da noch ein paar bedeutende Fortschritte kommen? Ein neuer Standart der alles auf 1 % Schrumpfen lässt,wäre nicht schlecht für meine Platte.
-
Richter schrieb:
Hat die Datenkompresion ihre Grenzen ereicht, oder werden da noch ein paar bedeutende Fortschritte kommen? Ein neuer stan**** der alles auf 1 % Schrumpfen lässt,wäre nicht schlecht für meine Platte.
Das ist nicht möglich, ein gewisser Informatinsgehalt muss immer erhalten bleiben, aber keine Sorge, immer größere Platten wird es noch lange geben
-
Richter schrieb:
Hat die Datenkompresion ihre Grenzen ereicht, oder werden da noch ein paar bedeutende Fortschritte kommen? Ein neuer stan**** der alles auf 1 % Schrumpfen lässt,wäre nicht schlecht für meine Platte.
das kannste z.b. mit wavelets haben, je nachdem wie's parametrisiert wird. allerdings sind die verluste dabei sehr hoch. nur sinnvoll also für bilder etc. nicht aber für daten, die man vollständig wieder herstellen möchte (z.b. programme usw)
-
@net, ich glaube Richter meint verlustfreie Datenkompression. Die verschiedenen LZW Implementierungen haben meiner Meinung nach das Maximum des möglichen erreicht. Ich glaube nicht, dass man Daten noch erheblich höher verlustfrei Komprimieren kann als es die heutigen Algorithmen zulassen.
-
Herrmann schrieb:
@net, ich glaube Richter meint verlustfreie Datenkompression. Die verschiedenen LZW Implementierungen haben meiner Meinung nach das Maximum des möglichen erreicht. Ich glaube nicht, dass man Daten noch erheblich höher verlustfrei Komprimieren kann als es die heutigen Algorithmen zulassen.
wenn uns eins die vergangenheit eins gelert hat, dann sowas nicht zu sagen
-
Hallo Gerard, bist du etwa Meinung, dass die Komprimierung noch viel besser wird? Irgendwo gibt es auf diesem Gebiet einfach eine Grenze und ich glaube nicht, dass wir von dieser Grenze noch weit entfernt sind. Wir können uns ja nochmal in ein paar Jahren hier treffen und über meine Aussage diskutieren
-
Wer sagt denn, das morgen nicht jemand hinterm Gebüsch hervorspringt und verkündet, er hat einen völlig neuen Algorhythmus erfunden, der ganz anders funktioniert als die bisherigen und doppelt so gut packen kann. Siehe Fraktale Kompression bei Bildern, wer sagt dass nicht jemand sowas auch für verlustlose Komprimierung aus dem Hut zaubert?
Oder ein anderer Ansatz: Wenn die Anzahl der Nachkommastellen von pi unendlich ist, müsste theoretisch doch jede mögliche Kombination von Bytes darin vorkommen. Also müsste es doch möglich sein, jede belibige Datei auf ein Minimum zu komprimieren, indem man einfach angibt, ab der wievielten Stelle von pi man Anfängt. Fehlt nur noch der Algoryhthmus, der auf den Schnelle pi auf die entsprechende Anzahl von Stellen berechnet
-
frenki schrieb:
Wer sagt denn, das morgen nicht jemand hinterm Gebüsch hervorspringt und verkündet, er hat einen völlig neuen Algorhythmus erfunden, der ganz anders funktioniert als die bisherigen und doppelt so gut packen kann. Siehe Fraktale Kompression bei Bildern, wer sagt dass nicht jemand sowas auch für verlustlose Komprimierung aus dem Hut zaubert?
Ich.
Oder ein anderer Ansatz: Wenn die Anzahl der Nachkommastellen von pi unendlich ist, müsste theoretisch doch jede mögliche Kombination von Bytes darin vorkommen. Also müsste es doch möglich sein, jede belibige Datei auf ein Minimum zu komprimieren, indem man einfach angibt, ab der wievielten Stelle von pi man Anfängt. Fehlt nur noch der Algoryhthmus, der auf den Schnelle pi auf die entsprechende Anzahl von Stellen berechnet
Falsch gedacht, da beißt sich die Maus in den Schwanz. Du brauchst ja auch immer mehr Daten, um die Stelle anzugeben, an der die Kombination auftritt.
-
Es kann keinen Algorithmus geben, der alle Eingaben verlustfrei komprimieren kann.
Für spezielle Einsatzzwecke sind Algorithmen denkbar, die besser sind als allgemeine wie zum Beispiel bzip2.
-
Natürlich kann immer noch jemand mit einem besseren Algorithmus kommen und man kann die Hardware auch immer besser ausreitzen. Schaut euch zB PAQ6 (hmm, Link scheint zZ. tot zu sein, hier ist der Code im Google Cache). Der Algorithmus braucht zwar für die härteste Stufe fast 2GB RAM, aber es zeigt eben an, dass man die Grenzen immer noch ein wenig ausweiten kann. Aber Kompressionen werden ja auch wieder uninteressanter, die Speicherplatz Frage ist schon längst gelöst und Breitband Internet setzt sich auch stärker durch. bzip2 lohnt sich ja schon kaum noch, da das entpacken länger dauert, als den größenunterschied noch runterzuladen, den gzip hat.
Es kann keinen Algorithmus geben, der alle Eingaben verlustfrei komprimieren kann.
öh?
Für spezielle Einsatzzwecke sind Algorithmen denkbar, die besser sind als allgemeine wie zum Beispiel bzip2.
ja, FLAC oä. für verlustfreie Audiokompression etc.
-
kingruedi schrieb:
Es kann keinen Algorithmus geben, der alle Eingaben verlustfrei komprimieren kann.
öh?
Was soll das öh? uns sagen?
-
Ponto schrieb:
Was soll das öh? uns sagen?
Naja, zip, gzip, rar, ace, bzip2,... die alle komprimieren alle Daten verlustfrei.
-
Shade Of Mine schrieb:
Naja, zip, gzip, rar, ace, bzip2,... die alle komprimieren alle Daten verlustfrei.
Ok, dann hab ich mich falsch ausgedrückt: Es gibt keinen Komprimierungsalgorithmus, der alle Eingabedaten so komprimiert, dass das Ergebnis kleiner ist als die Eingabe.
-
Die untere Grenze für die Kompression ist der Informationsgehalt. Und man kann ausrechnen wieviel Information in gewissen Daten steckt. Unter dieses Minimum kann man mit einem allgemeinen Komprimierer nicht kommen. Für Interessierte: einfach mal nach Shannon und Informationstheorie googlen. Aktuelle Algorithmen schaffenes recht nahe an diesen Informationsgehalt ranzukommen. Das heißt, es können immer nur noch Bruchteile von Bits gespart werden und daher sind vermutlich keinen großen Gewinne mehr zu erwarten.
Natürlich kann man in manchen Bereichen wesentlich besser fahren. Wenn eben in einer Textdatei nur 1000 verschiedene Wörter jeweils durch Leerzeichen getrennt vorkommen können, dann kan ich diese Datei als Liste von 10Bit-Gruppen speichern. Das ist natürlich super klein, skaliert aber nicht, dan eine vollständige Liste aller Tippbaren Wöreter im Kompressor zu speichern wäre. Die Zahl um dann ein Wort zu indizieren wäre genauso groß, wie das Wort selbst...