Der Spiegel: Daten in der Saftpresse

Thema bewerten
Beiträge: 4
Zugriffe: 440 / Heute: 1
Brummer:

Der Spiegel: Daten in der Saftpresse

 
28.01.02 13:00
Von Markus Becker

Killer-Application von morgen oder Aprilscherz von gestern? Ein amerikanisches Unternehmen will das datentechnische Ei des Kolumbus gefunden haben: Dank eines neuen mathematischen Verfahrens sollen Dateien auf ein Hundertstel ihrer Normalgröße schrumpfen.

Die Firma ZeoSync sieht durch ihre Entdeckung ein neues Zeitalter in der Datenspeicherung aufziehen - und rechnet mit immensen Kosteneinsparungen etwa bei der Datenübertragung im Internet. Die Technologie soll nach Angaben des Unternehmens mit Sitz in Florida im Jahr 2003 marktreif sein.
 
DPA

Demnächst noch kleiner? Moderne Festplatte und 2-MB-Scheibe von 1971.


Bis dahin allerdings, räumt ZeoSync ein, gibt es noch viel zu tun. Denn bisher seien in Laborversuchen nur Datensätze von einigen hundert Bit komprimiert und verlustfrei wiederhergestellt worden. Dessen ungeachtet hätten Chiphersteller und Hollywood-Filmproduzenten bereits Interesse an der Technologie bekundet.

Die Firma will mit nicht namentlich genannten Experten der Harvard University, des MIT, der Stanford University, der University of California in Berkeley und weiteren Forschern in Warschau, Moskau, Peking und Nanking zusammengearbeitet haben. Die Frucht dieser Kooperation, so ZeoSync in einer Stellungnahme, sei der "Zero Space Tuner" mit Binärbeschleunigung. Er basiere auf den Prinzipien der klassischen Physik, statistischer Mechanik und Quantentheorie.

Shannon-Theorem überwunden?

Text zur Anzeige gekürzt. Gesamten Beitrag anzeigen »

PM:

Snakeoil :-)

 
28.01.02 13:18
Das ist schon eine etwas ältere Geschichte, ich glaube es ist fast schon einen Monat seite der "Entdeckung" vergangen.

Es gibt immer wieder Behauptungen wie die oben genannte. Leider steckt meistens viel heisse Luft dahinter. In den Pressereleases wirft ZeoSync mit lustigen Trademarks um sich, so dass sie sich fast wie eine Satire lesen.

Ausserdem sind kurz nach der Veröffentlichung der ersten "spektakulären" Pressemitteilung wohl etwa die Hälfte der angeblichen Referenz-Wissenschaftlern von den Webseiten der Firma verschwunden.

Eine verlustfreie Kompression beliebiger Daten kann es nicht geben. Abgesehen von dem offensichtlichen Paradoxon, dass sich dann jede beliebige Zeichenfolge auf 1 Zeichen komprimieren liesse (durch wiederholte Anwendung), gibt es auch einen simplen Abzähl-Beweis: Algorithmus A kann jede Bitfolge der Länge n auf n-1 Bit komprimieren. Betrachte einfach n=2. Dann muss der Algorithmus die 4 möglichen 2-Bitkombinationen 00, 01, 10, 11 mit den 2 möglichen 1-Bit-Kombinationen 0, 1 darstellen können. Er macht also eine Abbildung aus einer Menge mit 4 Elementen in eine Menge mit 2 Elementen. In die eine Richtung klappt das noch, aber mindestens zwei Elemente der Menge der unkomprimierten Bitfolgen werden auf die gleiche komprimierte Bitfolge abgebildet. Beim Dekomprimieren kann dann zwischen den beiden Elementen nicht unterschieden werden, und es kommt zu "Kompressionsverlusten". Das Argument funktioniert natürlich genausogut für jedes beliebige n.

Nicht, dass ein sehr effektiver verlustbehafteter Kompressionsalgorithmus nicht auch ein Durchbruch sein könnte.

bye, Paul.
Bewerten
Elend:

Geht nicht, Gibts nicht ...

 
28.01.02 13:51
Ob real oder erstunken und erlogen, es existieren zu viele Bereiche, in denen das Festhalten an Theoremen und älteren Erkenntnissen Forschung und Wissenschaft behindern.

Bespiel Medizin: Was "Kräuter-Hexen" im Mittelalter bereits wußten und die asiatische Kultur seit Jahrtausenden vorlebt, daß ist in unserer Medizin nicht gefragt, weil die "Schulmedizin" als einzige Wahrheit anerkannt wird. Alles, was nicht dort gelehrt wird, hat wenig Chance, gleich gefördert und bezahlt zu werden. Klar, es muß das leisten, was es behauptet, aber den Nachweis darf man nicht führen, bzw. wird dieser auch selten nicht anerkannt, da eine "gesamtheitliche" Betrachtung des Lebewesens nicht richtig stattfindet. Meißt verhalten sich Ärzte wie Automechaniker: Das defekte Teil wird ersetzt/behandelt, jedoch werden Zusammenhänge mit anderen Teilen nicht beachtet.

Beispiel Chiptechnologie: Bei x Nanometern ist Schluß. Klar, damals gab es kein entsprechend feinauflösendes Licht, dazugehörige Feinmechanik und Kenntnisse, jedoch kann daraus kein absolutes "NEIN" abgeleitet werden sondern ein "mit dem heutigen Stand: unmöglich".

Beispiel Lichtgeschwindigkeit: Die Lichtgeschwindigkeit ist das schnellste, was es gibt. Oder auch nicht ? Zumindest gab es in den letzten Jahren Zweifel an dieser Theorie. So wurden z.B. in einem Experiment Mikrowellen getunnelt und das mit der doppelten Lichtgeschwindigkeit (so jedenfalls die Meldungen).

Text zur Anzeige gekürzt. Gesamten Beitrag anzeigen »

Bewerten
Elend:

@pm: Sollte Antwort auf Initialposting sein,

 
28.01.02 14:00
was Deine Aussage betrifft: Nach den mathematischen Regeln ist es klar, daß spätestens dann, wenn nur noch ein Buchstabe oder Bit übrig ist, keinerlei Kompression mehr möglich ist und somit Milliarden möglicher Ursprünge das gleiche Ergebnis haben, also nicht durch Dekompression reproduzierbar wären.
Irgendwo muß also Schicht im Schacht sein.

Ich glaube jedoch, daß einige Kompressionsalgorithmen heutzutage noch zu statisch aufgebaut sind und daher zu viel Schrott übriglassen.

Obwohl: 1 Milliarde Bücher lesen, indem Mensch nur noch einmalig die komprimierten Daten ansieht ... DAS SPART ZEIT !!!

Hier also die Bibel in allen 729465 Fassungen (alle Sprachen der Welt) seit der ersten Niederschrift mit Anmerkungen und Grafiken auf einmal : Q

*g*
Bewerten
Es gibt keine neuen Beiträge.
 Ich: 


Börsen-Forum - Gesamtforum - Antwort einfügen - zum ersten Beitrag springen