Kompression.pdf h. völz /17

Ähnliche Dokumente
16 - Kompressionsverfahren für Texte

Kompressionsverfahren für Texte

Digitale Medien. Übung

Algorithmen und Datenstrukturen (für ET/IT)

Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider

Digitale Medien. Übung

Farb-Fernsehsignal (Composite FBAS)

Kompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2

Textkompression. Komprimierung von Daten. Runlength Komprimierung (2) Runlength Komprimierung (1) Herkömmliche Kodierung. Runlength Komprimierung (3)

Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen

Algorithmen und Datenstrukturen (für ET/IT)

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

Image Compression. Vorlesung FH-Hagenberg DSB

Kompressionsverfahren

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

Digitale Medien. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid. Übung zur Vorlesung

Eigenschaften von Kompressionsverfahren

Dynamisches Huffman-Verfahren

2. Digitale Codierung und Übertragung

Arbeiten im Datennetz der Universität Regensburg

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg

Kapitel 7: Optimalcodierung und Huffman Coding

Algorithmen und Datenstrukturen (für ET/IT)

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg

JPEG Kompression technische Realisierung

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:

Mathematik für Information und Kommunikation

Datenkompression. Theorie

Verlustbehaftete Kompression. JPEG: Joint Photographic Experts Group

Probeklausur. Grundlagen der Medieninformatik. Wintersemester 2018/19

Praktikum BKSPP: Blatt 2

Informatik II, SS 2018

2.7 Der Shannon-Fano-Elias Code

Multimediatechnik / Video

Erfüllt eine Funktion f für eine feste positive Zahl p und sämtliche Werte t des Definitionsbereichs die Gleichung

Molekulare Bioinformatik

Multimediatechnik / Video

Panorama der Mathematik und Informatik

1. Kraft- und Weganregung 2. Deterministische Lasten. 3. Stochastische Lasten

Die Digitalisierung von Musik

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.

Runde 9, Beispiel 57


Effiziente Algorithmen und Komplexitätstheorie

Systemtheorie Teil A. - Zeitkontinuierliche Signale und Systeme - Musterlösungen. Manfred Strohrmann Urban Brunner

Optimalcodierung. Thema: Optimalcodierung. Ziele

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Algorithmen und Datenstrukturen (für ET/IT)

2. Digitale Codierung und Übertragung

Einleitung. Kapitel 1

Kompression. Tim Kilian

Informatik II, SS 2016

Basisinformationstechnologie II

5 JPEG. 5.1 Bayer Filter. 5.2 Überblick. 5.3 Diskrete Cosinus-Transformation. 5.4 Bildmodell. 5.5 Codierung. 5.6 Übertragungsmodi

Eine verlustbehaftete Komprimierung ist es, wenn wir einige Kleidungsstücke zu

Probeklausur Besprechung

6. Übungsblatt zu Algorithmen II im WS 2016/2017

Die Burrows-Wheeler-Transformation

Dynamische Lasten. 1. Kraft- und Weganregung 2. Deterministische Lasten. 3. Stochastische Lasten

Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB

Digitale Medien. Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid

Graphische Datenverarbeitung

Klausur Digitale Medien

Medien- Technik. Videotechnik

'LJLWDOH%LOGHUXQG'DWHLIRUPDWH

Differentialgleichungen 2. Ordnung

Plug&Play Kompression mit dem Framework. Dominik Köppl Vortragsreihe der Regionalgruppe der Gesellschaft für Informatik aus Dortmund 4.

Hauptdiplomklausur Informatik Februar 2006: Multimedia Systems

Kompression: Lempel/Ziv-Algorithmen

Mathematik und Musik: Fourieranalyse

Gierige Algorithmen Interval Scheduling

Einführung in Kompressionstechniken

Kapitel 2 Quellencodierung

2. Digitale Codierung und Übertragung

Dirk W. Hoffmann. Einführung. in die Informations. und Codierungstheorie. ^ Springer Vieweg

Algorithmen und Datenstrukturen 2-3. Seminar -

Medien- Technik. Videotechnik

Harmonische Schwingung

Mathematik für Information und Kommunikation

Übung zur Vorlesung. Digitale Medien. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider

Zusammenfassung der 1. Vorlesung

Bildkompression Proseminar Datenkompression Daniel Koch

ADS: Algorithmen und Datenstrukturen 2

Inhaltsverzeichnis. 1 Einführung 1

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Digitalisierung. analoges Signal PAM. Quantisierung

Probeklausur Digitale Medien

Übung zur Vorlesung Digitale Medien. Doris Hausen Ludwig-Maximilians-Universität München Wintersemester 2010/2011

Seminar über Algorithmen, SS2004. Textkompression. von Christian Grümme und Robert Hartmann

ADS: Algorithmen und Datenstrukturen 2

Schnelle Ladezeiten sind das A & O für eine gelungene Website

Videos für das Internet

= = = 3 10 = = 33

- 1 - Eine Funktion f(x) heißt differenzierbar an der Stelle x 0, wenn der Grenzwert (siehe Kap. 3)

Praktikum BKSPP. Aufgabenblatt Nr. 2

Universität Trier. Fachbereich IV. Wintersemester 2004/2005. Wavelets made easy. Kapitel 2 Mehrdimensionale Wavelets und Anwendungen

Transkript:

Kompression.pdf h. völz 23.5.02 1/17

Lauflängen-Codierung CCCCCCAABBBBAAAAEE _ 6C2A4B4A2E Pixel- und Zähl-Byte unterscheiden Pointer-Verfahren ABRABRIKADABRA Ab 4. Buchstaben ABR _ Verweis <1,3>. total _ ABR<1,3>IKAD<1,3>A Problem Verweislänge, daher meist gleitend Code-Erweiterung J. Ziv u. A. Lempel 1977, Ab 1984 Welch (LZW, PKZIP) nutzbar: 256 ASCII-Zeichen + zusätzliche für häufige Zeichenketten: Komprimieren drei Vorgänge: 1) Die Ausgabe in die komprimierte Datei 2) Die Erweiterung des Zeichensatzes 3) Die Verwendung des erweiterten Zeichensatzes wieder diese Kinder "w" wird ausgegeben, "wi" erhält die Nr. 256 "i" wird ausgegeben, "ie" erhält die Nr. 257 "e" wird ausgegeben, "ed" erhält die Nr. 258 usw. Bei "diese" existiert bereits "ie" wird ausgegeben und "ies" erhält 264 257:ie 259:de 261:r... 270:nd 271: der wieder d"257"se Kin"259"261" Entropie-Codierung Morse, wissenschaftliche Begründung Shannon (1940/48), optimale Lösung 1952 durch Huffman. Testlauf bestimmt Häufigkeit, 2. Lauf codiert: statisch (fest gegeben), dynamisch (je Datei) adaptiv z.b. je 128 Zeichen neu. Vergleich Übergänge der Codierung Run-Length Byte -> Zähler und Byte Pointer Mehrbyte -> Pointer Zip-Lempel Mehrbyte -> 9- bis 12-Bit-Wort Huffman Byte -> rekurrenter Bit-Code Arithmetisch Ganze Datei -> lange Zahl Hilberg Worte -> Pointer Redundanzen betreffen: Run-Length Unmittelbare Wiederholung einzelner Zeichen Pointer und Wiederholung von Zeichenfolgen Zip-Lempel in einer begrenzten Umgebung Huffman Statistik der Zeichen Arithmetisch Statistik der Zeichen HilbergVektorstatistik bei Wörtern Arithmetische Codierung P. Elias um 1985 Kompression.pdf h. völz 23.5.02 2/17

+-------Ð----------Ð---------+ Zeichen Häufigkeit Intervall -------Ï----------Ï--------- a 0,2 0-0,2 e 0,3 0,2-0,5 i 0,1 0,5-0,6 o 0,2 0,6-0,8 u 0,1 0,8-0,9! 0,1 0,9-1,0 +------- ---------- ---------+ "eaii" fortlaufende Einschränkung des Intervalls: Beginn [0, 1) e [0.2, 0.5) a [0.2, 0.26) i [0.23, 0.236) i [0.233, 0.2336)! [0.23354,0.2336) Ausgabe der Zahl 0.23358 Zipf und Entropie Eine oft brauchbarere Näherung für das Zipfsche Gesetz lautet 1 p () r für r > 1 r ln( N ) Darin bedeuten r den Rang; N Anzahl der Klassen und p die Wahrscheinlichkeit. Hieraus leitet u.a. Meyer-Eppler (S.112) die Entropie ld( N) H + ld( ln( N) ) 2 für die relative Entropie folgt dann H ld( ln( N )) 1 h = + ld( N ) ld( N ) 2 Diesen Verlauf zeigt das Bild Mit der ursprünglichen Formel von p () r 1 r ln(1,78 R) 0,7 10 10 2 subj_wahrsch.cdr h. völz 19.5.99 berechnet dagegen Schroeder (Fraktale usw. Spektrum, 41) folgende ähnliche Entropie: H 1 / 2 ld (2 N ln(2 N)) in Bit/Wort Bei 12 000 verschiedenen Wörtern folgt H 9, bei 30 0000 H 11,5 Bit/Wort. Auch Voss liefert hierzu einen Beitrag. Er geht von N willkürlich festgelegten Klassen aus und gewinnt aus seinem allgemeinem Gesetz für die relative Entropie aus praktischen Beispielen für typische Fälle bei Sprachen Werte zwischen 0,83 und 0,88. Für soziologische Systeme erhält er Werte zwischen 0,8 und 0,9. Vergleich Übergänge der Codierung Run-Length Byte -> Zähler und Byte Pointer Mehrbyte -> Pointer Zip-Lempel Mehrbyte -> 9- bis 12-Bit-Wort Huffman Byte -> rekurrenter Bit-Code Arithmetisch Ganze Datei -> lange Zahl Hilberg Worte -> Pointer Redundanzen betreffen: Run-Length Unmittelbare Wiederholung einzelner Zeichen Pointer und Wiederholung von Zeichenfolgen Zip-Lempel in einer begrenzten Umgebung Huffman Statistik der Zeichen Arithmetisch Statistik der Zeichen HilbergVektorstatistik bei Wörtern Hilberg-Codierung Jedes Wort zwei Code-Symbole x i, y i und Pointer z i y 1 x 1 Wort 1 z 1 y 2 x 2 Wort 2 z 2 y 3 x 3 Wort 3 0 0 Rotkäppchen 1 0 0 Rotkäppchen 1 0 0 den Jäger 0 1 der Wolf 1 0 1 der Wolf 1 0 1 die Großmutter 1 0 trifft 0 1 0 trifft 0 1 0 den Hänsel 1 1 erkennt 0 1 1 erkennt 0 1 1 die Gretel Start-Code aus y 1 x 1 begonnen. Ausgabe Pointer z 1. Zu x 2 ergänzt mit neuen Code y 2 = neues Wort 0,9 0,8 rel. Entropie h harm. p r 1 = r ln ( Z ) Meyer-Eppler 10 3 10 4 10 5 10 6 Wortanzahl Kompression.pdf h. völz 23.5.02 3/17

Gemäß Tabelle folgende 16 Sätze möglich: genügen also 4 Bit. y 1 x 1 x 2 x 3 Sätze 0 0 0 0 Rotkäppchen trifft den Jäger 0 0 0 1 Rotkäppchen trifft die Großmutter 0 0 1 0 Rotkäppchen erkennt den Jäger 0 0 1 1 Rotkäppchen erkennt die Großmutter 0 1 0 0 der Wolf trifft den Jäger 0 1 0 1 der Wolf trifft die Großmutter 0 1 1 0 der Wolf erkennt den Jäger 0 1 1 1 der Wolf erkennt die Großmutter 1 0 0 0 trifft Rotkäppchen den Hänsel 1 0 0 1 trifft Rotkäppchen die Gretel 1 0 1 0 trifft der Wolf den Hänsel 1 0 1 1 trifft der Wolf die Gretel 1 1 0 0 erkennt Rotkäppchen den Hänsel 1 1 0 1 erkennt Rotkäppchen die Gretel 1 1 1 0 erkennt der Wolf den Hänsel 1 1 1 1 erkennt der Wolf die Gretel Berechnung des Codierungsgewinns beim Zusammenfassen H alte Entropie m alte Zeichenzahl s alte Dateigröße H m a b ab n Anzahl des Symbols a Anzahl des Symbols b Anzahl der möglichen Zusammenfassungen von a und b = m - ab Neue Zeichenzahl Entropie Kompression.pdf h. völz 23.5.02 4/17

m ab ab H' = ( H ld( m) + ld( n) ) ld n n n a a a ab a ab + ld ld n n n n b b b ab b ab + ld ld n n n n Neue Dateigröße s = H n Berechnung des Codierungsgewinns beim Auflösen H alte Entropie m alte Zeichenzahl s alte Dateigröße H m ab a b n Anzahl des Symbols, hervorgegangen aus Kombination von a und b Anzahl des Symbols a Anzahl des Symbols b = m + ab Neue Zeichenzahl Entropie m ab ab H'' = ( H ld( m) + ld( n) ) + ld n n n a a+ ab ab a+ ab ld ld n a n n b b + ab ab b + ab ld ld n b n n Neue Dateigröße s = H n Kompression.pdf h. völz 23.5.02 5/17

Kompression mit der BWT = Burrows-Wheeler-Transformation 1983 wird von Wheeler diese Transformation intern publiziert 1994 erfolgt der erste Report in Bezug auf Kompression Ein Text z. B. DRDOBBS wird als Matrix zyklisch je Zeile verschoben DRDOBBS RDOBBSD DOBBSDR OBBSDRD BBSDRDO BSDRDOB SDRDOBB und dann alphabetisch sortiert BBSDRDO BSDRDOB DOBBSDR DRDOBBS OBBSDRD RDOBBSD SDRDOBB Die erste Spalte ist gut komprimierbar Die letzte Spalte ist das Präfix zur ersten Spalte Hierüber lässt sich mit erster Spalte (komprimiert) und Reihenfolge letzter Spalte (nur als Zahlen) die Datei wieder zurückdekomprimieren. Verlustbehaftete Kompression Ziel sei der Mensch, dann zwei unterschiedliche Wege: 1. Was wir nur wollen brauchen: Sprache ASCII (Schrift) 1:1000 und mehr Musik MIDI (Noten) 1:1000 und mehr Sprachverstehen Vocoder ca. 1:300 Bild Film fehlt so etwas (Formeln, CAD, Landkarten, Fraktale?) Qualitätstufen, Fernsprechen, Bandbreite, Stufenzahl 2. Das wir von der Komprimierung nichts merken: Hören: Hörschwelle, Verdeckung, Frequenz- u. Zeitauflösung u.a. ATTRAC, JPEG, MPEG usw. Weber-Fechnersches Gesetz (nichtlineares Sampling) Probleme. Hören von Richtung und Raum Sehen: chromatischer Fehler der Linse: YUV; HSI, JPEG usw. MacAdams-Ellipsen: PAL NTSC Zeitliche Auflösung: 25 bis 100 Hz; MPEG Winkel- (+ Farb-) Auflösung des Auges (??) Weber-Fechnersches Gesetz (??) Probleme: Stereobild = 3D, Holographie um das virtuelle Objekt herumgehen Was Lösungen erfordern Die entsprechenden Eigenschaften sind oft nicht direkt nutzbar Transformationen in angepaßte Räume sind erforderlich Komplexe Algorithmen heute nicht mehr das Problem Daher ist in Zukunft viel zu erwarten kompression_munich.doc 21.6.99 h. völz 6/1 Kompression.pdf h. völz 23.5.02 6/17

Kompression.pdf h. völz 23.5.02 7/17

Fourieranalyse Jede in T= 2 π/ω periodische Zeitfunktion = Summe harmonischer Schwingungen Es gibt drei Schreibweisen a0 ft () = + ( an cos( n ω t) + bn sin( n ω t)) 2 n= 1 f () t = A + A cos( n ω t+ ϕ ) 0 n= 1 f () t = c ( j n ω) e n n= n jn ω t zu beachten ist: j ϕ e = cos( ϕ) + j sin( ϕ) Für die Umrechnung der Koeffizienten außer für n=0 gilt bn 1 2 2 j ω t An= an + bn und tan( ϕ) = bzw. cn= An e an 2 Zur Bestimmung der Koeffizienten gibt es mehrere Methoden. Ist f (t) als mathematische Funktion, so gilt u.a. n Kompression.pdf h. völz 23.5.02 8/17

t + 2 π a = f () t dt 0 t a = f ()cos( t n ω t) dt n t + 2 π t t + 2 π b = f ()sin( t n ω t) dt n t Die Koeffizienten hängen erheblich vom Startzeitpunkt t ab. Die Umrechnung auf die A n und ϕ n bzw. c n ist im Prinzip einfach aber mit Tücken behaftet. fourier.doc h. völz 19.3.97 / 1 Kompression.pdf h. völz 23.5.02 9/17

Kompression.pdf h. völz 23.5.02 10/17

Kompression.pdf h. völz 23.5.02 11/17

Kompression.pdf h. völz 23.5.02 12/17

Kompression.pdf h. völz 23.5.02 13/17

Kompression.pdf h. völz 23.5.02 14/17

Kompression.pdf h. völz 23.5.02 15/17

Kompression.pdf h. völz 23.5.02 16/17

Kompression.pdf h. völz 23.5.02 17/17