Algorithmen und Datenstrukturen (für ET/IT)

Größe: px
Ab Seite anzeigen:

Download "Algorithmen und Datenstrukturen (für ET/IT)"

Transkript

1 Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München

2 Programm 11 Datenkompression Einführung Grundlagen Informationstheorie Huffman Codes Lempel-Ziv Verfahren JPEG 2

3 Warum Datenkompression? Datenbanken: Experimente vom LHC: ca. 15PB Daten pro Jahr Steam-Plattform ca. 30PB Daten pro Monat (Stand: 2011) Google bearbeitet ca. 24PB Daten pro Tag (Stand: 2008) Filmmaterial: 90 Minuten Film in PAL Auflösung, 25fps: 105GB Kapazität DVD: 8.5GB (single side, dual layer) 90 Minuten Film in Full HD (1080p), 24fps: 501GB Kapazität Blu-Ray: 50GB (dual layer) Grafik: Display mit Auflösung 2560x1600, 60Hz Refresh (z.b. Google Nexus 10): Datenrate 700MB/s 4K Display (Auflösung 4096x2160, 60Hz Refresh): 1.5GB/s Datenrate verdoppelt sich für 3D Displays 3

4 Warum Datenkompression? limitierte Speicherkapazitäten: 3.5 Festplatte: bis zu 4TB (Stand: 2012) 2.5 Solid State Disk (SSD): bis 500GB (in 2013: bis 800GB) Flash-Speicher in Handys/Tablets: typisch 16GB bis 64GB (Stand: 2012) DVD: 8.5GB, Blu-Ray: 50GB (jeweils dual layer) limitierte Kapazitäten von Datenübertragung: Ethernet: typisch 1Gbit/s ( 100MB/s) mit Glasfaser bis 100GBit/s WLAN: n bis zu 450MBit/s ( 40MB/s) in Markteinführung: ac bis zu 1GBit/s Mobilfunk: LTE aktuell bis zu 100MBit/s ( 12MB/s) 4

5 Praxisbeispiele Datenkompression Speicherung von Bildern GIF Format (LZW) PNG Format (LZ77 mit Huffmann-Codierung) JPEG Format (DCT mit Quantisierung und Huffmann-Codierung) JPEG2000 Format (DWT mit Quantisierung und arithmetischer Codierung) Speicherung von Audio MP3 (MDCT, Psycho-akustisches Modell und Huffmann-Codierung) AAC / MPEG-4 (MP3 mit Verbesserungen) Speicherung von Video MPEG-2 (DCT mit Quantisierung und Huffmann-Codierung) H.264 / MPEG-4 (MPEG-2 mit Verbesserungen und arithmetischer Codierung) 5

6 Praxisbeispiele Datenkompression Netzwerkübertragung PPP mit LZS (LZ77 mit Huffmann-Codierung) HTTP mit gzip (LZ77 mit Huffmann-Codierung) Datenspeicherung auf Festplatten ZIP Datei-Archive (LZ77 mit Huffmann-Codierung) bzip2 Datei-Kompression (BWT mit Huffmann-Codierung) 7zip LZMA (LZ77 mit Range-Codierung) Office Dokument meist ge-zipt Sandforce SSD Controller komprimieren Daten automatisch NTFS Filesystem automatische Kompression (LZ77 Variante) 6

7 Datenkompression - wie? Verlustfreie Kompression exakte Wiederherstellung des Originals Codierung mit variabler Wortlänge Kompressionrate typisch 2:1 bis 4:1 Achtung: kann zu Datenexpansion führen! Beispiele: Huffmann- und arithmetische Codierung, LZ77, LZW Verlustbehaftete Kompression Original nicht wiederherstellbar (Verlust) Kompressionsrate fast beliebig wählbar (bei Qualitätsverlust!) Ausnutzung menschlicher Wahrnehmungs-Beschränkungen Beispiele: MP3, AAC, MPEG-2, H.264, JPEG, JPEG2000 7

8 Codierungen Beispiel: Computer mit ASCII Code: jedes Zeichen 8 Bit 8 mal 8 Bit = 64 Bit mit Unicode: jedes Zeichen 16 Bit 8 mal 16 Bit = 128 Bit eigentlich: nur 8 verschiedene Zeichen, könnte in jeweils 3 Bit codiert werden 8 mal 3 Bit = 24 Bit Kompressionsrate: 62.5% im Vergleich zu ASCII Kompressionsrate: 81.25% im Vergleich zu Unicode 8

9 Kompressionsrate Kompressionsrate Sei E Grösse der Eingabe, C Grösse der komprimierten Eingabe, dann ist die Kompressionsrate CR CR = 1 C E Eingabe wird nicht komprimiert CR = 0% Eingabe wird auf ein Drittel komprimiert CR = 66.6% Eingabe wird auf 0 komprimiert CR = 100% Eingabe wird verlängert CR < 0 9

10 Codierungen Beispiel: Abrakadabra Vorkommen: Symbol Häufigkeit Huffman-Code A 5 0 B 2 10 R K D Codierung: ASCII: 11*8 = 88 Bits Huffman: 5*1 + 2*2 + 2*3 + 1*4 + 1*4 = 23 Bits Kompressionsrate: CR = 73.87% 10

11 Datenkompression Symbole Wahrscheinlichkeiten Codes Input Modell Encoder Output Modell: z.b. einfaches statistisches Modell ohne Gedächtnis Häufigkeiten der Symbole Encoder: z.b. Huffman-Codierer (s. später) 11

12 Programm 11 Datenkompression Einführung Grundlagen Informationstheorie Huffman Codes Lempel-Ziv Verfahren JPEG 12

13 Eingabequelle Eingabequelle ohne Gedächtnis Wir betrachten eine Eingabequelle Q ohne Gedächtnis, die Wörter produziert (also ein Folge von Buchstaben oder Symbolen) mittels einem Alphabet {a 0, a 1,..., a N 1 } von N Symbolen. Wir bezeichnen p j = p(a j ) = Wahrscheinlichkeit daß a j produziert wird für j = 0,..., N 1. Beispiele für Alphabet: {0, 1} für eine binäre Quelle { , ,..., } für eine ASCII Quelle 13

14 Wahrscheinlichkeitsverteilung Wahrscheinlichkeitsverteilung Sei Q Eingabequelle mit Wahrscheinlichkeiten p 0,..., p N 1. Dann heißt p = (p 0,..., p N 1 ) Wahrscheinlichkeitsverteilung von Q. Sei w = a j1 a j2 a jn ein Wort der Länge n aus der Quelle Q. Die Annahme, daß Q ohne Gedächtnis ist äquivalent zu p(w) = p(a j1 )p(a j2 ) p(a jn ) d.h. die Ereignisse sind unabhängig. 14

15 Informationsgehalt Informationsgehalt Sei w Wort aus Quelle Q. ( ) 1 I (w) = log 2 p(w) heißt Informationsgehalt von w. = log 2 p(w) I (w) ist invers proportional zu p(w) je seltener das Wort, desto interessanter ist es es ist I (a j1 a j2 a jn ) = I (a j1 ) + I (a j2 ) I (a jn ), d.h. der Informationsgehalt eines Wortes ist die Summe der Informationsgehalte seiner Buchstaben 15

16 Informationsgehalt: Beispiele Informationsgehalt ist über Logarithmus zur Basis 2 definiert Informationseinheit Bit! Beispiel Münzwurf: Quelle Q produziert a 0 = Kopf, a 1 = Zahl Wahrscheinlichkeitsverteilung p = (p 0, p 1 ) = ( 1 dann ist I (a 0 ) = I (a 1 ) = log = 1 Codierung z.b. Kopf 0, Zahl 1 ( also 1 Bit) 2, 1 2 Beispiel Würfel: Quelle Q produziert Zahlen zwischen 0 und 255 (sehr großer Würfel) Wahrsch.-verteilung p = (p 0,..., p 255 ) = ( 1 256,..., 1 I (a 0 ) =... = I (a 255 ) = log = 8 Codierung mit 8 Bits ) 256 ) 16

17 Entropie Entropie Sei Q Quelle mit Alphabet {a 0,..., a N 1 } und Verteilung p = (p 0,..., p N 1 ). Dann heißt der durchschnittliche Informationsgehalt pro Symbol (in Bits pro Symbol) H(p) := p 0 I (a 0 ) p N 1 I (a N 1 ) Entropie der Quelle Q. = p 0 log 2 p 0... p N 1 log 2 p N 1 Sei das Alphabet {a 0,..., a N 1 } statisch, wir variieren p. H(p) = 0 Q produziert nur ein Symbol (z.b. a 0 ) d.h. p(a 0 ) = 1 und I (a 0 ) = 0 H(p) ist maximal p 0 =... = p N 1 = 1 N dann ist H(p) = log 2 N 17

18 Entropie: Beispiel Sei Q Quelle mit Alphabet {a 0,..., a 7 } und Verteilung p = (p 0,..., p 7 ) mit p 0 = 1 2, p 1 = 1 4, p 2 = p 3 = 1 16, p 4 = p 5 = p 6 = p 7 = 1 32 Informationsgehalt: Entropie: I (a 0 ) = 1, I (a 1 ) = 2, I (a 2 ) = I (a 3 ) = 4, I (a 4 ) = I (a 5 ) = I (a 6 ) = I (a 7 ) = 5 H(p) = =

19 Entropie-Codierung: Beispiel Symbol p(a j ) I (a j ) Codierung 1 a a a a a a a a ohne Kompression: 8 verschiedene Symbole 3 Bit Symbole benötigen Bits mit Entropie-Codierung: basierend auf Statistik der Quelle Symbole benötigen Bits Kompressionsrate CR = 29.16% 19

20 Präfixcode Präfixcode Ein Code heißt Präfixcode, falls kein Codewort Präfix eines anderen Codewortes ist. der Entropie-Code der vorigen Folie ist ein binärer Präfixcode betrachte den Code A 0, B 01, C 10 decodiere : nicht eindeutig! kann sein: AACC, ABAC oder ABBA Code von A ist Präfix von Code von B decodiere mit Entropie-Code (vorige Folie) decodiert: a 0 a 3 a 0 a 0 a 5 a 7 a 2 a 0 a 1 a 0 a 0 in der Tat: jeder eindeutig zu decodierende Code ist ein Präfixcode (McMillan, 1956) 20

21 Kraft Ungleichung Sei Q Quelle mit Alphabet {a 0,..., a N 1 } und Verteilung p = (p 0,..., p N 1 ). Idee von Shannon (1948): assoziiere zu jedem a j einen binären Code mit Länge l j, so daß wann funktioniert das? Kraft Ungleichung (1949) l j = I (a j ) für alle j = 0,..., N 1 Seien l 0,..., l N 1 vorgegebene Längen für binäre Codewörter. Dann gibt es einen binären Präfixcode mit diesen Längen genau dann, wenn N 1 j=0 2 l j 1. 21

22 Quellencodierungssatz von Shannon Quellencodierungssatz von Shannon (1948) Sei Q Quelle mit Alphabet {a 0,..., a N 1 } und Verteilung p = (p 0,..., p N 1 ). Sei C ein assoziierter binärer Präfixcode mit durchschnittlicher Länge der Codewörter l = N 1 j=0 p jl j (in Bits pro Symbol). Dann gilt: H(p) l. in anderen Worten: es gibt keine verlustfreie Kompression unter der Entropie. für Code, der nach Shannon s Idee erstellt wurde, gilt: l < H(p)

23 Programm 11 Datenkompression Einführung Grundlagen Informationstheorie Huffman Codes Lempel-Ziv Verfahren JPEG 23

24 Algorithmus: Shannon-Fano Code Sei Q Quelle mit Alphabet {a 0,..., a N 1 }. 1 Sortiere Symbole absteigend in eine Liste gemäss ihrer Häufigkeit 2 Unterteile Liste in zwei Teile, so daß die Summe der Häufigkeiten des ersten Teils möglichst nahe an der Summe der Häufigkeiten im zweiten Teil ist 3 Der erste Teil erhält 0 als Binärziffer, der zweite Teil 1 4 Wende Schritt 2 und 3 rekursiv an 5 Die sich ergebenden Folgen von Binärziffern sind der Shannon-Fano Code 24

25 Shannon-Fano Code: Beispiel Symbol Häufigkeit Code a 0 16 a 1 8 a 2 2 a 3 2 a 4 1 a 5 1 a 6 1 a

26 Präfixcode als Baum a a a 2 a a 4 a 5 a 6 a 7 Codieren: finde Pfad von Wurzel zu Blatt a j Decodieren: durchlaufe Baum von Wurzel gemäß Code 26

27 Algorithmus: Huffman-Baum Sei Q Quelle mit Alphabet {a 0,..., a N 1 } und Verteilung p = (p 0,..., p N 1 ). 1 Erzeuge eine Liste von Blättern mit je ein Blatt pro a j mit Gewicht p j für j = 0,..., N 1 2 Für die zwei Knoten mit geringstem Gewicht erzeuge Vaterknoten mit Summe der Gewichte 3 Ersetze die zwei Knoten in Liste mit Vaterknoten 4 Wiederhole Schritt 2 und 3 bis nur 1 Knoten (die Wurzel) übrig ist (weiteres Beispiel für Greedy-Algorithmus) 27

28 Huffman-Code: Beispiel a 0 a 1 a 2 a 3 a 4 a 5 a 6 a decodiere:

29 Huffmann vs. Shannon-Fano Shannon-Fano: Baum wird von Wurzel abwärts erstellt Huffman: Baum wird von Blättern aufwärts erstellt Huffman ist optimaler Code mit ganzzahliger Anzahl von Bits Beispiel: Symbol a 0 a 1 a 2 a 3 a 4 Häufigkeit p j Shannon-Fano Huffman Durchschnittliche Codelänge: Shannon-Fano: l = ( 2 ( ) + 3 (6 + 5) ) / Bits/Symbol Huffman: l = ( ( ) ) / Bits/Symbol 29

30 Huffman in der Praxis Codieren: Häufigkeiten / Wahrscheinlichkeiten müssen zuerst erzeugt werden Quelle muß zweimal gelesen werden Decodieren: Baum muß zuerst übertragen werden z.b. als Liste der Wahrscheinlichkeiten (kostet Platz!) anderer Ansatz: starte mit Gleichverteilung, adaptiere Wahrscheinlichkeiten beim Lesen von Quelle 30

31 Ausblick: Codierung Codieren mit nicht-ganzzahliger Anzahl von Bits z.b. mit geschachtelter Intervall-Unterteilung Arithmetisches Codieren bisherige Annahme: jedes Symbol ist unabhängig von den anderen Symbolen in Text ist diese Annahme meist falsch! weiteres Ausnutzen von Redundanzen durch Statistiken von Symbol-Paaren, -Tripeln etc. sog. höhere statistische Modelle 31

32 Programm 11 Datenkompression Einführung Grundlagen Informationstheorie Huffman Codes Lempel-Ziv Verfahren JPEG 32

33 Universelle Codierung mit Codebüchern bisher: Annahme Eingabequelle ohne Gedächtnis nun: beliebige Eingabequelle Idee von J. Ziv und A. Lempel 1977 und 1978: kein explizites statistisches Modell (wie bei Huffman) implizites Modell über Codebuch-Verfahren LZ77: sliding window als Codebuch populär seit 1982 dank J. Storer und T. Szymanski als LZSS heutzutage universell eingesetzt (z.b. in ZIP Archiven) LZ78: explizit generiertes Wörterbuch als Codebuch populär geworden 1984 dank T. Welch als LZW (z.b. GIF) heute nicht so populär wie LZ77, dank Patent-Problemen 33

34 LZ77 Sliding window (gleitendes Fenster) über Eingabequelle Fenster hat zwei Bestandteile: Search window (Suchfenster) Look-ahead buffer (Vorschau-Fenster) Search window (hier: 32 Zeichen) Look-ahead buffer (hier: 8 Zeichen) for (i=0; i<max; ++i)\r for (j=0; j<max; ++j)\r a[i+j*max]=0; Suche Symbole aus Look-ahead buffer in Search window wähle längsten Match aus codiere als Tripel: (offset, länge, code) 34

35 LZ77 Beispiel Search window (hier: 32 Zeichen) Look-ahead buffer (hier: 8 Zeichen) for (i=0; i<max; ++i)\r for (j=0; j<max; ++j)\r a[i+j*max]=0; codiere: (23, 8, j ) Search window (hier: 32 Zeichen) Look-ahead buffer (hier: 8 Zeichen) for (i=0; i<max; ++i)\r for (j=0; j<max; ++j)\r a[i+j*max]=0; codiere: (23, 3, a ) Search window (hier: 32 Zeichen) Look-ahead buffer (hier: 8 Zeichen) for (i=0; i<max; ++i)\r for (j=0; j<max; ++j)\r a[i+j*max]=0; codiere: (0, 0, [ ) 35

36 LZ77 Eigenschaften, LZSS Vorteile: lokal adaptives Verfahren mit guter Kompressionsrate sehr schnelle Dekompression Nachteile: Zeichenkettensuche in Search window aufwendig (aber grosses Search window sehr gut für Kompressionsrate!) falls kein Match im Search window, benötigt jedes Zeichen ein Tripel (0,0,code) statt nur code LZSS: Idee von J. Storer und T. Szymanski 1982: Zeichenkettensuche mit binären Suchbäumen Präfix-Bit 0 für (offset, länge) Paar, Präfix-Bit 1 für (code) Praxis: LZSS mit nachgeschalteter Huffman-Codierung (z.b. bei ZIP) 36

37 LZ78 und LZW Dictionary (Wörterbuch) wird sukzessive aufgebaut während Eingabe gelesen wird Dictionary wird mit Alphabet initialisiert jeder Ausgabe-Code ist ein Index im Dictionary Beispiel: Dictionary: Code String (1) (2) (3) (4) (5) (6) (7) (8) A B C AB BB BA ABA ABAC Eingabe: ABBABABAC Code: (1) (2) (2) (4) (7) (3) 37

38 LZ78 und LZW: Eigenschaften Vorteile: adaptives Verfahren mit guter Kompressionsrate schnelle Kompression und Dekompression Nachteile: Problem wenn Dictionary voll wird Reinitialisierungsstrategien grosses Dictionary erfordert grössere Codes, schwieriger Trade-off Praxis: LZW z.b. bei GIF-, TIFF-Dateien dank Patent-Problemen und etwas schlechterer Kompressionsrate als LZ77 mit Huffman nicht mehr so populär 38

39 Programm 11 Datenkompression Einführung Grundlagen Informationstheorie Huffman Codes Lempel-Ziv Verfahren JPEG 39

40 JPEG Schema Input Transformation Quantisierung Codierung Output 8x8 Blöcke MDCT Verlustbehaftet! RLE, Huffman Hauptidee: Transformation der Daten in Frequenzbereich Wegwerfen der wenig wichtigeren Frequenzen JPEG Kompression ist verlustbehaftet! das dekomprimierte Bild ist nicht identisch zum Original-Bild Information geht verloren Vorbereitung: Bild wird in 8x8 Blöcke zerstückelt Anwendung des Schemas auf alle 8x8 Blöcke 40

41 Discrete Cosinus Transformation Sei x = (x 0,..., x n 1 ) R n Signal. Die Diskrete Cosinus Transformation ist definiert als für k = 0,..., n 1. n 1 ( ) DCT (x) k = 2 x j cos ( πk 2n (2j + 1)) j=0 DCT entspricht dem phasen-verschobenen Realteil der DFT der doppelten Länge für JPEG wird die zwei-dimensionale Variante der DCT verwendet 41

42 DCT: Beispiel 1 Original-Bild (8x8 Block) mit 8bit Grauwerten:

43 DCT: Beispiel 2 Shift der Zahlen von auf : zwei-dimensionale DCT:

44 Quantisierung Quantisierung: verlustbehafteter Schritt reduziere Koeffizienten der DCT durch fest vorgegebenes Schema ( ) DCT (i, j) quantisierter Wert(i, j) = round Q(i, j) für alle Pixel (i, j). Q ist fest vorgegeben für verschiedene Qualitätsstufen 44

45 Quantisierung: Beispiel Matrix Q: Quantisierte Werte von DCT (aus vorigem Beispiel): diese quantisierten Werte werden nun codiert! 45

46 Codierung 1. Speichere quantisierte Werte in Zig-Zag Schema 2. Run-Length Encoding (RLE) der Nullen Nullen kommen in Zig-Zag Schema oft mehrfach hintereinander speichere stattdessen nur Anzahl der Nullen 3. Huffman-Codierung spezielle Codes für RLE der Nullen spezieller Code für vorzeitigen Abbruch (EOB), falls nur noch Nullen folgen 46

47 Codierung: Beispiel Quantisierte Werte von DCT (aus vorigem Beispiel): Zig-Zag und RLE/EOB ergibt: EOB 47

48 JPEG: Details Handling von farbigen Bildern betrachte z.b. einzelne Kanäle von RGB Bild oder: Wechsel des Farbraumes YCbCr (Helligkeit, Chrominanz) sehr hohe Effizienz Block-Größe ist fix 8x8 MDCT und Quantisierung können sehr effizient als Matrix Operationen dargestellt werden die Huffman-Bäume sind auch vorgeneriert 48

49 JPEG Beispiel PNG: 23kB JPEG (50%): 3.5kB JPEG (25%): 2.3kB JPEG (worst): 2.1kB 49

50 JPEG Beispiel 140x100 Pixel, deutlich sichtbare 8x8 Blöcke 50

51 JPEG Beispiel PNG: 5.2MB JPEG (25%): 269kB 51

52 Datenkompression in der Praxis (Wdh.) Speicherung von Bildern GIF Format (LZW) PNG Format (LZ77 mit Huffmann-Codierung) JPEG Format (DCT mit Quantisierung und Huffmann-Codierung) JPEG2000 Format (DWT mit Quantisierung und arithmetischer Codierung) Speicherung von Audio MP3 (MDCT, Psycho-akustisches Modell und Huffmann-Codierung) AAC / MPEG-4 (MP3 mit Verbesserungen) Speicherung von Video MPEG-2 (DCT mit Quantisierung und Huffmann-Codierung) H.264 / MPEG-4 (MPEG-2 mit Verbesserungen und arithmetischer Codierung) 52

53 Zusammenfassung 11 Datenkompression Einführung Grundlagen Informationstheorie Huffman Codes Lempel-Ziv Verfahren JPEG 53

Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen

Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 202/3 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 206 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Organisatorisches Weiterer Ablauf: heute und Donnerstag,

Mehr

Kompressionsverfahren für Texte

Kompressionsverfahren für Texte Kompressionsverfahren für Texte Prof. Dr. S. Albers Prof. Dr. Th. Ottmann 1 Zeichenkettenverarbeitung Suche in Texten, Textindizes Mustererkennung (Pattern-Matching) Verschlüsseln Komprimiern Analysieren

Mehr

16 - Kompressionsverfahren für Texte

16 - Kompressionsverfahren für Texte 16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,

Mehr

Kompression. Tim Kilian

Kompression. Tim Kilian Kompression Tim Kilian Seminar Effiziente Programmierung Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg

Mehr

Kapitel 7: Optimalcodierung und Huffman Coding

Kapitel 7: Optimalcodierung und Huffman Coding Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge

Mehr

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd

Mehr

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft

Mehr

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,

Mehr

Kompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2

Kompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2 Kompression Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Folie 2 1 Inhalte Redundanz Channel Encoding Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression

Mehr

Image Compression. Vorlesung FH-Hagenberg DSB

Image Compression. Vorlesung FH-Hagenberg DSB Image Compression Vorlesung FH-Hagenberg DSB Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Inhalte Redundanz Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression

Mehr

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Channel Encoding Error-Free Compression Hufmann Coding Runlength

Mehr

Farb-Fernsehsignal (Composite FBAS)

Farb-Fernsehsignal (Composite FBAS) Farb-Fernsehsignal (Composite FBAS) Quelle: Ze-Nian Li : Script Multimedia Systems, Simon Fraser University, Canada VIDEO- Digitalisierung Gemeinsame Kodierung FBAS Farbbild- Austast- und Synchronsignal

Mehr

Einleitung. Kapitel 1

Einleitung. Kapitel 1 Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch

Mehr

Kompressionsverfahren

Kompressionsverfahren Kompressionsverfahren Quelle: Steinmetz, Ralf: Multimedia-Technologie: Einführung und Grundlagen, Springer, Verlag Verlustlose Kompressionsalgorithmen RLC Huffman Adaptive Huffman Kodierung Arithmetische

Mehr

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Error-Free Compression Hufmann Coding Runlength Coding Lossy Compression

Mehr

Kapitel 2 Quellencodierung

Kapitel 2 Quellencodierung Kapitel 2 Quellencodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv

Mehr

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind. 1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,

Mehr

Praktikum BKSPP: Blatt 2

Praktikum BKSPP: Blatt 2 Praktikum BKSPP: Blatt 2 PD Dr. David Sabel WS 2014/15 Zeichenbasierte Komprimierung Stringersatzverfahren Codebäume Huffman-Kodierung Zeichenbasierte Komprimierung mit Codebäumen Idee: Kodiere jedes Zeichen

Mehr

JPEG Kompression technische Realisierung

JPEG Kompression technische Realisierung Experimentalphysik V 20. Januar 2005 Schema der JPEG Kompression Farbraumkonvertierung RGB YCbCr Subsampling der Farbkomponenten Cb, Cr Zerlegung in Blöcke 8 8 2D Kosinustransformation (DCT) Quantisierung

Mehr

2.7 Der Shannon-Fano-Elias Code

2.7 Der Shannon-Fano-Elias Code 2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.

Mehr

Digitale Medien. Übung

Digitale Medien. Übung Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs Wichtige Voraussetzung

Mehr

Textkompression. Komprimierung von Daten. Runlength Komprimierung (2) Runlength Komprimierung (1) Herkömmliche Kodierung. Runlength Komprimierung (3)

Textkompression. Komprimierung von Daten. Runlength Komprimierung (2) Runlength Komprimierung (1) Herkömmliche Kodierung. Runlength Komprimierung (3) Komprimierung von Daten Textkompression Effiziente Algorithmen VU 2.0 WS 2008/09 Bin Hu Ziel: Platz und Zeit sparen Kompression durch - Effiziente Kodierung - Verminderung der Redundanzen (verlustfrei)

Mehr

Basisinformationstechnologie II

Basisinformationstechnologie II Basisinformationstechnologie II Sommersemester 2015 13. Mai 2015 Algorithmen der Bildverarbeitung I: Kompression Universität zu Köln. Historisch-Kulturwissenschaftliche Informationsverarbeitung Dr. Jan

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München, Medieninformatik,

Mehr

Informatik II, SS 2018

Informatik II, SS 2018 Informatik II - SS 28 (Algorithmen & Datenstrukturen) Vorlesung 22 (6.7.28) Greedy Algorithmen II (Datenkompression) Algorithmen und Komplexität Datenkompression Reduziert Größen von Files Viele Verfahren

Mehr

Informatik II, SS 2016

Informatik II, SS 2016 Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 22 (20.7.2016) Greedy Algorithmen - Datenkompression Algorithmen und Komplexität Greedy Algorithmen Greedy Algorithmen sind eine Algorithmenmethode,

Mehr

RLE Arithm. Shannon Fano Huffman Grenzen. Komprimierung. Ingo Blechschmidt, Michael Hartmann. 6. Dezember 2006

RLE Arithm. Shannon Fano Huffman Grenzen. Komprimierung. Ingo Blechschmidt, Michael Hartmann. 6. Dezember 2006 RLE Arithm. Shannon Fano Huffman Grenzen Ingo Blechschmidt, Michael Hartmann 6. Dezember 2006 RLE Arithm. Shannon Fano Huffman Grenzen Inhalt 1 Lauflängenkodierung 2 Arithmetische Kodierung 3 Shannon Fano-Kodierung

Mehr

Kompression.pdf h. völz /17

Kompression.pdf h. völz /17 Kompression.pdf h. völz 23.5.02 1/17 Lauflängen-Codierung CCCCCCAABBBBAAAAEE _ 6C2A4B4A2E Pixel- und Zähl-Byte unterscheiden Pointer-Verfahren ABRABRIKADABRA Ab 4. Buchstaben ABR _ Verweis . total

Mehr

Multimediatechnik / Video

Multimediatechnik / Video Multimediatechnik / Video Codierung, Datenreduktion Quantisierung, Lauflängencodierung DCT, JPEG http://www.nanocosmos.de/lietz/mtv Inhalt Codierung digitaler Signale Datenreduktion (Kompression) Verlustfrei

Mehr

Multimediatechnik / Video

Multimediatechnik / Video Multimediatechnik / Video Video-Kompression Zusammenfassung http://www.nanocosmos.de/lietz/mtv 2009 1 Motivation: Video-Kompression Unkomprimierte Datenmengen sind zu groß! TV: 20 MB/s = 72 GB/h (720x576x2x25)

Mehr

Kap.4 JPEG: Bildkompression. Ziel: Gegeben sind Daten y R N. Bestimme C R N N mit C C T = I, so dass x = C y dünbesetzt ist.

Kap.4 JPEG: Bildkompression. Ziel: Gegeben sind Daten y R N. Bestimme C R N N mit C C T = I, so dass x = C y dünbesetzt ist. Kap.4 JPEG: Bildkompression Ziel: Gegeben sind Daten y R N. Bestimme C R N N mit C C T = I, so dass x = C y dünbesetzt ist. Originalbild y (30Kbt) Komprimiertes Bild z y(7kbt) JPEG (Joint Photographic

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Digitale Medien. Übung

Digitale Medien. Übung Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm http://www.die-informatiker.net Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs

Mehr

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238 3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher

Mehr

Effiziente Algorithmen und Komplexitätstheorie

Effiziente Algorithmen und Komplexitätstheorie Fakultät für Informatik Lehrstuhl 2 Vorlesung Effiziente Algorithmen und Komplexitätstheorie Sommersemester 2008 Ingo Wegener; Vertretung: Carsten Witt 7. Juli 2008 Vorlesung am 14.07. (nächste Woche):

Mehr

Datenkompression. Theorie

Datenkompression. Theorie Datenkompression Theorie Einleitung Übersicht Wie lassen sich beliebige Daten verdichtet (komprimiert) darstellen? verlustfreie Kompression: Programme Texte verlustbehaftete Kompression: Audio Video Kompressionsfaktor:

Mehr

Panorama der Mathematik und Informatik

Panorama der Mathematik und Informatik Panorama der Mathematik und Informatik 20: Algorithmen III: png und Co Dirk Frettlöh Technische Fakultät / Richtig Einsteigen 26.6.2014 Kompressionsalgorithmen: Idee: Speichere 2 MB Daten in einer 1 MB

Mehr

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv

Mehr

Quellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1

Quellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1 Quellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1 Referenzen [1] Proakis, Salehi, Grundlagen der Kommunikationstechnik, Pearson, 2004. [2] D. Salomon, Data Compression, Springer, 2004. [3] D.

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 5. Vorlesung Uwe Quasthoff Abteilung Automatische Sprachverarbeitung Institut für Informatik Universität Leipzig 9. Mai 2012 1 / 35 Datenkompression Bisheriges Hauptziel

Mehr

Seminar. Codierungstheorie

Seminar. Codierungstheorie Seminar Codierungstheorie Lempel-Ziv-Verfahren Informatik Sommersemester 25 Tim Schweisgut, Juni 25 Inhalt INHALT... 2 WÖRTERBUCHMETHODEN... 3 Statische Wörterbuchmethoden... 3 Beispiel:... 3 Bemerkung:...

Mehr

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg Vortrag am 25. Januar 200 Werner von Siemens Gymnasium Magdeburg Zeitansatz: 5h (inklusive Programmieraufgaben) Datenkompression Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

Mehr

Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB

Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB Bilddatenformate BMP Bezeichnung: Microsoft Windows Bitmap, BMP, DIB Format: Raster Farben: 1 Bit (s/w), 4 Bit (16 Farben), 8 Bit (256 Farben), 24 Bit (16,7 Mio. Farben) Kompression: Keine (meist) oder

Mehr

Effiziente Algorithmen und Komplexitätstheorie

Effiziente Algorithmen und Komplexitätstheorie 1 Effiziente Algorithmen und Komplexitätstheorie Vorlesung Thomas Jansen 22.06.2006 2 Ein anderer Ansatz Beobachtung in Dokumenten eines Typs wiederkehrende Muster Idee Muster in Wörterbuch speichern,

Mehr

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein. 3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle

Mehr

Theoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK

Theoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK Theoretische Grundlagen der Informatik 3..29 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Thema dieses Kapitels Informationstheorie

Mehr

Arithmetisches Codieren

Arithmetisches Codieren Arithmetisches Codieren 1. Motivation: Als Alternative zum arithmetischen Codieren bot sich damals als effizientester Algorithmus das Huffmann-Coding an. Dieses jedoch hatte einen entscheidenden Nachteil:

Mehr

Inhaltsverzeichnis. 1 Einführung 1

Inhaltsverzeichnis. 1 Einführung 1 Inhaltsverzeichnis Inhaltsverzeichnis IX 1 Einführung 1 2 Grundlagen der Datenkompression 5 2.1 Informationsgehalt und Entropie....................... 5 2.2 Kriterien zur Kompressionsbewertung....................

Mehr

Digitale Medien. Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid

Digitale Medien. Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid Wintersemester 2016/17 Häufige Fehler beim Blatt 2 1 c) -> nicht erfüllte Fano-Bedingung bei dem Code 2 a) -> falscher

Mehr

21. Dynamic Programming III

21. Dynamic Programming III Approximation 21. Dynamic Programming III FPTAS [Ottman/Widmayer, Kap. 7.2, 7.3, Cormen et al, Kap. 15,35.5] Sei ein ε (, 1) gegeben. Sei I eine bestmögliche Auswahl. Suchen eine gültige Auswahl I mit

Mehr

Gierige Algorithmen Interval Scheduling

Gierige Algorithmen Interval Scheduling Gierige Algorithmen Interval Scheduling IntervalScheduling(s,f). n length[s] 2. A {} 3. j 4. for i 2 to n do 5. if s[i] f[j] then 6. A A {i} 7. j i 8. return A Gierige Algorithmen Interval Scheduling Beweisidee:

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe: Fachbereich Medieninformatik Hochschule Harz Huffman-Kodierung Referat Henner Wöhler 11459 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung...I 1. Entropiekodierung...1 1.1 Morse Code...2 1.2 Shannon-Fano-Kodierung...3

Mehr

Referat zum Thema Huffman-Codes

Referat zum Thema Huffman-Codes Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung

Mehr

Digitalisierung. analoges Signal PAM. Quantisierung

Digitalisierung. analoges Signal PAM. Quantisierung Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste

Mehr

Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt):

Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt): Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt): Was versteht man unter PCM, DPCM, DM, ADPCM? Skizze! Was versteht man unter PCM

Mehr

Eigenschaften von Kompressionsverfahren

Eigenschaften von Kompressionsverfahren 6 Textkompression Eigenschaften von Kompressionsverfahren Das Ziel der Datenkompression ist es, eine gegebene Information (Datenquelle) auf eine kompaktere Weise zu repräsentieren. Dies geschieht, indem

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität Gierige Algorithmen: Berechne Lösung schrittweise In jedem Schritt mache lokal optimale Wahl Daumenregel: Wenn optimale Lösung

Mehr

Grafikformate. Grafikformate. Digitale Bildverarbeitung Bildkompression

Grafikformate. Grafikformate. Digitale Bildverarbeitung Bildkompression Digitale Bildverarbeitung Bildkompression Einleitung Datenmenge für ein unkomprimiertes Bild Verwendungszweck des Bildes Bild soll weiterverarbeitet werden Bild soll archiviert werden Bild soll per E-Mail

Mehr

Plug&Play Kompression mit dem Framework. Dominik Köppl Vortragsreihe der Regionalgruppe der Gesellschaft für Informatik aus Dortmund 4.

Plug&Play Kompression mit dem Framework. Dominik Köppl Vortragsreihe der Regionalgruppe der Gesellschaft für Informatik aus Dortmund 4. Plug&Play Kompression mit dem Framework Dominik Köppl Vortragsreihe der Regionalgruppe der Gesellschaft für Informatik aus Dortmund 4. Juni 2018 2 C++14 Open-Source (Apache-License) Github 3 Verlustfreie

Mehr

Ziv-Lempel-Kompression von André Lichei

Ziv-Lempel-Kompression von André Lichei Ziv-Lempel-Kompression von André Lichei Einführung: Die wichtigsten Ansprüche,die an einen Komprimierungs-Algorithmus gestellt werden, sind: - eine hohe Komprimierungsrate - für alle Typen von Daten (

Mehr

Mathematische Methoden der graphischen Datenverarbeitung

Mathematische Methoden der graphischen Datenverarbeitung Teil I: Aufgaben der Bildverarbeitung: Komprimierung (compression); Mathematische Methoden der graphischen Datenverarbeitung PD Dr.(USA) Maria Charina Originalbild, 30Kbt Komprimiertes Bild, 7Kbt Teil

Mehr

Detaillierte Gliederung Algorithmen und Datenstrukturen (für ET/IT)

Detaillierte Gliederung Algorithmen und Datenstrukturen (für ET/IT) Detaillierte Gliederung Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 2015 Dr. Tobias Lasser Stand: 7. Juli 2015 1 Einführung Wo kommen Algorithmen und Datenstrukturen vor? Definition und

Mehr

Bildkompression InTh, 2005, JPEG, Hak, Rur, 1

Bildkompression InTh, 2005, JPEG, Hak, Rur, 1 Bildkompression InTh, 25, JPEG, Hak, Rur, 1 Referenzen [1] D Salomon, Data Compression, Springer, 24 [2] Prof Dr A Steffen, Kurs SU, ZHW, 1999-24 [3] G Wallace, The JPEG Still Picture Compression Standard,

Mehr

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon

Mehr

Übung 1: Quellencodierung

Übung 1: Quellencodierung ZHAW, NTM2, Rumc, /7 Übung : Quellencodierung Aufgabe : Huffman-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten

Mehr

Kapitel 2: Informationstheorie. 3. Quellencodierung

Kapitel 2: Informationstheorie. 3. Quellencodierung ZHAW, NTM2, Rumc, 2.3-1 Kapitel 2: Informationstheorie 3. Quellencodierung Inhaltsverzeichnis 1. EINLEITUNG... 1 2. QUELLENCODIERUNGSTHEOREM... 2 3. HUFFMAN-QUELLENCODIERUNG... 3 4. DATENKOMPRESSION MIT

Mehr

Kodierungsalgorithmen

Kodierungsalgorithmen Kodierungsalgorithmen Komprimierung Verschlüsselung Komprimierung Zielsetzung: Reduktion der Speicherkapazität Schnellere Übertragung Prinzipien: Wiederholungen in den Eingabedaten kompakter speichern

Mehr

Standbildcodierung. Dipl.-Ing. Guido Heising. Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K.

Standbildcodierung. Dipl.-Ing. Guido Heising. Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K. Standbildcodierung Dipl.-Ing. Guido Heising Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K. Barthel 1 Gliederung der Vorlesung Einführung in die Bildcodierung - verlustlose/verlustbehaftete

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil V Peter F. Stadler & Konstantin Klemm Bioinformatics Group, Dept. of Computer Science & Interdisciplinary Center for Bioinformatics, University of Leipzig 05.

Mehr

Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider

Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider Wintersemester 2016/17 Bilder 20 x 14 Pixel (= Bildpunkte) 16 Bit Farben (= 65.536 Farben) 560

Mehr

Panorama der Mathematik und Informatik

Panorama der Mathematik und Informatik Panorama der Mathematik und Informatik 18: Algorithmen III: png und Co Dirk Frettlöh Technische Fakultät / Richtig Einsteigen 11.6.2015 Kompressionsalgorithmen: Idee: Speichere 2 MB Daten in einer 1 MB

Mehr

Vorlesung 12. Quellencodieren und Entropie

Vorlesung 12. Quellencodieren und Entropie Vorlesung 12 Quellencodieren und Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. Wir wollen die Buchstaben a, b,... durch (möglichst kurze) 01-Folgen k(a),

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Weiterführende Literatur zum Thema Informationstheorie:

Mehr

'LJLWDOH%LOGHUXQG'DWHLIRUPDWH

'LJLWDOH%LOGHUXQG'DWHLIRUPDWH 'LJLWDOH%LOGHUXQG'DWHLIRUPDWH Seminar: Simulation und Bildanalyse mit Java 07.07.2003 Seite 1 von 25 hehuvlfkw 1. Digitalisierung 2. Bilddateiformate 3. verlustfreie Datenkompression 4. JPEG Kompression

Mehr

Molekulare Bioinformatik

Molekulare Bioinformatik Molekulare Bioinformatik Wintersemester 203/204 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 07.0.204 Molekulare Bioinformatik - Vorlesung 0 Wiederhohlung Die Entropie

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien

Mehr

Informatik II, SS 2018

Informatik II, SS 2018 Informatik II - SS 2018 (Algorithmen & Datenstrukturen) Vorlesung 21 (11.7.2018) String Matching (Textsuche) II Greedy Algorithmen I Algorithmen und Komplexität Textsuche / String Matching Gegeben: Zwei

Mehr

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1 Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)

Mehr

Aufgabe: Platz-effiziente Kompression von Textdaten

Aufgabe: Platz-effiziente Kompression von Textdaten 7.3 Huffman-Bäume Anwendung von Binärbäumen Aufgabe: Platz-effiziente Kompression von Textdaten Standardcodierungen von Textdaten ISO-8859-1: 8 Bit pro Zeichen UTF-16: 16 Bit pro Zeichen Codierungen mit

Mehr

Hauptdiplomklausur Informatik Februar 2006: Multimedia Systems

Hauptdiplomklausur Informatik Februar 2006: Multimedia Systems Universität Mannheim Fakultät für Mathematik und Informatik Lehrstuhl für Praktische Informatik IV Prof. Dr.-Ing. W. Effelsberg Hauptdiplomklausur Informatik Februar 2006: Multimedia Systems Name: Matrikel-Nr.:

Mehr

Übung zur Vorlesung. Digitale Medien. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider

Übung zur Vorlesung. Digitale Medien. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider Wintersemester 2015/16 Wiederholung: LZW-Komprimierung Idee: Nicht einzelne Zeichen werden günstig

Mehr

Hallo Welt für Fortgeschrittene

Hallo Welt für Fortgeschrittene Hallo Welt für Fortgeschrittene Gierige Algorithmen Michael Baer Informatik 2 Programmiersysteme Martensstraße 3 91058 Erlangen Gliederung Einführung Definition Verwendung und Grenzen Abgrenzung zur DP

Mehr

Seminar über Algorithmen, SS2004. Textkompression. von Christian Grümme und Robert Hartmann

Seminar über Algorithmen, SS2004. Textkompression. von Christian Grümme und Robert Hartmann Seminar über Algorithmen, SS2004 Textkompression von Christian Grümme und Robert Hartmann 1. Einleitung Textkompression wird zur Verringerung des Speicherbedarfs und der Übertragungskapazität von allgemeinen

Mehr

(Prüfungs-)Aufgaben zur Codierungstheorie

(Prüfungs-)Aufgaben zur Codierungstheorie (Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1

Mehr

Textkomprimierung Multimedia-Seminar Leiter: Prof. Dr. Vornberger Referent: Stefan Fabrewitz Fr. 7.. Inhaltsverzeichnis Inhaltsverzeichnis Einleitung 5. Historie.............................. 5 Grundlagen

Mehr

Praktikum BKSPP. Aufgabenblatt Nr. 2

Praktikum BKSPP. Aufgabenblatt Nr. 2 PD Dr. David Sabel Institut für Informatik Fachbereich Informatik und Mathematik Johann Wolfgang Goethe-Universität Frankfurt am Main Praktikum KSPP Wintersemester 24/5 Aufgabenblatt Nr. 2 Abgabe: Dienstag,

Mehr

Übersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen

Übersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Übersicht Greedy Algorithmen Einführung Aktivitäten-Auswahl-Problem Huffman Codierung Matthias Zwicker Universität Bern Frühling 2009 2 Greedy Algorithmen Entwurfsstrategie

Mehr

LZSS und Deflate. Lars Kunert. April 18, Seminar Kompressionsalgorithmen RWTH Aachen

LZSS und Deflate. Lars Kunert. April 18, Seminar Kompressionsalgorithmen RWTH Aachen LZSS und Deflate Lars Kunert Seminar Kompressionsalgorithmen RWTH Aachen April 18, 2012 Übersicht 1 LZ - Storer, Szymanski (LZSS, 1982) 2 Deflate (1996) 3 Anwendung LZSS - 1 Verbesserungen gegenüber LZ77:

Mehr

Effiziente Algorithmen und Komplexitätstheorie

Effiziente Algorithmen und Komplexitätstheorie 1 Effiziente lgorithmen und Komplexitätstheorie Vorlesung Thomas Jansen 29.06.2006 2 Burrows-Wheeler-Kompression: Verbesserungen dreischrittiges Kompressionsverfahren Burrows- Wheeler- Transformation Globale

Mehr

Datenkompression: Kontext- und Wörterbuchtechniken. H. Fernau

Datenkompression: Kontext- und Wörterbuchtechniken. H. Fernau Datenkompression: Kontext- und Wörterbuchtechniken H. Fernau email: fernau@uni-trier.de SoSe 2011 Universität Trier 1 Die bedingte Entropie Seien A und B zwei Ereignisse und P (A B) die bedingte W-keit,

Mehr

Textkomprimierung. Stringologie. Codes. Textkomprimierung. Alle Komprimierung beruht auf Wiederholungen im Text. Textkomprimierung

Textkomprimierung. Stringologie. Codes. Textkomprimierung. Alle Komprimierung beruht auf Wiederholungen im Text. Textkomprimierung Stringologie Peter Leupold Universität Leipzig Vorlesung SS 2014 Alle Komprimierung beruht auf Wiederholungen im Text Die Komprimierung muss rückgängig gemacht werden können Je kleiner das Alphabet, desto

Mehr

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Kompression und Datenformate Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Digitale Speicherung von Bildern Digitalisierung Informationsgehalt Speicherbedarf Kompression von Multimediadaten

Mehr