Algorithmen und Datenstrukturen (für ET/IT)
|
|
- Lennart Giese
- vor 6 Jahren
- Abrufe
Transkript
1 Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München
2 Programm 11 Datenkompression Einführung Grundlagen Informationstheorie Huffman Codes Lempel-Ziv Verfahren JPEG 2
3 Warum Datenkompression? Datenbanken: Experimente vom LHC: ca. 15PB Daten pro Jahr Steam-Plattform ca. 30PB Daten pro Monat (Stand: 2011) Google bearbeitet ca. 24PB Daten pro Tag (Stand: 2008) Filmmaterial: 90 Minuten Film in PAL Auflösung, 25fps: 105GB Kapazität DVD: 8.5GB (single side, dual layer) 90 Minuten Film in Full HD (1080p), 24fps: 501GB Kapazität Blu-Ray: 50GB (dual layer) Grafik: Display mit Auflösung 2560x1600, 60Hz Refresh (z.b. Google Nexus 10): Datenrate 700MB/s 4K Display (Auflösung 4096x2160, 60Hz Refresh): 1.5GB/s Datenrate verdoppelt sich für 3D Displays 3
4 Warum Datenkompression? limitierte Speicherkapazitäten: 3.5 Festplatte: bis zu 4TB (Stand: 2012) 2.5 Solid State Disk (SSD): bis 500GB (in 2013: bis 800GB) Flash-Speicher in Handys/Tablets: typisch 16GB bis 64GB (Stand: 2012) DVD: 8.5GB, Blu-Ray: 50GB (jeweils dual layer) limitierte Kapazitäten von Datenübertragung: Ethernet: typisch 1Gbit/s ( 100MB/s) mit Glasfaser bis 100GBit/s WLAN: n bis zu 450MBit/s ( 40MB/s) in Markteinführung: ac bis zu 1GBit/s Mobilfunk: LTE aktuell bis zu 100MBit/s ( 12MB/s) 4
5 Praxisbeispiele Datenkompression Speicherung von Bildern GIF Format (LZW) PNG Format (LZ77 mit Huffmann-Codierung) JPEG Format (DCT mit Quantisierung und Huffmann-Codierung) JPEG2000 Format (DWT mit Quantisierung und arithmetischer Codierung) Speicherung von Audio MP3 (MDCT, Psycho-akustisches Modell und Huffmann-Codierung) AAC / MPEG-4 (MP3 mit Verbesserungen) Speicherung von Video MPEG-2 (DCT mit Quantisierung und Huffmann-Codierung) H.264 / MPEG-4 (MPEG-2 mit Verbesserungen und arithmetischer Codierung) 5
6 Praxisbeispiele Datenkompression Netzwerkübertragung PPP mit LZS (LZ77 mit Huffmann-Codierung) HTTP mit gzip (LZ77 mit Huffmann-Codierung) Datenspeicherung auf Festplatten ZIP Datei-Archive (LZ77 mit Huffmann-Codierung) bzip2 Datei-Kompression (BWT mit Huffmann-Codierung) 7zip LZMA (LZ77 mit Range-Codierung) Office Dokument meist ge-zipt Sandforce SSD Controller komprimieren Daten automatisch NTFS Filesystem automatische Kompression (LZ77 Variante) 6
7 Datenkompression - wie? Verlustfreie Kompression exakte Wiederherstellung des Originals Codierung mit variabler Wortlänge Kompressionrate typisch 2:1 bis 4:1 Achtung: kann zu Datenexpansion führen! Beispiele: Huffmann- und arithmetische Codierung, LZ77, LZW Verlustbehaftete Kompression Original nicht wiederherstellbar (Verlust) Kompressionsrate fast beliebig wählbar (bei Qualitätsverlust!) Ausnutzung menschlicher Wahrnehmungs-Beschränkungen Beispiele: MP3, AAC, MPEG-2, H.264, JPEG, JPEG2000 7
8 Codierungen Beispiel: Computer mit ASCII Code: jedes Zeichen 8 Bit 8 mal 8 Bit = 64 Bit mit Unicode: jedes Zeichen 16 Bit 8 mal 16 Bit = 128 Bit eigentlich: nur 8 verschiedene Zeichen, könnte in jeweils 3 Bit codiert werden 8 mal 3 Bit = 24 Bit Kompressionsrate: 62.5% im Vergleich zu ASCII Kompressionsrate: 81.25% im Vergleich zu Unicode 8
9 Kompressionsrate Kompressionsrate Sei E Grösse der Eingabe, C Grösse der komprimierten Eingabe, dann ist die Kompressionsrate CR CR = 1 C E Eingabe wird nicht komprimiert CR = 0% Eingabe wird auf ein Drittel komprimiert CR = 66.6% Eingabe wird auf 0 komprimiert CR = 100% Eingabe wird verlängert CR < 0 9
10 Codierungen Beispiel: Abrakadabra Vorkommen: Symbol Häufigkeit Huffman-Code A 5 0 B 2 10 R K D Codierung: ASCII: 11*8 = 88 Bits Huffman: 5*1 + 2*2 + 2*3 + 1*4 + 1*4 = 23 Bits Kompressionsrate: CR = 73.87% 10
11 Datenkompression Symbole Wahrscheinlichkeiten Codes Input Modell Encoder Output Modell: z.b. einfaches statistisches Modell ohne Gedächtnis Häufigkeiten der Symbole Encoder: z.b. Huffman-Codierer (s. später) 11
12 Programm 11 Datenkompression Einführung Grundlagen Informationstheorie Huffman Codes Lempel-Ziv Verfahren JPEG 12
13 Eingabequelle Eingabequelle ohne Gedächtnis Wir betrachten eine Eingabequelle Q ohne Gedächtnis, die Wörter produziert (also ein Folge von Buchstaben oder Symbolen) mittels einem Alphabet {a 0, a 1,..., a N 1 } von N Symbolen. Wir bezeichnen p j = p(a j ) = Wahrscheinlichkeit daß a j produziert wird für j = 0,..., N 1. Beispiele für Alphabet: {0, 1} für eine binäre Quelle { , ,..., } für eine ASCII Quelle 13
14 Wahrscheinlichkeitsverteilung Wahrscheinlichkeitsverteilung Sei Q Eingabequelle mit Wahrscheinlichkeiten p 0,..., p N 1. Dann heißt p = (p 0,..., p N 1 ) Wahrscheinlichkeitsverteilung von Q. Sei w = a j1 a j2 a jn ein Wort der Länge n aus der Quelle Q. Die Annahme, daß Q ohne Gedächtnis ist äquivalent zu p(w) = p(a j1 )p(a j2 ) p(a jn ) d.h. die Ereignisse sind unabhängig. 14
15 Informationsgehalt Informationsgehalt Sei w Wort aus Quelle Q. ( ) 1 I (w) = log 2 p(w) heißt Informationsgehalt von w. = log 2 p(w) I (w) ist invers proportional zu p(w) je seltener das Wort, desto interessanter ist es es ist I (a j1 a j2 a jn ) = I (a j1 ) + I (a j2 ) I (a jn ), d.h. der Informationsgehalt eines Wortes ist die Summe der Informationsgehalte seiner Buchstaben 15
16 Informationsgehalt: Beispiele Informationsgehalt ist über Logarithmus zur Basis 2 definiert Informationseinheit Bit! Beispiel Münzwurf: Quelle Q produziert a 0 = Kopf, a 1 = Zahl Wahrscheinlichkeitsverteilung p = (p 0, p 1 ) = ( 1 dann ist I (a 0 ) = I (a 1 ) = log = 1 Codierung z.b. Kopf 0, Zahl 1 ( also 1 Bit) 2, 1 2 Beispiel Würfel: Quelle Q produziert Zahlen zwischen 0 und 255 (sehr großer Würfel) Wahrsch.-verteilung p = (p 0,..., p 255 ) = ( 1 256,..., 1 I (a 0 ) =... = I (a 255 ) = log = 8 Codierung mit 8 Bits ) 256 ) 16
17 Entropie Entropie Sei Q Quelle mit Alphabet {a 0,..., a N 1 } und Verteilung p = (p 0,..., p N 1 ). Dann heißt der durchschnittliche Informationsgehalt pro Symbol (in Bits pro Symbol) H(p) := p 0 I (a 0 ) p N 1 I (a N 1 ) Entropie der Quelle Q. = p 0 log 2 p 0... p N 1 log 2 p N 1 Sei das Alphabet {a 0,..., a N 1 } statisch, wir variieren p. H(p) = 0 Q produziert nur ein Symbol (z.b. a 0 ) d.h. p(a 0 ) = 1 und I (a 0 ) = 0 H(p) ist maximal p 0 =... = p N 1 = 1 N dann ist H(p) = log 2 N 17
18 Entropie: Beispiel Sei Q Quelle mit Alphabet {a 0,..., a 7 } und Verteilung p = (p 0,..., p 7 ) mit p 0 = 1 2, p 1 = 1 4, p 2 = p 3 = 1 16, p 4 = p 5 = p 6 = p 7 = 1 32 Informationsgehalt: Entropie: I (a 0 ) = 1, I (a 1 ) = 2, I (a 2 ) = I (a 3 ) = 4, I (a 4 ) = I (a 5 ) = I (a 6 ) = I (a 7 ) = 5 H(p) = =
19 Entropie-Codierung: Beispiel Symbol p(a j ) I (a j ) Codierung 1 a a a a a a a a ohne Kompression: 8 verschiedene Symbole 3 Bit Symbole benötigen Bits mit Entropie-Codierung: basierend auf Statistik der Quelle Symbole benötigen Bits Kompressionsrate CR = 29.16% 19
20 Präfixcode Präfixcode Ein Code heißt Präfixcode, falls kein Codewort Präfix eines anderen Codewortes ist. der Entropie-Code der vorigen Folie ist ein binärer Präfixcode betrachte den Code A 0, B 01, C 10 decodiere : nicht eindeutig! kann sein: AACC, ABAC oder ABBA Code von A ist Präfix von Code von B decodiere mit Entropie-Code (vorige Folie) decodiert: a 0 a 3 a 0 a 0 a 5 a 7 a 2 a 0 a 1 a 0 a 0 in der Tat: jeder eindeutig zu decodierende Code ist ein Präfixcode (McMillan, 1956) 20
21 Kraft Ungleichung Sei Q Quelle mit Alphabet {a 0,..., a N 1 } und Verteilung p = (p 0,..., p N 1 ). Idee von Shannon (1948): assoziiere zu jedem a j einen binären Code mit Länge l j, so daß wann funktioniert das? Kraft Ungleichung (1949) l j = I (a j ) für alle j = 0,..., N 1 Seien l 0,..., l N 1 vorgegebene Längen für binäre Codewörter. Dann gibt es einen binären Präfixcode mit diesen Längen genau dann, wenn N 1 j=0 2 l j 1. 21
22 Quellencodierungssatz von Shannon Quellencodierungssatz von Shannon (1948) Sei Q Quelle mit Alphabet {a 0,..., a N 1 } und Verteilung p = (p 0,..., p N 1 ). Sei C ein assoziierter binärer Präfixcode mit durchschnittlicher Länge der Codewörter l = N 1 j=0 p jl j (in Bits pro Symbol). Dann gilt: H(p) l. in anderen Worten: es gibt keine verlustfreie Kompression unter der Entropie. für Code, der nach Shannon s Idee erstellt wurde, gilt: l < H(p)
23 Programm 11 Datenkompression Einführung Grundlagen Informationstheorie Huffman Codes Lempel-Ziv Verfahren JPEG 23
24 Algorithmus: Shannon-Fano Code Sei Q Quelle mit Alphabet {a 0,..., a N 1 }. 1 Sortiere Symbole absteigend in eine Liste gemäss ihrer Häufigkeit 2 Unterteile Liste in zwei Teile, so daß die Summe der Häufigkeiten des ersten Teils möglichst nahe an der Summe der Häufigkeiten im zweiten Teil ist 3 Der erste Teil erhält 0 als Binärziffer, der zweite Teil 1 4 Wende Schritt 2 und 3 rekursiv an 5 Die sich ergebenden Folgen von Binärziffern sind der Shannon-Fano Code 24
25 Shannon-Fano Code: Beispiel Symbol Häufigkeit Code a 0 16 a 1 8 a 2 2 a 3 2 a 4 1 a 5 1 a 6 1 a
26 Präfixcode als Baum a a a 2 a a 4 a 5 a 6 a 7 Codieren: finde Pfad von Wurzel zu Blatt a j Decodieren: durchlaufe Baum von Wurzel gemäß Code 26
27 Algorithmus: Huffman-Baum Sei Q Quelle mit Alphabet {a 0,..., a N 1 } und Verteilung p = (p 0,..., p N 1 ). 1 Erzeuge eine Liste von Blättern mit je ein Blatt pro a j mit Gewicht p j für j = 0,..., N 1 2 Für die zwei Knoten mit geringstem Gewicht erzeuge Vaterknoten mit Summe der Gewichte 3 Ersetze die zwei Knoten in Liste mit Vaterknoten 4 Wiederhole Schritt 2 und 3 bis nur 1 Knoten (die Wurzel) übrig ist (weiteres Beispiel für Greedy-Algorithmus) 27
28 Huffman-Code: Beispiel a 0 a 1 a 2 a 3 a 4 a 5 a 6 a decodiere:
29 Huffmann vs. Shannon-Fano Shannon-Fano: Baum wird von Wurzel abwärts erstellt Huffman: Baum wird von Blättern aufwärts erstellt Huffman ist optimaler Code mit ganzzahliger Anzahl von Bits Beispiel: Symbol a 0 a 1 a 2 a 3 a 4 Häufigkeit p j Shannon-Fano Huffman Durchschnittliche Codelänge: Shannon-Fano: l = ( 2 ( ) + 3 (6 + 5) ) / Bits/Symbol Huffman: l = ( ( ) ) / Bits/Symbol 29
30 Huffman in der Praxis Codieren: Häufigkeiten / Wahrscheinlichkeiten müssen zuerst erzeugt werden Quelle muß zweimal gelesen werden Decodieren: Baum muß zuerst übertragen werden z.b. als Liste der Wahrscheinlichkeiten (kostet Platz!) anderer Ansatz: starte mit Gleichverteilung, adaptiere Wahrscheinlichkeiten beim Lesen von Quelle 30
31 Ausblick: Codierung Codieren mit nicht-ganzzahliger Anzahl von Bits z.b. mit geschachtelter Intervall-Unterteilung Arithmetisches Codieren bisherige Annahme: jedes Symbol ist unabhängig von den anderen Symbolen in Text ist diese Annahme meist falsch! weiteres Ausnutzen von Redundanzen durch Statistiken von Symbol-Paaren, -Tripeln etc. sog. höhere statistische Modelle 31
32 Programm 11 Datenkompression Einführung Grundlagen Informationstheorie Huffman Codes Lempel-Ziv Verfahren JPEG 32
33 Universelle Codierung mit Codebüchern bisher: Annahme Eingabequelle ohne Gedächtnis nun: beliebige Eingabequelle Idee von J. Ziv und A. Lempel 1977 und 1978: kein explizites statistisches Modell (wie bei Huffman) implizites Modell über Codebuch-Verfahren LZ77: sliding window als Codebuch populär seit 1982 dank J. Storer und T. Szymanski als LZSS heutzutage universell eingesetzt (z.b. in ZIP Archiven) LZ78: explizit generiertes Wörterbuch als Codebuch populär geworden 1984 dank T. Welch als LZW (z.b. GIF) heute nicht so populär wie LZ77, dank Patent-Problemen 33
34 LZ77 Sliding window (gleitendes Fenster) über Eingabequelle Fenster hat zwei Bestandteile: Search window (Suchfenster) Look-ahead buffer (Vorschau-Fenster) Search window (hier: 32 Zeichen) Look-ahead buffer (hier: 8 Zeichen) for (i=0; i<max; ++i)\r for (j=0; j<max; ++j)\r a[i+j*max]=0; Suche Symbole aus Look-ahead buffer in Search window wähle längsten Match aus codiere als Tripel: (offset, länge, code) 34
35 LZ77 Beispiel Search window (hier: 32 Zeichen) Look-ahead buffer (hier: 8 Zeichen) for (i=0; i<max; ++i)\r for (j=0; j<max; ++j)\r a[i+j*max]=0; codiere: (23, 8, j ) Search window (hier: 32 Zeichen) Look-ahead buffer (hier: 8 Zeichen) for (i=0; i<max; ++i)\r for (j=0; j<max; ++j)\r a[i+j*max]=0; codiere: (23, 3, a ) Search window (hier: 32 Zeichen) Look-ahead buffer (hier: 8 Zeichen) for (i=0; i<max; ++i)\r for (j=0; j<max; ++j)\r a[i+j*max]=0; codiere: (0, 0, [ ) 35
36 LZ77 Eigenschaften, LZSS Vorteile: lokal adaptives Verfahren mit guter Kompressionsrate sehr schnelle Dekompression Nachteile: Zeichenkettensuche in Search window aufwendig (aber grosses Search window sehr gut für Kompressionsrate!) falls kein Match im Search window, benötigt jedes Zeichen ein Tripel (0,0,code) statt nur code LZSS: Idee von J. Storer und T. Szymanski 1982: Zeichenkettensuche mit binären Suchbäumen Präfix-Bit 0 für (offset, länge) Paar, Präfix-Bit 1 für (code) Praxis: LZSS mit nachgeschalteter Huffman-Codierung (z.b. bei ZIP) 36
37 LZ78 und LZW Dictionary (Wörterbuch) wird sukzessive aufgebaut während Eingabe gelesen wird Dictionary wird mit Alphabet initialisiert jeder Ausgabe-Code ist ein Index im Dictionary Beispiel: Dictionary: Code String (1) (2) (3) (4) (5) (6) (7) (8) A B C AB BB BA ABA ABAC Eingabe: ABBABABAC Code: (1) (2) (2) (4) (7) (3) 37
38 LZ78 und LZW: Eigenschaften Vorteile: adaptives Verfahren mit guter Kompressionsrate schnelle Kompression und Dekompression Nachteile: Problem wenn Dictionary voll wird Reinitialisierungsstrategien grosses Dictionary erfordert grössere Codes, schwieriger Trade-off Praxis: LZW z.b. bei GIF-, TIFF-Dateien dank Patent-Problemen und etwas schlechterer Kompressionsrate als LZ77 mit Huffman nicht mehr so populär 38
39 Programm 11 Datenkompression Einführung Grundlagen Informationstheorie Huffman Codes Lempel-Ziv Verfahren JPEG 39
40 JPEG Schema Input Transformation Quantisierung Codierung Output 8x8 Blöcke MDCT Verlustbehaftet! RLE, Huffman Hauptidee: Transformation der Daten in Frequenzbereich Wegwerfen der wenig wichtigeren Frequenzen JPEG Kompression ist verlustbehaftet! das dekomprimierte Bild ist nicht identisch zum Original-Bild Information geht verloren Vorbereitung: Bild wird in 8x8 Blöcke zerstückelt Anwendung des Schemas auf alle 8x8 Blöcke 40
41 Discrete Cosinus Transformation Sei x = (x 0,..., x n 1 ) R n Signal. Die Diskrete Cosinus Transformation ist definiert als für k = 0,..., n 1. n 1 ( ) DCT (x) k = 2 x j cos ( πk 2n (2j + 1)) j=0 DCT entspricht dem phasen-verschobenen Realteil der DFT der doppelten Länge für JPEG wird die zwei-dimensionale Variante der DCT verwendet 41
42 DCT: Beispiel 1 Original-Bild (8x8 Block) mit 8bit Grauwerten:
43 DCT: Beispiel 2 Shift der Zahlen von auf : zwei-dimensionale DCT:
44 Quantisierung Quantisierung: verlustbehafteter Schritt reduziere Koeffizienten der DCT durch fest vorgegebenes Schema ( ) DCT (i, j) quantisierter Wert(i, j) = round Q(i, j) für alle Pixel (i, j). Q ist fest vorgegeben für verschiedene Qualitätsstufen 44
45 Quantisierung: Beispiel Matrix Q: Quantisierte Werte von DCT (aus vorigem Beispiel): diese quantisierten Werte werden nun codiert! 45
46 Codierung 1. Speichere quantisierte Werte in Zig-Zag Schema 2. Run-Length Encoding (RLE) der Nullen Nullen kommen in Zig-Zag Schema oft mehrfach hintereinander speichere stattdessen nur Anzahl der Nullen 3. Huffman-Codierung spezielle Codes für RLE der Nullen spezieller Code für vorzeitigen Abbruch (EOB), falls nur noch Nullen folgen 46
47 Codierung: Beispiel Quantisierte Werte von DCT (aus vorigem Beispiel): Zig-Zag und RLE/EOB ergibt: EOB 47
48 JPEG: Details Handling von farbigen Bildern betrachte z.b. einzelne Kanäle von RGB Bild oder: Wechsel des Farbraumes YCbCr (Helligkeit, Chrominanz) sehr hohe Effizienz Block-Größe ist fix 8x8 MDCT und Quantisierung können sehr effizient als Matrix Operationen dargestellt werden die Huffman-Bäume sind auch vorgeneriert 48
49 JPEG Beispiel PNG: 23kB JPEG (50%): 3.5kB JPEG (25%): 2.3kB JPEG (worst): 2.1kB 49
50 JPEG Beispiel 140x100 Pixel, deutlich sichtbare 8x8 Blöcke 50
51 JPEG Beispiel PNG: 5.2MB JPEG (25%): 269kB 51
52 Datenkompression in der Praxis (Wdh.) Speicherung von Bildern GIF Format (LZW) PNG Format (LZ77 mit Huffmann-Codierung) JPEG Format (DCT mit Quantisierung und Huffmann-Codierung) JPEG2000 Format (DWT mit Quantisierung und arithmetischer Codierung) Speicherung von Audio MP3 (MDCT, Psycho-akustisches Modell und Huffmann-Codierung) AAC / MPEG-4 (MP3 mit Verbesserungen) Speicherung von Video MPEG-2 (DCT mit Quantisierung und Huffmann-Codierung) H.264 / MPEG-4 (MPEG-2 mit Verbesserungen und arithmetischer Codierung) 52
53 Zusammenfassung 11 Datenkompression Einführung Grundlagen Informationstheorie Huffman Codes Lempel-Ziv Verfahren JPEG 53
Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen
Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 202/3 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen
MehrAlgorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,
MehrAlgorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,
MehrAlgorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 206 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Organisatorisches Weiterer Ablauf: heute und Donnerstag,
MehrKompressionsverfahren für Texte
Kompressionsverfahren für Texte Prof. Dr. S. Albers Prof. Dr. Th. Ottmann 1 Zeichenkettenverarbeitung Suche in Texten, Textindizes Mustererkennung (Pattern-Matching) Verschlüsseln Komprimiern Analysieren
Mehr16 - Kompressionsverfahren für Texte
16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,
MehrKompression. Tim Kilian
Kompression Tim Kilian Seminar Effiziente Programmierung Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg
MehrKapitel 7: Optimalcodierung und Huffman Coding
Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge
MehrEinführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
MehrSeminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung
Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft
MehrDatenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut
Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,
MehrKompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2
Kompression Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Folie 2 1 Inhalte Redundanz Channel Encoding Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression
MehrImage Compression. Vorlesung FH-Hagenberg DSB
Image Compression Vorlesung FH-Hagenberg DSB Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Inhalte Redundanz Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression
MehrImage Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg
Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Channel Encoding Error-Free Compression Hufmann Coding Runlength
MehrFarb-Fernsehsignal (Composite FBAS)
Farb-Fernsehsignal (Composite FBAS) Quelle: Ze-Nian Li : Script Multimedia Systems, Simon Fraser University, Canada VIDEO- Digitalisierung Gemeinsame Kodierung FBAS Farbbild- Austast- und Synchronsignal
MehrEinleitung. Kapitel 1
Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch
MehrKompressionsverfahren
Kompressionsverfahren Quelle: Steinmetz, Ralf: Multimedia-Technologie: Einführung und Grundlagen, Springer, Verlag Verlustlose Kompressionsalgorithmen RLC Huffman Adaptive Huffman Kodierung Arithmetische
MehrImage Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg
Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Error-Free Compression Hufmann Coding Runlength Coding Lossy Compression
MehrKapitel 2 Quellencodierung
Kapitel 2 Quellencodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv
MehrBeispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
MehrPraktikum BKSPP: Blatt 2
Praktikum BKSPP: Blatt 2 PD Dr. David Sabel WS 2014/15 Zeichenbasierte Komprimierung Stringersatzverfahren Codebäume Huffman-Kodierung Zeichenbasierte Komprimierung mit Codebäumen Idee: Kodiere jedes Zeichen
MehrJPEG Kompression technische Realisierung
Experimentalphysik V 20. Januar 2005 Schema der JPEG Kompression Farbraumkonvertierung RGB YCbCr Subsampling der Farbkomponenten Cb, Cr Zerlegung in Blöcke 8 8 2D Kosinustransformation (DCT) Quantisierung
Mehr2.7 Der Shannon-Fano-Elias Code
2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.
MehrDigitale Medien. Übung
Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs Wichtige Voraussetzung
MehrTextkompression. Komprimierung von Daten. Runlength Komprimierung (2) Runlength Komprimierung (1) Herkömmliche Kodierung. Runlength Komprimierung (3)
Komprimierung von Daten Textkompression Effiziente Algorithmen VU 2.0 WS 2008/09 Bin Hu Ziel: Platz und Zeit sparen Kompression durch - Effiziente Kodierung - Verminderung der Redundanzen (verlustfrei)
MehrBasisinformationstechnologie II
Basisinformationstechnologie II Sommersemester 2015 13. Mai 2015 Algorithmen der Bildverarbeitung I: Kompression Universität zu Köln. Historisch-Kulturwissenschaftliche Informationsverarbeitung Dr. Jan
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München, Medieninformatik,
MehrInformatik II, SS 2018
Informatik II - SS 28 (Algorithmen & Datenstrukturen) Vorlesung 22 (6.7.28) Greedy Algorithmen II (Datenkompression) Algorithmen und Komplexität Datenkompression Reduziert Größen von Files Viele Verfahren
MehrInformatik II, SS 2016
Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 22 (20.7.2016) Greedy Algorithmen - Datenkompression Algorithmen und Komplexität Greedy Algorithmen Greedy Algorithmen sind eine Algorithmenmethode,
MehrRLE Arithm. Shannon Fano Huffman Grenzen. Komprimierung. Ingo Blechschmidt, Michael Hartmann. 6. Dezember 2006
RLE Arithm. Shannon Fano Huffman Grenzen Ingo Blechschmidt, Michael Hartmann 6. Dezember 2006 RLE Arithm. Shannon Fano Huffman Grenzen Inhalt 1 Lauflängenkodierung 2 Arithmetische Kodierung 3 Shannon Fano-Kodierung
MehrKompression.pdf h. völz /17
Kompression.pdf h. völz 23.5.02 1/17 Lauflängen-Codierung CCCCCCAABBBBAAAAEE _ 6C2A4B4A2E Pixel- und Zähl-Byte unterscheiden Pointer-Verfahren ABRABRIKADABRA Ab 4. Buchstaben ABR _ Verweis . total
MehrMultimediatechnik / Video
Multimediatechnik / Video Codierung, Datenreduktion Quantisierung, Lauflängencodierung DCT, JPEG http://www.nanocosmos.de/lietz/mtv Inhalt Codierung digitaler Signale Datenreduktion (Kompression) Verlustfrei
MehrMultimediatechnik / Video
Multimediatechnik / Video Video-Kompression Zusammenfassung http://www.nanocosmos.de/lietz/mtv 2009 1 Motivation: Video-Kompression Unkomprimierte Datenmengen sind zu groß! TV: 20 MB/s = 72 GB/h (720x576x2x25)
MehrKap.4 JPEG: Bildkompression. Ziel: Gegeben sind Daten y R N. Bestimme C R N N mit C C T = I, so dass x = C y dünbesetzt ist.
Kap.4 JPEG: Bildkompression Ziel: Gegeben sind Daten y R N. Bestimme C R N N mit C C T = I, so dass x = C y dünbesetzt ist. Originalbild y (30Kbt) Komprimiertes Bild z y(7kbt) JPEG (Joint Photographic
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrDigitale Medien. Übung
Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm http://www.die-informatiker.net Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs
Mehr3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238
3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher
MehrEffiziente Algorithmen und Komplexitätstheorie
Fakultät für Informatik Lehrstuhl 2 Vorlesung Effiziente Algorithmen und Komplexitätstheorie Sommersemester 2008 Ingo Wegener; Vertretung: Carsten Witt 7. Juli 2008 Vorlesung am 14.07. (nächste Woche):
MehrDatenkompression. Theorie
Datenkompression Theorie Einleitung Übersicht Wie lassen sich beliebige Daten verdichtet (komprimiert) darstellen? verlustfreie Kompression: Programme Texte verlustbehaftete Kompression: Audio Video Kompressionsfaktor:
MehrPanorama der Mathematik und Informatik
Panorama der Mathematik und Informatik 20: Algorithmen III: png und Co Dirk Frettlöh Technische Fakultät / Richtig Einsteigen 26.6.2014 Kompressionsalgorithmen: Idee: Speichere 2 MB Daten in einer 1 MB
Mehr21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3
581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv
MehrQuellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1
Quellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1 Referenzen [1] Proakis, Salehi, Grundlagen der Kommunikationstechnik, Pearson, 2004. [2] D. Salomon, Data Compression, Springer, 2004. [3] D.
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 5. Vorlesung Uwe Quasthoff Abteilung Automatische Sprachverarbeitung Institut für Informatik Universität Leipzig 9. Mai 2012 1 / 35 Datenkompression Bisheriges Hauptziel
MehrSeminar. Codierungstheorie
Seminar Codierungstheorie Lempel-Ziv-Verfahren Informatik Sommersemester 25 Tim Schweisgut, Juni 25 Inhalt INHALT... 2 WÖRTERBUCHMETHODEN... 3 Statische Wörterbuchmethoden... 3 Beispiel:... 3 Bemerkung:...
MehrDatenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg
Vortrag am 25. Januar 200 Werner von Siemens Gymnasium Magdeburg Zeitansatz: 5h (inklusive Programmieraufgaben) Datenkompression Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg
MehrBilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB
Bilddatenformate BMP Bezeichnung: Microsoft Windows Bitmap, BMP, DIB Format: Raster Farben: 1 Bit (s/w), 4 Bit (16 Farben), 8 Bit (256 Farben), 24 Bit (16,7 Mio. Farben) Kompression: Keine (meist) oder
MehrEffiziente Algorithmen und Komplexitätstheorie
1 Effiziente Algorithmen und Komplexitätstheorie Vorlesung Thomas Jansen 22.06.2006 2 Ein anderer Ansatz Beobachtung in Dokumenten eines Typs wiederkehrende Muster Idee Muster in Wörterbuch speichern,
Mehr3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.
3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle
MehrTheoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK
Theoretische Grundlagen der Informatik 3..29 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Thema dieses Kapitels Informationstheorie
MehrArithmetisches Codieren
Arithmetisches Codieren 1. Motivation: Als Alternative zum arithmetischen Codieren bot sich damals als effizientester Algorithmus das Huffmann-Coding an. Dieses jedoch hatte einen entscheidenden Nachteil:
MehrInhaltsverzeichnis. 1 Einführung 1
Inhaltsverzeichnis Inhaltsverzeichnis IX 1 Einführung 1 2 Grundlagen der Datenkompression 5 2.1 Informationsgehalt und Entropie....................... 5 2.2 Kriterien zur Kompressionsbewertung....................
MehrDigitale Medien. Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid
Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid Wintersemester 2016/17 Häufige Fehler beim Blatt 2 1 c) -> nicht erfüllte Fano-Bedingung bei dem Code 2 a) -> falscher
Mehr21. Dynamic Programming III
Approximation 21. Dynamic Programming III FPTAS [Ottman/Widmayer, Kap. 7.2, 7.3, Cormen et al, Kap. 15,35.5] Sei ein ε (, 1) gegeben. Sei I eine bestmögliche Auswahl. Suchen eine gültige Auswahl I mit
MehrGierige Algorithmen Interval Scheduling
Gierige Algorithmen Interval Scheduling IntervalScheduling(s,f). n length[s] 2. A {} 3. j 4. for i 2 to n do 5. if s[i] f[j] then 6. A A {i} 7. j i 8. return A Gierige Algorithmen Interval Scheduling Beweisidee:
Mehr2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
MehrHuffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:
Fachbereich Medieninformatik Hochschule Harz Huffman-Kodierung Referat Henner Wöhler 11459 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung...I 1. Entropiekodierung...1 1.1 Morse Code...2 1.2 Shannon-Fano-Kodierung...3
MehrReferat zum Thema Huffman-Codes
Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung
MehrDigitalisierung. analoges Signal PAM. Quantisierung
Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste
MehrBeispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt):
Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt): Was versteht man unter PCM, DPCM, DM, ADPCM? Skizze! Was versteht man unter PCM
MehrEigenschaften von Kompressionsverfahren
6 Textkompression Eigenschaften von Kompressionsverfahren Das Ziel der Datenkompression ist es, eine gegebene Information (Datenquelle) auf eine kompaktere Weise zu repräsentieren. Dies geschieht, indem
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität Gierige Algorithmen: Berechne Lösung schrittweise In jedem Schritt mache lokal optimale Wahl Daumenregel: Wenn optimale Lösung
MehrGrafikformate. Grafikformate. Digitale Bildverarbeitung Bildkompression
Digitale Bildverarbeitung Bildkompression Einleitung Datenmenge für ein unkomprimiertes Bild Verwendungszweck des Bildes Bild soll weiterverarbeitet werden Bild soll archiviert werden Bild soll per E-Mail
MehrPlug&Play Kompression mit dem Framework. Dominik Köppl Vortragsreihe der Regionalgruppe der Gesellschaft für Informatik aus Dortmund 4.
Plug&Play Kompression mit dem Framework Dominik Köppl Vortragsreihe der Regionalgruppe der Gesellschaft für Informatik aus Dortmund 4. Juni 2018 2 C++14 Open-Source (Apache-License) Github 3 Verlustfreie
MehrZiv-Lempel-Kompression von André Lichei
Ziv-Lempel-Kompression von André Lichei Einführung: Die wichtigsten Ansprüche,die an einen Komprimierungs-Algorithmus gestellt werden, sind: - eine hohe Komprimierungsrate - für alle Typen von Daten (
MehrMathematische Methoden der graphischen Datenverarbeitung
Teil I: Aufgaben der Bildverarbeitung: Komprimierung (compression); Mathematische Methoden der graphischen Datenverarbeitung PD Dr.(USA) Maria Charina Originalbild, 30Kbt Komprimiertes Bild, 7Kbt Teil
MehrDetaillierte Gliederung Algorithmen und Datenstrukturen (für ET/IT)
Detaillierte Gliederung Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 2015 Dr. Tobias Lasser Stand: 7. Juli 2015 1 Einführung Wo kommen Algorithmen und Datenstrukturen vor? Definition und
MehrBildkompression InTh, 2005, JPEG, Hak, Rur, 1
Bildkompression InTh, 25, JPEG, Hak, Rur, 1 Referenzen [1] D Salomon, Data Compression, Springer, 24 [2] Prof Dr A Steffen, Kurs SU, ZHW, 1999-24 [3] G Wallace, The JPEG Still Picture Compression Standard,
Mehr1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes
1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon
MehrÜbung 1: Quellencodierung
ZHAW, NTM2, Rumc, /7 Übung : Quellencodierung Aufgabe : Huffman-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten
MehrKapitel 2: Informationstheorie. 3. Quellencodierung
ZHAW, NTM2, Rumc, 2.3-1 Kapitel 2: Informationstheorie 3. Quellencodierung Inhaltsverzeichnis 1. EINLEITUNG... 1 2. QUELLENCODIERUNGSTHEOREM... 2 3. HUFFMAN-QUELLENCODIERUNG... 3 4. DATENKOMPRESSION MIT
MehrKodierungsalgorithmen
Kodierungsalgorithmen Komprimierung Verschlüsselung Komprimierung Zielsetzung: Reduktion der Speicherkapazität Schnellere Übertragung Prinzipien: Wiederholungen in den Eingabedaten kompakter speichern
MehrStandbildcodierung. Dipl.-Ing. Guido Heising. Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K.
Standbildcodierung Dipl.-Ing. Guido Heising Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K. Barthel 1 Gliederung der Vorlesung Einführung in die Bildcodierung - verlustlose/verlustbehaftete
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil V Peter F. Stadler & Konstantin Klemm Bioinformatics Group, Dept. of Computer Science & Interdisciplinary Center for Bioinformatics, University of Leipzig 05.
MehrÜbung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider
Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider Wintersemester 2016/17 Bilder 20 x 14 Pixel (= Bildpunkte) 16 Bit Farben (= 65.536 Farben) 560
MehrPanorama der Mathematik und Informatik
Panorama der Mathematik und Informatik 18: Algorithmen III: png und Co Dirk Frettlöh Technische Fakultät / Richtig Einsteigen 11.6.2015 Kompressionsalgorithmen: Idee: Speichere 2 MB Daten in einer 1 MB
MehrVorlesung 12. Quellencodieren und Entropie
Vorlesung 12 Quellencodieren und Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. Wir wollen die Buchstaben a, b,... durch (möglichst kurze) 01-Folgen k(a),
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Weiterführende Literatur zum Thema Informationstheorie:
Mehr'LJLWDOH%LOGHUXQG'DWHLIRUPDWH
'LJLWDOH%LOGHUXQG'DWHLIRUPDWH Seminar: Simulation und Bildanalyse mit Java 07.07.2003 Seite 1 von 25 hehuvlfkw 1. Digitalisierung 2. Bilddateiformate 3. verlustfreie Datenkompression 4. JPEG Kompression
MehrMolekulare Bioinformatik
Molekulare Bioinformatik Wintersemester 203/204 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 07.0.204 Molekulare Bioinformatik - Vorlesung 0 Wiederhohlung Die Entropie
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien
MehrInformatik II, SS 2018
Informatik II - SS 2018 (Algorithmen & Datenstrukturen) Vorlesung 21 (11.7.2018) String Matching (Textsuche) II Greedy Algorithmen I Algorithmen und Komplexität Textsuche / String Matching Gegeben: Zwei
MehrRedundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1
Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)
MehrAufgabe: Platz-effiziente Kompression von Textdaten
7.3 Huffman-Bäume Anwendung von Binärbäumen Aufgabe: Platz-effiziente Kompression von Textdaten Standardcodierungen von Textdaten ISO-8859-1: 8 Bit pro Zeichen UTF-16: 16 Bit pro Zeichen Codierungen mit
MehrHauptdiplomklausur Informatik Februar 2006: Multimedia Systems
Universität Mannheim Fakultät für Mathematik und Informatik Lehrstuhl für Praktische Informatik IV Prof. Dr.-Ing. W. Effelsberg Hauptdiplomklausur Informatik Februar 2006: Multimedia Systems Name: Matrikel-Nr.:
MehrÜbung zur Vorlesung. Digitale Medien. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider
Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider Wintersemester 2015/16 Wiederholung: LZW-Komprimierung Idee: Nicht einzelne Zeichen werden günstig
MehrHallo Welt für Fortgeschrittene
Hallo Welt für Fortgeschrittene Gierige Algorithmen Michael Baer Informatik 2 Programmiersysteme Martensstraße 3 91058 Erlangen Gliederung Einführung Definition Verwendung und Grenzen Abgrenzung zur DP
MehrSeminar über Algorithmen, SS2004. Textkompression. von Christian Grümme und Robert Hartmann
Seminar über Algorithmen, SS2004 Textkompression von Christian Grümme und Robert Hartmann 1. Einleitung Textkompression wird zur Verringerung des Speicherbedarfs und der Übertragungskapazität von allgemeinen
Mehr(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
MehrTextkomprimierung Multimedia-Seminar Leiter: Prof. Dr. Vornberger Referent: Stefan Fabrewitz Fr. 7.. Inhaltsverzeichnis Inhaltsverzeichnis Einleitung 5. Historie.............................. 5 Grundlagen
MehrPraktikum BKSPP. Aufgabenblatt Nr. 2
PD Dr. David Sabel Institut für Informatik Fachbereich Informatik und Mathematik Johann Wolfgang Goethe-Universität Frankfurt am Main Praktikum KSPP Wintersemester 24/5 Aufgabenblatt Nr. 2 Abgabe: Dienstag,
MehrÜbersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Übersicht Greedy Algorithmen Einführung Aktivitäten-Auswahl-Problem Huffman Codierung Matthias Zwicker Universität Bern Frühling 2009 2 Greedy Algorithmen Entwurfsstrategie
MehrLZSS und Deflate. Lars Kunert. April 18, Seminar Kompressionsalgorithmen RWTH Aachen
LZSS und Deflate Lars Kunert Seminar Kompressionsalgorithmen RWTH Aachen April 18, 2012 Übersicht 1 LZ - Storer, Szymanski (LZSS, 1982) 2 Deflate (1996) 3 Anwendung LZSS - 1 Verbesserungen gegenüber LZ77:
MehrEffiziente Algorithmen und Komplexitätstheorie
1 Effiziente lgorithmen und Komplexitätstheorie Vorlesung Thomas Jansen 29.06.2006 2 Burrows-Wheeler-Kompression: Verbesserungen dreischrittiges Kompressionsverfahren Burrows- Wheeler- Transformation Globale
MehrDatenkompression: Kontext- und Wörterbuchtechniken. H. Fernau
Datenkompression: Kontext- und Wörterbuchtechniken H. Fernau email: fernau@uni-trier.de SoSe 2011 Universität Trier 1 Die bedingte Entropie Seien A und B zwei Ereignisse und P (A B) die bedingte W-keit,
MehrTextkomprimierung. Stringologie. Codes. Textkomprimierung. Alle Komprimierung beruht auf Wiederholungen im Text. Textkomprimierung
Stringologie Peter Leupold Universität Leipzig Vorlesung SS 2014 Alle Komprimierung beruht auf Wiederholungen im Text Die Komprimierung muss rückgängig gemacht werden können Je kleiner das Alphabet, desto
MehrKompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate
Kompression und Datenformate Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Digitale Speicherung von Bildern Digitalisierung Informationsgehalt Speicherbedarf Kompression von Multimediadaten
Mehr