Kapitel 2: Informationstheorie. 3. Quellencodierung

Größe: px
Ab Seite anzeigen:

Download "Kapitel 2: Informationstheorie. 3. Quellencodierung"

Transkript

1 ZHAW, NTM2, Rumc, Kapitel 2: Informationstheorie 3. Quellencodierung Inhaltsverzeichnis 1. EINLEITUNG QUELLENCODIERUNGSTHEOREM HUFFMAN-QUELLENCODIERUNG DATENKOMPRESSION MIT WÖRTERBUCH VERLUSTBEHAFTETE QUELLENCODIERUNG... 7 Literatur [1] Proakis, Salehi, Grundlagen der Kommunikationstechnik, Pearson, [2] D. Salomon, Data Compression, Springer, [3] Hufschmid M., Information und Kommunikation, Grundlagen und Verfahren der Informationsübertragung, Teubner, [4] D. Pan, A Tutorial on MPEG/Audio Compression, Einleitung Die Hauptaufgabe der Quellencodierung ist die Reduktion der Redundanz oder der Irrelevanz am Ausgang der Quelle, damit weniger Daten übertragen oder abgespeichert werden müssen (Datenkompression). Man unterscheidet zwei grundsätzlich verschiedene Quellencodierungsarten. Es gibt die verlustlosen Quellencodierungsverfahren (Redundanzreduktion), mit denen der Empfänger die Originaldaten wieder perfekt herstellen kann. Sie werden z.b. bei der zip-datenkomprimierung verwendet. Für die Nachrichtenübertragung werden die verlustbehafteten Quellencodierungsverfahren wie z.b. MP3, JPEG oder MPEG immer wichtiger. Bei diesen Quellencodierungsverfahren werden nur noch die für das Auge oder das Ohr des Empfängers relevanten Informationen übertragen (Irrelevanzreduktion). Die Kompressionsrate und die Wiedergabequalität sind oft wählbar. Die Datenkompression hat eine hohe wirtschaftliche Bedeutung. Wenn weniger Daten übertragen werden müssen, kommt der Benutzer im Allgemeinen schneller in den Besitz einer Nachricht und muss weniger Übertragungszeit bzw. -volumen bezahlen. Umgekehrt kann ein Betreiber mit der gleichen Infrastruktur mehr Übertragungskapazität anbieten und damit mehr Einnahmen generieren.

2 ZHAW, NTM2, Rumc, Quellencodierungstheorem Das Quellencodierungstheorem von Shannon ist ein fundamentaler Satz in der Informationstheorie und beantwortet die Frage, wie stark Daten komprimiert werden können, ohne dass Information verloren geht. Zur Vorbereitung betrachten wir die Informationsquelle in Abbildung 1, die zu diskreten Zeitpunkten t = nt die Symbole X[n] generiert, wobei T die Symbolperiode bezeichnet. diskrete Quelle Quellensymbole X[0], X[1], X[2],... H bit / Symbol Quellen- Encoder Codebits Y[0], Y[1], Y[2],... Rate R [Codebits / Quellensymbol] Abbildung 1: Diskrete Quelle mit H Bit pro Quellensymbol und Encoder mit Rate R. Wir nehmen an, dass die Quelle stationär ist, d.h. dass sich die statistischen Eigenschaften der Quelle zeitlich nicht ändern. Insbesondere weisen die Symbole X[n] für alle diskreten Zeitpunkte t=nt die gleiche Wahrscheinlichkeitsverteilung P X (x) auf. Weiter nehmen wir an, dass jedes Symbol H bit Information trägt. Wenn es sich um eine Quelle ohne Gedächtnis, eine sogenannte DMS, handelt, entspricht H der Entropie H(X) des Symbols X, d.h. Quelle ohne Gedächtnis: H = H(X) [bit / Symbol]. (1) Wenn die Quelle Gedächtnis hat, kann man zeigen, dass H über die Verbund-Entropie wie folgt bestimmt werden kann (ohne Beweis) Quelle mit Gedächtnis: H = lim n-> H(X[0],...,X[n-1]) / n [bit / Symbol]. (2) Das Mass für die Effizienz des Quellenencoders ist dessen Rate R, die mit der durchschnittlichen Anzahl Codebits pro Quellensymbol gemessen wird. Datenkompression liegt dann vor, wenn die Rate R < log 2 (M) Bits pro M-wertigem Quellensymbol ist. Shannon s Quellencodierungstheorem gibt nun einen unteren Grenzwert für R: Eine Quelle mit H bit / Symbol kann mit einer Rate R [Codebits / Quellensymbol] verlustlos codiert werden, solange R H. Umgekehrt, wenn R < H, kann die Quelle auf keinen Fall verlustlos codiert werden. Das Theorem gibt Bedingungen für die Existenz von Quellencodes an. Es liefert aber leider keine Algorithmen. Eine gute informelle Beschreibung des Theorems mit Hilfe von Shannon s typischen Sequenzen finden Sie in [1].

3 ZHAW, NTM2, Rumc, Huffman-Quellencodierung Bei der Huffman-Codierung werden Blöcke von n Quellensymbolen u = [x 1,...,x n ] auf (binäre) Codewörter y variabler Länge abgebildet, siehe Abbildung 2. Die Idee dieses Verfahrens besteht darin, häufig vorkommende Blöcke mit kurzen Codewörtern zu codieren. diskrete Quelle u = [x 1,..., x n ] fixe Länge (n Quellensymbole) Quellen- Encoder y variable Länge Abbildung 2: Huffman-Quellencodierung. Das Problem mit Codewörtern variabler Länge ist die Synchronisation. In der Regel werden präfixfreie Codes bevorzugt, die keine Codewörter besitzen, die ein Präfix (Vorsilbe) eines anderen Codeworts sind. Präfixfreie Codes sind eindeutig und sofort (nach Erhalt des letzten Codebits) decodierbar. Beispiel Der Code Y = { [0], [10], [110], [1110], [1111] } ist präfixfrei. Der Dekoder kann das Ende eines Codeworts sofort detektieren, wenn er eine 0 empfängt oder wenn er vier 1 in Folge erhalten hat. Im Jahre 1952 hat D. Huffman den folgenden Codierungs-Algorithmus vorgeschlagen: 1. Bezeichne die M n Endknoten eines Baums mit den Eingangswerten u m und weise ihnen die Wahrscheinlichkeiten P(u m ), m=1,...,m n, zu. 2. Verbinde die zwei Knoten mit den kleinsten Wahrscheinlichkeiten. Deaktiviere diese Knoten, aktiviere den neu entstandenen Knoten und weise ihm die Summe der beiden Wahrscheinlichkeiten zu. 3. Falls noch ein aktiver Knoten existiert, gehe zu Ordne jedem Eingangswert bzw. Endknoten u m ein binäres Codewort y m zu, indem von der Wurzel aus bei jeder Verzweigung nach oben eine 1 und nach unten eine 0 eingetragen wird (oder umgekehrt). Beispiel Eine gedächtnisfreie Quelle mit den 5 verschiedenen Symbolen X = {A, B, C, D, E} und den Wahrscheinlichkeiten P X (A) = 1/2 und P X (B) = P X (C) = P X (D) = P X (E) = 1/8 soll symbolweise komprimiert werden, d.h. U=X. In Abbildung 3 sind der Huffman-Code und der zugehörige Baum dargestellt. Das Symbol A kommt am häufigsten vor und wird deshalb mit dem kürzesten Codewort 1 codiert. Die anderen vier Symbole werden mit Codewörtern mit je 3 Bits codiert. Der Code ist präfixfrei.

4 ZHAW, NTM2, Rumc, Symbol Wahr. Code A 1/2 1 Wurzel /2 1/4 1/4 B 1/8 011 C 1/8 010 D 1/8 001 E 1/8 000 Abbildung 3: Huffman-Code und zugehöriger Baum für eine 5-wertige Quelle. Das Mass für die Effizienz des Quellencodes ist die Rate R = E{L} / n [Codebits / Quellensymbol], (3) wobei die durchschnittliche Codewortlänge E{L} wie folgt bestimmt werden kann n M E{ L} P( u ) L( ). (4) m 1 m y m L(y m ) bezeichnet die Länge des binären Codeworts y m, das dem Eingangswert u m, m=1,...,m n, zugeordnet ist. E{.} ist der Erwartungswert-Operator. Huffman-Codes sind optimal und weisen die minimale mittlere Codewortlänge unter allen präfixfreien Codes auf. Man kann zeigen, dass für die Rate R eines Huffman-Codes gilt: H R < H + 1/n. (5) Mit einem Huffman-Code kann man also beliebig nahe an Shannon s Grenzwert für die minimale Rate R bei der Quellencodierung kommen, oder den unteren Grenzwert für R sogar ganz erreichen. Beispiel (Fortsetzung) Jedes Symbol der gedächtnisfreien Quelle im letzten Beispiel oben trägt eine Information von H = H(X) = (1/2) log 2 (2) + (4/8) log 2 (8) =2 bit pro Quellensymbol. Die mittlere Codewort-Länge des Huffman-Codes beträgt E{L} = (1/2) (1/8) 3 = 2 Codebits. Der Encoder besitzt also die Rate R = 2 Codebits pro Quellensymbol und ist gemäss (5) minimal. Es macht in diesem Fall keinen Sinn, mehr als 1 Quellensymbol zu komprimieren. Zum Vergleich: Wenn die 5 Quellensymbole ohne Quellencodierung übertragen werden, müssten 3 Bit pro Quellensymbol aufgewendet werden. Betrachten wir noch die Verteilung der Nullen und Einer im komprimierten Datenstrom. Ein Codewort besteht im Durchschnitt aus 2 Codebits, wovon (1/2) 1+(1/8) ( ) = 1 Codebit eine Eins ist. Im Datenstrom sind Einer und Nullen gleichverteilt. Man könnte auch zeigen, dass die Codebits statistisch unabhängig sind. Ein Codebit trägt in diesem Beispiel also die maximale Information von 1 bit und weist keine Redundanz mehr auf. Die Ausgangsfolge des Encoders kann deshalb nicht mehr weiter komprimiert werden.

5 ZHAW, NTM2, Rumc, Die letzte Aussage im Beispiel oben ist typisch für eine gute Quellencodierung. In einem komprimierten Datenstrom kommen Nullen und Einer praktisch gleich häufig vor und die Redundanz ist im Allgemeinen fast Null. Gleichung (5) und das Quellencodierungstheorem zeigen einmal mehr, dass die Definition der Entropie sinnvoll ist. Der Huffman-Algorithmus kann auch für die nichtbinäre Quellencodierung angepasst werden. Mehr Informationen zu Codebäumen mit Wahrscheinlichkeiten findet man in [3]. Die Huffman-Codierung weist die folgenden Nachteile auf - Die Performance hängt stark von der Quellenstatistik ab. - Die Quellenstatistik muss im Voraus bekannt sein (ev. zuerst messen ). - Die Komplexität der Huffman-Codierung steigt exponentiell mit der Eingangsblocklänge n an, weil der zugehörige Baum M n Endknoten besitzt, wenn ein einzelnes Quellensymbol X M-wertig ist. - Die variable Codewortlänge ist in der Praxis manchmal unerwünscht. Codewortlängen, die ein Vielfaches der Wortlänge eines Computers entsprechen, sind oft von Vorteil. 4. Datenkompression mit Wörterbuch Wörterbuch-basierende, verlustlose Kompressionsmethoden weisen viele Nachteile nicht mehr auf, die die statistischen Kompressionsmethoden wie z.b. die Huffman-Codierung haben, und sind trotzdem Entropie-optimal bzw. weisen (fast) minimale Raten R auf. Die Idee dieser Verfahren besteht darin, die Daten der Quelle in unterschiedlich lange Wörter aufzuteilen und nur noch die Referenzen von fixer Länge, sogenannte Token, zu übertragen, die angeben, wo die einzelnen Wörter in einem Wörterbuch verzeichnet sind. Dabei wird meistens das Wörterbuch selbst während dem Codierungsprozess dynamisch aufgebaut. J. Ziv und A. Lempel entwickelten 1977 und 1978 die wörterbuch-basierenden Codierungsmethoden LZ77 und LZ78. Heute werden diese Methoden in einer grossen Variantenvielfalt breit eingesetzt (http, pdf, zip, gif, tiff,...), vor allen die von T. Welch 1984 entwickelte LZW- Variante. Im Folgenden betrachten wir nur den LZ77-Algorithmus. Die anderen wörterbuch-basierenden Kompressionsverfahren können z.b. in [2] nachgeschlagen werden. Beim LZ77-Verfahren gelangt ein Schiebefenster zur Anwendung, siehe Abildung 4. Sliding Window Output Token FISCHERS FRITZ FISCHT FRISCHE F Such-Buffer S = Wörterbuch (schon verarbeitet) Vorschau- Buffer L Input Symbole S ist typ. einige KBytes gross L ist typ. einige 10 Bytes gross Abbildung 4: Schiebefenster für LZ77-Quellencodierung.

6 ZHAW, NTM2, Rumc, Die Token-Bildung soll an einem Beispiel illustriert werden: 1. Erstes Symbol des Vorschau-Buffers im Such-Buffer suchen, von rechts nach links. Im Beispiel oben ist es der Leerschlag _ vor dem Wort FRISCHE. Nach sieben Positionen (offset = 7) befindet sich zwar ein Leerschlag im Such-Buffer, nämlich zwischen den Wörtern FRITZ und FISCHT. Die Übereinstimmung ist aber länger beim Leerschlag mit dem offset = 13; danach kommt (nun von links nach rechts gesehen) _FRI, was bedeutet: 4 Zeichen in Übereinstimmung. Beim offset =7 wären es nur deren 2 gewesen, nämlich _F. 2. Token der längsten letzten Übereinstimmung ausgeben. Token = (Offset, Länge, nächstes Symbol). Die Tokenlänge beträgt log 2 (S) +log 2 (L-1) + 8 Bits, typisch = 24 Bit. In unserem Fall lautet der Token = (13,4, S ); Der nächste Buchstabe ist das S im Wort FRISCHE, denn er folgt nach den 4 Zeichen _FRI. Falls bei der Suche über die vereinbarte Suchbufferlänge keine Übereinstimmung gefunden wird, lautet jeweils der auszugebende Token = (0,0, nächstes Symbol ). 3. Schiebefenster um Länge+1 nach rechts verschieben. Die Länge war 4, also wird das Fenster um 5 Positionen nach rechts verschoben. Beispiel Im Folgenden soll das Wort ANANAS LZ77-komprimiert werden. Der Suchbuffer S sei 8 Bytes und der Vorschaubuffer L sei 4 Bytes gross. ANAN => (0,0, A ) A NANA => (0,0, N ) AN ANAS => (2,3, S ) Vergleich auf Vorschau-Buffer ausgedehnt ANANAS => fertig, da Vorschau-Buffer leer ist Der Kompressionsfaktor ist in diesem kleinen Beispiel natürlich nicht gross. Der LZ77- Encoder codiert die 6 Bytes bzw. 48 Bits von ANANAS in 3 Token à je = 13 Bits d.h. 39 Codebits. Die Rate beträgt R = 39 / 48 bzw. der Kompressionsfaktor 48 / 39. Der Dekoder ist viel einfacher als der Encoder, weil er die ursprüngliche Nachricht ohne Suchen nur mit Hilfe der Tokenparameter zusammensetzen kann. Dazu ist natürlich ein Buffer der gleichen Grösse wie im Encoder erforderlich. Der LZ77-Encoder vergleicht den Text im Vorschau-Buffer mit benachbartem Text. Daten mit nahe beieinander liegenden Mustern komprimieren gut. Daten mit weit auseinander liegenden Mustern komprimieren dagegen schlecht. Die Kompression wird mit grösseren Buffern besser, dafür steigen die Anzahl Vergleiche und die Suchzeit an.

7 ZHAW, NTM2, Rumc, In der Praxis wird LZ77 zusammen mit Huffman-Coding oft im Deflate-Algorithmus eingesetzt. Es können Kompressionsfaktoren 1/R von für Text erreicht werden. 5. Verlustbehaftete Quellencodierung Die verlustbehafteten Kompressionsalgorithmen sind von der Signalverarbeitung her ziemlich komplex. Im Folgenden werden deshalb nur einige Benchmarks für die verlustbehaftete Quellencodierungsverfahren angegeben. Im Mobilfunkstandard GSM wird die Sprache mit einem Vocoder auf 13 kbit/s komprimiert, ohne dass die Sprachverständlichkeit leidet. Zum Vergleich: In der digitalen Telefonie werden 64 kbit/s pro unidirektionaler Sprachverbindung verwendet, also fast 5 Mal mehr als beim GSM-Vocoder. Mit dem MPEG/Audio-Standard MP3 können Audio-Stereosignale ziemlich klanggetreu mit einer Datenrate von 128 kbit/s übertragen werden. Zum Vergleich: Die Netto-Datenrate für die Übertragung von 20 khz breiten Audio-Stereosignalen in CD-Qualität beträgt 2 x 44.1 ksample/s x 16 Bit/Sample 1.4 Mbit/s, also ca. 11 mal mehr als mit der verlustbehafteten MP3-Kompression. Der JPEG-Standard (Joint Photographic Experts Group) eignet sich gut für die verlustbehaftete Kompression von natürlichen Bildern. Es sind unterschiedliche Kompressionsfaktoren und, damit verbunden, unterschiedliche Qualitäten wählbar, siehe Abbildung Bit / Pixel Originalbild mit True Color Auflösung (RGB) Bit / Pixel (Kompressionsfaktor ) Normalerweise nicht vom Original unterscheidbar. Genügt den höchsten professionellen Anforderungen Bit / Pixel (Kompressionsfaktor ) Exzellente Qualität. Genügt den meisten Anforderungen Bit / Pixel (Kompressionsfaktor ) Gute bis sehr gute Qualität. Genügend für viele Anwendungen Bit / Pixel (Kompressionsfaktor ) Bescheidene bis gute Qualität. Genügend für gewisse Anwendungen. Abbildung 5: Kompressionsfaktoren und Bildqualität bei JPEG. Mit den aktuellen Videokompressionsverfahren wie z.b. H.264/MPEG-4 AVC (Level 3.2) können HDTV-Übertragungen mit einer Auflösung von 1280 x 720 Pixel / 50 Frames (siehe SRF1 HD, 720p/50) von 1.1 Gbps auf 20 Mbps komprimiert werden. Der Kompressionsfaktor beträgt also über 50 bei (sehr) guter Qualität.

Quellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1

Quellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1 Quellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1 Referenzen [1] Proakis, Salehi, Grundlagen der Kommunikationstechnik, Pearson, 2004. [2] D. Salomon, Data Compression, Springer, 2004. [3] D.

Mehr

Übung 13: Quellencodierung

Übung 13: Quellencodierung ZHAW, NTM, FS2008, Rumc, /5 Übung 3: Quellencodierung Aufgabe : Huffmann-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten

Mehr

Übung 1: Quellencodierung

Übung 1: Quellencodierung ZHAW, NTM2, Rumc, /7 Übung : Quellencodierung Aufgabe : Huffman-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten

Mehr

Kapitel 9: Informationstheorie. 2. Entropie

Kapitel 9: Informationstheorie. 2. Entropie ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE

Mehr

Kapitel 7: Optimalcodierung und Huffman Coding

Kapitel 7: Optimalcodierung und Huffman Coding Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge

Mehr

16 - Kompressionsverfahren für Texte

16 - Kompressionsverfahren für Texte 16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,

Mehr

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,

Mehr

Kompressionsverfahren für Texte

Kompressionsverfahren für Texte Kompressionsverfahren für Texte Prof. Dr. S. Albers Prof. Dr. Th. Ottmann 1 Zeichenkettenverarbeitung Suche in Texten, Textindizes Mustererkennung (Pattern-Matching) Verschlüsseln Komprimiern Analysieren

Mehr

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,

Mehr

Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen

Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 202/3 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen

Mehr

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein. 3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle

Mehr

Kompression. Tim Kilian

Kompression. Tim Kilian Kompression Tim Kilian Seminar Effiziente Programmierung Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg

Mehr

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind. 1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,

Mehr

Bildkompression InTh, 2005, JPEG, Hak, Rur, 1

Bildkompression InTh, 2005, JPEG, Hak, Rur, 1 Bildkompression InTh, 25, JPEG, Hak, Rur, 1 Referenzen [1] D Salomon, Data Compression, Springer, 24 [2] Prof Dr A Steffen, Kurs SU, ZHW, 1999-24 [3] G Wallace, The JPEG Still Picture Compression Standard,

Mehr

Mathematik für Information und Kommunikation

Mathematik für Information und Kommunikation Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html

Mehr

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1 Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)

Mehr

Kapitel 2 Quellencodierung

Kapitel 2 Quellencodierung Kapitel 2 Quellencodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv

Mehr

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft

Mehr

Informatik II, SS 2018

Informatik II, SS 2018 Informatik II - SS 28 (Algorithmen & Datenstrukturen) Vorlesung 22 (6.7.28) Greedy Algorithmen II (Datenkompression) Algorithmen und Komplexität Datenkompression Reduziert Größen von Files Viele Verfahren

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 206 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Organisatorisches Weiterer Ablauf: heute und Donnerstag,

Mehr

Theoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK

Theoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK Theoretische Grundlagen der Informatik 3..29 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Thema dieses Kapitels Informationstheorie

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm 11 Datenkompression Einführung Grundlagen

Mehr

Klausur Informationstheorie und Codierung

Klausur Informationstheorie und Codierung Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte

Mehr

Informatik II, SS 2016

Informatik II, SS 2016 Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 22 (20.7.2016) Greedy Algorithmen - Datenkompression Algorithmen und Komplexität Greedy Algorithmen Greedy Algorithmen sind eine Algorithmenmethode,

Mehr

i Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit.

i Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit. 1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,

Mehr

Textkompression. Komprimierung von Daten. Runlength Komprimierung (2) Runlength Komprimierung (1) Herkömmliche Kodierung. Runlength Komprimierung (3)

Textkompression. Komprimierung von Daten. Runlength Komprimierung (2) Runlength Komprimierung (1) Herkömmliche Kodierung. Runlength Komprimierung (3) Komprimierung von Daten Textkompression Effiziente Algorithmen VU 2.0 WS 2008/09 Bin Hu Ziel: Platz und Zeit sparen Kompression durch - Effiziente Kodierung - Verminderung der Redundanzen (verlustfrei)

Mehr

Einleitung. Kapitel 1

Einleitung. Kapitel 1 Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch

Mehr

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b. Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie

Mehr

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon

Mehr

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238 3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher

Mehr

Themen Medientechnik II. Grundlagen der Bildkompression (Teil 1) Claude E. Shannon ( ) Digitale Bildübertragungsstrecke

Themen Medientechnik II. Grundlagen der Bildkompression (Teil 1) Claude E. Shannon ( ) Digitale Bildübertragungsstrecke .4.6 Themen Medientechnik II Grundlagen der Bildkompression (Teil ) Dr. Detlev Marpe Fraunhofer Institut für Nachrichtentechnik HHI Grundlagen der statistischen ignalverarbeitung Mittelwert, Varianz, NR,

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und

Mehr

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe: Fachbereich Medieninformatik Hochschule Harz Huffman-Kodierung Referat Henner Wöhler 11459 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung...I 1. Entropiekodierung...1 1.1 Morse Code...2 1.2 Shannon-Fano-Kodierung...3

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Weiterführende Literatur zum Thema Informationstheorie:

Mehr

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information

Mehr

Informationsgehalt einer Nachricht

Informationsgehalt einer Nachricht Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner

Mehr

Eigenschaften von Kompressionsverfahren

Eigenschaften von Kompressionsverfahren 6 Textkompression Eigenschaften von Kompressionsverfahren Das Ziel der Datenkompression ist es, eine gegebene Information (Datenquelle) auf eine kompaktere Weise zu repräsentieren. Dies geschieht, indem

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

Standbildcodierung. Dipl.-Ing. Guido Heising. Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K.

Standbildcodierung. Dipl.-Ing. Guido Heising. Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K. Standbildcodierung Dipl.-Ing. Guido Heising Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K. Barthel 1 Gliederung der Vorlesung Einführung in die Bildcodierung - verlustlose/verlustbehaftete

Mehr

Molekulare Bioinformatik

Molekulare Bioinformatik Molekulare Bioinformatik Wintersemester 203/204 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 07.0.204 Molekulare Bioinformatik - Vorlesung 0 Wiederhohlung Die Entropie

Mehr

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.

Mehr

Übungsaufgaben zur Vorlesung Quellencodierung

Übungsaufgaben zur Vorlesung Quellencodierung Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2

Mehr

Panorama der Mathematik und Informatik

Panorama der Mathematik und Informatik Panorama der Mathematik und Informatik 20: Algorithmen III: png und Co Dirk Frettlöh Technische Fakultät / Richtig Einsteigen 26.6.2014 Kompressionsalgorithmen: Idee: Speichere 2 MB Daten in einer 1 MB

Mehr

Farb-Fernsehsignal (Composite FBAS)

Farb-Fernsehsignal (Composite FBAS) Farb-Fernsehsignal (Composite FBAS) Quelle: Ze-Nian Li : Script Multimedia Systems, Simon Fraser University, Canada VIDEO- Digitalisierung Gemeinsame Kodierung FBAS Farbbild- Austast- und Synchronsignal

Mehr

Diskrete Mathematik II

Diskrete Mathematik II Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung 01-07.04.2008 Einführung in die Codierungstheorie, Definition Codes 1 / 36 Organisatorisches

Mehr

Informationstheorie und Codierung

Informationstheorie und Codierung Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien

Mehr

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Error-Free Compression Hufmann Coding Runlength Coding Lossy Compression

Mehr

Optimalcodierung. Thema: Optimalcodierung. Ziele

Optimalcodierung. Thema: Optimalcodierung. Ziele Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 5. Vorlesung Uwe Quasthoff Abteilung Automatische Sprachverarbeitung Institut für Informatik Universität Leipzig 9. Mai 2012 1 / 35 Datenkompression Bisheriges Hauptziel

Mehr

Referat zum Thema Huffman-Codes

Referat zum Thema Huffman-Codes Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung

Mehr

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Channel Encoding Error-Free Compression Hufmann Coding Runlength

Mehr

Effiziente Algorithmen und Komplexitätstheorie

Effiziente Algorithmen und Komplexitätstheorie Fakultät für Informatik Lehrstuhl 2 Vorlesung Effiziente Algorithmen und Komplexitätstheorie Sommersemester 2008 Ingo Wegener; Vertretung: Carsten Witt 7. Juli 2008 Vorlesung am 14.07. (nächste Woche):

Mehr

Kompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2

Kompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2 Kompression Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Folie 2 1 Inhalte Redundanz Channel Encoding Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression

Mehr

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv

Mehr

Digitale Medien. Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid

Digitale Medien. Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid Wintersemester 2016/17 Häufige Fehler beim Blatt 2 1 c) -> nicht erfüllte Fano-Bedingung bei dem Code 2 a) -> falscher

Mehr

Seminar. Codierungstheorie

Seminar. Codierungstheorie Seminar Codierungstheorie Lempel-Ziv-Verfahren Informatik Sommersemester 25 Tim Schweisgut, Juni 25 Inhalt INHALT... 2 WÖRTERBUCHMETHODEN... 3 Statische Wörterbuchmethoden... 3 Beispiel:... 3 Bemerkung:...

Mehr

Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi

Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de Inhaltsverzeichnis 2. Quellencodierung 2.1 Motivation 2.2 Shannon sche Informationstheorie 2.3 Binärcodierung nach Shannon

Mehr

Tagged Image File Format. Im Printbereich neben EPS sehr verbreitet.

Tagged Image File Format. Im Printbereich neben EPS sehr verbreitet. 1.1 Pixelgrafik (auch ) Beispiel: Bei en wird das Bild in kleine Quadrate (Pixel) zerlegt. Für jedes Pixel wird die entsprechende Farbe gespeichert. Ein Foto kann nur durch eine große Zahl von Pixeln realistisch

Mehr

3 Quellencodierung. 3.1 Einleitung

3 Quellencodierung. 3.1 Einleitung Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im

Mehr

Ziv-Lempel-Kompression von André Lichei

Ziv-Lempel-Kompression von André Lichei Ziv-Lempel-Kompression von André Lichei Einführung: Die wichtigsten Ansprüche,die an einen Komprimierungs-Algorithmus gestellt werden, sind: - eine hohe Komprimierungsrate - für alle Typen von Daten (

Mehr

Image Compression. Vorlesung FH-Hagenberg DSB

Image Compression. Vorlesung FH-Hagenberg DSB Image Compression Vorlesung FH-Hagenberg DSB Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Inhalte Redundanz Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression

Mehr

2.7 Der Shannon-Fano-Elias Code

2.7 Der Shannon-Fano-Elias Code 2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung

Mehr

12. Übung TGI. (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF.

12. Übung TGI. (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. 12. Übung TGI (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS 1 Lorenz Hübschle-Schneider, Tobias Maier KIT Die Forschungsuniversität

Mehr

Kap.4 JPEG: Bildkompression. Ziel: Gegeben sind Daten y R N. Bestimme C R N N mit C C T = I, so dass x = C y dünbesetzt ist.

Kap.4 JPEG: Bildkompression. Ziel: Gegeben sind Daten y R N. Bestimme C R N N mit C C T = I, so dass x = C y dünbesetzt ist. Kap.4 JPEG: Bildkompression Ziel: Gegeben sind Daten y R N. Bestimme C R N N mit C C T = I, so dass x = C y dünbesetzt ist. Originalbild y (30Kbt) Komprimiertes Bild z y(7kbt) JPEG (Joint Photographic

Mehr

Kompressionsverfahren

Kompressionsverfahren Kompressionsverfahren Quelle: Steinmetz, Ralf: Multimedia-Technologie: Einführung und Grundlagen, Springer, Verlag Verlustlose Kompressionsalgorithmen RLC Huffman Adaptive Huffman Kodierung Arithmetische

Mehr

Vorlesung 15a. Quellencodieren und Entropie

Vorlesung 15a. Quellencodieren und Entropie Vorlesung 15a Quellencodieren und Entropie 1 1. Volle Binärbäume als gerichtete Graphen und die gewöhnliche Irrfahrt von der Wurzel zu den Blättern 2 3 ein (nicht voller) Binärbaum Merkmale eines Binärbaumes:

Mehr

Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt):

Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt): Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt): Was versteht man unter PCM, DPCM, DM, ADPCM? Skizze! Was versteht man unter PCM

Mehr

Datenkompressionsverfahren für mobile Endgeräte

Datenkompressionsverfahren für mobile Endgeräte Datenkompressionsverfahren für mobile Endgeräte Dr.-Ing. Michael Thierschmann IfKom-Forum 2002 15. März 2002 Übersicht Firmenprofil Grundlagen der Datenkompression Kompressionsverfahren Kodierungstechniken

Mehr

Vorlesung 12. Quellencodieren und Entropie

Vorlesung 12. Quellencodieren und Entropie Vorlesung 12 Quellencodieren und Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. Wir wollen die Buchstaben a, b,... durch (möglichst kurze) 01-Folgen k(a),

Mehr

Klausur zur Vorlesung Informationstheorie

Klausur zur Vorlesung Informationstheorie INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 0167 Hannover Klausur zur Vorlesung Informationstheorie Datum:.02.2006 Uhrzeit: 9:00 Uhr Zeitdauer: 2 Stunden Hilfsmittel: ausgeteilte

Mehr

Kolmogoroffkomplexität Teil 3 Informationstheorie und Kodierung. Torsten Steinbrecher

Kolmogoroffkomplexität Teil 3 Informationstheorie und Kodierung. Torsten Steinbrecher Kolmogoroffkompleität Teil 3 Informationstheorie und Kodierung Torsten Steinbrecher Informationstheorie Information ist Δ Wahlfreiheit beim Sender Δ Unbestimmtheit beim Empfänger Information ist nicht

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München, Medieninformatik,

Mehr

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus? Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"

Mehr

Einführung in Kompressionstechniken

Einführung in Kompressionstechniken Einführung in Kompressionstechniken W. Kowarschick 7. Februar 997. November 9 W. Kowarschick Motivation Dateigrößen Text Vektorgraphiken Rasterbilder Tomographien Telephon CD-Stereo Bildfolgen VD7 VD7

Mehr

ChaosSeminar - Informationstheorie

ChaosSeminar - Informationstheorie Alexander.Bernauer@ulm.ccc.de Stephanie.Wist@ulm.ccc.de 18. November 2005 Motivation schnelle Übertragung von Daten über gestörten Kanal Shannon48 Was ist Information? Information ist Abnahme von Unsicherheit

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Informationstheorie INSTITUT FÜR THEORETISCHE KIT 8.2.22 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik INSTITUT

Mehr

Arbeiten im Datennetz der Universität Regensburg

Arbeiten im Datennetz der Universität Regensburg Wiwi-Workshop Uni Regensburg August 2002 Arbeiten im Datennetz der Universität Regensburg - Das Komprimierungsprogramm Winzip - Dr. Wirtschaftswissenschaftliche Fakultät Gliederung Das Komprimierungsprogramm

Mehr

RLE Arithm. Shannon Fano Huffman Grenzen. Komprimierung. Ingo Blechschmidt, Michael Hartmann. 6. Dezember 2006

RLE Arithm. Shannon Fano Huffman Grenzen. Komprimierung. Ingo Blechschmidt, Michael Hartmann. 6. Dezember 2006 RLE Arithm. Shannon Fano Huffman Grenzen Ingo Blechschmidt, Michael Hartmann 6. Dezember 2006 RLE Arithm. Shannon Fano Huffman Grenzen Inhalt 1 Lauflängenkodierung 2 Arithmetische Kodierung 3 Shannon Fano-Kodierung

Mehr

(Prüfungs-)Aufgaben zur Codierungstheorie

(Prüfungs-)Aufgaben zur Codierungstheorie (Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1

Mehr

Einführung Proseminar Datenkompression Wintersemester 2017/2018

Einführung Proseminar Datenkompression Wintersemester 2017/2018 Einführung Proseminar Datenkompression Wintersemester 2017/2018 Dr. Ralf Schlüter Lehrstuhl für Informatik 6 RWTH Aachen 52056 Aachen mailto:schlueter@cs.rwth-aachen.de R. Schlüter: Proseminar Datenkompression

Mehr

Basisinformationstechnologie II

Basisinformationstechnologie II Basisinformationstechnologie II Sommersemester 2015 13. Mai 2015 Algorithmen der Bildverarbeitung I: Kompression Universität zu Köln. Historisch-Kulturwissenschaftliche Informationsverarbeitung Dr. Jan

Mehr

Klausur zur Vorlesung Informationstheorie

Klausur zur Vorlesung Informationstheorie INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 07 Hannover Klausur zur Vorlesung Informationstheorie Datum: 0.0.00 Uhrzeit: 09:00 Uhr Zeitdauer:

Mehr

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung

Mehr

Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte

Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte Fachhochschule Wedel Seminararbeit Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte Sven Reinck 7. Januar 2007 Inhaltsverzeichnis Inhaltsverzeichnis Motivation 2 Wörterbuch 2.

Mehr

Videos für das Internet

Videos für das Internet Videos für das Einleitung Verfahren zur Datenkompression MPEG, die 3 Großen und andere Encoder und Decoder (Codec) Streaming Video Literatur und Links 25. DECUS Symposium 3K03 Videos für das Dr. Norbert

Mehr

Datenkompression. Theorie

Datenkompression. Theorie Datenkompression Theorie Einleitung Übersicht Wie lassen sich beliebige Daten verdichtet (komprimiert) darstellen? verlustfreie Kompression: Programme Texte verlustbehaftete Kompression: Audio Video Kompressionsfaktor:

Mehr

Digitalisierung. analoges Signal PAM. Quantisierung

Digitalisierung. analoges Signal PAM. Quantisierung Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste

Mehr