Kapitel 2: Informationstheorie. 3. Quellencodierung
|
|
- Timo Falk
- vor 7 Jahren
- Abrufe
Transkript
1 ZHAW, NTM2, Rumc, Kapitel 2: Informationstheorie 3. Quellencodierung Inhaltsverzeichnis 1. EINLEITUNG QUELLENCODIERUNGSTHEOREM HUFFMAN-QUELLENCODIERUNG DATENKOMPRESSION MIT WÖRTERBUCH VERLUSTBEHAFTETE QUELLENCODIERUNG... 7 Literatur [1] Proakis, Salehi, Grundlagen der Kommunikationstechnik, Pearson, [2] D. Salomon, Data Compression, Springer, [3] Hufschmid M., Information und Kommunikation, Grundlagen und Verfahren der Informationsübertragung, Teubner, [4] D. Pan, A Tutorial on MPEG/Audio Compression, Einleitung Die Hauptaufgabe der Quellencodierung ist die Reduktion der Redundanz oder der Irrelevanz am Ausgang der Quelle, damit weniger Daten übertragen oder abgespeichert werden müssen (Datenkompression). Man unterscheidet zwei grundsätzlich verschiedene Quellencodierungsarten. Es gibt die verlustlosen Quellencodierungsverfahren (Redundanzreduktion), mit denen der Empfänger die Originaldaten wieder perfekt herstellen kann. Sie werden z.b. bei der zip-datenkomprimierung verwendet. Für die Nachrichtenübertragung werden die verlustbehafteten Quellencodierungsverfahren wie z.b. MP3, JPEG oder MPEG immer wichtiger. Bei diesen Quellencodierungsverfahren werden nur noch die für das Auge oder das Ohr des Empfängers relevanten Informationen übertragen (Irrelevanzreduktion). Die Kompressionsrate und die Wiedergabequalität sind oft wählbar. Die Datenkompression hat eine hohe wirtschaftliche Bedeutung. Wenn weniger Daten übertragen werden müssen, kommt der Benutzer im Allgemeinen schneller in den Besitz einer Nachricht und muss weniger Übertragungszeit bzw. -volumen bezahlen. Umgekehrt kann ein Betreiber mit der gleichen Infrastruktur mehr Übertragungskapazität anbieten und damit mehr Einnahmen generieren.
2 ZHAW, NTM2, Rumc, Quellencodierungstheorem Das Quellencodierungstheorem von Shannon ist ein fundamentaler Satz in der Informationstheorie und beantwortet die Frage, wie stark Daten komprimiert werden können, ohne dass Information verloren geht. Zur Vorbereitung betrachten wir die Informationsquelle in Abbildung 1, die zu diskreten Zeitpunkten t = nt die Symbole X[n] generiert, wobei T die Symbolperiode bezeichnet. diskrete Quelle Quellensymbole X[0], X[1], X[2],... H bit / Symbol Quellen- Encoder Codebits Y[0], Y[1], Y[2],... Rate R [Codebits / Quellensymbol] Abbildung 1: Diskrete Quelle mit H Bit pro Quellensymbol und Encoder mit Rate R. Wir nehmen an, dass die Quelle stationär ist, d.h. dass sich die statistischen Eigenschaften der Quelle zeitlich nicht ändern. Insbesondere weisen die Symbole X[n] für alle diskreten Zeitpunkte t=nt die gleiche Wahrscheinlichkeitsverteilung P X (x) auf. Weiter nehmen wir an, dass jedes Symbol H bit Information trägt. Wenn es sich um eine Quelle ohne Gedächtnis, eine sogenannte DMS, handelt, entspricht H der Entropie H(X) des Symbols X, d.h. Quelle ohne Gedächtnis: H = H(X) [bit / Symbol]. (1) Wenn die Quelle Gedächtnis hat, kann man zeigen, dass H über die Verbund-Entropie wie folgt bestimmt werden kann (ohne Beweis) Quelle mit Gedächtnis: H = lim n-> H(X[0],...,X[n-1]) / n [bit / Symbol]. (2) Das Mass für die Effizienz des Quellenencoders ist dessen Rate R, die mit der durchschnittlichen Anzahl Codebits pro Quellensymbol gemessen wird. Datenkompression liegt dann vor, wenn die Rate R < log 2 (M) Bits pro M-wertigem Quellensymbol ist. Shannon s Quellencodierungstheorem gibt nun einen unteren Grenzwert für R: Eine Quelle mit H bit / Symbol kann mit einer Rate R [Codebits / Quellensymbol] verlustlos codiert werden, solange R H. Umgekehrt, wenn R < H, kann die Quelle auf keinen Fall verlustlos codiert werden. Das Theorem gibt Bedingungen für die Existenz von Quellencodes an. Es liefert aber leider keine Algorithmen. Eine gute informelle Beschreibung des Theorems mit Hilfe von Shannon s typischen Sequenzen finden Sie in [1].
3 ZHAW, NTM2, Rumc, Huffman-Quellencodierung Bei der Huffman-Codierung werden Blöcke von n Quellensymbolen u = [x 1,...,x n ] auf (binäre) Codewörter y variabler Länge abgebildet, siehe Abbildung 2. Die Idee dieses Verfahrens besteht darin, häufig vorkommende Blöcke mit kurzen Codewörtern zu codieren. diskrete Quelle u = [x 1,..., x n ] fixe Länge (n Quellensymbole) Quellen- Encoder y variable Länge Abbildung 2: Huffman-Quellencodierung. Das Problem mit Codewörtern variabler Länge ist die Synchronisation. In der Regel werden präfixfreie Codes bevorzugt, die keine Codewörter besitzen, die ein Präfix (Vorsilbe) eines anderen Codeworts sind. Präfixfreie Codes sind eindeutig und sofort (nach Erhalt des letzten Codebits) decodierbar. Beispiel Der Code Y = { [0], [10], [110], [1110], [1111] } ist präfixfrei. Der Dekoder kann das Ende eines Codeworts sofort detektieren, wenn er eine 0 empfängt oder wenn er vier 1 in Folge erhalten hat. Im Jahre 1952 hat D. Huffman den folgenden Codierungs-Algorithmus vorgeschlagen: 1. Bezeichne die M n Endknoten eines Baums mit den Eingangswerten u m und weise ihnen die Wahrscheinlichkeiten P(u m ), m=1,...,m n, zu. 2. Verbinde die zwei Knoten mit den kleinsten Wahrscheinlichkeiten. Deaktiviere diese Knoten, aktiviere den neu entstandenen Knoten und weise ihm die Summe der beiden Wahrscheinlichkeiten zu. 3. Falls noch ein aktiver Knoten existiert, gehe zu Ordne jedem Eingangswert bzw. Endknoten u m ein binäres Codewort y m zu, indem von der Wurzel aus bei jeder Verzweigung nach oben eine 1 und nach unten eine 0 eingetragen wird (oder umgekehrt). Beispiel Eine gedächtnisfreie Quelle mit den 5 verschiedenen Symbolen X = {A, B, C, D, E} und den Wahrscheinlichkeiten P X (A) = 1/2 und P X (B) = P X (C) = P X (D) = P X (E) = 1/8 soll symbolweise komprimiert werden, d.h. U=X. In Abbildung 3 sind der Huffman-Code und der zugehörige Baum dargestellt. Das Symbol A kommt am häufigsten vor und wird deshalb mit dem kürzesten Codewort 1 codiert. Die anderen vier Symbole werden mit Codewörtern mit je 3 Bits codiert. Der Code ist präfixfrei.
4 ZHAW, NTM2, Rumc, Symbol Wahr. Code A 1/2 1 Wurzel /2 1/4 1/4 B 1/8 011 C 1/8 010 D 1/8 001 E 1/8 000 Abbildung 3: Huffman-Code und zugehöriger Baum für eine 5-wertige Quelle. Das Mass für die Effizienz des Quellencodes ist die Rate R = E{L} / n [Codebits / Quellensymbol], (3) wobei die durchschnittliche Codewortlänge E{L} wie folgt bestimmt werden kann n M E{ L} P( u ) L( ). (4) m 1 m y m L(y m ) bezeichnet die Länge des binären Codeworts y m, das dem Eingangswert u m, m=1,...,m n, zugeordnet ist. E{.} ist der Erwartungswert-Operator. Huffman-Codes sind optimal und weisen die minimale mittlere Codewortlänge unter allen präfixfreien Codes auf. Man kann zeigen, dass für die Rate R eines Huffman-Codes gilt: H R < H + 1/n. (5) Mit einem Huffman-Code kann man also beliebig nahe an Shannon s Grenzwert für die minimale Rate R bei der Quellencodierung kommen, oder den unteren Grenzwert für R sogar ganz erreichen. Beispiel (Fortsetzung) Jedes Symbol der gedächtnisfreien Quelle im letzten Beispiel oben trägt eine Information von H = H(X) = (1/2) log 2 (2) + (4/8) log 2 (8) =2 bit pro Quellensymbol. Die mittlere Codewort-Länge des Huffman-Codes beträgt E{L} = (1/2) (1/8) 3 = 2 Codebits. Der Encoder besitzt also die Rate R = 2 Codebits pro Quellensymbol und ist gemäss (5) minimal. Es macht in diesem Fall keinen Sinn, mehr als 1 Quellensymbol zu komprimieren. Zum Vergleich: Wenn die 5 Quellensymbole ohne Quellencodierung übertragen werden, müssten 3 Bit pro Quellensymbol aufgewendet werden. Betrachten wir noch die Verteilung der Nullen und Einer im komprimierten Datenstrom. Ein Codewort besteht im Durchschnitt aus 2 Codebits, wovon (1/2) 1+(1/8) ( ) = 1 Codebit eine Eins ist. Im Datenstrom sind Einer und Nullen gleichverteilt. Man könnte auch zeigen, dass die Codebits statistisch unabhängig sind. Ein Codebit trägt in diesem Beispiel also die maximale Information von 1 bit und weist keine Redundanz mehr auf. Die Ausgangsfolge des Encoders kann deshalb nicht mehr weiter komprimiert werden.
5 ZHAW, NTM2, Rumc, Die letzte Aussage im Beispiel oben ist typisch für eine gute Quellencodierung. In einem komprimierten Datenstrom kommen Nullen und Einer praktisch gleich häufig vor und die Redundanz ist im Allgemeinen fast Null. Gleichung (5) und das Quellencodierungstheorem zeigen einmal mehr, dass die Definition der Entropie sinnvoll ist. Der Huffman-Algorithmus kann auch für die nichtbinäre Quellencodierung angepasst werden. Mehr Informationen zu Codebäumen mit Wahrscheinlichkeiten findet man in [3]. Die Huffman-Codierung weist die folgenden Nachteile auf - Die Performance hängt stark von der Quellenstatistik ab. - Die Quellenstatistik muss im Voraus bekannt sein (ev. zuerst messen ). - Die Komplexität der Huffman-Codierung steigt exponentiell mit der Eingangsblocklänge n an, weil der zugehörige Baum M n Endknoten besitzt, wenn ein einzelnes Quellensymbol X M-wertig ist. - Die variable Codewortlänge ist in der Praxis manchmal unerwünscht. Codewortlängen, die ein Vielfaches der Wortlänge eines Computers entsprechen, sind oft von Vorteil. 4. Datenkompression mit Wörterbuch Wörterbuch-basierende, verlustlose Kompressionsmethoden weisen viele Nachteile nicht mehr auf, die die statistischen Kompressionsmethoden wie z.b. die Huffman-Codierung haben, und sind trotzdem Entropie-optimal bzw. weisen (fast) minimale Raten R auf. Die Idee dieser Verfahren besteht darin, die Daten der Quelle in unterschiedlich lange Wörter aufzuteilen und nur noch die Referenzen von fixer Länge, sogenannte Token, zu übertragen, die angeben, wo die einzelnen Wörter in einem Wörterbuch verzeichnet sind. Dabei wird meistens das Wörterbuch selbst während dem Codierungsprozess dynamisch aufgebaut. J. Ziv und A. Lempel entwickelten 1977 und 1978 die wörterbuch-basierenden Codierungsmethoden LZ77 und LZ78. Heute werden diese Methoden in einer grossen Variantenvielfalt breit eingesetzt (http, pdf, zip, gif, tiff,...), vor allen die von T. Welch 1984 entwickelte LZW- Variante. Im Folgenden betrachten wir nur den LZ77-Algorithmus. Die anderen wörterbuch-basierenden Kompressionsverfahren können z.b. in [2] nachgeschlagen werden. Beim LZ77-Verfahren gelangt ein Schiebefenster zur Anwendung, siehe Abildung 4. Sliding Window Output Token FISCHERS FRITZ FISCHT FRISCHE F Such-Buffer S = Wörterbuch (schon verarbeitet) Vorschau- Buffer L Input Symbole S ist typ. einige KBytes gross L ist typ. einige 10 Bytes gross Abbildung 4: Schiebefenster für LZ77-Quellencodierung.
6 ZHAW, NTM2, Rumc, Die Token-Bildung soll an einem Beispiel illustriert werden: 1. Erstes Symbol des Vorschau-Buffers im Such-Buffer suchen, von rechts nach links. Im Beispiel oben ist es der Leerschlag _ vor dem Wort FRISCHE. Nach sieben Positionen (offset = 7) befindet sich zwar ein Leerschlag im Such-Buffer, nämlich zwischen den Wörtern FRITZ und FISCHT. Die Übereinstimmung ist aber länger beim Leerschlag mit dem offset = 13; danach kommt (nun von links nach rechts gesehen) _FRI, was bedeutet: 4 Zeichen in Übereinstimmung. Beim offset =7 wären es nur deren 2 gewesen, nämlich _F. 2. Token der längsten letzten Übereinstimmung ausgeben. Token = (Offset, Länge, nächstes Symbol). Die Tokenlänge beträgt log 2 (S) +log 2 (L-1) + 8 Bits, typisch = 24 Bit. In unserem Fall lautet der Token = (13,4, S ); Der nächste Buchstabe ist das S im Wort FRISCHE, denn er folgt nach den 4 Zeichen _FRI. Falls bei der Suche über die vereinbarte Suchbufferlänge keine Übereinstimmung gefunden wird, lautet jeweils der auszugebende Token = (0,0, nächstes Symbol ). 3. Schiebefenster um Länge+1 nach rechts verschieben. Die Länge war 4, also wird das Fenster um 5 Positionen nach rechts verschoben. Beispiel Im Folgenden soll das Wort ANANAS LZ77-komprimiert werden. Der Suchbuffer S sei 8 Bytes und der Vorschaubuffer L sei 4 Bytes gross. ANAN => (0,0, A ) A NANA => (0,0, N ) AN ANAS => (2,3, S ) Vergleich auf Vorschau-Buffer ausgedehnt ANANAS => fertig, da Vorschau-Buffer leer ist Der Kompressionsfaktor ist in diesem kleinen Beispiel natürlich nicht gross. Der LZ77- Encoder codiert die 6 Bytes bzw. 48 Bits von ANANAS in 3 Token à je = 13 Bits d.h. 39 Codebits. Die Rate beträgt R = 39 / 48 bzw. der Kompressionsfaktor 48 / 39. Der Dekoder ist viel einfacher als der Encoder, weil er die ursprüngliche Nachricht ohne Suchen nur mit Hilfe der Tokenparameter zusammensetzen kann. Dazu ist natürlich ein Buffer der gleichen Grösse wie im Encoder erforderlich. Der LZ77-Encoder vergleicht den Text im Vorschau-Buffer mit benachbartem Text. Daten mit nahe beieinander liegenden Mustern komprimieren gut. Daten mit weit auseinander liegenden Mustern komprimieren dagegen schlecht. Die Kompression wird mit grösseren Buffern besser, dafür steigen die Anzahl Vergleiche und die Suchzeit an.
7 ZHAW, NTM2, Rumc, In der Praxis wird LZ77 zusammen mit Huffman-Coding oft im Deflate-Algorithmus eingesetzt. Es können Kompressionsfaktoren 1/R von für Text erreicht werden. 5. Verlustbehaftete Quellencodierung Die verlustbehafteten Kompressionsalgorithmen sind von der Signalverarbeitung her ziemlich komplex. Im Folgenden werden deshalb nur einige Benchmarks für die verlustbehaftete Quellencodierungsverfahren angegeben. Im Mobilfunkstandard GSM wird die Sprache mit einem Vocoder auf 13 kbit/s komprimiert, ohne dass die Sprachverständlichkeit leidet. Zum Vergleich: In der digitalen Telefonie werden 64 kbit/s pro unidirektionaler Sprachverbindung verwendet, also fast 5 Mal mehr als beim GSM-Vocoder. Mit dem MPEG/Audio-Standard MP3 können Audio-Stereosignale ziemlich klanggetreu mit einer Datenrate von 128 kbit/s übertragen werden. Zum Vergleich: Die Netto-Datenrate für die Übertragung von 20 khz breiten Audio-Stereosignalen in CD-Qualität beträgt 2 x 44.1 ksample/s x 16 Bit/Sample 1.4 Mbit/s, also ca. 11 mal mehr als mit der verlustbehafteten MP3-Kompression. Der JPEG-Standard (Joint Photographic Experts Group) eignet sich gut für die verlustbehaftete Kompression von natürlichen Bildern. Es sind unterschiedliche Kompressionsfaktoren und, damit verbunden, unterschiedliche Qualitäten wählbar, siehe Abbildung Bit / Pixel Originalbild mit True Color Auflösung (RGB) Bit / Pixel (Kompressionsfaktor ) Normalerweise nicht vom Original unterscheidbar. Genügt den höchsten professionellen Anforderungen Bit / Pixel (Kompressionsfaktor ) Exzellente Qualität. Genügt den meisten Anforderungen Bit / Pixel (Kompressionsfaktor ) Gute bis sehr gute Qualität. Genügend für viele Anwendungen Bit / Pixel (Kompressionsfaktor ) Bescheidene bis gute Qualität. Genügend für gewisse Anwendungen. Abbildung 5: Kompressionsfaktoren und Bildqualität bei JPEG. Mit den aktuellen Videokompressionsverfahren wie z.b. H.264/MPEG-4 AVC (Level 3.2) können HDTV-Übertragungen mit einer Auflösung von 1280 x 720 Pixel / 50 Frames (siehe SRF1 HD, 720p/50) von 1.1 Gbps auf 20 Mbps komprimiert werden. Der Kompressionsfaktor beträgt also über 50 bei (sehr) guter Qualität.
Quellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1
Quellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1 Referenzen [1] Proakis, Salehi, Grundlagen der Kommunikationstechnik, Pearson, 2004. [2] D. Salomon, Data Compression, Springer, 2004. [3] D.
MehrÜbung 13: Quellencodierung
ZHAW, NTM, FS2008, Rumc, /5 Übung 3: Quellencodierung Aufgabe : Huffmann-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten
MehrÜbung 1: Quellencodierung
ZHAW, NTM2, Rumc, /7 Übung : Quellencodierung Aufgabe : Huffman-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten
MehrKapitel 9: Informationstheorie. 2. Entropie
ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE
MehrKapitel 7: Optimalcodierung und Huffman Coding
Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge
Mehr16 - Kompressionsverfahren für Texte
16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,
MehrEinführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
MehrAlgorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,
MehrKompressionsverfahren für Texte
Kompressionsverfahren für Texte Prof. Dr. S. Albers Prof. Dr. Th. Ottmann 1 Zeichenkettenverarbeitung Suche in Texten, Textindizes Mustererkennung (Pattern-Matching) Verschlüsseln Komprimiern Analysieren
MehrDatenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut
Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,
MehrAlgorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,
MehrAlgorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen
Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 202/3 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen
Mehr3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.
3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle
MehrKompression. Tim Kilian
Kompression Tim Kilian Seminar Effiziente Programmierung Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg
MehrBeispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
MehrBildkompression InTh, 2005, JPEG, Hak, Rur, 1
Bildkompression InTh, 25, JPEG, Hak, Rur, 1 Referenzen [1] D Salomon, Data Compression, Springer, 24 [2] Prof Dr A Steffen, Kurs SU, ZHW, 1999-24 [3] G Wallace, The JPEG Still Picture Compression Standard,
MehrMathematik für Information und Kommunikation
Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html
MehrRedundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1
Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)
MehrKapitel 2 Quellencodierung
Kapitel 2 Quellencodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv
MehrSeminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung
Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft
MehrInformatik II, SS 2018
Informatik II - SS 28 (Algorithmen & Datenstrukturen) Vorlesung 22 (6.7.28) Greedy Algorithmen II (Datenkompression) Algorithmen und Komplexität Datenkompression Reduziert Größen von Files Viele Verfahren
MehrAlgorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 206 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Organisatorisches Weiterer Ablauf: heute und Donnerstag,
MehrTheoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK
Theoretische Grundlagen der Informatik 3..29 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Thema dieses Kapitels Informationstheorie
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrAlgorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm 11 Datenkompression Einführung Grundlagen
MehrKlausur Informationstheorie und Codierung
Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte
MehrInformatik II, SS 2016
Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 22 (20.7.2016) Greedy Algorithmen - Datenkompression Algorithmen und Komplexität Greedy Algorithmen Greedy Algorithmen sind eine Algorithmenmethode,
Mehri Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
MehrTextkompression. Komprimierung von Daten. Runlength Komprimierung (2) Runlength Komprimierung (1) Herkömmliche Kodierung. Runlength Komprimierung (3)
Komprimierung von Daten Textkompression Effiziente Algorithmen VU 2.0 WS 2008/09 Bin Hu Ziel: Platz und Zeit sparen Kompression durch - Effiziente Kodierung - Verminderung der Redundanzen (verlustfrei)
MehrEinleitung. Kapitel 1
Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch
MehrEntropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
Mehr1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes
1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon
Mehr3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238
3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher
MehrThemen Medientechnik II. Grundlagen der Bildkompression (Teil 1) Claude E. Shannon ( ) Digitale Bildübertragungsstrecke
.4.6 Themen Medientechnik II Grundlagen der Bildkompression (Teil ) Dr. Detlev Marpe Fraunhofer Institut für Nachrichtentechnik HHI Grundlagen der statistischen ignalverarbeitung Mittelwert, Varianz, NR,
MehrTechnische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und
MehrHuffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:
Fachbereich Medieninformatik Hochschule Harz Huffman-Kodierung Referat Henner Wöhler 11459 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung...I 1. Entropiekodierung...1 1.1 Morse Code...2 1.2 Shannon-Fano-Kodierung...3
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Weiterführende Literatur zum Thema Informationstheorie:
MehrGrundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch
Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information
MehrInformationsgehalt einer Nachricht
Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner
MehrEigenschaften von Kompressionsverfahren
6 Textkompression Eigenschaften von Kompressionsverfahren Das Ziel der Datenkompression ist es, eine gegebene Information (Datenquelle) auf eine kompaktere Weise zu repräsentieren. Dies geschieht, indem
Mehr2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
MehrStandbildcodierung. Dipl.-Ing. Guido Heising. Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K.
Standbildcodierung Dipl.-Ing. Guido Heising Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K. Barthel 1 Gliederung der Vorlesung Einführung in die Bildcodierung - verlustlose/verlustbehaftete
MehrMolekulare Bioinformatik
Molekulare Bioinformatik Wintersemester 203/204 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 07.0.204 Molekulare Bioinformatik - Vorlesung 0 Wiederhohlung Die Entropie
MehrCODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.
MehrÜbungsaufgaben zur Vorlesung Quellencodierung
Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2
MehrPanorama der Mathematik und Informatik
Panorama der Mathematik und Informatik 20: Algorithmen III: png und Co Dirk Frettlöh Technische Fakultät / Richtig Einsteigen 26.6.2014 Kompressionsalgorithmen: Idee: Speichere 2 MB Daten in einer 1 MB
MehrFarb-Fernsehsignal (Composite FBAS)
Farb-Fernsehsignal (Composite FBAS) Quelle: Ze-Nian Li : Script Multimedia Systems, Simon Fraser University, Canada VIDEO- Digitalisierung Gemeinsame Kodierung FBAS Farbbild- Austast- und Synchronsignal
MehrDiskrete Mathematik II
Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung 01-07.04.2008 Einführung in die Codierungstheorie, Definition Codes 1 / 36 Organisatorisches
MehrInformationstheorie und Codierung
Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien
MehrImage Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg
Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Error-Free Compression Hufmann Coding Runlength Coding Lossy Compression
MehrOptimalcodierung. Thema: Optimalcodierung. Ziele
Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 5. Vorlesung Uwe Quasthoff Abteilung Automatische Sprachverarbeitung Institut für Informatik Universität Leipzig 9. Mai 2012 1 / 35 Datenkompression Bisheriges Hauptziel
MehrReferat zum Thema Huffman-Codes
Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung
MehrImage Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg
Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Channel Encoding Error-Free Compression Hufmann Coding Runlength
MehrEffiziente Algorithmen und Komplexitätstheorie
Fakultät für Informatik Lehrstuhl 2 Vorlesung Effiziente Algorithmen und Komplexitätstheorie Sommersemester 2008 Ingo Wegener; Vertretung: Carsten Witt 7. Juli 2008 Vorlesung am 14.07. (nächste Woche):
MehrKompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2
Kompression Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Folie 2 1 Inhalte Redundanz Channel Encoding Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression
Mehr21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3
581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv
MehrDigitale Medien. Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid
Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid Wintersemester 2016/17 Häufige Fehler beim Blatt 2 1 c) -> nicht erfüllte Fano-Bedingung bei dem Code 2 a) -> falscher
MehrSeminar. Codierungstheorie
Seminar Codierungstheorie Lempel-Ziv-Verfahren Informatik Sommersemester 25 Tim Schweisgut, Juni 25 Inhalt INHALT... 2 WÖRTERBUCHMETHODEN... 3 Statische Wörterbuchmethoden... 3 Beispiel:... 3 Bemerkung:...
MehrInformationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi
Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de Inhaltsverzeichnis 2. Quellencodierung 2.1 Motivation 2.2 Shannon sche Informationstheorie 2.3 Binärcodierung nach Shannon
MehrTagged Image File Format. Im Printbereich neben EPS sehr verbreitet.
1.1 Pixelgrafik (auch ) Beispiel: Bei en wird das Bild in kleine Quadrate (Pixel) zerlegt. Für jedes Pixel wird die entsprechende Farbe gespeichert. Ein Foto kann nur durch eine große Zahl von Pixeln realistisch
Mehr3 Quellencodierung. 3.1 Einleitung
Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im
MehrZiv-Lempel-Kompression von André Lichei
Ziv-Lempel-Kompression von André Lichei Einführung: Die wichtigsten Ansprüche,die an einen Komprimierungs-Algorithmus gestellt werden, sind: - eine hohe Komprimierungsrate - für alle Typen von Daten (
MehrImage Compression. Vorlesung FH-Hagenberg DSB
Image Compression Vorlesung FH-Hagenberg DSB Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Inhalte Redundanz Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression
Mehr2.7 Der Shannon-Fano-Elias Code
2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung
Mehr12. Übung TGI. (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF.
12. Übung TGI (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS 1 Lorenz Hübschle-Schneider, Tobias Maier KIT Die Forschungsuniversität
MehrKap.4 JPEG: Bildkompression. Ziel: Gegeben sind Daten y R N. Bestimme C R N N mit C C T = I, so dass x = C y dünbesetzt ist.
Kap.4 JPEG: Bildkompression Ziel: Gegeben sind Daten y R N. Bestimme C R N N mit C C T = I, so dass x = C y dünbesetzt ist. Originalbild y (30Kbt) Komprimiertes Bild z y(7kbt) JPEG (Joint Photographic
MehrKompressionsverfahren
Kompressionsverfahren Quelle: Steinmetz, Ralf: Multimedia-Technologie: Einführung und Grundlagen, Springer, Verlag Verlustlose Kompressionsalgorithmen RLC Huffman Adaptive Huffman Kodierung Arithmetische
MehrVorlesung 15a. Quellencodieren und Entropie
Vorlesung 15a Quellencodieren und Entropie 1 1. Volle Binärbäume als gerichtete Graphen und die gewöhnliche Irrfahrt von der Wurzel zu den Blättern 2 3 ein (nicht voller) Binärbaum Merkmale eines Binärbaumes:
MehrBeispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt):
Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt): Was versteht man unter PCM, DPCM, DM, ADPCM? Skizze! Was versteht man unter PCM
MehrDatenkompressionsverfahren für mobile Endgeräte
Datenkompressionsverfahren für mobile Endgeräte Dr.-Ing. Michael Thierschmann IfKom-Forum 2002 15. März 2002 Übersicht Firmenprofil Grundlagen der Datenkompression Kompressionsverfahren Kodierungstechniken
MehrVorlesung 12. Quellencodieren und Entropie
Vorlesung 12 Quellencodieren und Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. Wir wollen die Buchstaben a, b,... durch (möglichst kurze) 01-Folgen k(a),
MehrKlausur zur Vorlesung Informationstheorie
INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 0167 Hannover Klausur zur Vorlesung Informationstheorie Datum:.02.2006 Uhrzeit: 9:00 Uhr Zeitdauer: 2 Stunden Hilfsmittel: ausgeteilte
MehrKolmogoroffkomplexität Teil 3 Informationstheorie und Kodierung. Torsten Steinbrecher
Kolmogoroffkompleität Teil 3 Informationstheorie und Kodierung Torsten Steinbrecher Informationstheorie Information ist Δ Wahlfreiheit beim Sender Δ Unbestimmtheit beim Empfänger Information ist nicht
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München, Medieninformatik,
MehrÜbrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?
Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"
MehrEinführung in Kompressionstechniken
Einführung in Kompressionstechniken W. Kowarschick 7. Februar 997. November 9 W. Kowarschick Motivation Dateigrößen Text Vektorgraphiken Rasterbilder Tomographien Telephon CD-Stereo Bildfolgen VD7 VD7
MehrChaosSeminar - Informationstheorie
Alexander.Bernauer@ulm.ccc.de Stephanie.Wist@ulm.ccc.de 18. November 2005 Motivation schnelle Übertragung von Daten über gestörten Kanal Shannon48 Was ist Information? Information ist Abnahme von Unsicherheit
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Informationstheorie INSTITUT FÜR THEORETISCHE KIT 8.2.22 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik INSTITUT
MehrArbeiten im Datennetz der Universität Regensburg
Wiwi-Workshop Uni Regensburg August 2002 Arbeiten im Datennetz der Universität Regensburg - Das Komprimierungsprogramm Winzip - Dr. Wirtschaftswissenschaftliche Fakultät Gliederung Das Komprimierungsprogramm
MehrRLE Arithm. Shannon Fano Huffman Grenzen. Komprimierung. Ingo Blechschmidt, Michael Hartmann. 6. Dezember 2006
RLE Arithm. Shannon Fano Huffman Grenzen Ingo Blechschmidt, Michael Hartmann 6. Dezember 2006 RLE Arithm. Shannon Fano Huffman Grenzen Inhalt 1 Lauflängenkodierung 2 Arithmetische Kodierung 3 Shannon Fano-Kodierung
Mehr(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
MehrEinführung Proseminar Datenkompression Wintersemester 2017/2018
Einführung Proseminar Datenkompression Wintersemester 2017/2018 Dr. Ralf Schlüter Lehrstuhl für Informatik 6 RWTH Aachen 52056 Aachen mailto:schlueter@cs.rwth-aachen.de R. Schlüter: Proseminar Datenkompression
MehrBasisinformationstechnologie II
Basisinformationstechnologie II Sommersemester 2015 13. Mai 2015 Algorithmen der Bildverarbeitung I: Kompression Universität zu Köln. Historisch-Kulturwissenschaftliche Informationsverarbeitung Dr. Jan
MehrKlausur zur Vorlesung Informationstheorie
INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 07 Hannover Klausur zur Vorlesung Informationstheorie Datum: 0.0.00 Uhrzeit: 09:00 Uhr Zeitdauer:
MehrOrganisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele
Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung
MehrAlgorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte
Fachhochschule Wedel Seminararbeit Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte Sven Reinck 7. Januar 2007 Inhaltsverzeichnis Inhaltsverzeichnis Motivation 2 Wörterbuch 2.
MehrVideos für das Internet
Videos für das Einleitung Verfahren zur Datenkompression MPEG, die 3 Großen und andere Encoder und Decoder (Codec) Streaming Video Literatur und Links 25. DECUS Symposium 3K03 Videos für das Dr. Norbert
MehrDatenkompression. Theorie
Datenkompression Theorie Einleitung Übersicht Wie lassen sich beliebige Daten verdichtet (komprimiert) darstellen? verlustfreie Kompression: Programme Texte verlustbehaftete Kompression: Audio Video Kompressionsfaktor:
MehrDigitalisierung. analoges Signal PAM. Quantisierung
Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste
Mehr