Kapitel 2 Quellencodierung
|
|
|
- Roland Geiger
- vor 8 Jahren
- Abrufe
Transkript
1 Kapitel 2 Quellencodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik
2 Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv Codierung Dekompression Codierung Signalbildung Hamming Codes, CRC Codierung RZ, NRZ, NRZI, Manchester-Codierung Decodierung 00 Signalübersetzung Modulation Amplitude/Frequency/Phase shift keying, QAM Demodulation Satellitenkommunikation Übertragung 2
3 Kompressionsprinzipien Eigenschaften Lossless compression Originaldaten können : wiederhergestellt werden Anwendung Texte Beispiele Verlustfreie Kompression Anwendungsdateien Lauflängencodierung Huffman-Codes Arithmetische Codierung Lempel-Ziv-Codierung Verlustbehaftete Kompression Eigenschaften Lossy Compression Informationsverlust wird bewusst in Kauf genommen Anwendung Videokompression Audiokompression Beispiele jpg mpeg mp3 3
4 Datenkompression Codierung mit variabler Bitlänge I. A. kommen Zeichen nicht gleichhäufig vor. Idee: Codiere häufig vorkommende Zeichen mit wenigen Bits selten vorkommende Zeichen mit vielen Bits Wie können präfixfreie Codes mit dieser Eigenschaft konstruiert werden?
5 Shannon-Codierung Kompressionsalgorithmen () Arrange the messages of length N in order of decreasing probability and suppose their probabilities are p p 2 p 3... p n. Let P s = s p i ; that is P s is the cummulative probability up to, but not including, p s. We first encode into a binary system. The binary code for message s is obtained by expanding P s as a binary number. The expansion is carried out to m s places, where m s is the integer satisfying: log 2 p s m s < +log 2 p s. Claude Shannon, The Mathematical Theory of Communication, 99 Beispiel Beispiel 2 a b c d e a b c d e
6 Fano-Codierung Kompressionsalgorithmen (2) Wahrscheinlichkeitsbasierte Partitionierung der Symbolmenge Ordne alle Zeichen in absteigender Auftrittswahrscheinlichkeit Unterteile die Zeichenmenge in zwei Partitionen Die Summe der Wahrscheinlichkeiten müssen möglichst ausgeglichen sein Die erste Gruppe wird mit, die zweite Gruppe mit 0 codiert Wiederhole die Partitionierung rekursiv für alle Gruppen mit 2 Elementen Beispiel Beispiel 2 a b c d e a b c d e
7 Huffman-Codierung Kompressionsalgorithmen (3) Bottom-up-Erzeugung des Codierungsbaums Erzeuge ein Blatt B für jedes Zeichen a i mit der Markierung M(B) := p(a i ) Wähle diejenigen zwei Knoten P und Q mit den geringsten Markierungen aus Verbinde P und Q und markiere den Knoten mit M(P) + M(Q) Wiederhole die Konstruktion bis der Codebaum vollständig aufgebaut ist Beispiel Beispiel 2 a b c d e a b c d e
8 Zusammenfassung Wie gut sind die Codierungen? Shannon Fano Huffman a b c d e = a + b + c + d + e = a + b + c + d + e = = = = a 00 b 0 c 00 d 0 e 0 L = = = 2,6290 a 00 b 0 c 0 d 0 e L = = = 70 2,2506 a 0 b 00 c 0 d 0 e L = = = 69 2,225 Wie viel besser könnten die Codierungen sein?
9 Ein Teil des Quellencodierungstheorems Satz 5. f (x) ( ) x Es seien X eine Datenquelle und p,...,p n die Auftrittswahrscheinlichkeiten der emittierten Quellensymbole. Dann erfüllt jede prä- lnx fixfreie Binärcodierung c die Beziehung i p i log 2 p i L(c) x Wie viel besser könnten die Codierungen sein? = 9
10 Zusammenfassung ( )= a 2 b 6 c 5 d e Shannon a 00 b 0 c 00 d 0 e 0 L(c ( )=2,6290 H(X) ( )= =2,7552 R(X,c ( )=0,373 i Dieser Wert ist in der Informationstheorie so wichtig, dass er einen eigenen Namen trägt. Er wird als die Entropie der Datenquelle bezeichnet. p i log 2 p i = 2 log log log log 2 + log 2 2,7552 Fano Huffman a 00 b 0 c 0 d 0 e L(c ( 2 )= )=2,2506 H(X) ( )= =2,7552 R(X,c ( 2 )= )=0,025 a 0 b 00 c 0 d 0 e L(c 3 )=2,225 H(X) =2,7552 R(X,c 3 )=0,
11 Ist die Entropie eine scharfe Schranke? Existiert eine Codierung, deren mittlere Codewortlänge beliebig Nahe an die Entropie herankommt? Ja, z. B. die Arithmetische Codierung abac Nachricht Idee der Arithmetischen Codierung Die gesamte Nachricht wird durch eine Zahl z [0;) dargestellt Das Intervall wird rekursiv partitioniert Ein Teilintervall für jedes Zeichen des Alphabets Die Größen der Intervalle entsprechen den Auftrittswahrscheinlichkeiten Nach n Schritten: Jedes Intervall entspricht einer Nachricht der Länge n Als Codewort werden die Nachkommabits derjenigen Zahl verwenden, die innerhalb des zugehörigen Intervalls liegt und die kürzeste Binärdarstellung aufweist. [ 9 6 ; 20 6 ) 000 Intervallkonstruktion 0,000 [ 9 6 ; 20 6 ) Codewort
12 Codierung der Nachricht abac (die Details) a b c [ 9 6 ; 20 6 ) 2 0,00 0, a b c 0,000 0,00 0,00 0, a b c 0,0000 0,000 0,000 0,00 0,000 0,00 0,00 0, a 32 b 32 c , ,0000 0,0000 0,000 0,0000 0,000 0,000 0,00 0,0000 0,000 0,000 0,00 0,000 0,00 0,00 0, a 6 b 6 c , , , ,0000 0, ,0000 0,0000 0,000 0, ,0000 0,0000 0,000 0,0000 0,000 0,000 0,00 0, ,0000 0,0000 0,000 0,0000 0,000 0,000 0,00 0,0000 0,000 0,000 0,00 0,000 0,00 0,00 0,0 Jede Zahl aus dem Intervall [ 9 6, 20 6 ) repräsentiert die Nachricht abac. [ 9 6 ; 20 6 ) 2
13 Verzeichnisbasierte Kompression Prinzip Zur Codierung wird ein Verzeichnis (Dictionary) verwendet Textfragmente werden durch Referenz in das Verzeichnis codiert Verzeichnis wird vor der Codierung aufgestellt Während der Codierung bleibt das Verzeichnis unverändert Statische Verfahren Verfahren von Lempel und Ziv Gehört zu der Gruppe der dynamischen Verfahren Weit verbreitet in vielen Varianten Varianten: LZ77, LZ7, LZW (Lempel Ziv Welch) Anwendungsbeispiele: TIFF, compress, zip, unzip Dynamische Verfahren Wird während der Codierung dynamisch erstellt Verzeichnis muss in vielen Fällen nicht übertragen werden 3
14 Lempel-Ziv-Kompression LZ77 - Die Grundidee Bereits gesehener Text wird als Wörterbuch verwendet Der Folgetext wird durch Referenzen in das Wörterbuch codiert F R I S C H E T F I S C H E T F I S C H E N search buffer Codierung: (,,I) look ahead buffer Abstand nach Links erstes nicht codiertes Zeichen Sequenzlänge Sliding-Window-Methode Größe des search buffers wird limitiert Typisch: Einige kb des zuletzt codierten Textes Nächstes Zeichen
15 Lempel-Ziv-Kompression LZ77 - Die Grundidee Bereits gesehener Text wird als Wörterbuch verwendet F R I S C H E T F I S C H E T F I S C H E N Unkomprimierte Originalnachricht f f e 0a 22 Byte LZ77-komprimierte Nachricht: E B 5 2E E 0F E 7 5F 05 2 F Byte ( 5 Bit ) Hinweis: Die Kompressionsrate beeindruckt in diesem Beispiel wenig. Für lange Nachrichten werden jedoch ungleich höhere Raten erreicht. Frage: Wie entsteht die abgebildete Byte-Folge? 5
16 Lempel-Ziv-Kompression LZ77 - Die Details Jedes Tripel wird mit n + m + Symbolen des Grundalphabets Σ codiert Es können maximal n Zeichen zurückgeblickt werden Es können maximal m Zeichen kopiert werden Beispiel (aus der Originalarbeit von Jacob Ziv und Abraham Lempel) Σ = { 0,, 2 }, n = 2, m = 2 Nachricht: (2 Zeichen) Codierung erfolgt mit Hilfe eines Pufferspeichers Indexposition search buffer (3 2 = 9 Elemente) look ahead buffer (3 2 = 9 Elemente) Besonderheiten Search buffer wird mit 0 vorinitialisiert Rückverweis wird in Form der absoluten Indexposition gespeichert Erstes Tripel: z.b. <,2,> (in diesem Fall nicht eindeutig) 6
17 Lempel-Ziv-Welch-Kompression Lempel-Ziv-Welch Basiert auf der 97 von Lempel und Ziv weiterentwickelten LZ77-Variante Texte werden ausschließlich durch Referenzen in ein Wörterbuch codiert Das Wörterbuch wird beim Codieren und Decodieren automatisch erzeugt Beispiel: ababcbababaaaaaaa (aus der Originalarbeit von Welch) Angenommen, wir hätten die Tabelle... 0 a b 2 c 3 ab ba 5 abc 6 cb 7 bab baba 9 aa 0 aaa aaaa... dann ließe sich die Nachricht wie folgt codieren: a b a b c b a b a b a a a a a a a Wie kann die Tabelle algorithmisch erzeugt werden? 7
18 Lempel-Ziv-Welch-Kompression Übung Komprimieren Sie die Nachricht F R I mit den Lempel-Ziv-Welch-Verfahren Ergebnis A 5F 20 D0 A 3C 26 0A E Byte Im Vergleich: Das LZ77-Ergebnis E B 5 2E E 0F E 7 5F 05 2 F Byte S C H E T F I S C H E T F I S C H E N
19 Burrows-Wheeler-Transformation Was ist die Burrows-Wheeler-Transformation? Kein Kompressionsalgorithmus im eigentlichen Sinne Die Eingabe wird lediglich permutiert und ein Index erzeugt Der Index wird zur Rückgewinnung der Originaldaten benötigt Permutation ist meist geordneter als die Originalnachricht und kann von anderen Kompressionsverfahren besser verarbeitet werden Bemerkenswert Die Transformation wurde erst 93 entdeckt von David J. Wheeler Publiziert wurde sie erst 99 von Michael Burrows und David J. Wheeler Unter anderem eingesetzt in bzip2 ❾ Daten Burrows-Wheeler Permutation + Index Kompression Daten 9
20 Burrows-Wheeler-Transformation Durchführung der Transformation Schritt : Erzeuge alle Rotationen der Originalnachricht Schritt 2: Sortiere die Rotationsmatrix Schritt 3: Lese Ergebnis ab Die letzte Spalte der rotierten Nachricht enthält die gesuchte Permutation Der Index gibt die Zeile an, in der die Originalnachricht steht Originalnachricht Der Clou Rotieren Sortieren Ergebnis ablesen Permutation Die letzte Spalte, der Index und das Wissen über die Sortierung reichen aus, um die Rotationsmatrix vollständig zu rekonstruieren Index 20
21 Arithmetische Codierung Warum ist die Huffman-Codierung nicht optimal? Ein Codewort besteht immer aus einer ganzzahligen Anzahl Bits Dadurch ist die Codewortlänge i. d. R. nicht exakt proportional zur Auftrittswahrscheinlichkeit Genau dieses Problem löst die arithmetische Codierung Arithmetische Codierung Die gesamte Nachricht wird durch eine Zahl z [0;) dargestellt Das Intervall wird rekursiv in Teilintervalle unterteilt Ein Teilintervall für jedes Zeichen des Alphabets Intervallgrößen entsprechen den Auftrittswahrscheinlichkeiten Nach n Schritten: Jedes Intervall entspricht Nachricht der Länge n Als Codewort einer Nachricht wird diejenige Zahl verwendet, die innerhalb des zur Nachricht zugehörigen Intervalls liegt und mit der geringsten Anzahl Bits repräsentiert werden kann 2
22 Arithmetische Codierung Beispiel: AAB p(a) = 2/3, p(b) = /3 0 0 /3 B A 0 /9 3/9 5/9 BB BA AB AA 0 /27 3/27 5/27 9/27 /27 5/27 9/27 BBB BBA BAB BAA ABB ABA AAB AAA 22
23 Arithmetische Codierung Fazit Basiert auf den Auftrittswahrscheinlichkeiten der Symbole im Alphabet Je größer die Auftrittswahrscheinlichkeit, desto größer das Intervall Je größer das Intervall, desto kleiner die Anzahl repräsentierender Bits Nachteile Þ Gleitkommazahlen des Prozessors sind zu ungenau Þ Datentypen mit beliebiger Genauigkeit werden benötigt Þ Ein einzelnes fehlerhaftes Bit kann die gesamte Nachricht zerstören Þ Patentiertes und lizenzpflichtiges Verfahren Vorteile Ý Erzeugte Code-Länge erreicht das informationstheoretische Minimum Ý Keine ganzzahlige Anzahl Bits pro Zeichen (wie z.b. bei Huffman) Wo sind die Grenzen der Kompression? 23
24 Der Informationsgehalt eines Zeichens Gegeben Datenquelle A = {a,, a n } Auftrittswahrscheinlichkeit p(a i ) Gewünschte Eigenschaften I(a i ) 0 I(a i,a k ) = I(a i ) + I(a k ) p(a i ) p(a k ) I(a i ) I(a k ) p(a i ) < p(a k ) I(a i ) > I(a k ) Definition Der Informationsgehalt eines Zeichens a i beträgt I(a i ) = ld p(a i ) [bit] Die Logarithmus-Funktion Eigenschaften Stetig ld = 0 ld x < 0 für x < ld x > 0 für x > ld (x * y) = ld (x) + ld (y) 2
25 Wo sind die Grenzen der Kompression? Bedeutung Claude Elwood Shannon führt den Begriff der Entropie E(A) als ein Maß für den Informationsgehalt einer Quelle ein Definition Vorsicht E(A) = Σ p(a i ) I(a i ) a i A Entropie ist eine Eigenschaft der Quelle und nicht der Nachricht Entropie macht keine Aussage über Codes 25
26 Bedeutung der Entropie Zusammenhang zwischen Codes und Entropie Gegeben seien die Datenquelle A und Datensenke B A = {a,, an } B { 0, }* c : A B sei eine beliebige Codierung Die Quelle A sei eine gedächtnislose Quelle Die Auftrittswahrscheinlichkeit eines Zeichens ist kontextunabhängig Auch Shannon sche Quelle genannt Shannon konnte zeigen, dass die Codierung einer Nachricht der Länge n mindestens n E(A) Bits benötigt, unabhängig von der konkreten Wahl der Codierung c In anderen Worten: Die Entropie definiert eine untere Schranke für die erreichbare Kompressionsrate einer Nachricht 26
27 Mittlere Codewortlänge Mittlere Codewortlänge Die mittlere Codewortlänge eines Codes c : A B ist definiert als L = Σ a i A p(a i ) l i p(a i ) ist die Auftrittswahrscheinlichkeit von a i l i bezeichnet die Länge des Codeworts von a i Redundanz Die Redundanz eines Codes c ist definiert als R = L E 27
Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung
Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft
Übung 13: Quellencodierung
ZHAW, NTM, FS2008, Rumc, /5 Übung 3: Quellencodierung Aufgabe : Huffmann-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten
Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut
Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,
Eigenschaften von Kompressionsverfahren
6 Textkompression Eigenschaften von Kompressionsverfahren Das Ziel der Datenkompression ist es, eine gegebene Information (Datenquelle) auf eine kompaktere Weise zu repräsentieren. Dies geschieht, indem
Kapitel 4 Leitungscodierung
Kapitel 4 Leitungscodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv
Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau
Codierung Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Ein bisschen Informationstheorie Betrachten wir das folgende Problem: Wie lautet eine sinnvolle Definition für das quantitative
Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1
Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)
Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:
Fachbereich Medieninformatik Hochschule Harz Huffman-Kodierung Referat Henner Wöhler 11459 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung...I 1. Entropiekodierung...1 1.1 Morse Code...2 1.2 Shannon-Fano-Kodierung...3
Informationstheorie und Codierung
Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice
Kapitel 2: Informationstheorie. 3. Quellencodierung
ZHAW, NTM2, Rumc, 2.3-1 Kapitel 2: Informationstheorie 3. Quellencodierung Inhaltsverzeichnis 1. EINLEITUNG... 1 2. QUELLENCODIERUNGSTHEOREM... 2 3. HUFFMAN-QUELLENCODIERUNG... 3 4. DATENKOMPRESSION MIT
Übung 1: Quellencodierung
ZHAW, NTM2, Rumc, /7 Übung : Quellencodierung Aufgabe : Huffman-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten
Mathematik für Information und Kommunikation
Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html
Dynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Weiterführende Literatur zum Thema Informationstheorie:
Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele
Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung
Referat zum Thema Huffman-Codes
Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung
Kodierungsalgorithmen
Kodierungsalgorithmen Komprimierung Verschlüsselung Komprimierung Zielsetzung: Reduktion der Speicherkapazität Schnellere Übertragung Prinzipien: Wiederholungen in den Eingabedaten kompakter speichern
(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
Verlustfreie Kompression
Verlustfreie Kompression Tim Rolff Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg 8. Juni 2016 Tim Rolff
Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1
Informationsgehalt Kapitel 4.1 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916) Quelle Sender
Algorithmen und Datenstrukturen 2-3. Seminar -
Algorithmen und Datenstrukturen 2-3. Seminar - Dominic Rose Bioinformatics Group, University of Leipzig Sommersemster 2010 Outline 3. Übungsserie: 3 Aufgaben, insgesamt 30 Punkte A7 Huffmann-Codierung
Digitalisierung. analoges Signal PAM. Quantisierung
Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste
Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.
Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester
Übung zur Vorlesung. Informationstheorie und Codierung
Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.
Theorie der Informatik. Theorie der Informatik. 6.1 Einführung. 6.2 Alphabete und formale Sprachen. 6.3 Grammatiken. 6.4 Chomsky-Hierarchie
Theorie der Informatik 17. März 2014 6. Formale Sprachen und Grammatiken Theorie der Informatik 6. Formale Sprachen und Grammatiken Malte Helmert Gabriele Röger Universität Basel 17. März 2014 6.1 Einführung
6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger
Komprimierung 6. Komprimierung (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger Platz brauchen Motivation: beschleunigt Plattenzugriffe oder Datenübertragungen Voraussetzung:
Quellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1
Quellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1 Referenzen [1] Proakis, Salehi, Grundlagen der Kommunikationstechnik, Pearson, 2004. [2] D. Salomon, Data Compression, Springer, 2004. [3] D.
Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?
Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"
1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes
1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon
2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof. Hußmann
Codierung, Codes (variabler Länge)
Codierung, Codes (variabler Länge) A = {a, b, c,...} eine endliche Menge von Nachrichten (Quellalphabet) B = {0, 1} das Kanalalphabet Eine (binäre) Codierung ist eine injektive Abbildung Φ : A B +, falls
1 / 33. P.F. Stadler & S. Will (Bioinf, Uni LE) ADS 2, V5 07. Mai / 33
P.F. Stadler & S. Will (Bioinf, Uni LE) ADS 2, V5 07. Mai 204 7 / 33 P.F. Stadler & S. Will (Bioinf, Uni LE) ADS 2, V5 07. Mai 204 8 / 33 ADS: Algorithmen und Datenstrukturen 2 Teil 5 Prof. Peter F. Stadler
Textkompression: Burrows-Wheeler-Transformation
Proseminar Algorithmen der Bioinformatik WS 2010/11 Textkompression: Burrows-Wheeler-Transformation Johann Hawe Johann Hawe, WS 2010/11 1 Gliederung 1. Einleitung 2. BWT Kompressionstransformation 2.1
A2.3: Zur LZ78 Komprimierung
A2.3: Zur LZ78 Komprimierung Im Gegensatz zur Entropiecodierung nach Huffman oder Shannon, bei der man die Quellenstatistik (möglichst genau) kennen muss, sind solche Einschränkungen bei den von Abraham
2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.1.1 Abtasttheorem 2.1.2Stochastische Nachrichtenquelle, Entropie, Redundanz 2.2 Verlustfreie universelle Kompression Medieninformatik-Buch:
Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte
Fachhochschule Wedel Seminararbeit Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte Sven Reinck 7. Januar 2007 Inhaltsverzeichnis Inhaltsverzeichnis Motivation 2 Wörterbuch 2.
Einführung in Kompressionstechniken
Einführung in Kompressionstechniken W. Kowarschick 7. Februar 997. November 9 W. Kowarschick Motivation Dateigrößen Text Vektorgraphiken Rasterbilder Tomographien Telephon CD-Stereo Bildfolgen VD7 VD7
Praktikum BKSPP. Aufgabenblatt Nr. 1. 1 Umrechnung zwischen Stellenwertsystemen
Dr. David Sabel Institut für Informatik Fachbereich Informatik und Mathematik Johann Wolfgang Goethe-Universität Frankfurt am Main Praktikum BKSPP Sommersemester 21 Aufgabenblatt Nr. 1 Abgabe: Mittwoch,
Theorie der Informatik
Theorie der Informatik 6. Formale Sprachen und Grammatiken Malte Helmert Gabriele Röger Universität Basel 17. März 2014 Einführung Beispiel: Aussagenlogische Formeln Aus dem Logikteil: Definition (Syntax
Kryptographie und Codierung für den Mathematikunterricht
Kryptographie und Codierung für den Mathematikunterricht Pädagogische Hochschule Karlsruhe University of Education École Supérieure de Pédagogie Institut für Mathematik und Informatik Th. Borys Was verstehst
JKU Young Scientists Matheseminar
JKU Young Scientists Matheseminar Matheseminar WS 2013/14 Codierung und Information Das grundlegende Problem der Kommunikation besteht darin, an einer Stelle entweder genau oder angenähert eine Nachricht
Referat für Algorithmische Anwendungen WS 2006/ 07: Verlustfreie Datenkompression mit dem Deflate-Algorithmus (LZ77- und Huffman-Codierung)
Referat für Algorithmische Anwendungen WS 2006/ 07: Verlustfreie Datenkompression mit dem Deflate-Algorithmus (LZ77- und Huffman-Codierung) Benedikt Arnold, 11041025, [email protected] Sebastian Bieker,
Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14
Institut für Theoretische Informatik Prof. Dr. Jörn Müller-Quade Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 23/4 Vorname Nachname Matrikelnummer Hinweise Für die
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.
Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi
Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi [email protected] Inhaltsverzeichnis 2. Quellencodierung 2.1 Motivation 2.2 Shannon sche Informationstheorie 2.3 Binärcodierung nach Shannon
2 Informationstheorie
2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information
Kapitel 3 Kanalcodierung
Kapitel 3 Kanalcodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv
Der LZ77 Algorithmus. von. Stefan Mühlinghaus Matrikelnummer: 11033988 Benutzerkennung: ai495
Der LZ77 Algorithmus von Stefan Mühlinghaus Matrikelnummer: 11033988 Benutzerkennung: ai495 Über den Algorithmus: Der LZ77 Algorithmus wurde von seinen Erfindern Abraham Lempel und Jacob Ziv erstmalig
Der Huffman Algorithmus
Der Huffman Algorithmus Für das Folgende setzen wir voraus, dass die Quellensymbole q ν einem Alphabet {q μ } = {A, B, C,...} mit dem Symbolumfang M entstammen und statistisch voneinander unabhängig seien.
Was bisher geschah. Modellierung von Aussagen durch Logiken. Modellierung von Daten durch Mengen
Was bisher geschah Modellierung von Aussagen durch Logiken Modellierung von Daten durch Mengen extensionale und intensionale Darstellung Mächtigkeiten endlicher Mengen, Beziehungen zwischen Mengen, =,
A1.7: Entropie natürlicher Texte
A1.7: Entropie natürlicher Texte Anfang der 1950er Jahre hat Claude E. Shannon die Entropie H der englischen Sprache mit einem bit pro Zeichen abgeschätzt. Kurz darauf kam Karl Küpfmüller bei einer empirischen
Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg
Vortrag am 25. Januar 200 Werner von Siemens Gymnasium Magdeburg Zeitansatz: 5h (inklusive Programmieraufgaben) Datenkompression Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg
Information und Codierung
Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe
Einführung in die Kodierungstheorie
Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht
Grundlagen der Technischen Informatik. 2. Übung
Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit Organisatorisches Übungsblätter zuhause vorbereiten! In der Übung an der Tafel vorrechnen! Bei
1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen
1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte
Digitale Bildverarbeitung (DBV)
Digitale Bildverarbeitung (DBV) Prof. Dr. Ing. Heinz Jürgen Przybilla Labor für Photogrammetrie Email: heinz juergen.przybilla@hs bochum.de Tel. 0234 32 10517 Sprechstunde: Montags 13 14 Uhr und nach Vereinbarung
Grundlagen der Informatik. Prof. Dr. Stefan Enderle NTA Isny
Grundlagen der Informatik Prof. Dr. Stefan Enderle NTA Isny 1. Automaten und Sprachen 1.1 Endlicher Automat Einen endlichen Automaten stellen wir uns als Black Box vor, die sich aufgrund einer Folge von
Die Digitalisierung von Musik
Die Digitalisierung von Musik 1 Analoges Speichern Speicherung von Musik auf einer LP Die Daten sind analog gespeichert Analysis 2 Digitale Datenerfassung 1.Sampling Das (akustische) elektrische Signal
15 Optimales Kodieren
15 Optimales Kodieren Es soll ein optimaler Kodierer C(T ) entworfen werden, welcher eine Information (z.b. Text T ) mit möglichst geringer Bitanzahl eindeutig überträgt. Die Anforderungen an den optimalen
Kanonische Huffman Codes (Canonical Huffman Codes)
Projektarbeit (Canonical Huffman Codes) SS 2008 Studentin: Michaela Kieneke Dozent: Dr. Heiko Körner 0001010110110110010001110110001111100001101000110111100101111110001111000 1010101110101001011100100101011111110000011001011010100101000101010001010
Rechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir?
Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2012 Wo sind wir? Quelle Nachricht Senke Sender Signal Übertragungsmedium Empfänger Quelle Nachricht Senke Primäres
Multimediatechnik / Video
Multimediatechnik / Video Video-Kompression Zusammenfassung http://www.nanocosmos.de/lietz/mtv 2009 1 Motivation: Video-Kompression Unkomprimierte Datenmengen sind zu groß! TV: 20 MB/s = 72 GB/h (720x576x2x25)
Übungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen
Übungen zur Vorlesung Grundlagen der Rechnernetze Zusätzliche Übungen Hamming-Abstand d Der Hamming-Abstand d zwischen zwei Codewörtern c1 und c2 ist die Anzahl der Bits, in denen sich die beiden Codewörter
Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate
Kompression und Datenformate Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Digitale Speicherung von Bildern Digitalisierung Informationsgehalt Speicherbedarf Kompression von Multimediadaten
Codierungstheorie Teil 1: Fehlererkennung und -behebung
Codierungstheorie Teil 1: Fehlererkennung und -behebung von Manuel Sprock 1 Einleitung Eine Codierung ist eine injektive Abbildung von Wortmengen aus einem Alphabet A in über einem Alphabet B. Jedem Wort
Codierungstheorie. Code-Arten und Code-Sicherung
Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem
Algorithmen und Datenstrukturen 2
Algorithmen und Datenstrukturen 2 Sommersemester 2006 6. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik [email protected] Datenkomprimierung Bei den meisten bisher betrachteten
Grundbegriffe der Informatik Tutorium 2
Grundbegriffe der Informatik Tutorium 2 Tutorium Nr. 32 Philipp Oppermann 13. November 2013 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB
Bilddatenformate BMP Bezeichnung: Microsoft Windows Bitmap, BMP, DIB Format: Raster Farben: 1 Bit (s/w), 4 Bit (16 Farben), 8 Bit (256 Farben), 24 Bit (16,7 Mio. Farben) Kompression: Keine (meist) oder
Codierungstheorie Rudolf Scharlau, SoSe 2006 9
Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets
Die Mathematik in der CD
Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern
Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi
Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi [email protected] Organisatorisches Vorlesung 2 SWS ( 2,5 LP) - Dienstags. 12:00-13:30 Uhr, Raum L122 Unterlagen - Vorlesungsfolien - Übungsaufgaben
Textkompression: Burrows-Wheeler-Transformation
Proseminar Algorithmen der Bioinformatik Ausarbeitung Textkompression: Burrows-Wheeler-Transformation Uli Köhler 12.11.2012 Inhaltsverzeichnis 1 Einleitung 2 2 Verlustfreie Kompression 2 3 Die Burrows-Wheeler-Transformation
Digitale Signalverarbeitung
Digitale Signalverarbeitung Mario Hlawitschka Wissenschaftliche Visualisierung, Universität Leipzig [email protected], http://www.informatik.uni-leipzig.de/ hlawit/ Mario Hlawitschka Digitale
3 Quellencodierung. 3.1 Einleitung
Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im
Informationstheorie als quantitative Methode in der Dialektometrie
Informationstheorie als quantitative Methode in der Dialektometrie 1 Informationstheorie als quantitative Methode in der Dialektometrie Informationstheorie als quantitative Methode in der Dialektometrie
Programmieren in Haskell Programmiermethodik
Programmieren in Haskell Programmiermethodik Peter Steffen Universität Bielefeld Technische Fakultät 12.01.2011 1 Programmieren in Haskell Bisherige Themen Was soll wiederholt werden? Bedienung von hugs
Algorithmen und Datenstrukturen Kapitel 6 Komplexitätstheorie
Algorithmen und Datenstrukturen Kapitel 6 Komplexitätstheorie Einführung in P und NP Frank Heitmann [email protected] 11. November 2015 Frank Heitmann [email protected]
Grundbegriffe der Informatik
Grundbegriffe der Informatik Kapitel 4: Wörter Thomas Worsch KIT, Institut für Theoretische Informatik Wintersemester 2015/2016 GBI Grundbegriffe der Informatik KIT, Institut für Theoretische Informatik
Textkomprimierung. Stringologie. Codes. Textkomprimierung. Alle Komprimierung beruht auf Wiederholungen im Text. Textkomprimierung
Stringologie Peter Leupold Universität Leipzig Vorlesung SS 2014 Alle Komprimierung beruht auf Wiederholungen im Text Die Komprimierung muss rückgängig gemacht werden können Je kleiner das Alphabet, desto
Run Length Coding und Variable Length Coding
Fachbereich Medieninformatik Hochschule Harz Run Length Coding und Variable Length Coding Referat Matthias Zittlau 11034 Abgabe: 15.01.2007 Inhaltsverzeichnis 1. RLC...1 2.1 Einführung...1 2.2 Prinzip...1
10%, 7,57 kb 20%, 5,3 kb 30%, 4,33 kb 40%, 3,71 kb 50%, 3,34 kb. 60%, 2,97 kb 70%, 2,59 kb 80%, 2,15 kb 90%, 1,62 kb 99%, 1,09 kb
Die Komprimierung: Die Abkürzung JPG (oder auch JPEG) steht für "Joint Photographic Experts Group". Dieses Bildformat ist nach der Expertengruppe, die es erfunden hat, benannt. Die Komprimierung empfiehlt
9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1
9 Codes 9.1 Charakterisierung und Klassifizierung Definition: Das Ergebnis einer eindeutigen Zuordnung zweier Zeichen- bzw. Zahlenmengen wird Code genannt. Die Zuordnung erfolgt über eine arithmetische
Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg
Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem
Datenkompression. Maciej Liśkiewicz 1, Henning Fernau 2
Datenkompression Maciej Liśkiewicz 1, Henning Fernau 2 1 Institut für Theoretische Informatik, Medizinische Universität zu Lübeck Wallstr. 40, D-23560 Lübeck und 2 Wilhelm-Schickard-Institut für Informatik,
Gegen verlustbehaftete Kompression = für verlustfreie Kompression
Nürnberg - 23. Februar 2008 Konsensuskonferenz: Kompression radiologischer Bilddaten Gegen verlustbehaftete Kompression = für verlustfreie Kompression K. Mathias Radiologische Klinik Klinikum Dortmund
Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* aller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt:
8. Grundlgen der Informtionstheorie 8.1 Informtionsgehlt, Entropie, Redundnz Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* ller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt: 1.
Informationsmenge. Maßeinheit: 1 Bit. 1 Byte. Umrechnungen: Informationsmenge zur Beantwortung einer Binärfrage kleinstmögliche Informationseinheit
Informationsmenge Maßeinheit: 1 Bit Informationsmenge zur Beantwortung einer Binärfrage kleinstmögliche Informationseinheit 1 Byte Zusammenfassung von 8 Bit, kleinste Speichereinheit im Computer, liefert
Erste Schnittpunktsätze und Anfänge einer Dreiecksgeometrie
Christoph Vogelsang Matr.Nr. 66547 Nils Martin Stahl Matr.Nr. 664 Seminar: Geometrie Dozent: Epkenhans Wintersemester 005/006 Erste Schnittpunktsätze und Anfänge einer Dreiecksgeometrie Ausarbeitung der
Antwort: h = 5.70 bit Erklärung: Wahrscheinlichkeit p = 1/52, Informationsgehalt h = ld(1/p) => h = ld(52) = 5.70 bit
Übung 1 Achtung: ld(x) = Logarithmus dualis: ld(x) = log(x)/log(2) = ln(x)/ln(2)! Aufgabe 1 Frage: Wie gross ist der Informationsgehalt einer zufällig aus einem Stapel von 52 Bridgekarten gezogenen Spielkarte?
Datenkompression: Fraktale Kompression. H. Fernau
Datenkompression: Fraktale Kompression H. Fernau email: [email protected] SoSe 2006 Universität Trier 1 Fraktale Codierung mathematische Grundgedanken Statt ein Datum zu übertragen, übertrage
Datenkompression: Lempel-Ziv-Codierung
Gliederung 1) Einleitung 2) Abraham Lempel, Jacob Ziv, Terry Welch 3) Tabellengestützte Modellierung 4) LZ77 5) LZ78 6) LZW 7) Einsatzgebiete 8) Zusätzliche Erläuterungen 9) Quellen 1) Einleitung Aufgabe
Einführung in die Codierungstheorie
11. Dezember 2007 Ausblick Einführung und Definitionen 1 Einführung und Definitionen 2 3 Einführung und Definitionen Code: eindeutige Zuordnung von x i X = {x 1,.., x k } und y j Y = {y 1,..., y n } Sender
