Kapitel 2 Quellencodierung

Größe: px
Ab Seite anzeigen:

Download "Kapitel 2 Quellencodierung"

Transkript

1 Kapitel 2 Quellencodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik

2 Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv Codierung Dekompression Codierung Signalbildung Hamming Codes, CRC Codierung RZ, NRZ, NRZI, Manchester-Codierung Decodierung 00 Signalübersetzung Modulation Amplitude/Frequency/Phase shift keying, QAM Demodulation Satellitenkommunikation Übertragung 2

3 Kompressionsprinzipien Eigenschaften Lossless compression Originaldaten können : wiederhergestellt werden Anwendung Texte Beispiele Verlustfreie Kompression Anwendungsdateien Lauflängencodierung Huffman-Codes Arithmetische Codierung Lempel-Ziv-Codierung Verlustbehaftete Kompression Eigenschaften Lossy Compression Informationsverlust wird bewusst in Kauf genommen Anwendung Videokompression Audiokompression Beispiele jpg mpeg mp3 3

4 Datenkompression Codierung mit variabler Bitlänge I. A. kommen Zeichen nicht gleichhäufig vor. Idee: Codiere häufig vorkommende Zeichen mit wenigen Bits selten vorkommende Zeichen mit vielen Bits Wie können präfixfreie Codes mit dieser Eigenschaft konstruiert werden?

5 Shannon-Codierung Kompressionsalgorithmen () Arrange the messages of length N in order of decreasing probability and suppose their probabilities are p p 2 p 3... p n. Let P s = s p i ; that is P s is the cummulative probability up to, but not including, p s. We first encode into a binary system. The binary code for message s is obtained by expanding P s as a binary number. The expansion is carried out to m s places, where m s is the integer satisfying: log 2 p s m s < +log 2 p s. Claude Shannon, The Mathematical Theory of Communication, 99 Beispiel Beispiel 2 a b c d e a b c d e

6 Fano-Codierung Kompressionsalgorithmen (2) Wahrscheinlichkeitsbasierte Partitionierung der Symbolmenge Ordne alle Zeichen in absteigender Auftrittswahrscheinlichkeit Unterteile die Zeichenmenge in zwei Partitionen Die Summe der Wahrscheinlichkeiten müssen möglichst ausgeglichen sein Die erste Gruppe wird mit, die zweite Gruppe mit 0 codiert Wiederhole die Partitionierung rekursiv für alle Gruppen mit 2 Elementen Beispiel Beispiel 2 a b c d e a b c d e

7 Huffman-Codierung Kompressionsalgorithmen (3) Bottom-up-Erzeugung des Codierungsbaums Erzeuge ein Blatt B für jedes Zeichen a i mit der Markierung M(B) := p(a i ) Wähle diejenigen zwei Knoten P und Q mit den geringsten Markierungen aus Verbinde P und Q und markiere den Knoten mit M(P) + M(Q) Wiederhole die Konstruktion bis der Codebaum vollständig aufgebaut ist Beispiel Beispiel 2 a b c d e a b c d e

8 Zusammenfassung Wie gut sind die Codierungen? Shannon Fano Huffman a b c d e = a + b + c + d + e = a + b + c + d + e = = = = a 00 b 0 c 00 d 0 e 0 L = = = 2,6290 a 00 b 0 c 0 d 0 e L = = = 70 2,2506 a 0 b 00 c 0 d 0 e L = = = 69 2,225 Wie viel besser könnten die Codierungen sein?

9 Ein Teil des Quellencodierungstheorems Satz 5. f (x) ( ) x Es seien X eine Datenquelle und p,...,p n die Auftrittswahrscheinlichkeiten der emittierten Quellensymbole. Dann erfüllt jede prä- lnx fixfreie Binärcodierung c die Beziehung i p i log 2 p i L(c) x Wie viel besser könnten die Codierungen sein? = 9

10 Zusammenfassung ( )= a 2 b 6 c 5 d e Shannon a 00 b 0 c 00 d 0 e 0 L(c ( )=2,6290 H(X) ( )= =2,7552 R(X,c ( )=0,373 i Dieser Wert ist in der Informationstheorie so wichtig, dass er einen eigenen Namen trägt. Er wird als die Entropie der Datenquelle bezeichnet. p i log 2 p i = 2 log log log log 2 + log 2 2,7552 Fano Huffman a 00 b 0 c 0 d 0 e L(c ( 2 )= )=2,2506 H(X) ( )= =2,7552 R(X,c ( 2 )= )=0,025 a 0 b 00 c 0 d 0 e L(c 3 )=2,225 H(X) =2,7552 R(X,c 3 )=0,

11 Ist die Entropie eine scharfe Schranke? Existiert eine Codierung, deren mittlere Codewortlänge beliebig Nahe an die Entropie herankommt? Ja, z. B. die Arithmetische Codierung abac Nachricht Idee der Arithmetischen Codierung Die gesamte Nachricht wird durch eine Zahl z [0;) dargestellt Das Intervall wird rekursiv partitioniert Ein Teilintervall für jedes Zeichen des Alphabets Die Größen der Intervalle entsprechen den Auftrittswahrscheinlichkeiten Nach n Schritten: Jedes Intervall entspricht einer Nachricht der Länge n Als Codewort werden die Nachkommabits derjenigen Zahl verwenden, die innerhalb des zugehörigen Intervalls liegt und die kürzeste Binärdarstellung aufweist. [ 9 6 ; 20 6 ) 000 Intervallkonstruktion 0,000 [ 9 6 ; 20 6 ) Codewort

12 Codierung der Nachricht abac (die Details) a b c [ 9 6 ; 20 6 ) 2 0,00 0, a b c 0,000 0,00 0,00 0, a b c 0,0000 0,000 0,000 0,00 0,000 0,00 0,00 0, a 32 b 32 c , ,0000 0,0000 0,000 0,0000 0,000 0,000 0,00 0,0000 0,000 0,000 0,00 0,000 0,00 0,00 0, a 6 b 6 c , , , ,0000 0, ,0000 0,0000 0,000 0, ,0000 0,0000 0,000 0,0000 0,000 0,000 0,00 0, ,0000 0,0000 0,000 0,0000 0,000 0,000 0,00 0,0000 0,000 0,000 0,00 0,000 0,00 0,00 0,0 Jede Zahl aus dem Intervall [ 9 6, 20 6 ) repräsentiert die Nachricht abac. [ 9 6 ; 20 6 ) 2

13 Verzeichnisbasierte Kompression Prinzip Zur Codierung wird ein Verzeichnis (Dictionary) verwendet Textfragmente werden durch Referenz in das Verzeichnis codiert Verzeichnis wird vor der Codierung aufgestellt Während der Codierung bleibt das Verzeichnis unverändert Statische Verfahren Verfahren von Lempel und Ziv Gehört zu der Gruppe der dynamischen Verfahren Weit verbreitet in vielen Varianten Varianten: LZ77, LZ7, LZW (Lempel Ziv Welch) Anwendungsbeispiele: TIFF, compress, zip, unzip Dynamische Verfahren Wird während der Codierung dynamisch erstellt Verzeichnis muss in vielen Fällen nicht übertragen werden 3

14 Lempel-Ziv-Kompression LZ77 - Die Grundidee Bereits gesehener Text wird als Wörterbuch verwendet Der Folgetext wird durch Referenzen in das Wörterbuch codiert F R I S C H E T F I S C H E T F I S C H E N search buffer Codierung: (,,I) look ahead buffer Abstand nach Links erstes nicht codiertes Zeichen Sequenzlänge Sliding-Window-Methode Größe des search buffers wird limitiert Typisch: Einige kb des zuletzt codierten Textes Nächstes Zeichen

15 Lempel-Ziv-Kompression LZ77 - Die Grundidee Bereits gesehener Text wird als Wörterbuch verwendet F R I S C H E T F I S C H E T F I S C H E N Unkomprimierte Originalnachricht f f e 0a 22 Byte LZ77-komprimierte Nachricht: E B 5 2E E 0F E 7 5F 05 2 F Byte ( 5 Bit ) Hinweis: Die Kompressionsrate beeindruckt in diesem Beispiel wenig. Für lange Nachrichten werden jedoch ungleich höhere Raten erreicht. Frage: Wie entsteht die abgebildete Byte-Folge? 5

16 Lempel-Ziv-Kompression LZ77 - Die Details Jedes Tripel wird mit n + m + Symbolen des Grundalphabets Σ codiert Es können maximal n Zeichen zurückgeblickt werden Es können maximal m Zeichen kopiert werden Beispiel (aus der Originalarbeit von Jacob Ziv und Abraham Lempel) Σ = { 0,, 2 }, n = 2, m = 2 Nachricht: (2 Zeichen) Codierung erfolgt mit Hilfe eines Pufferspeichers Indexposition search buffer (3 2 = 9 Elemente) look ahead buffer (3 2 = 9 Elemente) Besonderheiten Search buffer wird mit 0 vorinitialisiert Rückverweis wird in Form der absoluten Indexposition gespeichert Erstes Tripel: z.b. <,2,> (in diesem Fall nicht eindeutig) 6

17 Lempel-Ziv-Welch-Kompression Lempel-Ziv-Welch Basiert auf der 97 von Lempel und Ziv weiterentwickelten LZ77-Variante Texte werden ausschließlich durch Referenzen in ein Wörterbuch codiert Das Wörterbuch wird beim Codieren und Decodieren automatisch erzeugt Beispiel: ababcbababaaaaaaa (aus der Originalarbeit von Welch) Angenommen, wir hätten die Tabelle... 0 a b 2 c 3 ab ba 5 abc 6 cb 7 bab baba 9 aa 0 aaa aaaa... dann ließe sich die Nachricht wie folgt codieren: a b a b c b a b a b a a a a a a a Wie kann die Tabelle algorithmisch erzeugt werden? 7

18 Lempel-Ziv-Welch-Kompression Übung Komprimieren Sie die Nachricht F R I mit den Lempel-Ziv-Welch-Verfahren Ergebnis A 5F 20 D0 A 3C 26 0A E Byte Im Vergleich: Das LZ77-Ergebnis E B 5 2E E 0F E 7 5F 05 2 F Byte S C H E T F I S C H E T F I S C H E N

19 Burrows-Wheeler-Transformation Was ist die Burrows-Wheeler-Transformation? Kein Kompressionsalgorithmus im eigentlichen Sinne Die Eingabe wird lediglich permutiert und ein Index erzeugt Der Index wird zur Rückgewinnung der Originaldaten benötigt Permutation ist meist geordneter als die Originalnachricht und kann von anderen Kompressionsverfahren besser verarbeitet werden Bemerkenswert Die Transformation wurde erst 93 entdeckt von David J. Wheeler Publiziert wurde sie erst 99 von Michael Burrows und David J. Wheeler Unter anderem eingesetzt in bzip2 ❾ Daten Burrows-Wheeler Permutation + Index Kompression Daten 9

20 Burrows-Wheeler-Transformation Durchführung der Transformation Schritt : Erzeuge alle Rotationen der Originalnachricht Schritt 2: Sortiere die Rotationsmatrix Schritt 3: Lese Ergebnis ab Die letzte Spalte der rotierten Nachricht enthält die gesuchte Permutation Der Index gibt die Zeile an, in der die Originalnachricht steht Originalnachricht Der Clou Rotieren Sortieren Ergebnis ablesen Permutation Die letzte Spalte, der Index und das Wissen über die Sortierung reichen aus, um die Rotationsmatrix vollständig zu rekonstruieren Index 20

21 Arithmetische Codierung Warum ist die Huffman-Codierung nicht optimal? Ein Codewort besteht immer aus einer ganzzahligen Anzahl Bits Dadurch ist die Codewortlänge i. d. R. nicht exakt proportional zur Auftrittswahrscheinlichkeit Genau dieses Problem löst die arithmetische Codierung Arithmetische Codierung Die gesamte Nachricht wird durch eine Zahl z [0;) dargestellt Das Intervall wird rekursiv in Teilintervalle unterteilt Ein Teilintervall für jedes Zeichen des Alphabets Intervallgrößen entsprechen den Auftrittswahrscheinlichkeiten Nach n Schritten: Jedes Intervall entspricht Nachricht der Länge n Als Codewort einer Nachricht wird diejenige Zahl verwendet, die innerhalb des zur Nachricht zugehörigen Intervalls liegt und mit der geringsten Anzahl Bits repräsentiert werden kann 2

22 Arithmetische Codierung Beispiel: AAB p(a) = 2/3, p(b) = /3 0 0 /3 B A 0 /9 3/9 5/9 BB BA AB AA 0 /27 3/27 5/27 9/27 /27 5/27 9/27 BBB BBA BAB BAA ABB ABA AAB AAA 22

23 Arithmetische Codierung Fazit Basiert auf den Auftrittswahrscheinlichkeiten der Symbole im Alphabet Je größer die Auftrittswahrscheinlichkeit, desto größer das Intervall Je größer das Intervall, desto kleiner die Anzahl repräsentierender Bits Nachteile Þ Gleitkommazahlen des Prozessors sind zu ungenau Þ Datentypen mit beliebiger Genauigkeit werden benötigt Þ Ein einzelnes fehlerhaftes Bit kann die gesamte Nachricht zerstören Þ Patentiertes und lizenzpflichtiges Verfahren Vorteile Ý Erzeugte Code-Länge erreicht das informationstheoretische Minimum Ý Keine ganzzahlige Anzahl Bits pro Zeichen (wie z.b. bei Huffman) Wo sind die Grenzen der Kompression? 23

24 Der Informationsgehalt eines Zeichens Gegeben Datenquelle A = {a,, a n } Auftrittswahrscheinlichkeit p(a i ) Gewünschte Eigenschaften I(a i ) 0 I(a i,a k ) = I(a i ) + I(a k ) p(a i ) p(a k ) I(a i ) I(a k ) p(a i ) < p(a k ) I(a i ) > I(a k ) Definition Der Informationsgehalt eines Zeichens a i beträgt I(a i ) = ld p(a i ) [bit] Die Logarithmus-Funktion Eigenschaften Stetig ld = 0 ld x < 0 für x < ld x > 0 für x > ld (x * y) = ld (x) + ld (y) 2

25 Wo sind die Grenzen der Kompression? Bedeutung Claude Elwood Shannon führt den Begriff der Entropie E(A) als ein Maß für den Informationsgehalt einer Quelle ein Definition Vorsicht E(A) = Σ p(a i ) I(a i ) a i A Entropie ist eine Eigenschaft der Quelle und nicht der Nachricht Entropie macht keine Aussage über Codes 25

26 Bedeutung der Entropie Zusammenhang zwischen Codes und Entropie Gegeben seien die Datenquelle A und Datensenke B A = {a,, an } B { 0, }* c : A B sei eine beliebige Codierung Die Quelle A sei eine gedächtnislose Quelle Die Auftrittswahrscheinlichkeit eines Zeichens ist kontextunabhängig Auch Shannon sche Quelle genannt Shannon konnte zeigen, dass die Codierung einer Nachricht der Länge n mindestens n E(A) Bits benötigt, unabhängig von der konkreten Wahl der Codierung c In anderen Worten: Die Entropie definiert eine untere Schranke für die erreichbare Kompressionsrate einer Nachricht 26

27 Mittlere Codewortlänge Mittlere Codewortlänge Die mittlere Codewortlänge eines Codes c : A B ist definiert als L = Σ a i A p(a i ) l i p(a i ) ist die Auftrittswahrscheinlichkeit von a i l i bezeichnet die Länge des Codeworts von a i Redundanz Die Redundanz eines Codes c ist definiert als R = L E 27

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft

Mehr

Übung 13: Quellencodierung

Übung 13: Quellencodierung ZHAW, NTM, FS2008, Rumc, /5 Übung 3: Quellencodierung Aufgabe : Huffmann-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten

Mehr

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,

Mehr

Eigenschaften von Kompressionsverfahren

Eigenschaften von Kompressionsverfahren 6 Textkompression Eigenschaften von Kompressionsverfahren Das Ziel der Datenkompression ist es, eine gegebene Information (Datenquelle) auf eine kompaktere Weise zu repräsentieren. Dies geschieht, indem

Mehr

Kapitel 4 Leitungscodierung

Kapitel 4 Leitungscodierung Kapitel 4 Leitungscodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv

Mehr

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Codierung Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Ein bisschen Informationstheorie Betrachten wir das folgende Problem: Wie lautet eine sinnvolle Definition für das quantitative

Mehr

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1 Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)

Mehr

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe: Fachbereich Medieninformatik Hochschule Harz Huffman-Kodierung Referat Henner Wöhler 11459 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung...I 1. Entropiekodierung...1 1.1 Morse Code...2 1.2 Shannon-Fano-Kodierung...3

Mehr

Informationstheorie und Codierung

Informationstheorie und Codierung Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice

Mehr

Kapitel 2: Informationstheorie. 3. Quellencodierung

Kapitel 2: Informationstheorie. 3. Quellencodierung ZHAW, NTM2, Rumc, 2.3-1 Kapitel 2: Informationstheorie 3. Quellencodierung Inhaltsverzeichnis 1. EINLEITUNG... 1 2. QUELLENCODIERUNGSTHEOREM... 2 3. HUFFMAN-QUELLENCODIERUNG... 3 4. DATENKOMPRESSION MIT

Mehr

Übung 1: Quellencodierung

Übung 1: Quellencodierung ZHAW, NTM2, Rumc, /7 Übung : Quellencodierung Aufgabe : Huffman-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten

Mehr

Mathematik für Information und Kommunikation

Mathematik für Information und Kommunikation Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Weiterführende Literatur zum Thema Informationstheorie:

Mehr

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung

Mehr

Referat zum Thema Huffman-Codes

Referat zum Thema Huffman-Codes Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung

Mehr

Kodierungsalgorithmen

Kodierungsalgorithmen Kodierungsalgorithmen Komprimierung Verschlüsselung Komprimierung Zielsetzung: Reduktion der Speicherkapazität Schnellere Übertragung Prinzipien: Wiederholungen in den Eingabedaten kompakter speichern

Mehr

(Prüfungs-)Aufgaben zur Codierungstheorie

(Prüfungs-)Aufgaben zur Codierungstheorie (Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1

Mehr

Verlustfreie Kompression

Verlustfreie Kompression Verlustfreie Kompression Tim Rolff Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg 8. Juni 2016 Tim Rolff

Mehr

Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1

Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1 Informationsgehalt Kapitel 4.1 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916) Quelle Sender

Mehr

Algorithmen und Datenstrukturen 2-3. Seminar -

Algorithmen und Datenstrukturen 2-3. Seminar - Algorithmen und Datenstrukturen 2-3. Seminar - Dominic Rose Bioinformatics Group, University of Leipzig Sommersemster 2010 Outline 3. Übungsserie: 3 Aufgaben, insgesamt 30 Punkte A7 Huffmann-Codierung

Mehr

Digitalisierung. analoges Signal PAM. Quantisierung

Digitalisierung. analoges Signal PAM. Quantisierung Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste

Mehr

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester

Mehr

Übung zur Vorlesung. Informationstheorie und Codierung

Übung zur Vorlesung. Informationstheorie und Codierung Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.

Mehr

Theorie der Informatik. Theorie der Informatik. 6.1 Einführung. 6.2 Alphabete und formale Sprachen. 6.3 Grammatiken. 6.4 Chomsky-Hierarchie

Theorie der Informatik. Theorie der Informatik. 6.1 Einführung. 6.2 Alphabete und formale Sprachen. 6.3 Grammatiken. 6.4 Chomsky-Hierarchie Theorie der Informatik 17. März 2014 6. Formale Sprachen und Grammatiken Theorie der Informatik 6. Formale Sprachen und Grammatiken Malte Helmert Gabriele Röger Universität Basel 17. März 2014 6.1 Einführung

Mehr

6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger

6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger Komprimierung 6. Komprimierung (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger Platz brauchen Motivation: beschleunigt Plattenzugriffe oder Datenübertragungen Voraussetzung:

Mehr

Quellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1

Quellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1 Quellencodierung NTM, 2006/05, 9.3 Quellencodierung, Rur, 1 Referenzen [1] Proakis, Salehi, Grundlagen der Kommunikationstechnik, Pearson, 2004. [2] D. Salomon, Data Compression, Springer, 2004. [3] D.

Mehr

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus? Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"

Mehr

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof. Hußmann

Mehr

Codierung, Codes (variabler Länge)

Codierung, Codes (variabler Länge) Codierung, Codes (variabler Länge) A = {a, b, c,...} eine endliche Menge von Nachrichten (Quellalphabet) B = {0, 1} das Kanalalphabet Eine (binäre) Codierung ist eine injektive Abbildung Φ : A B +, falls

Mehr

1 / 33. P.F. Stadler & S. Will (Bioinf, Uni LE) ADS 2, V5 07. Mai / 33

1 / 33. P.F. Stadler & S. Will (Bioinf, Uni LE) ADS 2, V5 07. Mai / 33 P.F. Stadler & S. Will (Bioinf, Uni LE) ADS 2, V5 07. Mai 204 7 / 33 P.F. Stadler & S. Will (Bioinf, Uni LE) ADS 2, V5 07. Mai 204 8 / 33 ADS: Algorithmen und Datenstrukturen 2 Teil 5 Prof. Peter F. Stadler

Mehr

Textkompression: Burrows-Wheeler-Transformation

Textkompression: Burrows-Wheeler-Transformation Proseminar Algorithmen der Bioinformatik WS 2010/11 Textkompression: Burrows-Wheeler-Transformation Johann Hawe Johann Hawe, WS 2010/11 1 Gliederung 1. Einleitung 2. BWT Kompressionstransformation 2.1

Mehr

A2.3: Zur LZ78 Komprimierung

A2.3: Zur LZ78 Komprimierung A2.3: Zur LZ78 Komprimierung Im Gegensatz zur Entropiecodierung nach Huffman oder Shannon, bei der man die Quellenstatistik (möglichst genau) kennen muss, sind solche Einschränkungen bei den von Abraham

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.1.1 Abtasttheorem 2.1.2Stochastische Nachrichtenquelle, Entropie, Redundanz 2.2 Verlustfreie universelle Kompression Medieninformatik-Buch:

Mehr

Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte

Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte Fachhochschule Wedel Seminararbeit Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte Sven Reinck 7. Januar 2007 Inhaltsverzeichnis Inhaltsverzeichnis Motivation 2 Wörterbuch 2.

Mehr

Einführung in Kompressionstechniken

Einführung in Kompressionstechniken Einführung in Kompressionstechniken W. Kowarschick 7. Februar 997. November 9 W. Kowarschick Motivation Dateigrößen Text Vektorgraphiken Rasterbilder Tomographien Telephon CD-Stereo Bildfolgen VD7 VD7

Mehr

Praktikum BKSPP. Aufgabenblatt Nr. 1. 1 Umrechnung zwischen Stellenwertsystemen

Praktikum BKSPP. Aufgabenblatt Nr. 1. 1 Umrechnung zwischen Stellenwertsystemen Dr. David Sabel Institut für Informatik Fachbereich Informatik und Mathematik Johann Wolfgang Goethe-Universität Frankfurt am Main Praktikum BKSPP Sommersemester 21 Aufgabenblatt Nr. 1 Abgabe: Mittwoch,

Mehr

Theorie der Informatik

Theorie der Informatik Theorie der Informatik 6. Formale Sprachen und Grammatiken Malte Helmert Gabriele Röger Universität Basel 17. März 2014 Einführung Beispiel: Aussagenlogische Formeln Aus dem Logikteil: Definition (Syntax

Mehr

Kryptographie und Codierung für den Mathematikunterricht

Kryptographie und Codierung für den Mathematikunterricht Kryptographie und Codierung für den Mathematikunterricht Pädagogische Hochschule Karlsruhe University of Education École Supérieure de Pédagogie Institut für Mathematik und Informatik Th. Borys Was verstehst

Mehr

JKU Young Scientists Matheseminar

JKU Young Scientists Matheseminar JKU Young Scientists Matheseminar Matheseminar WS 2013/14 Codierung und Information Das grundlegende Problem der Kommunikation besteht darin, an einer Stelle entweder genau oder angenähert eine Nachricht

Mehr

Referat für Algorithmische Anwendungen WS 2006/ 07: Verlustfreie Datenkompression mit dem Deflate-Algorithmus (LZ77- und Huffman-Codierung)

Referat für Algorithmische Anwendungen WS 2006/ 07: Verlustfreie Datenkompression mit dem Deflate-Algorithmus (LZ77- und Huffman-Codierung) Referat für Algorithmische Anwendungen WS 2006/ 07: Verlustfreie Datenkompression mit dem Deflate-Algorithmus (LZ77- und Huffman-Codierung) Benedikt Arnold, 11041025, [email protected] Sebastian Bieker,

Mehr

Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14

Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14 Institut für Theoretische Informatik Prof. Dr. Jörn Müller-Quade Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 23/4 Vorname Nachname Matrikelnummer Hinweise Für die

Mehr

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.

Mehr

Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi

Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi [email protected] Inhaltsverzeichnis 2. Quellencodierung 2.1 Motivation 2.2 Shannon sche Informationstheorie 2.3 Binärcodierung nach Shannon

Mehr

2 Informationstheorie

2 Informationstheorie 2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information

Mehr

Kapitel 3 Kanalcodierung

Kapitel 3 Kanalcodierung Kapitel 3 Kanalcodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv

Mehr

Der LZ77 Algorithmus. von. Stefan Mühlinghaus Matrikelnummer: 11033988 Benutzerkennung: ai495

Der LZ77 Algorithmus. von. Stefan Mühlinghaus Matrikelnummer: 11033988 Benutzerkennung: ai495 Der LZ77 Algorithmus von Stefan Mühlinghaus Matrikelnummer: 11033988 Benutzerkennung: ai495 Über den Algorithmus: Der LZ77 Algorithmus wurde von seinen Erfindern Abraham Lempel und Jacob Ziv erstmalig

Mehr

Der Huffman Algorithmus

Der Huffman Algorithmus Der Huffman Algorithmus Für das Folgende setzen wir voraus, dass die Quellensymbole q ν einem Alphabet {q μ } = {A, B, C,...} mit dem Symbolumfang M entstammen und statistisch voneinander unabhängig seien.

Mehr

Was bisher geschah. Modellierung von Aussagen durch Logiken. Modellierung von Daten durch Mengen

Was bisher geschah. Modellierung von Aussagen durch Logiken. Modellierung von Daten durch Mengen Was bisher geschah Modellierung von Aussagen durch Logiken Modellierung von Daten durch Mengen extensionale und intensionale Darstellung Mächtigkeiten endlicher Mengen, Beziehungen zwischen Mengen, =,

Mehr

A1.7: Entropie natürlicher Texte

A1.7: Entropie natürlicher Texte A1.7: Entropie natürlicher Texte Anfang der 1950er Jahre hat Claude E. Shannon die Entropie H der englischen Sprache mit einem bit pro Zeichen abgeschätzt. Kurz darauf kam Karl Küpfmüller bei einer empirischen

Mehr

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg Vortrag am 25. Januar 200 Werner von Siemens Gymnasium Magdeburg Zeitansatz: 5h (inklusive Programmieraufgaben) Datenkompression Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

Mehr

Information und Codierung

Information und Codierung Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe

Mehr

Einführung in die Kodierungstheorie

Einführung in die Kodierungstheorie Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht

Mehr

Grundlagen der Technischen Informatik. 2. Übung

Grundlagen der Technischen Informatik. 2. Übung Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit Organisatorisches Übungsblätter zuhause vorbereiten! In der Übung an der Tafel vorrechnen! Bei

Mehr

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen 1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte

Mehr

Digitale Bildverarbeitung (DBV)

Digitale Bildverarbeitung (DBV) Digitale Bildverarbeitung (DBV) Prof. Dr. Ing. Heinz Jürgen Przybilla Labor für Photogrammetrie Email: heinz juergen.przybilla@hs bochum.de Tel. 0234 32 10517 Sprechstunde: Montags 13 14 Uhr und nach Vereinbarung

Mehr

Grundlagen der Informatik. Prof. Dr. Stefan Enderle NTA Isny

Grundlagen der Informatik. Prof. Dr. Stefan Enderle NTA Isny Grundlagen der Informatik Prof. Dr. Stefan Enderle NTA Isny 1. Automaten und Sprachen 1.1 Endlicher Automat Einen endlichen Automaten stellen wir uns als Black Box vor, die sich aufgrund einer Folge von

Mehr

Die Digitalisierung von Musik

Die Digitalisierung von Musik Die Digitalisierung von Musik 1 Analoges Speichern Speicherung von Musik auf einer LP Die Daten sind analog gespeichert Analysis 2 Digitale Datenerfassung 1.Sampling Das (akustische) elektrische Signal

Mehr

15 Optimales Kodieren

15 Optimales Kodieren 15 Optimales Kodieren Es soll ein optimaler Kodierer C(T ) entworfen werden, welcher eine Information (z.b. Text T ) mit möglichst geringer Bitanzahl eindeutig überträgt. Die Anforderungen an den optimalen

Mehr

Kanonische Huffman Codes (Canonical Huffman Codes)

Kanonische Huffman Codes (Canonical Huffman Codes) Projektarbeit (Canonical Huffman Codes) SS 2008 Studentin: Michaela Kieneke Dozent: Dr. Heiko Körner 0001010110110110010001110110001111100001101000110111100101111110001111000 1010101110101001011100100101011111110000011001011010100101000101010001010

Mehr

Rechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir?

Rechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir? Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2012 Wo sind wir? Quelle Nachricht Senke Sender Signal Übertragungsmedium Empfänger Quelle Nachricht Senke Primäres

Mehr

Multimediatechnik / Video

Multimediatechnik / Video Multimediatechnik / Video Video-Kompression Zusammenfassung http://www.nanocosmos.de/lietz/mtv 2009 1 Motivation: Video-Kompression Unkomprimierte Datenmengen sind zu groß! TV: 20 MB/s = 72 GB/h (720x576x2x25)

Mehr

Übungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen

Übungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen Übungen zur Vorlesung Grundlagen der Rechnernetze Zusätzliche Übungen Hamming-Abstand d Der Hamming-Abstand d zwischen zwei Codewörtern c1 und c2 ist die Anzahl der Bits, in denen sich die beiden Codewörter

Mehr

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Kompression und Datenformate Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Digitale Speicherung von Bildern Digitalisierung Informationsgehalt Speicherbedarf Kompression von Multimediadaten

Mehr

Codierungstheorie Teil 1: Fehlererkennung und -behebung

Codierungstheorie Teil 1: Fehlererkennung und -behebung Codierungstheorie Teil 1: Fehlererkennung und -behebung von Manuel Sprock 1 Einleitung Eine Codierung ist eine injektive Abbildung von Wortmengen aus einem Alphabet A in über einem Alphabet B. Jedem Wort

Mehr

Codierungstheorie. Code-Arten und Code-Sicherung

Codierungstheorie. Code-Arten und Code-Sicherung Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Sommersemester 2006 6. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik [email protected] Datenkomprimierung Bei den meisten bisher betrachteten

Mehr

Grundbegriffe der Informatik Tutorium 2

Grundbegriffe der Informatik Tutorium 2 Grundbegriffe der Informatik Tutorium 2 Tutorium Nr. 32 Philipp Oppermann 13. November 2013 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB

Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB Bilddatenformate BMP Bezeichnung: Microsoft Windows Bitmap, BMP, DIB Format: Raster Farben: 1 Bit (s/w), 4 Bit (16 Farben), 8 Bit (256 Farben), 24 Bit (16,7 Mio. Farben) Kompression: Keine (meist) oder

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Die Mathematik in der CD

Die Mathematik in der CD Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern

Mehr

Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi

Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi [email protected] Organisatorisches Vorlesung 2 SWS ( 2,5 LP) - Dienstags. 12:00-13:30 Uhr, Raum L122 Unterlagen - Vorlesungsfolien - Übungsaufgaben

Mehr

Textkompression: Burrows-Wheeler-Transformation

Textkompression: Burrows-Wheeler-Transformation Proseminar Algorithmen der Bioinformatik Ausarbeitung Textkompression: Burrows-Wheeler-Transformation Uli Köhler 12.11.2012 Inhaltsverzeichnis 1 Einleitung 2 2 Verlustfreie Kompression 2 3 Die Burrows-Wheeler-Transformation

Mehr

Digitale Signalverarbeitung

Digitale Signalverarbeitung Digitale Signalverarbeitung Mario Hlawitschka Wissenschaftliche Visualisierung, Universität Leipzig [email protected], http://www.informatik.uni-leipzig.de/ hlawit/ Mario Hlawitschka Digitale

Mehr

3 Quellencodierung. 3.1 Einleitung

3 Quellencodierung. 3.1 Einleitung Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im

Mehr

Informationstheorie als quantitative Methode in der Dialektometrie

Informationstheorie als quantitative Methode in der Dialektometrie Informationstheorie als quantitative Methode in der Dialektometrie 1 Informationstheorie als quantitative Methode in der Dialektometrie Informationstheorie als quantitative Methode in der Dialektometrie

Mehr

Programmieren in Haskell Programmiermethodik

Programmieren in Haskell Programmiermethodik Programmieren in Haskell Programmiermethodik Peter Steffen Universität Bielefeld Technische Fakultät 12.01.2011 1 Programmieren in Haskell Bisherige Themen Was soll wiederholt werden? Bedienung von hugs

Mehr

Algorithmen und Datenstrukturen Kapitel 6 Komplexitätstheorie

Algorithmen und Datenstrukturen Kapitel 6 Komplexitätstheorie Algorithmen und Datenstrukturen Kapitel 6 Komplexitätstheorie Einführung in P und NP Frank Heitmann [email protected] 11. November 2015 Frank Heitmann [email protected]

Mehr

Grundbegriffe der Informatik

Grundbegriffe der Informatik Grundbegriffe der Informatik Kapitel 4: Wörter Thomas Worsch KIT, Institut für Theoretische Informatik Wintersemester 2015/2016 GBI Grundbegriffe der Informatik KIT, Institut für Theoretische Informatik

Mehr

Textkomprimierung. Stringologie. Codes. Textkomprimierung. Alle Komprimierung beruht auf Wiederholungen im Text. Textkomprimierung

Textkomprimierung. Stringologie. Codes. Textkomprimierung. Alle Komprimierung beruht auf Wiederholungen im Text. Textkomprimierung Stringologie Peter Leupold Universität Leipzig Vorlesung SS 2014 Alle Komprimierung beruht auf Wiederholungen im Text Die Komprimierung muss rückgängig gemacht werden können Je kleiner das Alphabet, desto

Mehr

Run Length Coding und Variable Length Coding

Run Length Coding und Variable Length Coding Fachbereich Medieninformatik Hochschule Harz Run Length Coding und Variable Length Coding Referat Matthias Zittlau 11034 Abgabe: 15.01.2007 Inhaltsverzeichnis 1. RLC...1 2.1 Einführung...1 2.2 Prinzip...1

Mehr

10%, 7,57 kb 20%, 5,3 kb 30%, 4,33 kb 40%, 3,71 kb 50%, 3,34 kb. 60%, 2,97 kb 70%, 2,59 kb 80%, 2,15 kb 90%, 1,62 kb 99%, 1,09 kb

10%, 7,57 kb 20%, 5,3 kb 30%, 4,33 kb 40%, 3,71 kb 50%, 3,34 kb. 60%, 2,97 kb 70%, 2,59 kb 80%, 2,15 kb 90%, 1,62 kb 99%, 1,09 kb Die Komprimierung: Die Abkürzung JPG (oder auch JPEG) steht für "Joint Photographic Experts Group". Dieses Bildformat ist nach der Expertengruppe, die es erfunden hat, benannt. Die Komprimierung empfiehlt

Mehr

9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1

9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1 9 Codes 9.1 Charakterisierung und Klassifizierung Definition: Das Ergebnis einer eindeutigen Zuordnung zweier Zeichen- bzw. Zahlenmengen wird Code genannt. Die Zuordnung erfolgt über eine arithmetische

Mehr

Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg

Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem

Mehr

Datenkompression. Maciej Liśkiewicz 1, Henning Fernau 2

Datenkompression. Maciej Liśkiewicz 1, Henning Fernau 2 Datenkompression Maciej Liśkiewicz 1, Henning Fernau 2 1 Institut für Theoretische Informatik, Medizinische Universität zu Lübeck Wallstr. 40, D-23560 Lübeck und 2 Wilhelm-Schickard-Institut für Informatik,

Mehr

Gegen verlustbehaftete Kompression = für verlustfreie Kompression

Gegen verlustbehaftete Kompression = für verlustfreie Kompression Nürnberg - 23. Februar 2008 Konsensuskonferenz: Kompression radiologischer Bilddaten Gegen verlustbehaftete Kompression = für verlustfreie Kompression K. Mathias Radiologische Klinik Klinikum Dortmund

Mehr

Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* aller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt:

Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* aller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt: 8. Grundlgen der Informtionstheorie 8.1 Informtionsgehlt, Entropie, Redundnz Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* ller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt: 1.

Mehr

Informationsmenge. Maßeinheit: 1 Bit. 1 Byte. Umrechnungen: Informationsmenge zur Beantwortung einer Binärfrage kleinstmögliche Informationseinheit

Informationsmenge. Maßeinheit: 1 Bit. 1 Byte. Umrechnungen: Informationsmenge zur Beantwortung einer Binärfrage kleinstmögliche Informationseinheit Informationsmenge Maßeinheit: 1 Bit Informationsmenge zur Beantwortung einer Binärfrage kleinstmögliche Informationseinheit 1 Byte Zusammenfassung von 8 Bit, kleinste Speichereinheit im Computer, liefert

Mehr

Erste Schnittpunktsätze und Anfänge einer Dreiecksgeometrie

Erste Schnittpunktsätze und Anfänge einer Dreiecksgeometrie Christoph Vogelsang Matr.Nr. 66547 Nils Martin Stahl Matr.Nr. 664 Seminar: Geometrie Dozent: Epkenhans Wintersemester 005/006 Erste Schnittpunktsätze und Anfänge einer Dreiecksgeometrie Ausarbeitung der

Mehr

Antwort: h = 5.70 bit Erklärung: Wahrscheinlichkeit p = 1/52, Informationsgehalt h = ld(1/p) => h = ld(52) = 5.70 bit

Antwort: h = 5.70 bit Erklärung: Wahrscheinlichkeit p = 1/52, Informationsgehalt h = ld(1/p) => h = ld(52) = 5.70 bit Übung 1 Achtung: ld(x) = Logarithmus dualis: ld(x) = log(x)/log(2) = ln(x)/ln(2)! Aufgabe 1 Frage: Wie gross ist der Informationsgehalt einer zufällig aus einem Stapel von 52 Bridgekarten gezogenen Spielkarte?

Mehr

Datenkompression: Fraktale Kompression. H. Fernau

Datenkompression: Fraktale Kompression. H. Fernau Datenkompression: Fraktale Kompression H. Fernau email: [email protected] SoSe 2006 Universität Trier 1 Fraktale Codierung mathematische Grundgedanken Statt ein Datum zu übertragen, übertrage

Mehr

Datenkompression: Lempel-Ziv-Codierung

Datenkompression: Lempel-Ziv-Codierung Gliederung 1) Einleitung 2) Abraham Lempel, Jacob Ziv, Terry Welch 3) Tabellengestützte Modellierung 4) LZ77 5) LZ78 6) LZW 7) Einsatzgebiete 8) Zusätzliche Erläuterungen 9) Quellen 1) Einleitung Aufgabe

Mehr

Einführung in die Codierungstheorie

Einführung in die Codierungstheorie 11. Dezember 2007 Ausblick Einführung und Definitionen 1 Einführung und Definitionen 2 3 Einführung und Definitionen Code: eindeutige Zuordnung von x i X = {x 1,.., x k } und y j Y = {y 1,..., y n } Sender

Mehr