Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Größe: px
Ab Seite anzeigen:

Download "Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung"

Transkript

1 Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012

2 Übersicht 1 Einführung

3 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft Ziel: effiziente Speicherung und Übertragung von Daten

4 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft Ziel: effiziente Speicherung und Übertragung von Daten Kompressionsalgorithmus Kompressionsalgo A = Kompressionsalgo A und Dekompressionsalgo A A (x) = y A (y) = z

5 Einführung Klassen von Kompressionsalgorithmen verlustfreie Kompressionsalgorithmen. Es gilt: z = x verlustbehaftete Kompressionsalgorithmen. Im Allgemeinen z x

6 Einführung Klassen von Kompressionsalgorithmen verlustfreie Kompressionsalgorithmen. Es gilt: z = x verlustbehaftete Kompressionsalgorithmen. Im Allgemeinen z x Gliederung des Kompressionsvorgangs Modellierung Codierung

7 Alphabet, Symbol, Sequenz A = {a 1, a 2,..., a n } ist ein Alphabet a i A ist ein Symbol s = (a i 1 a i 2 a i m ),m 1, Sequenz über A der Länge m A m = {(a i 1 a i 2 a i m ) a i j A}, m 1 A = m=1 Am ist der Kleenesche Abschluss von A

8 Datenquelle Datenquelle Q: Folge von Symbolen aus A Q diskret A endlich oder abzählbar unendlich Q gedächtnislos Auftreten eines Symbol unabhängig von den anderen p i = p(a i ) : Auftretenswahrscheinlichkeit vom Symbol a i p = (p 1,..., p n ): Wahrscheinlichkeitsverteilung der Symbole aus A

9 Modell M : A [0, 1); a i p M (a i ) = p i

10 Modell Code M : A [0, 1); a i p M (a i ) = p i A: Quellenalphabet und B ein endliches Alphabet. C : A B, a i C(a i ) l i := Länge von C(a i ). Im Allgemeinen B = {0, 1}

11 Modell Code M : A [0, 1); a i p M (a i ) = p i A: Quellenalphabet und B ein endliches Alphabet. C : A B, a i C(a i ) l i := Länge von C(a i ). Im Allgemeinen B = {0, 1} Erweiterung eines Codes C C : A B, s = (a i 1 a i 2 a i m ) C(s) = C(a i 1 )C(a i 2 ) C(a i m )

12 Nützliche Eigenschaften eines Codes Sei C : A B ein Code Eindeutige Dekodierbarkeit C eindeutig decodierbar s 1, s 2 A : s 1 s 2 = C (s 1 ) C (s 2 )

13 Nützliche Eigenschaften eines Codes Sei C : A B ein Code Eindeutige Dekodierbarkeit C eindeutig decodierbar s 1, s 2 A : s 1 s 2 = C (s 1 ) C (s 2 ) Präfixfreier Code C präfixfrei, wenn kein Codewort präfix eines anderen ist.

14 Nützliche Eigenschaften eines Codes Sei C : A B ein Code Eindeutige Dekodierbarkeit C eindeutig decodierbar s 1, s 2 A : s 1 s 2 = C (s 1 ) C (s 2 ) Präfixfreier Code C präfixfrei, wenn kein Codewort präfix eines anderen ist. Fano-Bedingung C präfixfrei = C eindeutig decodierbar

15 Nützliche Eigenschaften eines Codes Sei C : A B ein Code Eindeutige Dekodierbarkeit C eindeutig decodierbar s 1, s 2 A : s 1 s 2 = C (s 1 ) C (s 2 ) Präfixfreier Code C präfixfrei, wenn kein Codewort präfix eines anderen ist. Fano-Bedingung C präfixfrei = C eindeutig decodierbar

16 Nützliche Eigenschaften eines Codes Beispiel: Code C 1 Symbol Codewort A 0 B 01 C 10 Beispiel: Code C 2 Symbol Codewort A 0 B 10 C 110

17 Nützliche Eigenschaften eines Codes Beispiel: Code C 1 Symbol Codewort A 0 B 01 C 10 Beispiel: Code C 2 Symbol Codewort A 0 B 10 C 110 Example Zu decodieren:

18 Nützliche Eigenschaften eines Codes Beispiel: Code C 1 Symbol Codewort A 0 B 01 C 10 Example Zu decodieren: C C 1 Beispiel: Code C 2 Symbol Codewort A 0 B 10 C 110 AACC ABAC ABBA

19 Nützliche Eigenschaften eines Codes Beispiel: Code C 1 Symbol Codewort A 0 B 01 C 10 Example Zu decodieren: C C C 1 Beispiel: Code C 2 Symbol Codewort A 0 B 10 C 110 C 2 AACC ABAC ABBA AABB.

20 Nützliche Ergebnisse aus der Informationstheorie Ausgangspunkt Datenquelle Q über A = {a 1, a 2,..., a n } mit p = (p 1, p 2,..., p n )

21 Nützliche Ergebnisse aus der Informationstheorie Ausgangspunkt Datenquelle Q über A = {a 1, a 2,..., a n } mit p = (p 1, p 2,..., p n ) Informationsgehalt eines Symbols I(a i ) = I(p i ) = log 2 ( 1 p i ) = log 2 (p i ) [Bits]

22 Nützliche Ergebnisse aus der Informationstheorie Ausgangspunkt Datenquelle Q über A = {a 1, a 2,..., a n } mit p = (p 1, p 2,..., p n ) Informationsgehalt eines Symbols I(a i ) = I(p i ) = log 2 ( 1 p i ) = log 2 (p i ) [Bits] Informationsgehalt einer Sequenz Sei s = (a i 1 a i 2 a i m ) eine Sequenz. p(s) = p(a i 1 ) p(a i 2 ) p(a i m ) I(s) = I(p(s)) = m j=1 I(p i j ) [Bits]

23 Nützliche Ergebnisse aus der Informationstheorie Definition Entropie von Q: durchschnittlicher Informationsgehalt aller a i

24 Nützliche Ergebnisse aus der Informationstheorie Definition Entropie von Q: durchschnittlicher Informationsgehalt aller a i formal Die Entropie H(p) = n i=1 p i log 2 ( 1 p i ) = n i=1 p i log 2 (p i ) Einheit : [ Bits/Symbol]

25 Nützliche Ergebnisse aus der Informationstheorie Definition Entropie von Q: durchschnittlicher Informationsgehalt aller a i formal Die Entropie H(p) = n i=1 p i log 2 ( 1 p i ) = n i=1 p i log 2 (p i ) Einheit : [ Bits/Symbol] Entropie erweiterter Alphabete A m, Alphabet mit Wahrscheinlichkeitsverteilung p m. H(p m ) = m H(p)

26 Nützliche Ergebnisse aus der Informationstheorie sei C : A B ein präfixfreier Code. Mittlere Länge L C von C L C = n j=1 l j p j

27 Nützliche Ergebnisse aus der Informationstheorie sei C : A B ein präfixfreier Code. Mittlere Länge L C von C L C = n j=1 l j p j Satz ( Noiseless Coding theorem von Claude Shannon ) H(p) L C

28 Das Huffman-Verfahren 1952 von David Albert Huffman veröffentlicht. sehr schnell wegen mathematischer Einfachheit beliebt. generiert präfixfreien Code

29 Das Huffman-Verfahren 1952 von David Albert Huffman veröffentlicht. sehr schnell wegen mathematischer Einfachheit beliebt. generiert präfixfreien Code Eigenschaften eines optimalen Codes C P j > P k = l j l k a i und a j zwei Symbole mit den kleinsten Auftretenswahrscheinlichkeiten. Dann : l i = l j, C(a i ) und C(a j ) bis auf das letzte Bit identisch

30 Das Huffman-Verfahren Huffman-Baum binärer Baum, Knoten mit Gewichten.

31 Das Huffman-Verfahren Huffman-Baum binärer Baum, Knoten mit Gewichten. Algorithmus: Generierung des Huffman-Baumes Sei L eine leere Liste. Für jedes a i, ein Blatt mit Gewicht p i wiederhole,bis L nur einen Knoten enthält. Sortiere L absteigend nach den Gewichten wähle 2 Knoten u, v mit kleinsten Gewichten p(u) und p(v) Erzeuge w mit Gewicht p(w) = p(u) + p(v), w Vater von u und v. Entferne u und v aus L und füge w in L ein.

32 Beispiel: Huffman-Baum Example a i p i A 0.2 B 0.4 C 0.2 D 0.1 E 0.1

33 Beispiel: Huffman-Baum Huffman-Baum Example a i p i A 0.2 B 0.4 C 0.2 D 0.1 E 0.1

34 Code-Generierung Code-Generierung Für jeden inneren Knoten u, markiere die linke Kante aus u mit 0 und die rechte mit 1 Codewort eines Symbols als Folge der Kantenmarkierungen von der Wurzel bis zum Blatt.

35 Code-Generierung Code-Generierung Für jeden inneren Knoten u, markiere die linke Kante aus u mit 0 und die rechte mit 1 Codewort eines Symbols als Folge der Kantenmarkierungen von der Wurzel bis zum Blatt. Bemerkung Huffman-Code besitzt die obigen Eigenschaften eines optimalen Codes.

36 Beispiel: Huffman-Code markierter Huffman-Baum

37 Beispiel: Huffman-Code markierter Huffman-Baum Code-Tabelle a i p i C(a i ) A B C D E

38 Analyse des Huffman-Codes Seien C H ein Huffman-Code mit mittlerer Länge L H und C ein präfixfreier Code mit mittlerer Länge L. Optimalität-Eigenschaft C H ist optimal. L H L

39 Analyse des Huffman-Codes Seien C H ein Huffman-Code mit mittlerer Länge L H und C ein präfixfreier Code mit mittlerer Länge L. Optimalität-Eigenschaft C H ist optimal. L H L Schranken für L H H(p) L H < H(p) + 1

40 Bessere Annäherung der Entropie Betrachte A m als Alphabet mit p m. C H ein Huffman-Code für A m mit L m. Dann gilt:

41 Bessere Annäherung der Entropie Betrachte A m als Alphabet mit p m. C H ein Huffman-Code für A m mit L m. Dann gilt: Schranken für L m H(p m ) L m < H(p m ) + 1

42 Bessere Annäherung der Entropie Betrachte A m als Alphabet mit p m. C H ein Huffman-Code für A m mit L m. Dann gilt: Schranken für L m H(p m ) L m < H(p m ) + 1 H(p m ) = m H(p) und L H = Lm m

43 Bessere Annäherung der Entropie Betrachte A m als Alphabet mit p m. C H ein Huffman-Code für A m mit L m. Dann gilt: Schranken für L m H(p m ) L m < H(p m ) + 1 H(p m ) = m H(p) und L H = Lm m Schranken für L H H(p) L H < H(p) + 1 m

44 Erinnerung: Schranken für L H H(p) L H < H(p) + 1 m

45 Erinnerung: Schranken für L H H(p) L H < H(p) + 1 m Nachteile Codewörter aller Sequenzen der Länge m. exponentieller Wachstum der Codetabelle mit wachsender m Beispiel : m = 10 und A = 10 = Codewörter

46 Erinnerung: Schranken für L H H(p) L H < H(p) + 1 m Nachteile Codewörter aller Sequenzen der Länge m. exponentieller Wachstum der Codetabelle mit wachsender m Beispiel : m = 10 und A = 10 = Codewörter Lösung : verlustfrei Codewort für eine ganze Sequenz

47 Codierung als reelle Zahl Ausgangspunkt Datenquelle über A = {a 1,..., a n } und p = (p 1,..., p n )

48 Codierung als reelle Zahl Ausgangspunkt Datenquelle über A = {a 1,..., a n } und p = (p 1,..., p n ) Definiere folgende Funktion F { 0 wenn i = 0 F : {0, 1,..., n} [0, 1], F(i) = i j=1 p j sonst

49 Codierung als reelle Zahl Ausgangspunkt Datenquelle über A = {a 1,..., a n } und p = (p 1,..., p n ) Definiere folgende Funktion F F : {0, 1,..., n} [0, 1], F(i) = Eigenschaften von F F(0) = 0, F(n) = 1 { 0 wenn i = 0 i j=1 p j sonst i {1,..., n} : p i = 0 = i, j {0, 1,..., n}, j i : F(i) F(j).

50 Codierung als reelle Zahl Prinzip der arithmetischen Codierung s A AC [l s, u s ) [0, 1) [l s, u s ) eindeutig für s T (s) = ls+us 2 als Code

51 Codierung als reelle Zahl Vorgehen Init: l = 0 und u = 1 wiederhole, bis ganze Sequenz bearbeitet partitioniere [l, u) : a i A = [l + (u l) F(i 1), l + (u l) F (i))

52 Codierung als reelle Zahl Vorgehen Init: l = 0 und u = 1 wiederhole, bis ganze Sequenz bearbeitet partitioniere [l, u) : a i A = [l + (u l) F(i 1), l + (u l) F (i)) a j, j te Symbol der Sequenz. Setze: l = l + (u l) F(j 1) und u = l + (u l) F(j) T (s) = l+u 2

53 Codierung als reelle Zahl Vorgehen Init: l = 0 und u = 1 wiederhole, bis ganze Sequenz bearbeitet partitioniere [l, u) : a i A = [l + (u l) F(i 1), l + (u l) F (i)) a j, j te Symbol der Sequenz. Setze: l = l + (u l) F(j 1) und u = l + (u l) F(j) Example T (s) = l+u 2 siehe Projektor..

54 binärer arithmetischer Code Definition seien s A mit Wahrscheinlichkeit p(s) und x, y zwei Zahlen. l(s) := log 2 ( 1 p(s) ) + 1 bin(x) y := erste y-bits der binären Darstellung von x.

55 binärer arithmetischer Code Definition seien s A mit Wahrscheinlichkeit p(s) und x, y zwei Zahlen. l(s) := log 2 ( 1 p(s) ) + 1 bin(x) y := erste y-bits der binären Darstellung von x. binärer arithmetischer Code C(s) = bin(t (s)) l(s)

56 Beispiel: binärer arithmetischer Code Example Für s = abc hatten wir T(s) = Mit p(s) = p(a) P(b) p(c) = erhalten wir: 1 l(s) = log 2 ( ) + 1 = 8. T (s) = (0.553) 10 = ( ) 2. C(s) = bin(0.553) 8 =

57 Decodierung einer reellen Zahl Ausgangspunkt A = {a 1,..., a n }, p = (p 1,..., p n ) s eine Sequenz mit Codewort T(s) der Länge k. Technik Imitiere den Codierer.

58 Decodierung einer reellen Zahl Algorithmus l = 0 ; u = 1 ; s= ; For i = 1 To k Do finde a j i so, dass für das zugehörige Teilintervall [a, b) [l, u) gilt: T (s) [a, b). s = s a j i ; l = a ; u = b; End

59 Decodierung einer reellen Zahl Algorithmus l = 0 ; u = 1 ; s= ; For i = 1 To k Do finde a j i so, dass für das zugehörige Teilintervall [a, b) [l, u) gilt: T (s) [a, b). s = s a j i ; l = a ; u = b; End Example siehe Projektor...

60 Terminierung zwei Möglichkeiten zur Terminierung. Länge der Sequenz bekannt end-of-transmission Symbol

61 Analyse des arithmetischen Codes s A mit Codewort C(s) der Länge l(s) Eindeutigkeit und eindeutige Decodierbarkeit C(s) identifiziert s eindeutig C(s) präfixfrei = C(s) eindeutig decodierbar

62 Analyse des arithmetischen Codes s A mit Codewort C(s) der Länge l(s) Eindeutigkeit und eindeutige Decodierbarkeit C(s) identifiziert s eindeutig C(s) präfixfrei = C(s) eindeutig decodierbar mittlere Länge L A m eines arithmetischen Codes L A m = s Am p(s) l(s) Es gilt: L A = L A m m

63 Analyse des arithmetischen Codes Schranken für L A m H(p m ) L A m < H(p m ) + 2

64 Analyse des arithmetischen Codes Schranken für L A m H(p m ) L A m < H(p m ) + 2 Schranken für L A H(p) L A < H(p) + 2 m arithmetische Codierung ist asymptotisch optimal.

65 Skalierungsfunktionen Motivation Inkrementelle De-/Codierung Endliche Genauigkeit von Rechnern

66 Skalierungsfunktionen Motivation Inkrementelle De-/Codierung Endliche Genauigkeit von Rechnern Für kleines [l, u) unterscheidet man: [l, u) [0, 0.5) [l, u) [0.5, 1) [l, u) [0.25, 0.75)

67 Skalierungsfunktionen Skalierungsfunktionen E 1 und E 2 E 1 : [0, 0.5) [0, 1), E 1 (x) = 2 x E 2 : [0.5, 1) [0, 1), E 2 (x) = 2 (x 0.5)

68 Skalierungsfunktionen Skalierungsfunktionen E 1 und E 2 E 1 : [0, 0.5) [0, 1), E 1 (x) = 2 x E 2 : [0.5, 1) [0, 1), E 2 (x) = 2 (x 0.5) Die Skalierungsfunktion E 3 E 3 : [0.25, 0.75) [0, 1), E 3 (x) = 2 (x 0.25)

69 Skalierungsfunktionen Skalierungsfunktionen E 1 und E 2 E 1 : [0, 0.5) [0, 1), E 1 (x) = 2 x E 2 : [0.5, 1) [0, 1), E 2 (x) = 2 (x 0.5) Die Skalierungsfunktion E 3 E 3 : [0.25, 0.75) [0, 1), E 3 (x) = 2 (x 0.25) Eigenschaften von E 3 E 1 (E 3 ) n = (E 2 ) n E 1 E 2 (E 3 ) n = (E 1 ) n E 2

70 Beispiel: Codierung mit Skalierung Example Siehe Projektor...

71 Laufzeit Huffman-Verfahren schneller arithmetische Codierung rechenaufwändig

72 Laufzeit Effizienz Huffman-Verfahren schneller arithmetische Codierung rechenaufwändig Schranken für die mittlere Länge eines Huffman-Codes für Sequenzen der Länge m: H(p) L H < H(p) + 1 m eines arithmetischen Codes: H(p) L A < H(p) + 2 m

73 Huffman-Codierung Textkomprimierung Fax-Übertragung ZIP, GZIP, JPEG, MP3,...

74 Huffman-Codierung Textkomprimierung Fax-Übertragung ZIP, GZIP, JPEG, MP3,... Textkomprimierung, JPEG Gültige Patente hindern verbreiteten Einsatz

75 1 Einführung

Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen

Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 202/3 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen

Mehr

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1 Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)

Mehr

2.7 Der Shannon-Fano-Elias Code

2.7 Der Shannon-Fano-Elias Code 2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 206 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Organisatorisches Weiterer Ablauf: heute und Donnerstag,

Mehr

Kapitel 7: Optimalcodierung und Huffman Coding

Kapitel 7: Optimalcodierung und Huffman Coding Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge

Mehr

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,

Mehr

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein. 3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle

Mehr

Kompression. Tim Kilian

Kompression. Tim Kilian Kompression Tim Kilian Seminar Effiziente Programmierung Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

Informatik II, SS 2018

Informatik II, SS 2018 Informatik II - SS 28 (Algorithmen & Datenstrukturen) Vorlesung 22 (6.7.28) Greedy Algorithmen II (Datenkompression) Algorithmen und Komplexität Datenkompression Reduziert Größen von Files Viele Verfahren

Mehr

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd

Mehr

Informatik II, SS 2016

Informatik II, SS 2016 Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 22 (20.7.2016) Greedy Algorithmen - Datenkompression Algorithmen und Komplexität Greedy Algorithmen Greedy Algorithmen sind eine Algorithmenmethode,

Mehr

Effiziente Algorithmen und Komplexitätstheorie

Effiziente Algorithmen und Komplexitätstheorie Fakultät für Informatik Lehrstuhl 2 Vorlesung Effiziente Algorithmen und Komplexitätstheorie Sommersemester 2008 Ingo Wegener; Vertretung: Carsten Witt 7. Juli 2008 Vorlesung am 14.07. (nächste Woche):

Mehr

Codierungstheorie. Statt einer Einleitung. Rudolf Scharlau. 4. April 2006

Codierungstheorie. Statt einer Einleitung. Rudolf Scharlau. 4. April 2006 Codierungstheorie Rudolf Scharlau 4. April 2006 Statt einer Einleitung Im ersten Teil dieser Vorlesung folgen wir eng dem Buch Information and Coding theory von Gareth A. Jones und J. Mary Jones. Technische

Mehr

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind. 1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,

Mehr

Referat zum Thema Huffman-Codes

Referat zum Thema Huffman-Codes Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm 11 Datenkompression Einführung Grundlagen

Mehr

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b. Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie

Mehr

Einleitung. Kapitel 1

Einleitung. Kapitel 1 Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch

Mehr

Theoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK

Theoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK Theoretische Grundlagen der Informatik 3..29 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Thema dieses Kapitels Informationstheorie

Mehr

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus? Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Kolmogoroffkomplexität Teil 3 Informationstheorie und Kodierung. Torsten Steinbrecher

Kolmogoroffkomplexität Teil 3 Informationstheorie und Kodierung. Torsten Steinbrecher Kolmogoroffkompleität Teil 3 Informationstheorie und Kodierung Torsten Steinbrecher Informationstheorie Information ist Δ Wahlfreiheit beim Sender Δ Unbestimmtheit beim Empfänger Information ist nicht

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,

Mehr

16 - Kompressionsverfahren für Texte

16 - Kompressionsverfahren für Texte 16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,

Mehr

Kapitel 2 Quellencodierung

Kapitel 2 Quellencodierung Kapitel 2 Quellencodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv

Mehr

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv

Mehr

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009

Mehr

Gierige Algorithmen Interval Scheduling

Gierige Algorithmen Interval Scheduling Gierige Algorithmen Interval Scheduling IntervalScheduling(s,f). n length[s] 2. A {} 3. j 4. for i 2 to n do 5. if s[i] f[j] then 6. A A {i} 7. j i 8. return A Gierige Algorithmen Interval Scheduling Beweisidee:

Mehr

Kompressionsverfahren für Texte

Kompressionsverfahren für Texte Kompressionsverfahren für Texte Prof. Dr. S. Albers Prof. Dr. Th. Ottmann 1 Zeichenkettenverarbeitung Suche in Texten, Textindizes Mustererkennung (Pattern-Matching) Verschlüsseln Komprimiern Analysieren

Mehr

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238 3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung

Mehr

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe: Fachbereich Medieninformatik Hochschule Harz Huffman-Kodierung Referat Henner Wöhler 11459 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung...I 1. Entropiekodierung...1 1.1 Morse Code...2 1.2 Shannon-Fano-Kodierung...3

Mehr

Mathematik für Information und Kommunikation

Mathematik für Information und Kommunikation Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html

Mehr

Informationsgehalt einer Nachricht

Informationsgehalt einer Nachricht Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner

Mehr

Arithmetisches Codieren

Arithmetisches Codieren Arithmetisches Codieren 1. Motivation: Als Alternative zum arithmetischen Codieren bot sich damals als effizientester Algorithmus das Huffmann-Coding an. Dieses jedoch hatte einen entscheidenden Nachteil:

Mehr

Wann sind Codes eindeutig entschlüsselbar?

Wann sind Codes eindeutig entschlüsselbar? Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C

Mehr

Kryptographie und Datensicherheit. Universität Potsdam Institut für Informatik Almahameed Ayman

Kryptographie und Datensicherheit. Universität Potsdam Institut für Informatik Almahameed Ayman Kryptographie und Datensicherheit Universität Potsdam Institut für Informatik Almahameed Ayman almahame@uni-potsdam.de Inhalt des Vortrags Einführung Grundlagen der Wahrscheinlichkeitstheorie Begriff der

Mehr

Vorlesung 15a. Quellencodieren und Entropie

Vorlesung 15a. Quellencodieren und Entropie Vorlesung 15a Quellencodieren und Entropie 1 1. Volle Binärbäume als gerichtete Graphen und die gewöhnliche Irrfahrt von der Wurzel zu den Blättern 2 3 ein (nicht voller) Binärbaum Merkmale eines Binärbaumes:

Mehr

12. Übung TGI. (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF.

12. Übung TGI. (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. 12. Übung TGI (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS 1 Lorenz Hübschle-Schneider, Tobias Maier KIT Die Forschungsuniversität

Mehr

Digitale Medien. Übung

Digitale Medien. Übung Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm http://www.die-informatiker.net Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs

Mehr

21. Dynamic Programming III

21. Dynamic Programming III Approximation 21. Dynamic Programming III FPTAS [Ottman/Widmayer, Kap. 7.2, 7.3, Cormen et al, Kap. 15,35.5] Sei ein ε (, 1) gegeben. Sei I eine bestmögliche Auswahl. Suchen eine gültige Auswahl I mit

Mehr

Übung 1: Quellencodierung

Übung 1: Quellencodierung ZHAW, NTM2, Rumc, /7 Übung : Quellencodierung Aufgabe : Huffman-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten

Mehr

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information

Mehr

Digitale Medien. Übung

Digitale Medien. Übung Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs Wichtige Voraussetzung

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität Gierige Algorithmen: Berechne Lösung schrittweise In jedem Schritt mache lokal optimale Wahl Daumenregel: Wenn optimale Lösung

Mehr

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg Vortrag am 25. Januar 200 Werner von Siemens Gymnasium Magdeburg Zeitansatz: 5h (inklusive Programmieraufgaben) Datenkompression Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

Mehr

Diskrete Mathematik II

Diskrete Mathematik II Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung 01-07.04.2008 Einführung in die Codierungstheorie, Definition Codes 1 / 36 Organisatorisches

Mehr

Molekulare Bioinformatik

Molekulare Bioinformatik Molekulare Bioinformatik Wintersemester 203/204 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 07.0.204 Molekulare Bioinformatik - Vorlesung 0 Wiederhohlung Die Entropie

Mehr

RLE Arithm. Shannon Fano Huffman Grenzen. Komprimierung. Ingo Blechschmidt, Michael Hartmann. 6. Dezember 2006

RLE Arithm. Shannon Fano Huffman Grenzen. Komprimierung. Ingo Blechschmidt, Michael Hartmann. 6. Dezember 2006 RLE Arithm. Shannon Fano Huffman Grenzen Ingo Blechschmidt, Michael Hartmann 6. Dezember 2006 RLE Arithm. Shannon Fano Huffman Grenzen Inhalt 1 Lauflängenkodierung 2 Arithmetische Kodierung 3 Shannon Fano-Kodierung

Mehr

Proseminar Datenkompression Suchstrategien und Präfixcodes

Proseminar Datenkompression Suchstrategien und Präfixcodes Proseminar Datenkompression Suchstrategien und Präfixcodes Patrick Sonntag Mittwoch, den 05.02.2003 I. Einführung - Suche elementares Problem in Informatik - hierbei Beschränkung auf binäre Tests nur 2

Mehr

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester

Mehr

Fehlererkennung und Fehlerkorrektur in Codes

Fehlererkennung und Fehlerkorrektur in Codes Fehlererkennung und Fehlerkorrektur in Codes Blockcodes und Hamming Abstand Untersuchungen zu Codierungen von Informationen, die über einen Nachrichtenkanal übertragen werden sollen, konzentrieren sich

Mehr

Information und Codierung

Information und Codierung Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe

Mehr

Kodierung und Sicherheit

Kodierung und Sicherheit Skript zur Vorlesung: Kodierung und Sicherheit 0000 00000 000 0000 0000 000 00 000 Wintersemester 2004-2005 Dr. Andreas Jakoby Institut für Theoretische Informatik Universität zu Lübeck Inhaltsverzeichnis

Mehr

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon

Mehr

2.4 Darstellung von Zeichen(ketten)

2.4 Darstellung von Zeichen(ketten) 2.4 Darstellung von Zeichen(ketten) ASCII (American Standard for Coded Information Interchange): Abbildungsvorschrift (Norm) zur binären Kodierung von Zeichen Umfasst Klein-/Großbuchstaben des lateinischen

Mehr

Isomorphie von Bäumen

Isomorphie von Bäumen Isomorphie von Bäumen Alexandra Weinberger 23. Dezember 2011 Inhaltsverzeichnis 1 Einige Grundlagen und Definitionen 2 1.1 Bäume................................. 3 1.2 Isomorphie..............................

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,

Mehr

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zuallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Inormation steht

Mehr

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Codierung Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Ein bisschen Informationstheorie Betrachten wir das folgende Problem: Wie lautet eine sinnvolle Definition für das quantitative

Mehr

Optimalcodierung. Thema: Optimalcodierung. Ziele

Optimalcodierung. Thema: Optimalcodierung. Ziele Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.

Mehr

Die mittlere Höhe eines Binärbaumes. h(t) = 1 e(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t

Die mittlere Höhe eines Binärbaumes. h(t) = 1 e(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t Höhe von Binärbäumen Die mittlere Höhe eines Binärbaumes h(t) = 1 e(t) b E(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t h(b, t), Höhe von Binärbäumen Die mittlere Höhe eines

Mehr

Ι. Einführung in die Codierungstheorie

Ι. Einführung in die Codierungstheorie 1. Allgemeines Ι. Einführung in die Codierungstheorie Codierung: Sicherung von Daten und Nachrichten gegen zufällige Fehler bei der Übertragung oder Speicherung. Ziel der Codierung: Möglichst viele bei

Mehr

Kryptographie und Codierung für den Mathematikunterricht

Kryptographie und Codierung für den Mathematikunterricht Kryptographie und Codierung für den Mathematikunterricht Pädagogische Hochschule Karlsruhe University of Education École Supérieure de Pédagogie Institut für Mathematik und Informatik Th. Borys Was verstehst

Mehr

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines Seite 1 Georg-August-Universität Göttingen Robert Schaback Zum Begriff der Information in Mathematik und Informatik Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A)

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 24. April 2019 [Letzte Aktualisierung: 24/04/2019,

Mehr

Vorlesung 12. Quellencodieren und Entropie

Vorlesung 12. Quellencodieren und Entropie Vorlesung 12 Quellencodieren und Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. Wir wollen die Buchstaben a, b,... durch (möglichst kurze) 01-Folgen k(a),

Mehr

Informationstheorie und Codierung

Informationstheorie und Codierung Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice

Mehr

h = 1 7 ( ) = 21 7 = 3

h = 1 7 ( ) = 21 7 = 3 Zur mittleren Höhe von Binärbäumen mittlere Höhe von Binärbäumen Entropie gewichtete mittlere Höhe von Binärbäumen Quellcodierung, Datenkompression Shannons Theorem optimale Quellcodierung (Huffman) wobei

Mehr

Proseminar WS 2002/2003

Proseminar WS 2002/2003 Technische Universität Chemnitz Fakultät für Informatik Professur Theoretische Informatik Proseminar WS 2002/2003 Thema: Datenkompression Dynamisches / Adaptives Huffman-Verfahren Danny Grobe Rainer Kuhn

Mehr

Codes on Graphs: Normal Realizations

Codes on Graphs: Normal Realizations Codes on Graphs: Normal Realizations Autor: G. David Forney, Jr. Seminarvortrag von Madeleine Leidheiser und Melanie Reuter Inhaltsverzeichnis Einführung Motivation Einleitung Graphendarstellungen Trellis

Mehr

(Prüfungs-)Aufgaben zur Codierungstheorie

(Prüfungs-)Aufgaben zur Codierungstheorie (Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1

Mehr

Inhaltsverzeichnis. 1 Einführung 1

Inhaltsverzeichnis. 1 Einführung 1 Inhaltsverzeichnis Inhaltsverzeichnis IX 1 Einführung 1 2 Grundlagen der Datenkompression 5 2.1 Informationsgehalt und Entropie....................... 5 2.2 Kriterien zur Kompressionsbewertung....................

Mehr

Grundbegriffe der Informatik Tutorium 3

Grundbegriffe der Informatik Tutorium 3 Grundbegriffe der Informatik Tutorium 3 Tutorium Nr. 16 Philipp Oppermann 18. November 2014 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 6 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 16. Mai 2018 [Letzte Aktualisierung: 18/05/2018,

Mehr

Digitalisierung. analoges Signal PAM. Quantisierung

Digitalisierung. analoges Signal PAM. Quantisierung Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste

Mehr

Eigenschaften von Kompressionsverfahren

Eigenschaften von Kompressionsverfahren 6 Textkompression Eigenschaften von Kompressionsverfahren Das Ziel der Datenkompression ist es, eine gegebene Information (Datenquelle) auf eine kompaktere Weise zu repräsentieren. Dies geschieht, indem

Mehr

3 Quellencodierung. 3.1 Einleitung

3 Quellencodierung. 3.1 Einleitung Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im

Mehr

Modul 1: Einführung und Wahrscheinlichkeitsrechnung

Modul 1: Einführung und Wahrscheinlichkeitsrechnung Modul : Einführung und Wahrscheinlichkeitsrechnung Informationstheorie Dozent: Prof. Dr. M. Gross E-mail: grossm@inf.ethz.ch Assistenten: Bernd Bickel, Daniel Cotting, Michael Waschbüsch, Boris Köpf, Andrea

Mehr

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Error-Free Compression Hufmann Coding Runlength Coding Lossy Compression

Mehr

Klausur zur Vorlesung Informationstheorie

Klausur zur Vorlesung Informationstheorie INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 0167 Hannover Klausur zur Vorlesung Informationstheorie Datum:.02.2006 Uhrzeit: 9:00 Uhr Zeitdauer: 2 Stunden Hilfsmittel: ausgeteilte

Mehr

Kapitel 2: Informationstheorie. 3. Quellencodierung

Kapitel 2: Informationstheorie. 3. Quellencodierung ZHAW, NTM2, Rumc, 2.3-1 Kapitel 2: Informationstheorie 3. Quellencodierung Inhaltsverzeichnis 1. EINLEITUNG... 1 2. QUELLENCODIERUNGSTHEOREM... 2 3. HUFFMAN-QUELLENCODIERUNG... 3 4. DATENKOMPRESSION MIT

Mehr

Aufgabe: Platz-effiziente Kompression von Textdaten

Aufgabe: Platz-effiziente Kompression von Textdaten 7.3 Huffman-Bäume Anwendung von Binärbäumen Aufgabe: Platz-effiziente Kompression von Textdaten Standardcodierungen von Textdaten ISO-8859-1: 8 Bit pro Zeichen UTF-16: 16 Bit pro Zeichen Codierungen mit

Mehr

Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider

Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider Wintersemester 2016/17 Bilder 20 x 14 Pixel (= Bildpunkte) 16 Bit Farben (= 65.536 Farben) 560

Mehr

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Channel Encoding Error-Free Compression Hufmann Coding Runlength

Mehr

Seminar. Codierungstheorie

Seminar. Codierungstheorie Seminar Codierungstheorie Lempel-Ziv-Verfahren Informatik Sommersemester 25 Tim Schweisgut, Juni 25 Inhalt INHALT... 2 WÖRTERBUCHMETHODEN... 3 Statische Wörterbuchmethoden... 3 Beispiel:... 3 Bemerkung:...

Mehr

Notation und Einführung

Notation und Einführung Skriptteil zur Vorlesung: Proinformatik - Funktionale Programmierung Dr. Marco Block-Berlitz 30.Juli 2009 Notation und Einführung Der folgende Abschnitt gibt eine kurze Einführung in die Codierungstheorie.

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Lerneinheit 3: Greedy Algorithmen Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2016 10.5.2016 Einleitung Einleitung Diese Lerneinheit

Mehr

Vorlesung Datenstrukturen

Vorlesung Datenstrukturen Vorlesung Datenstrukturen Kürzeste Wege Maike Buchin 4. und 6.7.2017 Einführung Motivation: Bestimmung von kürzesten Wegen ist in vielen Anwendungen, z.b. Routenplanung, ein wichtiges Problem. Allgemeine

Mehr

Panorama der Mathematik und Informatik

Panorama der Mathematik und Informatik Panorama der Mathematik und Informatik 20: Algorithmen III: png und Co Dirk Frettlöh Technische Fakultät / Richtig Einsteigen 26.6.2014 Kompressionsalgorithmen: Idee: Speichere 2 MB Daten in einer 1 MB

Mehr

Suchen und Sortieren Sortieren. Heaps

Suchen und Sortieren Sortieren. Heaps Suchen und Heaps (Folie 156, Seite 56 im Skript) Definition Ein Heap ist ein Binärbaum, der die Heapeigenschaft hat (Kinder sind größer als der Vater), bis auf die letzte Ebene vollständig besetzt ist,

Mehr

Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13)

Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13) Berlin, 21. Februar 2013 Name:... Matr.-Nr.:... Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13) 1 2 3 4 5 6 7 8 9 Σ Bearbeitungszeit: 90 min. max. Punktezahl:

Mehr