Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung
|
|
- Jens Lothar Fuhrmann
- vor 7 Jahren
- Abrufe
Transkript
1 Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012
2 Übersicht 1 Einführung
3 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft Ziel: effiziente Speicherung und Übertragung von Daten
4 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft Ziel: effiziente Speicherung und Übertragung von Daten Kompressionsalgorithmus Kompressionsalgo A = Kompressionsalgo A und Dekompressionsalgo A A (x) = y A (y) = z
5 Einführung Klassen von Kompressionsalgorithmen verlustfreie Kompressionsalgorithmen. Es gilt: z = x verlustbehaftete Kompressionsalgorithmen. Im Allgemeinen z x
6 Einführung Klassen von Kompressionsalgorithmen verlustfreie Kompressionsalgorithmen. Es gilt: z = x verlustbehaftete Kompressionsalgorithmen. Im Allgemeinen z x Gliederung des Kompressionsvorgangs Modellierung Codierung
7 Alphabet, Symbol, Sequenz A = {a 1, a 2,..., a n } ist ein Alphabet a i A ist ein Symbol s = (a i 1 a i 2 a i m ),m 1, Sequenz über A der Länge m A m = {(a i 1 a i 2 a i m ) a i j A}, m 1 A = m=1 Am ist der Kleenesche Abschluss von A
8 Datenquelle Datenquelle Q: Folge von Symbolen aus A Q diskret A endlich oder abzählbar unendlich Q gedächtnislos Auftreten eines Symbol unabhängig von den anderen p i = p(a i ) : Auftretenswahrscheinlichkeit vom Symbol a i p = (p 1,..., p n ): Wahrscheinlichkeitsverteilung der Symbole aus A
9 Modell M : A [0, 1); a i p M (a i ) = p i
10 Modell Code M : A [0, 1); a i p M (a i ) = p i A: Quellenalphabet und B ein endliches Alphabet. C : A B, a i C(a i ) l i := Länge von C(a i ). Im Allgemeinen B = {0, 1}
11 Modell Code M : A [0, 1); a i p M (a i ) = p i A: Quellenalphabet und B ein endliches Alphabet. C : A B, a i C(a i ) l i := Länge von C(a i ). Im Allgemeinen B = {0, 1} Erweiterung eines Codes C C : A B, s = (a i 1 a i 2 a i m ) C(s) = C(a i 1 )C(a i 2 ) C(a i m )
12 Nützliche Eigenschaften eines Codes Sei C : A B ein Code Eindeutige Dekodierbarkeit C eindeutig decodierbar s 1, s 2 A : s 1 s 2 = C (s 1 ) C (s 2 )
13 Nützliche Eigenschaften eines Codes Sei C : A B ein Code Eindeutige Dekodierbarkeit C eindeutig decodierbar s 1, s 2 A : s 1 s 2 = C (s 1 ) C (s 2 ) Präfixfreier Code C präfixfrei, wenn kein Codewort präfix eines anderen ist.
14 Nützliche Eigenschaften eines Codes Sei C : A B ein Code Eindeutige Dekodierbarkeit C eindeutig decodierbar s 1, s 2 A : s 1 s 2 = C (s 1 ) C (s 2 ) Präfixfreier Code C präfixfrei, wenn kein Codewort präfix eines anderen ist. Fano-Bedingung C präfixfrei = C eindeutig decodierbar
15 Nützliche Eigenschaften eines Codes Sei C : A B ein Code Eindeutige Dekodierbarkeit C eindeutig decodierbar s 1, s 2 A : s 1 s 2 = C (s 1 ) C (s 2 ) Präfixfreier Code C präfixfrei, wenn kein Codewort präfix eines anderen ist. Fano-Bedingung C präfixfrei = C eindeutig decodierbar
16 Nützliche Eigenschaften eines Codes Beispiel: Code C 1 Symbol Codewort A 0 B 01 C 10 Beispiel: Code C 2 Symbol Codewort A 0 B 10 C 110
17 Nützliche Eigenschaften eines Codes Beispiel: Code C 1 Symbol Codewort A 0 B 01 C 10 Beispiel: Code C 2 Symbol Codewort A 0 B 10 C 110 Example Zu decodieren:
18 Nützliche Eigenschaften eines Codes Beispiel: Code C 1 Symbol Codewort A 0 B 01 C 10 Example Zu decodieren: C C 1 Beispiel: Code C 2 Symbol Codewort A 0 B 10 C 110 AACC ABAC ABBA
19 Nützliche Eigenschaften eines Codes Beispiel: Code C 1 Symbol Codewort A 0 B 01 C 10 Example Zu decodieren: C C C 1 Beispiel: Code C 2 Symbol Codewort A 0 B 10 C 110 C 2 AACC ABAC ABBA AABB.
20 Nützliche Ergebnisse aus der Informationstheorie Ausgangspunkt Datenquelle Q über A = {a 1, a 2,..., a n } mit p = (p 1, p 2,..., p n )
21 Nützliche Ergebnisse aus der Informationstheorie Ausgangspunkt Datenquelle Q über A = {a 1, a 2,..., a n } mit p = (p 1, p 2,..., p n ) Informationsgehalt eines Symbols I(a i ) = I(p i ) = log 2 ( 1 p i ) = log 2 (p i ) [Bits]
22 Nützliche Ergebnisse aus der Informationstheorie Ausgangspunkt Datenquelle Q über A = {a 1, a 2,..., a n } mit p = (p 1, p 2,..., p n ) Informationsgehalt eines Symbols I(a i ) = I(p i ) = log 2 ( 1 p i ) = log 2 (p i ) [Bits] Informationsgehalt einer Sequenz Sei s = (a i 1 a i 2 a i m ) eine Sequenz. p(s) = p(a i 1 ) p(a i 2 ) p(a i m ) I(s) = I(p(s)) = m j=1 I(p i j ) [Bits]
23 Nützliche Ergebnisse aus der Informationstheorie Definition Entropie von Q: durchschnittlicher Informationsgehalt aller a i
24 Nützliche Ergebnisse aus der Informationstheorie Definition Entropie von Q: durchschnittlicher Informationsgehalt aller a i formal Die Entropie H(p) = n i=1 p i log 2 ( 1 p i ) = n i=1 p i log 2 (p i ) Einheit : [ Bits/Symbol]
25 Nützliche Ergebnisse aus der Informationstheorie Definition Entropie von Q: durchschnittlicher Informationsgehalt aller a i formal Die Entropie H(p) = n i=1 p i log 2 ( 1 p i ) = n i=1 p i log 2 (p i ) Einheit : [ Bits/Symbol] Entropie erweiterter Alphabete A m, Alphabet mit Wahrscheinlichkeitsverteilung p m. H(p m ) = m H(p)
26 Nützliche Ergebnisse aus der Informationstheorie sei C : A B ein präfixfreier Code. Mittlere Länge L C von C L C = n j=1 l j p j
27 Nützliche Ergebnisse aus der Informationstheorie sei C : A B ein präfixfreier Code. Mittlere Länge L C von C L C = n j=1 l j p j Satz ( Noiseless Coding theorem von Claude Shannon ) H(p) L C
28 Das Huffman-Verfahren 1952 von David Albert Huffman veröffentlicht. sehr schnell wegen mathematischer Einfachheit beliebt. generiert präfixfreien Code
29 Das Huffman-Verfahren 1952 von David Albert Huffman veröffentlicht. sehr schnell wegen mathematischer Einfachheit beliebt. generiert präfixfreien Code Eigenschaften eines optimalen Codes C P j > P k = l j l k a i und a j zwei Symbole mit den kleinsten Auftretenswahrscheinlichkeiten. Dann : l i = l j, C(a i ) und C(a j ) bis auf das letzte Bit identisch
30 Das Huffman-Verfahren Huffman-Baum binärer Baum, Knoten mit Gewichten.
31 Das Huffman-Verfahren Huffman-Baum binärer Baum, Knoten mit Gewichten. Algorithmus: Generierung des Huffman-Baumes Sei L eine leere Liste. Für jedes a i, ein Blatt mit Gewicht p i wiederhole,bis L nur einen Knoten enthält. Sortiere L absteigend nach den Gewichten wähle 2 Knoten u, v mit kleinsten Gewichten p(u) und p(v) Erzeuge w mit Gewicht p(w) = p(u) + p(v), w Vater von u und v. Entferne u und v aus L und füge w in L ein.
32 Beispiel: Huffman-Baum Example a i p i A 0.2 B 0.4 C 0.2 D 0.1 E 0.1
33 Beispiel: Huffman-Baum Huffman-Baum Example a i p i A 0.2 B 0.4 C 0.2 D 0.1 E 0.1
34 Code-Generierung Code-Generierung Für jeden inneren Knoten u, markiere die linke Kante aus u mit 0 und die rechte mit 1 Codewort eines Symbols als Folge der Kantenmarkierungen von der Wurzel bis zum Blatt.
35 Code-Generierung Code-Generierung Für jeden inneren Knoten u, markiere die linke Kante aus u mit 0 und die rechte mit 1 Codewort eines Symbols als Folge der Kantenmarkierungen von der Wurzel bis zum Blatt. Bemerkung Huffman-Code besitzt die obigen Eigenschaften eines optimalen Codes.
36 Beispiel: Huffman-Code markierter Huffman-Baum
37 Beispiel: Huffman-Code markierter Huffman-Baum Code-Tabelle a i p i C(a i ) A B C D E
38 Analyse des Huffman-Codes Seien C H ein Huffman-Code mit mittlerer Länge L H und C ein präfixfreier Code mit mittlerer Länge L. Optimalität-Eigenschaft C H ist optimal. L H L
39 Analyse des Huffman-Codes Seien C H ein Huffman-Code mit mittlerer Länge L H und C ein präfixfreier Code mit mittlerer Länge L. Optimalität-Eigenschaft C H ist optimal. L H L Schranken für L H H(p) L H < H(p) + 1
40 Bessere Annäherung der Entropie Betrachte A m als Alphabet mit p m. C H ein Huffman-Code für A m mit L m. Dann gilt:
41 Bessere Annäherung der Entropie Betrachte A m als Alphabet mit p m. C H ein Huffman-Code für A m mit L m. Dann gilt: Schranken für L m H(p m ) L m < H(p m ) + 1
42 Bessere Annäherung der Entropie Betrachte A m als Alphabet mit p m. C H ein Huffman-Code für A m mit L m. Dann gilt: Schranken für L m H(p m ) L m < H(p m ) + 1 H(p m ) = m H(p) und L H = Lm m
43 Bessere Annäherung der Entropie Betrachte A m als Alphabet mit p m. C H ein Huffman-Code für A m mit L m. Dann gilt: Schranken für L m H(p m ) L m < H(p m ) + 1 H(p m ) = m H(p) und L H = Lm m Schranken für L H H(p) L H < H(p) + 1 m
44 Erinnerung: Schranken für L H H(p) L H < H(p) + 1 m
45 Erinnerung: Schranken für L H H(p) L H < H(p) + 1 m Nachteile Codewörter aller Sequenzen der Länge m. exponentieller Wachstum der Codetabelle mit wachsender m Beispiel : m = 10 und A = 10 = Codewörter
46 Erinnerung: Schranken für L H H(p) L H < H(p) + 1 m Nachteile Codewörter aller Sequenzen der Länge m. exponentieller Wachstum der Codetabelle mit wachsender m Beispiel : m = 10 und A = 10 = Codewörter Lösung : verlustfrei Codewort für eine ganze Sequenz
47 Codierung als reelle Zahl Ausgangspunkt Datenquelle über A = {a 1,..., a n } und p = (p 1,..., p n )
48 Codierung als reelle Zahl Ausgangspunkt Datenquelle über A = {a 1,..., a n } und p = (p 1,..., p n ) Definiere folgende Funktion F { 0 wenn i = 0 F : {0, 1,..., n} [0, 1], F(i) = i j=1 p j sonst
49 Codierung als reelle Zahl Ausgangspunkt Datenquelle über A = {a 1,..., a n } und p = (p 1,..., p n ) Definiere folgende Funktion F F : {0, 1,..., n} [0, 1], F(i) = Eigenschaften von F F(0) = 0, F(n) = 1 { 0 wenn i = 0 i j=1 p j sonst i {1,..., n} : p i = 0 = i, j {0, 1,..., n}, j i : F(i) F(j).
50 Codierung als reelle Zahl Prinzip der arithmetischen Codierung s A AC [l s, u s ) [0, 1) [l s, u s ) eindeutig für s T (s) = ls+us 2 als Code
51 Codierung als reelle Zahl Vorgehen Init: l = 0 und u = 1 wiederhole, bis ganze Sequenz bearbeitet partitioniere [l, u) : a i A = [l + (u l) F(i 1), l + (u l) F (i))
52 Codierung als reelle Zahl Vorgehen Init: l = 0 und u = 1 wiederhole, bis ganze Sequenz bearbeitet partitioniere [l, u) : a i A = [l + (u l) F(i 1), l + (u l) F (i)) a j, j te Symbol der Sequenz. Setze: l = l + (u l) F(j 1) und u = l + (u l) F(j) T (s) = l+u 2
53 Codierung als reelle Zahl Vorgehen Init: l = 0 und u = 1 wiederhole, bis ganze Sequenz bearbeitet partitioniere [l, u) : a i A = [l + (u l) F(i 1), l + (u l) F (i)) a j, j te Symbol der Sequenz. Setze: l = l + (u l) F(j 1) und u = l + (u l) F(j) Example T (s) = l+u 2 siehe Projektor..
54 binärer arithmetischer Code Definition seien s A mit Wahrscheinlichkeit p(s) und x, y zwei Zahlen. l(s) := log 2 ( 1 p(s) ) + 1 bin(x) y := erste y-bits der binären Darstellung von x.
55 binärer arithmetischer Code Definition seien s A mit Wahrscheinlichkeit p(s) und x, y zwei Zahlen. l(s) := log 2 ( 1 p(s) ) + 1 bin(x) y := erste y-bits der binären Darstellung von x. binärer arithmetischer Code C(s) = bin(t (s)) l(s)
56 Beispiel: binärer arithmetischer Code Example Für s = abc hatten wir T(s) = Mit p(s) = p(a) P(b) p(c) = erhalten wir: 1 l(s) = log 2 ( ) + 1 = 8. T (s) = (0.553) 10 = ( ) 2. C(s) = bin(0.553) 8 =
57 Decodierung einer reellen Zahl Ausgangspunkt A = {a 1,..., a n }, p = (p 1,..., p n ) s eine Sequenz mit Codewort T(s) der Länge k. Technik Imitiere den Codierer.
58 Decodierung einer reellen Zahl Algorithmus l = 0 ; u = 1 ; s= ; For i = 1 To k Do finde a j i so, dass für das zugehörige Teilintervall [a, b) [l, u) gilt: T (s) [a, b). s = s a j i ; l = a ; u = b; End
59 Decodierung einer reellen Zahl Algorithmus l = 0 ; u = 1 ; s= ; For i = 1 To k Do finde a j i so, dass für das zugehörige Teilintervall [a, b) [l, u) gilt: T (s) [a, b). s = s a j i ; l = a ; u = b; End Example siehe Projektor...
60 Terminierung zwei Möglichkeiten zur Terminierung. Länge der Sequenz bekannt end-of-transmission Symbol
61 Analyse des arithmetischen Codes s A mit Codewort C(s) der Länge l(s) Eindeutigkeit und eindeutige Decodierbarkeit C(s) identifiziert s eindeutig C(s) präfixfrei = C(s) eindeutig decodierbar
62 Analyse des arithmetischen Codes s A mit Codewort C(s) der Länge l(s) Eindeutigkeit und eindeutige Decodierbarkeit C(s) identifiziert s eindeutig C(s) präfixfrei = C(s) eindeutig decodierbar mittlere Länge L A m eines arithmetischen Codes L A m = s Am p(s) l(s) Es gilt: L A = L A m m
63 Analyse des arithmetischen Codes Schranken für L A m H(p m ) L A m < H(p m ) + 2
64 Analyse des arithmetischen Codes Schranken für L A m H(p m ) L A m < H(p m ) + 2 Schranken für L A H(p) L A < H(p) + 2 m arithmetische Codierung ist asymptotisch optimal.
65 Skalierungsfunktionen Motivation Inkrementelle De-/Codierung Endliche Genauigkeit von Rechnern
66 Skalierungsfunktionen Motivation Inkrementelle De-/Codierung Endliche Genauigkeit von Rechnern Für kleines [l, u) unterscheidet man: [l, u) [0, 0.5) [l, u) [0.5, 1) [l, u) [0.25, 0.75)
67 Skalierungsfunktionen Skalierungsfunktionen E 1 und E 2 E 1 : [0, 0.5) [0, 1), E 1 (x) = 2 x E 2 : [0.5, 1) [0, 1), E 2 (x) = 2 (x 0.5)
68 Skalierungsfunktionen Skalierungsfunktionen E 1 und E 2 E 1 : [0, 0.5) [0, 1), E 1 (x) = 2 x E 2 : [0.5, 1) [0, 1), E 2 (x) = 2 (x 0.5) Die Skalierungsfunktion E 3 E 3 : [0.25, 0.75) [0, 1), E 3 (x) = 2 (x 0.25)
69 Skalierungsfunktionen Skalierungsfunktionen E 1 und E 2 E 1 : [0, 0.5) [0, 1), E 1 (x) = 2 x E 2 : [0.5, 1) [0, 1), E 2 (x) = 2 (x 0.5) Die Skalierungsfunktion E 3 E 3 : [0.25, 0.75) [0, 1), E 3 (x) = 2 (x 0.25) Eigenschaften von E 3 E 1 (E 3 ) n = (E 2 ) n E 1 E 2 (E 3 ) n = (E 1 ) n E 2
70 Beispiel: Codierung mit Skalierung Example Siehe Projektor...
71 Laufzeit Huffman-Verfahren schneller arithmetische Codierung rechenaufwändig
72 Laufzeit Effizienz Huffman-Verfahren schneller arithmetische Codierung rechenaufwändig Schranken für die mittlere Länge eines Huffman-Codes für Sequenzen der Länge m: H(p) L H < H(p) + 1 m eines arithmetischen Codes: H(p) L A < H(p) + 2 m
73 Huffman-Codierung Textkomprimierung Fax-Übertragung ZIP, GZIP, JPEG, MP3,...
74 Huffman-Codierung Textkomprimierung Fax-Übertragung ZIP, GZIP, JPEG, MP3,... Textkomprimierung, JPEG Gültige Patente hindern verbreiteten Einsatz
75 1 Einführung
Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen
Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 202/3 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen
MehrRedundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1
Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)
Mehr2.7 Der Shannon-Fano-Elias Code
2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.
MehrAlgorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 206 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Organisatorisches Weiterer Ablauf: heute und Donnerstag,
MehrKapitel 7: Optimalcodierung und Huffman Coding
Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge
MehrDatenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut
Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,
Mehr3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.
3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle
MehrKompression. Tim Kilian
Kompression Tim Kilian Seminar Effiziente Programmierung Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg
Mehr2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
MehrInformatik II, SS 2018
Informatik II - SS 28 (Algorithmen & Datenstrukturen) Vorlesung 22 (6.7.28) Greedy Algorithmen II (Datenkompression) Algorithmen und Komplexität Datenkompression Reduziert Größen von Files Viele Verfahren
MehrEinführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
MehrInformatik II, SS 2016
Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 22 (20.7.2016) Greedy Algorithmen - Datenkompression Algorithmen und Komplexität Greedy Algorithmen Greedy Algorithmen sind eine Algorithmenmethode,
MehrEffiziente Algorithmen und Komplexitätstheorie
Fakultät für Informatik Lehrstuhl 2 Vorlesung Effiziente Algorithmen und Komplexitätstheorie Sommersemester 2008 Ingo Wegener; Vertretung: Carsten Witt 7. Juli 2008 Vorlesung am 14.07. (nächste Woche):
MehrCodierungstheorie. Statt einer Einleitung. Rudolf Scharlau. 4. April 2006
Codierungstheorie Rudolf Scharlau 4. April 2006 Statt einer Einleitung Im ersten Teil dieser Vorlesung folgen wir eng dem Buch Information and Coding theory von Gareth A. Jones und J. Mary Jones. Technische
MehrBeispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
MehrReferat zum Thema Huffman-Codes
Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung
MehrAlgorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm 11 Datenkompression Einführung Grundlagen
MehrEntropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
MehrEinleitung. Kapitel 1
Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch
MehrTheoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK
Theoretische Grundlagen der Informatik 3..29 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Thema dieses Kapitels Informationstheorie
MehrÜbrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?
Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrKolmogoroffkomplexität Teil 3 Informationstheorie und Kodierung. Torsten Steinbrecher
Kolmogoroffkompleität Teil 3 Informationstheorie und Kodierung Torsten Steinbrecher Informationstheorie Information ist Δ Wahlfreiheit beim Sender Δ Unbestimmtheit beim Empfänger Information ist nicht
MehrAlgorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,
Mehr16 - Kompressionsverfahren für Texte
16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,
MehrKapitel 2 Quellencodierung
Kapitel 2 Quellencodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv
Mehr21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3
581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv
MehrWir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir
Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009
MehrGierige Algorithmen Interval Scheduling
Gierige Algorithmen Interval Scheduling IntervalScheduling(s,f). n length[s] 2. A {} 3. j 4. for i 2 to n do 5. if s[i] f[j] then 6. A A {i} 7. j i 8. return A Gierige Algorithmen Interval Scheduling Beweisidee:
MehrKompressionsverfahren für Texte
Kompressionsverfahren für Texte Prof. Dr. S. Albers Prof. Dr. Th. Ottmann 1 Zeichenkettenverarbeitung Suche in Texten, Textindizes Mustererkennung (Pattern-Matching) Verschlüsseln Komprimiern Analysieren
Mehr3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238
3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung
MehrHuffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:
Fachbereich Medieninformatik Hochschule Harz Huffman-Kodierung Referat Henner Wöhler 11459 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung...I 1. Entropiekodierung...1 1.1 Morse Code...2 1.2 Shannon-Fano-Kodierung...3
MehrMathematik für Information und Kommunikation
Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html
MehrInformationsgehalt einer Nachricht
Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner
MehrArithmetisches Codieren
Arithmetisches Codieren 1. Motivation: Als Alternative zum arithmetischen Codieren bot sich damals als effizientester Algorithmus das Huffmann-Coding an. Dieses jedoch hatte einen entscheidenden Nachteil:
MehrWann sind Codes eindeutig entschlüsselbar?
Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C
MehrKryptographie und Datensicherheit. Universität Potsdam Institut für Informatik Almahameed Ayman
Kryptographie und Datensicherheit Universität Potsdam Institut für Informatik Almahameed Ayman almahame@uni-potsdam.de Inhalt des Vortrags Einführung Grundlagen der Wahrscheinlichkeitstheorie Begriff der
MehrVorlesung 15a. Quellencodieren und Entropie
Vorlesung 15a Quellencodieren und Entropie 1 1. Volle Binärbäume als gerichtete Graphen und die gewöhnliche Irrfahrt von der Wurzel zu den Blättern 2 3 ein (nicht voller) Binärbaum Merkmale eines Binärbaumes:
Mehr12. Übung TGI. (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF.
12. Übung TGI (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS 1 Lorenz Hübschle-Schneider, Tobias Maier KIT Die Forschungsuniversität
MehrDigitale Medien. Übung
Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm http://www.die-informatiker.net Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs
Mehr21. Dynamic Programming III
Approximation 21. Dynamic Programming III FPTAS [Ottman/Widmayer, Kap. 7.2, 7.3, Cormen et al, Kap. 15,35.5] Sei ein ε (, 1) gegeben. Sei I eine bestmögliche Auswahl. Suchen eine gültige Auswahl I mit
MehrÜbung 1: Quellencodierung
ZHAW, NTM2, Rumc, /7 Übung : Quellencodierung Aufgabe : Huffman-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten
MehrGrundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch
Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information
MehrDigitale Medien. Übung
Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs Wichtige Voraussetzung
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität Gierige Algorithmen: Berechne Lösung schrittweise In jedem Schritt mache lokal optimale Wahl Daumenregel: Wenn optimale Lösung
MehrDatenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg
Vortrag am 25. Januar 200 Werner von Siemens Gymnasium Magdeburg Zeitansatz: 5h (inklusive Programmieraufgaben) Datenkompression Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg
MehrDiskrete Mathematik II
Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung 01-07.04.2008 Einführung in die Codierungstheorie, Definition Codes 1 / 36 Organisatorisches
MehrMolekulare Bioinformatik
Molekulare Bioinformatik Wintersemester 203/204 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 07.0.204 Molekulare Bioinformatik - Vorlesung 0 Wiederhohlung Die Entropie
MehrRLE Arithm. Shannon Fano Huffman Grenzen. Komprimierung. Ingo Blechschmidt, Michael Hartmann. 6. Dezember 2006
RLE Arithm. Shannon Fano Huffman Grenzen Ingo Blechschmidt, Michael Hartmann 6. Dezember 2006 RLE Arithm. Shannon Fano Huffman Grenzen Inhalt 1 Lauflängenkodierung 2 Arithmetische Kodierung 3 Shannon Fano-Kodierung
MehrProseminar Datenkompression Suchstrategien und Präfixcodes
Proseminar Datenkompression Suchstrategien und Präfixcodes Patrick Sonntag Mittwoch, den 05.02.2003 I. Einführung - Suche elementares Problem in Informatik - hierbei Beschränkung auf binäre Tests nur 2
MehrOrganisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele
Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick
MehrProblem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.
Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester
MehrFehlererkennung und Fehlerkorrektur in Codes
Fehlererkennung und Fehlerkorrektur in Codes Blockcodes und Hamming Abstand Untersuchungen zu Codierungen von Informationen, die über einen Nachrichtenkanal übertragen werden sollen, konzentrieren sich
MehrInformation und Codierung
Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe
MehrKodierung und Sicherheit
Skript zur Vorlesung: Kodierung und Sicherheit 0000 00000 000 0000 0000 000 00 000 Wintersemester 2004-2005 Dr. Andreas Jakoby Institut für Theoretische Informatik Universität zu Lübeck Inhaltsverzeichnis
Mehr1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes
1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon
Mehr2.4 Darstellung von Zeichen(ketten)
2.4 Darstellung von Zeichen(ketten) ASCII (American Standard for Coded Information Interchange): Abbildungsvorschrift (Norm) zur binären Kodierung von Zeichen Umfasst Klein-/Großbuchstaben des lateinischen
MehrIsomorphie von Bäumen
Isomorphie von Bäumen Alexandra Weinberger 23. Dezember 2011 Inhaltsverzeichnis 1 Einige Grundlagen und Definitionen 2 1.1 Bäume................................. 3 1.2 Isomorphie..............................
MehrAlgorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,
MehrWir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir
Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zuallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Inormation steht
MehrCodierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau
Codierung Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Ein bisschen Informationstheorie Betrachten wir das folgende Problem: Wie lautet eine sinnvolle Definition für das quantitative
MehrOptimalcodierung. Thema: Optimalcodierung. Ziele
Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.
MehrDie mittlere Höhe eines Binärbaumes. h(t) = 1 e(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t
Höhe von Binärbäumen Die mittlere Höhe eines Binärbaumes h(t) = 1 e(t) b E(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t h(b, t), Höhe von Binärbäumen Die mittlere Höhe eines
MehrΙ. Einführung in die Codierungstheorie
1. Allgemeines Ι. Einführung in die Codierungstheorie Codierung: Sicherung von Daten und Nachrichten gegen zufällige Fehler bei der Übertragung oder Speicherung. Ziel der Codierung: Möglichst viele bei
MehrKryptographie und Codierung für den Mathematikunterricht
Kryptographie und Codierung für den Mathematikunterricht Pädagogische Hochschule Karlsruhe University of Education École Supérieure de Pédagogie Institut für Mathematik und Informatik Th. Borys Was verstehst
MehrSeite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines
Seite 1 Georg-August-Universität Göttingen Robert Schaback Zum Begriff der Information in Mathematik und Informatik Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A)
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 24. April 2019 [Letzte Aktualisierung: 24/04/2019,
MehrVorlesung 12. Quellencodieren und Entropie
Vorlesung 12 Quellencodieren und Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. Wir wollen die Buchstaben a, b,... durch (möglichst kurze) 01-Folgen k(a),
MehrInformationstheorie und Codierung
Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice
Mehrh = 1 7 ( ) = 21 7 = 3
Zur mittleren Höhe von Binärbäumen mittlere Höhe von Binärbäumen Entropie gewichtete mittlere Höhe von Binärbäumen Quellcodierung, Datenkompression Shannons Theorem optimale Quellcodierung (Huffman) wobei
MehrProseminar WS 2002/2003
Technische Universität Chemnitz Fakultät für Informatik Professur Theoretische Informatik Proseminar WS 2002/2003 Thema: Datenkompression Dynamisches / Adaptives Huffman-Verfahren Danny Grobe Rainer Kuhn
MehrCodes on Graphs: Normal Realizations
Codes on Graphs: Normal Realizations Autor: G. David Forney, Jr. Seminarvortrag von Madeleine Leidheiser und Melanie Reuter Inhaltsverzeichnis Einführung Motivation Einleitung Graphendarstellungen Trellis
Mehr(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
MehrInhaltsverzeichnis. 1 Einführung 1
Inhaltsverzeichnis Inhaltsverzeichnis IX 1 Einführung 1 2 Grundlagen der Datenkompression 5 2.1 Informationsgehalt und Entropie....................... 5 2.2 Kriterien zur Kompressionsbewertung....................
MehrGrundbegriffe der Informatik Tutorium 3
Grundbegriffe der Informatik Tutorium 3 Tutorium Nr. 16 Philipp Oppermann 18. November 2014 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 6 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 16. Mai 2018 [Letzte Aktualisierung: 18/05/2018,
MehrDigitalisierung. analoges Signal PAM. Quantisierung
Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste
MehrEigenschaften von Kompressionsverfahren
6 Textkompression Eigenschaften von Kompressionsverfahren Das Ziel der Datenkompression ist es, eine gegebene Information (Datenquelle) auf eine kompaktere Weise zu repräsentieren. Dies geschieht, indem
Mehr3 Quellencodierung. 3.1 Einleitung
Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im
MehrModul 1: Einführung und Wahrscheinlichkeitsrechnung
Modul : Einführung und Wahrscheinlichkeitsrechnung Informationstheorie Dozent: Prof. Dr. M. Gross E-mail: grossm@inf.ethz.ch Assistenten: Bernd Bickel, Daniel Cotting, Michael Waschbüsch, Boris Köpf, Andrea
MehrImage Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg
Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Error-Free Compression Hufmann Coding Runlength Coding Lossy Compression
MehrKlausur zur Vorlesung Informationstheorie
INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 0167 Hannover Klausur zur Vorlesung Informationstheorie Datum:.02.2006 Uhrzeit: 9:00 Uhr Zeitdauer: 2 Stunden Hilfsmittel: ausgeteilte
MehrKapitel 2: Informationstheorie. 3. Quellencodierung
ZHAW, NTM2, Rumc, 2.3-1 Kapitel 2: Informationstheorie 3. Quellencodierung Inhaltsverzeichnis 1. EINLEITUNG... 1 2. QUELLENCODIERUNGSTHEOREM... 2 3. HUFFMAN-QUELLENCODIERUNG... 3 4. DATENKOMPRESSION MIT
MehrAufgabe: Platz-effiziente Kompression von Textdaten
7.3 Huffman-Bäume Anwendung von Binärbäumen Aufgabe: Platz-effiziente Kompression von Textdaten Standardcodierungen von Textdaten ISO-8859-1: 8 Bit pro Zeichen UTF-16: 16 Bit pro Zeichen Codierungen mit
MehrÜbung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider
Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider Wintersemester 2016/17 Bilder 20 x 14 Pixel (= Bildpunkte) 16 Bit Farben (= 65.536 Farben) 560
MehrImage Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg
Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Channel Encoding Error-Free Compression Hufmann Coding Runlength
MehrSeminar. Codierungstheorie
Seminar Codierungstheorie Lempel-Ziv-Verfahren Informatik Sommersemester 25 Tim Schweisgut, Juni 25 Inhalt INHALT... 2 WÖRTERBUCHMETHODEN... 3 Statische Wörterbuchmethoden... 3 Beispiel:... 3 Bemerkung:...
MehrNotation und Einführung
Skriptteil zur Vorlesung: Proinformatik - Funktionale Programmierung Dr. Marco Block-Berlitz 30.Juli 2009 Notation und Einführung Der folgende Abschnitt gibt eine kurze Einführung in die Codierungstheorie.
MehrAlgorithmen und Datenstrukturen 2
Algorithmen und Datenstrukturen 2 Lerneinheit 3: Greedy Algorithmen Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2016 10.5.2016 Einleitung Einleitung Diese Lerneinheit
MehrVorlesung Datenstrukturen
Vorlesung Datenstrukturen Kürzeste Wege Maike Buchin 4. und 6.7.2017 Einführung Motivation: Bestimmung von kürzesten Wegen ist in vielen Anwendungen, z.b. Routenplanung, ein wichtiges Problem. Allgemeine
MehrPanorama der Mathematik und Informatik
Panorama der Mathematik und Informatik 20: Algorithmen III: png und Co Dirk Frettlöh Technische Fakultät / Richtig Einsteigen 26.6.2014 Kompressionsalgorithmen: Idee: Speichere 2 MB Daten in einer 1 MB
MehrSuchen und Sortieren Sortieren. Heaps
Suchen und Heaps (Folie 156, Seite 56 im Skript) Definition Ein Heap ist ein Binärbaum, der die Heapeigenschaft hat (Kinder sind größer als der Vater), bis auf die letzte Ebene vollständig besetzt ist,
MehrKlausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13)
Berlin, 21. Februar 2013 Name:... Matr.-Nr.:... Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13) 1 2 3 4 5 6 7 8 9 Σ Bearbeitungszeit: 90 min. max. Punktezahl:
Mehr