3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.

Größe: px
Ab Seite anzeigen:

Download "3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein."

Transkript

1 3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge fügt Daten zur Fehlerkorrektur ein Störung Kanal rekonstruiert Originaldaten korrigiert Übertragungsfehler Senke Quelldecodierer Kanaldecodierer Codierung diskreter Quellen < 25 / 228 >

2 3 Einführung Die Quellcodierung wandelt Sequenzen von Quellsymbolen in Bitsequenzen Aus Effizienzgründen soll die erzeugte Bitsequenz möglichst kurz sein Selbstverständlich soll sich aus der Bitsequenz die Symbolsequenz eindeutig wiederherstellen lassen Definition 3 Eine (Quell)codierung C bildet jedes Symbol x X einer Quelle X auf ein Codewort C(x) {, } + = l= {, }l ab, wobei x x C(x) C(x ) Eine Sequenz von Symbolen x x N wird auf die Sequenz C(x ) C(x N ) abgebildet Die Menge C aller Codewörter C(x) wird Code genannt Beispiel 3 Die Zahlen {,, } lassen sich durch die binäre Darstellung, 2, 3, 4, 5, codieren Die Sequenz 23 würde damit zu codiert und könnte eindeutig decodiert werden Codierung diskreter Quellen Einführung < 2 / 228 > Beispiel 32 Eine alternative Codierung der Zahlen {,, } wäre, 2, 3, 4, 5, Die Sequenz 23 würde damit zu codiert, was als 23, 2, 5, oder 3 decodiert werden könnte Definition 32 Eine Codierung ist eindeutig decodierbar, wenn jedes Paar unterschiedlicher Sequenzen x x N x x M zu unterschiedlichen Sequenzen C(x ) C(x N ) C(x ) C(x M) codiert wird Definition 33 Ein Code (eine Codierung) heißt gleichmäßig, wenn alle Codewörter die gleiche Länge haben Satz 3 Jede gleichmäßige Codierung ist eindeutig decodierbar Beweis Dank der einheitlichen Länge der Codewörter ist die Zerlegung jeder Sequenz C(x ) C(x N ) in die Codewörter C(x i ) eindeutig Codierung diskreter Quellen Einführung < 27 / 228 >

3 32 Ungleichmäßige Codierung Für eine höhere Code-Effizienz (weniger benötigte Bits) sind ungleichmäßige Codierungen unverzichtbar Seien l,, l N die Längen der Codewörter eines Codes C für ein Quellalphabet mit N Symbolen Welche Bedingung müssen die Längen l,, l N erfüllen, damit C eindeutig decodierbar ist? Satz 32 (Satz von McMillan) Seien l,, l N die Codewortlängen einer eindeutig decodierbaren Codierung, so gilt K = N 2 l i (3) Zu jeder Menge von Codewortlängen, die diese Bedingung erfüllen, gibt es eine eindeutig decodierbare Codierung Aber nicht jede Codierung, die die Bedingung erfüllt, ist eindeutig decodierbar! Codierung diskreter Quellen Ungleichmäßige Codierung < 28 / 228 > Beweis Wir beweisen zunächst nur den ersten Teil; die Existenz einer eindeutig decodierbaren Codierung bei erfüllter Bedingung wird später für eine spezielle Klasse von Codierungen gezeigt Wir betrachten ( N ) n ( ) n K n = 2 l i = 2 l + 2 l l N, n (32) was sich in eine Summe von N n Termen der Form 2 l i l i2 l in = 2 k i, i,, N n (33) mit k i = l i + l i2 + + l in expandieren lässt Sei m = max(l, l 2,, l N ) die maximale Codewortlänge, so gilt offenbar n k i nm Daher lässt sich K n = nm k=n N k 2 k (34) schreiben, wobei N k die Anzahl der Terme mit k i = k angibt, was gleichzeitig die Anzahl der Codewortsequenzen der Gesamtlänge k ist Aufgrund der eindeutigen Decodierbarkeit muss N k 2 k, also K n nm k=n 2 k 2 k = für beliebig große n, und daher K nm k=n = nm n + nm (35) Codierung diskreter Quellen Ungleichmäßige Codierung < 29 / 228 >

4 33 Präfix-Codes Definition 34 Ein Code wird Präfix-Code genannt, wenn kein Codewort C(x) Präfix eines anderen Codeworts C(x ) ist, also kein c {, } exististiert, sodass C(x)c = C(x ) für x x Beispiel 33 Der Code {,,,,, } ist ein Präfix-Code Beispiel 34 Der Code {,,,,, } aus Beispiel 32 ist kein Präfix-Code Codierung diskreter Quellen Präfix-Codes < 3 / 228 > Satz 33 Eine auf einem Präfix-Code aufbauende Codierung ist eindeutig decodierbar Beweis Seien die ersten l Bits einer Codesequenz C(x) Aufgrund der Präfix-Eigenschaft gibt es kein Codewort C(x ), dass ebenfalls den Anfang der Codesequenz bilden kann Damit kann das erste Zeichen eindeutig zu x decodiert werden und außerdem die verbleibende Sequenz nach demselben Schema ebenfalls eindeutig decodiert werden Codierung diskreter Quellen Präfix-Codes < 3 / 228 >

5 33 Codebäume ɛ Jedes Codewort wird als Knoten eines binären Baumes repräsentiert Alle Präfixe eines Codewortes finden sich im Codebaum oberhalb des Codeworts Bei einem Präfix-Code befindet sich zwischen Wurzel und einem Blatt des Codebaums maximal ein Codewort Codierung diskreter Quellen Präfix-Codes < 32 / 228 > Beispiel 35 Der Präfix-Code {,,,,, } besitzt folgenden Code-Baum: ɛ Codierung diskreter Quellen Präfix-Codes < 33 / 228 >

6 Beispiel 3 Der Code {,,,,, } (kein Präfix-Code) besitzt folgenden Code-Baum: ɛ Codierung diskreter Quellen Präfix-Codes < 34 / 228 > 332 Kraftsche Ungleichung Satz 34 (Kraftsche Ungleichung) Seien l,, l N die Codewortlängen eines Präfix-Codes, so gilt K = N 2 l i (3) Zu jeder Menge von Codewortlängen, die diese Bedingung erfüllen, gibt es einen Präfix-Code Beweis zum ersten Teil Sei m = max(l,, l N ) Es wird der vollständige binäre Baum der Höhe m betrachtet; er besitzt 2 m Blätter Unterhalb eines Codeworts der Länge l liegen 2 m l Blätter Jedes Blatt liegt unter höchstens einem Codewort, deshalb N 2 m l i 2 m, also N 2 l i (37) Codierung diskreter Quellen Präfix-Codes < 35 / 228 >

7 Beweis zum zweiten Teil OBdA gelte l l 2 l N C(x ) sei ein beliebiger Knoten auf Höhe l ; da 2 m l < N 2 m l i 2 m (für N > ) (38) gibt es mindestens ein Blatt, das nicht unter C(x ) liegt Der Knoten auf Höhe l 2 über diesem Blatt besitzt daher C(x ) nicht als Präfix und wird als C(x 2 ) verwendet Sind auf diese Weise die ersten M < N Codewörter zugeordnet, liegen M 2 m l i < N 2 m l i 2 m (39) Blätter unter Codewörtern, und es gibt weiterhin mindestens ein Blatt, das nicht unter einem Codewort liegt und für die Zuordnung von C(x M+ ) verwendet werden kann Wiederholung dieses Schemas bis N erzeugt einen Präfix-Code Da Präfix-Codes eindeutig decodierbar sind, vervollständigt dies den Beweis zu Satz 32 (Satz von McMillan) Codierung diskreter Quellen Präfix-Codes < 3 / 228 > Beispiel 37 Es soll ein Präfix-Code mit den Längen l = l 2 = l 3 = 2, l 4 = 3, l 5 = l = 4 konstruiert werden ɛ Codierung diskreter Quellen Präfix-Codes < 37 / 228 >

8 Nach den Sätzen von McMillan und Kraft gelten dieselben Bedingungen in Bezug auf die Codewortlängen für die Existenz von eindeutig decodierbaren und Präfix-Codes Dies bedeutet nicht, dass jeder eindeutig decodierbare Code ein Präfix-Code ist (zb {,,, }) aber, dass es zu jedem eindeutig decodierbaren Code einen Präfix-Code mit denselben Codewortlängen gibt (zb {,,, }) Häufig ist es daher ausreichend, nur Präfix-Codes zu betrachten Codierung diskreter Quellen Präfix-Codes < 38 / 228 > 34 Grenzen der Code-Effizienz Definition 35 Die Codierung C einer Quelle X hat die mittlere Codewortlänge L(C) = x X p X (x)l x, (3) wobei l x die Länge des Codeworts C(x) bezeichnet Beispiel 38 Die Codierung, 2, 3, 4, 5, aus Beispiel 3 für den gezinkten Würfel aus Beispiel 25 (p X () = 2, p X(2) = 2 p X (3) = 3 2, p X(4) = 4 2, p X(5) = 5 2, p X() = 2 Codewortlänge L(C) = 3 2, ) hat offensichtlich die mittlere Beispiel 39 Die Codierung, 2, 3, 4, 5, führt für diesen Würfel auf die mittlere Codewortlänge L(C) = ( ) ( ) 2 = 5 2 2,429 Codierung diskreter Quellen Grenzen der Code-Effizienz < 39 / 228 >

9 Satz 35 Sei C eine eindeutig decodierbare Codierung der Quelle X, so gilt L(C) H(X ) (3) Beweis Unter Ausnutzung von Lemma 2 und mit K = x X 2 lx folgt H(X ) = x X p X (x) ld ( p X (x) ) (32) ( 2 l x ) p X (x) ld K x X (33) = p X (x) ( l x ld(k) ) = p X (x)l x + ld(k) p X (x) x X x X x X (34) = L(C) + ld(k) L(C) (35) Dabei wird L(C) = H(X ) erreicht, wenn K = und p X (x) = 2 lx bzw l x = ld ( p X (x) ), was nur in Spezialfällen auf ganzzahlige Längen führt Codierung diskreter Quellen Grenzen der Code-Effizienz < 4 / 228 > Satz 3 Zu jeder Quelle X existiert eine Präfix-Codierung C, sodass H(X ) L(C) H(X ) + (3) Beweis Eine solche Codierung C ist gegeben durch die Shannon-Codierung, bei der ld ( p X (x) ) l x ld ( p X (x) ) + (37) Damit gilt K = x X 2 lx x X 2ld(px (x)) = x X p X(x) =, womit die Kraftsche Ungleichung erfüllt ist Multiplikation von Gleichung (37) mit p X (x) und Summation über alle x führt auf p X (x) ld ( p X (x) ) p X (x)l x p X (x) ld ( p X (x) ) + p X (x) (38) x X x X x X x X }{{}}{{}}{{}}{{} H(X ) L(C) H(X ) Codierung diskreter Quellen Grenzen der Code-Effizienz < 4 / 228 >

10 Satz 37 (Erstes Shannonsches Codierungstheorem) Durch Codierung der erweiterten Quelle X n kann für hinreichend große n eine Codierung mit durchschnittlicher Codewortlänge beliebig nah an der Entropie erreicht werden Beweis Sei C eine Codierung von X n mit die nach Satz 3 existiert Nach Korollar 2 gilt H(X n ) L(C ) H(X n ) +, (39) n H(X ) L(C ) n H(X ) + (32) Für die auf ein Symbol der ursprünglichen Quelle X bezogene mittlere Codewortlänge L = L(C )/n ergibt sich damit und offenbar lim n H(X ) + /n = H(X ) H(X ) L H(X ) + /n, (32) Codierung diskreter Quellen Grenzen der Code-Effizienz < 42 / 228 > 35 Optimal-Codierung Wir haben gesehen, dass die Shannon-Codierung maximal ein Bit mehr pro Symbol zur Codierung benötigt, als durch die Entropie als untere Schranke gegeben ist dies ausreicht, um bei Betrachtung von erweiterten Quellen asymptotisch ideal zu codieren Wie codiert man die praktisch relevanten endlichen Erweiterungen oder nicht erweiterten Quellen? Definition 3 Ein eindeutig decodierbare Codierung C ist optimal, wenn für jede andere eindeutig decodierbare Codierung C gilt, dass L(C) L(C ) Codierung diskreter Quellen Optimal-Codierung < 43 / 228 >

11 35 Huffman-Codierung Algorithmus der Huffman-Codierung für eine Quelle X : Bestimme die beiden Symbole x, x 2 X mit der kleinsten Auftrittswahrscheinlichkeit 2 2 Konstruiere eine neue Quelle X mit X = X \ {x, x 2 } {x,2} und p X (x ) = p X (x ) für x x,2, p X (x,2) = p X (x ) + p X (x 2 ) (Es werden also x und x 2 zu einem Symbol x,2 zusammengefasst) 3 Bestimme die Huffman-Codierung C zu X mit x, x 2, falls X nur zwei Symbole enthält 4 Wähle C(x) = C (x) für x x, x 2, C(x ) = C (x,2), C(x 2 ) = C (x,2) 2 Auswahl bei Nicht-Eindeutigkeit beliebig Codierung diskreter Quellen Optimal-Codierung < 44 / 228 > Beispiel 3 Es sei wieder der gezinkte Würfel aus Beispiel 25 (p X (x) = x 2 ) betrachtet Die mittlere Codewortlänge beträgt ( L(C) = ) ( ) 2 Zum Vergleich: H(X ) 2, = 5 2 2,429 Codierung diskreter Quellen Optimal-Codierung < 45 / 228 >

12 Beispiel 3 Es sei die Erweiterung X 2 des gezinkten Würfels (p X,X (x, x 2 ) = x x 2 44 ) betrachtet, /44,2 2/44 3, 3/44 2,4 8/44 3,2 /44, /44 5, 3/44 3,5 5/44 5,3 5/44,5 3/44,4 4/44 2,2 4/44 4,2 8/44 4, 4/44,5 5/44 3,3 9/44 3, 8/44 4,4 /44 4,5 2/44,3 8/44, 3/44 2, 2/44,3 3/44 5, 5/44 2, 2/44 4, 24/44 2,5 /44 5,2 /44 5,4 2/44, /44 2,3 /44,2 2/44 5,5 25/44 3,4 2/44 4,3 2/44,4 24/44 3/44 5/44 /44 8/44 9/44 /44 2/44 2/44 4/44 /44 8/44 22/44 2/44 24/44 24/44 2/44 3/44 34/44 34/44 38/44 4/44 4/44 49/44 48/44 5/44 /44 8/44 74/44 /44 8/44 97/44 42/44 83/44 258/44 44/44 L(C) 4,828 = 2 2,44 Codierung diskreter Quellen Optimal-Codierung < 4 / 228 > 3 Zusammenfassung Aus den Sätzen von Kraft und McMillan folgt, dass Präfix-Codierungen genauso effizient sein können wie allgemeine, eindeutig decodierbare Codierungen Die Entropie der zu codierenden Quelle stellt eine untere Schranke der mittleren Codewortlänge dar Erstes Shannonsches Codierungstheorem: Durch blockweise Codierung (Codierung der erweiterten Quelle) lässt sich diese Schranke asymptotisch erreichen Die Huffman-Codierung lässt sich durch sukzessives Zusammenfassen der beiden unwahrscheinlichsten Symbole bilden Codierung diskreter Quellen Zusammenfassung < 47 / 228 >

Kapitel 7: Optimalcodierung und Huffman Coding

Kapitel 7: Optimalcodierung und Huffman Coding Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238 3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher

Mehr

2.7 Der Shannon-Fano-Elias Code

2.7 Der Shannon-Fano-Elias Code 2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.

Mehr

Wann sind Codes eindeutig entschlüsselbar?

Wann sind Codes eindeutig entschlüsselbar? Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C

Mehr

Einleitung. Kapitel 1

Einleitung. Kapitel 1 Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch

Mehr

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd

Mehr

Informationsgehalt einer Nachricht

Informationsgehalt einer Nachricht Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung

Mehr

Referat zum Thema Huffman-Codes

Referat zum Thema Huffman-Codes Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung

Mehr

Informationstheorie und Codierung

Informationstheorie und Codierung Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und

Mehr

Informatik II, SS 2018

Informatik II, SS 2018 Informatik II - SS 28 (Algorithmen & Datenstrukturen) Vorlesung 22 (6.7.28) Greedy Algorithmen II (Datenkompression) Algorithmen und Komplexität Datenkompression Reduziert Größen von Files Viele Verfahren

Mehr

Informatik II, SS 2016

Informatik II, SS 2016 Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 22 (20.7.2016) Greedy Algorithmen - Datenkompression Algorithmen und Komplexität Greedy Algorithmen Greedy Algorithmen sind eine Algorithmenmethode,

Mehr

Klausur Informationstheorie und Codierung

Klausur Informationstheorie und Codierung Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte

Mehr

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft

Mehr

Theoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK

Theoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK Theoretische Grundlagen der Informatik 3..29 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Thema dieses Kapitels Informationstheorie

Mehr

Kodierung und Sicherheit

Kodierung und Sicherheit Skript zur Vorlesung: Kodierung und Sicherheit 0000 00000 000 0000 0000 000 00 000 Wintersemester 2004-2005 Dr. Andreas Jakoby Institut für Theoretische Informatik Universität zu Lübeck Inhaltsverzeichnis

Mehr

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b. Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie

Mehr

5. Woche Perfekte und Optimale Codes, Schranken. 5. Woche: Perfekte und Optimale Codes, Schranken 88/ 142

5. Woche Perfekte und Optimale Codes, Schranken. 5. Woche: Perfekte und Optimale Codes, Schranken 88/ 142 5 Woche Perfekte und Optimale Codes, Schranken 5 Woche: Perfekte und Optimale Codes, Schranken 88/ 142 Packradius eines Codes (Wiederholung) Definition Packradius eines Codes Sei C ein (n, M, d)-code Der

Mehr

(Prüfungs-)Aufgaben zur Codierungstheorie

(Prüfungs-)Aufgaben zur Codierungstheorie (Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1

Mehr

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen 1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte

Mehr

Perfekte Codes. Definition Perfekter Code. Sei C {0, 1} n ein (n, M, d)-code. C heißt perfekt, falls

Perfekte Codes. Definition Perfekter Code. Sei C {0, 1} n ein (n, M, d)-code. C heißt perfekt, falls Perfekte Codes Definition Perfekter Code Sei C {0, 1} n ein (n, M, d)-code. C heißt perfekt, falls ( ) d 1 M V n = 2 n. 2 D.h. die maximalen disjunkten Hammingkugeln um die Codeworte partitionieren {0,

Mehr

Grundbegriffe der Informatik Tutorium 3

Grundbegriffe der Informatik Tutorium 3 Grundbegriffe der Informatik Tutorium 3 Tutorium Nr. 16 Philipp Oppermann 18. November 2014 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Informations- und Codierungstheorie (Informationstheorie) Vorlesungsunterlagen

Informations- und Codierungstheorie (Informationstheorie) Vorlesungsunterlagen J O H A N N E S K E P L E R U N I V E R S I T Ä T L I N Z N e t z w e r k f ü r F o r s c h u n g, L e h r e u n d P r a x i s Informations- und Codierungstheorie (Informationstheorie) Vorlesungsunterlagen

Mehr

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind. 1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,

Mehr

Die Größe A(n, d) und optimale Codes

Die Größe A(n, d) und optimale Codes Die Größe A(n, d) und optimale Codes Definition Optimaler Code Wir definieren A(n, d) = max{m binärer (n, M, d) Code} Ein (n, M, d)-code heißt optimal, falls M = A(n, d). Bestimmung von A(n, d) ist offenes

Mehr

RLE Arithm. Shannon Fano Huffman Grenzen. Komprimierung. Ingo Blechschmidt, Michael Hartmann. 6. Dezember 2006

RLE Arithm. Shannon Fano Huffman Grenzen. Komprimierung. Ingo Blechschmidt, Michael Hartmann. 6. Dezember 2006 RLE Arithm. Shannon Fano Huffman Grenzen Ingo Blechschmidt, Michael Hartmann 6. Dezember 2006 RLE Arithm. Shannon Fano Huffman Grenzen Inhalt 1 Lauflängenkodierung 2 Arithmetische Kodierung 3 Shannon Fano-Kodierung

Mehr

Vorlesung 12. Quellencodieren und Entropie

Vorlesung 12. Quellencodieren und Entropie Vorlesung 12 Quellencodieren und Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. Wir wollen die Buchstaben a, b,... durch (möglichst kurze) 01-Folgen k(a),

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Informationstheorie INSTITUT FÜR THEORETISCHE KIT 8.2.22 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik INSTITUT

Mehr

i Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit.

i Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit. 1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,

Mehr

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1 Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)

Mehr

Grundbegriffe der Informatik Tutorium 5

Grundbegriffe der Informatik Tutorium 5 Grundbegriffe der Informatik Tutorium 5 Tutorium Nr. 32 Philipp Oppermann 13. Januar 2015 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

h = 1 7 ( ) = 21 7 = 3

h = 1 7 ( ) = 21 7 = 3 Zur mittleren Höhe von Binärbäumen mittlere Höhe von Binärbäumen Entropie gewichtete mittlere Höhe von Binärbäumen Quellcodierung, Datenkompression Shannons Theorem optimale Quellcodierung (Huffman) wobei

Mehr

Information und Codierung

Information und Codierung Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe

Mehr

6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N. 6.1 von wörtern zu zahlen und zurück Dezimaldarstellung von Zahlen Num 10

6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N. 6.1 von wörtern zu zahlen und zurück Dezimaldarstellung von Zahlen Num 10 6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N 6.1 von wörtern zu zahlen und zurück 6.1.1 Dezimaldarstellung von Zahlen Num 10 Num10(ε) = 0 (6.1) für jedes w Z 10 für jedes x Z 10 Num 10 (wx)

Mehr

21. Dynamic Programming III

21. Dynamic Programming III Approximation 21. Dynamic Programming III FPTAS [Ottman/Widmayer, Kap. 7.2, 7.3, Cormen et al, Kap. 15,35.5] Sei ein ε (, 1) gegeben. Sei I eine bestmögliche Auswahl. Suchen eine gültige Auswahl I mit

Mehr

Vorlesung 15a. Quellencodieren und Entropie

Vorlesung 15a. Quellencodieren und Entropie Vorlesung 15a Quellencodieren und Entropie 1 1. Volle Binärbäume als gerichtete Graphen und die gewöhnliche Irrfahrt von der Wurzel zu den Blättern 2 3 ein (nicht voller) Binärbaum Merkmale eines Binärbaumes:

Mehr

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon

Mehr

Information nachher = Unsicherheit vorher.

Information nachher = Unsicherheit vorher. 1 Entropie Wir machen folgendes Gedankenexperiment. Gegeben ist die Menge X = {x 1,...,x n } von Ausgängen eines Experimentes mit den Wahrscheinlichkeiten p(x i )=p i. H(X) =H(p 1,...,p n ) ist das Informationsmaß,

Mehr

ChaosSeminar - Informationstheorie

ChaosSeminar - Informationstheorie Alexander.Bernauer@ulm.ccc.de Stephanie.Wist@ulm.ccc.de 18. November 2005 Motivation schnelle Übertragung von Daten über gestörten Kanal Shannon48 Was ist Information? Information ist Abnahme von Unsicherheit

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität Gierige Algorithmen: Berechne Lösung schrittweise In jedem Schritt mache lokal optimale Wahl Daumenregel: Wenn optimale Lösung

Mehr

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv

Mehr

Übungsblatt 5 - Musterlösung

Übungsblatt 5 - Musterlösung Universität Mannheim Lehrstuhl für Praktische Informatik IV Prof. Dr. W. Effelsberg Christoph Kuhmünch, Gerald Kühne Praktische Informatik II SS 2000 Übungsblatt 5 - Musterlösung Aufgabe 1: Huffman-Codierung

Mehr

Kolmogoroffkomplexität Teil 3 Informationstheorie und Kodierung. Torsten Steinbrecher

Kolmogoroffkomplexität Teil 3 Informationstheorie und Kodierung. Torsten Steinbrecher Kolmogoroffkompleität Teil 3 Informationstheorie und Kodierung Torsten Steinbrecher Informationstheorie Information ist Δ Wahlfreiheit beim Sender Δ Unbestimmtheit beim Empfänger Information ist nicht

Mehr

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht

Mehr

Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14

Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14 Institut für Theoretische Informatik Prof. Dr. Jörn Müller-Quade Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 23/4 Vorname Nachname Matrikelnummer Hinweise Für die

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Diskrete Mathematik II

Diskrete Mathematik II Diskrete Mathematik II Roberto Avanzi (nach Alexander May) Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2010 Organisatorisches 1/ 333 Organisatorisches Vorlesung: Mo 12-14 in HIA, Di

Mehr

12. Übung TGI. (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF.

12. Übung TGI. (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. 12. Übung TGI (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS 1 Lorenz Hübschle-Schneider, Tobias Maier KIT Die Forschungsuniversität

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Übung zur Vorlesung. Informationstheorie und Codierung

Übung zur Vorlesung. Informationstheorie und Codierung Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.

Mehr

3 Quellencodierung. 3.1 Einleitung

3 Quellencodierung. 3.1 Einleitung Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im

Mehr

Gierige Algorithmen Interval Scheduling

Gierige Algorithmen Interval Scheduling Gierige Algorithmen Interval Scheduling IntervalScheduling(s,f). n length[s] 2. A {} 3. j 4. for i 2 to n do 5. if s[i] f[j] then 6. A A {i} 7. j i 8. return A Gierige Algorithmen Interval Scheduling Beweisidee:

Mehr

Eindeutigkeit reduzierter Gröbnerbasen

Eindeutigkeit reduzierter Gröbnerbasen Eindeutigkeit reduzierter Gröbnerbasen Satz Existenz und Eindeutigkeit reduzierter Gröbnerbasen Jedes Ideal I F[x 1,..., x n ] besitzt eine eindeutige reduzierte Gröbnerbasis. Beweis: Existenz: Hilbert

Mehr

Die Hamming-Distanz definiert eine Metrik.

Die Hamming-Distanz definiert eine Metrik. Die Hamming-Distanz definiert eine Metrik. Satz Metrik Hamming-Distanz Die Hamming-Distanz ist eine Metrik auf {0, 1} n, d.h. für alle x, y, z {0, 1} n gilt: 1 Positivität: d(x, y) 0, Gleichheit gdw x

Mehr

Diskrete Strukturen 5.9 Permutationsgruppen 168/558 c Ernst W. Mayr

Diskrete Strukturen 5.9 Permutationsgruppen 168/558 c Ernst W. Mayr Bemerkung: Der folgende Abschnitt Boolesche Algebren ist (im WS 2010/11) nicht Teil des Prüfungsstoffs, soweit nicht Teile daraus in der Übung behandelt werden! Diskrete Strukturen 5.9 Permutationsgruppen

Mehr

Kompression. Tim Kilian

Kompression. Tim Kilian Kompression Tim Kilian Seminar Effiziente Programmierung Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg

Mehr

6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger

6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger Komprimierung 6. Komprimierung (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger Platz brauchen Motivation: beschleunigt Plattenzugriffe oder Datenübertragungen Voraussetzung:

Mehr

Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)).

Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)). 8. Untere Schranken für Sortieren Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)). Werden nun gemeinsame Eigenschaften dieser Algorithmen untersuchen. Fassen gemeinsame

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Informationstheorie Vorlesungen vom 30. Januar und 1. Februar 2018 INSTITUT FÜR THEORETISCHE 0 30.01.2018 Dorothea Wagner - Theoretische Grundlagen der Informatik

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Informationstheorie Vorlesung vom 2. und 4. Februar 26 INSTITUT FÜR THEORETISCHE KIT 4.2.26 Universität des Gog, Landes Sanders, Baden-Württemberg Wagner - Theoretische

Mehr

Nachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2013/14

Nachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2013/14 Institut für Theoretische Informatik Prof. Dr. Jörn Müller-Quade Nachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2013/14 Vorname Nachname Matrikelnummer Hinweise Für die

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

Überabzählbarkeit der reellen Zahlen

Überabzählbarkeit der reellen Zahlen Überabzählbarkeit der reellen Zahlen Mathematik M4 Dozentin: Dr. Regula Krapf Jan Lukas Schallenberg Matr. Nr.: 214202241 November 2017 1 Inhaltsverzeichnis 1 Dedekindsche Schnitte 3 2 Addition und Multiplikation

Mehr

Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen

Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 202/3 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen

Mehr

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Informationstheorie INSTITUT FÜR THEORETISCHE INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft

Mehr

Diskrete Mathematik II

Diskrete Mathematik II Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung 01-07.04.2008 Einführung in die Codierungstheorie, Definition Codes 1 / 36 Organisatorisches

Mehr

Endliche Körper und Codierung SS Übungsblatt. 9. Bestimmen Sie alle primitiven Elemente (Erzeuger der multiplikativen Gruppe) von

Endliche Körper und Codierung SS Übungsblatt. 9. Bestimmen Sie alle primitiven Elemente (Erzeuger der multiplikativen Gruppe) von Endliche Körper und Codierung SS 2007 1. Übungsblatt 1. Sei p eine Primzahl und 0 j p 1. Zeigen Sie, dass ( ) p 1 j ( 1) j (mod p). 2. Sei R ein kommutativer Ring der Charakteristik p > 0 (prim). Zeigen

Mehr

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9 Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )

Mehr

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Dr. Gerhard Mülich Christian Maaß 6.Mai 8 Im letzten Vortrag haben wir gesehen, dass das

Mehr

Signale und Codes Vorlesung 6

Signale und Codes Vorlesung 6 Signale und Codes Vorlesung 6 Nico Döttling December 13, 2013 1 / 24 Vergleich Shannon vs. Schranken für Minimaldistanz (1) BSC ρ hat Kapazität 1 H 2 (ρ) Shannon: Es existiert ein (n, k) Code C für BSC

Mehr

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus? Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"

Mehr

2. Klausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2014/2015

2. Klausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2014/2015 2. Klausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2014/2015 Hier Aufkleber mit Name und Matrikelnummer anbringen Vorname: Nachname: Matrikelnummer: Beachten Sie: Bringen Sie

Mehr

Übungsblatt Nr. 7. Lösungsvorschlag

Übungsblatt Nr. 7. Lösungsvorschlag Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nico Döttling Dirk Achenbach Tobias Nilges Vorlesung Theoretische Grundlagen der Informatik Übungsblatt Nr. 7 svorschlag Aufgabe (K)

Mehr

Isomorphie von Bäumen

Isomorphie von Bäumen Isomorphie von Bäumen Alexandra Weinberger 23. Dezember 2011 Inhaltsverzeichnis 1 Einige Grundlagen und Definitionen 2 1.1 Bäume................................. 3 1.2 Isomorphie..............................

Mehr

Übersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen

Übersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Übersicht Greedy Algorithmen Einführung Aktivitäten-Auswahl-Problem Huffman Codierung Matthias Zwicker Universität Bern Frühling 2009 2 Greedy Algorithmen Entwurfsstrategie

Mehr

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 1. Das Problem 1.1. Kanalcodierung und Fehlerkorrektur. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder 1 übertragen kann, schicken.

Mehr

Die rationalen Zahlen. Caterina Montalto Monella

Die rationalen Zahlen. Caterina Montalto Monella Die rationalen Zahlen Caterina Montalto Monella 07.12.2016 1 1 Die Konstruktion der rationalen Zahlen In dieser Ausarbeitung konstruieren wir die rationalen Zahlen aus den ganzen und den natürlichen Zahlen.

Mehr

3 Primzahlen. j,... stets Primzahlen. 3.1 Satz. Jedes a > 1 ist als Produkt von Primzahlen darstellbar (Primfaktorzerlegung. n=1

3 Primzahlen. j,... stets Primzahlen. 3.1 Satz. Jedes a > 1 ist als Produkt von Primzahlen darstellbar (Primfaktorzerlegung. n=1 3 Primzahlen Die Zahl 1 hat nur einen positiven Teiler, nämlich 1. Jede Zahl a > 1 hat mindestens zwei positive Teiler: 1 und a. Definition. Eine Primzahl ist eine Zahl a > 1, welche nur die Teiler 1 und

Mehr

Signale und Codes Vorlesung 4

Signale und Codes Vorlesung 4 Signale und Codes Vorlesung 4 Nico Döttling December 6, 2013 1 / 18 2 / 18 Letztes Mal Allgemeine Hamming Codes als Beispiel linearer Codes Hamming Schranke: Obere Schranke für k bei gegebenem d bzw. für

Mehr

Nachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2012/13

Nachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2012/13 Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2012/13 Vorname Nachname Matrikelnummer Hinweise Für

Mehr

Modul Diskrete Mathematik WiSe 2011/12

Modul Diskrete Mathematik WiSe 2011/12 Modul Diskrete Mathematik WiSe / Ergänzungsskript zum Kapitel 3.4. Hinweis: Dieses Manuskript ist nur verständlich und von Nutzen für Personen, die regelmäßig und aktiv die zugehörige Vorlesung besuchen

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Übung 8 Dirk Achenbach 7. Februar 2013 I NSTITUT FÜR K RYPTOGRAPHIE UND S ICHERHEIT KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Kapitel III Ringe und Körper

Kapitel III Ringe und Körper Kapitel III Ringe und Körper 1. Definitionen und Beispiele Definition 117 Eine Algebra A = S,,, 0, 1 mit zwei zweistelligen Operatoren und heißt ein Ring, falls R1. S,, 0 eine abelsche Gruppe mit neutralem

Mehr

1 Zahlentheorie. 1.1 Kongruenzen

1 Zahlentheorie. 1.1 Kongruenzen 3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern

Mehr

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.

Mehr

Univ.-Prof. Dr. Goulnara ARZHANTSEVA

Univ.-Prof. Dr. Goulnara ARZHANTSEVA Diskrete Mathematik Univ.-Prof. Dr. Goulnara ARZHANTSEVA SS 2018 c Univ.-Prof. Dr. Goulnara Arzhantseva Kapitel 08: Menger, König und Hall / Planare Graphen 1 / 30 Der Satz von Menger: s t trennende Kantenmenge

Mehr

Effiziente Algorithmen und Komplexitätstheorie

Effiziente Algorithmen und Komplexitätstheorie Fakultät für Informatik Lehrstuhl 2 Vorlesung Effiziente Algorithmen und Komplexitätstheorie Sommersemester 2008 Ingo Wegener; Vertretung: Carsten Witt 7. Juli 2008 Vorlesung am 14.07. (nächste Woche):

Mehr

Vollständigkeit. 1 Konstruktion der reellen Zahlen

Vollständigkeit. 1 Konstruktion der reellen Zahlen Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente

Mehr

Mathematik für Information und Kommunikation

Mathematik für Information und Kommunikation Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html

Mehr

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Codierung Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Ein bisschen Informationstheorie Betrachten wir das folgende Problem: Wie lautet eine sinnvolle Definition für das quantitative

Mehr

Vorlesung 13b. Relative Entropie

Vorlesung 13b. Relative Entropie Vorlesung 13b Relative Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). 2 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. S sei eine abzählbare Menge (ein

Mehr

Fachprüfung. Nachrichtencodierung

Fachprüfung. Nachrichtencodierung Fachprüfung Nachrichtencodierung 23. Februar 2010 Prüfer: Prof. Dr. P. Pogatzki Bearbeitungszeit: 2 Stunden Hilfsmittel: Taschenrechner, Vorlesungsscript, Übungsaufgaben Name: Vorname: Matr.-Nr.: Unterschrift:

Mehr

15 Optimales Kodieren

15 Optimales Kodieren 15 Optimales Kodieren Es soll ein optimaler Kodierer C(T ) entworfen werden, welcher eine Information (z.b. Text T ) mit möglichst geringer Bitanzahl eindeutig überträgt. Die Anforderungen an den optimalen

Mehr

2. Teilbarkeit. Euklidischer Algorithmus

2. Teilbarkeit. Euklidischer Algorithmus O. Forster: Einführung in die Zahlentheorie 2. Teilbarkeit. Euklidischer Algorithmus 2.1. Wir benutzen die folgenden Bezeichnungen: Z = {0, ±1, ±2, ±3,...} Menge aller ganzen Zahlen N 0 = {0, 1, 2, 3,...}

Mehr

31 Polynomringe Motivation Definition: Polynomringe

31 Polynomringe Motivation Definition: Polynomringe 31 Polynomringe 31.1 Motivation Polynome spielen eine wichtige Rolle in vielen Berechnungen, einerseits weil oftmals funktionale Zusammenhänge durch Polynome beschrieben werden, andererseits weil Polynome

Mehr