ChaosSeminar - Informationstheorie

Größe: px
Ab Seite anzeigen:

Download "ChaosSeminar - Informationstheorie"

Transkript

1 18. November 2005

2 Motivation schnelle Übertragung von Daten über gestörten Kanal Shannon48

3 Was ist Information? Information ist Abnahme von Unsicherheit ohne Zufall keine Unsicherheit Unsicherheit vorher ist Information nacher

4 Übersicht Wahrscheinlichkeitsrechnung Informationsmaß Quellen Quellcodiertheorem Huffman Code Kodierer Kanäle Kanalcodiertheorem Codebeispiel

5 Stichprobenraum Wahrscheinlichkeitsrechnung Informationsmaß Ω = {ω 1, ω 2,..., ω n } ω 1, ω 2,..., ω n : Elementarereignisse E Ω : Ereignis : unmögliches Ereignis Ω : sicheres Ereignis

6 Zufallsvariable Wahrscheinlichkeitsrechnung Informationsmaß X : Ω {x 1, x 2,..., x L }

7 Wahrscheinlichkeitsfunktion Wahrscheinlichkeitsrechnung Informationsmaß f X : {x 1, x 2,..., x L } R f X (x i ) = P(X = x i ), i = 1, 2,..., L i : f X (x i ) 0 L i=1 f X (x i ) = 1

8 Unabhängigkeit Wahrscheinlichkeitsrechnung Informationsmaß Ereignisse A und B stochastische unabhängig P(A B) = P(A) P(B) Zufallsvariablen X und Y stochastisch unabhängig x i, y j : f XY (x i, y j ) = f X (x i ) f Y (y j )

9 bedingte Wahrscheinlichkeit Wahrscheinlichkeitsrechnung Informationsmaß f X Y (x i y j ) := f XY (x i, y j ) f Y (y j ) f Y (y j ) > 0

10 Erwartungswert Wahrscheinlichkeitsrechnung Informationsmaß E [F (X )] := F (X ) := L F (x i )f (x i ) i=1 F : Funktion einer Zufallsvariablen f : Wahrscheinlichkeitsfunktion der Zufallsvariablen

11 Erwartungen an ein Informationsmaß Wahrscheinlichkeitsrechnung Informationsmaß maximale Unsicherheit bei Gleichverteilung Addition von Informationen Stetigkeit auf den Wahrscheinlichkeiten

12 Entropie Wahrscheinlichkeitsrechnung Informationsmaß H(X ) = K x X f X (x)logf X (x) K > 0 lim fx (x) 0 f X (x)logf X (x) := 0

13 Information - Einheiten Wahrscheinlichkeitsrechnung Informationsmaß Austausch der Basis: log b1 x = log b 2 x log b2 b 1 b = 2 b = e b = 10 binary digits (bits) natural digits (nats) decimal digits

14 Entropie - Schranken Wahrscheinlichkeitsrechnung Informationsmaß X : Ω {x 1, x 2,..., x L } 0 H(X ) logl Gleichheit nach links i : f X (x i ) = 1 Gleichheit nach rechts X gleichverteilt

15 binäre Entropie Wahrscheinlichkeitsrechnung Informationsmaß wikipedia h(p) = (p log p + (p 1) log p 1)

16 bedingte Entropie Wahrscheinlichkeitsrechnung Informationsmaß H(X Y = y) = x x f X Y (x y)logf X Y (x y) H(X Y ) = y Y f Y (y)h(x Y = y) H(X ) = x X f X (x)logf X (x)

17 bedingte Entropie - Eigenschaften Wahrscheinlichkeitsrechnung Informationsmaß 0 H(X Y ) logl Verminderung der Entropie H(X Y ) H(X )

18 Addition von Informationen Wahrscheinlichkeitsrechnung Informationsmaß H(X 1 X 2... X N ) = H(X 1 ) + H(X 2 X 1 ) H(X N X 1 X 2... X N 1 )

19 Entscheidungsbäume Wahrscheinlichkeitsrechnung Informationsmaß Die Entropie ist die mittlere Tiefe eines Entscheidungsbaumes Beispiel: ich denke mir eine Zahl...

20 wechselseitige Information Wahrscheinlichkeitsrechnung Informationsmaß Die Information, die ich über A erhalte, indem ich B beobachte A, B Ereignisse eines oder zweier Zufallsexperimente P(A) 0; P(B) 0 I (A; B) := log P(A B) P(A)

21 Eigeninformation Wahrscheinlichkeitsrechnung Informationsmaß I (A) := I (A; A) = log P(A A) P(A) = logp(a) P(A A) = 1

22 Entropie Wahrscheinlichkeitsrechnung Informationsmaß Der Erwartungswert der Eigeninformation der Ereignisse einer Zufallsvariablen H(X ) := E [I (X = x)] = E [ logf X (x)] = x X f X (x)logf X (x)

23 Transinformation Wahrscheinlichkeitsrechnung Informationsmaß Die Information, die ich über X erhalte, in dem ich Y beobachte I (X ; Y ) := E [I (X = x; Y = y)] I (X ; Y ) := H(X ) H(X Y ) H(X Y ): Äquivokation

24 Satz der Datenverarbeitung Wahrscheinlichkeitsrechnung Informationsmaß I (X ; Z) { I (X ; Y ) I (Y ; Z) Information kann nicht durch Datenverarbeitung erhöht werden.

25 Fragen Quellen Quellcodiertheorem Huffman Code Wie gut kann man komprimieren? Was kann man alles komprimieren? Wie sehen Kompressionsalgorithmen aus?

26 Quelle Quellen Quellcodiertheorem Huffman Code Eine Quelle erzeugt einen Strom von Symbolen Strom entspricht den Ausgaben eines Markoff Prozesses

27 Markoff-Prozesse Quellen Quellcodiertheorem Huffman Code hier: Beschränkung auf diskrete, gedächtnisfreie Quellen

28 Redundanz Quellen Quellcodiertheorem Huffman Code Quelle Q mit L Quellsymbolen R := 1 H(Q) logl

29 Quellen Quellcodiertheorem Huffman Code

30 Quellcodiertheorem Quellen Quellcodiertheorem Huffman Code Um eine Quelle Q mit Wahrscheinlichkeit 1 perfekt rekonstruieren zu können, sind H(Q) bit pro Quellensymbol notwendig und hinreichend

31 Konsequenzen Quellen Quellcodiertheorem Huffman Code ist Entfernung von Redundanz Mehrfachkomprimierung bringt nichts gleichverteilten Zufall kann man schlecht komprimieren

32 Beispiel Quellen Quellcodiertheorem Huffman Code p(a) = 1 2 p(b) = 1 4 p(c) = 1 4 H(Q) = 1.5, log 2 3 = 1.58, R = 5.3% a 0 b 10 c 11 p(0) = 1 2 p(1) = 1 2 H(Q ) = 1, log 2 2 = 1, R = 0%

33 Fragen Kodierer Kanäle Kanalcodiertheorem Kann man fehlerfrei übertragen? Wie schnell kann man übertragen? Wie wirken sich Störungen auf dem Kanal aus?

34 Kodierer Kodierer Kanäle Kanalcodiertheorem

35 Rate Kodierer Kanäle Kanalcodiertheorem R := k n Für den Kanal erscheint der Kodierer wie eine Quelle mit Entropie R

36 Kanal Kodierer Kanäle Kanalcodiertheorem hier: Beschränkung auf diskrete, gedächtnisfreie Kanäle

37 Bergersches Diagramm Kodierer Kanäle Kanalcodiertheorem

38 Kapazität Kodierer Kanäle Kanalcodiertheorem I (X ; Y ) = H(X ) H(X Y ) C := max f X I (X ; Y )

39 Kanalcodiertheorem - Teil 1 Kodierer Kanäle Kanalcodiertheorem Kanal mit Kapazität C, Quelle mit Entropie H. Wenn H < C, so existiert ein Code mit beliebig kleiner Fehlerwahrscheinlichkeit

40 Kanalcodiertheorem - Teil 2 Kodierer Kanäle Kanalcodiertheorem Kanal mit Kapazität C, Quelle mit Entropie H. Wenn H > C, so existiert kein Code mit einer Äquivokation unter H C

41 Beispiel - Kapazität Kodierer Kanäle Kanalcodiertheorem Ein Kanal mit additiver, weißer, Gauss verteilter Störung hat die Kapazität C = W log 2 P+N N W : Bandbreite P: Sendeleistung N: Rauschleistung

42 Bester Code? Codebeispiel Fehlerrate: = 1MB (Ethernet) Fehlerrate: = 1kB (Mobilfunk) unterschiedliche Codes für verschiedene Einsatzzwecke geeignet.

43 Beschreibung eins Codes C Codebeispiel Code C = (n, k, d) n: Codewortlänge k: Anzahl der codierten Bits d: Hammingabstand der Codewörter

44 Hammingabstand Codebeispiel Hammingabstand d ist minimale Distanz zweier Codewörter Fehlererkennung für maximal d 1 Fehler Fehlerbehebung für maximal d 1 2 Fehler

45 Codebeispiel Beispiel - ParityCheck-Code Code C = (3, 2, 2) Codewörter {000, 011, 101, 110} Rate R = k n = 2 3 Hammingabstand d = 2 d 1 = 1 Fehler können erkannt werden d 1 2 = 0 Fehler können behoben werden empfangenes Codewort 111 wird als verfälscht erkannt

46 Codebeispiel Beispiel - Wiederholungscodes Code C = (5, 1, 5) Codewörter {00000, 11111} Rate R = k n = 1 5 Hammingabstand d = 5 d 1 = 4 Fehler können erkannt werden d 1 2 = 2 Fehler können behoben werden empfangenes Codewort wird zu 00000

47 Reed-Solomon-Codes Codebeispiel entdeckt 1960 von Irving S. Reed und Gustave Solomon es gilt: C = (n(= p 1), k, d = n k + 1) MDS-Code Korrektur aus beliebigen k Stellen des Codeworts Anwendungen: Fehlerkorrektur von Audio-CDs, Mobilfunk, DVB, Kommunikation mit Raumsonden

48 Beispiel CD Codebeispiel Reed-Solomon-Kodierung mit Interleaver (CIRC) bis zu Bit lange Fehler korrigierbar entspricht Kratzer von etwa 2, 4mm Spurlänge bei Audio-Cds können sogar Bit (etwa 8.5mm) kompensiert werden

49 Restklassenringe Codebeispiel p: Primzahl Z p ist ein Körper Rechenvorschrift: a+b mod p, a*b mod p Es gibt p verschiedene Elemente (0,.., p 1) 0 <= a + b, a b < p a 0 = a p 1 = 1

50 Eigenschaften Körper Codebeispiel Assoziativität Neutrales Element Inverses Element Kommutativität Distributivgesetz

51 Beispiel: Restklassenring p=7 Codebeispiel

52 Primitives Element Codebeispiel α ist primitives Element {α 0 = α p 1, α 1, α 2,.., α p 2 } = {1, 2,.., p 1} Beispiel: p = 7, α = 5 {α 0 = 1, α 1 = 5, α 2 = 5 2 = 4, α 3 = 5 3 = 6, α 4 = 5 4 = 2, α 5 = 5 5 = 3} Zu jedem Primkörper gibt es mindestens ein primitives Element

53 Polynomdarstellung Codebeispiel (A 0, A 1,.., A k 1 ) = A(x) = A 0 + A 1 x + A 2 x A k 1 x k 1 grad(a(x)) < k (a 0, a 1,.., a n 1 ) = a(x) = a 0 + a 1 x + a 2 x a n 1 x n 1 grad(a(x)) < n

54 Kodierung Codebeispiel Kodierung: A 0,.., A k 1 : Information a 0,.., a n 1 : Codewort Es gilt: a i = A(α i )bzw.a j = n 1 a(α j )

55 Beispiel für p = 7, α = 5 Codebeispiel Es sei: n = p 1 = 6, k = 2, d = n k + 1 = 5 {α 0 = 1, α 1 = 5, α 2 = 4, α 3 = 6, α 4 = 2, α 5 = 3} Information: (23) A 0 = 2, A 1 = 3 A(x) = 2 + 3x Berechnung von a 0,.., a 5 : a 0 = A(α 0 = 1) = = 5 a 1 = A(α 1 = 5) = = = 3 a 2 = A(α 2 = 4) = = = 0 a 3 = A(α 3 = 6) = = = 6 a 4 = A(α 4 = 2) = = = 1 a 5 = A(α 5 = 3) = = = 4 Das erzeugte Codewort ist: (530614)

56 Dekodierung Codebeispiel Empfangen: r(x) = a(x) + f (x) wobei f(x) der Fehler sein soll (f(x) = 0 kein Fehler) Dekodierung erfolgt über R j = n 1 r(α j ) Ist gradr(x) < k, dh. R k = R k+1 =.. = R n 1 = 0, so ist r(x) ein gültiges Codewort, R(x) = A(x) die Informationi Wenn nicht, ist min. 1 Fehler aufgetreten. (Fehlererkennung) Fehlerbehebung zb. über Fehlerstellenpolynom C.

57 Fehlerstellenpolynom Codebeispiel Gesucht: Polynom C(x) mit möglichst geringem Grad, für das gilt: C(x) = f j!=0 (αj x) grad(c(x)) = #Fehlerstellen

58 Naive Berechnung Codebeispiel Sei e d 1 2 die Anzahl der Fehler C(x) = 1 + C 1 x + C 2 x C e x e Sei S 0 = R k,.., S e = R n 1 dann kann C(x) über Schlüsselgleichungen 0 = e 1 C i S j i mit j = 2e 1,.., e berechnet werden i=0 Die Nullstellen von C(x) sind die Stellen der inkorrekten Symbole

59 Beispiel Codebeispiel Gesendet: a(x) = (530614) Empfangen: r(x) = (530600)

60 Beispiel Codebeispiel Gesendet: a(x) = (530614) Empfangen: r(x) = (530600) (korrekte) Annahme: 2 Fehler

61 Beispiel Codebeispiel Gesendet: a(x) = (530614) Empfangen: r(x) = (530600) (korrekte) Annahme: 2 Fehler C(x) = 1 + C 1 x + C 2 x 2

62 Berechnung von R Codebeispiel n = 6, n 1 = 6, {α 0 = 1, α 1 = 5, α 2 = 4, α 3 = 6, α 4 = 2, α 5 = 3} r(x) = 5 + 3x + 6x 3 R j = n 1 r(α j ) R 0 = r(1) = 6( ) = 6 0 = 0 R 1 = r(3) = 6( ) = 6 1 = 6 R 2 = r(2) = 6( ) = 6 3 = 4 R 3 = r(6) = 6( ) = 6 3 = 4 R 4 = r(4) = 6( ) = 6 2 = 5 R 5 = r(5) = 6( ) = 6 0 = 0 R 2, R 3, R 4! = 0 kein gültiges Codewort!

63 Codebeispiel Berechnung von C S 0 = R 2 = 4 S 1 = R 3 = 4 S 2 = R 4 = 5 S 3 = R 5 = 0 Zu lösende Gleichungen: 0 = C 0 S 3 + C 1 S 2 + C 2 S 1 = 0 + 5C 1 + 4C 2 0 = C 0 S 2 + C 1 S 1 + C 2 S 0 = 5 + 4C 1 + 4C 2 C 1 = 5, C 2 = 6 C(x) = 1 + 5x + 6x 2 C(x) = 0 x = 2, x = 3 α 4 = 2, α 5 = 3 Fehler an Stellen 4 und 5

64 Specials Codebeispiel Faltungscodes (Zustandsmaschine, Trellis-Codierung) Kanalcodes, die je nach Bedarf zusätzliche Informationen schicken geschachtelte Kanalcodes (innerer Code, äusserer Code)

65 verwendete Software Codebeispiel vim L A TEX(Beamer Klassen) xfig ImageMagick Gimp Gimp

Informationsgehalt einer Nachricht

Informationsgehalt einer Nachricht Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung

Mehr

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238 3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher

Mehr

Praktikum Fehlerreduktionssysteme / Codierungstheorie

Praktikum Fehlerreduktionssysteme / Codierungstheorie Fakultät Elektrotechnik und Informationstechnik Institut für Nachrichtentechnik Lehrstuhl Theoretische Nachrichtentechnik Prof. Eduard Jorswieck, Anne Wolf Praktikum Fehlerreduktionssysteme / Codierungstheorie

Mehr

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b. Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie

Mehr

Kapitel 9: Informationstheorie. 2. Entropie

Kapitel 9: Informationstheorie. 2. Entropie ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE

Mehr

(Prüfungs-)Aufgaben zur Codierungstheorie

(Prüfungs-)Aufgaben zur Codierungstheorie (Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1

Mehr

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 1. Das Problem 1.1. Kanalcodierung und Fehlerkorrektur. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder 1 übertragen kann, schicken.

Mehr

Endliche Körper. Seminar Graphentheorie und Diskrete Mathematik Referent: Steffen Lohrke ii5105 SS 2005

Endliche Körper. Seminar Graphentheorie und Diskrete Mathematik Referent: Steffen Lohrke ii5105 SS 2005 Endliche Körper Seminar Graphentheorie und Diskrete Mathematik Referent: Steffen Lohrke ii5105 SS 2005 Abelsche Gruppe Eine Abelsche Gruppe ist eine algebraische Struktur, die aus einer Menge K und einem

Mehr

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht

Mehr

Klausur Informationstheorie und Codierung

Klausur Informationstheorie und Codierung Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte

Mehr

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein. 3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle

Mehr

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information

Mehr

Algebra für Informationssystemtechniker

Algebra für Informationssystemtechniker Algebra für Informationssystemtechniker Prof. Dr. Ulrike Baumann Fachrichtung Mathematik Institut für Algebra www.math.tu-dresden.de/ baumann Ulrike.Baumann@tu-dresden.de 16.07.2018 14. Vorlesung irreduzible

Mehr

Ein (7,4)-Code-Beispiel

Ein (7,4)-Code-Beispiel Ein (7,4)-Code-Beispiel Generator-Polynom: P(X) = X 3 + X 2 + 1 Bemerkung: Es ist 7 = 2^3-1, also nach voriger Überlegung sind alle 1-Bit-Fehler korrigierbar Beachte auch d min der Codewörter ist 3, also

Mehr

Kapitel 7: Optimalcodierung und Huffman Coding

Kapitel 7: Optimalcodierung und Huffman Coding Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge

Mehr

Endliche Körper Seminar: Diskrete Mathematik Leitung: Prof. Dr. Rainer Lang Von: Steffen Lohrke (ii5105) SS2005

Endliche Körper Seminar: Diskrete Mathematik Leitung: Prof. Dr. Rainer Lang Von: Steffen Lohrke (ii5105) SS2005 Endliche Körper Seminar: Diskrete Mathematik Leitung: Prof. Dr. Rainer Lang Von: Steffen Lohrke (ii5105) SS2005 Inhaltsverzeichnis Abelsche Gruppe 3 Kommutativer Ring 5 Körper 6 Endliche Körper 7 Endliche

Mehr

Formelsammlung Kanalcodierung

Formelsammlung Kanalcodierung Formelsammlung Kanalcodierung Allgemeines Codewortlänge: N Anzahl der Informationsstellen: K Coderate: R = K/N Hamming-Distanz: D( x i, x j ) = w( x i xj ) Codedistanz: d = min D( x i, x j ); i j Fehlerkorrektur:

Mehr

zu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6

zu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6 zu ufgabe 6: a) 3 5 6 7 p( ) p( ) p( 3 ) p( ) p( 5 ) p( 6 ) p( 7 ) = p( 3 ) = p( 3 ) = p( 3 ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = 8 p( ) = p( ) = p( ) = p( ) Lösung: b) binär 8 p(

Mehr

Die Mathematik in der CD

Die Mathematik in der CD Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern

Mehr

Signale und Codes Vorlesung 4

Signale und Codes Vorlesung 4 Signale und Codes Vorlesung 4 Nico Döttling December 6, 2013 1 / 18 2 / 18 Letztes Mal Allgemeine Hamming Codes als Beispiel linearer Codes Hamming Schranke: Obere Schranke für k bei gegebenem d bzw. für

Mehr

Modul 1: Einführung und Wahrscheinlichkeitsrechnung

Modul 1: Einführung und Wahrscheinlichkeitsrechnung Modul : Einführung und Wahrscheinlichkeitsrechnung Informationstheorie Dozent: Prof. Dr. M. Gross E-mail: grossm@inf.ethz.ch Assistenten: Bernd Bickel, Daniel Cotting, Michael Waschbüsch, Boris Köpf, Andrea

Mehr

Die Hamming-Distanz definiert eine Metrik.

Die Hamming-Distanz definiert eine Metrik. Die Hamming-Distanz definiert eine Metrik. Satz Metrik Hamming-Distanz Die Hamming-Distanz ist eine Metrik auf {0, 1} n, d.h. für alle x, y, z {0, 1} n gilt: 1 Positivität: d(x, y) 0, Gleichheit gdw x

Mehr

Übungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen

Übungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen Übungen zur Vorlesung Grundlagen der Rechnernetze Zusätzliche Übungen Hamming-Abstand d Der Hamming-Abstand d zwischen zwei Codewörtern c1 und c2 ist die Anzahl der Bits, in denen sich die beiden Codewörter

Mehr

Zyklische Codes Rechnernetze Übung SS2010

Zyklische Codes Rechnernetze Übung SS2010 Zyklische Codes Binärcodes Blockcodes Lineare Codes Nichtlineare Codes Zyklische Codes Systematische Codes Binärcodes Blockcodes Lineare Codes Nichtlineare Codes Zyklische Codes Systematische Codes Durch

Mehr

Lösungsvorschläge zu Blatt Nr. 13

Lösungsvorschläge zu Blatt Nr. 13 Institut für Algorithmen und Kognitive Systeme Dr. Jörn Müller-Quade Carmen Kempka Christian Henrich Nico Döttling Vorlesung Informatik III Lösungsvorschläge zu Blatt Nr. Aufgabe (K ( Punkte Gegeben ist

Mehr

Begriffe aus der Informatik Nachrichten

Begriffe aus der Informatik Nachrichten Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung

Mehr

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen 1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte

Mehr

Klausur zur Vorlesung Informationstheorie

Klausur zur Vorlesung Informationstheorie INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 07 Hannover Klausur zur Vorlesung Informationstheorie Datum: 0.0.00 Uhrzeit: 09:00 Uhr Zeitdauer:

Mehr

Systeme II 3. Die Datensicherungsschicht

Systeme II 3. Die Datensicherungsschicht Systeme II 3. Die Datensicherungsschicht Christian Schindelhauer Technische Fakultät Rechnernetze und Telematik Albert-Ludwigs-Universität Freiburg Version 12.05.2016 1 Fehlererkennung: CRC Effiziente

Mehr

TGI-Übung Dirk Achenbach

TGI-Übung Dirk Achenbach TGI-Übung 7 06.02.2014 Dirk Achenbach INSTITUT FÜR THEORETISCHE INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Agenda

Mehr

Grundlagen der Technischen Informatik. 3. Übung

Grundlagen der Technischen Informatik. 3. Übung Grundlagen der Technischen Informatik 3. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 3. Übungsblatt Themen Aufgabe : Aufgabe 2: Aufgabe 3: Informationstheorie Huffman-Code Entropie

Mehr

Lösungshinweise zur Klausur. Mathematik für Informatiker III. (Dr. Frank Hoffmann) 18. Februar 2008

Lösungshinweise zur Klausur. Mathematik für Informatiker III. (Dr. Frank Hoffmann) 18. Februar 2008 Lösungshinweise zur Klausur Mathematik für Informatiker III (Dr. Frank Hoffmann) 8. Februar 8 Aufgabe Algebraisches I /6++ (a) Rechnen Sie zunächst nach, dass die Menge B = {,, von Vektoren eine Basis

Mehr

Kapitel 11: Binäre Kanäle

Kapitel 11: Binäre Kanäle Kaitel : Binäre Kanäle Ziele des Kaitels Binäre Kanäle und ihre Eigenschaften Gedächtnisfreie Kanäle Codierung als Schätzung und Schätzverfahren Kanalkaazität Shannon'sches Kanalcodierungstheorem Grundlegendes

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und

Mehr

Gegeben ist ein systematischer (7,3)-Cod. Die drei seiner Codewörter lauten:

Gegeben ist ein systematischer (7,3)-Cod. Die drei seiner Codewörter lauten: Prof. Dr.-Ing. H.G. Musmann INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 67 Hannover Gegeben ist ein systematischer (7,)-Cod. Die drei seiner

Mehr

P (x i ) log 2 = P (x. i ) i=1. I(x i ) 2 = log 1. bit H max (X) = log 2 MX = log 2 2 = 1. Symbol folgt für die Redundanz. 0.9 = 0.

P (x i ) log 2 = P (x. i ) i=1. I(x i ) 2 = log 1. bit H max (X) = log 2 MX = log 2 2 = 1. Symbol folgt für die Redundanz. 0.9 = 0. 7. Diskretes Kanalmodell I 7. a Aussagen über das digitale Übertragungsverfahren Bis auf die bereitzustellende Übertragungsrate [vgl. c)] sind keine Aussagen über das digitale Übertragungsverfahren möglich.

Mehr

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind. 1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,

Mehr

Einführung in die Codierungstheorie

Einführung in die Codierungstheorie Einführung in die Codierungstheorie Monika König 11.12.2007 Inhaltsverzeichnis 1 Einführung und Definitionen 2 2 Fehlererkennende Codes 3 2.1 Paritycheck - Code............................... 3 2.2 Prüfziffersysteme................................

Mehr

Modul Diskrete Mathematik WiSe 2011/12

Modul Diskrete Mathematik WiSe 2011/12 Modul Diskrete Mathematik WiSe / Ergänzungsskript zum Kapitel 3.4. Hinweis: Dieses Manuskript ist nur verständlich und von Nutzen für Personen, die regelmäßig und aktiv die zugehörige Vorlesung besuchen

Mehr

Grundlagen der Technischen Informatik. 2. Übung

Grundlagen der Technischen Informatik. 2. Übung Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 2. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Aufgabe 4: Hamming-Distanz Fehlererkennung

Mehr

1.1 Denition und Eigenschaften von Polynomen. k=0 b kx k Polynome. Dann ist. n+m. c k x k, c k = k=0. f(x) + g(x) := (a k + b k )x k. k=0.

1.1 Denition und Eigenschaften von Polynomen. k=0 b kx k Polynome. Dann ist. n+m. c k x k, c k = k=0. f(x) + g(x) := (a k + b k )x k. k=0. 1 Polynome I 1.1 Denition und Eigenschaften von Polynomen Denition: Ein Polynom über einem Körper K ist ein Ausdruck der Form a 0 + a 1 x + a 2 x 2 +... + a n x n = a k x k mit a i K. Ist a n 0, so heiÿt

Mehr

Stochastische Lernalgorithmen

Stochastische Lernalgorithmen Stochastische Lernalgorithmen Gerhard Jäger 14. Mai 2003 Das Maximum-Entropy-Prinzip Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kommt ursprünglich aus der Physik:

Mehr

Statistik I für Betriebswirte Vorlesung 2

Statistik I für Betriebswirte Vorlesung 2 Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Grundlagen der Technischen Informatik. Hamming-Codes. Kapitel 4.3

Grundlagen der Technischen Informatik. Hamming-Codes. Kapitel 4.3 Hamming-Codes Kapitel 4.3 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Inhalt Welche Eigenschaften müssen Codes haben, um Mehrfachfehler erkennen und sogar korrigieren zu können?

Mehr

Kanalkodierung. 6 Kanalkodierung Zielstellung. Störungen der übertragenen Daten. 6 Kanalkodierung Zielstellung WS 2018/2019

Kanalkodierung. 6 Kanalkodierung Zielstellung. Störungen der übertragenen Daten. 6 Kanalkodierung Zielstellung WS 2018/2019 Fakultät Informatik Institut Systemarchitektur Professur Datenschutz und Datensicherheit WS 2018/2019 6. Kanalkodierung Dr.-Ing. Elke Franz Elke.Franz@tu-dresden.de 6 Kanalkodierung Zielstellung en der

Mehr

Übungsblatt 5 - Musterlösung

Übungsblatt 5 - Musterlösung Universität Mannheim Lehrstuhl für Praktische Informatik IV Prof. Dr. W. Effelsberg Christoph Kuhmünch, Gerald Kühne Praktische Informatik II SS 2000 Übungsblatt 5 - Musterlösung Aufgabe 1: Huffman-Codierung

Mehr

Grundbegrie der Codierungstheorie

Grundbegrie der Codierungstheorie Grundbegrie der Codierungstheorie Pia Lackamp 12. Juni 2017 Inhaltsverzeichnis 1 Einleitung 2 2 Hauptteil 3 2.1 Blockcodes............................ 3 2.1.1 Beispiele.......................... 3 2.2

Mehr

2.7 Der Shannon-Fano-Elias Code

2.7 Der Shannon-Fano-Elias Code 2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.

Mehr

Kongruenz modulo g definiert auf K[x] eine Äquivalenzrelation g : h g f h f ist durch g teilbar, und [f] g ist die Äquivalenzklasse von f.

Kongruenz modulo g definiert auf K[x] eine Äquivalenzrelation g : h g f h f ist durch g teilbar, und [f] g ist die Äquivalenzklasse von f. 3 Kongruenz modulo g definiert auf K[x] eine Äquivalenzrelation g : h g f h f ist durch g teilbar, und [f] g ist die Äquivalenzklasse von f 4 Auf der Menge aller Restklassen [f] g kann man Addition und

Mehr

Übungsaufgaben zur Vorlesung Quellencodierung

Übungsaufgaben zur Vorlesung Quellencodierung Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2

Mehr

Einführung in die Codierungstheorie

Einführung in die Codierungstheorie 11. Dezember 2007 Ausblick Einführung und Definitionen 1 Einführung und Definitionen 2 3 Einführung und Definitionen Code: eindeutige Zuordnung von x i X = {x 1,.., x k } und y j Y = {y 1,..., y n } Sender

Mehr

Diskrete Mathematik II

Diskrete Mathematik II Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung 01-07.04.2008 Einführung in die Codierungstheorie, Definition Codes 1 / 36 Organisatorisches

Mehr

31 Polynomringe Motivation Definition: Polynomringe

31 Polynomringe Motivation Definition: Polynomringe 31 Polynomringe 31.1 Motivation Polynome spielen eine wichtige Rolle in vielen Berechnungen, einerseits weil oftmals funktionale Zusammenhänge durch Polynome beschrieben werden, andererseits weil Polynome

Mehr

Codierungstheorie Teil 1: Fehlererkennung und -behebung

Codierungstheorie Teil 1: Fehlererkennung und -behebung Codierungstheorie Teil 1: Fehlererkennung und -behebung von Manuel Sprock 1 Einleitung Eine Codierung ist eine injektive Abbildung von Wortmengen aus einem Alphabet A in über einem Alphabet B. Jedem Wort

Mehr

Informationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006

Informationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006 Informationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006 Institut für Nachrichtentechnik und Hochfrequenztechnik Bitte beachten Sie: Sie dürfen das Vorlesungsskriptum, einen Taschenrechner

Mehr

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zuallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Inormation steht

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Informationstheorie Vera Demberg Universität des Saarlandes 26. Juni 202 Vera Demberg (UdS) Mathe III 26. Juni 202 / 43 Informationstheorie Entropie (H) Wie viel Information

Mehr

Informatik I WS 07/08 Tutorium 24

Informatik I WS 07/08 Tutorium 24 Info I Tutorium 24 Informatik I WS 07/08 Tutorium 24 8.11.07 Bastian Molkenthin E-Mail: infotut@sunshine2k.de Web: http://www.sunshine2k.de Übersicht o Information und Bezugssysteme o Informationstheorie

Mehr

Signale und Codes Vorlesung 11

Signale und Codes Vorlesung 11 Signale und Codes Vorlesung 11 Nico Döttling January 31, 2014 1 / 22 Ein List-Decoder für WH k Theorem (Goldreich-Levin) Für jedes ɛ > 0 existiert ein effizienter List-Decoder für WH k welcher 1 2 ɛ Fehler

Mehr

Unsicherheit * M RS = 6

Unsicherheit * M RS = 6 Informationstheorie Gegenstand Unsicherheit Überraschung Entropie Relative und maximale Entropie, Redundanz Konditionale Entropie und Verbundentropie Wechselseitige ("Mutual") Information Gegenstand Kodierung,

Mehr

Statistik für Ingenieure Vorlesung 2

Statistik für Ingenieure Vorlesung 2 Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Unabhängigkeit von Ereignissen A, B unabhängig:

Mehr

Aufgabe 7.1 Bei einer digitalen Übertragung liege folgendes Modell vor:

Aufgabe 7.1 Bei einer digitalen Übertragung liege folgendes Modell vor: 1 Aufgabe 7.1 Bei einer digitalen Übertragung liege folgendes Modell vor: Q x q x akf digitale Übertrag. q y akf S y Quellensymboldauer T q = 1ms diskreter Kanal Q x sei eine stationäre Markov-Quelle nullter

Mehr

Klausur zur Vorlesung Informationstheorie

Klausur zur Vorlesung Informationstheorie INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 0167 Hannover Klausur zur Vorlesung Informationstheorie Datum:.02.2006 Uhrzeit: 9:00 Uhr Zeitdauer: 2 Stunden Hilfsmittel: ausgeteilte

Mehr

Eine Menge K, auf der eine Addition. + und eine Multiplikation definiert sind, nennt man einen Körper, wenn folgende Eigenschaften gelten: Körper 1-1

Eine Menge K, auf der eine Addition. + und eine Multiplikation definiert sind, nennt man einen Körper, wenn folgende Eigenschaften gelten: Körper 1-1 Körper Eine Menge K, auf der eine Addition + und eine Multiplikation definiert sind, nennt man einen Körper, wenn folgende Eigenschaften gelten: Körper 1-1 Körper Eine Menge K, auf der eine Addition +

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Mathematik für Informatiker II (Maikel Nadolski)

Mathematik für Informatiker II (Maikel Nadolski) Lösungen zum 4. Aufgabenblatt vom Mittwoch, den 02.Mai 2012 zur Vorlesung Mathematik für Informatiker II (Maikel Nadolski) 1. Reelles Betrachten Sie die folgenden beiden Mengen reeller Zahlen: S = { m

Mehr

SE Codierungstheorie Leitung: Dr. Amin Coja-Oghlan. Reed-Solomon-Codes. Jörg Pohle, Dezember 2006

SE Codierungstheorie Leitung: Dr. Amin Coja-Oghlan. Reed-Solomon-Codes. Jörg Pohle, Dezember 2006 SE Codierungstheorie Leitung: Dr. Amin Coja-Oghlan Reed-Solomon-Codes Jörg Pohle, 140114 15. Dezember 2006 1 Einleitung Im gleichen Jahr, in dem R. C. Bose, D. K. Ray-Chaudhuri und A. Hocquenghem die später

Mehr

4.0.2 Beispiel (Einfacher Wiederholungscode). Im einfachsten Fall wird die Nachricht einfach wiederholt. D.h. man verwendet die Generatorabbildung

4.0.2 Beispiel (Einfacher Wiederholungscode). Im einfachsten Fall wird die Nachricht einfach wiederholt. D.h. man verwendet die Generatorabbildung Wir beschäftigen uns mit dem Problem, Nachrichten über einen störungsanfälligen Kanal (z.b. Internet, Satelliten, Schall, Speichermedium) zu übertragen. Wichtigste Aufgabe in diesem Zusammenhang ist es,

Mehr

Erinnerung: Der Vektorraum F n 2

Erinnerung: Der Vektorraum F n 2 Erinnerung: Der Vektorraum F n 2 Definition Vektorraum F n 2 F n 2 = ({0, 1}n,+, ) mit Addition modulo 2, + : F n 2 Fn 2 Fn 2 und skalarer Multiplikation : F 2 F n 2 Fn 2 definiert einen Vektorraum, d.h.

Mehr

Sprechstunde zur Klausurvorbereitung

Sprechstunde zur Klausurvorbereitung htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)

Mehr

Vorlesung 13b. Relative Entropie

Vorlesung 13b. Relative Entropie Vorlesung 13b Relative Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). 2 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. S sei eine abzählbare Menge (ein

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

Übungsblatt Nr. 7. Lösungsvorschlag

Übungsblatt Nr. 7. Lösungsvorschlag Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nico Döttling Dirk Achenbach Tobias Nilges Vorlesung Theoretische Grundlagen der Informatik Übungsblatt Nr. 7 svorschlag Aufgabe (K)

Mehr

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de

Mehr

Die Größe A(n, d) und optimale Codes

Die Größe A(n, d) und optimale Codes Die Größe A(n, d) und optimale Codes Definition Optimaler Code Wir definieren A(n, d) = max{m binärer (n, M, d) Code} Ein (n, M, d)-code heißt optimal, falls M = A(n, d). Bestimmung von A(n, d) ist offenes

Mehr

Kommunikationstechnik II Wintersemester 07/08

Kommunikationstechnik II Wintersemester 07/08 Kommunikationstechnik II Wintersemester 07/08 Prof. Dr. Stefan Weinzierl Musterlösung: 5. Aufgabenblatt 1. Aufgabe: Kanalkodierung Zweck der Kanalcodierung: - Abbildung der information bits des Quellkodes

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Kryptographie und Datensicherheit. Universität Potsdam Institut für Informatik Almahameed Ayman

Kryptographie und Datensicherheit. Universität Potsdam Institut für Informatik Almahameed Ayman Kryptographie und Datensicherheit Universität Potsdam Institut für Informatik Almahameed Ayman almahame@uni-potsdam.de Inhalt des Vortrags Einführung Grundlagen der Wahrscheinlichkeitstheorie Begriff der

Mehr

Kapitel III Ringe und Körper

Kapitel III Ringe und Körper Kapitel III Ringe und Körper 1. Definitionen und Beispiele Definition 117 Eine Algebra A = S,,, 0, 1 mit zwei zweistelligen Operatoren und heißt ein Ring, falls R1. S,, 0 eine abelsche Gruppe mit neutralem

Mehr

4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140

4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 4 Woche Decodierung; Maximale, Perfekte und Optimale Codes 4 Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 Szenario für fehlerkorrigierende Codes Definition (n, M)-Code Sei C {0, 1}

Mehr

Dirk W. Hoffmann. Einführung. in die Informations. und Codierungstheorie. ^ Springer Vieweg

Dirk W. Hoffmann. Einführung. in die Informations. und Codierungstheorie. ^ Springer Vieweg Dirk W. Hoffmann Einführung und Codierungstheorie in die Informations ^ Springer Vieweg Inhaltsverzeichnis 1 Geschichte der Nachrichtentechnik 13 1.1 Von Fackeln und Feuern der Antike 15 1.1.1 Fackelpost

Mehr

Kapitel 13: Syndromcodierung / Hamming Codes

Kapitel 13: Syndromcodierung / Hamming Codes Kapitel 3: Syndromcodierung / Hamming Codes Ziele des Kapitels Lineare Codes Zyklische Codes Copyright M. Gross, ETH Zürich 26, 27 2 Parity-Check-Matrix Theorem: Die Minimaldistanz eines linearen Codes

Mehr

Theoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK

Theoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK Theoretische Grundlagen der Informatik 3..29 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Thema dieses Kapitels Informationstheorie

Mehr

Wann sind Codes eindeutig entschlüsselbar?

Wann sind Codes eindeutig entschlüsselbar? Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C

Mehr

Einführungsvortrag zum Proseminar Datenkompression im Wintersemester 2003/2004

Einführungsvortrag zum Proseminar Datenkompression im Wintersemester 2003/2004 Einführungsvortrag zum Proseminar Datenkompression im Wintersemester 2003/2004 Dr. Ralf Schlüter Lehrstuhl für Informatik VI RWTH Aachen 52056 Aachen schlueter@cs.rwth-aachen.de Ralf Schlüter Einführungsvortrag

Mehr

Codes on Graphs: Normal Realizations

Codes on Graphs: Normal Realizations Codes on Graphs: Normal Realizations Autor: G. David Forney, Jr. Seminarvortrag von Madeleine Leidheiser und Melanie Reuter Inhaltsverzeichnis Einführung Motivation Einleitung Graphendarstellungen Trellis

Mehr

G. Dobner/H.-J. Dobner: Lineare Algebra Elsevier Spektrum Akademischer Verlag

G. Dobner/H.-J. Dobner: Lineare Algebra Elsevier Spektrum Akademischer Verlag G. Dobner/H.-J. Dobner: Lineare Algebra Elsevier Spektrum Akademischer Verlag Beantwortung der Fragen und Lösungen der Aufgaben zu Kapitel Version V vom 3.. 28 2 Beantwortung der Fragen zu Kapitel TESTFRAGEN

Mehr

Die inverse Diskrete Fourier Transformation

Die inverse Diskrete Fourier Transformation Die inverse Diskrete Fourier Transformation Konvertierung von der Point-value Form in Koeffizientenform. Dazu stellen wir die DFT als Matrix-Vektor Produkt dar 1 1 1... 1 1 ω n ωn 2... ωn n 1 a 0 y 0 1

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

Informationstheorie und Codierung

Informationstheorie und Codierung Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice

Mehr

SEMINAR KLASSIFIKATION & CLUSTERING STATISTISCHE GRUNDLAGEN. Stefan Langer WINTERSEMESTER 2014/15.

SEMINAR KLASSIFIKATION & CLUSTERING STATISTISCHE GRUNDLAGEN. Stefan Langer WINTERSEMESTER 2014/15. SEMINAR KLASSIFIKATION & CLUSTERING WINTERSEMESTER 2014/15 STATISTISCHE GRUNDLAGEN Stefan Langer stefan.langer@cis.uni-muenchen.de Frequenz & Häufigkeit: Übersicht Absolute Häufigkeit Relative Häufigkeit

Mehr