Theoretische Grundlagen der Informatik

Größe: px
Ab Seite anzeigen:

Download "Theoretische Grundlagen der Informatik"

Transkript

1 Theoretische Grundlagen der Informatik Informationstheorie INSTITUT FÜR THEORETISCHE INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft

2 Thema dieses Kapitels Informationstheorie hat Anwendungen in Quellkodierung Kanalkodierung Kryptographie

3 Thema dieses Kapitels Informationstheorie hat Anwendungen in Quellkodierung Reduktion von Redundanz/Irrelevanz am Ausgang einer Informationsquelle Hauptaufgabe: Datenkompression Unterscheidung: Verlustfrei vs. verlustbehaftete Kompression Hohe wirtschaftliche Bedeutung Kanalkodierung Kryptographie

4 Thema dieses Kapitels Informationstheorie hat Anwendungen in Quellkodierung Kanalkodierung Übertragung von digitalen Daten über gestörte Kanäle Schutz vor Übertragungsfehlern durch Redundanz Fehlerkorrektur Kryptographie

5 Thema dieses Kapitels Informationstheorie hat Anwendungen in Quellkodierung Kanalkodierung Kryptographie Informationssicherheit: Konzeption, De nition und Konstruktion von Informationssystemen, die widerstandsfähig gegen unbefugtes Lesen und Verändern sind Kryptographie bildet zusammen mit Kryptoanalyse die Kryptologie.

6 Material für Informationstheorie Vorlesungsfolien TGI-Skript von Prof. Müller-Quade aus dem WS 8/9 (auf der TGI-Homepage verlinkt) Martin Werner: Information und Codierung, VIEWEG TEUBNER, 28 2

7 Information Sei S = f,..., ng eine Menge von Zeichen mit Wahrscheinlichkeiten fp,..., p n g. Wir betrachten eine Informationsquelle X, die Zeichen i 2 S mit Wahrscheinlichkeit p i liefert. Bemerkung: X wird auch diskrete, endliche Zufallsvariable genannt. 3

8 Information Sei S = f,..., ng eine Menge von Zeichen mit Wahrscheinlichkeiten fp,..., p n g. Wir betrachten eine Informationsquelle X, die Zeichen i 2 S mit Wahrscheinlichkeit p i liefert. Bemerkung: X wird auch diskrete, endliche Zufallsvariable genannt. Beispiel Ein idealer Würfel wird durch die Wahrscheinlichkeiten ( 6, 6, 6, 6, 6, 6 ) dargestellt. Das Ergebnis des idealen Würfels ist schwer vorherzusagen. Der Erkenntnisgewinn nach Ausgang des Experiments ist deshalb groß. 3

9 Information Sei S = f,..., ng eine Menge von Zeichen mit Wahrscheinlichkeiten fp,..., p n g. Wir betrachten eine Informationsquelle X, die Zeichen i 2 S mit Wahrscheinlichkeit p i liefert. Bemerkung: X wird auch diskrete, endliche Zufallsvariable genannt. Beispiel Betrachte den gezinkten Würfel mit Wahrscheinlichkeiten (,,,,, ). 2 Hier ist schon klarer, welche Zahl als nächstes gewürfelt wird. Der Erkenntnisgewinn ist also kleiner. 3

10 Information Sei S = f,..., ng eine Menge von Zeichen mit Wahrscheinlichkeiten fp,..., p n g. Wir betrachten eine Informationsquelle X, die Zeichen i 2 S mit Wahrscheinlichkeit p i liefert. Bemerkung: X wird auch diskrete, endliche Zufallsvariable genannt. Frage Wir suchen ein Maß für den Erkenntnisgewinn nach Ausgang k mit Wahrscheinlichkeit p k. Wir bezeichnen diesen Erkenntnisgewinn als Information I pk 3

11 Information Sei S = f,..., ng eine Menge von Zeichen mit Wahrscheinlichkeiten fp,..., p n g. Wir betrachten eine Informationsquelle X, die Zeichen i 2 S mit Wahrscheinlichkeit p i liefert. Bemerkung: X wird auch diskrete, endliche Zufallsvariable genannt. Wünsche an die De nition von Information Information soll nicht negativ sein. In Formeln: I pi Ein sicheres Ereignis (also p i = ) soll keine Information liefern. Kleine Änderungen an der Wahrscheinlichkeit sollen nur kleine Änderungen an der Information bewirken. Etwas mathematischer ausgedrückt: Information soll stetig sein. 3

12 Information Sei S = f,..., ng eine Menge von Zeichen mit Wahrscheinlichkeiten fp,..., p n g. Wir betrachten eine Informationsquelle X, die Zeichen i 2 S mit Wahrscheinlichkeit p i liefert. Bemerkung: X wird auch diskrete, endliche Zufallsvariable genannt. Wünsche an die De nition von Information Wunsch: Eine doppelt so lange Zeichenkette soll doppelte Information enthalten können Deshalb fordern wir, dass I pi p j = I pi + I pj Dies soll später sicherstellen, dass die Information einer (unabhängigen) Zeichenkette gleich der Summe der Einzelinformationen ist. 3

13 Information Sei S = f,..., ng eine Menge von Zeichen mit Wahrscheinlichkeiten fp,..., p n g. Wir betrachten eine Informationsquelle X, die Zeichen i 2 S mit Wahrscheinlichkeit p i liefert. Bemerkung: X wird auch diskrete, endliche Zufallsvariable genannt. De nition Information Sei p eine Wahrscheinlichkeit. Die Information von p (zur Basis b) ist I p = log b ( p ) = log b (p) Im folgenden verwenden wir immer die Basis b = 2. 3

14 Wiederholung: Rechenregeln Logarithmus log a (x y) = log a (x) + log a (x) log a (/x) = log a (x) Basiswechsel: log a (x) = log b(x) log b(a) p K2 K4 K6 K8 4

15 Information De nition Information Sei p eine Wahrscheinlichkeit. Die Information von p (zur Basis b) ist I p = log b ( p ) = log b (p) Im folgenden verwenden wir immer die Basis b = 2. Beispiel 2: Betrachte einen Münze mit Seiten, und Wkten p = p = 2. Die Information eines Münzwurfs ist log(/ 2 ) = log(2) = Werfen wir die Münze k mal, so ist die Wahrscheinlichkeit für einen bestimmen Ausgang gleich = 2 k. Die Information ist dann log( 2 k ) = log(2k ) = k 5

16 Entropie Anschaulich formuliert Entropie ist ein Maß für den mittleren Informationsgehalt pro Zeichen einer Quelle Interessante andere Sichtweise Entropie eines Strings bezeichnet die Länge unter der ein String nicht komprimiert werden kann. Die Kolmogorov-Komplexität eines String ist die Länge des kürzesten Programms, das diesen String ausgibt. Damit ist Entropie eine untere Schranke für die Kolmogorov-Komplexität. 6

17 Entropie Entropie Die Entropie (zur Basis 2) einer diskreten Zufallsvariable mit Ereignissen (Zeichen) X und Wahrscheinlichkeiten p(x) für x 2 X, ist de niert durch H(X ) = å p(x) log 2 ( p(x) ) x2x dabei gelten die folgenden Konventionen log :=, log :=, a log a := Bemerkung Es gilt immer H(X ). 7

18 Bemerkungen zur Entropie H(X ) = å x2x p(x) log 2 ( p(x) ) Die Entropie einer diskreten, endlichen Zufallsvariable mit n Zeichen wird maximal, wenn alle Zeichen gleichwahrscheinlich sind. Die maximale Entropie beträgt dann log 2 (n). Die Entropie der deutsche Sprache liegt etwa bei 4,. Bei 26 Buchstaben ergibt sich eine maximale Entropie von log 2 (26) 4, 7. 8

19 Entropie einer Münze mit Wkt p für Zahl H(X ) = å x2x p p(x) log 2 ( p(x) ) = p log (p) ( p) log ( p) 2 2

20 (Platzsparende) Codierungen Wir betrachten eine Informationsquelle X, die Zeichen i 2 S mit Wahrscheinlichkeit p i liefert. Zum Codieren der Zeichen aus S haben wir aber nur Zeichenketten aus f, g zur Verfügung. Wie können wir S ohne Informationsverlust codieren, dass die erwartete Länge der Ausgabe möglichst klein wird? Formal Wir ordnen jedem Zeichen i 2 S ein Codewort z i 2 f, g mit n i Zeichen zu. Die mittlere Codewortlänge ist n = å i2s p i n i.

21 Codierungsbäume Wir codieren im folgenden binär. Sei S = f,... ng ein Alphabet mit Prä x-code C = fc,... c n g. Der Codierungsbaum T von (S, C) ist ein gerichteter, binärer Baum so dass jede Kante mit oder annotiert ist, ausgehend von einem Knoten höchstens eine Kante mit und höchstens eine Kante mit annotiert ist, die Blätter von T genau die Elemente in S sind, der Weg von der Wurzel zu i 2 S mit c i annotiert ist. a b c d e f g h

22 Codierungsbäume a b c d e f g h Beispiele Zeichen c hat Code Zeichen f hat Code Zeichen h hat Code 2

23 Codierungsbäume a b c d e f g h Bemerkungen Es besteht ein direkter Zusammenhang zwischen Codierungen und den zugehörigen Bäumen. Die Tiefe d T (v ) eines Knotens v in einem Baum T ist die Anzahl der Kanten auf einem kürzesten Weg von der Wurzel zu v. 3

24 Codierungsbäume a b c d e f g h Bemerkungen Gegeben sei eine Codierung für Alphabet S mit Wahrscheinlichkeit p i für i 2 S, Codewortlänge n i für i 2 S und zugehörigem Codierungsbaum T. Die mittlere Codewortlänge ist n = å i2s p i n i = å v 2S p v d T (v ). 3

25 Beispiel Betrachte eine Informationsquelle X mit S = fa, b, c, d, e, f, g, hg und Wahrscheinlichkeiten p z = /8 für z 2 S. a b c d e f g h 4

26 Beispiel Betrachte eine Informationsquelle X mit S = fa, b, c, d, e, f, g, hg und Wahrscheinlichkeiten p z = /8 für z 2 S. a b c d e f g h Mittlere Codewortlänge Hier haben alle Codes Länge 3. Die mittlere Codewortlänge ist also 3. 4

27 Beispiel Betrachte eine Informationsquelle X mit S = fa, b, c, d, e, f, g, hg und Wahrscheinlichkeiten p z = /8 für z 2 S. 4 a b c d e f g h Anzahl der codierten Zeichen Mit jedem zusätzlichen Bit, verdoppelt sich die Größe des darstellbaren Alphabets Um ein Alphabet S mit Wörtern gleicher Länge zu kodieren braucht man also log 2 (jsj) bits.

28 Prä x-codes Bei Codes mit variabler Länge muss man wissen, wann ein neues Codewort beginnt. Ein Prä x-code ist ein Code, so dass kein Codewort Anfang eines anderen Codeworts ist. Für Prä x-codes benötigt man deswegen keine Trennzeichen. Jeder Prä x-code kann auf die, in der letzten Folie benutze, Art als Baum dargestellt werden. 5

29 Beispiel: Morse-Alphabet Das Morse-Alphabet hat variable Länge. Das Morse-Alphabet ist kein Prä x-code. Zur Unterscheidung von A und ET benötigt man ein Trennzeichen. Das Morsealphabet besteht deswegen aus 3 Zeichen. 6 Buchstabe Morsezeichen Buchstabe Morsezeichen A N B O C P D Q E R F S G T H U I V J W K X L Y M Z

30 Quellencodierungstheorem Es seien Codes mit variabler Länge erlaubt. Es ist dann nützlich, häu ge Zeichen mit kurzen Wörtern zu codieren. Dies verkleinert die mittlere Codewortlänge. Satz (Shannon's Quellencodierungstheorem): Sei X eine diskrete endliche Zufallsvariable mit Entropie H(X ). Weiter sei ein Prä x-code für X mit einem Codealphabet aus D Zeichen und minimaler mittlerer Codewortlänge n gegeben. Dann gilt H(X ) log 2 D n < H(X ) log 2 D +. 7

31 Beispiel: Shannon-Fano Codierung Elemente Wahrscheinlichkeiten Codewort,59,388 2,25 3,946 4,796 5,669 6,563 7,473 8,398 9,334,28,237 2,

32 Beispiel: Shannon-Fano Codierung Elemente Wahrscheinlichkeiten Codewort,59,388 2,25 3,946 4,796 5,669 6,563 7,473 8,398 9,334,28,237 2,

33 Beispiel: Shannon-Fano Codierung Elemente Wahrscheinlichkeiten Codewort,59,388 2,25 3,946 4,796 5,669 6,563 7,473 8,398 9,334,28,237 2,

34 Beispiel: Shannon-Fano Codierung Elemente Wahrscheinlichkeiten Codewort,59,388 2,25 3,946 4,796 5,669 6,563 7,473 8,398 9,334,28,237 2,

35 Beispiel: Shannon-Fano Codierung Elemente Wahrscheinlichkeiten Codewort,59,388 2,25 3,946 4,796 5,669 6,563 7,473 8,398 9,334,28,237 2,

36 Beispiel: Shannon-Fano Codierung Elemente Wahrscheinlichkeiten Codewort,59,388 2,25 3,946 4,796 5,669 6,563 7,473 8,398 9,334,28,237 2,

37 Beispiel: Shannon-Fano Codierung Elemente Wahrscheinlichkeiten Codewort,59,388 2,25 3,946 4,796 5,669 6,563 7,473 8,398 9,334,28,237 2,

38 Beispiel: Shannon-Fano Codierung Ein paar Zwischenschritte später... Elemente Wahrscheinlichkeiten Codewort,59,388 2,25 3,946 4,796 5,669 6,563 7,473 8,398 9,334,28,237 2,

39 Shannon-Fano Codierung Funktion ShannonFano(Z ) Eingabe: Zeichenliste Z = (z,..., z k ) mit Wkten p,... p k Ausgabe: Shannon-Fano Codierung (c,..., c k ) Wenn k = return (c = e) and exit Sortiere Zeichen Z absteigend nach Wkt p i (d.h p p 2,... p k ). Trenne Z in Z (z,... z l ) Z 2 (z l+,... z k) so dass j å l i= p i å k i=l+ p ij minimal ist. (c,... c l ) L ShannonFano(Z ) (c l+,... c k ) L ShannonFano(Z 2 ) return (c,... c k ) 9

40 Codierungsbaum Shannon-Fano

41 Bemerkung Die mittlere Codewortlänge der Shannon-Fano Codierung muss nicht optimal sein. Sie ist deswegen nicht sehr verbreitet. Wir werden sehen, dass die Huffman-Codierung optimale mittlere Codewortlänge besitzt. 2

42 Beispiel: Huffman-Codierung d, 4 f, 2 b, 5 e, 5 a, 5 c, 5 22

43 Beispiel: Huffman-Codierung d, 4 f, 2 b, 5 e, 5 a, 5 c, 5, 22

44 Beispiel: Huffman-Codierung d, 4 f, 2 b, 5 e, 5 a, 5 c, 5,, 25 22

45 Beispiel: Huffman-Codierung d, 4 f, 2 b, 5 e, 5 a, 5 c, 5, 35,, 25 22

46 Beispiel: Huffman-Codierung d, 4 f, 2 b, 5 e, 5 a, 5 c, 5, 35,, 25, 6 22

47 Beispiel: Huffman-Codierung d, 4 f, 2 b, 5 e, 5 a, 5 c, 5, 35,, 25, 6 22

48 Beispiel: Huffman-Codierung d, 4 f, 2 b, 5 e, 5 a, 5 c, 5, 35,, 25, 6 22 Beispiele Zeichen c hat Code Zeichen e hat Code Zeichen d hat Code

49 Huffman-Codierung Eingabe: Zeichen,..., n mit Wkten p,... p n Ausgabe: Baum T des Huffman-Codes Menge Q = f,... ng Füge alle Zeichen aus Q als Blätter in T ein Für i =,... n r Erzeuge neuen Knoten z für T u extrahiere Element x aus Q mit p x minimal Bestimme u als linker Nachfolger von z v extrahiere Element x aus Q mit p x minimal Bestimme v als rechter Nachfolger von z Wahrscheinlichkeit p z von z ist p u + p v Füge z in Q ein extrahiere letztes Element aus Q return r (r ist Wurzel von T ) 23

50 Optimalität der Huffman-Codierung Satz: Der Huffman-Algorithmus berechnet einen Codierungsbaum mit minimaler mittlerer Codewortlänge. 24

51 Vorbereitendes Lemma Satz: Sei S = f,..., ng ein Alphabet mit Wkten P = fp,..., p n g. Seien x, y 2 S, x 6= y eine beliebige Wahl für die zwei unwahrscheinlichsten Zeichen. Dann gibt es einen Codierungsbaum T für (S, P) mit minimaler mittlerer Codewortlänge, so dass x und y den gleichen Elternknoten besitzen. 25

52 Vorbereitendes Lemma: Beweis Sei S = f,..., ng ein Alphabet mit Wkten P = fp,..., p n g. Seien x, y 2 S, x 6= y eine beliebige Wahl für die zwei unwahrscheinlichsten Zeichen. Beweis Sei T ein belieber Codierungsbaum für (S, P) mit minimaler mittlerer Codewortlänge O.B.d.A gelte für die Tiefe, dass d T (x) d T (y). Sei z der Elternknoten von x in T Fall : z hat nur x als Nachkommen Dann könnte man z löschen und durch x ersetzen Dieser Baum hätte eine kleinere mittlere Codewortlänge x z y Widerspruch zur Optimalität von T 26

53 Vorbereitendes Lemma: Beweis Sei S = f,..., ng ein Alphabet mit Wkten P = fp,..., p n g. Seien x, y 2 S, x 6= y eine beliebige Wahl für die zwei unwahrscheinlichsten Zeichen. Beweis Sei T ein belieber Codierungsbaum für (S, P) mit minimaler mittlerer Codewortlänge O.B.d.A gelte für die Tiefe, dass d T (x) d T (y). Sei z der Elternknoten von x in T Fall 2: z hat mehr als 2 Nachkommen Sei w 6= y ein Nachfahre von z von maximaler Tiefe Optimalität von T : p w p x x z q y 26 Wahl von x, y: p w = p x Tausche x mit w. Weiter mit Fall 3 w

54 Vorbereitendes Lemma: Beweis Sei S = f,..., ng ein Alphabet mit Wkten P = fp,..., p n g. Seien x, y 2 S, x 6= y eine beliebige Wahl für die zwei unwahrscheinlichsten Zeichen. Beweis Sei T ein belieber Codierungsbaum für (S, P) mit minimaler mittlerer Codewortlänge O.B.d.A gelte für die Tiefe, dass d T (x) d T (y). Sei z der Elternknoten von x in T Fall 3: z hat genau 2 Nachkommen Sei q 6= x der andere Nachfahre von z. Tausche q mit y. q und y gleiche Tiefe: Tauschen ok. x z q y q tiefer als y: Wegen Optimalität p q = p y. 26

55 Optimalität der Huffman-Codierung Satz: Der Huffman-Algorithmus berechnet einen Codierungsbaum mit minimaler mittlerer Codewortlänge. Beweis Wir benutzen Induktion nach der Anzahl der Zeichen jsj des Alphabets S. Induktionsanfang: Die Aussage ist für ein Zeichen erfüllt. 27

56 Beweis - Induktionsschluss Induktions-Voraussetzung Der Huffman-Algorithmus berechnet einen optimalen Codierungsbaum für alle Alphabete S mit jsj n und alle Möglichkeiten für P. Induktions-Schluss Gegeben sei Alphabet S = f,..., n + g mit Wkten P = fp,... p n+g. Für einen Codierungsbaum T bezeichne f (T ) = å v 2S p v d T (v ) die zugehörige mittlere Wortlänge. Wir machen einen Widerspruchsbeweis. Bezeichne T huff einen Huffman-Baum für (S, P) Sei T opt einen Codierungsbaum für (S, P) mit f (T opt ) < f (T huff ). 28

57 Beweis - Induktionsschluss Seien x, y 2 S die Zeichen, die im Huffman-Algo zuerst zusammengefasst werden. Vorbereitendes Lemma: Wir können T opt so wählen, dass x und y den gleichen Elternknoten besitzen. T opt T huff x y x y 29

58 Beweis - Induktionsschluss Seien x, y 2 S die Zeichen, die im Huffman-Algo zuerst zusammengefasst werden. Vorbereitendes Lemma: Wir können T opt so wählen, dass x und y den gleichen Elternknoten besitzen. T opt T huff z z Sei S = S n fx, yg [ fzg Instanz für neues Zeichen z mit Wkt p x + p y Seien T opt und T huff die Bäume, die sich aus T opt und T huff ergeben, wenn man x, y mit ihrem Elterknoten zu Knoten z verschmilzt. 29

59 Beweis - Induktionsschluss Sei S = S n fx, yg [ fzg Instanz für neues Zeichen z mit Wkt p x + p y Seien T opt und T huff die Bäume, die sich aus T opt und T huff ergeben, wenn man x, y mit ihrem Elterknoten zu Knoten z verschmilzt. T opt T huff z z Es gilt T huff ist ein Huffman-Baum für Instanz S mit den neuen Wkten T opt ist ein Codierungs-Baum für Instanz S mit den neuen Wkten 3

60 Beweis - Induktionsschluss Sei S = S n fx, yg [ fzg Instanz für neues Zeichen z mit Wkt p x + p y Seien T opt und T huff die Bäume, die sich aus T opt und T huff ergeben, wenn man x, y mit ihrem Elterknoten zu Knoten z verschmilzt. T opt T huff z z Es gilt f (T huff ) = f (T huff ) d Thuff (x)p x d Thuff (y)p y + (d Thuff (z) )p z = f (T huff ) p x p y f (T opt ) = f (T opt ) d Topt (x)p x d Topt (y)p y + (d Topt (z) )p z 3 = f (T opt ) p x p y

61 Beweis - Induktionsschluss Sei S = S n fx, yg [ fzg Instanz für neues Zeichen z mit Wkt p x + p y Seien T opt und T huff die Bäume, die sich aus T opt und T huff ergeben, wenn man x, y mit ihrem Elterknoten zu Knoten z verschmilzt. T opt T huff z z Damit ist T opt ein besserer Coderierungsbaum für S als T huff Da js j = n ist dies ein Widerspruch zur Induktionsvoraussetzung. 3

62 Nachteile der Huffman-Codierung Unterschiedliche Codewortlängen führen zu unterschiedlichen Bitraten und Decodierungsverzögerung. Datenkompression reduziert die Redundanz und erhöht damit die Fehleranfälligkeit. Die Kenntnis der Wahrscheinlichkeiten der Zeichen wird vorausgesetzt. Universelle Codierverfahren wie der Lempel-Ziv Algorithmus setzen kein a-priori Wissen an die Statistik der Daten voraus. 3

63 Lau ängenkodierung Bei der Faxübertragung wird die Vorlage zeilenweise abgetastet und in weiße (w) und schwarze (s) Bildelemente zerlegt. Üblicherweise ist die Zahl der weißen Elemente viel höher, als die der schwarzen. Wir nehmen der Einfachheit halber an, dass die Bildpunkte voneinander unabhängig sind. Bei 5% Schwärzungsgrad ergibt sich eine Entropie von H =.85 log 2 (.85).5 log 2 (.5).6 Bei guter Codierung sollte eine entsprechende mittlere Codewortlänge zu erwarten sein. 32

64 Lau ängenkodierung Bei der Faxübertragung wird die Vorlage zeilenweise abgetastet und in weiße (w) und schwarze (s) Bildelemente zerlegt. Üblicherweise ist die Zahl der weißen Elemente viel höher, als die der schwarzen. Wir nehmen der Einfachheit halber an, dass die Bildpunkte voneinander unabhängig sind. Bei 5% Schwärzungsgrad ergibt sich eine Entropie von H =.85 log 2 (.85).5 log 2 (.5).6 Bei guter Codierung sollte eine entsprechende mittlere Codewortlänge zu erwarten sein. Problem: Wie ist platzsparende Codierung von einem Alphabet mit zwei Zeichen möglich? 32

65 Lau ängencodierung Problem: Wie ist platzsparende Codierung von einem Alphabet mit zwei Zeichen möglich? Möglicher Ansatz: Blockcodes Fasse k Zeichen zu Blöcken zusammen und codiere diesen Beispiel k = 2: Neues Alphabet: ww,ws,sw,ss Dieses kann platzsparend codiert werden. Beispiel: Zeichen ww ws sw ss Wkt 2 2 Huffman 2 33

66 Lau ängencodierung Lau ängencodierung Spezielle Zusammenfassung für Bildcodierung bei Fax/Videoanwendungen Die Länge der Blöcke ist variabel. Idee: Codiere nicht die Bildpunkte, sondern den Abstand zwischen zwei schwarzen Bildpunkten Beispiel: wwwswwsswwwwswswwwwwwswwwwwws wird aufgefasst als Für eine Binärcodierung braucht man noch Codes für die Abstände (also für N). Um dies platzsparend zu machen benötigt man Wkten für einzelne Abstände. 34

67 Lau ängencodierung Lau ängencodierung Wie groß sind die Wkten für die einzelnen Abstände? Annahme: Die Bildpunkte sind voneinander unabhängig Sei p l die Wkt für einen Block aus l aufeinanderfolgenden weißen Bildpunkten mit einem schwarzen Bildpunkten am Schluss p l = P(w l s) = P l (w ) P(s) Es ergibt sich eine geometrische Verteilung 34

68 Geometrische Verteilung Quelle: Wikipedia. 35

69 Lau ängencodierung Man kann ein Schwarzweißbild über Angabe der Lau ängen verlustfrei rekonstruieren Sonderbehandlung für letzten Block erforderlich Weiteres Problem: Lau ängen können beliebig groß werden Shannon-Fano-Codierung kann trotzdem einfach angewandt werden Abstand Wkten Codewort,59,388 2,25 3,946 4,796 5,669 6,563 7,473 8,398 9,334,28,237 2,

70 Codierung zum Schutz gegen Übertragungsfehler Quelle Störung Kanal Senke Kanaldecodierung Quellendecodierung Quellencodierung Kanalcodierung 37

71 Codierung zum Schutz gegen Übertragungsfehler Qualität einer digitalen Übertragung wird häu g als gemessene Bitfehlerquote bzw Bitfehlerwahrscheinlichkeit angegeben Beherrschung von Übertragungsfehlern Fehlerkorrektur (beim Empfänger) Fehlererkennung und Wiederholungsanforderung Tradeoff: Wahrscheinlichkeit unentdeckter Fehler vs. Datendurchsatz 37

72 Paritätscodes - Einfach Binär Quelle: Wikipedia Paritätscode der RS232-Schnittstelle Neunpoliges Kabel ermöglicht die parallele Übertragung von 8 bit Dabei werden nur sieben bits b,... b 7 für die Nachrichtenübertragung genutzt. Das achte bit b 8 wird Paritätsbit genannt. 38

73 Paritätscodes - Einfach Binär Paritätscode der RS232-Schnittstelle Neunpoliges Kabel ermöglicht die parallele Übertragung von 8 bit Dabei werden nur sieben bits b,... b 7 für die Nachrichtenübertragung genutzt. Das achte bit b 8 wird Paritätsbit genannt. Wiederholung XOR-Verknüpfung Es wird b 8 so gesendet, dass b 8 = b b 2 b 3 b 4 b 5 b 6 b 7 38

74 Paritätscodes - Einfach Binär Wiederholung XOR-Verknüpfung Es wird b 8 so gesendet, dass b 8 = b b 2 b 3 b 4 b 5 b 6 b 7 Mit dem Paritätscode werden einfache Fehler im Codewort erkannt Gleichzeitiger Übertragungsfehler von 2 Fehlern werden nicht erkannt Falls ein Fehler erkannt wird, kann die ursprüngliche Nachricht nicht rekonstruiert werden: Die Fehlerstelle ist unbekannt 38

75 Kreuzsicherung Dient zum Schutz gegen Doppelfehler Erklärung am Beispiel Lochkarte Paritätszeichen Längsparität Paritätszeichen Querparität 39 Transportrichtung

76 Kreuzsicherung Alle,2,3 fachen Fehler sind erkennbar Ab 4 Fehlern nicht zwingend erkennbar Paritätszeichen Längsparität Paritätszeichen Querparität 39 Transportrichtung

77 Kreuzsicherung Alle,2,3 fachen Fehler sind erkennbar Ab 4 Fehlern nicht zwingend erkennbar Paritätszeichen Längsparität Paritätszeichen Querparität 39 Transportrichtung

78 Kreuzsicherung Alle,2,3 fachen Fehler sind erkennbar Ab 4 Fehlern nicht zwingend erkennbar Paritätszeichen Längsparität Paritätszeichen Querparität 39 Transportrichtung

79 Kreuzsicherung Alle,2,3 fachen Fehler sind erkennbar Ab 4 Fehlern nicht zwingend erkennbar Paritätszeichen Längsparität Paritätszeichen Querparität 39 Transportrichtung

80 Paritätscodes Paritätscodes Gegeben ein Alphabet S = f, 2,..., q g. Ein Code der Länge n zur Basis q sei eine Menge von Folgen mit Elementen aus S. Einzelne Folgen werden Codewörter genannt. Ein Paritätscode liegt vor, wenn für jedes Codewort a, a 2,..., a n gilt. (a + a a n ) mod q = Satz: Jeder Paritätscode erkennt Einzelfehler. 4

81 Beweis Sei a,..., a n das ursprüngliche Codewort Annahme: Das i-te Element wurde fehlerhaft als ea i übertragen. Ein Übertragungsfehler liegt vor, wenn (a + a ea i a n ) mod q = Für das ursprüngliche Codewort gilt (a + a a n ) mod q =. Also = (a + a ea i a n ) mod q = (a + a a n ) mod q 4

82 Beweis = (a + a ea i a n ) mod q = (a + a a n ) mod q Damit = (a + a ea i a n ) mod q (a + a a n ) mod q = (ea i a i ) mod q Um dies zu erfüllen muss (ea i a i ) durch q teilbar sein. Weil aber a i < q folgt jea i a i j < q. 42

83 Paritätscodes gegen Vertauschungsfehler Häu ge Fehlerart bei manueller Eingabe: Vertauschungsfehler. Diese werden von gewöhnlichen Paritätscodes nicht erkannt. Sie wieder a,..., a n ein Codewort. Paritätscode mit Gewichten: Wir führen zusätzlich ganzzahlige Gewichte w,..., w n ein, so das gilt gilt. (w a + w 2 a w n a n + a n ) mod q = Zusatzbedingung: Alle Gewichte w i müssen teilerfremd zu q sein. 43

84 Paritätscodes gegen Vertauschungsfehler Paritätscode mit Gewichten: Wir führen zusätzlich ganzzahlige Gewichte w,..., w n ein, so das gilt gilt. (w a + w 2 a w n a n + a n ) mod q = Zusatzbedingung: Alle Gewichte w i müssen teilerfremd zu q sein. Satz: Jeder Paritätscode mit Gewichten erkennt Einzelfehler. Beweis: Analog zu normalen Paritätscodes kann gezeigt werden, dass Einzelfehler nicht erkannt werden, wenn w i (ea i a i ) mod q =. 43

85 Paritätscodes gegen Vertauschungsfehler Paritätscode mit Gewichten: Wir führen zusätzlich ganzzahlige Gewichte w,..., w n ein, so das gilt gilt. (w a + w 2 a w n a n + a n ) mod q = Zusatzbedingung: Alle Gewichte w i müssen teilerfremd zu q sein. Satz: Ein Paritätscode mit Gewichten erkennt die Vertauschung an den Stellen i und j, falls die Zahl w i w j teilerfremd zu q ist. Beweis: Analog zu oben: Vertauschungsfehler wird nicht erkannt, falls [(w i a i + w j a j ) (w j a i + w i a j )] mod q = [(w i w j )(a i a j )] mod q =. 43

86 44 Bsp: ISBN-

87 ISBN: International Standard Book Number (ISO Standard 28) ISBN- (Code oben im letzten Beispiel) war bis 26 übliche Codierungen Seit 27 EAN-3 (European Article Number) Beschreibung ISBN- Alphabet S = f,,..., 9g Basis q = (Primzahl!) Länge n = Paritätscode Für Code a,..., a berechnet sich die Prüfziffer a aus (a + 9a 2 + 8a a 9 + a ) mod =. 45

88 Block-Codes Man unterscheidet verschiedene Arten von Kanal-Codes. Block-Codes: Hier betrachtet man Codeworte fester Länge. Aufeinanderfolgende Blöcke werden unabhängig voneinander kodiert. Faltungs-Codes: Codeworte konnen beliebig lang sein. Die Zeichen sind vom Vorgeschehen abhängig. In TGI befassen wir uns ausschließlich mit Block-Codes. 46

89 Hamming-Distanz und Fehlerkorrektur Hamming-Distanz Für x, y 2 f, g n ist d (x, y) := #fiji =,..., n, x i 6= y i g die Hamming-Distanz zwischen x und y. Anschaulich: Die Hamming Distanz zwischen x und y ist die Anzahl der Zeichen in x die sich von denen in y unterscheiden. Es sei B r (x) die Menge aller Worte y mit d (x, y) r. Anschaulich: B r ist eine Kugel (die Hamming-Kugel) um x mit Radius r. 47

90 Maximum-Likelihood-Decoding Maximum-Likelyhood-Decoding Sei eine Kodierung C gegeben und y ein empfangenes Wort. Decodiere y als dasjenige Codewort x 2 C, für das d (x, y) minimal wird. 48

91 Shannon's Theorem Shannon's Theorem Betrachte einen Code C mit M Worten der Länge n. Seien x,..., x 2 die Codeworte. Benutze maximum-likelyhood-decoding. Sei P i die Wahrscheinlichkeit dafür, dass falsch dekodiert wird wenn das Wort x i gesendet wurde. Die durchschnittliche Wahrscheinlichkeit einer falschen Dekodierung ist P M C = å P i. M i= 49

92 Block-Codes Block-Code Gegeben ist ein endliches Alphabet S Ein Block-Code ist eine Teilmenge C S n für ein n 2 N Falls #C =, so heißt C trivial, da es nur ein Codewort gibt. Minimaldistanz Die Minimaldistanz eines nichttrivialen Block-Codes C ist m(c) := min c,c 2 2C,c 6=c 2 d (c, c 2 ). 5

93 Block-Codes Satz: Ein Block-Code C mit Minimaldistanz m(c) = d kann entweder bis zu d Fehler erkennen oder bis zu j k d 2 Fehler korrigieren. 5

94 Beweisskizze d d 2 d 2 d 2 52

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon

Mehr

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1 Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)

Mehr

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen 1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte

Mehr

Die Mathematik in der CD

Die Mathematik in der CD Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern

Mehr

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Codierung Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Ein bisschen Informationstheorie Betrachten wir das folgende Problem: Wie lautet eine sinnvolle Definition für das quantitative

Mehr

15 Optimales Kodieren

15 Optimales Kodieren 15 Optimales Kodieren Es soll ein optimaler Kodierer C(T ) entworfen werden, welcher eine Information (z.b. Text T ) mit möglichst geringer Bitanzahl eindeutig überträgt. Die Anforderungen an den optimalen

Mehr

Grundlagen der Technischen Informatik. 2. Übung

Grundlagen der Technischen Informatik. 2. Übung Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit Organisatorisches Übungsblätter zuhause vorbereiten! In der Übung an der Tafel vorrechnen! Bei

Mehr

JKU Young Scientists Matheseminar

JKU Young Scientists Matheseminar JKU Young Scientists Matheseminar Matheseminar WS 2013/14 Codierung und Information Das grundlegende Problem der Kommunikation besteht darin, an einer Stelle entweder genau oder angenähert eine Nachricht

Mehr

4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140

4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 4 Woche Decodierung; Maximale, Perfekte und Optimale Codes 4 Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 Szenario für fehlerkorrigierende Codes Definition (n, M)-Code Sei C {0, 1}

Mehr

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,

Mehr

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung

Mehr

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester

Mehr

Codierung, Codes (variabler Länge)

Codierung, Codes (variabler Länge) Codierung, Codes (variabler Länge) A = {a, b, c,...} eine endliche Menge von Nachrichten (Quellalphabet) B = {0, 1} das Kanalalphabet Eine (binäre) Codierung ist eine injektive Abbildung Φ : A B +, falls

Mehr

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.

Mehr

Einführung in die Kodierungstheorie

Einführung in die Kodierungstheorie Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht

Mehr

Übung zur Vorlesung. Informationstheorie und Codierung

Übung zur Vorlesung. Informationstheorie und Codierung Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.

Mehr

5 Zwei spieltheoretische Aspekte

5 Zwei spieltheoretische Aspekte 5 Zwei spieltheoretische Aspekte In diesem Kapitel wollen wir uns mit dem algorithmischen Problem beschäftigen, sogenannte Und-Oder-Bäume (kurz UOB) auszuwerten. Sie sind ein Spezialfall von Spielbäumen,

Mehr

Discrete Probability - Übungen (SS5) Wahrscheinlichkeitstheorie. 1. KR, Abschnitt 6.1, Aufgabe 5: 2. KR, Abschnitt 6.1, Aufgabe 7:

Discrete Probability - Übungen (SS5) Wahrscheinlichkeitstheorie. 1. KR, Abschnitt 6.1, Aufgabe 5: 2. KR, Abschnitt 6.1, Aufgabe 7: Discrete Probability - Übungen (SS5) Felix Rohrer Wahrscheinlichkeitstheorie 1. KR, Abschnitt 6.1, Aufgabe 5: Bestimmen Sie die Wahrscheinlichkeit dafür, dass die Augensumme von zwei geworfenen Würfeln

Mehr

Kryptographie und Codierung für den Mathematikunterricht

Kryptographie und Codierung für den Mathematikunterricht Kryptographie und Codierung für den Mathematikunterricht Pädagogische Hochschule Karlsruhe University of Education École Supérieure de Pédagogie Institut für Mathematik und Informatik Th. Borys Was verstehst

Mehr

Eigenschaften von Kompressionsverfahren

Eigenschaften von Kompressionsverfahren 6 Textkompression Eigenschaften von Kompressionsverfahren Das Ziel der Datenkompression ist es, eine gegebene Information (Datenquelle) auf eine kompaktere Weise zu repräsentieren. Dies geschieht, indem

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

Fehlererkennung und Fehlerkorrektur in Codes

Fehlererkennung und Fehlerkorrektur in Codes Fehlererkennung und Fehlerkorrektur in Codes Blockcodes und Hamming Abstand Untersuchungen zu Codierungen von Informationen, die über einen Nachrichtenkanal übertragen werden sollen, konzentrieren sich

Mehr

Ι. Einführung in die Codierungstheorie

Ι. Einführung in die Codierungstheorie 1. Allgemeines Ι. Einführung in die Codierungstheorie Codierung: Sicherung von Daten und Nachrichten gegen zufällige Fehler bei der Übertragung oder Speicherung. Ziel der Codierung: Möglichst viele bei

Mehr

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus? Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"

Mehr

Prof. Dr. Christoph Karg Hochschule Aalen. Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik. Sommersemester 2016

Prof. Dr. Christoph Karg Hochschule Aalen. Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik. Sommersemester 2016 Prof. Dr. Christoph Karg 5.7.2016 Hochschule Aalen Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik Sommersemester 2016 Name: Unterschrift: Klausurergebnis Aufgabe 1 (15 Punkte) Aufgabe 3

Mehr

Übung 13: Quellencodierung

Übung 13: Quellencodierung ZHAW, NTM, FS2008, Rumc, /5 Übung 3: Quellencodierung Aufgabe : Huffmann-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

2 Informationstheorie

2 Informationstheorie 2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information

Mehr

Kryptologie und Kodierungstheorie

Kryptologie und Kodierungstheorie Kryptologie und Kodierungstheorie Alexander May Horst Görtz Institut für IT-Sicherheit Ruhr-Universität Bochum Lehrerfortbildung 17.01.2012 Kryptologie Verschlüsselung, Substitution, Permutation 1 / 18

Mehr

Mathematik für Information und Kommunikation

Mathematik für Information und Kommunikation Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html

Mehr

Formelsammlung. Wahrscheinlichkeit und Information

Formelsammlung. Wahrscheinlichkeit und Information Formelsammlung Wahrscheinlichkeit und Information Ein Ereignis x trete mit der Wahrscheinlichkeit p(x) auf, dann ist das Auftreten dieses Ereignisses verbunden mit der Information I( x): mit log 2 (z)

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13)

Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13) Berlin, 21. Februar 2013 Name:... Matr.-Nr.:... Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13) 1 2 3 4 5 6 7 8 9 Σ Bearbeitungszeit: 90 min. max. Punktezahl:

Mehr

Grundlagen exakter Methoden zur Verschlüsselung von Codewörtern mittels linearer Codes*

Grundlagen exakter Methoden zur Verschlüsselung von Codewörtern mittels linearer Codes* Grundlagen exakter Methoden zur Verschlüsselung von Codewörtern mittels linearer Codes* Andrea Kraft andreakraft@gmx.at Elisabeth Pilgerstorfer elisabeth_pilg@hotmail.com Johannes Kepler Universität Linz

Mehr

Kodierungsalgorithmen

Kodierungsalgorithmen Kodierungsalgorithmen Komprimierung Verschlüsselung Komprimierung Zielsetzung: Reduktion der Speicherkapazität Schnellere Übertragung Prinzipien: Wiederholungen in den Eingabedaten kompakter speichern

Mehr

Übung zur Vorlesung Algorithmische Geometrie

Übung zur Vorlesung Algorithmische Geometrie Übung zur Vorlesung Algorithmische Geometrie Dipl.-Math. Bastian Rieck Arbeitsgruppe Computergraphik und Visualisierung Interdisziplinäres Zentrum für Wissenschaftliches Rechnen 8. Mai 2012 B. Rieck (CoVis)

Mehr

Lineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19

Lineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19 Lineare Codes Dipl.-Inform. Wolfgang Globke Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19 Codes Ein Code ist eine eindeutige Zuordnung von Zeichen

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011

Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Ziel: Nachrichten fehlerfrei übertragen und ökonomisch (wenig Redundanz) übertragen Was ist der Hamming-Abstand?

Mehr

6 Fehlerkorrigierende Codes

6 Fehlerkorrigierende Codes R. Reischuk, ITCS 35 6 Fehlerkorrigierende Codes Wir betrachten im folgenden nur Blockcodes, da sich bei diesen das Decodieren und auch die Analyse der Fehlertoleranz-Eigenschaften einfacher gestaltet.

Mehr

Diskrete Verteilungen

Diskrete Verteilungen KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder

Mehr

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2 Codierung und Fehlerkorrektur Kapitel 4.2 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916)

Mehr

Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik. Weihnachtsblatt

Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik. Weihnachtsblatt Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik Prof. Dr. A. Taraz, Dipl-Math. A. Würfl, Dipl-Math. S. König Weihnachtsblatt Aufgabe W.1 Untersuchen Sie nachstehenden

Mehr

3 Der Hamming-Code. Hamming-Codes

3 Der Hamming-Code. Hamming-Codes 3 Der Hamming-Code Hamming-Codes Ein binärer Code C heißt ein Hamming-Code Ha s, wenn seine Kontrollmatrix H als Spalten alle Elemente in Z 2 s je einmal hat. Die Parameter eines n-k-hamming-codes sind:

Mehr

Kodierung. Kodierung von Zeichen mit dem ASCII-Code

Kodierung. Kodierung von Zeichen mit dem ASCII-Code Kodierung Kodierung von Zeichen mit dem ASCII-Code Weiterführende Aspekte zur Kodierung: Speicherplatzsparende Codes Fehlererkennende und -korrigierende Codes Verschlüsselnde Codes Spezielle Codes, Beispiel

Mehr

Lösungsvorschläge Blatt 4

Lösungsvorschläge Blatt 4 Theoretische Informatik Departement Informatik Prof. Dr. Juraj Hromkovič http://www.ita.inf.ethz.ch/theoinf16 Lösungsvorschläge Blatt 4 Zürich, 21. Oktober 2016 Lösung zu Aufgabe 10 (a) Wir zeigen mit

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof. Hußmann

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Lösungen Wintersemester 2016/17 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2016 Steven Köhler Wintersemester 2016/17 Kapitel I: Mengen Aufgabe

Mehr

Algorithmen II Vorlesung am 15.11.2012

Algorithmen II Vorlesung am 15.11.2012 Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr

Proseminar WS 2002/2003

Proseminar WS 2002/2003 Technische Universität Chemnitz Fakultät für Informatik Professur Theoretische Informatik Proseminar WS 2002/2003 Thema: Datenkompression Dynamisches / Adaptives Huffman-Verfahren Danny Grobe Rainer Kuhn

Mehr

3 Quellencodierung. 3.1 Einleitung

3 Quellencodierung. 3.1 Einleitung Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im

Mehr

Digitalisierung. analoges Signal PAM. Quantisierung

Digitalisierung. analoges Signal PAM. Quantisierung Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste

Mehr

Codierungstheorie. Code-Arten und Code-Sicherung

Codierungstheorie. Code-Arten und Code-Sicherung Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem

Mehr

Der Huffman Algorithmus

Der Huffman Algorithmus Der Huffman Algorithmus Für das Folgende setzen wir voraus, dass die Quellensymbole q ν einem Alphabet {q μ } = {A, B, C,...} mit dem Symbolumfang M entstammen und statistisch voneinander unabhängig seien.

Mehr

Textkomprimierung. Stringologie. Codes. Textkomprimierung. Alle Komprimierung beruht auf Wiederholungen im Text. Textkomprimierung

Textkomprimierung. Stringologie. Codes. Textkomprimierung. Alle Komprimierung beruht auf Wiederholungen im Text. Textkomprimierung Stringologie Peter Leupold Universität Leipzig Vorlesung SS 2014 Alle Komprimierung beruht auf Wiederholungen im Text Die Komprimierung muss rückgängig gemacht werden können Je kleiner das Alphabet, desto

Mehr

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg Vortrag am 25. Januar 200 Werner von Siemens Gymnasium Magdeburg Zeitansatz: 5h (inklusive Programmieraufgaben) Datenkompression Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

Mehr

Wahrscheinlichkeitsrechnung für die Mittelstufe

Wahrscheinlichkeitsrechnung für die Mittelstufe Wahrscheinlichkeitsrechnung für die Mittelstufe Wir beginnen mit einem Beispiel, dem Münzwurf. Es wird eine faire Münze geworfen mit den Seiten K (für Kopf) und Z (für Zahl). Fair heißt, dass jede Seite

Mehr

Ausgeschriebene Informatik-Unterrichtsmitschrift (inklusive Hausaufgaben) vom 28.02.07 V.2. Valentina Tamer

Ausgeschriebene Informatik-Unterrichtsmitschrift (inklusive Hausaufgaben) vom 28.02.07 V.2. Valentina Tamer Ausgeschriebene Informatik-Unterrichtsmitschrift (inklusive Hausaufgaben) vom 280207 V2 Valentina Tamer RSA-Verschlüsselung Legende M (message) = Nachricht im Klartext p, q = (sehr große) Primzahlen N

Mehr

Übung zur Vorlesung Berechenbarkeit und Komplexität

Übung zur Vorlesung Berechenbarkeit und Komplexität RWTH Aachen Lehrgebiet Theoretische Informatik Reidl Ries Rossmanith Sanchez Tönnis WS 2012/13 Übungsblatt 9 10.12.2012 Übung zur Vorlesung Berechenbarkeit und Komplexität Aufgabe T20 Beweisen Sie die

Mehr

3 Vom Zählen zur Induktion

3 Vom Zählen zur Induktion 7 3 Vom Zählen zur Induktion 3.1 Natürliche Zahlen und Induktions-Prinzip Seit unserer Kindheit kennen wir die Zahlen 1,, 3, 4, usw. Diese Zahlen gebrauchen wir zum Zählen, und sie sind uns so vertraut,

Mehr

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.)

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.) 3. Untergruppen 19 3. Untergruppen Nachdem wir nun einige grundlegende Gruppen kennengelernt haben, wollen wir in diesem Kapitel eine einfache Möglichkeit untersuchen, mit der man aus bereits bekannten

Mehr

Kodierung. Kodierung von Zeichen mit dem ASCII-Code

Kodierung. Kodierung von Zeichen mit dem ASCII-Code Kodierung Kodierung von Zeichen mit dem ASCII-Code Weiterführende Aspekte zur Kodierung: Speicherplatzsparende Codes Fehlererkennende und -korrigierende Codes Verschlüsselnde Codes Spezielle Codes, Beispiel

Mehr

Lösungsvorschläge Blatt Z1

Lösungsvorschläge Blatt Z1 Theoretische Informatik Departement Informatik Prof. Dr. Juraj Hromkovič http://www.ita.inf.ethz.ch/theoinf16 Lösungsvorschläge Blatt Z1 Zürich, 2. Dezember 2016 Lösung zu Aufgabe Z1 Wir zeigen L qi /

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

Begriffe aus der Informatik Nachrichten

Begriffe aus der Informatik Nachrichten Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung

Mehr

9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1

9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1 9 Codes 9.1 Charakterisierung und Klassifizierung Definition: Das Ergebnis einer eindeutigen Zuordnung zweier Zeichen- bzw. Zahlenmengen wird Code genannt. Die Zuordnung erfolgt über eine arithmetische

Mehr

2 i. i=0. und beweisen Sie mittels eines geeigneten Verfahrens die Korrektheit der geschlossenen Form.

2 i. i=0. und beweisen Sie mittels eines geeigneten Verfahrens die Korrektheit der geschlossenen Form. für Informatik Prof. aa Dr. Ir. Joost-Pieter Katoen Christian Dehnert, Friedrich Gretz, Benjamin Kaminski, Thomas Ströder Tutoraufgabe (Vollständige Induktion): Finden Sie eine geschlossene Form für die

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Informationstheorie Prof Dr. Matthew Crocker Universität des Saarlandes 22. Juni 205 Matthew Crocker (UdS) Mathe III 22. Juni 205 / 43 Informationstheorie Entropie (H) Wie

Mehr

Wiederholung zu Flüssen

Wiederholung zu Flüssen Universität Konstanz Methoden der Netzwerkanalyse Fachbereich Informatik & Informationswissenschaft SS 2008 Prof. Dr. Ulrik Brandes / Melanie Badent Wiederholung zu Flüssen Wir untersuchen Flüsse in Netzwerken:

Mehr

Grundlagen Digitaler Systeme (GDS)

Grundlagen Digitaler Systeme (GDS) Grundlagen Digitaler Systeme (GDS) Prof. Dr. Sven-Hendrik Voß Sommersemester 2015 Technische Informatik (Bachelor), Semester 1 Termin 10, Donnerstag, 18.06.2015 Seite 2 Binär-Codes Grundlagen digitaler

Mehr

Informatik II, SS 2014

Informatik II, SS 2014 Informatik II SS 2014 (Algorithmen & Datenstrukturen) Vorlesung 13 (18.6.2014) Binäre Suchbäume IV (Rot Schwarz Bäume) Algorithmen und Komplexität Rot Schwarz Bäume Ziel: Binäre Suchbäume, welche immer

Mehr

Single Parity check Codes (1)

Single Parity check Codes (1) Single Parity check Codes (1) Der Single Parity check Code (SPC) fügt zu dem Informationsblock u = (u 1, u 2,..., u k ) ein Prüfbit (englisch: Parity) p hinzu: Die Grafik zeigt drei Beispiele solcher Codes

Mehr

Codierung. H.-G. Hopf

Codierung. H.-G. Hopf Codierung H.-G. Hopf Inhalt Informationsübermittlung Codierung von Zeichen GDI: Codierung / 2 Inhalt Informationsübermittlung Codierung von Zeichen GDI: Codierung / 3 Ideale Kommunikation Übertragungskanal

Mehr

Übung 1: Quellencodierung

Übung 1: Quellencodierung ZHAW, NTM2, Rumc, /7 Übung : Quellencodierung Aufgabe : Huffman-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten

Mehr

Ein (7,4)-Code-Beispiel

Ein (7,4)-Code-Beispiel Ein (7,4)-Code-Beispiel Generator-Polynom: P(X) = X 3 + X 2 + 1 Bemerkung: Es ist 7 = 2^3-1, also nach voriger Überlegung sind alle 1-Bit-Fehler korrigierbar Beachte auch d min der Codewörter ist 3, also

Mehr

15 Wahrscheinlichkeitsrechnung und Statistik

15 Wahrscheinlichkeitsrechnung und Statistik 5 Wahrscheinlichkeitsrechnung und Statistik Alles, was lediglich wahrscheinlich ist, ist wahrscheinlich falsch. ( Descartes ) Trau keiner Statistik, die du nicht selbst gefälscht hast. ( Churchill zugeschrieben

Mehr

2.2 Ereignisse und deren Wahrscheinlichkeit

2.2 Ereignisse und deren Wahrscheinlichkeit 2.2 Ereignisse und deren Wahrscheinlichkeit Literatur: [Papula Bd., Kap. II.2 und II.], [Benning, Kap. ], [Bronstein et al., Kap. 1.2.1] Def 1 [Benning] Ein Zufallsexperiment ist ein beliebig oft wiederholbarer,

Mehr

Kapitel 1: Codierungstheorie. 1.2 Quellcodierung 1.3 Fehlererkennende Codes 1.4 Fehlerkorrigierende Codes

Kapitel 1: Codierungstheorie. 1.2 Quellcodierung 1.3 Fehlererkennende Codes 1.4 Fehlerkorrigierende Codes Inhalt: 1.1 Einführung 1.2 Quellcodierung 1.3 Fehlererkennende Codes 1.4 Fehlerkorrigierende Codes 1.1 Einführung In In der der Codierungstheorie unterscheidet man man Quellcodierung und und Kanalcodierung.

Mehr

Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg

Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem

Mehr

Codes und Codegitter. Katharina Distler. 27. April 2015

Codes und Codegitter. Katharina Distler. 27. April 2015 Codes und Codegitter Katharina Distler 7. April 015 Inhaltsverzeichnis 1 Codes 4 Codegitter 14 Einleitung Die folgende Seminararbeit behandelt das Konzept von Codes und Codegittern. Da sie bei der Informationsübertragung

Mehr

Technische Universität München SS 2006 Fakultät für Informatik 12. Oktober 2006 Prof. Dr. A. Knoll. Aufgabe 1 Transferfragen (Lösungsvorschlag)

Technische Universität München SS 2006 Fakultät für Informatik 12. Oktober 2006 Prof. Dr. A. Knoll. Aufgabe 1 Transferfragen (Lösungsvorschlag) Technische Universität München SS 2006 Fakultät für Informatik 12. Oktober 2006 Prof. Dr. A. Knoll Lösungsvorschläge der Klausur zu Einführung in die Informatik II Aufgabe 1 Transferfragen (Lösungsvorschlag)

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Primzahlzertifikat von Pratt

Primzahlzertifikat von Pratt Primzahlzertifikat von Pratt Daniela Steidl TU München 17. 04. 2008 Primzahltests in der Informatik "Dass das Problem, die Primzahlen von den Zusammengesetzten zu unterscheiden und letztere in ihre Primfaktoren

Mehr

Abgabe: (vor der Vorlesung) Aufgabe 2.1 (P) O-Notation Beweisen Sie die folgenden Aussagen für positive Funktionen f und g:

Abgabe: (vor der Vorlesung) Aufgabe 2.1 (P) O-Notation Beweisen Sie die folgenden Aussagen für positive Funktionen f und g: TECHNISCHE UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR INFORMATIK Lehrstuhl für Sprachen und Beschreibungsstrukturen SS 2009 Grundlagen: Algorithmen und Datenstrukturen Übungsblatt 2 Prof. Dr. Helmut Seidl, S. Pott,

Mehr

5 Codierung nach RSA (Lösung)

5 Codierung nach RSA (Lösung) Kapitel 5 Codierung nach RSA (Lösung) Seite 1/17 5 Codierung nach RSA (Lösung) 5.1 Einführung Die drei Mathematiker Rivest, Shamir und Adleman entwickelten 1977 das nach ihnen benannte RSA-Verfahren. Es

Mehr

Beurteilende Statistik

Beurteilende Statistik Beurteilende Statistik Wahrscheinlichkeitsrechnung und Beurteilende Statistik was ist der Unterschied zwischen den beiden Bereichen? In der Wahrscheinlichkeitstheorie werden aus gegebenen Wahrscheinlichkeiten

Mehr

Modul Diskrete Mathematik WiSe 2011/12

Modul Diskrete Mathematik WiSe 2011/12 1 Modul Diskrete Mathematik WiSe 2011/12 Ergänzungsskript zum Kapitel 4.2. Hinweis: Dieses Manuskript ist nur verständlich und von Nutzen für Personen, die regelmäßig und aktiv die zugehörige Vorlesung

Mehr

2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik

2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik Stefan Lucks Diskrete Strukturen (WS 2009/10) 57 2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik Uhr: Stunden mod 24, Minuten mod 60, Sekunden mod 60,... Rechnerarithmetik: mod 2 w, w {8, 16, 32,

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 10.01.2012 INSTITUT FÜR THEORETISCHE 0 KIT 12.01.2012 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik

Mehr

Ein RSA verwandtes, randomisiertes Public Key Kryptosystem

Ein RSA verwandtes, randomisiertes Public Key Kryptosystem Seminar Codes und Kryptographie WS 2003 Ein RSA verwandtes, randomisiertes Public Key Kryptosystem Kai Gehrs Übersicht 1. Motivation 2. Das Public Key Kryptosystem 2.1 p-sylow Untergruppen und eine spezielle

Mehr

Kapitel 3: Etwas Informationstheorie

Kapitel 3: Etwas Informationstheorie Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens

Mehr

Übung zu Grundbegriffe der Informatik. Simon Wacker. 15. November 2013

Übung zu Grundbegriffe der Informatik. Simon Wacker. 15. November 2013 Übung zu Grundbegriffe der Informatik Simon Wacker 15. November 2013 Vollständige Induktion über die Wortlänge Es sei B ein Alphabet. Dann ist B = n N 0 B n. Für jedes Wort w B sei A w eine Aussage, die

Mehr

Surjektive, injektive und bijektive Funktionen.

Surjektive, injektive und bijektive Funktionen. Kapitel 1: Aussagen, Mengen, Funktionen Surjektive, injektive und bijektive Funktionen. Definition. Sei f : M N eine Funktion. Dann heißt f surjektiv, falls die Gleichung f(x) = y für jedes y N mindestens

Mehr

Informationssicherheit - Lösung Blatt 2

Informationssicherheit - Lösung Blatt 2 Informationssicherheit - Lösung Blatt 2 Adam Glodek adam.glodek@gmail.com 13.04.2010 1 1 Aufgabe 1: One Time Pad 1.1 Aufgabenstellung Gegeben ist der folgende Klartext 12Uhr (ASCII). Verschlüsseln Sie

Mehr

Formale Systeme. Binary Decision Diagrams. Prof. Dr. Bernhard Beckert WS 2010/2011 KIT INSTITUT FÜR THEORETISCHE INFORMATIK

Formale Systeme. Binary Decision Diagrams. Prof. Dr. Bernhard Beckert WS 2010/2011 KIT INSTITUT FÜR THEORETISCHE INFORMATIK Formale Systeme Prof. Dr. Bernhard Beckert WS / KIT INSTITUT FÜR THEORETISCHE INFORMATIK KIT University of the State of Baden-Württemberg and National Large-scale Research Center of the Helmholtz Association

Mehr

WURZEL Werkstatt Mathematik Polynome Grundlagen Teil II

WURZEL Werkstatt Mathematik Polynome Grundlagen Teil II Die WURZEL Werkstatt Mathematik Polynome Grundlagen Teil II Polynome nur zu addieren, multiplizieren oder dividieren ist auf die Dauer langweilig. Polynome können mehr. Zum Beispiel ist es manchmal gar

Mehr

3. Musterlösung. Problem 1: Boruvka MST

3. Musterlösung. Problem 1: Boruvka MST Universität Karlsruhe Algorithmentechnik Fakultät für Informatik WS 06/07 ITI Wagner. Musterlösung Problem : Boruvka MST pt (a) Beweis durch Widerspruch. Sei T MST von G, e die lokal minimale Kante eines

Mehr