Kapitel 4: Bedingte Entropie

Größe: px
Ab Seite anzeigen:

Download "Kapitel 4: Bedingte Entropie"

Transkript

1 Kapitel 4: Bedingte Entropie

2 Bedingte Entropie Das vorherige Theorem kann durch mehrfache Anwendung direkt verallgemeinert werden N 2... N i i Ebenso kann die bedingt Entropie definiert werden Definition: Die bedingte Entropie von, gegeben, ist ist also die restliche Unsicherheit über, wenn bekannt ist Copyright M. Gross, ET ürich 2006,

3 Copyright M. Gross, ET ürich 2006, 2007 Bedingte Entropie Definition: Die gegenseitige nformation, die über gibt sowie symmetrisch über, ist ist die Reduktion der Unsicherheit über, wenn man erfährt :

4 Bedingte Entropie Copyright M. Gross, ET ürich 2006,

5 Bedingte Entropie Theorem: Es gilt: 0 Mit Gleichheit links genau dann, wenn durch vollständig bestimmt ist Die rechte Ungleichheit ist äquivalent zu Also, mit Gleichheit rechts genau dann, wenn und statistisch unabhängig sind Alle Definitionen und Aussagen gelten auch für Listen von ufallsvariablen, wobei z.b. 0 RS TUV RSTUV TUV Copyright M. Gross, ET ürich 2006,

6 Bedingte Entropie Durch wiederholte Anwendung der Definition erhalten wir die Kettenregel für Entropien: Oder auch N... N i... i i N... N i... i i Man vergleiche dies mit den Formeln für die bedingten Wahrscheinlichkeiten zu Beginn von Modul 2 und wende den Logarithmus an. N N i i i Copyright M. Gross, ET ürich 2006,

7 Copyright M. Gross, ET ürich 2006, Reihenfolge der Variablen Wichtig ist, zu verstehen, dass die Reihenfolge, in der die ufallsvariablen abgespalten werden, egal ist!

8 Alternative erleitung Die bedingte Entropie kann auch wie folgt hergeleitet werden Für ein Ereignis A mit Wahrscheinlichkeit A können wir A als die Entropie der bedingten Verteilung p A definieren A p A log p A Seien und zwei ufallsvariablen. Die bedingte Entropie y ist y p, ylog p, y Copyright M. Gross, ET ürich 2006,

9 Alternative erleitung ergibt sich durch gewichtete Mittelwertbildung Erwartungswert, also y E y p [ log, ] y Die Ungleichung < bedeutet, dass zusätzliche nformation die Unsicherheit niemals erhöhen kann Dennoch kann die Entropie y durchaus lokal grösser werden als siehe Beispiel Copyright M. Gross, ET ürich 2006,

10 Bedingte Entropie wei ufallsvariablen haben folgende Verteilungen: \ , y i i j j ebenso y j i y j Copyright M. Gross, ET ürich 2006,

11 Bedingte Entropie 2 i 2 4 y j, daraus folgt : 7 Bits, Bits y y j j j Copyright M. Gross, ET ürich 2006, 2007

12 Copyright M. Gross, ET ürich 2006, Bedingte Entropie 8 4, 8, 4 2, 2,, mit, log, 4 i i i i i i i i i 4 7 8, 8, 4, 2

13 Bedingte Entropie 4 4 y y j j j,,,,,, ,,,, 0, 0, Bits Bits und Bits 8 8, jedoch gilt immer : - -, / 8Bits Copyright M. Gross, ET ürich 2006, 2007

14 Bedingte binäre Entropie Seien und zwei binäre ufallsvariablen {0,} 0,,0 0,0,, 0,0 log,0 0,0 2 {0,},0 2,,0 0,0 0 log log Bit Copyright M. Gross, ET ürich 2006,

15 Copyright M. Gross, ET ürich 2006, Bedingte binäre Entropie 2, 2 0 log {0,} 0,, 0,,, 0 0 < <

16 Bedingte binäre Entropie Bit Bit < 0 Bits 0 Die Entropie kann lokal ansteigen, Fällt jedoch im Durchschnitt immer Copyright M. Gross, ET ürich 2006,

17 Mehrere Variablen Entsprechend gilt für ufallsvariablen wobei, z p z z, z, y p, y, zlog p, y, z Copyright M. Gross, ET ürich 2006,

18 Bedingte nformation Wir erweitern unser Diagramm um eine weitere Variable Wir erhalten 7 Bereiche Jeder Bereich entspricht einer Kombination von 7 Verbundentropien,,,,,, der Bereiche haben bereits eine nterpretation Bedingte Entropien,, Wir wollen die übrigen Bereiche kennen lernen Siehe Bild Copyright M. Gross, ET ürich 2006,

19 Bild R Copyright M. Gross, ET ürich 2006,

20 nterpretation Die bedingten nformationen,, können wie folgt interpretiert werden: Definition: Die bedingte, gegenseitige nformation, die über gibt, gegeben, ist : Oder auch : ist also die Reduktion der Unsicherheit über, wenn man erfährt, wobei aber schon bekannt ist Man interpretiere R kann negativ sein R : Copyright M. Gross, ET ürich 2006,

21 nterpretation Theorem: Es gilt Die Aussage, dass usatzinformation die Entropie nicht vergrössern kann, gilt jedoch nicht für >, da R negativ werden kann bewirkt in diesem Falle eine stärkere Reduktion von, als von ierbei gilt: > 0 Mit ilfe von Entropien kann intuitiv gerechnet werden. Wir betrachten zwei Beispiele Copyright M. Gross, ET ürich 2006,

22 Beispiel : Markov-Kette Q 2 iel Wir betrachten folgende Markov-Kette und 2 sind rozessoren, die Berechnungen durchführen wird durch in übergeführt usw. und 2 können beliebige deterministische oder probabilistische Operationen durchführen Einschränkung: Kein versteckter fad von nach, also Markov-Eigenschaft Copyright M. Gross, ET ürich 2006,

23 Beispiel : Markov-Kette Dies ist, wie bekannt, gleichbedeutend mit Mittels Entropie wird daraus oder auch p, y, z p y, z Es gilt die Symmetrie-Eigenschaft Und damit die Umkehrbarkeit der Markov-Kette, also ->-> sowie ->-> 0 Copyright M. Gross, ET ürich 2006,

24 Copyright M. Gross, ET ürich 2006, Beispiel : Markov-Kette Lemma nformationsverarbeitung: Falls ->->, dann gelten Beweis: Es gilt Und Also gilt, sowie R R 0 Es gibt keine Operation auf, die die nformation erhöhen kann, welche über enthält

25 erfekte Verschlüsselung Ein Klartet M soll mit einem geheimen Schlüssel K zu einem Chiffrat C verschlüsselt werden Empfänger kann mit Schlüssel den Code entschlüsseln Definition: Ein Verschlüsselungsverfahren heisst perfekt sicher, wenn M C 0 M C M Bedeutung: Auch mit unbegrenzten Rechenressourcen ist der Code nicht zu knacken! Stärkste theoretische Sicherheit Copyright M. Gross, ET ürich 2006,

26 erfekte Verschlüsselung Theorem: n einem perfekt sicheren Verschlüsselungssystem gilt: K M Aufgrund der Entschlüsselbarkeit von M mit C und K gilt: M CK erfekte Sicherheit bedeutet b-a im Bild Wir erinnern uns, dass b < 0 möglich ist Umgekehrt ist auch K>M folgt aus Vergleich der Regionen 0 C K 0 c b a Copyright M. Gross, ET ürich 2006,

27 Bild dazu M MKC0 a C b c K Copyright M. Gross, ET ürich 2006,

Bedingte Entropie. Bedingte Entropie. Bedingte Entropie. Kapitel 4: Bedingte Entropie I(X;Y) H(X Y) H(Y) H(X) H(XY)

Bedingte Entropie. Bedingte Entropie. Bedingte Entropie. Kapitel 4: Bedingte Entropie I(X;Y) H(X Y) H(Y) H(X) H(XY) Bedngte Entrope Kaptel : Bedngte Entrope Das vorherge Theorem kann durch mehrfache Anwendung drekt verallgemenert werden H (... H ( = Ebenso kann de bedngt Entrope defnert werden Defnton: De bedngte Entrope

Mehr

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht

Mehr

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238 3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009

Mehr

Informationsgehalt einer Nachricht

Informationsgehalt einer Nachricht Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner

Mehr

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zuallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Inormation steht

Mehr

Asymmetrische Verschlüsselungsverfahren

Asymmetrische Verschlüsselungsverfahren Asymmetrische Verschlüsselungsverfahren Vorlesung 4 Alexander Koch (Vertretung) FAKULTÄT FÜR INFORMATIK, INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT 2015-11-12 Universität desalexander Landes Baden-Württemberg

Mehr

Asymmetrische Verschlüsselungsverfahren

Asymmetrische Verschlüsselungsverfahren Asymmetrische Verschlüsselungsverfahren Vorlesung 4 Alexander Koch (Vertretung) FAKULTÄT FÜR INFORMATIK, INSTITUT FÜR THEORETISCHE INFORMATIK 0 2016-11-10 Alexander Koch Asymmetrische Verschlüsselungsverfahren

Mehr

Definition der Entropie unter Verwendung von supp(p XY )

Definition der Entropie unter Verwendung von supp(p XY ) Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion

Mehr

Kapitel 7: Optimalcodierung und Huffman Coding

Kapitel 7: Optimalcodierung und Huffman Coding Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge

Mehr

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen 1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte

Mehr

6: Diskrete Wahrscheinlichkeit

6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 219 6: Diskrete Wahrscheinlichkeit 6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 220 Wahrscheinlichkeitsrechnung Eines der wichtigsten

Mehr

III. Perfekte Geheimhaltung

III. Perfekte Geheimhaltung III. erfekte Geheimhaltung - perfekte Geheimhaltung als Formalisierung absolut sicherer Verschlüsselungsverfahren - eingeführt von Claude Shannon 1949 - C.Shannon zeigte auch Existenz von Verfahren mit

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung

Mehr

Kryptographie und Komplexität

Kryptographie und Komplexität Kryptographie und Komplexität Einheit 4.4 Semantische Sicherheit 1. Sicherheit partieller Informationen 2. Das Verfahren von Rabin 3. Sicherheit durch Randomisierung Semantische Sicherheit Mehr als nur

Mehr

Die Probabilistische Methode

Die Probabilistische Methode Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.

Mehr

(X Y )(a) = X (a) Y (a).

(X Y )(a) = X (a) Y (a). Aufgabe Teilaufgabe a) Seien X, Y zwei Zufallsvariablen, so definieren wir das Produkt dieser Zufallsvariablen X Y wie folgt: (X Y )(a) = X (a) Y (a). Teilaufgabe b) Gegenbeispiel: Betrachten wir uns folgenden

Mehr

Der komplexitätstheoretische Zugang zur Kryptographie

Der komplexitätstheoretische Zugang zur Kryptographie Der komplexitätstheoretische Zugang zur Kryptographie Claus Diem Im Wintersemester 2017 / 18 Literatur Oded Goldreich: Foundations of Cryptography Jonathan Katz & Yeduda Lindell: Intoduction to Modern

Mehr

Prinzipien der modernen Kryptographie Sicherheit

Prinzipien der modernen Kryptographie Sicherheit Prinzipien der modernen Kryptographie Sicherheit Prinzip 1 Sicherheitsziel Die Sicherheitsziele müssen präzise definiert werden. Beispiele für ungenügende Definitionen von Sicherheit: Kein Angreifer kann

Mehr

Kap. 4.7 Skiplisten. 15./16. VO DAP2 SS /10. Juni 2008

Kap. 4.7 Skiplisten. 15./16. VO DAP2 SS /10. Juni 2008 Kap. 4.7 Skiplisten Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 15./16. VO DAP2 SS 2008 5./10. Juni 2008 1 Proseminare WS 2008/09 Anmeldefrist: Montag 16.06.

Mehr

Vorlesung Sicherheit

Vorlesung Sicherheit Vorlesung Sicherheit Dennis Hofheinz ITI, KIT 12.05.2014 1 / 26 Überblick 1 Hashfunktionen Erinnerung Angriffe auf Hashfunktionen Zusammenfassung Hashfunktionen 2 Asymmetrische Verschlüsselung Idee Beispiel:

Mehr

Prinzip 2 Präzisierung der Annahmen

Prinzip 2 Präzisierung der Annahmen Prinzip 2 Präzisierung der Annahmen Prinzip 2 Komplexitätsannahme Es muss spezifiziert werden, unter welchen Annahmen das System als sicher gilt. Eigenschaften: Angriffstyp COA, KPA, CPA oder CCA muss

Mehr

5. Woche Perfekte und Optimale Codes, Schranken. 5. Woche: Perfekte und Optimale Codes, Schranken 88/ 142

5. Woche Perfekte und Optimale Codes, Schranken. 5. Woche: Perfekte und Optimale Codes, Schranken 88/ 142 5 Woche Perfekte und Optimale Codes, Schranken 5 Woche: Perfekte und Optimale Codes, Schranken 88/ 142 Packradius eines Codes (Wiederholung) Definition Packradius eines Codes Sei C ein (n, M, d)-code Der

Mehr

Vorlesung 13b. Relative Entropie

Vorlesung 13b. Relative Entropie Vorlesung 13b Relative Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). 2 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. S sei eine abzählbare Menge (ein

Mehr

Betriebssysteme und Sicherheit Sicherheit. Florian Kerschbaum TU Dresden Wintersemester 2011/12

Betriebssysteme und Sicherheit Sicherheit. Florian Kerschbaum TU Dresden Wintersemester 2011/12 Betriebssysteme und Sicherheit Sicherheit Florian Kerschbaum TU Dresden Wintersemester 2011/12 Begriffe Kryptographie: Geheimschrift Nachrichten schreiben ohne das sie von einem Anderen gelesen (verändert)

Mehr

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1 Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:

Mehr

Fourier-Transformation

Fourier-Transformation ANHANG A Fourier-Transformation In diesem Anhang werden einige Definitionen Ergebnisse über die Fourier-Transformation dargestellt. A. Definition Theorem & Definition: Sei f eine integrable komplexwertige

Mehr

Statistische Methoden in der Sprachverarbeitung

Statistische Methoden in der Sprachverarbeitung ' Statistische Methoden in der Sprachverarbeitung Gerhard Jäger 7. Mai 22 Inforationstheorie Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kot ursprünglich aus der Physik:

Mehr

Kap. 4.7 Skiplisten. 14./15. VO DAP2 SS /16. Juni 2009

Kap. 4.7 Skiplisten. 14./15. VO DAP2 SS /16. Juni 2009 Kap. 4.7 Skiplisten Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 14./15. VO DAP2 SS 2008 9./16. Juni 2009 1 2. Übungstest Termin: Di 16. Juni 2009 im AudiMax,

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

Prinzipien der modernen Kryptographie Sicherheit

Prinzipien der modernen Kryptographie Sicherheit Prinzipien der modernen Kryptographie Sicherheit Prinzip 1 Sicherheitsziel Die Sicherheitsziele müssen präzise definiert werden. Beispiele für ungenügende Definitionen von Sicherheit Kein Angreifer kann

Mehr

Kapitel 3: Etwas Informationstheorie

Kapitel 3: Etwas Informationstheorie Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens

Mehr

Vorlesung Sicherheit

Vorlesung Sicherheit Vorlesung Sicherheit Dennis Hofheinz IKS, KIT 25.04.2013 1 / 19 Überblick 1 Blockchiffren Erinnerung Beispiel: AES Angriffe auf Blockchiffren 2 Formalisierung von Sicherheit (symmetrischer Verschlüsselung)

Mehr

KAPITEL 1. Martingale

KAPITEL 1. Martingale KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst

Mehr

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines Seite 1 Georg-August-Universität Göttingen Robert Schaback Zum Begriff der Information in Mathematik und Informatik Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A)

Mehr

3. Lösungsblatt

3. Lösungsblatt TECHNISCHE UNIVERSITÄT DARMSTADT FACHGEBIET THEORETISCHE INFORMATIK PROF JOHANNES BUCHMANN NABIL ALKEILANI ALKADRI Einführung in die Kryptographie WS 7/ 8 3 Lösungsblatt 67 P Matrizen und Determinanten

Mehr

Kapitel 9: Informationstheorie. 2. Entropie

Kapitel 9: Informationstheorie. 2. Entropie ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE

Mehr

Vorlesung Sicherheit

Vorlesung Sicherheit Vorlesung Sicherheit Dennis Hofheinz ITI, KIT 15.05.2017 1 / 25 Überblick 1 Hashfunktionen Angriffe auf Hashfunktionen Zusammenfassung Hashfunktionen 2 Asymmetrische Verschlüsselung Idee Beispiel: RSA

Mehr

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binären Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhängigen

Mehr

Vorlesung Sicherheit

Vorlesung Sicherheit Vorlesung Sicherheit Dennis Hofheinz ITI, KIT 08.05.2017 1 / 32 Überblick 1 Blockchiffren Erinnerung Varianten von DES Beispiel: AES Angriffe auf Blockchiffren 2 Formalisierung von Sicherheit (symmetrischer

Mehr

In einem mathematischen Modell wird dies beschrieben durch einen funktionalen Zusammenhang: x = f (t).

In einem mathematischen Modell wird dies beschrieben durch einen funktionalen Zusammenhang: x = f (t). Aktueller Überblick 0 Einführende Worte ( ) 1 Geschichtlicher Überblick ( ) 2 Zufall 3 Perfekte Sicherheit und ihre Grenzen 4 Angriffsszenarien 5 Der komplexitätstheoretische Ansatz 6 Pseudozufallsgeneratoren

Mehr

Perfekte Codes. Definition Perfekter Code. Sei C {0, 1} n ein (n, M, d)-code. C heißt perfekt, falls

Perfekte Codes. Definition Perfekter Code. Sei C {0, 1} n ein (n, M, d)-code. C heißt perfekt, falls Perfekte Codes Definition Perfekter Code Sei C {0, 1} n ein (n, M, d)-code. C heißt perfekt, falls ( ) d 1 M V n = 2 n. 2 D.h. die maximalen disjunkten Hammingkugeln um die Codeworte partitionieren {0,

Mehr

Informatik II, SS 2016

Informatik II, SS 2016 Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 11 (1.6.2016) Binäre Suchbäume III Algorithmen und Komplexität Tiefe eines binären Suchbaums Worst-Case Laufzeit der Operationen in binären

Mehr

Theoretische Biophysik - Statistische Physik

Theoretische Biophysik - Statistische Physik Theoretische Biophysik - Statistische Physik 14. Vorlesung Pawel Romanczuk Wintersemester 2018 http://lab.romanczuk.de/teaching/ 1 Zusammenfassung letzte VL Aktive Brownsche Bewegung Effektive Diffusion

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

WS 2013/14. Diskrete Strukturen

WS 2013/14. Diskrete Strukturen WS 2013/14 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws13/14

Mehr

Socrative-Fragen aus der Übung vom

Socrative-Fragen aus der Übung vom Institut für Theoretische Informatik Prof. Dr. J. Müller-Quade Übungsleiter: Björn Kaidel, Alexander Koch Stammvorlesung Sicherheit im Sommersemester 2016 Socrative-Fragen aus der Übung vom 28.04.2016

Mehr

11 Logarithmus und allgemeine Potenzen

11 Logarithmus und allgemeine Potenzen Logarithmus und allgemeine Potenzen Bevor wir uns mit den Eigenschaften von Umkehrfunktionen, und insbesondere mit der Umkehrfunktion der Eponentialfunktion ep : R R + beschäftigen, erinnern wir an den

Mehr

Klausur zur Vorlesung Informationstheorie

Klausur zur Vorlesung Informationstheorie INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 07 Hannover Klausur zur Vorlesung Informationstheorie Datum: 0.0.00 Uhrzeit: 09:00 Uhr Zeitdauer:

Mehr

Prinzipien der modernen Kryptographie Sicherheit

Prinzipien der modernen Kryptographie Sicherheit Prinzipien der modernen Kryptographie Sicherheit Prinzip 1 Sicherheitsmodell Das Sicherheitsmodell (Berechnungsmodell, Angriffstypen, Sicherheitsziele) muss präzise definiert werden. Berechnungsmodell:

Mehr

Kapitel 1: Grundbegriffe

Kapitel 1: Grundbegriffe Kapitel 1: Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz Stefan Ruzika (KO) 1 / 20 Gliederung 1 Logik Ein ganz kurzer Ausflug in die Kombinatorik Stefan Ruzika (KO) 2

Mehr

Anhang II zur Vorlesung Kryptologie: Entropie

Anhang II zur Vorlesung Kryptologie: Entropie Anhang II zur Vorlesung Kryptologie: Entropie von Peter Hellekalek Fakultät für Mathematik, Universität Wien, und Fachbereich Mathematik, Universität Salzburg Tel: +43-(0)662-8044-5310 Fax: +43-(0)662-8044-137

Mehr

Kryptographie und Komplexität

Kryptographie und Komplexität Kryptographie und Komplexität Einheit 4.2 Primzahltests 1. Deterministische Primzahltests 2. Der Primzahltest von Solovay-Strassen 3. Der Milner-Rabin Test Wozu Primzahltests? RSA Schlüssel benötigen sehr

Mehr

Kryptographie und Komplexität

Kryptographie und Komplexität Kryptographie und Komplexität Einheit 4.2 Primzahltests 1. Deterministische Primzahltests 2. Der Primzahltest von Solovay-Strassen 3. Der Milner-Rabin Test Wozu Primzahltests? RSA Schlüssel benötigen sehr

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

Lösungen Wahrscheinlichkeitstheorie

Lösungen Wahrscheinlichkeitstheorie Lösungen Wahrscheinlichkeitstheorie Serie 6 Aufgabe 1 (stochastische Unabhängigkeit). Für die Ereignisse A, B und C sind folgende Wahrscheinlichkeiten bekannt: P (A) = 0, 2; P (B) = 0, 6; P (A \ B) = 0,

Mehr

5. Äquivalenzrelationen

5. Äquivalenzrelationen 36 Andreas Gathmann 5. Äquivalenzrelationen Wenn man eine große und komplizierte Menge (bzw. Gruppe) untersuchen will so kann es sinnvoll sein zunächst kleinere einfachere Mengen (bzw. Gruppen) zu betrachten

Mehr

Unsicherheit * M RS = 6

Unsicherheit * M RS = 6 Informationstheorie Gegenstand Unsicherheit Überraschung Entropie Relative und maximale Entropie, Redundanz Konditionale Entropie und Verbundentropie Wechselseitige ("Mutual") Information Gegenstand Kodierung,

Mehr

Die mittlere Höhe eines Binärbaumes. h(t) = 1 e(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t

Die mittlere Höhe eines Binärbaumes. h(t) = 1 e(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t Höhe von Binärbäumen Die mittlere Höhe eines Binärbaumes h(t) = 1 e(t) b E(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t h(b, t), Höhe von Binärbäumen Die mittlere Höhe eines

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω 2 3 8 N Wir definieren

Mehr

4 Kryptologie. Übersicht

4 Kryptologie. Übersicht 4 Kryptologie Übersicht 4.1 Der erweiterte euklidische Algorithmus................................ 38 4.2 Rechnen mit Restklassen modulo p................................... 39 4.3 Der kleine Satz von

Mehr

5 Zwei spieltheoretische Aspekte

5 Zwei spieltheoretische Aspekte 5 Zwei spieltheoretische Aspekte In diesem Kapitel wollen wir uns mit dem algorithmischen Problem beschäftigen, sogenannte Und-Oder-Bäume (kurz UOB) auszuwerten. Sie sind ein Spezialfall von Spielbäumen,

Mehr

Vorlesung Sicherheit

Vorlesung Sicherheit Vorlesung Sicherheit Jörn Müller-Quade ITI, KIT basierend auf den Folien von Dennis Hofheinz, Sommersemester 2014 20.04.2014 1 / 28 Überblick 1 Blockchiffren Erinnerung Angriffe auf Blockchiffren 2 Formalisierung

Mehr

WS 20013/14. Diskrete Strukturen

WS 20013/14. Diskrete Strukturen WS 20013/14 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws1314

Mehr

5. Äquivalenzrelationen

5. Äquivalenzrelationen 5. Äquivalenzrelationen 35 5. Äquivalenzrelationen Wenn man eine große und komplizierte Menge (bzw. Gruppe) untersuchen will, so kann es sinnvoll sein, zunächst kleinere, einfachere Mengen (bzw. Gruppen)

Mehr

Mathematische Strukturen

Mathematische Strukturen Mathematische Strukturen Lineare Algebra I Kapitel 3 16. April 2013 Kartesisches Produkt Das kartesische Produkt (benannt nach René Descartes) von n Mengen M 1,..., M n ist M 1 M n := {(x 1,..., x n )

Mehr

Logische und funktionale Programmierung

Logische und funktionale Programmierung Logische und funktionale Programmierung Vorlesung 11: Logikprogramme Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 19. Dezember 2016 1/55 WIEDERHOLUNG: HORN-KLAUSELN

Mehr

SS 2017 Torsten Schreiber

SS 2017 Torsten Schreiber 14 Wenn man mindestens einen Operator mit einer definierten Menge in Verbindung setzt, dann fällt es unter dem Bereich der Strukturen. Bei der kleinsten möglichen Struktur handelt es sich um eine. Eine

Mehr

Regine Schreier

Regine Schreier Regine Schreier 20.04.2016 Kryptographie Verschlüsselungsverfahren Private-Key-Verfahren und Public-Key-Verfahren RSA-Verfahren Schlüsselerzeugung Verschlüsselung Entschlüsselung Digitale Signatur mit

Mehr

Kapitel 12: Markov-Ketten

Kapitel 12: Markov-Ketten Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 21.01.2016 Kapitel 12: Markov-Ketten Ab jetzt betrachten wir stochastische Prozesse (X n ) n N0 mit 1. diskreter Zeit N 0 = {0,1,2,...},

Mehr

Lösungen der Aufgaben

Lösungen der Aufgaben Lösungen der Aufgaben Aufgabe 1.3.1 Es gibt 42 mögliche Verschlüsselungen. Aufgabe 2.3.4 Ergebnisse sind 0, 4 und 4 1 = 4. Aufgabe 2.3.6 Da in Z 9 10 = 1 ist, erhalten wir x = c 0 + + c m = c 0 + + c m.

Mehr

Grundlagen der Theoretischen Informatik: Übung 10

Grundlagen der Theoretischen Informatik: Übung 10 Grundlagen der Theoretischen Informatik: Übung 10 Joachim Selke Fachgebiet Theoretische Informatik Universität Hannover 20. Januar 2005 Turing-Maschinen als Rechenmaschinen gegeben sei eine Funktion f

Mehr

WS 2009/10. Diskrete Strukturen

WS 2009/10. Diskrete Strukturen WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910

Mehr

Kryptographie und Komplexität

Kryptographie und Komplexität Kryptographie und Komplexität Einheit 5.2 ElGamal Systeme 1. Verschlüsselungsverfahren 2. Korrektheit und Komplexität 3. Sicherheitsaspekte Das ElGamal Verschlüsselungsverfahren Public-Key Verfahren von

Mehr

Lösungen zur Übungsserie 1

Lösungen zur Übungsserie 1 Analysis 1 Herbstsemester 2018 Prof. Peter Jossen Montag, 24. September Lösungen zur Übungsserie 1 Aufgaben 1, 3, 4, 5, 6, 8 Aufgabe 1. Sei X eine endliche Menge mit n Elementen, und sei Y eine endliche

Mehr

Proseminar Datenkompression Suchstrategien und Präfixcodes

Proseminar Datenkompression Suchstrategien und Präfixcodes Proseminar Datenkompression Suchstrategien und Präfixcodes Patrick Sonntag Mittwoch, den 05.02.2003 I. Einführung - Suche elementares Problem in Informatik - hierbei Beschränkung auf binäre Tests nur 2

Mehr

Topologische Grundbegriffe II. Inhaltsverzeichnis

Topologische Grundbegriffe II. Inhaltsverzeichnis Vortrag zum Seminar zur Analysis, 03.05.2010 Dennis Joswig, Florian Goy Aufbauend auf den Resultaten des Vortrages Topologische Grundbegriffe I untersuchen wir weitere topologische Eigenschaften von metrischen

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen Algorithmen und Datenstrukturen B7. Balancierte Bäume 1 Marcel Lüthi and Gabriele Röger Universität Basel 13. April 2018 1 Folien basieren auf Vorlesungsfolien von Sedgewick & Wayne https://algs4.cs.princeton.edu/lectures/33balancedsearchtrees-2x2.pdf

Mehr

Stromchiffre. Algorithmus Stromchiffre

Stromchiffre. Algorithmus Stromchiffre Stromchiffre Algorithmus Stromchiffre Sei G ein Pseudozufallsgenerator mit Expansionsfaktor l(n). Wir definieren Π s = (Gen, Enc, Dec) mit Sicherheitsparameter n für Nachrichten der Länge l(n). 1 Gen:

Mehr

Reduktion. 2.1 Abstrakte Reduktion

Reduktion. 2.1 Abstrakte Reduktion 2 Reduktion In diesem Kapitel studieren wir abstrakte Eigenschaften von Regeln. In den ersten beiden Abschnitten betrachten wir nicht einmal die Regeln selbst, sondern nur abstrakte Reduktionssysteme,

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

Stochastische Lernalgorithmen

Stochastische Lernalgorithmen Stochastische Lernalgorithmen Gerhard Jäger 14. Mai 2003 Das Maximum-Entropy-Prinzip Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kommt ursprünglich aus der Physik:

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

3. Suchen. Das Suchproblem. Suche in Array. Lineare Suche. 1 n. i = n Gegeben Menge von Datensätzen.

3. Suchen. Das Suchproblem. Suche in Array. Lineare Suche. 1 n. i = n Gegeben Menge von Datensätzen. Das Suchproblem Gegeben Menge von Datensätzen. 3. Suchen Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle Jeder Datensatz hat einen Schlüssel k. Schlüssel sind vergleichbar: eindeutige Antwort auf

Mehr

Dieser Foliensatz darf frei verwendet werden unter der Bedingung, dass diese Titelfolie nicht entfernt wird.

Dieser Foliensatz darf frei verwendet werden unter der Bedingung, dass diese Titelfolie nicht entfernt wird. Thomas Studer Relationale Datenbanken: Von den theoretischen Grundlagen zu Anwendungen mit PostgreSQL Springer, 2016 ISBN 978-3-662-46570-7 Dieser Foliensatz darf frei verwendet werden unter der Bedingung,

Mehr

Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14

Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14 Institut für Theoretische Informatik Prof. Dr. Jörn Müller-Quade Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 23/4 Vorname Nachname Matrikelnummer Hinweise Für die

Mehr

Einführung in die Informatik 2

Einführung in die Informatik 2 Einführung in die Informatik 2 Mathematische Grundbegriffe Sven Kosub AG Algorithmik/Theorie komplexer Systeme Universität Konstanz E 202 Sven.Kosub@uni-konstanz.de Sprechstunde: Freitag, 12:30-14:00 Uhr,

Mehr

Signale und Codes Vorlesung 4

Signale und Codes Vorlesung 4 Signale und Codes Vorlesung 4 Nico Döttling December 6, 2013 1 / 18 2 / 18 Letztes Mal Allgemeine Hamming Codes als Beispiel linearer Codes Hamming Schranke: Obere Schranke für k bei gegebenem d bzw. für

Mehr

Dichte der geometrischen Verteilung

Dichte der geometrischen Verteilung 0,8 Ô ¼ 0,8 Ô ¼ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 7 8 9 10 0,0 1 2 3 4 5 6 7 8 9 10 0,8 Ô ¼ 0,8 Ô ¼ ¾ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 0,0 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 Dichte der geometrischen

Mehr

Dynamische Geometrie & Komplexitätstheorie. Céline Schöne und Gunther Kraut

Dynamische Geometrie & Komplexitätstheorie. Céline Schöne und Gunther Kraut Dynamische Geometrie & Komplexitätstheorie Céline Schöne und Gunther Kraut Wir haben gelernt... Es gibt freie und abhängige Punkte. Mit Snapshot ist eine bestimmte Position der freien Elemente bezeichnet.

Mehr

Mathematische Grundlagen der Computerlinguistik

Mathematische Grundlagen der Computerlinguistik Centrum für Informations- und Sprachverarbeitung (CIS) 10. Juni 2014 Table of Contents 1 2 Äquivalenz Der Begriff der Äquivalenz verallgemeinert den Begriff der Gleichheit. Er beinhaltet in einem zu präzisierenden

Mehr

Die Größe A(n, d) und optimale Codes

Die Größe A(n, d) und optimale Codes Die Größe A(n, d) und optimale Codes Definition Optimaler Code Wir definieren A(n, d) = max{m binärer (n, M, d) Code} Ein (n, M, d)-code heißt optimal, falls M = A(n, d). Bestimmung von A(n, d) ist offenes

Mehr

Methoden der statistischen Inferenz

Methoden der statistischen Inferenz Leonhard Held Methoden der statistischen Inferenz Likelihood und Bayes Unter Mitwirkung von Daniel Sabanes Bove Spektrum KJL AKADEMISCHER VERLAG Vorwort vii 1 Einführung 1 1.1 Statistische Inferenz 1 1.2

Mehr

Vorkurs Mathematik. JProf. Dr. Pia Pinger / Dr. Andreas Pondorfer. September/Oktober Lennéstraße 43, 1. OG

Vorkurs Mathematik. JProf. Dr. Pia Pinger / Dr. Andreas Pondorfer. September/Oktober Lennéstraße 43, 1. OG Vorkurs Mathematik JProf. Dr. Pia Pinger / Dr. Andreas Pondorfer Lennéstraße 43, 1. OG pinger@uni-bonn.de September/Oktober 2017 JProf. Dr. Pia Pinger / Dr. Andreas Pondorfer Vorkurs Mathematik September/Oktober

Mehr

Einführung in die Wahrscheinlichkeitstheorie

Einführung in die Wahrscheinlichkeitstheorie Einführung in die Wahrscheinlichkeitstheorie von Boris Wladimirowitsch Gnedenko In deutscher Sprache herausgegeben von Hans-Joachim Roßberg Mit einem Anhang des Herausgebers über positiv definite Verteilungsdichten

Mehr

Vorlesung Diskrete Strukturen Gruppe und Ring

Vorlesung Diskrete Strukturen Gruppe und Ring Vorlesung Diskrete Strukturen Gruppe und Ring Bernhard Ganter Institut für Algebra TU Dresden D-01062 Dresden bernhard.ganter@tu-dresden.de WS 2009/10 1 Bernhard Ganter, TU Dresden Modul Einführung in

Mehr