Bedingte Entropie. Bedingte Entropie. Bedingte Entropie. Kapitel 4: Bedingte Entropie I(X;Y) H(X Y) H(Y) H(X) H(XY)

Ähnliche Dokumente
Kapitel 4: Bedingte Entropie

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Lösungen. Übungsklausur Wahrscheinlichkeit und Regression Die Lösungen

Stochastische Prozesse

5 Gemischte Verallgemeinerte Lineare Modelle

Sicherheit von Π MAC2

6. Modelle mit binären abhängigen Variablen

Statistik und Wahrscheinlichkeitsrechnung

Informatik II. Minimalpolynome und Implikanten. Minimalpolynome. Minimalpolynome. Rainer Schrader. 27. Oktober Was bisher geschah: Definition

Konkave und Konvexe Funktionen

2 Zufallsvariable und Verteilungen

4.6 Das Pumping-Lemma für reguläre Sprachen:

18. Dynamisches Programmieren

Modul 1: Einführung und Wahrscheinlichkeitsrechnung

z.b. Münzwurf: Kopf = 1 Zahl = 2 oder z.b. 2 Würfel: Merkmal = Summe der Augenzahlen, also hier: Bilde die Summe der Augenzahlen der beiden Würfel!

Abbildung 3.1: Besetzungszahlen eines Fermigases im Grundzustand (a)) und für eine angeregte Konfiguration (b)).

Stochastische Prozesse

binäre Suchbäume Informatik I 6. Kapitel binäre Suchbäume binäre Suchbäume Rainer Schrader 4. Juni 2008 O(n) im worst-case Wir haben bisher behandelt:

Fallstudie 1 Diskrete Verteilungen Abgabe: Aufgabentext und Lösungen schriftlich bis zum

Arbeitsgruppe Radiochemie Radiochemisches Praktikum P 06. Einführung in die Statistik. 1. Zählung von radioaktiven Zerfällen und Statistik 2

4. Rechnen mit Wahrscheinlichkeiten

Kapitel V. Parameter der Verteilungen

Diskrete Mathematik 1 WS 2008/09

Multilineare Algebra und ihre Anwendungen. Nr. 6: Normalformen. Verfasser: Yee Song Ko Adrian Jenni Rebecca Huber Damian Hodel

22. Vorlesung Sommersemester

Übungsblatt 7 Lösungsvorschläge

3.3 Lineare Abbildungen und Matrizen

Elemente der Mathematik - Sommer 2016

Lösungen aller Aufgaben und Lernkontrollen

nonparametrische Tests werden auch verteilungsfreie Tests genannt, da sie keine spezielle Verteilung der Daten in der Population voraussetzen

Definition des linearen Korrelationskoeffizienten

Analysis I. Vorlesung 17. Logarithmen. R R, x exp x,

-70- Anhang: -Lineare Regression-

Determinanten - I. den i-ten Zeilenvektor der n n-matrix A bezeichnet.

Übung zur Vorlesung. Informationstheorie und Codierung

16. Vorlesung Sommersemester

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

1.1 Das Prinzip von No Arbitrage

Seminar über Numerische Mathematik

Grundlagen der Mathematik I Lösungsvorschlag zum 12. Tutoriumsblatt

wird auch Spannweite bzw. Variationsbreite genannt ist definiert als die Differenz zwischen dem größten und kleinsten Messwert einer Verteilung:

Erwartungswert, Varianz, Standardabweichung

Die Annäherung der Binomialverteilung durch die Normalverteilung am Beispiel eines Modells der Schadenversicherung

Bemerkungen zum LCG Rupert Hartung,

Standardnormalverteilung / z-transformation

Seminar Analysis und Geometrie Professor Dr. Martin Schmidt - Markus Knopf - Jörg Zentgraf. - Fixpunktsatz von Schauder -

Statistik der Extremwertverteilungen

Algorithmen und Datenstrukturen SS09. Foliensatz 13. Michael Brinkmeier. Technische Universität Ilmenau Institut für Theoretische Informatik

Statistik und Wahrscheinlichkeit

Das zum dualen Problem (10.2) gehörige Barriere-Problem lautet analog

6.5. Rückgewinnung des Zeitvorgangs: Rolle der Pole und Nullstellen

Lösungen der Aufgaben zu Kapitel 2

Einführung in die Wahrscheinlichkeitsrechnung. Wahrscheinlichkeitsrechnung. Übersicht. Wahrscheinlichkeitsrechnung. bedinge Wahrscheinlichkeit

Exkurs: Entropie in der Wahrscheinlichkeitstheorie

Lineare Optimierung Dualität

12 UMPU Tests ( UMP unbiased )

( ) γ. (t 1 ) (t 2 ) = Arg γ 2(t 2 )

Wir betrachten in diesem Abschnitt Matrixspiele in der Maximierungsform, also endliche 2 Personen Nullsummenspiele der Gestalt

Asymptotische Stochastik (SS 2010) Übungsblatt 1 P X. 0, n.

Forschungsstatistik I

6. Übung zur Linearen Algebra II

Die mathematischen Grundlagen der Wellenmechanik

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayessches Lernen

Weitere NP-vollständige Probleme

Statistische Kennzahlen für die Lage

Einführung in die theoretische Physik 1

1 Finanzmathematik. 1.1 Das Modell. Sei Xt

Seminar Einführung in die Kunst mathematischer Ungleichungen

Beschreibung des Zusammenhangs zweier metrischer Merkmale. Streudiagramme Korrelationskoeffizienten Regression

Versicherungstechnischer Umgang mit Risiko

50 Matrixnormen und Eigenwertabschätzungen

2πσ. e ax2 dx = x exp. 2πσ. 2σ 2. Die Varianz ergibt sich mit Hilfe eines weiteren bestimmten Integrals: x 2 e ax2 dx = 1 π.

Rotation (2. Versuch)

Kleiner Fermatscher Satz, Chinesischer Restsatz, Eulersche ϕ-funktion, RSA

1 Mehrdimensionale Analysis

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1.

AUFGABEN ZUR INFORMATIONSTHEORIE

Fachbereich Mathematik Prof. K. Grosse-Brauckmann D. Frisch WS 2007/08 10./ Gruppenübung

Vorlesung 3 Differentialgeometrie in der Physik 13

Entscheidungstheorie Teil 3. Thomas Kämpke

Die Jordansche Normalform

Aspekte zur Approximation von Quadratwurzeln

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1.

Die Transzendenz der Eulerschen Zahl e

Grundgedanke der Regressionsanalyse

Algorithmen und Datenstrukturen 6. Vorlesung

(Theoretische) Konfidenzintervalle für die beobachteten Werte: Die Standardabweichung des Messfehlers wird Standardmessfehler genannt:

Prof. Dr. Jürgen Dassow Otto-von-Guericke-Universität Magdeburg Fakultät für Informatik. Codierungstheorie und Kryptographie

Message Authentication Code (MAC)

Experimentalphysik II (Kip SS 2007)

ME II, Prof. Dr. T. Wollmershäuser. Kapitel 2 Das IS-LM-Modell

Sei T( x ) die Tangente an den Graphen der Funktion f(x) im Punkt ( x 0, f(x 0 ) ) : T( x ) = f(x 0 ) + f (x 0 ) ( x - x 0 ).

Spiele und Codes. Rafael Mechtel

FORMELSAMMLUNG STATISTIK (I)

4. Musterlösung. Problem 1: Kreuzende Schnitte **

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

An dem Ergebnis eines Zufallsexperiments interessiert oft nur eine spezielle Größe, meistens ein Messwert.

Eine kurze Einführung in die Dichtefunktionaltheorie (DFT)

Transkript:

Bedngte Entrope Kaptel : Bedngte Entrope Das vorherge Theorem kann durch mehrfache Anwendung drekt verallgemenert werden H (... H ( = Ebenso kann de bedngt Entrope defnert werden Defnton: De bedngte Entrope von, gegeben, st H ( = H ( H ( H( st also de restlche Unscherhet über, wenn bekannt st Bedngte Entrope Bedngte Entrope Defnton: De gegensetge Informaton, de über gbt (sowe symmetrsch über, st I( ; : = H ( + H ( H ( I(; st de Redukton der Unscherhet über, wenn man erfährt H( I(; H( I( ; = H ( H ( = H ( H ( = I( ; H( H( H(

Bedngte Entrope Bedngte Entrope Theorem: Es glt: 0 H ( H ( Mt Glechhet lnks genau dann, wenn durch vollständg bestmmt st De rechte Unglechhet st äquvalent zu I( ; 0 Also, mt Glechhet rechts genau dann, wenn und statstsch unabhängg snd Alle Defntonen und Aussagen gelten auch für Lsten von Zufallsvarablen, wobe z.b. H ( RS TUV = H ( RSTUV H ( TUV Durch wederholte Anwendung der Defnton erhalten wr de Kettenregel für Entropen: H ( Oder auch H (... = H (... =... = H (... = Man vergleche des mt den Formeln für de bedngten Wahrschenlchketen zu Begnn von Modul und wende den Logarthmus an. ( = ( = 5 6 Rehenfolge der Varablen Alternatve Herletung Wchtg st, zu verstehen, dass de Rehenfolge, n der de Zufallsvarablen abgespalten werden, egal st! H ( = H ( + H ( + H ( Z H ( = H ( + H ( Z + H ( H ( = H ( + H ( + H ( Z H ( = H ( + H ( Z + H ( H ( = H ( + H ( + H ( H ( = H ( + H ( + H ( De bedngte Entrope kann auch we folgt hergeletet werden Für en Eregns A mt Wahrschenlchket (A können wr H( A als de Entrope der bedngten Vertelung p A defneren H ( x ( A p A( xlog p A = x Seen und zwe Zufallsvarablen. De bedngte Entrope H( =y st H = y p ylog p y ( x = 7

Alternatve Herletung Bedngte Entrope ( H( ergbt sch durch gewchtete Mttelwertbldung (Erwartungswert, also H ( = H ( = y p y = E [ log (, ] ( y De Unglechung H( <=H( bedeutet, dass zusätzlche Informaton de Unscherhet nemals erhöhen kann Dennoch kann de Entrope H( =y durchaus lokal grösser werden als H( (sehe Bespel Zwe Zufallsvarablen haben folgende Vertelungen: \ 6 6 6 6 6 6 0 0 0 x ( x = y = j j= ebenso y ( y = j j 9 0 Bedngte Entrope ( x y j, daraus folgt : 7 H ( = Bts, H ( = Bts H( = ( y H( = y j= j j = H( = + H( = + H( = + H( = Bedngte Entrope ( H ( x = = = mt, x = = ( x, log ( x, =, x ( x, ( = ( ( x,, x H ( = = H,,, = 7 =

Bedngte Entrope ( H ( = ( y H ( = y j = j j = H,,, + H,,, + H,,, + H (, 0, 0,0 7 7 = + + + 0 = Bts H ( = Bts und H ( = Bts H ( H (, jedoch glt mmer : H ( -H ( = H ( -H ( = I(, = / Bts Bedngte bnäre Entrope ( Seen und zwe bnäre Zufallsvarablen {0,} ( 0, = (,0 = (0,0 =, (, = 0 H ( = 0 = 0 log( 0 (0,0 = = {0,} 0 =, 0 (0 (,0 = = H ( = 0 = log log = + = Bt Bedngte bnäre Entrope ( Bedngte bnäre Entrope ( H ( = (0 = H ( {0,}, ( x log ( = = (0, = =, = ( ( x ( (, = 0 H ( = (0 H ( = 0 + = Bt + 0 Bts = Bt < H ( ( H ( De Entrope kann lokal anstegen, Fällt jedoch m Durchschntt mmer = H ( H ( = = 0 = < H ( < H ( = 0 5 6

Mehrere Varablen Bedngte Informaton Entsprechend glt für Zufallsvarablen H ( = H (, Z = z p ( z Z wobe H (, Z = z z = y p Z y, zlog p Z y, z Wr erwetern unser Dagramm um ene wetere Varable Wr erhalten 7 Bereche Jeder Berech entsprcht ener Kombnaton von 7 Verbundentropen H(, H(, H(, H(, H(, H(, H( der Bereche haben berets ene Interpretaton Bedngte Entropen H(, H(, H(Z Wr wollen de übrgen Bereche kennen lernen Sehe Bld 7 Bld Interpretaton H( H( I(; R(;; I(;Z I(;Z H(Z H( H( De bedngten Informatonen I(;, I(;Z, I(;Z können we folgt nterpretert werden: Defnton: De bedngte, gegensetge Informaton, de über gbt, gegeben Z, st I( ; : = H ( + H ( H ( H ( Oder auch I( ; : = H ( H ( I(; st also de Redukton der Unscherhet über, wenn man erfährt, wobe aber Z schon bekannt st Man nterpretere R(;; (kann negatv sen H( R ( ; ; : = H ( + H ( + H ( H ( H ( H ( + H ( 9 0

Interpretaton Bespel : Markov-Kette Theorem: Es glt I( ; 0 De Aussage, dass Zusatznformaton de Entrope ncht vergrössern kann, glt jedoch ncht für I(; > I(;, da R(;; negatv werden kann Z bewrkt n desem Falle ene stärkere Redukton von H(, als von H( Herbe glt: H ( H ( > H ( H ( Mt Hlfe von Entropen kann ntutv gerechnet werden. Wr betrachten zwe Bespele Q Zel Z Wr betrachten folgende Markov-Kette und snd rozessoren, de Berechnungen durchführen wrd durch n übergeführt usw. und können belebge determnstsche oder probablstsche Operatonen durchführen Enschränkung: Ken versteckter fad von nach Z, also Markov-Egenschaft Bespel : Markov-Kette Bespel : Markov-Kette Des st, we bekannt, glechbedeutend mt pz y, z = pz ( y, z Mttels Entrope wrd daraus H ( Z = H ( Z oder auch I( Z; = 0 Es glt de Symmetre-Egenschaft I ( Z; = I( ; Z Und damt de Umkehrbarket der Markov-Kette, also ->->Z sowe Z->-> Lemma (Informatonsverarbetung: Falls ->->Z, dann gelten I( ; I( ;, sowe I( ; I( ; Bewes: Es glt I ( ; = R( ; ; + I( ; Z Und I ( ; = R( ; ; + I( ; Z Also glt I( ; I( ; = I( ; Z I( ; Z = I( ; Z 0 Es gbt kene Operaton auf, de de Informaton erhöhen kann, welche über enthält

erfekte Verschlüsselung erfekte Verschlüsselung En Klartext M soll mt enem gehemen Schlüssel K zu enem Chffrat C verschlüsselt werden Empfänger kann mt Schlüssel den Code entschlüsseln Defnton: En Verschlüsselungsverfahren hesst perfekt scher, wenn I ( M ; C = 0 ( M C = ( M Bedeutung: Auch mt unbegrenzten Rechenressourcen st der Code ncht zu knacken! Stärkste (theoretsche Scherhet Theorem: In enem perfekt scheren Verschlüsselungssystem glt: H ( K H ( M Aufgrund der Entschlüsselbarket von M mt C und K glt: H ( M CK = 0 erfekte Scherhet bedeutet b=-a m Bld Wr ernnern uns, dass b < 0 möglch st Umgekehrt st auch I ( C; K 0 c b = a H(K>=H(M folgt aus Verglech der Regonen 5 6 Bld dazu H(M H(M KC=0 a H(C b c H(K 7