Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Größe: px
Ab Seite anzeigen:

Download "Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer"

Transkript

1 Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer

2 Graphische Modelle Modellierung einer Domäne mit verschiedenen Zufallsgrössen Gemeinsame Verteilung, insb. Abhängigkeiten Sa awade/la ndwehr/scheffer, Maschinelles Lernen II 2

3 Überblick Gerichtete Graphische Modelle: Bayessche etze Graphische Modelle im Maschinellen Lernen Inferenz in Graphischen Modellen Ungerichtete Graphische Modelle: Markov etze 3

4 Überblick Gerichtete Graphische Modelle: Bayessche etze Graphische Modelle im Maschinellen Lernen Inferenz in Graphischen Modellen Ungerichtete Graphische Modelle: Markov etze 4

5 Zufallsvariablen, Verteilungen Zufallsvariable: Abbildung eines Ereignisses auf reelle Zahl X : Raum der Elementarereignisse Verteilung über ZV: wie wahrscheinlich, bestimmte Werte zu beobachten? Diskrete Zufallsvariablen: diskreter Wertebereich (z.b. Münzwurf) Diskrete Wahrscheinlichkeit px ( ) [0,1], px ( )=1 x Wert der ZV Kontinuierliche Zufallsvariablen: kontinuierlicher Wertebereich (z.b. Körpergröße) Dichtefunktion px ( ), pxdx ( ) 1 0 x x Wert der ZV 5

6 Zufallsvariablen, Verteilungen Beispiele i für diskrete/kontinuierliche ti i Verteilungen Bernoulli-Verteilung: binäre ZV X {0,1} Parameter px ( 1 ) 1 ~Bern( ) X X X X (1 ) ormalverteilung: kontinuierliche ZV X 1 1 (2 ) (, ) exp ( x ) 2 1/2 2 x Mittelwert Standardabweichung 6

7 Zufallsvariablen, Verteilungen Zusammenhang Dichte/Wahrscheinlichkeit h h i hk it x px ( [ x, x ]) pzdz ( ) x px ( [ x, x ]) ist (diskrete) Wahrscheinlichkeit Oft abstrahieren a e wir vom Typ der Zufallsvariable a ab Rechenregeln sind im Wesentlichen gleich für diskrete/kontinuierliche Variablen ( ersetze Summe durch Integral ) Grundlegende Begriffe wie Abhängigkeit, Erwartungswert, Varianz sind auf beide Typen von Variablen anwendbar 7

8 Gemeinsame Verteilung, bedingte Verteilung Gemeinsame Verteilung p(x,y) über ZV X,Y pxy (, ) [0,1], pxy (, ) 1 xy, Bedingte Verteilung p( x, y), pxy (, ) dxdy 1 pxy (, ) px ( Y) diskret oder kontinuierlich py ( ) Für py ( ) 0 ist px ( y) wieder eine Verteilung über X: x px ( y ) 1 für py ( ) 0 (diskret) px ( ydx ) 1 fürpy ( ) 0 (kontinuierlich) 00 8

9 Unabhängigkeit von Zufallsvariablen Unabhängigkeit (diskret oder kontinuierlich) X,Y unabhängig genau dann wenn p( XY, ) px ( ) py ( ) XY X,Y unabhängig genau dann wenn px ( Y) p( X ) X,Y unabhängig genau dann wenn p( Y X) p( Y) Bedingte Unabhängigkeit (diskret oder kontinuierlich) X,Y unabhängig gegeben Z genau dann wenn p( XY, Z) px ( Z) py ( Z) X,Y unabhängig gegeben Z genau dann wenn p( Y X, Z) p( Y Z) X,Y unabhängig gegeben Z genau dann wenn p( X Y, Z) p( X Z)... einfach Anwendung des Unabhängigkeitsbegriffs auf die bedingte gemeinsame Verteilung p(x,y Z) Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 9

10 Rechenregeln Verteilungen Rechenregeln Wahrscheinlichkeiten/Verteilungen Summenregel p( x) p( x, y) diskrete Verteilungen y p ( x ) p ( x, y ) dy kontinuierliche Verteilungen px ( ) heisst auch Randverteilung, Marginalverteilung Produktregel pxy (, ) px ( Y) py ( ) diskret oder kontinuierlich Wahrscheinlichkeitsrechnungen beruhen auf Anwendungen dieser beiden Regeln 10

11 Graphische Modelle: Idee/Ziel Ziel: Modellierung der gemeinsame Verteilung p(x 1,,X ) einer Menge von ZV X 1,,X Aus p(x 1,,X ) lassen sich berechnen Alle Randverteilungen (Summenregel) p( X,..., X ), { i,..., i } {1,..., } i i m 1 m 1 Alle bedingten Verteilungen (aus Randverteilungen) p( X,..., X X,..., X ), { i,., i } {1,..., } i1 im im1 imk 1 mk Damit lassen sich alle probabilistischen Fragestellungen (Inferenzprobleme) über X 1,,X beantworten Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 11

12 Graphische Modelle: Idee/Ziel Graphische Modelle: Kombination von Wahrscheinlichkeitstheorie und Graphentheorie Kompakte, intuitive Modellierung von p(x 1,,X ) Graphstruktur repräsentiert Abhängigkeiten zwischen Variablen X 1,,X Einsicht in Struktur des Modells; einfach, Vorwissen einzubringen Effiziente Algorithmen für Inferenz, die Graphstruktur ausnutzen Viele Methoden des maschinellen Lernens lassen sich in Form von GM darstellen Fragestellungen wie MAP Lernen, Bayessche Vorhersage lassen sich als Inferenzprobleme in GM formulieren 12

13 Graphische Modelle: Beispiel Beispiel: Alarm Alarm Szenario Unser Haus in LA hat eine Alarmanlage. Wir sind im Urlaub. Unser achbar ruft an, falls er den Alarm hört. Wenn eingebrochen wurde, wollen wir zurück kommen. Leider ist der achbar nicht immer zu Hause Leider geht die Alarmanlage auch bei kleinen Erdbeben los 5 binäre Zufallsvariablen B Burglary Einbruch hat stattgefunden E Earthquake Erdbeben hat stattgefunden A Alarm Alarmanlage geht los eighborcalls achbar ruft an Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen R RadioReport Bericht über Erdbeben im Radio 13 II

14 Graphische Modelle: Beispiel Zufallsvariablen haben eine gemeinsame Verteilung p(b,e,a,,r). Wie angeben? Welche Abhängigkeiten gelten? Beispiel für Inferenzproblem: achbar hat angerufen (=1), wie wahrscheinlich ist Einbruch (B=1)? Hängt von verschiedenen Faktoren ab Wie wahrscheinlich Einbruch a priori? Wie wahrscheinlich Erdbeben a priori? Wie wahrscheinlich, dass Alarmanlage auslöst? (aive) Inferenz: p( B1 1) E A R B E A R pb ( 1, 1) p ( 1) p( B1, E, A, 1, R) p( BEA,,, 1, R) 14

15 Graphische Modelle: Beispiel Wie modellieren wir p(bear)? p(b,e,a,,r)? 1. Versuch: vollständige Tabelle B E A R P(B,E,A,,R) +Alle Verteilungen p( BEAR,,,, ) können repräsentiert werden Anzahl Parameter exponentiell Schwierig anzugeben 2. Versuch: alles unabhängig p( BEAR,,,, ) pbpepap ( ) ( ) ( ) ( ) pr ( ) +Anzahl Parameter linear - Zu restriktiv, Unabhängigkeitsannahme it h erlaubt btkeine sinnvolle Inferenz 15

16 Graphische Modelle: Beispiel Graphisches Modell: Selektive Unabhängigkeitsannahmen, durch Vorwissen motiviert Wähle Variablenordnung: z.b. B<E<A<<R Produktregel: pbear (,,,, ) pbeaprbea (,,, ) (,,, ) pbeap (,, ) ( BEApR,, ) ( BEA,,, ) p ( BEp, ) ( A B, E) p ( B, E, A) p ( R B, E, A, ) pbpe ( ) ( BpA ) ( BE, ) p ( BEApR,, ) ( BEA,,, ) Faktoren beschreiben die Verteilung einer Zufallsvariablen in Abhängigkeit anderer Zufallsvariablen. Können wir diese Faktoren vereinfachen? Welche dieser Abhängigkeiten bestehen wirklich? 16

17 Graphische Modelle: Beispiel Zerlegung in Faktoren nach Produktregel: pbear (,,,, ) pbpe ( ) ( BpA ) ( BEp, ) ( BEApR,, ) ( BEA,,, ) Annahme bedingter Unabhängigkeiten (Entfernen von Variablen aus Bedingungsteil) pe ( B ) p ( E ) pabe (, ) pabe (, ) p ( B, E, A ) p ( A ) p( R B, E, A, ) p( R E) Erdbeben hängt nicht von Einbruch ab Alarm hängt von Einbruch und Erdbeben ab Anruf von achbar hängt nur von Alarm ab achricht im Radio hängt nur Erdbeben ab Vereinfachte Darstellung der gemeinsamen Verteilung: pbear (,,,, ) pbpepa ( ) ( ) ( EBp, ) ( ApR ) ( E) Vereinfachte Faktoren 17

18 Graphische Modelle: Beispiel Graphisches Modell für Alarm Alarm Szenario P(B=1) P(E=1) B E P(A=1 B,E) B E A A P(=1 A) Modellierte Verteilung: pbear (,,,, ) p( B ) p( E ) p( A EB, ) p ( A ) p ( R E ) E P(R=1 E) R Graphisches Modell: - Jede ZV ist ein Knoten - Für jeden Faktor der Form px ( X,..., X) fügen wir gerichtete Kanten von den X zu X ein - Modell ist parametrisiert mit den bedingten Verteilungen px ( X1,..., X k ) 1 i k 18

19 Graphische Modelle: Beispiel Graphisches Modell für Alarm Alarm Szenario Anzahl Parameter: O(*2 K ), K= max. Anzahl von Elternknoten Hier statt Parameter Gerichtete graphische Modelle heißen auch Bayessche etze 19 Sa awade/la ndwehr/scheffer, Maschinelle es Lernen II

20 Bayessche etze: Definition Gegeben eine Menge von ZV {X 1,,X } Ein Bayessches etz über den ZV {X 1,,X } ist ein gerichteter Graph mit Knotenmenge X 1,,X X X... X X Es gibt keine gerichteten Zyklen i1 i2 ik i1 Knoten sind mit parametrisierten bedingten Verteilungen p( Xi pa( X )) assoziiert, wobei pa( X i i) { X j X j X i} die Menge der Elternknoten eines Knoten ist Das Bayessche etz modelliert eine gemeinsame Verteilung über X 1,,X durch i1 p ( X,..., ) ( ( )) 1 X p Xi pa Xi 20

21 Bayessche etze: Definition Warum muss der Graph azyklisch sein? Satz aus der Graphentheorie: G ist azyklisch es gibt Ordnung G der Knoten, so dass gerichtete Kanten die Ordnung respektieren ( ' ') Damit ergibt sich p( X,..., X ) p( X pa( X )) 1 i1 aus Produktregel + bedingten Unabhängigkeitsannahmen (Variablen entsprechend umsortieren) G Gegenbeispiel (kein Bayessches etz): X Y p( X, Y) px ( Y) p( Y X ) i i G 21

22 Bayessche etze: Unabhängigkeit Die Graphstruktur eines Bayesschen etzes impliziert (bedingte) Unabhängigkeiten zwischen ZV otation: Für Variablen X, Y, Z schreiben wir X Y Z px ( YZ, ) px ( Z) " X unabhängig von Y gegeben Z" Erweiterung auf disjunkte Mengen A, B, C von ZV C p( A B, C) p( A C) 22

23 Bayessche etze: Unabhängigkeit Welche Unabhängigkeiten der Form C werden durch die Graphstruktur modelliert? Im Prinzip auszurechnen durch Summen/Produktregel aus der gemeinsamen Verteilung Bei graphischen Modellen aber direkt aus der Graphstruktur ableitbar viel einfacher D-separation : Menge einfacher Regeln, nach denen sich alle Unabhängigkeiten ableiten lassen Sa awade/la ndwehr/sc cheffer, Maschinelles Lernen II 23

24 Bayessche etze: Unabhängigkeit D-separation: Welche Unabhängigkeiten der Form C werden durch die Graphstruktur modelliert? Wichtige Rolle spielen Pfade im Graphen, die ZV verbinden otation: X X X Y Y Y Z Z Z Pfad zwischen X und Zh hat eine konvergierende Verbindung bei Y ( head to head ) Pfad zwischen X und Z hat eine serielle Verbindung bei Y ( head to tail ) Pfad zwischen X und Z hat eine divergierende Verbindung bei Y ( tail-to-tail ) 24

25 Divergierende Verbindungen B E A R Betrachte Pfad A E R. Gilt R? Gemeinsame Verteilung: pbear (,,,, ) p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) B= Einbruch = achbar ruft an E= Erdbeben R= Radio Bericht A= Alarm Al 25

26 Divergierende Verbindungen B A E R Betrachte Pfad A E R. Gilt R? Gemeinsame Verteilung: pbear (,,,, ) p ( B ) p ( E ) p ( A E, B ) p ( A ) p ( R E ) B= Einbruch = achbar ruft an E= Erdbeben R= Radio Bericht A= Alarm Al ein, par ( ) pa ( ) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: RadioReport wahrscheinlich Erdbeben wahrscheinlich Alarm pa ( 1 R1) pa ( 1 R0) ZV R beeinflusst ZV A über die divergierende Verbindung R E A 26

27 Divergierende Verbindungen B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) Betrachte Pfad A E R. Gilt R E? beobachteter Knoten 27

28 Divergierende Verbindungen B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) Betrachte Pfad A E R. Gilt R E? beobachteter Knoten Ja, pare (, ) pae ( ) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: Wenn wir schon wissen, dass ein Erdbeben eingetreten ist, wird die Wahrscheinlichkeit für Alarm nicht höher/niedriger durch RadioReport Der divergierende i d Pfad R E Awird ddurch hbeobachtung von E blockiert 28

29 Serielle Verbindungen B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) Betrachte Pfad A B. Gilt? 29

30 Serielle Verbindungen B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) Betrachte Pfad A B. Gilt? ein, pb ( ) pb ( ) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: eighborcalls wahrscheinlich Alarm wahrscheinlich Burglary pb ( 1 1) pb ( 1 0) ZVb beeinflusst ifl ZVBüb über den seriellen ill Pfad A B 30

31 Serielle Verbindungen B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) beobachteter Knoten Betrachte Pfad A B. Gilt A? 31

32 Serielle Verbindungen B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) beobachteter Knoten Betrachte Pfad A B. Gilt A? Ja, pb (, A) pb ( A) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: Wenn wir schon wissen, dass der Alarm ausgelöst wurde, sinkt/steigt die Wahrscheinlichkeit für Einbruch nicht dadurch, dass achbar anruft Der serielle Pfad A B wird ddurch hbeobachtung von A blockiert. 32

33 Konvergierende Verbindung B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) Betrachte Pfad B A E. Gilt? 33

34 Konvergierende Verbindung B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) Ja, pb ( E) pb ( ) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: Einbrüche treten nicht häufiger/seltener auf an Tagen mit Erdbeben Betrachte Pfad B A E. Gilt? Der konvergierende Pfad B AE ist blockiert wenn Anicht beobachtet ist Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 34

35 Konvergierende Verbindung B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) beobachteter Knoten A Betrachte Pfad B A E. Gilt? 35

36 Konvergierende Verbindung B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) beobachteter Knoten A ein, pb ( EA, ) pb ( A) [Ausrechnen mit gemeinsamer Verteilung] Betrachte Pfad B A E. Gilt? Intuitiv: Alarm wurde ausgelöst. Falls wir ein Erdbeben beobachten, erklärt das den Alarm, Wahrscheinlichkeit für Einbruch sinkt ("explaining away"). Der konvergierende Pfad B A E wird freigegeben durch hbeobachtung von A 36

37 Konvergierende Verbindung B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) beobachteter Knoten ein, pb ( A, ) pb ( A) [Ausrechnen mit gemeinsamer Verteilung] Betrachte Pfad B A E. Gilt? Intuitiv: eighborcalls indirekte Beobachtung von Alarm. Erdbebenbeobachtung erklärt den Alarm, Wahrscheinlichkeit für Einbruch sinkt ("explaining away"). Der konvergierende Pfad B A E wird freigegeben durch Beobachtung von 37

38 Zusammenfassung Pfade B A E R Gemeinsame Verteilung: pbear (,,,, ) p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) Zusammenfassung: ein Pfad -X-Y-Z- ist Blockiert bei Y, wenn Divergierende Verbindung, und Y beobachtet, oder Serielle Verbindung, und Y beobachtet, oder Konvergierende Verbindung, und weder Y noch einer seiner achfahren Y Descendants(Y) beobachtet Descendants(Y)={Y es gibt gerichteten Pfad von Y zu Y } Sonst ist der Pfad frei bei Y 38

39 D-Separation: Blockierte Pfade Seien X,X ZV, C eine beobachtete Menge von ZV, X,X C Ein ungerichteter Pfad X X 1 X n X zwischen X und X ist blockiert gegeben C gdw es einen Knoten X i gibt so dass Pfad bei X i blockiert ist gegeben C D-Separation basiert auf blockierten Pfaden: Seien A,B,C, disjunkte Mengen von ZV. Definition: A und B sind d-separiert durch C gdw jeder Pfad von einem Knoten X A zu einem Knoten Y B blockiert ist gegeben C. Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 39

40 D-Separation: Korrektheit Gegeben ein Bayessches etz über {X 1,,X } mit Graphstruktur G. Das Bayessche etz modelliert eine Verteilung durch 1 i1 p( X,..., X ) p( X pa( X )) abhängig von den bedingten Verteilungen p( Xn pa( Xn)). Theorem (Korrektheit, Vollständigkeit d-separation) i Falls A,B d-separiert gegeben C in G, dann pabc (, ) p ( AC ) Es gibt keine anderen Unabhängigkeiten, die für jede Wahl der bedingten Verteilungen p( X pa( X )) gelten. i i i 40

41 D-Separation: Beispiel C A F D B G E H Ein Pfad -X-Y-Z-X Y Z ist Blockiert bei Y, wenn Gilt B H E? Gilt A H F? Gilt C? Divergierende Verbindung, und Y beobachtet, oder Serielle Verbindung, und Y beobachtet, oder Konvergierende Verbindung, und weder Y noch einer seiner achfahren Y Descendants(Y) beobachtet Sonst ist der Pfad frei bei Y 41

42 D-Separation: Beispiel C A F D B G E H Ein Pfad -X-Y-Z-X Y Z ist Blockiert bei Y, wenn Gilt B H E? Ja Gilt A H F? ein: ADBEH Gilt C? ein: CFDBE Divergierende Verbindung, und Y beobachtet, oder Serielle Verbindung, und Y beobachtet, oder Konvergierende Verbindung, und weder Y noch einer seiner achfahren Y Descendants(Y) beobachtet Sonst ist der Pfad frei bei Y 42

43 Bayessche etze: Kausalität Oft werden Bayessche etze so konstruiert, dass gerichtete Kanten kausalen Einflüssen entsprechen G E A Erdbeben lösen die Alarmanlage aus Äquivalentes Modell G Definition: : E A die Alarmanlage löst Erdbeben aus I(G) ={ ( A C) : A und B sind d-separiert gegeben C in G} Alle Unabhängigkeitsannahmen, die durch G kodiert werden IG ( ) IG ( ') Keine statistischen Gründe, eines der Modelle vorzuziehen Kann nicht aufgrund von Daten zwischen Modellen unterscheiden Aber kausale Modelle oft besser verständlich 43

44 etze Unterschiedlicher Komplexität Komplexität: bestimmt durch Menge der Kanten im Graph Beeinflusst die Anzahl der Parameter im Modell. Für binäre ZV gilt: Anzahl Parameter in O(*2 K ), K max i pa( X i) Hinzufügen von Kanten: Familie der darstellbare Verteilungen wird grösser, I(G) wird kleiner Extremfälle: Graph ohne Kanten, (ungerichtet) vollständig verbundener Graph Parameter B E B E A R 2-1 Parameter IG ( ) {( A C): ABC,, disj. Mengen von ZV} IG ( ) A R 44

45 Überblick Gerichtete Graphische Modelle: Bayessche etze Graphische Modelle im Maschinellen Lernen Inferenz in Graphischen Modellen Ungerichtete Graphische Modelle: Markov etze 45

46 Erinnerung: Lernproblem Erinnerung: Lernproblem Trainingsdaten L ( x, y 1 1 ),...,( x, y Matrixschreibweise ib i X ) x i m Merkmalsvektoren yi {0,1} binäre Klassenlabel y reelles Label Merkmalsvektoren Zugehörige Klassenlabels x11 x1 y1 x1... x y... x 1m xm y Ziel: Vorhersage des Klassenlabels für Testinstanz x x y i 46

47 Erinnerung: Lernen Annahme: gemeinsame Verteilung p(x,y) (unbekannt) Trainingsdaten ( xi, yi) ~ p( x, y) i.i.d. Testinstanzen ( x, y) ~ p( x, y) Wir betrachten probabilistische Modelle p( y x, ) [diskriminativ] p( x, y ) [generativ] A-priori Verteilung über Modelle p ( ) (bekannt) Vorhersageproblem: MAP Lösung * arg max p( L) y* arg max y p( y x, *) Vorhersageproblem: Bayes Lösung y* arg max y p( y x, L) arg max y p( y x, ) p( L) d 47

48 Erinnerung: Parameterschätzung Münzwurf Erinnerung: Münzwurf Einzelner Münzwurf Bernouilli-verteilt mit Parameter μ 1 X X X ~Bern( X ) (1 ) px ( 1 ) unbekannter Parameter Parameterschätzproblem: Wir haben unabhängige Münzwürfe gesehen, als Ausprägung L={x 1,, x } der ZV X 1,, X Der echte Parameter μ ist unbekannt, wir wollen eine Schätzung ˆ bzw. eine posterior-verteilung p( L) Bayesscher Ansatz: Posterior Prior x Likelihood p( L) p( L ) p( ) posterior likelihood prior 48

49 Erinnerung: Parameterschätzung Münzwurf Prior: Beta-Verteilung über Münzparameter μ p( ) Beta( k z k z k z k (1 k z 1 1 Likelihood unabhängige Münzwürfe: PX ( 1,..., X ) px ( n ) n1 Ber n( X n ) n1 n1 X n (1 ) 1 X z n i.i.d. Beta(

50 Erinnerung: Parameterschätzung Münzwurf Zufallsvariablen in Münzwurfszenario sind X X Gemeinsame Verteilung von Daten und Parameter (gegeben Hyperparameter, ): Prior x Likelihood p ( 1,...,, ) ( ( ) k X X z p p X k z i Darstellung als graphisches Modell: X1 X 2 X 3 k X z i 1 Bernoulli 1,...,, pa( ) pa( X ) { } i Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 50

51 Schätzung eines Münzparameters als Graphisches h Modell Unabhängige Münzwürfe: Darstellung als graphisches Modell D-separation X X 1 2 X 3 X Gilt,...,? X X1 X 1 51

52 Schätzung eines Münzparameters als Graphisches h Modell Unabhängige Münzwürfe: Darstellung als graphisches Modell D-separation X X 1 2 X 3 X Gilt,...,? X X1 X 1 ein, Pfad durch μ ist nicht blockiert. Intuitiv: X X... X 1 Wahrscheinlich 0.5 Wahrscheinlich X Der versteckte Parameter μ koppelt ZV X 1,, X. Aber es gilt X X,..., X

53 Parameterschätzung als Inferenzproblem MAP-Parameterschätzung Parameterschätzung Münzwurf arg max p ( x,..., x ) Inferenzproblem: kz 1 p, ( ) X1 2 k z px ( ) px ( ) X X X Evidenz auf den Knoten X 1,, X 3 Wahrscheinlichster Zustand des Knotens μ gegeben X 1,, X 53

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit

Mehr

Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle: Inferenz Wir haben eine Domäne durch gemeinsame

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Graphsche Modelle els Landwehr Zusammenfassung Pfade Zusammenfassung: en Pfad --Y-Z- st B A E Blockert be Y, wenn Dvergerende Verbndung,

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,

Mehr

Bayessche Lineare Regression

Bayessche Lineare Regression Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.

Mehr

Mathematische Grundlagen (Bayes sches Lernen)

Mathematische Grundlagen (Bayes sches Lernen) Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Mathematische Grundlagen (Bayes sches Lernen) Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick Anwendungsbeispiel 1: Diagnostik

Mehr

Bayes sche und probabilistische Netze

Bayes sche und probabilistische Netze Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung

Mehr

Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression

Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression Überblic Grundonepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münwürfe Lineare Regression Logistische Regression Bayes sche Vorhersage Münwürfe Lineare Regression 14 Modell für Münwürfe

Mehr

Elementare Wahrscheinlichkeitslehre

Elementare Wahrscheinlichkeitslehre Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?

Mehr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der

Mehr

Elektrotechnik und Informationstechnik

Elektrotechnik und Informationstechnik Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression

Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression Überblick Grundkonzepte des Baes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression Baes sche Vorhersage Münzwürfe Lineare Regression 57 Erinnerung:

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/Niels Landwehr/Tobias Scheffer Überblick Problemstellung/Motivation Deterministischer i ti Ansatz:

Mehr

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:

Mehr

Methoden der KI in der Biomedizin Bayes Netze

Methoden der KI in der Biomedizin Bayes Netze Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel

Mehr

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Mehr

Unabhängigkeit von Zufallsvariablen

Unabhängigkeit von Zufallsvariablen Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Elektrotechnik und Informationstechnik

Elektrotechnik und Informationstechnik Elektrotechnik und Informationstechnik Institut für utomatisierungstechnik, Professur Prozessleittechnik Bayessche Netze VL Prozessinformationsverarbeitung WS 2009/2010 Problemstellung Wie kann Wissen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Christoph Sawade Heute: Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz:

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

Einleitung Wahl der a priori Verteilung Bezug zur Maximum Likelihood Methode. Bayessche Statistik. Christian Meisel

Einleitung Wahl der a priori Verteilung Bezug zur Maximum Likelihood Methode. Bayessche Statistik. Christian Meisel 19.07.2007 Gliederung 1 2 3 Wahrscheinlichkeitsbegriff In Bayesscher Statistik wird Wahrscheinlichkeit p im Sinne von unvollständigem Wissen über ein Ereignis verwendet. Bei gleichem Vorwissen über unterschiedliche

Mehr

Kombinatorik und Wahrscheinlichkeitsrechnung

Kombinatorik und Wahrscheinlichkeitsrechnung Kombinatorik und Wahrscheinlichkeitsrechnung Übersicht: 1 Teil 1: Elementare Kombinatorik 2 Teil 2: Grundlagen der Wahrscheinlichkeitsrechnung Kombinatorik und Wahrscheinlichkeitsrechnung E. Hüllermeier

Mehr

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()

Mehr

Wahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung

Wahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2018 Anwendung der Bayesschen Theorie in ML Bayessche Netzwerke Bayessche Netze werden in modernen Expertensystemen benutzt. Das Wissen wird über

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

i =1 i =2 i =3 x i y i 4 0 1

i =1 i =2 i =3 x i y i 4 0 1 Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x

Mehr

Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind

Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Bayessche Netze Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Einleitung Sicheres vs. Unsicheres Wissen Kausale Netzwerke Abhängigkeit Verbindungsarten Exkurs:

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung. Christoph Sawade/Niels Landwehr Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung. Christoph Sawade/Niels Landwehr Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Tobias Scheffer Überblick Wiederholung: Konfidenzintervalle Statistische Tests

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte

Mehr

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities) Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief

Mehr

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur

Mehr

Sprechstunde zur Klausurvorbereitung

Sprechstunde zur Klausurvorbereitung htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)

Mehr

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de

Mehr

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente... Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Zusammenfassung. Niels Landwehr, Uwe Dick, Matthias Bussas

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Zusammenfassung. Niels Landwehr, Uwe Dick, Matthias Bussas Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Zusammenfassung Niels Landwehr, Uwe Dick, Matthias Bussas Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen

Mehr

Latente Dirichlet-Allokation

Latente Dirichlet-Allokation Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert

Mehr

Wahrscheinlichkeitstheorie 2

Wahrscheinlichkeitstheorie 2 Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen II: Zusammenfassung

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen II: Zusammenfassung Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen II: Zusammenfassung Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr

Probabilistische Graphische Modelle

Probabilistische Graphische Modelle Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007 Probabilistische Graphische Modelle

Mehr

Vorlesung 7a. Unabhängigkeit

Vorlesung 7a. Unabhängigkeit Vorlesung 7a Unabhängigkeit 1 Wir erinnern an die Definition der Unabhängigkeit von zwei Zufallsvariablen (Buch S. 61): Zufallsvariable X 1,X 2 heißen (stochastisch) unabhängig, falls für alle Ereignisse

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Generative Modelle. Generative Modelle 1 / 49

Generative Modelle. Generative Modelle 1 / 49 Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Grundlagen der Objektmodellierung

Grundlagen der Objektmodellierung Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung Grundlagen der Wahrscheinlichkeitsrechnung

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr Universität Potsdam Institut für Informatik ehrstuhl Maschinelles ernen Modellevaluierung Niels andwehr ernen und Vorhersage Klassifikation, Regression: ernproblem Eingabe: Trainingsdaten Ausgabe: Modell

Mehr

Übersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1

Übersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches

Mehr

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation

Mehr

Evidenzpropagation in Bayes-Netzen und Markov-Netzen

Evidenzpropagation in Bayes-Netzen und Markov-Netzen Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Statistische Sprachmodelle

Statistische Sprachmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch

Mehr

Generative Modelle. Generative Modelle 1 / 49

Generative Modelle. Generative Modelle 1 / 49 Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Probabilistische Graphische Modelle

Probabilistische Graphische Modelle Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007 Probabilistische Graphische Modelle

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Graphsche Modelle els Landwehr Überblck Graphsche Modelle: Syntax und Semantk Graphsche Modelle m Maschnellen Lernen Inferenz n Graphschen

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit

Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit Teil I: Wahrscheinlichkeitstheorie 1 Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 3: Bedingte Wahrscheinlichkeit Kapitel 4: Zufallsvariablen Kapitel 5: Erwartungswerte, Varianz, Kovarianz

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine diskrete reellwertige Zufallsvariable, d.h. eine ZV e mit Wertebereich R (oder einer Teilmenge davon), sodass eine

Mehr

Stochastik für Ingenieure

Stochastik für Ingenieure Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:

Mehr

Die Probabilistische Methode

Die Probabilistische Methode Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.

Mehr

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik . Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Hypothesentests. 5 Regression

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Hypothesentests. 5 Regression 0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests 5 Regression Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen

Mehr

Einführung in die diskreten Bayes- und Kredal-Netze

Einführung in die diskreten Bayes- und Kredal-Netze Einführung in die diskreten Bayes- und Kredal-Netze Master-Seminar im Wintersemester 2015/16 Patrick Schwaferts Institut für Statistik, LMU 16. Januar 2016 Schwaferts (Institut für Statistik, LMU) Bayes-

Mehr

Lineare Klassifikatoren

Lineare Klassifikatoren Universität Potsdam Institut für Informatik Lehrstuhl Lineare Klassifikatoren Christoph Sawade, Blaine Nelson, Tobias Scheffer Inhalt Klassifikationsproblem Bayes sche Klassenentscheidung Lineare Klassifikator,

Mehr

Konzepte der Statistik für die Messdatenanalyse

Konzepte der Statistik für die Messdatenanalyse Konzepte der Statistik für die Messdatenanalyse Modelle Beispiel: optische Abbildung im Fernfeld (Fraunhoferbeugung) indirekte Messgröße: Abstand der beiden Spalte D Modell inverses Problem direkte Messgrößen:

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Mathematische Grundlagen Tobias Scheffer Peter Haider Paul Prasse Bayes sches Lernen: Anwendungsbeispiel Neuer Impfstoff wurde

Mehr

Diskrete Verteilungen

Diskrete Verteilungen Diskrete Verteilungen Bernoulli-Verteilung: X Bernoulli(p) Symbol für «verteilt wie» «Eperiment» mit zwei Ausgängen: «Erfolg» ( 1) oder «Misserfolg» ( ). Die Erfolgswahrscheinlichkeit sei p. Wertebereich

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Statistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie

Statistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie Bedingte W keit, Unabhängigkeit, gemeinsame Verteilung 1/44 Statistik für Informatiker, SS 2018 1 Grundlagen aus der Wahrscheinlichkeitstheorie 1.3 Bedingte Wahrscheinlichkeiten, Unabhängigkeit, gemeinsame

Mehr