Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
|
|
- Kornelius Bayer
- vor 5 Jahren
- Abrufe
Transkript
1 Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer
2 Graphische Modelle Modellierung einer Domäne mit verschiedenen Zufallsgrössen Gemeinsame Verteilung, insb. Abhängigkeiten Sa awade/la ndwehr/scheffer, Maschinelles Lernen II 2
3 Überblick Gerichtete Graphische Modelle: Bayessche etze Graphische Modelle im Maschinellen Lernen Inferenz in Graphischen Modellen Ungerichtete Graphische Modelle: Markov etze 3
4 Überblick Gerichtete Graphische Modelle: Bayessche etze Graphische Modelle im Maschinellen Lernen Inferenz in Graphischen Modellen Ungerichtete Graphische Modelle: Markov etze 4
5 Zufallsvariablen, Verteilungen Zufallsvariable: Abbildung eines Ereignisses auf reelle Zahl X : Raum der Elementarereignisse Verteilung über ZV: wie wahrscheinlich, bestimmte Werte zu beobachten? Diskrete Zufallsvariablen: diskreter Wertebereich (z.b. Münzwurf) Diskrete Wahrscheinlichkeit px ( ) [0,1], px ( )=1 x Wert der ZV Kontinuierliche Zufallsvariablen: kontinuierlicher Wertebereich (z.b. Körpergröße) Dichtefunktion px ( ), pxdx ( ) 1 0 x x Wert der ZV 5
6 Zufallsvariablen, Verteilungen Beispiele i für diskrete/kontinuierliche ti i Verteilungen Bernoulli-Verteilung: binäre ZV X {0,1} Parameter px ( 1 ) 1 ~Bern( ) X X X X (1 ) ormalverteilung: kontinuierliche ZV X 1 1 (2 ) (, ) exp ( x ) 2 1/2 2 x Mittelwert Standardabweichung 6
7 Zufallsvariablen, Verteilungen Zusammenhang Dichte/Wahrscheinlichkeit h h i hk it x px ( [ x, x ]) pzdz ( ) x px ( [ x, x ]) ist (diskrete) Wahrscheinlichkeit Oft abstrahieren a e wir vom Typ der Zufallsvariable a ab Rechenregeln sind im Wesentlichen gleich für diskrete/kontinuierliche Variablen ( ersetze Summe durch Integral ) Grundlegende Begriffe wie Abhängigkeit, Erwartungswert, Varianz sind auf beide Typen von Variablen anwendbar 7
8 Gemeinsame Verteilung, bedingte Verteilung Gemeinsame Verteilung p(x,y) über ZV X,Y pxy (, ) [0,1], pxy (, ) 1 xy, Bedingte Verteilung p( x, y), pxy (, ) dxdy 1 pxy (, ) px ( Y) diskret oder kontinuierlich py ( ) Für py ( ) 0 ist px ( y) wieder eine Verteilung über X: x px ( y ) 1 für py ( ) 0 (diskret) px ( ydx ) 1 fürpy ( ) 0 (kontinuierlich) 00 8
9 Unabhängigkeit von Zufallsvariablen Unabhängigkeit (diskret oder kontinuierlich) X,Y unabhängig genau dann wenn p( XY, ) px ( ) py ( ) XY X,Y unabhängig genau dann wenn px ( Y) p( X ) X,Y unabhängig genau dann wenn p( Y X) p( Y) Bedingte Unabhängigkeit (diskret oder kontinuierlich) X,Y unabhängig gegeben Z genau dann wenn p( XY, Z) px ( Z) py ( Z) X,Y unabhängig gegeben Z genau dann wenn p( Y X, Z) p( Y Z) X,Y unabhängig gegeben Z genau dann wenn p( X Y, Z) p( X Z)... einfach Anwendung des Unabhängigkeitsbegriffs auf die bedingte gemeinsame Verteilung p(x,y Z) Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 9
10 Rechenregeln Verteilungen Rechenregeln Wahrscheinlichkeiten/Verteilungen Summenregel p( x) p( x, y) diskrete Verteilungen y p ( x ) p ( x, y ) dy kontinuierliche Verteilungen px ( ) heisst auch Randverteilung, Marginalverteilung Produktregel pxy (, ) px ( Y) py ( ) diskret oder kontinuierlich Wahrscheinlichkeitsrechnungen beruhen auf Anwendungen dieser beiden Regeln 10
11 Graphische Modelle: Idee/Ziel Ziel: Modellierung der gemeinsame Verteilung p(x 1,,X ) einer Menge von ZV X 1,,X Aus p(x 1,,X ) lassen sich berechnen Alle Randverteilungen (Summenregel) p( X,..., X ), { i,..., i } {1,..., } i i m 1 m 1 Alle bedingten Verteilungen (aus Randverteilungen) p( X,..., X X,..., X ), { i,., i } {1,..., } i1 im im1 imk 1 mk Damit lassen sich alle probabilistischen Fragestellungen (Inferenzprobleme) über X 1,,X beantworten Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 11
12 Graphische Modelle: Idee/Ziel Graphische Modelle: Kombination von Wahrscheinlichkeitstheorie und Graphentheorie Kompakte, intuitive Modellierung von p(x 1,,X ) Graphstruktur repräsentiert Abhängigkeiten zwischen Variablen X 1,,X Einsicht in Struktur des Modells; einfach, Vorwissen einzubringen Effiziente Algorithmen für Inferenz, die Graphstruktur ausnutzen Viele Methoden des maschinellen Lernens lassen sich in Form von GM darstellen Fragestellungen wie MAP Lernen, Bayessche Vorhersage lassen sich als Inferenzprobleme in GM formulieren 12
13 Graphische Modelle: Beispiel Beispiel: Alarm Alarm Szenario Unser Haus in LA hat eine Alarmanlage. Wir sind im Urlaub. Unser achbar ruft an, falls er den Alarm hört. Wenn eingebrochen wurde, wollen wir zurück kommen. Leider ist der achbar nicht immer zu Hause Leider geht die Alarmanlage auch bei kleinen Erdbeben los 5 binäre Zufallsvariablen B Burglary Einbruch hat stattgefunden E Earthquake Erdbeben hat stattgefunden A Alarm Alarmanlage geht los eighborcalls achbar ruft an Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen R RadioReport Bericht über Erdbeben im Radio 13 II
14 Graphische Modelle: Beispiel Zufallsvariablen haben eine gemeinsame Verteilung p(b,e,a,,r). Wie angeben? Welche Abhängigkeiten gelten? Beispiel für Inferenzproblem: achbar hat angerufen (=1), wie wahrscheinlich ist Einbruch (B=1)? Hängt von verschiedenen Faktoren ab Wie wahrscheinlich Einbruch a priori? Wie wahrscheinlich Erdbeben a priori? Wie wahrscheinlich, dass Alarmanlage auslöst? (aive) Inferenz: p( B1 1) E A R B E A R pb ( 1, 1) p ( 1) p( B1, E, A, 1, R) p( BEA,,, 1, R) 14
15 Graphische Modelle: Beispiel Wie modellieren wir p(bear)? p(b,e,a,,r)? 1. Versuch: vollständige Tabelle B E A R P(B,E,A,,R) +Alle Verteilungen p( BEAR,,,, ) können repräsentiert werden Anzahl Parameter exponentiell Schwierig anzugeben 2. Versuch: alles unabhängig p( BEAR,,,, ) pbpepap ( ) ( ) ( ) ( ) pr ( ) +Anzahl Parameter linear - Zu restriktiv, Unabhängigkeitsannahme it h erlaubt btkeine sinnvolle Inferenz 15
16 Graphische Modelle: Beispiel Graphisches Modell: Selektive Unabhängigkeitsannahmen, durch Vorwissen motiviert Wähle Variablenordnung: z.b. B<E<A<<R Produktregel: pbear (,,,, ) pbeaprbea (,,, ) (,,, ) pbeap (,, ) ( BEApR,, ) ( BEA,,, ) p ( BEp, ) ( A B, E) p ( B, E, A) p ( R B, E, A, ) pbpe ( ) ( BpA ) ( BE, ) p ( BEApR,, ) ( BEA,,, ) Faktoren beschreiben die Verteilung einer Zufallsvariablen in Abhängigkeit anderer Zufallsvariablen. Können wir diese Faktoren vereinfachen? Welche dieser Abhängigkeiten bestehen wirklich? 16
17 Graphische Modelle: Beispiel Zerlegung in Faktoren nach Produktregel: pbear (,,,, ) pbpe ( ) ( BpA ) ( BEp, ) ( BEApR,, ) ( BEA,,, ) Annahme bedingter Unabhängigkeiten (Entfernen von Variablen aus Bedingungsteil) pe ( B ) p ( E ) pabe (, ) pabe (, ) p ( B, E, A ) p ( A ) p( R B, E, A, ) p( R E) Erdbeben hängt nicht von Einbruch ab Alarm hängt von Einbruch und Erdbeben ab Anruf von achbar hängt nur von Alarm ab achricht im Radio hängt nur Erdbeben ab Vereinfachte Darstellung der gemeinsamen Verteilung: pbear (,,,, ) pbpepa ( ) ( ) ( EBp, ) ( ApR ) ( E) Vereinfachte Faktoren 17
18 Graphische Modelle: Beispiel Graphisches Modell für Alarm Alarm Szenario P(B=1) P(E=1) B E P(A=1 B,E) B E A A P(=1 A) Modellierte Verteilung: pbear (,,,, ) p( B ) p( E ) p( A EB, ) p ( A ) p ( R E ) E P(R=1 E) R Graphisches Modell: - Jede ZV ist ein Knoten - Für jeden Faktor der Form px ( X,..., X) fügen wir gerichtete Kanten von den X zu X ein - Modell ist parametrisiert mit den bedingten Verteilungen px ( X1,..., X k ) 1 i k 18
19 Graphische Modelle: Beispiel Graphisches Modell für Alarm Alarm Szenario Anzahl Parameter: O(*2 K ), K= max. Anzahl von Elternknoten Hier statt Parameter Gerichtete graphische Modelle heißen auch Bayessche etze 19 Sa awade/la ndwehr/scheffer, Maschinelle es Lernen II
20 Bayessche etze: Definition Gegeben eine Menge von ZV {X 1,,X } Ein Bayessches etz über den ZV {X 1,,X } ist ein gerichteter Graph mit Knotenmenge X 1,,X X X... X X Es gibt keine gerichteten Zyklen i1 i2 ik i1 Knoten sind mit parametrisierten bedingten Verteilungen p( Xi pa( X )) assoziiert, wobei pa( X i i) { X j X j X i} die Menge der Elternknoten eines Knoten ist Das Bayessche etz modelliert eine gemeinsame Verteilung über X 1,,X durch i1 p ( X,..., ) ( ( )) 1 X p Xi pa Xi 20
21 Bayessche etze: Definition Warum muss der Graph azyklisch sein? Satz aus der Graphentheorie: G ist azyklisch es gibt Ordnung G der Knoten, so dass gerichtete Kanten die Ordnung respektieren ( ' ') Damit ergibt sich p( X,..., X ) p( X pa( X )) 1 i1 aus Produktregel + bedingten Unabhängigkeitsannahmen (Variablen entsprechend umsortieren) G Gegenbeispiel (kein Bayessches etz): X Y p( X, Y) px ( Y) p( Y X ) i i G 21
22 Bayessche etze: Unabhängigkeit Die Graphstruktur eines Bayesschen etzes impliziert (bedingte) Unabhängigkeiten zwischen ZV otation: Für Variablen X, Y, Z schreiben wir X Y Z px ( YZ, ) px ( Z) " X unabhängig von Y gegeben Z" Erweiterung auf disjunkte Mengen A, B, C von ZV C p( A B, C) p( A C) 22
23 Bayessche etze: Unabhängigkeit Welche Unabhängigkeiten der Form C werden durch die Graphstruktur modelliert? Im Prinzip auszurechnen durch Summen/Produktregel aus der gemeinsamen Verteilung Bei graphischen Modellen aber direkt aus der Graphstruktur ableitbar viel einfacher D-separation : Menge einfacher Regeln, nach denen sich alle Unabhängigkeiten ableiten lassen Sa awade/la ndwehr/sc cheffer, Maschinelles Lernen II 23
24 Bayessche etze: Unabhängigkeit D-separation: Welche Unabhängigkeiten der Form C werden durch die Graphstruktur modelliert? Wichtige Rolle spielen Pfade im Graphen, die ZV verbinden otation: X X X Y Y Y Z Z Z Pfad zwischen X und Zh hat eine konvergierende Verbindung bei Y ( head to head ) Pfad zwischen X und Z hat eine serielle Verbindung bei Y ( head to tail ) Pfad zwischen X und Z hat eine divergierende Verbindung bei Y ( tail-to-tail ) 24
25 Divergierende Verbindungen B E A R Betrachte Pfad A E R. Gilt R? Gemeinsame Verteilung: pbear (,,,, ) p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) B= Einbruch = achbar ruft an E= Erdbeben R= Radio Bericht A= Alarm Al 25
26 Divergierende Verbindungen B A E R Betrachte Pfad A E R. Gilt R? Gemeinsame Verteilung: pbear (,,,, ) p ( B ) p ( E ) p ( A E, B ) p ( A ) p ( R E ) B= Einbruch = achbar ruft an E= Erdbeben R= Radio Bericht A= Alarm Al ein, par ( ) pa ( ) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: RadioReport wahrscheinlich Erdbeben wahrscheinlich Alarm pa ( 1 R1) pa ( 1 R0) ZV R beeinflusst ZV A über die divergierende Verbindung R E A 26
27 Divergierende Verbindungen B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) Betrachte Pfad A E R. Gilt R E? beobachteter Knoten 27
28 Divergierende Verbindungen B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) Betrachte Pfad A E R. Gilt R E? beobachteter Knoten Ja, pare (, ) pae ( ) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: Wenn wir schon wissen, dass ein Erdbeben eingetreten ist, wird die Wahrscheinlichkeit für Alarm nicht höher/niedriger durch RadioReport Der divergierende i d Pfad R E Awird ddurch hbeobachtung von E blockiert 28
29 Serielle Verbindungen B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) Betrachte Pfad A B. Gilt? 29
30 Serielle Verbindungen B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) Betrachte Pfad A B. Gilt? ein, pb ( ) pb ( ) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: eighborcalls wahrscheinlich Alarm wahrscheinlich Burglary pb ( 1 1) pb ( 1 0) ZVb beeinflusst ifl ZVBüb über den seriellen ill Pfad A B 30
31 Serielle Verbindungen B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) beobachteter Knoten Betrachte Pfad A B. Gilt A? 31
32 Serielle Verbindungen B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) beobachteter Knoten Betrachte Pfad A B. Gilt A? Ja, pb (, A) pb ( A) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: Wenn wir schon wissen, dass der Alarm ausgelöst wurde, sinkt/steigt die Wahrscheinlichkeit für Einbruch nicht dadurch, dass achbar anruft Der serielle Pfad A B wird ddurch hbeobachtung von A blockiert. 32
33 Konvergierende Verbindung B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) Betrachte Pfad B A E. Gilt? 33
34 Konvergierende Verbindung B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) Ja, pb ( E) pb ( ) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: Einbrüche treten nicht häufiger/seltener auf an Tagen mit Erdbeben Betrachte Pfad B A E. Gilt? Der konvergierende Pfad B AE ist blockiert wenn Anicht beobachtet ist Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 34
35 Konvergierende Verbindung B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) beobachteter Knoten A Betrachte Pfad B A E. Gilt? 35
36 Konvergierende Verbindung B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) beobachteter Knoten A ein, pb ( EA, ) pb ( A) [Ausrechnen mit gemeinsamer Verteilung] Betrachte Pfad B A E. Gilt? Intuitiv: Alarm wurde ausgelöst. Falls wir ein Erdbeben beobachten, erklärt das den Alarm, Wahrscheinlichkeit für Einbruch sinkt ("explaining away"). Der konvergierende Pfad B A E wird freigegeben durch hbeobachtung von A 36
37 Konvergierende Verbindung B E Gemeinsame Verteilung: pbear (,,,, ) A R p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) beobachteter Knoten ein, pb ( A, ) pb ( A) [Ausrechnen mit gemeinsamer Verteilung] Betrachte Pfad B A E. Gilt? Intuitiv: eighborcalls indirekte Beobachtung von Alarm. Erdbebenbeobachtung erklärt den Alarm, Wahrscheinlichkeit für Einbruch sinkt ("explaining away"). Der konvergierende Pfad B A E wird freigegeben durch Beobachtung von 37
38 Zusammenfassung Pfade B A E R Gemeinsame Verteilung: pbear (,,,, ) p( BpEpAEBp ) ( ) (, ) ( ApRE ) ( ) Zusammenfassung: ein Pfad -X-Y-Z- ist Blockiert bei Y, wenn Divergierende Verbindung, und Y beobachtet, oder Serielle Verbindung, und Y beobachtet, oder Konvergierende Verbindung, und weder Y noch einer seiner achfahren Y Descendants(Y) beobachtet Descendants(Y)={Y es gibt gerichteten Pfad von Y zu Y } Sonst ist der Pfad frei bei Y 38
39 D-Separation: Blockierte Pfade Seien X,X ZV, C eine beobachtete Menge von ZV, X,X C Ein ungerichteter Pfad X X 1 X n X zwischen X und X ist blockiert gegeben C gdw es einen Knoten X i gibt so dass Pfad bei X i blockiert ist gegeben C D-Separation basiert auf blockierten Pfaden: Seien A,B,C, disjunkte Mengen von ZV. Definition: A und B sind d-separiert durch C gdw jeder Pfad von einem Knoten X A zu einem Knoten Y B blockiert ist gegeben C. Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 39
40 D-Separation: Korrektheit Gegeben ein Bayessches etz über {X 1,,X } mit Graphstruktur G. Das Bayessche etz modelliert eine Verteilung durch 1 i1 p( X,..., X ) p( X pa( X )) abhängig von den bedingten Verteilungen p( Xn pa( Xn)). Theorem (Korrektheit, Vollständigkeit d-separation) i Falls A,B d-separiert gegeben C in G, dann pabc (, ) p ( AC ) Es gibt keine anderen Unabhängigkeiten, die für jede Wahl der bedingten Verteilungen p( X pa( X )) gelten. i i i 40
41 D-Separation: Beispiel C A F D B G E H Ein Pfad -X-Y-Z-X Y Z ist Blockiert bei Y, wenn Gilt B H E? Gilt A H F? Gilt C? Divergierende Verbindung, und Y beobachtet, oder Serielle Verbindung, und Y beobachtet, oder Konvergierende Verbindung, und weder Y noch einer seiner achfahren Y Descendants(Y) beobachtet Sonst ist der Pfad frei bei Y 41
42 D-Separation: Beispiel C A F D B G E H Ein Pfad -X-Y-Z-X Y Z ist Blockiert bei Y, wenn Gilt B H E? Ja Gilt A H F? ein: ADBEH Gilt C? ein: CFDBE Divergierende Verbindung, und Y beobachtet, oder Serielle Verbindung, und Y beobachtet, oder Konvergierende Verbindung, und weder Y noch einer seiner achfahren Y Descendants(Y) beobachtet Sonst ist der Pfad frei bei Y 42
43 Bayessche etze: Kausalität Oft werden Bayessche etze so konstruiert, dass gerichtete Kanten kausalen Einflüssen entsprechen G E A Erdbeben lösen die Alarmanlage aus Äquivalentes Modell G Definition: : E A die Alarmanlage löst Erdbeben aus I(G) ={ ( A C) : A und B sind d-separiert gegeben C in G} Alle Unabhängigkeitsannahmen, die durch G kodiert werden IG ( ) IG ( ') Keine statistischen Gründe, eines der Modelle vorzuziehen Kann nicht aufgrund von Daten zwischen Modellen unterscheiden Aber kausale Modelle oft besser verständlich 43
44 etze Unterschiedlicher Komplexität Komplexität: bestimmt durch Menge der Kanten im Graph Beeinflusst die Anzahl der Parameter im Modell. Für binäre ZV gilt: Anzahl Parameter in O(*2 K ), K max i pa( X i) Hinzufügen von Kanten: Familie der darstellbare Verteilungen wird grösser, I(G) wird kleiner Extremfälle: Graph ohne Kanten, (ungerichtet) vollständig verbundener Graph Parameter B E B E A R 2-1 Parameter IG ( ) {( A C): ABC,, disj. Mengen von ZV} IG ( ) A R 44
45 Überblick Gerichtete Graphische Modelle: Bayessche etze Graphische Modelle im Maschinellen Lernen Inferenz in Graphischen Modellen Ungerichtete Graphische Modelle: Markov etze 45
46 Erinnerung: Lernproblem Erinnerung: Lernproblem Trainingsdaten L ( x, y 1 1 ),...,( x, y Matrixschreibweise ib i X ) x i m Merkmalsvektoren yi {0,1} binäre Klassenlabel y reelles Label Merkmalsvektoren Zugehörige Klassenlabels x11 x1 y1 x1... x y... x 1m xm y Ziel: Vorhersage des Klassenlabels für Testinstanz x x y i 46
47 Erinnerung: Lernen Annahme: gemeinsame Verteilung p(x,y) (unbekannt) Trainingsdaten ( xi, yi) ~ p( x, y) i.i.d. Testinstanzen ( x, y) ~ p( x, y) Wir betrachten probabilistische Modelle p( y x, ) [diskriminativ] p( x, y ) [generativ] A-priori Verteilung über Modelle p ( ) (bekannt) Vorhersageproblem: MAP Lösung * arg max p( L) y* arg max y p( y x, *) Vorhersageproblem: Bayes Lösung y* arg max y p( y x, L) arg max y p( y x, ) p( L) d 47
48 Erinnerung: Parameterschätzung Münzwurf Erinnerung: Münzwurf Einzelner Münzwurf Bernouilli-verteilt mit Parameter μ 1 X X X ~Bern( X ) (1 ) px ( 1 ) unbekannter Parameter Parameterschätzproblem: Wir haben unabhängige Münzwürfe gesehen, als Ausprägung L={x 1,, x } der ZV X 1,, X Der echte Parameter μ ist unbekannt, wir wollen eine Schätzung ˆ bzw. eine posterior-verteilung p( L) Bayesscher Ansatz: Posterior Prior x Likelihood p( L) p( L ) p( ) posterior likelihood prior 48
49 Erinnerung: Parameterschätzung Münzwurf Prior: Beta-Verteilung über Münzparameter μ p( ) Beta( k z k z k z k (1 k z 1 1 Likelihood unabhängige Münzwürfe: PX ( 1,..., X ) px ( n ) n1 Ber n( X n ) n1 n1 X n (1 ) 1 X z n i.i.d. Beta(
50 Erinnerung: Parameterschätzung Münzwurf Zufallsvariablen in Münzwurfszenario sind X X Gemeinsame Verteilung von Daten und Parameter (gegeben Hyperparameter, ): Prior x Likelihood p ( 1,...,, ) ( ( ) k X X z p p X k z i Darstellung als graphisches Modell: X1 X 2 X 3 k X z i 1 Bernoulli 1,...,, pa( ) pa( X ) { } i Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 50
51 Schätzung eines Münzparameters als Graphisches h Modell Unabhängige Münzwürfe: Darstellung als graphisches Modell D-separation X X 1 2 X 3 X Gilt,...,? X X1 X 1 51
52 Schätzung eines Münzparameters als Graphisches h Modell Unabhängige Münzwürfe: Darstellung als graphisches Modell D-separation X X 1 2 X 3 X Gilt,...,? X X1 X 1 ein, Pfad durch μ ist nicht blockiert. Intuitiv: X X... X 1 Wahrscheinlich 0.5 Wahrscheinlich X Der versteckte Parameter μ koppelt ZV X 1,, X. Aber es gilt X X,..., X
53 Parameterschätzung als Inferenzproblem MAP-Parameterschätzung Parameterschätzung Münzwurf arg max p ( x,..., x ) Inferenzproblem: kz 1 p, ( ) X1 2 k z px ( ) px ( ) X X X Evidenz auf den Knoten X 1,, X 3 Wahrscheinlichster Zustand des Knotens μ gegeben X 1,, X 53
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit
MehrInstitut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle: Inferenz Wir haben eine Domäne durch gemeinsame
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Graphsche Modelle els Landwehr Zusammenfassung Pfade Zusammenfassung: en Pfad --Y-Z- st B A E Blockert be Y, wenn Dvergerende Verbndung,
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,
MehrBayessche Lineare Regression
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.
MehrMathematische Grundlagen (Bayes sches Lernen)
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Mathematische Grundlagen (Bayes sches Lernen) Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick Anwendungsbeispiel 1: Diagnostik
MehrBayes sche und probabilistische Netze
Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung
MehrÜberblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression
Überblic Grundonepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münwürfe Lineare Regression Logistische Regression Bayes sche Vorhersage Münwürfe Lineare Regression 14 Modell für Münwürfe
MehrElementare Wahrscheinlichkeitslehre
Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrElektrotechnik und Informationstechnik
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrÜberblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression
Überblick Grundkonzepte des Baes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression Baes sche Vorhersage Münzwürfe Lineare Regression 57 Erinnerung:
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/Niels Landwehr/Tobias Scheffer Überblick Problemstellung/Motivation Deterministischer i ti Ansatz:
MehrZusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen
Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:
MehrMethoden der KI in der Biomedizin Bayes Netze
Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze
MehrSyntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel
MehrKapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
MehrUnabhängigkeit von Zufallsvariablen
Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1
MehrBayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
MehrElektrotechnik und Informationstechnik
Elektrotechnik und Informationstechnik Institut für utomatisierungstechnik, Professur Prozessleittechnik Bayessche Netze VL Prozessinformationsverarbeitung WS 2009/2010 Problemstellung Wie kann Wissen
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Christoph Sawade Heute: Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz:
MehrSemester-Fahrplan 1 / 17
Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD
MehrEinleitung Wahl der a priori Verteilung Bezug zur Maximum Likelihood Methode. Bayessche Statistik. Christian Meisel
19.07.2007 Gliederung 1 2 3 Wahrscheinlichkeitsbegriff In Bayesscher Statistik wird Wahrscheinlichkeit p im Sinne von unvollständigem Wissen über ein Ereignis verwendet. Bei gleichem Vorwissen über unterschiedliche
MehrKombinatorik und Wahrscheinlichkeitsrechnung
Kombinatorik und Wahrscheinlichkeitsrechnung Übersicht: 1 Teil 1: Elementare Kombinatorik 2 Teil 2: Grundlagen der Wahrscheinlichkeitsrechnung Kombinatorik und Wahrscheinlichkeitsrechnung E. Hüllermeier
MehrTeil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung
Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()
MehrWahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung
Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2018 Anwendung der Bayesschen Theorie in ML Bayessche Netzwerke Bayessche Netze werden in modernen Expertensystemen benutzt. Das Wissen wird über
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
Mehri =1 i =2 i =3 x i y i 4 0 1
Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x
MehrBayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind
Bayessche Netze Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Einleitung Sicheres vs. Unsicheres Wissen Kausale Netzwerke Abhängigkeit Verbindungsarten Exkurs:
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung. Christoph Sawade/Niels Landwehr Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Tobias Scheffer Überblick Wiederholung: Konfidenzintervalle Statistische Tests
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte
MehrÜberblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator
Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrBayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)
Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief
MehrBayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur
MehrSprechstunde zur Klausurvorbereitung
htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)
MehrWahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de
Mehr1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...
Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Zusammenfassung. Niels Landwehr, Uwe Dick, Matthias Bussas
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Zusammenfassung Niels Landwehr, Uwe Dick, Matthias Bussas Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen
MehrLatente Dirichlet-Allokation
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert
MehrWahrscheinlichkeitstheorie 2
Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen II: Zusammenfassung
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen II: Zusammenfassung Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrÜbungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression
Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen
MehrProbabilistische Graphische Modelle
Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007 Probabilistische Graphische Modelle
MehrVorlesung 7a. Unabhängigkeit
Vorlesung 7a Unabhängigkeit 1 Wir erinnern an die Definition der Unabhängigkeit von zwei Zufallsvariablen (Buch S. 61): Zufallsvariable X 1,X 2 heißen (stochastisch) unabhängig, falls für alle Ereignisse
MehrStochastik Wiederholung von Teil 1
Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,
MehrGenerative Modelle. Generative Modelle 1 / 49
Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrGrundlagen der Objektmodellierung
Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung Grundlagen der Wahrscheinlichkeitsrechnung
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr
Universität Potsdam Institut für Informatik ehrstuhl Maschinelles ernen Modellevaluierung Niels andwehr ernen und Vorhersage Klassifikation, Regression: ernproblem Eingabe: Trainingsdaten Ausgabe: Modell
MehrÜbersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches
MehrVorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation
MehrEvidenzpropagation in Bayes-Netzen und Markov-Netzen
Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrStatistische Sprachmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch
MehrGenerative Modelle. Generative Modelle 1 / 49
Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
MehrÜbung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit
Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung
MehrDiskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier
Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrProbabilistische Graphische Modelle
Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007 Probabilistische Graphische Modelle
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Graphsche Modelle els Landwehr Überblck Graphsche Modelle: Syntax und Semantk Graphsche Modelle m Maschnellen Lernen Inferenz n Graphschen
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrKapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit
Teil I: Wahrscheinlichkeitstheorie 1 Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 3: Bedingte Wahrscheinlichkeit Kapitel 4: Zufallsvariablen Kapitel 5: Erwartungswerte, Varianz, Kovarianz
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrVorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine diskrete reellwertige Zufallsvariable, d.h. eine ZV e mit Wertebereich R (oder einer Teilmenge davon), sodass eine
MehrStochastik für Ingenieure
Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:
MehrDie Probabilistische Methode
Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.
MehrBeweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass
Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck
Mehr1. Grundbegri e der Stochastik
. Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Hypothesentests. 5 Regression
0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests 5 Regression Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen
MehrEinführung in die diskreten Bayes- und Kredal-Netze
Einführung in die diskreten Bayes- und Kredal-Netze Master-Seminar im Wintersemester 2015/16 Patrick Schwaferts Institut für Statistik, LMU 16. Januar 2016 Schwaferts (Institut für Statistik, LMU) Bayes-
MehrLineare Klassifikatoren
Universität Potsdam Institut für Informatik Lehrstuhl Lineare Klassifikatoren Christoph Sawade, Blaine Nelson, Tobias Scheffer Inhalt Klassifikationsproblem Bayes sche Klassenentscheidung Lineare Klassifikator,
MehrKonzepte der Statistik für die Messdatenanalyse
Konzepte der Statistik für die Messdatenanalyse Modelle Beispiel: optische Abbildung im Fernfeld (Fraunhoferbeugung) indirekte Messgröße: Abstand der beiden Spalte D Modell inverses Problem direkte Messgrößen:
MehrMathematische Grundlagen
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Mathematische Grundlagen Tobias Scheffer Peter Haider Paul Prasse Bayes sches Lernen: Anwendungsbeispiel Neuer Impfstoff wurde
MehrDiskrete Verteilungen
Diskrete Verteilungen Bernoulli-Verteilung: X Bernoulli(p) Symbol für «verteilt wie» «Eperiment» mit zwei Ausgängen: «Erfolg» ( 1) oder «Misserfolg» ( ). Die Erfolgswahrscheinlichkeit sei p. Wertebereich
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrStatistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie
Bedingte W keit, Unabhängigkeit, gemeinsame Verteilung 1/44 Statistik für Informatiker, SS 2018 1 Grundlagen aus der Wahrscheinlichkeitstheorie 1.3 Bedingte Wahrscheinlichkeiten, Unabhängigkeit, gemeinsame
Mehr