Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Größe: px
Ab Seite anzeigen:

Download "Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer"

Transkript

1 Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer

2 Graphische Modelle: Inferenz Wir haben eine Domäne durch gemeinsame Verteilung aller Zufallsgrössen modelliert Inferenz: Wahrscheinlichkeit dafür, dass Variablen bestimmte Werte annehmen, gegeben Informationen über andere Variablen? Sa awade/la ndwehr/sc cheffer, Maschinelles Lernen II 2

3 Überblick Gerichtete Graphische Modelle: Bayessche etze Graphische Modelle im Maschinellen Lernen Inferenz in Graphischen Modellen Eakte Inferenz: Message-Passing Approimative Inferenz: Sampling 3

4 Eakte Inferenz: Message-Passing Message Passing Algorithmus auf linearer Kette p ( ii, ( i, i i ( ( 2 a ( ( Für k -,..., a: ( (, ( ( k kk, k k k k Für k 2,...,, a: ( (, ( k k, k k k k k a ( a ( a p( a ( a ( a Randverteilung über Anfragevariable a : Produkt der achrichten a ( 4

5 Message-Passing mit Evidenz Bisher Randverteilung p ( ohne Evidenz bestimmt p a Was ist wenn wir Evidenz haben? otation:{,..., } {,,...,,,..., } a i i m j jk Bedingte Verteilung Anfrage- Variable p (,., a i i Z einfach zu berechnen (ormalisierer univariate Verteilung m Evidenz-Variablen p (,,..., a i i m p (,..., i restliche Variablen i m p ( a, i,..., i m Z =... p ( j,...,,,,..., j k a i im Z j j k aussummieren fest 5

6 Message-Passing mit Evidenz Ziel: p (,,..., i? a i im Leichte Modifikation des Message-Passing Algorithmus Wir berechnen wie bisher achrichten (,..., ( (,..., ( 2 a a Falls k+ unbeobachtet ist, summieren wir diesen Knoten aus k { i,. }.., im ( k k, k( k, k ( k k Falls k+ beobachtet ist, verwenden wir nur den entsprechenden Summanden k beobachteter Wert (Evidenz k { i,..., i } ( (, ( m k k, k k k k 6

7 Message-Passing mit Evidenz Ebenso für ( ( k k Jetzt gilt k k, k( k, k ( k : k { i,..., im} (Knoten nicht beobachtet (, ( : k { i,..., i } (Knoten beobachtet k, k k k k m p (,,..., ( ( a a a i i m 2 Laufzeit für Inferenz mit Evidenz immer noch OK ( 7

8 Beispiel: Markov Modelle Beispiel für Inferenz auf linearer Kette: Markov Modelle Markov Modelle: e einfache e Modelle e für dynamische probabilistische Prozesse Prozess, der verschiede Zustände annehmen kann Zufallsvariable X t repräsentiert den Zustand zur Zeit t Diskrete Zeitpunkte t=,,t Beispiel: Wetter Zufallsvariable X t = Wetter am Tag t Zwei mögliche Zustände, Regen und Sonne Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 8

9 Beispiel: Markov Modelle Modellierung: Prozess wird in einem zufällig gewählten Zustand gestartet: Verteilung über Startzustände p( In jedem Schritt geht der Prozess in einen neuen Zustand über, abhängig nur vom gegenwärtigen Zustand (vereinfachende Annahme! Verteilung über nächsten Zustand p( Unabhängigkeitsannahme: t : p(,..., p ( "Markov" Eigensch af t t t t t Übergangswahrscheinlichkeiten hängen nicht von t ab: t: p( p( "Homogener" Prozess t t t t t t 9

10 Beispiel: Markov Modelle Gemeinsame Wahrscheinlichkeit über alle Zustände T T t t t p (,..., p (,..., T p( p( t t t2 Darstellung als graphisches Modell: Zukunft ist unabhängig von der Vergangenheit gegeben Gegenwart Sa awade/la ndwehr/sc cheffer, Maschinelles Lernen II 0

11 Beispiel: Markov Modelle Gemeinsame Wahrscheinlichkeit über alle Zustände T T t t t p (,..., p (,..., T p( p( t t t2 Darstellung als graphisches Modell: Zukunft ist unabhängig von der Vergangenheit gegeben Gegenwart

12 Beispiel: Markov Modelle Beispiel Markov Modell: Zustand t = Wetter am Tag t Zwei mögliche Zustände, Regen und Sonne Verteilungen p ( s 0.5 p ( t s t s 0.8 p( r 0. 5 p ( t r t s 0.2 p ( t s t r 0.4 p ( r r t t Wahrscheinlichkeit, dass morgen die Sonne scheint, gegeben dass es heute regnet. 2

13 Beispiel: Markov Modelle Markov Modelle entsprechen probabilistischen endlichen Automaten Beispiel Inferenzproblem: Wie ist das Wetter übermorgen, gegeben dass es heute regnet? p ( r? Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 3

14 Beispiel: Markov Modelle Berechnung mit Message-Passing Algorithmus 2 3 Zu berechnende achrichten: (, ( 2, ( 3; 3 ( k k ( k, k( k, k ( k : k { i,..., i m} (Knoten nicht beobachtet (, ( : k { i,..., i } (Knoten beobachtet k, k k k k m Initialisierung: ( beob. Knoten: ( 2 p ( p ( 2 ( ( s ( r unbeob. Knoten: 2 ( 3 p( 3 2 ( 2 2{,} s r ( s ( r 3 3 4

15 Beispiel: Markov Modelle Berechnung mit Message-Passing Algorithmus 2 3 achrichten: Initialisierung: ( 3 (, (, ( ; ( p ( 3 r ( 3 ( 3 Z Z 0.22 Z 0.22 Z p ( s r p ( r r

16 Inferenz in Allgemeinen Graphen Bisher nur Spezialfall: Inferenz auf linearer Kette Die Grundidee des Message-Passing funktioniert auch auf allgemeineren Graphen Erweiterung: Eakte Inferenz auf Polytrees Polytree: Gerichteter Graph, in dem es zwischen zwei Knoten immer genau einen ungerichteten t Pfad gibt Etwas allgemeiner als gerichteter Baum Gerichteter Baum Polytree 6

17 Inferenz in Allgemeinen Graphen Grundidee Message-Passing auf Polytrees: Umwandlung in Faktor-Graph (ungerichteter Baum Ursprünglicher Graph 4 5 Gemeinsame Verteilung p (, 2, 3, 4, 5 p ( p ( 2 p ( 3, 2 p ( 4 p ( 5 3, Faktor Faktor-Graph Faktor-Knoten - Für jeden Faktor in der gemeinsamen Verteilung gibt es einen Faktor-Knoten - Ungerichtete Kanten von den Faktor-Knoten zu den im Faktor auftauchenden Variablen 7

18 Inferenz in Allgemeinen Graphen (Skizze Blätter a Betrachten Anfragevariable als Wurzel des Baumes achrichten von den Blättern zur Wurzel schicken (immer eindeutiger Pfad, weil Baum a a Spezialfall lineare Kette Es gibt zwei Typen von achrichten: Faktor-achrichten und Variablen-achrichten Falls der ursprüngliche Graph ein Polytree war, ist der Faktor- Graph ein ungerichteter Baum (dh zykelfrei. Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 8

19 Inferenz in Allgemeinen Graphen (Skizze Blätter a achrichten werden verschmolzen, dabei müssen wir über mehrere Variablen summieren Grundidee dieselbe wie bei Inferenz auf der linearen Kette: geschicktes Aussummieren Laufzeit abhängig von Graphstruktur, r eponentiell im worstcase Details im Bishop-Tetbuch ( Sum-Product Algorithmus a Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 9

20 Inferenz in Allgemeinen Graphen Inferenz in Graphen, die keine Polytrees sind? Approimativer Ansatz: Iteratives Message-Passing Schema, wegen Zyklen im Graph nicht eakt p( p( p( p( p(, Alternative für eakte Inferenz in allgemeinen Graphen: Loopy Belief Propagation Graph in einen äquivalenten azyklischen Graphen umwandeln Junction Tree Algorithmus, (i.a. eponentielle Laufzeit 20

21 Überblick Gerichtete Graphische Modelle: Bayessche etze Graphische Modelle im Maschinellen Lernen Inferenz in Graphischen Modellen Eakte Inferenz: Message-Passing Approimative Inferenz: Sampling 2

22 Approimative Inferenz Eakte Inferenz P-hart: In der Prais spielen approimative Inferenzverfahren wichtige Rolle Wir betrachten Sampling-basierte Verfahren Relativ einfach zu verstehen/implementieren Anytime-Algorithmen (je länger die Laufzeit, desto genauer Sa awade/la ndwehr/sc cheffer, Maschinelles Lernen II 22

23 Inferenz: Sampling-basiert Grundidee Sampling: p( z Wir interessieren uns für eine Verteilung, ist eine Menge von Zufallsvariablen (z.b. bedingte Verteilung über Anfragevariablen in graphischem h Modell Es ist schwierig, p( z direkt auszurechnen Stattdessen ziehen wir Samples Samples (Stichproben z ~ p( z i.i.d., k,..., K, z ( k jedes Sample ist eine vollständige Belegung der Zufallsvariablen in z ( (2 ( K Die Samples z, z,..., z approimieren die Verteilung p( z z Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 23

24 Inferenz: Sampling-basiert Beispiel: Anteil Samples mit Wert z Eindimensionale Verteilung, z {} z Diskrete Variable mit Zuständen {0,,6}: Anzahl Kopf bei 6 Münzwürfen Sample-Histogramm z K Echte Verteilung (Binomial 24

25 Sampling-Inferenz für Graphische Modelle Gegeben graphisches Modell, repräsentiert Verteilung durch p (,..., p( pa( i i i Etwas allgemeinere Inferenz-Problemstellung: Menge von Anfragevariablen p( I D? I D {,..., } Menge von Anfragevariablen {,...,, } Menge von Evidenzvariablen Wir betrachten zunächst den Fall ohne Evidenz: } p(? {,..., } {,..., } I I i i m 25

26 Sampling-Inferenz für Graphische Modelle Ziel: Samples aus der Randverteilung p ( p (,..., I ~ p( I k,..., K Es genügt, Samples aus der Gesamtverteilung zu ziehen: ( k ( k ( k ( ( k p I i i m p ( p...,..., ~ (,..., k,..., K (,, Samples aus der Randverteilung p (,..., i erhalten wir i m einfach durch Projektion der Samples auf die Menge {,..., } i i m. ( k ( k (,...,, ~ p (,...,, k,..., K ( Projektion ( (,..., ~ p (,..., k,..., K ( k k I i i i m i m 26

27 Inferenz: Ancestral Sampling Wie ziehen wir Samples ~ p( (? Einfach bei gerichteten graphischen Modellen: e Ancestral Sampling utze Faktorisierung der gemeinsamen Verteilung ~ p( p (,..., n Annahme: n (sonst umbenennen p ( pa ( n n pa( {,..., n } Ziehen entlang der Kanten Ziehen entlang der Kanten

28 Inferenz: Ancestral Sampling ( k Wir ziehen ein Sample (,...,, indem wir ( nacheinander die einzelnen k ziehen ~ p (... ~ p ( pa ( ~ p( pa( Beispiel p ( k i Schon gezogene Werte B ~ ( ~ p( ~ p(, ~ p ( ~ p( ~ p( p (,., n p ( pa ( n 2 A E n R 28

29 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,...,, indem wir nacheinander die einzelnen ziehen ( k ~ p (... ~ p ( pa ( ~ p( pa( P(B= Beispiel 0. i Schon gezogene Werte p ~ ( ~ p( ( k ~ p(, ~ p ( ~ p( ~ p( p (,., B n p ( pa ( n 2 A E n R 29

30 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,...,, indem wir nacheinander die einzelnen ziehen ( k ~ p (... ~ p ( pa ( ~ p( pa( Beispiel P(E= 0.2 i Schon gezogene Werte p ~ ( ~ p( ( k ~ p(, ~ p ( ~ p( ~ p( p (,., B n p ( pa ( n 2 A E n R 30

31 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,...,, indem wir nacheinander die einzelnen ziehen ( k ~ p (... ~ p ( pa ( ~ p( pa( Beispiel i Schon gezogene Werte B E P(A= B,E p ~ ( ~ p( ( k ~ p(, ~ p ( ~ p( ~ p( p (,., B n p ( pa ( n 2 A E n R 3

32 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,...,, indem wir nacheinander die einzelnen ziehen ( k ~ p (... ~ p ( pa ( ~ p( pa( Beispiel i Schon gezogene Werte E P(R= E p ~ ( ~ p( ( k ~ p(, ~ p ( ~ p( ~ p( p (,., B n p ( pa ( n 2 A E n R 32

33 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,...,, indem wir nacheinander die einzelnen ziehen ( k ~ p (... ~ p ( pa ( ~ p( pa( Beispiel i Schon gezogene Werte A P(= A p 0 0. ( k ~ p( 2 2 ~ ( ~ p(, ~ p ( ~ p( ~ p( p (,., B n p ( pa ( n 2 A E n R 33

34 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,...,, indem wir nacheinander die einzelnen ziehen ( k ~ p (... ~ p ( pa ( ~ p( pa( Beispiel i Schon gezogene Werte p ~ ( ~ p( ( k ~ p(, ~ p ( ~ p( ~ p( p (,., n p ( pa ( n (,0,,0, n 34

35 Inferenz: Ancestral Sampling Beispiel für Schätzung der Randverteilungen aus Samples: ( (2 (3 (4 (5 (00 (,0,,0, B E (0,0,0,0,0 (0,,0,, (,,,, 0 (0,,,0, (0,0,0,0,0 Analyse Ancentral Sampling p ( p ( p ( 0.4 +Zi Zieht htdirekt aus der korrekten kt Verteilung + Effizient - Funktioniert nur ohne Evidenz 5 2 A R 35

36 Inferenz: Logic Sampling Wie erhalten wir Samples unter Evidenz? ( k ~ p( p(,...,,..., I I D i i m j j l Beobachtete Variablen Logic Sampling: Ancestral Sampling + Zurückweisung von Samples, die nicht mit der Beobachtung konsistent sind Ancestral Sampling: vollständige Samples (,..., ~ p ( ( ( ( Fallunterscheidung: (,..., (,..., [Sample konsistent mit Beobachtung]: akzeptiere ( k ( k j j j j l l l ( k ( k ( j,..., j ( j,..., j [Sample ìnkonsistent mit Beobachtung]: weise zurück l Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 36

37 Inferenz: Logic Sampling Die im Logic Sampling akzeptierten Samples repräsentieren die bedingte Verteilung gegeben Evidenz: Marginale Samples ( k ~ p( D ( k ~ p ( I wieder durch Projektion auf Anfragevariablen Problem: Oft werden fast alle Samples verworfen I D Wahrscheinlichkeit, Sample zu generieren, das mit D konsistent ist, sinkt meist eponentiell schnell mit Größe von D Entsprechend eponentielle Laufzeit, um ausreichende Menge von Samples zu erhalten In der Prais selten anwendbar D 37

38 Inferenz: MCMC Alternative Strategie zum Erzeugen von Samples: Markov Chain Monte Carlo ( MCMC Idee: Schwierig, direkt Samples aus p( z zu ziehen Alternativstrategie: Konstruiere Folge von Samples (0 ( (2 (3 (4 (5 z z z z z z... zufällig initialisiert ( (0 ( t t z z update z durch mehrfache h probabilistische bili i Update-Schritte Shi Wenn Updates geeignet gewählt, gilt asymptotisch ( T z ~ p( z ungefähr, für sehr grosse T ZV: T-te Variablenbelegung Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 38

39 Markov-Ketten Folge der Zustände bildet Markov-Kette: (0 z z (0 ( (2 (3 (4 (5 z z z z z z... ( t ( z (2 z (0 ( T (0 ( t ( t (3 z heisst "Zustand" der Kette zum Zeitpunkt t p( z,..., z p( z p( z z t Dynamik beschrieben durch Transitionswahrscheinlichkeiten T( z, z p( z z Wahrscheinlichkeit Übergang z z ( t ( t ( t ( t ( t ( t euer Zustand Aktueller Zustand 39

40 Markov-Ketten Verteilung über Folgezustand berechnen aus Verteilung über aktuellem Zustand Folgezustand Aktueller Zustand p ( t ( t ( t ( t ( z p( z z p( z t z T z t ( t ( t ( t ( z, z p( z Stationäre Verteilung Eine Verteilung p ( z * über die Zustände der Kette heisst stationär, falls sie bei einem Schritt der Markov-Kette nicht verändert wird: p ( z T( z, z p ( z ( t ( t ( t ( t * * ( t z 40

41 Markov-Ketten: Stationäre Verteilung Falls die Kette eine stationäre Verteilung erreicht, dh. ( T ( T p( z p* ( z für ein geeignetes T, so bleibt diese ( ( Verteilung erhalten, dh. ( T *( T p z p z für alle. Kette ist konvergiert zur Verteilung p Unter bestimmten Bedingungen g ( Ergodische Ketten konvergiert eine Markov-Kette für t gegen eine eindeutige stationäre Verteilung, diese heisst dann Gleichgewichtsverteilung p * 4

42 Inferenz: MCMC Gegeben Bayessches etz über ZV = {,, }, definiert Verteilung p( Markov Chain Monte Carlo Methoden Konstruiere aus dem Bayesschen etz eine Folge von Samples durch iterative probabilistische Updates (0 ( (2 (3 (4 (5... zufällig initialisiert iti i t ( (0 ( t t update dt ( t jeweils Belegung aller Knoten im etz Ziel: Updates so wählen, dass sich ergodische Markov-Kette mit Gleichgewichtsverteilung i h il p ( ergibt Einfachste Methode: lokales Ziehen einer Variable, gegeben Zustand der anderen Variablen ( Gibbs-Sampling Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 42

43 Inferenz: Gibbs Sampling Gibbs Sampling: Eine Version von MCMC Übergangswahrscheinlichkeiten bestimmt durch wiederholtes lokales Ziehen einer ZV, gegeben den Zustand aller anderen ZV Gegeben alter Zustand (,..., Ziehen des neuen Zustands ' ( ' ' : Beobachtete (alte Werte '~ p(,..., 2 '~ p( ',,..., p ,,..., '~ ( ', ',,... '~ p( ', 2',..., ' 43

44 Inferenz: Gibbs Sampling Einzelner Gibbs-Schritt einfach, bedingte Verteilung über eine Variable gegeben Evidenz auf allen anderen Variablen direkt auszurechnen: Beobachtete (alte Werte Berechnung von p( 2,..., : Für = berechne p p(, 2,..., Für = 0 berechne p p(, 2,..., p p (,..., p/ p 2 Satz: Falls p( n, 2,..., n, n,..., 0 für alle n und alle möglichen Zustände i, so ist die resultierende Markov- Kette ergodisch mit Gleichgewichtsverteilung p(. 44

45 Gibbs-Sampling mit Evidenz Bisher haben wir Inferenz ohne Evidenz betrachtet Wie erhalten wir Samples aus der bedingten Verteilung? ( T Ziel: ~ p( D ungefähr, für sehr grosse Leichte Modifikation der Gibbs-Sampling Methode: Gibbs-Sampling zieht immer eine Variable i neu, gegeben Zustand der anderen Variablen Mit Evidenz: ur die unbeobachteten Variablen werden jeweils neu gezogen, die beobachteten Variablen werden fest auf den beobachteten Wert gesetzt T Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 45

46 Inferenz: Gibbs Sampling Zusammenfassung Gibbs Sampling Algorithmus: (0 zufällige Initialisierung aller ZV, konsistent mit Evidenz D Für t,..., T: Gibbs-u pdate( ( t ( t, ( (2 (3 Die Samples,,... sind asymptotisch verteilt nach p( Gibbs Sampling in vielen praktischen Anwendungen brauchbar Einzelne Update-Schritte effizient Garantierte t Konvergenz (für t Erlaubt, Samples aus p( D zu ziehen, ohne dass Laufzeit eplodiert wenn Evidenzmenge groß (im Gegensatz zu Logic S li IISampling D Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen 46

47 Inferenz: Gibbs Sampling Gibbs-Sampling: Konvergenz Konvergenz der Markov-Kette garantiert für t.,,,... ( (2 (3 ist nur In der Prais: Burn-In Iterationen, bevor Samples ( verwendet werden (verwerfe Samples t für t T Burn in Es gibt auch Konvergenztests, um Anzahl der Burn-In Iterationen zu bestimmen Gibbs-Sampling: Abhängigkeit ( t ( t Einzelne aufeinander folgende Samples, abhängig Lösung: verwende Samples ( t ( t L ( t 2 L ( t 3 L,,,,... Samples dann weitestgehend unabhängig Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 47

48 Inferenz: Zusammenfassung Eakte Inferenz Message-Passing Algorithmen Eakte Inferenz auf Polytrees (mit Junction-Tree Erweiterung auf allgemeinen Graphen Laufzeit abhängig von Graphstruktur, eponentiell im worst-case Approimative Inferenz Sampling-Methoden: Approimation durch Menge von Samples, eakte Ergebnisse für t. Ancestral Sampling: einfach, schnell, keine Evidenz Logic Sampling: mit Evidenz, aber selten praktikabel MCMC/Gibbs-Sampling: Effizientes approimatives Ziehen von Samples unter Evidenz 48

49 Lernen Graphischer Modelle aus Daten? Graphische Modelle im maschinellen Lernen: Problemstellung ist meist Inferenzproblem w MAP Parameterschätzung Bayessche Vorhersage Auch möglich, die Verteilungen eines graphischen Modells aus Daten zu schätzen i p(,..., p( pa( i i p ( i pa ( i parametrisierte Verteilung (z.b. diskrete Tabelle Parameter können aus Daten geschätzt werden n y n y 49

50 Maimum-Likelihood Parameterlernen Parametrisierung mit Parametervektor p (,..., p ( pa (, i i i Beobachtete Daten: Belegungen der Zufallsvariablen,, Daten: i.i.d. Beispiele L {,..., m } B E A R

51 Maimum-Likelihood Parameterlernen Maimum-Likelihood-Ansatz arg ma pl ( * arg ma p(,..., m m j arg ma p( i.i.d. m j arg ma p ( pa (, Faktorisierung GM j i ji ji 5

52 Maimum-Likelihood Parameterlernen Lösung (diskrete Variablen: p ( ji pa ( ji, * Zustand Zustand pa( ji ji C (, pa ( ji ji C ( pa ( ji C (, pa ( Wie oft wurde der gemeinsame Zustand, pa ( beobachtet? ji ji ji ji C( pa( Wie oft wurde der gemeinsame Zustand pa( beobachtet? ji Daten: i.i.d. Beispiele L m {,..., } B E A R ji p ( A 0, * 3 2 p ( A, * 3 52

53 Maimum-Likelihood Parameterlernen Einfache Lösung nur möglich bei vollständig beobachteten Daten Modelle enthalten oft Variablen, die nicht beobachtbar sind Maimum-Likelihood-Schätzung dann mit dem EM Algorithmus ( Epectation-Maimization Maimization Später mehr! Sa awade/la ndwehr/sc cheffer, Maschinelle es Lernen II 53

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle Modellierung einer Domäne mit verschiedenen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/Niels Landwehr/Tobias Scheffer Überblick Problemstellung/Motivation Deterministischer i ti Ansatz:

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities) Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief

Mehr

Strukturelle SVM zum Graph-labelling

Strukturelle SVM zum Graph-labelling 23. Juni 2009 1 Was wir gerne hätten...... und der Weg dorthin Erinnerung: strukturelle SVM 2 Junction Tree Algorithmus Loopy Belief Propagation Gibbs Sampling 3 Umfang Qualität der Algorithmen Schlussfolgerungen

Mehr

Latente Dirichlet-Allokation

Latente Dirichlet-Allokation Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Christoph Sawade Heute: Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz:

Mehr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der

Mehr

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren

Mehr

Probabilistische Graphische Modelle

Probabilistische Graphische Modelle Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007 Übersicht über die Vorlesung Probabilistische

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Belief Propagation, Strukturlernen Nico Piatkowski und Uwe Ligges 29.06.2017 1 von 13 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Zusammenfassung. Niels Landwehr, Uwe Dick, Matthias Bussas

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Zusammenfassung. Niels Landwehr, Uwe Dick, Matthias Bussas Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Zusammenfassung Niels Landwehr, Uwe Dick, Matthias Bussas Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen II: Zusammenfassung

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen II: Zusammenfassung Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen II: Zusammenfassung Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil XIII Peter F. Stadler & Konstantin Klemm Bioinformatics Group, Dept. of Computer Science & Interdisciplinary Center for Bioinformatics, University of Leipzig

Mehr

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informati Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/iels Landwehr/Tobias Scheffer Überblic Problemstellung/Motivation Deterministischer Ansatz: K-Means

Mehr

Bayessche Lineare Regression

Bayessche Lineare Regression Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Statistische Sprachmodelle

Statistische Sprachmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014 idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme

Mehr

Methoden der Statistik Markov Chain Monte Carlo Methoden

Methoden der Statistik Markov Chain Monte Carlo Methoden Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

3.2 Maximum-Likelihood-Schätzung

3.2 Maximum-Likelihood-Schätzung 291 Die Maximum-Likelihood-Schätzung ist die populärste Methode zur Konstruktion von Punktschätzern bei rein parametrischen Problemstellungen. 292 3.2.1 Schätzkonzept Maximum-Likelihood-Prinzip: Finde

Mehr

Bayes sche und probabilistische Netze

Bayes sche und probabilistische Netze Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung

Mehr

Elementare Wahrscheinlichkeitslehre

Elementare Wahrscheinlichkeitslehre Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Markov Chain Monte Carlo Peter Frentrup Humboldt-Universität zu Berlin 16. Januar 2018 (Humboldt-Universität zu Berlin) Markov Chain Monte Carlo 16. Januar 2018 1 / 17 Übersicht 1

Mehr

UE Statistische Mustererkennung WS 2018 Angaben zur 2ten Aufgabengruppe

UE Statistische Mustererkennung WS 2018 Angaben zur 2ten Aufgabengruppe UE Statistische Mustererkennung WS 2018 Angaben zur 2ten Aufgabengruppe 1 Aufgabe UE-II.1 Generieren Sie je 1000 Stichproben (samples) mit Umfang 5/30/100/500 für die Normalverteilung N(µ, σ 2 ) = N(4,

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Datenstrukturen und Algorithmen (SS 2013)

Datenstrukturen und Algorithmen (SS 2013) Datenstrukturen und Algorithmen (SS 2013) Übungsblatt 10 Abgabe: Montag, 08.07.2013, 14:00 Uhr Die Übungen sollen in Gruppen von zwei bis drei Personen bearbeitet werden. Schreiben Sie die Namen jedes

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,

Mehr

Planung von Handlungen bei unsicherer Information

Planung von Handlungen bei unsicherer Information Planung von Handlungen bei unsicherer Information Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 20.01.2010 Dr.-Ing. Bernd Ludwig (FAU ER)

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 25 Überblick Überblick Metropolis-Algorithmus

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation

Mehr

Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n i =.

Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n i =. 2. Der Blum-Floyd-Pratt-Rivest-Tarjan Selektions-Algorithmus Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n

Mehr

Vorhersage von Protein-Funktionen. Patrick Pfeffer

Vorhersage von Protein-Funktionen. Patrick Pfeffer Vorhersage von Protein-Funktionen Patrick Pfeffer Überblick Motivation Einleitung Methode Markov Random Fields Der Gibbs Sampler Parameter-Schätzung Bayes sche Analyse Resultate Pfeffer 2 Motivation Es

Mehr

Reinforcement Learning

Reinforcement Learning Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr

Wahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung

Wahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2018 Anwendung der Bayesschen Theorie in ML Bayessche Netzwerke Bayessche Netze werden in modernen Expertensystemen benutzt. Das Wissen wird über

Mehr

Evidenzpropagation in Bayes-Netzen und Markov-Netzen

Evidenzpropagation in Bayes-Netzen und Markov-Netzen Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation

Mehr

Anwendungsbeispiel: MTO

Anwendungsbeispiel: MTO Anwendungsbeispiel MAXIMUM TREE ORIENTATION Universität Ulm 16. November 211 Inhaltsverzeichnis 1 Problemvorstellungen 2 Motivation 3 Integer Linear Programming 4 Tiefenbeschränkter Suchbaum 5 Konfliktgraph

Mehr

Reinforcement Learning

Reinforcement Learning Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 24. April 2019 [Letzte Aktualisierung: 24/04/2019,

Mehr

LDA-based Document Model for Adhoc-Retrieval

LDA-based Document Model for Adhoc-Retrieval Martin Luther Universität Halle-Wittenberg 30. März 2007 Inhaltsverzeichnis 1 2 plsi Clusterbasiertes Retrieval 3 Latent Dirichlet Allocation LDA-basiertes Retrieval Komplexität 4 Feineinstellung Parameter

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen 1 Algorithmen und Datenstrukturen Wintersemester 013/14 7. Vorlesung Zufall! Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Ein Experiment Ein Franke und ein Münchner gehen (unabhängig voneinander)

Mehr

Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression

Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression Überblick Grundkonzepte des Baes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression Baes sche Vorhersage Münzwürfe Lineare Regression 57 Erinnerung:

Mehr

DisMod-Repetitorium Tag 3

DisMod-Repetitorium Tag 3 DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Simulationsmethoden in der Bayes-Statistik

Simulationsmethoden in der Bayes-Statistik Simulationsmethoden in der Bayes-Statistik Hansruedi Künsch Seminar für Statistik, ETH Zürich 6. Juni 2012 Inhalt Warum Simulation? Modellspezifikation Markovketten Monte Carlo Simulation im Raum der Sprungfunktionen

Mehr

Effizienter Planaritätstest Vorlesung am

Effizienter Planaritätstest Vorlesung am Effizienter Planaritätstest Vorlesung am 23.04.2014 INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER Satz Gegebenen einen Graphen G = (V, E) mit n Kanten und m Knoten, kann in O(n + m) Zeit

Mehr

Seminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11.

Seminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen 11. Juni 2009 Gliederung 1 Problemstellung 2 Vektorprodukt Approximationen Samplesammlung 3 Schritte Lokalität und Nachrichtenkomplexität

Mehr

Maschinelle Sprachverarbeitung

Maschinelle Sprachverarbeitung Maschinelle Sprachverarbeitung Übung Aufgabe 5: Gen-Erkennung mit Maschinellen Lernen Mario Sänger Problemstellung Erkennung von Genen in Texten NEU: Beachtung von Multi-Token-Entitäten (B-/I-protein)

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013

Mehr

WISSENSCHAFTLICHE BEITRÄGE

WISSENSCHAFTLICHE BEITRÄGE WISSENSCHAFTLICHE BEITRÄGE AUS DEM TECTUM VERLAG Reihe Wirtschaftswissenschaften Band 39 Ralph Wirth Best-Worst Choice-Based Conjoint-Analyse Eine neue Variante der wahlbasierten Conjoint-Analyse Tectum

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 6 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 16. Mai 2018 [Letzte Aktualisierung: 18/05/2018,

Mehr

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden

Mehr

Kapitel VII. Einige spezielle stetige Verteilungen

Kapitel VII. Einige spezielle stetige Verteilungen Kapitel VII Einige spezielle stetige Verteilungen D. 7.. (Normalverteilung) Eine stetige Zufallsgröße X sei als normalverteilt bezeichnet, wenn sie folgende Wahrscheinlichkeitsdichte besitzt: µ f ( ; µ,

Mehr

Beweis: Färbe jede Kante zufällig und unabhängig mit Ws 1 2. Ereignis A i : i-te Clique K (i), i = 1,..., ( n K (i)

Beweis: Färbe jede Kante zufällig und unabhängig mit Ws 1 2. Ereignis A i : i-te Clique K (i), i = 1,..., ( n K (i) Die Probabilistische Methode Beobachtung: Besitzt ein Ereignis Ws > 0, so muss es existieren! Notation: Sei K n der komplette Graph mit n Knoten und ( n 2) Kanten. Satz Falls 2 (k 2) 1 > ( n k), existiert

Mehr

3.3 Optimale binäre Suchbäume

3.3 Optimale binäre Suchbäume 3.3 Optimale binäre Suchbäume Problem 3.3.1. Sei S eine Menge von Schlüsseln aus einem endlichen, linear geordneten Universum U, S = {a 1,,...,a n } U und S = n N. Wir wollen S in einem binären Suchbaum

Mehr

Beweis: Annahme: T (n) c n, wobei c = c(m) konstant ist. Die Annahme ist ok, falls T (n)

Beweis: Annahme: T (n) c n, wobei c = c(m) konstant ist. Die Annahme ist ok, falls T (n) Beweis: Annahme: T (n) c n, wobei c = c(m) konstant ist. Die Annahme ist ok, falls T (n) ( ( ) n 3 T + T m ) 4 n n 3 c + m 4 n c + n n + C m + cn; dies gilt, falls m 2 n m C m + n 2 (bis auf, ) c m + 3

Mehr

Algebraische Statistik ein junges Forschungsgebiet. Dipl.-Math. Marcus Weber

Algebraische Statistik ein junges Forschungsgebiet. Dipl.-Math. Marcus Weber Algebraische Statistik ein junges Forschungsgebiet Dipl.-Math. Marcus Weber Disputationsvortrag 15. Februar 2006 Gliederung 1. Statistische Modelle 2. Algebraische Interpretation statistischer Probleme

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen 1 Algorithmen und Datenstrukturen Wintersemester 2014/15 7. Vorlesung Zufall! Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I 2 Inhaltsverzeichnis Ein Zufallsexperiment InsertionSort: erwartete bzw.

Mehr

Hypothesenbewertungen: Übersicht

Hypothesenbewertungen: Übersicht Hypothesenbewertungen: Übersicht Wie kann man Fehler einer Hypothese abschätzen? Wie kann man einschätzen, ob ein Algorithmus besser ist als ein anderer? Trainingsfehler, wirklicher Fehler Kreuzvalidierung

Mehr

Projektgruppe. Text Labeling mit Sequenzmodellen

Projektgruppe. Text Labeling mit Sequenzmodellen Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:

Mehr

Algorithmische Bioinformatik 1

Algorithmische Bioinformatik 1 Algorithmische Bioinformatik 1 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Algorithmen

Mehr

Generative Modelle. Generative Modelle 1 / 49

Generative Modelle. Generative Modelle 1 / 49 Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die

Mehr

ALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke

ALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke ALMA II - ÜBERBLICK STOCHASTIK Jochen Garcke GRUNDBEGRIFFE Wahrscheinlichkeitsraum (Ω, A, P) beschreibt Zufallssituation Realisierung, Stichprobe, Elementarereignis ω Ω Ergebnisraum zufälliges Ereignis

Mehr

Frequentisten und Bayesianer. Volker Tresp

Frequentisten und Bayesianer. Volker Tresp Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben

Mehr

Graphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i])

Graphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i]) Seminar über Algorithmen 19. November 2013 Michael Brückner Graphische Spiele Wolfgang Mulzer, Yannik Stein 1 Einführung Da in Mehrspielerspielen mit einer hohen Anzahl n N an Spielern die Auszahlungsdarstellungen

Mehr

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 2 Melanie Kaspar, Prof. Dr. B. Grabowski 3 Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung

Mehr

Algorithmen für schwierige Probleme

Algorithmen für schwierige Probleme Algorithmen für schwierige Probleme Britta Dorn Wintersemester 2011/12 30. November 2011 Wiederholung Baumzerlegung G = (V, E) Eine Baumzerlegung von G ist ein Paar {X i i V T }, T, wobei T Baum mit Knotenmenge

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Grundlagen der Objektmodellierung

Grundlagen der Objektmodellierung Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung Grundlagen der Wahrscheinlichkeitsrechnung

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik Babeş-Bolyai Universität Fakultät für Mathematik und Informatik Oktober 2018 Im Alltag... Laut den meteorologischen Vorhersagen wird es morgen regnen. Ob ich riskiere und die Wette verlieren werde? Ich

Mehr

2 Perfekte Simulation 2.1 Kopplung von Markov-Ketten ( Coupling ) 2.2 Forward Coupling (FC) 2.3 Propp-Wilson: Coupling-From-The-Past (CFTP)

2 Perfekte Simulation 2.1 Kopplung von Markov-Ketten ( Coupling ) 2.2 Forward Coupling (FC) 2.3 Propp-Wilson: Coupling-From-The-Past (CFTP) 0 1 Perfekte Simulation 1 Wiederholung 2 Perfekte Simulation 2.1 Kopplung von Markov-Ketten ( Coupling ) 2.2 Forward Coupling (FC) 2.3 Propp-Wilson: Coupling-From-The-Past (CFTP) 3 Literatur 1 Wiederholung

Mehr

15 Grundlagen der Simulation

15 Grundlagen der Simulation 15 Grundlagen der Simulation 15.1 Einführung Komplexe Problemstellungen, die einer analytischen Behandlung nur sehr schwer oder gar nicht zugänglich sind Lösung von diskreten (oder analytischen) Optimierungsaufgaben,

Mehr

Algorithmen für schwierige Probleme

Algorithmen für schwierige Probleme Algorithmen für schwierige Probleme Britta Dorn Wintersemester 2011/12 24. November 2011 Farbkodierung Beispiel Longest Path Longest Path gegeben: G = (V, E) und k N. Frage: Gibt es einen einfachen Pfad

Mehr

5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS)

5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) 5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) Sommersemester 2009 Dr. Carsten Sinz, Universität Karlsruhe Datenstruktur BDD 2 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer:

Mehr