Probabilistische Graphische Modelle

Größe: px
Ab Seite anzeigen:

Download "Probabilistische Graphische Modelle"

Transkript

1 Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007

2 Übersicht über die Vorlesung Probabilistische Graphische Modelle 2

3 Probabilistische Graphische Modelle Approximative Inferenz Approximative Inferenz: Grundidee: Komplexität des Inferenzverfahrens von der Komplexität des Graphen entkoppeln. Stochastische Simulation Mean field Algorithmus Loopy Belief Propagation Variationsansatz

4 4.3.1 Approximative Inferenz stochastische Simulation Stochastische Simulation Grundidee: Berechnung von (bedingten) Wk. durch Auszählen von generierten Beispielen. Sampling (Generierung von Beispielen / Abtastung) einer Verteilung P(x 1,..., x N ): Problemzerlegung durch Conditioning: P(x 1 x 2,..., x N ) }{{} Berechnung P(x 2,..., x N ) }{{} Sampling Probabilistische Graphische Modelle 4

5 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Sampling-Schritt Gegeben ein bereitsgeneriertes Beispiel x 2,..., x N : Partitioniere Intervall [0, 1] entsprechend der Verteilung P(X 1 x 2,..., x n ) Ziehe gleichverteilte Zufallszahl im Intervall [0, 1]. Wähle X 1 = x 1 nach dem ausgewählten Intervall Bayes-Netze implizieren bereits eine natürliche Variablenreihenfolge (entlang der Eltern-Kind Relation)

6 4.3.1 Approximative Inferenz stochastische Simulation Problem: Sample-Reihenfolge: X 1,..., X 6 Inferenzaufgabe P(X 1, x 6 ) Beim bisherigen Sample-Ansatz müssen alle generierten Beispiele verworfen werden, die nicht X 6 = x 6 enthalten. Lösung: X 6 = x 6 von Anfang an festklemmen Generierung von Beispielen durch eine Markov-Kette Probabilistische Graphische Modelle 6

7 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Generierung einer Markov-Kette 1 Initialisierung:. Weise alle beobachteten Werte zu. Belege nicht-beobachtete Werte mit Zufallszahlen 2 Propagierung: Berechne für alle Variablen X i, i 1... N. Berechne P(X i x J ) = P(X i x Bi ) wobei J = {1... N} {i} und B i Markov-Blanket von X i.. Generiere neuen Wert X i = x i entsprechend der Verteilung P(X i x Bi ). Falls X i Abfragevariable, erhöhe Count für x i. Wiederhole Schritt (2) bis max. Iterationen erreicht sind.

8 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Der Algorithmus generiert eine Markov-Kette über Belegzustände Propagierung in der Markov-Kette benötigt eine Burn-In-Phase (ca. 5%). Feller Theorem: Falls die Wahrscheinlichkeit von einem beliebigen Zustand i in einen beliebigen Zustand j in einer endlichen Anzahl von Schritten überzugehen positiv ist, nähert sich die Wk. für einen Belegzustand einem Grenzwert (Stationaritätsbed.) P(j) = i P(i) P(j i)

9 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Sequential Importance Sampling (SIS) Implementiert einen Bayesian Filter durch Monte-Carlo-Simulation Wird angewendet falls P(x t z {1..t} ) nicht normalverteilt ist (sonst (Extended) Kalman Filter) Technik ist auch bekannt als CONDENSATION (conditional density propagation), particle filtering, survival of the fittest, etc.

10 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Kalman-Filter [Isard & Blake, 1998]

11 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Particle-Filter [Isard & Blake, 1998]

12 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Importance Sampling Grundidee: Repräsentation der Posterior-Dichte durch eine Menge von Samples mit assoziierten Gewichten {x i {0..t}, w i t } Ns i=1. N s P(x {0..t} z {0..t} ) wt i δ(x {0..t} x{0..t} i ); i=1 wt i = 1. i Schätzungen der Zielgrößen werden auf der Basis der Samples und Gewichte bestimmt. Aufgrund der assoziierten Gewichte werden insgesamt weniger Samples als bei Monte Carlo benötigt.

13 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Importance Sampling (Fortsetzung) Die Wahl der Gewichte basiert auf dem Prinzip des importance samplings, wt i P(x {0..t} i z {1..t}) q(x{0..t} i z {1..t}), wobei P(x) bis auf einen Proportionalitätsfaktor auswertbar ist, jedoch keine Samples generiert werden können. x i q(x), i = 1..N s (importance density) ein Vorschlag für die Dichte ist, aus der einfach Samples generiert werden können.

14 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Importance Sampling [Isard & Blake, 1998]

15 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Sequential Importance Sampling Annahme: Problem kann über einen rekursiven Filter gelöst werden (Faktorisierung der Importance Density). q(x {0..t} z {0..t} ) = q(x t x {0..t 1}, z {0..t} )q(x {0..t 1} z {0..t 1} ) Jetzt kann x{0..t} i q(x {0..t} i zi {0..t}) durch Erweiterung eines existierenden Samples x{0..t 1} i q(x {0..t 1} i zi {0..t 1}) mit einem neuen Zustand xt i q(x t x{0..t 1} i, zi {0..t}) erzeugt werden.

16 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Sequential Importance Sampling (Fortsetzung) Aus der Gleichung P(x i {0..t} zi {0..t} ) P(z t x t ) P(x t x t 1 ) P(x i {0..t 1} zi {0..t 1} ) folgt direkt für das modifizierte Gewicht: wt i wt 1 i P(z t x t ) P(x t x t 1 ) q(xt x i t 1 i, z t)

17 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Sequential Importance Sampling (Algorithmus) [{x i t, w i t } Ns i=1 ] = SIS[{x i t 1, w i t 1 }Ns i=1, z k] Für alle samples i 1..N s. Ziehe x i t q(x k x i t 1, z k). Berechne neues Gewicht wt i wt 1 i P(z t x t ) P(x t x t 1 ) q(xt x i t 1 i, z t) Problem: die Gewichte degenerieren schnell zu einer Lösung mit nur einem Partikel mit signifikantem Gewicht.

18 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Reduktion des Degenerationseffekts durch Resampling Generiere einen neue Menge von Samples {xt i } N s i=1 von der approximativen diskreten Repräsentation von P(x t z {1..t} ) N s P(x t z {1..t} ) wt i δ(x t xt) i so dass P(xt i = x j t ) = wt j. Setze die Gewichte wt i auf i=1 w i t = 1 N s, da IID-Annahme für Samples gilt.

19 Problem: eventuell viele Samples mit identischem Wert (sample impoverishment) Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Resampling Algorithm [{xt j, w j t, i j } Ns j=1 ] = RESAMPLE[{x t, i wt i } Ns i=1 ]. Initialisiere CDF: c 1 = 0. Für alle i 2..N s. Konstruiere CDF: c i = c i 1 + wt i. Starte am Anfang der CDF: i = 1. Ziehe einen Startpunkt: u 1 [0, Ns 1 ]. Für alle j 1..N s. Gehe weiter entlang der CDF: u j = u 1 + Ns 1 (j 1). Solange u j > c i, i = i + 1. Zuweisung: xt j = x i t, wt j = Ns 1, i j = i

20 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Particle Filtering Algorithmus [{x i t, w i t } Ns i=1 ] = PF [{x i t 1, w i t 1 }Ns i=1, z k]. Für alle i 1..N s. Ziehe x i t q(x t x i t 1, z k). Berechne neues Gewicht w i t = w i t 1 P(z t x t) P(x t x t 1) q(x i t x i t 1,zt). Normalisiere {wt i } Ns i=1 1. Berechne ˆN eff = P Ns (Maß für degenerierte Verteilung) i=1 (w t i )2. Falls ˆN eff < N T. Resample: [{xt, i wt i, } Ns i=1 ] = RESAMPLE[{x t, i wt i } Ns i=1 ]

21 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation SIR Particle Filter (Sampling Importance Resampling) [{xt, i wt i } Ns i=1 ] = SIR[{x t 1 i, w t 1 i }Ns i=1, z k]. Für alle i 1..N s. Ziehe xt i P(x t xt 1 i ) (generiere Rauschen vt 1 i P v (v t 1 ), berechne xt i = f t (xt 1 i, v t 1 i ) über Dynamikgleichung).. Berechne neues Gewicht wt i = P(z t xt) i. Normalisiere {w i t } Ns i=1. Resample: [{x i t, w i t, } Ns i=1 ] = RESAMPLE[{x i t, w i t } Ns i=1 ] Resampling wird in jeder Iteration durchgeführt Entspricht CONDENSATION-Algorithmus

22 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation CONDENSATION [Isard & Blake, 1998]

23 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Zusammenfassung Stochastische Simulation wird häufig bei MRFs eingesetzt Sequential Importance Sampling (SIS) wendet stochastische Simulation auf State-Space-Modelle an (Zustand nicht Gaußverteilt). SIS-Techniken (Particle Filter) werden häufig eingesetzt in Tracking und SLAM-Problemen.

24 Probabilistische Graphische Modelle Approximative Inferenz stochastische Simulation Tracking-Beispiel [Isard & Blake, 1998]

25 Probabilistische Graphische Modelle Approximative Inferenz mean field Algorithmus Bisher: approximative Inferenz durch zufälliges generieren von Beispielen. Problematisch bei dichten Graphen und höher-dimensionaler ZV en, da ein sehr großer Raum abgetastet werden muss. Alternative: deterministische Verfahren zur approximativen Inferenz.

26 Probabilistische Graphische Modelle Approximative Inferenz mean field Algorithmus Wdh: Generierung einer Markov-Kette 1 Initialisierung:. Weise alle beobachteten Werte zu. Belege nicht-beobachtete Werte mit Zufallszahlen 2 Propagierung: Berechne für alle Variablen X i, i 1... N. Berechne P(X i x J ) = P(X i x Bi ) wobei J = {1... N} {i} und B i Markov-Blanket von X i.. Generiere neuen Wert X i = x i entsprechend der Verteilung P(X i x Bi ). Falls X i Abfragevariable, erhöhe Count für x i. Wiederhole Schritt (2) bis max. Iterationen erreicht sind. einfache Idee: ersetze Zufallsupdate durch Mittelwert

27 Probabilistische Graphische Modelle Approximative Inferenz mean field Algorithmus Bsp. Ising-Modell Markov Random Field mit G = (X, E), mit X = (X 1,..., X N ), V = {1,..., N} Binäre Zufallsvariablen x {0.1} N. Paare von benachbarten Knoten sind über ein Gewicht θ st gekoppelt. Jeder Knoten hat ein Observationsgewicht θ s. P(x; θ) exp{ θ s x s + θ st x s x t } s V (s,t) E

28 Probabilistische Graphische Modelle Approximative Inferenz mean field Algorithmus Gibbs-Update: { x (p+1) s = 1 falls u {1 + exp[ (θ s + t N (s) θ stx (p) t 0 sonst. Mean field Algorithmus: µ s {1 + exp[ (θ s + t N (s) θ st µ t )]} 1 )]} 1 Diese Art von Algorithmen kann als Message-Passing Algorithmus auf der Graph-Struktur interpretiert werden. (hier wird Nachricht µ s geschickt)

29 Probabilistische Graphische Modelle Approximative Inferenz Loopy Belief Propagation Loopy Belief Propagation Anwendung von Pearl s Belief Propagation Algorithmus für Polytrees bzw. von dem SUM-PRODUCT-Algorithmus auf Graphen mit Zyklen. Wie soll der Algorithmus gestartet werden? Wird der Algorithmus konvergieren? Wird der Algorithmus gegen das korrekte Ergebnis konvergieren?

30 Probabilistische Graphische Modelle Approximative Inferenz Loopy Belief Propagation SUM-PRODUCT Algorithmus Nachrichten von einem Variablenknoten i zu einem Faktorknoten s (ν-sendmessage(i, s)) ν is (x i ) = µ ti (x i ) t N (i) s Nachrichten von einem Faktorknoten s zu einem Variablenknoten i (µ-sendmessage(s, i)) µ si (x i ) = (f s (x N (s) ) ν js (x j )) x N (s) {i} j N (s) {i} Die Gleichungen werden genau dann aufgerufen, wenn die Nachrichten von allen anderen Nachbarknoten vorliegen.

31 Probabilistische Graphische Modelle Approximative Inferenz Loopy Belief Propagation Initialisierung: Alle Nachrichten werden auf den Vektor 1 gesetzt. Damit sind alle Knoten zum Aussenden von Nachrichten aktiviert. Propagierungsschedule: Spezifikation welche Nachrichten in einem Zeitschritt versendet werden. flooding schedule: Nachrichten werden für alle Kanten des Graphen in jede Richtung verschickt. serial schedule: Es wird immer nur eine Nachricht pro Zeitschritt verschickt.

32 Probabilistische Graphische Modelle Approximative Inferenz Loopy Belief Propagation Serial schedule Eine Nachricht ist anhängig an Kante e von Knoten v, falls der Knoten nach dem letzten Aussenden eine Nachricht über eine andere Kante als e bekommen hat. Der Empfang einer einer Nachricht in Knoten v über Kante e erzeugt anhängige Nachrichten an allen anderen Kanten von v. Es werden über eine First-In-First-Out Queue alle anhängigen Nachrichten abgearbeitet. Der Algorithmus wird für zyklische Graphen nicht anhalten! Abbruchkriterium ist meistens eine maximale Anzahl von Iterationen.

33 Probabilistische Graphische Modelle Approximative Inferenz Loopy Belief Propagation ALARM Bayesian network

34 Probabilistische Graphische Modelle Approximative Inferenz Loopy Belief Propagation (a) Loopy-Belief-Propagation (200 Iterationen) (b) Stochastisches Sampling (200 Iterationen) (c) Stochastisches Sampling (1000 Iterationen)

35 Probabilistische Graphische Modelle Approximative Inferenz Loopy Belief Propagation toyqmr Bayes-Netz (Diagnosen und Symptome) (a) Loopy-Belief-Propagation (b) Stochastisches Sampling

36 Probabilistische Graphische Modelle Approximative Inferenz Loopy Belief Propagation QMR-DT Bayes-Netz mit 600 Krankheiten und 4000 Symptomen, Struktur wie toyqmr (a) keine Konvergierung (b) Fehler gegenüber exakter Inferenz

37 Probabilistische Graphische Modelle Approximative Inferenz Loopy Belief Propagation Zusammenfassung von Loopy Belief Propagation Algorithmus ist als Approximation interessant, da Berechnungen lokal sind. Falls Loopy-Belief-Propagation konvergiert, ist die Lösung eine sehr gute Näherung (z.b. Turbo-Codes) Falls der Algorithmus nicht konvergiert, ist die Lösung nicht brauchbar. Es ist bisher unbekannt, wovon genau die Konvergenz abhängt.

38 Probabilistische Graphische Modelle Approximative Inferenz Variational Inference Variational Inference Gegeben sei ein PGM P(x) = 1 Z P i Ψ i(x Di ), bei dem das Inferenzproblem nicht exakt lösbar ist. Idee: Approximiere die gewünschte Zielverteilung über ein Lernverfahren auf einem vereinfachten PGM Q(x) = 1 Z Q j Φ j(x Cj ), bei dem exakte Inferenzverfahren anwendbar sind. Minimiere die KL-Distanz zwischen P und Q: min Φ D(Q P) = min Φ x Q Φ (x) log Q Φ(x) P(x)

39 Probabilistische Graphische Modelle Approximative Inferenz Variational Inference Anstatt das globale Minimum zu finden, suchen wir eine Iteration für Q, die den Abstand verringert und einen Fixpunkt bezüglich D(Q P) hat: Φ D(Q P) = 0, wobei Φ = {Φ j } j. Ansatz: D(Q P) = x Q(x) log Q(x) P(x) = [H(Q) + E Q[log P(x)]]

40 Probabilistische Graphische Modelle Approximative Inferenz Variational Inference Führt nach umformen von H(Q) und E Q [log P(x)] zu (gesucht ist die Update-Formel für Φ j (x Cj )) H(Q) = H(Q(C j )) + H(Q(X C j )) = C j Q(c j ) log Q(c j ) C j Q(c j ) Q(x c j ) log Q(x c j ) X C j = Q(c j ) log Q(c j ) Q(c j ) Q(c k c j ) log Q(c k c j ) C j C j k C k C j E Q [ log P(x)] = Q(c j ) Q(x c j ) log Ψ i (d i ) log(z P ) i C j X C j = Q(c j ) Q(d i c j ) log Ψ i (d i ) log(z P ) C j i D i C j

41 Probabilistische Graphische Modelle Approximative Inferenz Variational Inference Und beim Einsetzen in D(Q P) ergibt sich die folgenden Gleichung mit Update-Term γ j (c j ): D(Q P) = C j Q(c j ) log Q(c j) Γ j (c j ) + log(z P), Γ j (c j ) = exp(γ j (c j )). γ j (c j ) = Q(c k c j ) log Q(c k c j ) + Q(d i c j ) log Ψ i (d i ) k C k C j i D i C j }{{}}{{} Term aus H(Q), C k C j Term aus E Q [logp(x)]

42 Probabilistische Graphische Modelle Approximative Inferenz Variational Inference Variational Inference Procedure (VIP) Eingabe: Menge von Potentialen Ψ i (d i ), die die Ziel-Verteilung P(x) = 1 Z P i Ψ i(d i ) definieren und eine Menge von Clustern C j, j = 1... J mit initialen nicht-negativen Potentialen Φ j (c j ). Ausgabe: Ein revidierte Menge von Potentialen Φ j (c j ), die eine Verteilung Q(x) = 1 Z Q j Φ j(c j ) definiert, so dass Q ein Fixpunkt der KL-Distanz D(Q P) ist. Graph wird charakterisiert durch Indikatorfunktionen g kj = 0, falls C k C j = f ij = 0, falls D i C j =

43 Probabilistische Graphische Modelle Approximative Inferenz Variational Inference Variational Inference Procedure (VIP) Iteriere über alle Cluster C j bis zur Konvergenz. Für jede Instanz c j des Clusters C j, γ j (c j ) {k:g kj =1} + {i:f ij =1} Φ j (c j ) exp(γ j (c j )) Q(c k c j ) log Q(c k c j ) C k C j Q(d i c j ) log Ψ i (d i ) D i C j Zur Berechnung von Q(c k c j ) und Q(d i c j ) wird der sum-product Algorithmus auf Q(X ) = i Φ i(c i ) verwendet.

44 Probabilistische Graphische Modelle Approximative Inferenz Variational Inference Der Mean-Field Algorithmus ist ein spezieller Fall des VIP, wobei jeder Cluster C j nur eine einzelne Variable enthält. γ j (c j ) {i:f ij =1} D i C j Q(d i c j ) log Ψ i (d i ). Der Loopy-Belief-Propagation Algorithmus ist ebenfalls eine Variante des VIP.

45 Probabilistische Graphische Modelle Approximative Inferenz Zusammenfassende Bemerkungen Die vorgestellten Verfahren zur approximativen Inferenz beruhen alle auf Verfahren zum Lernen der gesuchten bedingten Wk.verteilung durch Auszählen simulierter Daten (stochastische Simulation) Anwendung des Variationsprinzip auf einem Distanzmaß zwischen der zu lernenden Wk.verteilung und der Zielverteilung.

46 Probabilistische Graphische Modelle Lernen von PGMs Lernen von PGMs: Problem-Varianten Vollständige Beobachtung vs. partielle Beobachtung Diskrete ZV en vs. kontinuierliche ZV en Gerichtete vs. ungerichtete Graphen Lernen der Parameter vs. Lernen der Struktur

47 Probabilistische Graphische Modelle Lernen von PGMs: vollst., diskret, gerichtet Gerichtete PGMs und vollst. Beobachtung Sei G = (X, E) ein gerichteter Graph auf den ZV X = {X 1,..., X N }. Das Wahrscheinlichkeitsmodell ergibt sich zu P(x θ) = N P(x i x πi, θ i ) i=1 wobei θ i die Parameter der bed. Wk. θ die Parameter des Gesamtmodells Sei V = {1,..., N} die Indexmenge der Knoten in dem PGM und x V eine vollständige Beobachtung.

48 Probabilistische Graphische Modelle Lernen von PGMs: vollst., diskret, gerichtet Gerichtete PGMs und vollst. Beobachtung Problemstellung: Was ist die Parametrisierung eines PGMs, das eine beobachtete Folge von Knotenbelegungen D = (x V,1, x V,2,..., x V,M ) mit maximaler Wk. erklärt (Maximum Likelihood Schätzer) Ansatz: P(D θ) = i P(x V,i θ) = j P(x i,j x πi,j, θ i ) Typischer Weise betrachtet als Logarithmus (log likelihood) l(θ; D) = log P(x i,j x πi,j, θ i ) j i i

49 Probabilistische Graphische Modelle Lernen von PGMs: vollst., diskret, gerichtet Gerichtete diskrete PGMs und vollst. Beobachtung Counts: Sei m(x V ) j δ(x V, x V,j ) die Anzahl, mit der die Variablen X V im Datensatz D mit der Belegung x V vorkommen. Wk.-Matrizen: Sei φ i {x i } π i (Familie von X i ) Parameter P(x i x πi, θ i ) θ i (x φi ) mit Nebenbed. x i θ i (x φi ) = x i θ i (x i, x πi ) = 1 Gesamtmodell: P(x V θ) = i θ i(x φi )

50 5.1 Lernen von PGMs: vollst., diskret, gerichtet Da sich die Nebenbedingungen nur auf die einzelnen Faktoren θ i beziehen, kann das Problem der opt. Parameterschätzung getrennt für jeden einzelnen Faktor untersucht werden. log P(D θ) = log( j P(x V,j θ)) = j log( x V P(x V θ) δ(x V,x V,j ) ) = m(x V ) log( θ i (x Φi )) x V i = m(x Φi ) log θ i (x Φi ) i x Φi }{{} Term local für Φ i definiert Probabilistische Graphische Modelle 50

51 Probabilistische Graphische Modelle Lernen von PGMs: vollst., diskret, gerichtet... mit dem Lagrange-Ansatz (Nebenbed. x i θ i (x Φi ) = 1) ergibt sich: ˆθ i,ml (x Φi ) = m(x Φ i ) m(x πi ) = m(x i, x πi ) m(x πi )

Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle: Inferenz Wir haben eine Domäne durch gemeinsame

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte

Mehr

Strukturelle SVM zum Graph-labelling

Strukturelle SVM zum Graph-labelling 23. Juni 2009 1 Was wir gerne hätten...... und der Weg dorthin Erinnerung: strukturelle SVM 2 Junction Tree Algorithmus Loopy Belief Propagation Gibbs Sampling 3 Umfang Qualität der Algorithmen Schlussfolgerungen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Belief Propagation, Strukturlernen Nico Piatkowski und Uwe Ligges 29.06.2017 1 von 13 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/Niels Landwehr/Tobias Scheffer Überblick Problemstellung/Motivation Deterministischer i ti Ansatz:

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Christoph Sawade Heute: Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz:

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Methoden der Statistik Markov Chain Monte Carlo Methoden

Methoden der Statistik Markov Chain Monte Carlo Methoden Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)

Mehr

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil XIII Peter F. Stadler & Konstantin Klemm Bioinformatics Group, Dept. of Computer Science & Interdisciplinary Center for Bioinformatics, University of Leipzig

Mehr

Computer Vision: Kalman Filter

Computer Vision: Kalman Filter Computer Vision: Kalman Filter D. Schlesinger TUD/INF/KI/IS D. Schlesinger () Computer Vision: Kalman Filter 1 / 8 Bayesscher Filter Ein Objekt kann sich in einem Zustand x X befinden. Zum Zeitpunkt i

Mehr

Latente Dirichlet-Allokation

Latente Dirichlet-Allokation Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen

Mehr

SCHNITTERHALTUNG (SPEKTRALE APPROXIMATION)

SCHNITTERHALTUNG (SPEKTRALE APPROXIMATION) Vorlesung 12 AUSDÜNNUNG VON GRAPHEN SCHNITTERHALTUNG (SPEKTRALE APPROXIMATION) 387 Wiederholung: Approximative Schnitterhaltung Ziel: Approximationsalgorithmus: A(S(G)) Ziele bei Eingabe eines dichten

Mehr

Generative Modelle. Generative Modelle 1 / 49

Generative Modelle. Generative Modelle 1 / 49 Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die

Mehr

Simulationsmethoden in der Bayes-Statistik

Simulationsmethoden in der Bayes-Statistik Simulationsmethoden in der Bayes-Statistik Hansruedi Künsch Seminar für Statistik, ETH Zürich 6. Juni 2012 Inhalt Warum Simulation? Modellspezifikation Markovketten Monte Carlo Simulation im Raum der Sprungfunktionen

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informati Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/iels Landwehr/Tobias Scheffer Überblic Problemstellung/Motivation Deterministischer Ansatz: K-Means

Mehr

2 Perfekte Simulation 2.1 Kopplung von Markov-Ketten ( Coupling ) 2.2 Forward Coupling (FC) 2.3 Propp-Wilson: Coupling-From-The-Past (CFTP)

2 Perfekte Simulation 2.1 Kopplung von Markov-Ketten ( Coupling ) 2.2 Forward Coupling (FC) 2.3 Propp-Wilson: Coupling-From-The-Past (CFTP) 0 1 Perfekte Simulation 1 Wiederholung 2 Perfekte Simulation 2.1 Kopplung von Markov-Ketten ( Coupling ) 2.2 Forward Coupling (FC) 2.3 Propp-Wilson: Coupling-From-The-Past (CFTP) 3 Literatur 1 Wiederholung

Mehr

Generative Modelle. Generative Modelle 1 / 49

Generative Modelle. Generative Modelle 1 / 49 Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Seminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11.

Seminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen 11. Juni 2009 Gliederung 1 Problemstellung 2 Vektorprodukt Approximationen Samplesammlung 3 Schritte Lokalität und Nachrichtenkomplexität

Mehr

Frequentisten und Bayesianer. Volker Tresp

Frequentisten und Bayesianer. Volker Tresp Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben

Mehr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Evolutionäre Algorithmen: Überlebenskampf und Evolutionäre Strategien Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überblick Einleitung Adaptive Filter Künstliche

Mehr

9 SLAM Simultaneous Localization and Mapping

9 SLAM Simultaneous Localization and Mapping 9 SLAM Simultaneous Localization and Mapping Einleitung eines der aktivsten Forschungsgebiete innerhalb der Robotik Roboterlokalisierung bei gegebener Karte (Kap. 8 und Karte aus Sensordaten bei bekannter

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation

Mehr

Bayessche Lineare Regression

Bayessche Lineare Regression Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.

Mehr

Algorithmen II Vorlesung am

Algorithmen II Vorlesung am Algorithmen II Vorlesung am..03 Randomisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 25 Überblick Überblick Metropolis-Algorithmus

Mehr

3.2 Maximum-Likelihood-Schätzung

3.2 Maximum-Likelihood-Schätzung 291 Die Maximum-Likelihood-Schätzung ist die populärste Methode zur Konstruktion von Punktschätzern bei rein parametrischen Problemstellungen. 292 3.2.1 Schätzkonzept Maximum-Likelihood-Prinzip: Finde

Mehr

Simulation von Zufallszahlen. Grundlage: zufällige Quelle von Zufallszahlen, durch einfachen rekursiven Algorithmus am Computer erzeugt

Simulation von Zufallszahlen. Grundlage: zufällige Quelle von Zufallszahlen, durch einfachen rekursiven Algorithmus am Computer erzeugt Simulation von Zufallszahlen Grundlage: zufällige Quelle von Zufallszahlen, durch einfachen rekursiven Algorithmus am Computer erzeugt Definition: Eine Folge von Pseudo-Zufallszahlen U i ist eine deterministische

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Strukturelle Modelle Conditional Random Fields Katharina Morik LS 8 Informatik Technische Universität Dortmund 17.12. 2013 1 von 27 Gliederung 1 Einführung 2 HMM 3 CRF Strukturen

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Seminar Stochastische Unternehmensmodelle Varianzreduzierende Techniken

Seminar Stochastische Unternehmensmodelle Varianzreduzierende Techniken Seminar Stochastische Unternehmensmodelle Varianzreduzierende Techniken 25. Juni 2015 1 / 37 Übersicht 1. Ziel des Vortrags 2. Einleitung 3. Varianzreduzierende Techniken Bedingtes Monte Carlo Importance

Mehr

Einführung in Markoff-Ketten

Einführung in Markoff-Ketten Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die

Mehr

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur

Mehr

Bayesian analysis of spatial point processes in the neighbourhood of Voronoi. networks

Bayesian analysis of spatial point processes in the neighbourhood of Voronoi. networks Bayesian analysis of spatial point processes in the neighbourhood of Voronoi networks Judith Schmidt und Bettina Hund 02 Juli 2008 Seminar: Stochastische Geometrie und ihre Anwendungen - Zufa llige Netzwerke

Mehr

Verfahren zur Datenanalyse gemessener Signale

Verfahren zur Datenanalyse gemessener Signale Verfahren zur Datenanalyse gemessener Signale Dr. rer. nat. Axel Hutt Vorlesung 4 zum Übungsblatt Aufgabe 1: sin( (f 3Hz)5s) sin( (f +3Hz)5s) X T (f) 1 i f 3Hz f +3Hz Nullstellen: T=5s: T=1s: f=3hz+2/5s,

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

Perfekte Simulation unter Laufzeitbeschränkung

Perfekte Simulation unter Laufzeitbeschränkung unter Laufzeitbeschränkung 1 Inhaltsverzeichnis 1 Markov-Ketten 3 2 Markov-Chain-Monte-Carlo-Simulation (MCMC) 11 3 Propp-Wilson, Coupling-From-The-Past (CFTP) 16 3.1 Wiederholung und Spezialfälle...............

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Probabilistische Pfadsuche

Probabilistische Pfadsuche Probabilistische Pfadsuche Frage: Existiert ein Pfad in G von s nach t? Deterministisch mit Breitensuche lösbar in Zeit O( V + E ). Erfordert allerdings auch Speicher Ω( V ). Algorithmus PATH EINGABE:

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

LDA-based Document Model for Adhoc-Retrieval

LDA-based Document Model for Adhoc-Retrieval Martin Luther Universität Halle-Wittenberg 30. März 2007 Inhaltsverzeichnis 1 2 plsi Clusterbasiertes Retrieval 3 Latent Dirichlet Allocation LDA-basiertes Retrieval Komplexität 4 Feineinstellung Parameter

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Zufallszahlen und Monte Carlo Peter Frentrup Humboldt-Universität zu Berlin 17. Oktober 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 17. Oktober 2017 1 / 23

Mehr

Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse

Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse Karlsruher Institut für Technologie Ulrich Husemann Institut für Experimentelle Kernphysik, Karlsruher Institut für Technologie

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities) Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Methoden der KI in der Biomedizin Bayes Netze

Methoden der KI in der Biomedizin Bayes Netze Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Markov Chain Monte Carlo Peter Frentrup Humboldt-Universität zu Berlin 16. Januar 2018 (Humboldt-Universität zu Berlin) Markov Chain Monte Carlo 16. Januar 2018 1 / 17 Übersicht 1

Mehr

Musterlösung der Klausur vom 29. Juli 2003

Musterlösung der Klausur vom 29. Juli 2003 Statistik für Bioinformatiker SoSe 2003 Rainer Spang Musterlösung der Klausur vom 29. Juli 2003 Aufgabe 1. 10 Definieren Sie die folgenden statistischen Begriffe in einem Satz oder in einer Formel: 1.

Mehr

Vorhersage von Protein-Funktionen. Patrick Pfeffer

Vorhersage von Protein-Funktionen. Patrick Pfeffer Vorhersage von Protein-Funktionen Patrick Pfeffer Überblick Motivation Einleitung Methode Markov Random Fields Der Gibbs Sampler Parameter-Schätzung Bayes sche Analyse Resultate Pfeffer 2 Motivation Es

Mehr

Hawkes Prozesse Grundlagen

Hawkes Prozesse Grundlagen Hawkes Prozesse Grundlagen Im Folgenden sei (Ω, F, F, P) eine stochastische Basis. Das heißt F = (F t ) t ist eine rechtsstetige Filtration mit F t F für alle t und P ein Wahrscheinlichkeitsmaß auf dem

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

Fortgeschrittene Ökonometrie: Maximum Likelihood

Fortgeschrittene Ökonometrie: Maximum Likelihood Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,

Mehr

Modellbildung und Simulation

Modellbildung und Simulation Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Betriebliche Optimierung

Betriebliche Optimierung Betriebliche Optimierung Joachim Schauer Joachim Schauer Betriebliche Optimierung 1 / 31 1 Metaheuristische Verfahren 2 Joachim Schauer Betriebliche Optimierung 2 / 31 Einleitendes Metaheuristische Verfahren

Mehr

SBWL Tourismusanalyse und Freizeitmarketing

SBWL Tourismusanalyse und Freizeitmarketing SBWL Tourismusanalyse und Freizeitmarketing Vertiefungskurs 4: Multivariate Verfahren 2 Teil 3: Mischmodelle / Modellgestützte Clusteranalyse Achim Zeileis & Thomas Rusch Institute for Statistics and Mathematics

Mehr

Bootstrap-Methoden zur Ermittlung kritischer Werte für asymptotische FWER-Kontrolle

Bootstrap-Methoden zur Ermittlung kritischer Werte für asymptotische FWER-Kontrolle Bootstrap-Methoden zur Ermittlung kritischer Werte für asymptotische FWER-Kontrolle [Dudoit, van der Laan, Pollard: Multiple Testing. Part I Single-Step Procedures for Control of General Type-I-Error Rates]

Mehr

Seminar: Statistische Methoden in der Infektionsepidemiologie

Seminar: Statistische Methoden in der Infektionsepidemiologie Seminar: Statistische Methoden in der Infektionsepidemiologie Verzweigungsprozess-Modelle für surveillance von infektiösen Krankheiten, kontrolliert durch Massenimpfung 1 1. Einleitung Impfprogramme zur

Mehr

Statistische Sprachmodelle

Statistische Sprachmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch

Mehr

Vorlesung 12a. Schätzen von Parametern. Teil 2

Vorlesung 12a. Schätzen von Parametern. Teil 2 Vorlesung 12a Schätzen von Parametern Teil 2 1 Unser Logo der ersten Stunde: X P ϑ (X da) = ρ ϑ (da), ϑ Θ S 2 Ein Logo der Statistik: Θ ˆϑ t X S P ϑ (X da) = ρ ϑ (da), ϑ Θ Θ... Parameterraum S... Beobachtungsraum

Mehr

Bayesianische FDR (Teil2)

Bayesianische FDR (Teil2) des Multiplen Testens FDR, FNR FDR 13.12.2010 Inhalt FDR, FNR FDR 1 2 FDR, FNR FDR Inhalt FDR, FNR FDR 1 2 FDR, FNR FDR Bedingte Wahrscheinlichkeit FDR, FNR FDR (Ω, F, P) W-Raum, A 1, A 2,...A n F, A i

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation

Mehr

Waermeleitungsgleichung

Waermeleitungsgleichung Waermeleitungsgleichung October 26, 2018 1 Ausführliche Diskussion des Wärmeleitungsgleichungs-Beispiels der Vorlesung Wir betrachten die folgende Aufgabe: Ein Stab der Länge π (auf dem Zahlenstrahl von

Mehr

Vorlesung 2 KÜRZESTE WEGE

Vorlesung 2 KÜRZESTE WEGE Vorlesung 2 KÜRZESTE WEGE 34 Kürzeste Wege im Graphen Motivation! Heute:! Kürzeste Wege von einem Knoten (SSSP)! Kürzeste Wege zwischen allen Knotenpaaren (APSP)! Viele Anwendungen:! Navigationssysteme!

Mehr

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Definition: Erneuerungsprozess Sei {T n, n N} eine Folge unabhängiger, nichtnegativer Zufallsvariablen mit Verteilungsfunktion F, mit F () < 1. Dann heißt

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Wechselkurse und Finanzmarkt-Indizes

Wechselkurse und Finanzmarkt-Indizes 8. Mai 2008 Inhaltsverzeichnis 1 Wechselkurse Einführung Wechselkurs US Dollar - Deutsche Mark Statistischer Prozess 2 Reinjektion Eigenschaften der Fluktuationen von x(τ) 3 Diffusion auf Finanzmärkten

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme 10 Matching-Probleme 10.1 Definition von Matching-Probleme Definition 21 [2-dimensionales Matching] Sei G = (V, E) ein ungerichteter Graph und E E. E ist ein Matching, wenn für alle Kantenpaare e 1, e

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

Statistics, Data Analysis, and Simulation SS 2015

Statistics, Data Analysis, and Simulation SS 2015 Mainz, May 12, 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler

Mehr

Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik

Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1 Verteilungen Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1.1 Diskrete Verteilungen Helga Wagner und Gero Walter Binomialverteilung: Y BiNom (n, π) Parameter: n > 0, π [0, 1] Wahrscheinlichkeitsfunktion:

Mehr

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011 Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben

Mehr