Probabilistische Graphische Modelle

Größe: px
Ab Seite anzeigen:

Download "Probabilistische Graphische Modelle"

Transkript

1 Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007

2 Probabilistische Graphische Modelle 2 Übersicht über die Vorlesung 1

3 Probabilistische Graphische Modelle Wk.theorie + Probabilistische Inferenz Zusammenfassung Frequentisten vs. Bayesianer Cox Axiome Maximum-Likelihood-Schätzer posterior likelihood prior Bernoulli-Verteilung / Beta-Verteilung Multinomial-Verteilung / Dirichlet-Verteilung Normal-Verteilung / Normal-Verteilung Forward probabilities / inverse probabilities Dichteschätzung, Regression, Klassifikation

4 Probabilistische Graphische Modelle 4 2. Varianten von PGMs Es sind verschiedene Ausprägungen von PGMs getrennt von einander entstanden, deren Theorie erst später über den Begriff der Graphical Models zusammengeführt wurden: Bayes sche Netzwerke (BN) Finn V. Jensen, An Introduction to Bayesian Networks, London: UCL Press Limited, 1996, Kap. 2.3, 3.3. Hidden Markov Modelle (HMM) Gernot A. Fink, Mustererkennung mit Markov-Modellen, Wiesbaden: Teubner, 2003, Kap. 5. Markov Random Fields (MRF) Stan Z. Li, Markov Random Field Modeling in Computer Vision, New York, Berlin, Heidelberg, Tokyo: Springer, 1995, Kap. 1.

5 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Bayes sche Netzwerke (BN) Die Verbundwahrscheinlichkeit über eine Variablenmenge X = {X 1, X 2,..., X n } wird auf der Basis der Produkt- oder Kettenregel faktorisiert: P(x 1, x 2,..., x n ) =P(x 1 x 2,..., x n ) P(x 2 x 3,..., x n ) P(x n 1 x n )P(x n ) d.h. es wird eine Ordnung auf den Variablen angenommen (aus unterschiedlichen Ordnungen resultieren unterschiedliche BN s). Über Annahmen einer bed. Unabh. zwischen Variablen, können die Variablen in der Bedingung eingeschränkt werden

6 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Bed. Unabhängigkeit in BNs In BNs werden bedingte Unabhängigkeiten H über sogenannte Eltern (parents) definiert: P(x 1, x 2,..., x n H) n P(x i x πi ) i=1 wobei π i {X i+1,..., X n } Eltern von x i. Über die Eltern-Kind-Beziehung definiert sich der zugehörige gerichtete Graph.

7 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Beispiel: Paul arbeitet in seinem Büro in Californien. Sein Haus in einem Vorort ist durch eine Alarmanlage gesichert. Nach einer Sitzung bekommt er die Nachricht, dass seine Nachbarin Mary versucht hat ihn zu erreichen. Ist vielleicht seine Alarmanlage losgegangen? Hat eventuell ein Einbruch stattgefunden? Nach der nächsten Sitzung erfährt er, dass auch sein anderer Nachbar John versucht hat ihn anzurufen. Sehr beunruhigt setzt er sich in sein Auto und fährt nach Hause. Unterwegs hört er im Radio, dass ein kleines Erdbeben stattgefunden hat, ohne Schäden zu verursachen. Wieder beruhigt kehrt er zur Arbeitsstelle zurück.

8 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Beispiel: Paul arbeitet in seinem Büro in Californien. Sein Haus in einem Vorort ist durch eine Alarmanlage gesichert. Nach einer Sitzung bekommt er die Nachricht, dass seine Nachbarin Mary versucht hat ihn zu erreichen. Ist vielleicht seine Alarmanlage losgegangen? Hat eventuell ein Einbruch stattgefunden? Nach der nächsten Sitzung erfährt er, dass auch sein anderer Nachbar John versucht hat ihn anzurufen. Sehr beunruhigt setzt er sich in sein Auto und fährt nach Hause. Unterwegs hört er im Radio, dass ein kleines Erdbeben stattgefunden hat, ohne Schäden zu verursachen. Wieder beruhigt kehrt er zur Arbeitsstelle zurück.

9 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Anwendung der Kettenregel: P(John, Mary, Alarm, Einbruch, Erdbeben) = P(John Mary, Alarm, Einbruch, Erdbeben) P(Mary Alarm, Einbruch, Erdbeben) P(Alarm Einbruch, Erdbeden) P(Einbruch Erdbeben) P(Erdbeben) und Anwendung der bedingten Unabhängigkeitsannahmen H...

10 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Anwendung der Kettenregel: P(John, Mary, Alarm, Einbruch, Erdbeben H) = P(John Mary, Alarm, Einbruch, Erdbeben, H) P(Mary Alarm, Einbruch, Erdbeben, H) P(Alarm Einbruch, Erdbeden, H) P(Einbruch Erdbeben, H) P(Erdbeben H) = P(John Alarm) P(Mary Alarm) P(Alarm Einbruch, Erdbeden) P(Einbruch) P(Erdbeben)

11 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Einbruch Erdbeben Alarm JohnCalls MaryCalls P(John, Mary, Alarm, Einbruch, Erdbeben H) = P(John Alarm) P(Mary Alarm) P(Alarm Einbruch, Erdbeden) P(Einbruch) P(Erdbeben) wobei H die Menge der bed. Unabhängigkeitsannahmen.

12 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Def. (diskretes) Bayes sches Netzwerk (BN) (I) Ein BN besteht aus: Einer Menge von Variablen (Knoten) und einer Menge von gerichteten Kanten zwischen Variablen. Jede Variable hat eine endliche Menge von sich gegenseitig ausschließenden Zuständen. Die Variablen bilden zusammen mit den gerichteten Kanten einen gerichteten azyklischen Graphen (directed acyclic graph - DAG). D.h. Es existiert kein gerichteter Pfad mit... X 1 X k, so dass X 1 = X k

13 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Def. (diskretes) Bayes sches Netzwerk (BN) (II) Ein BN besteht aus (Fortsetzung): Jeder Variablen X i mit Eltern π i ist eine Tabelle von bedingten Wahrscheinlichkeiten zugeordnet: p(x (1) i x π (1) i )... p(x (1) i x π (L) i ) P(X i X πi ) p(x (K) i x π (1) i )... p(x (K) i x π (L) i )

14 2.1 Varianten von PGMs: Bayes sche Netzwerke Inferenz bei BNs (Problemstellungen): Sei X = {X 1, X 2,..., X n } die Menge von ZV en des BN. Sei O = (X J = x J ) = (X j1 = x j1,..., X jj = x jj ) gegeben. Belief updating (Bel): P(x i O) = P(X i = x i X j1 = x j1,..., X jj = x jj ) Most probable explanation (MPE): arg max x I A XI P(x I x J ), wobei X I = X \X J Maximum a posteriori hypothesis (MAP): arg max x I A XI P(x I x J ), wobei X I X \X J Probabilistische Graphische Modelle 12

15 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Modellierung in BN en Problem großer bed. Wk.-Tabellen P(A B, C, D): Es liegen Schätzungen für P(A B), P(A C), P(A D) vor, wie beschreiben wir ihre Kombination in P(A B, C, D)? Jede Ursache hat eine unabhängige Wirkung, wie kann dies modelliert werden?

16 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Beispiel (Noisy-or) Es gibt 3 Ereignisse, die dazu führen, dass die Alarmanlage los geht: Hintergrund-Ereignis: 0,1% aus unspezifischen Gründen Einbrecher: 95% Erdbeben: 29% Annahme: Die Faktoren, die dazu führen, dass das Ereignis trotzdem nicht eintritt sind unabhängig.

17 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Noisy-or Seien A 1,..., A n binäre Variablen der möglichen Ursachen von dem Ereignis der binären Variablen B. A i = true verursacht B = true, solange dies nicht durch andere Faktoren verhindert wird. Sei P(B = false A i = true) = q i die bed. Wk., dass B trotzdem nicht eintritt. Annahme: Verhinderungsfaktoren der Ereignisse von A 1,..., A n sind unabhängig, d.h. z.b.: P(B = true A 1 = true, A 2 = true, A 3 = = A n = false) = 1 P(B = false A 1 = true, A 2 = true, A 3 = = A n = false) = 1 q 1 q 2

18 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Beispiel (unabhängige Ursachen) Kopfschmerzen (Ko) können durch Fieber (Fi), einen Kater (Ka), Rheuma (Rh), einen Gehirntumor (Ge), oder andere Gründe (An) verursacht werden. Eventuell wird Aspirin (As) zur Linderung der Kopfschmerzen eingenommen. Die einzelnen Ursachen verstärken den Effekt. Der Einfluss der Ursachen auf die Wirkung ist unabhängig.

19 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke unabhängige Ursachen Seien C 1,..., C n die Elternknoten von A. C 1,..., C n sind unabhängig, falls das folgende für alle Konfigurationen (c 1,..., c n ) und für alle i gilt: Falls A = a und C i = c i ändert sich nach C i = c i, dann wird die resultierende Verteilung von A nur durch eine Funktion von a, c i, c i bestimmt.

20 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Divorcing Noisy-or und kausale Unabhängigkeit sind Spezialfälle von der Methode Divorcing (scheiden). Seien A 1,..., A n Elternknoten von B. A 1,..., A i is divorced from A i+1,..., A n durch die Einführung einer Zwischenvariablen C mit C wird gemeinsames Kind von A1,..., A i. C wird neben Ai+1,..., A n Elternknoten von B. Annahme: Die Konfigurationen von A 1,..., A i können partitioniert werden in die Mengen c (1),..., c (K), so dass für zwei Konfigurationen a [1,i], a [1,i] aus einer Menge c(j) gilt: P(B a [1,i], a [i+1,k] ) = P(B a [1,i], a [i+1,k])

21 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Beispiel (Ungerichtete Relationen): Um zwei zusammengehörige Socken zu finden, kann man diese nach Farbe und Muster klassifizieren. Nach mehrfachem Waschen ist dies jedoch nicht immer ganz einfach. In der letzten Waschmaschine waren 2 Paar Socken, die nicht mehr ganz eindeutig auseinander zu halten sind. Nichtsdestotrotz müssen wir zwei passende finden. Die Beschränkung dabei ist, dass es jeweils exakt 2 Socken des gleichen Typs gibt.

22 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Ungerichtete Relationen Sei R(A, B, C) eine ungerichtete Relation zwischen den Variablen A, B, C, die durch die Werte {0, 1} beschrieben wird. Füge eine Variable D mit A D = {true, false}. Definiere P(D = true A, B, C) = R(A, B, C). Definiere P(D = false A, B, C) = 1 R(A, B, C). Setze die Evidenz D = true.

23 2.1 Varianten von PGMs: Bayes sche Netzwerke Zusammenfassung Bayes-Netze Ein BN ist ein DAG, wobei jedem Knoten (Variablen) eine bedingte Wk.-Tabelle zugeordnet ist. Gerichtete Kanten des DAG ergeben sich häufig über kausale Beziehungen der in den ZV modellierten Ereignisse. Die Faktorisierung der Verbundwk. ergibt sich über die Kettenregel bzw. die Elternknoten. Jede Instanziierung eines BNs (partielle Belegung der Variablen mit Werten Evidenzen) wird als unabhängiges Ereignis betrachtet. Die Theorie von Bayes-Netzen kann auch auf kontinuierliche Variablen ausgedehnt werden ( hybride Bayes-Netze) Ziel ist die Berechnung der bedingten Wahrscheinlichkeit von nicht beobachteten Variablen. Probabilistische Graphische Modelle 21

24 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Hidden Markov Modelle (HMM) HMMs beschreiben einen 2-stufigen stochastischen Prozess erste Stufe: diskreter stochastischer Prozess, stationär, kausal, einfach, endliche Zustandsmenge, endlicher Automat mit Übergangswk. P(s t s 1, s 2,..., s t 1 ) = P(s t s t 1 ) zweite Stufe: Zu jedem Zeitpunkt t wird eine Ausgabe (Emission) ot generiert, die Ausgabe ist nur vom aktuellen Zustand st abhängig P(o t o 1,..., o t 1, s 1,..., s t ) = P(o t s t )

25 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Beispiel Paul ist neu in der Stadt und versucht Mary, die sich in der Stadt recht gut auskennt, zu erklären, wo er gestern lang gegangen ist. Ich bin an einer großen Kreuzung gestartet. Dann bin ich bei einer Kirche herausgekommen und weiter gegangen zu einem Platz mit einem Brunnen. Von dort bin ich dann an einer Eisdiele vorbei gegangen, habe ein Stück weiter Straßenbahngleise überquert und bin bei meinem Hotel herausgekommen. Welcher Weg wurde genommen? An welchem Hotel ist Paul angekommen?

26 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Die Zustandsmenge besteht aus den markierten Stellen im Stadtplan. Die Beobachtungen sind markante Objekte an diesen Orten. Welcher Weg wurde genommen? An welchem Hotel ist Paul angekommen?

27 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Def. Hidden Markov Modelle Ein HMM 1. Ordnung wird vollständig beschrieben durch: eine endliche Menge von Zuständen S t {s 1 s N} eine Matrix A von Zustandsübergangswk. A = {a ij a ij = P(S t = j S t 1 = i)} einen Vektor π von Zustandsstartwk. π = {π i π i = P(S 1 = i)}. zustandsspezifische Emissionsverteilungen B = {b kj b kj = P(O t = o k S t = j)} bzw. {b j (x) b j (x) = p(x S t = j)} (kont. Dichten)

28 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Modellierung der Modellemissionen Meistens wird eine kontinuierliche Dichte durch eine Mischverteilung approximiert: M j b j (x) = c jk N (x µ jk, K jk ) k=1 wobei c jk das Mischungsgewicht mit k c k = 1 und c k 0 k, µ jk der zustandsabh. Mittelwert der Komponente, K jk die zustandsabh. Kovarianzmatrix der Komponente.

29 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Semikontinuierliche HMMs Die zu mischenden Komponenten sind unabhängig vom Zustand: M j b j (x) = c jk N (x µ k, K k ) k=1 wobei c jk das Mischungsgewicht mit k c k = 1 und c k 0 k, µ k der komponentenspezifische Mittelwert, K k die komponentenspezifische Kovarianzmatrix.

30 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Inferenz bei HMMs (Problemstellungen) Sei S = (S 1,..., S T ) eine Folge von Zustandsvariablen. Sei O = (O 1 = o k1,..., O t = o kt ) eine Folge von Beobachtungen. Produktionswk. von HMM λ (Evaluierung) P(O λ) = s 1,...,s T P(O, s 1,..., s T λ) optimale Produktionswk. von HMM λ (Dekodierung) P (O λ) = P(O, s λ) = max s 1,...,s T P(O, s 1,..., s T λ)

31 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Inferenz bei HMMs (Problemstellungen II) Sei S = (S 1,..., S T ) eine Folge von Zustandsvariablen. Sei O = (O 1 = o k1,..., O t = o kt ) eine Folge von Beobachtungen. Klassifikation (zwei oder mehr HMMs λ i ) P(λ i O) = max i P(O λ i ) P(λ i ) P(O)

32 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Zusammenfassung HMMs Ein HMM ist ein zweistufiger Zufallsprozess (Zustände der ersten Stufe sind nicht beobachtbar). Aufeinander folgende Ereignisse sind nicht unabhängig! Ein HMM wird beschrieben durch λ = (A, π, B). Es wird meistens zur Modellierung zeitlich organisierter Prozesse verwendet. Komplexere Problemstellungen werden meistens durch Verbund-Modelle realisiert (Zusammenschaltung einfacher Modelle) Ein entrolltes HMM entspricht einem einfachen Bayes-Netz mit rechtsseitiger Baumstruktur.

33 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Markov Random Fields (MRF) MRFs beschreiben ein Feld von Zufallsvariablen X mit ungerichteten direkten Abhängigkeiten. Dies ist darstellbar durch einen ungerichteten Graphen mit einer Nachbarschaft X Ni von Knoten X i. Jede Variable X i ist unabhängig von den Zuständen der übrigen Variablen X J gegeben die Menge der Nachbarschaftsknoten X Ni : P(x i x Ni, x J ) = P(x i x Ni ), wobei X = {X i } X J X Ni

34 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Beispiel Auf dem Tankstellenmarkt herrscht ein harter Preiskampf. Jeder Tankstellenbetreiber versucht seine Preise anhand des lokalen Preisgefüges der benachbarten Tankstellen und des Weltmarktpreises zu optimieren. Der Autofahrer unterwegs kennt zwar die Preise von Tankstelle A, B, und C, kann aber den Preis seiner nächsten Tankstelle D an einem Ort zwischen der teuren Tankstelle A und der günstigen Tankstelle C nur schätzen. Lohnt sich der Weg zur Tankstelle C?

35 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Welche Verteilung modelliert die Unabhängigkeitsbed. eines MRF? Gedankenexperiment Gegeben sei ein physikalisches System mit diskreten Energiezuständen ɛ 1, ɛ 2,..., ɛ m. N identische solche Systeme werden in einen abgeschlossenen Raum gesperrt, können aber untereinander Energie austauschen. Was ist die Verteilung der Energiezustände, die sich einstellt (am wahrscheinlichsten ist)?

36 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Boltzmann-Verteilung N s N = exp{ βɛ s} s exp{ βɛ s } wobei N s die Anzahl der Systeme im Zustand s. N die Gesamtanzahl der Systeme. β temperaturabh. Parameter.

37 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Die Faktorisierung der Boltzmann-Verteilung ergibt sich aus einer Zerlegung des Energiezustandes ɛ s in eine Summe aus einzelnen Energietermen E i (s). Faktorisierung der Boltzmann-Verteilung Ns N = exp{ β i E i(s)} Z wobei ɛ s = i E i(s) Z = s exp{ β i E i(s )} (Zustandssumme)

38 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Ein Systemzustand s wird modelliert durch eine Menge von Zufallsvariablen X = {X 1,..., X n } und entspricht einer Systemkonfiguration s (x 1, x 2,..., x n ) Ein Energieterm (Potentialfunktion V I (x I )) kann dabei nur von einer Teilmenge X I X der ZV abhängen. P(x 1,..., x n ) = 1 Z exp{ β I Q V I (x I )} wobei Q P({1, 2,..., n}) (P: Potenzmenge).

39 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields P(x 1,..., x n ) = 1 Z exp{ β I Q V I (x I )} Umsetzung der Zerlegung der Zustandsenergie ɛ s = I Q V I(x I ) in einen Graphen: Definiere für jede ZV einen Knoten. Ziehe genau dann eine Kante (i, j) zwischen zwei Knoten, wenn beide ZV in einem Teilenergieterm V I (x I ) vorkommen. ( I Q X i, X j X I ) Hieraus folgt die Unabhängigkeitbed. in einem MRF. P(x i x Ni, x J ) = P(x i x Ni ), wobei N i Nachbarschaft von X i

40 2.3 Varianten von PGMs: Markov Random Fields Def. Markov Random Fields Ein (diskretes) MRF wird beschreiben durch: Einer Menge von Variablen (Knoten) X und einer Menge von ungerichteten Kanten E. Jede Variable hat eine endliche Menge von sich gegenseitig ausschließenden Zuständen. Die Variablen bilden zusammen mit den ungerichteten Kanten einen ungerichteten Graphen G = (X, E) Es gilt die Unabhängigkeitsbed. (X = {X i } X Ni X J ) P(x i x Ni, x J ) = P(x i x Ni ), j J (i, j) E k Ni (i, k) E Probabilistische Graphische Modelle 38

41 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Bisher haben wir gezeigt, dass die Boltzmann-(Gibbs-)Verteilung die MRF-Bedingungen erfüllt. Hammersley-Clifford Theorem X ist genau dann ein MRF in Bezug auf ein Nachbarschaftssystem N, wenn P(x) eine Boltzmann-Gibbs-Verteilung ist. P(x 1,..., x n ) = 1 Z exp{ β I Q V I (x I )} wobei Q die Menge der (maximalen) Cliquen des Graphen mit Nachbarschaftssystem N ist.

42 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Def. Clique Eine Clique C in einem Graphen G = (X, E) ist eine Knotenteilmenge von G, d.h. C X, die vollverbunden ist, d.h. X i, X j : X i C X j C (i, j) E Die Beschränkung im Hammersley-Clifford-Theorem auf maximale Cliquen bedeutet keine Einschränkung für das Modell. Häufig werden größere Cliquen durch die Summe von Potentialfunktionen von Teil-Cliquen beschrieben.

43 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Inferenz bei MRFs (Problemstellung) Sei X = (X 1,..., X n ) ein Feld von Zustandsvariablen. Sei O = {O 1 = o 1,..., O n = o n } eine Menge von Beobachtungen. Most probable explanation (MPE): arg max x P(x o) = arg max P(o x) P(x) x entspricht einer Energieminimierung (meistens Annahme einer bed. Unabh. im Datenterm): arg min x E(x) = arg min x V I (x I ) I Q n log P(o i x i ) i=1

44 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Wahl des Priors U(x) = I Q V I(x I ) (Beispiele): Multi-level logistic model (nicht geordnete Labelmenge) V I (x I ) = { ζ I ζ I falls alle x i, i I den gleichen Wert haben sonst. Glattheits-Prior (meistens paarweise) U(x) = V I (x I ) = V 2 (x i, x i ), S = {1,..., n} I Q i S i N i mit V 2 (x i, x i ) = 1 2 (x i x i ) 2. andere anwendungsabh. Wahl möglich.

45 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Zusammenfassung MRFs Ein MRF ist ein ungerichteter Graph, wobei den Cliquen des Graphs Potentialfunktionen zugeordnet sind. Die Faktorisierung der Verbundwk. ergibt sich über die Summe der Potentialfunktionen. Jede Instantiierung einen MRFs wird als unabhängiges Ereignis betrachtet. Die Theorie von MRFs kann auch auf kontinuierliche Variablen ausgedehnt werden. Das Minimieren der Gesamtenergie des MRF entspricht der Berechnung einer most probable explanation der entsprechenden Boltzmann-Gibbs-Verteilung.

46 Probabilistische Graphische Modelle Varianten von PGMs: Gemeinsame Sicht Probabilistische Graphische Modelle kann man sich vorstellen als probabilistische Datenbasis, die wir über einen Anfragemechanismus bezüglich der Werte von Zufallsvariablen abfragen können. Modelliert wird jedes mal die Verbundwahrscheinlichkeit über einer Menge von Zufallsvariablen. Unabhängigkeitsannahmen H ergeben sich aus der Graphstruktur und spiegeln sich in der Faktorisierung der Verbundwk. P(x 1,..., x n H) = I Q f I (x I )

47 Probabilistische Graphische Modelle Varianten von PGMs: Gemeinsame Sicht P(x 1,..., x n H) = I Q f I (x I ) Dabei ist... Bayes-Netze: Q = {({Xi } X πi ) i {1,..., n}} fi (x I ) = P(x i x πi ), wobei I = ({X i } X πi ) ausgerollte HMMs können als Spezialfall eines BNs verstanden werden. MRFs: Q Menge der (maximalen) Cliques über dem Graph. fi (x I ) = exp{ βv I (x I )}

48 Probabilistische Graphische Modelle Varianten von PGMs: Gemeinsame Sicht Bayes-Netze und MRFs modellieren eine Folge von unabhängigen, identisch verteilten (IID) Verbund-Ensembles. Es besteht kein zeitlicher Zusammenhang zwischen zwei aufeinander folgenden Belegungen HMMs modellieren eine Folge von abhängigen Verbund-Ensembles (Zustand, Beobachtung). der zeitliche Zusammenhang ist meistens auf den vorherigen Zustand beschränkt. Erweiterung von Bayes-Netzen und MRFs auf dynamische PGMs.

49 Probabilistische Graphische Modelle Varianten von PGMs: Gemeinsame Sicht Gemeinsame Fragestellungen: Lassen sich Bayes-Netze und MRFs auf einander abbilden? Wo liegen die Grenzen, was kann modelliert werden? was nicht? Gibt es ein gemeinsames Schema für Inferenzalgorithmen? Wie können Parameter und Struktur aus Daten gelernt werden?

Probabilistische Graphische Modelle

Probabilistische Graphische Modelle Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007 Probabilistische Graphische Modelle

Mehr

Bayes sche und probabilistische Netze

Bayes sche und probabilistische Netze Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel

Mehr

Elektrotechnik und Informationstechnik

Elektrotechnik und Informationstechnik Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes

Mehr

Methoden der KI in der Biomedizin Bayes Netze

Methoden der KI in der Biomedizin Bayes Netze Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle Modellierung einer Domäne mit verschiedenen

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

Evidenzpropagation in Bayes-Netzen und Markov-Netzen

Evidenzpropagation in Bayes-Netzen und Markov-Netzen Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation

Mehr

Elektrotechnik und Informationstechnik

Elektrotechnik und Informationstechnik Elektrotechnik und Informationstechnik Institut für utomatisierungstechnik, Professur Prozessleittechnik Bayessche Netze VL Prozessinformationsverarbeitung WS 2009/2010 Problemstellung Wie kann Wissen

Mehr

Elementare Wahrscheinlichkeitslehre

Elementare Wahrscheinlichkeitslehre Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities) Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief

Mehr

Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle: Inferenz Wir haben eine Domäne durch gemeinsame

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

Bayessche Lineare Regression

Bayessche Lineare Regression Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:

Mehr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der

Mehr

Einführung in die diskreten Bayes- und Kredal-Netze

Einführung in die diskreten Bayes- und Kredal-Netze Einführung in die diskreten Bayes- und Kredal-Netze Master-Seminar im Wintersemester 2015/16 Patrick Schwaferts Institut für Statistik, LMU 16. Januar 2016 Schwaferts (Institut für Statistik, LMU) Bayes-

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,

Mehr

Generative Modelle. Generative Modelle 1 / 49

Generative Modelle. Generative Modelle 1 / 49 Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Belief Propagation, Strukturlernen Nico Piatkowski und Uwe Ligges 29.06.2017 1 von 13 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung

Mehr

Die Probabilistische Methode

Die Probabilistische Methode Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.

Mehr

Projektgruppe. Text Labeling mit Sequenzmodellen

Projektgruppe. Text Labeling mit Sequenzmodellen Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte

Mehr

Maschinelle Sprachverarbeitung

Maschinelle Sprachverarbeitung Maschinelle Sprachverarbeitung Übung Aufgabe 5: Gen-Erkennung mit Maschinellen Lernen Mario Sänger Problemstellung Erkennung von Genen in Texten NEU: Beachtung von Multi-Token-Entitäten (B-/I-protein)

Mehr

3. Kapitel: Arbeiten mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr.

3. Kapitel: Arbeiten mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr. Bayessche Netzwerke und ihre Anwendungen 3. Kapitel: Arbeiten mit Bayesschen Netzwerken Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863)

Mehr

Sprechstunde zur Klausurvorbereitung

Sprechstunde zur Klausurvorbereitung htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum

Mehr

Hidden Markov Models (HMM)

Hidden Markov Models (HMM) Hidden Markov Models (HMM) Kursfolien Karin Haenelt 1 Themen Definitionen Stochastischer Prozess Markow Kette (Visible) Markov Model Hidden Markov Model Aufgaben, die mit HMMs bearbeitet werden Algorithmen

Mehr

Grundlagen der Objektmodellierung

Grundlagen der Objektmodellierung Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung Grundlagen der Wahrscheinlichkeitsrechnung

Mehr

Wahrscheinlichkeitstheorie 2

Wahrscheinlichkeitstheorie 2 Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):

Mehr

Bayesianische Netzwerke I

Bayesianische Netzwerke I Bayesianische Netzwerke I Christiane Belitz 2.5.2003 Überblick Der Vortrag basiert auf Using Bayesian Networks to Analyze Expression Data von Friedman et al. (2000) Definition: Bayesianisches Netzwerk

Mehr

Frequentisten und Bayesianer. Volker Tresp

Frequentisten und Bayesianer. Volker Tresp Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen

Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen Rückblick Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen Vektorraummodell stellt Anfrage und Dokumente als Vektoren in gemeinsamen Vektorraum dar

Mehr

Vorhersage von Protein-Funktionen. Patrick Pfeffer

Vorhersage von Protein-Funktionen. Patrick Pfeffer Vorhersage von Protein-Funktionen Patrick Pfeffer Überblick Motivation Einleitung Methode Markov Random Fields Der Gibbs Sampler Parameter-Schätzung Bayes sche Analyse Resultate Pfeffer 2 Motivation Es

Mehr

Generative Modelle. Generative Modelle 1 / 49

Generative Modelle. Generative Modelle 1 / 49 Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die

Mehr

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: 24.01.2011 Autor: René Pecher Inhaltsverzeichnis 1 Permutation 1 1.1 ohne Wiederholungen........................... 1 1.2

Mehr

Quantitative Methoden Wissensbasierter Systeme

Quantitative Methoden Wissensbasierter Systeme Quantitative Methoden Wissensbasierter Systeme Probabilistische Netze und ihre Anwendungen Robert Remus Universität Leipzig Fakultät für Mathematik und Informatik Abteilung für Intelligente Systeme 23.

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Einleitung Wahl der a priori Verteilung Bezug zur Maximum Likelihood Methode. Bayessche Statistik. Christian Meisel

Einleitung Wahl der a priori Verteilung Bezug zur Maximum Likelihood Methode. Bayessche Statistik. Christian Meisel 19.07.2007 Gliederung 1 2 3 Wahrscheinlichkeitsbegriff In Bayesscher Statistik wird Wahrscheinlichkeit p im Sinne von unvollständigem Wissen über ein Ereignis verwendet. Bei gleichem Vorwissen über unterschiedliche

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Strukturelle Modelle Conditional Random Fields Katharina Morik LS 8 Informatik Technische Universität Dortmund 17.12. 2013 1 von 27 Gliederung 1 Einführung 2 HMM 3 CRF Strukturen

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

i =1 i =2 i =3 x i y i 4 0 1

i =1 i =2 i =3 x i y i 4 0 1 Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x

Mehr

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

Lineare Klassifikatoren

Lineare Klassifikatoren Universität Potsdam Institut für Informatik Lehrstuhl Lineare Klassifikatoren Christoph Sawade, Blaine Nelson, Tobias Scheffer Inhalt Klassifikationsproblem Bayes sche Klassenentscheidung Lineare Klassifikator,

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle). 77 Markowketten 77 Motivation Der Zustand eines Systems zur Zeit n N werde durch eine Zufallsvariable X n beschrieben und soll nur von X n abhängen (nicht jedoch von früheren Zuständen X n, X n 3, ) Wir

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation

Mehr

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator

Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator Mustererkennung Bayes-Klassifikator R. Neubecker, WS 2016 / 2017 Bayes-Klassifikator 2 Kontext Ziel: Optimaler Klassifikator ( = minimaler Klassifikationsfehler), basierend auf Wahrscheinlichkeitsverteilungen

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Gauß-Prozess-Regression

Gauß-Prozess-Regression Bayessche Regression und Gaußprozesse Dr. rer. nat. Johannes Riesterer Motivation Kriging Der südafrikanische Bergbauingenieur Danie Krige versuchte 1951, eine optimale Interpolationsmethode für den Bergbau

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Mathematische Grundlagen (Bayes sches Lernen)

Mathematische Grundlagen (Bayes sches Lernen) Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Mathematische Grundlagen (Bayes sches Lernen) Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick Anwendungsbeispiel 1: Diagnostik

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+

Mehr

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger

Mehr

Inhalt. 6.1 Motivation. 6.2 Klassifikation. 6.3 Clusteranalyse. 6.4 Asszoziationsanalyse. Datenbanken & Informationssysteme / Kapitel 6: Data Mining

Inhalt. 6.1 Motivation. 6.2 Klassifikation. 6.3 Clusteranalyse. 6.4 Asszoziationsanalyse. Datenbanken & Informationssysteme / Kapitel 6: Data Mining 6. Data Mining Inhalt 6.1 Motivation 6.2 Klassifikation 6.3 Clusteranalyse 6.4 Asszoziationsanalyse 2 6.1 Motivation Data Mining and Knowledge Discovery zielt darauf ab, verwertbare Erkenntnisse (actionable

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Planung von Handlungen bei unsicherer Information

Planung von Handlungen bei unsicherer Information Planung von Handlungen bei unsicherer Information Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 20.01.2010 Dr.-Ing. Bernd Ludwig (FAU ER)

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

Klassifikationsverfahren haben viele Anwendungen. Binäres Klassifikationsverfahren auch zur Klassifikation in mehr als zwei Klassen verwendbar

Klassifikationsverfahren haben viele Anwendungen. Binäres Klassifikationsverfahren auch zur Klassifikation in mehr als zwei Klassen verwendbar Rückblick Klassifikationsverfahren haben viele Anwendungen Binäres Klassifikationsverfahren auch zur Klassifikation in mehr als zwei Klassen verwendbar Konfusionsmatrix stellt Vorhersagen und Daten gegenüber

Mehr

Lösung Übungsblatt 5

Lösung Übungsblatt 5 Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer, Tom Vanck, Paul Prasse Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Termin: Montags,

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Latente Dirichlet-Allokation

Latente Dirichlet-Allokation Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert

Mehr

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008 Bayes sche Klassifikatoren Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 16. Juli 2008 Inhalt Einleitung Grundlagen der Wahrscheinlichkeitsrechnung Noisy-Channel-Modell Bayes sche Klassifikation

Mehr

Hidden Markov Modelle

Hidden Markov Modelle Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten

Mehr

Hidden Markov Model (HMM)

Hidden Markov Model (HMM) Hidden Markov Model (HMM) Kapitel 1 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig

Mehr