Probabilistische Graphische Modelle
|
|
- Ursula Adenauer
- vor 5 Jahren
- Abrufe
Transkript
1 Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007
2 Probabilistische Graphische Modelle 2 Übersicht über die Vorlesung 1
3 Probabilistische Graphische Modelle Wk.theorie + Probabilistische Inferenz Zusammenfassung Frequentisten vs. Bayesianer Cox Axiome Maximum-Likelihood-Schätzer posterior likelihood prior Bernoulli-Verteilung / Beta-Verteilung Multinomial-Verteilung / Dirichlet-Verteilung Normal-Verteilung / Normal-Verteilung Forward probabilities / inverse probabilities Dichteschätzung, Regression, Klassifikation
4 Probabilistische Graphische Modelle 4 2. Varianten von PGMs Es sind verschiedene Ausprägungen von PGMs getrennt von einander entstanden, deren Theorie erst später über den Begriff der Graphical Models zusammengeführt wurden: Bayes sche Netzwerke (BN) Finn V. Jensen, An Introduction to Bayesian Networks, London: UCL Press Limited, 1996, Kap. 2.3, 3.3. Hidden Markov Modelle (HMM) Gernot A. Fink, Mustererkennung mit Markov-Modellen, Wiesbaden: Teubner, 2003, Kap. 5. Markov Random Fields (MRF) Stan Z. Li, Markov Random Field Modeling in Computer Vision, New York, Berlin, Heidelberg, Tokyo: Springer, 1995, Kap. 1.
5 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Bayes sche Netzwerke (BN) Die Verbundwahrscheinlichkeit über eine Variablenmenge X = {X 1, X 2,..., X n } wird auf der Basis der Produkt- oder Kettenregel faktorisiert: P(x 1, x 2,..., x n ) =P(x 1 x 2,..., x n ) P(x 2 x 3,..., x n ) P(x n 1 x n )P(x n ) d.h. es wird eine Ordnung auf den Variablen angenommen (aus unterschiedlichen Ordnungen resultieren unterschiedliche BN s). Über Annahmen einer bed. Unabh. zwischen Variablen, können die Variablen in der Bedingung eingeschränkt werden
6 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Bed. Unabhängigkeit in BNs In BNs werden bedingte Unabhängigkeiten H über sogenannte Eltern (parents) definiert: P(x 1, x 2,..., x n H) n P(x i x πi ) i=1 wobei π i {X i+1,..., X n } Eltern von x i. Über die Eltern-Kind-Beziehung definiert sich der zugehörige gerichtete Graph.
7 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Beispiel: Paul arbeitet in seinem Büro in Californien. Sein Haus in einem Vorort ist durch eine Alarmanlage gesichert. Nach einer Sitzung bekommt er die Nachricht, dass seine Nachbarin Mary versucht hat ihn zu erreichen. Ist vielleicht seine Alarmanlage losgegangen? Hat eventuell ein Einbruch stattgefunden? Nach der nächsten Sitzung erfährt er, dass auch sein anderer Nachbar John versucht hat ihn anzurufen. Sehr beunruhigt setzt er sich in sein Auto und fährt nach Hause. Unterwegs hört er im Radio, dass ein kleines Erdbeben stattgefunden hat, ohne Schäden zu verursachen. Wieder beruhigt kehrt er zur Arbeitsstelle zurück.
8 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Beispiel: Paul arbeitet in seinem Büro in Californien. Sein Haus in einem Vorort ist durch eine Alarmanlage gesichert. Nach einer Sitzung bekommt er die Nachricht, dass seine Nachbarin Mary versucht hat ihn zu erreichen. Ist vielleicht seine Alarmanlage losgegangen? Hat eventuell ein Einbruch stattgefunden? Nach der nächsten Sitzung erfährt er, dass auch sein anderer Nachbar John versucht hat ihn anzurufen. Sehr beunruhigt setzt er sich in sein Auto und fährt nach Hause. Unterwegs hört er im Radio, dass ein kleines Erdbeben stattgefunden hat, ohne Schäden zu verursachen. Wieder beruhigt kehrt er zur Arbeitsstelle zurück.
9 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Anwendung der Kettenregel: P(John, Mary, Alarm, Einbruch, Erdbeben) = P(John Mary, Alarm, Einbruch, Erdbeben) P(Mary Alarm, Einbruch, Erdbeben) P(Alarm Einbruch, Erdbeden) P(Einbruch Erdbeben) P(Erdbeben) und Anwendung der bedingten Unabhängigkeitsannahmen H...
10 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Anwendung der Kettenregel: P(John, Mary, Alarm, Einbruch, Erdbeben H) = P(John Mary, Alarm, Einbruch, Erdbeben, H) P(Mary Alarm, Einbruch, Erdbeben, H) P(Alarm Einbruch, Erdbeden, H) P(Einbruch Erdbeben, H) P(Erdbeben H) = P(John Alarm) P(Mary Alarm) P(Alarm Einbruch, Erdbeden) P(Einbruch) P(Erdbeben)
11 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Einbruch Erdbeben Alarm JohnCalls MaryCalls P(John, Mary, Alarm, Einbruch, Erdbeben H) = P(John Alarm) P(Mary Alarm) P(Alarm Einbruch, Erdbeden) P(Einbruch) P(Erdbeben) wobei H die Menge der bed. Unabhängigkeitsannahmen.
12 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Def. (diskretes) Bayes sches Netzwerk (BN) (I) Ein BN besteht aus: Einer Menge von Variablen (Knoten) und einer Menge von gerichteten Kanten zwischen Variablen. Jede Variable hat eine endliche Menge von sich gegenseitig ausschließenden Zuständen. Die Variablen bilden zusammen mit den gerichteten Kanten einen gerichteten azyklischen Graphen (directed acyclic graph - DAG). D.h. Es existiert kein gerichteter Pfad mit... X 1 X k, so dass X 1 = X k
13 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Def. (diskretes) Bayes sches Netzwerk (BN) (II) Ein BN besteht aus (Fortsetzung): Jeder Variablen X i mit Eltern π i ist eine Tabelle von bedingten Wahrscheinlichkeiten zugeordnet: p(x (1) i x π (1) i )... p(x (1) i x π (L) i ) P(X i X πi ) p(x (K) i x π (1) i )... p(x (K) i x π (L) i )
14 2.1 Varianten von PGMs: Bayes sche Netzwerke Inferenz bei BNs (Problemstellungen): Sei X = {X 1, X 2,..., X n } die Menge von ZV en des BN. Sei O = (X J = x J ) = (X j1 = x j1,..., X jj = x jj ) gegeben. Belief updating (Bel): P(x i O) = P(X i = x i X j1 = x j1,..., X jj = x jj ) Most probable explanation (MPE): arg max x I A XI P(x I x J ), wobei X I = X \X J Maximum a posteriori hypothesis (MAP): arg max x I A XI P(x I x J ), wobei X I X \X J Probabilistische Graphische Modelle 12
15 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Modellierung in BN en Problem großer bed. Wk.-Tabellen P(A B, C, D): Es liegen Schätzungen für P(A B), P(A C), P(A D) vor, wie beschreiben wir ihre Kombination in P(A B, C, D)? Jede Ursache hat eine unabhängige Wirkung, wie kann dies modelliert werden?
16 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Beispiel (Noisy-or) Es gibt 3 Ereignisse, die dazu führen, dass die Alarmanlage los geht: Hintergrund-Ereignis: 0,1% aus unspezifischen Gründen Einbrecher: 95% Erdbeben: 29% Annahme: Die Faktoren, die dazu führen, dass das Ereignis trotzdem nicht eintritt sind unabhängig.
17 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Noisy-or Seien A 1,..., A n binäre Variablen der möglichen Ursachen von dem Ereignis der binären Variablen B. A i = true verursacht B = true, solange dies nicht durch andere Faktoren verhindert wird. Sei P(B = false A i = true) = q i die bed. Wk., dass B trotzdem nicht eintritt. Annahme: Verhinderungsfaktoren der Ereignisse von A 1,..., A n sind unabhängig, d.h. z.b.: P(B = true A 1 = true, A 2 = true, A 3 = = A n = false) = 1 P(B = false A 1 = true, A 2 = true, A 3 = = A n = false) = 1 q 1 q 2
18 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Beispiel (unabhängige Ursachen) Kopfschmerzen (Ko) können durch Fieber (Fi), einen Kater (Ka), Rheuma (Rh), einen Gehirntumor (Ge), oder andere Gründe (An) verursacht werden. Eventuell wird Aspirin (As) zur Linderung der Kopfschmerzen eingenommen. Die einzelnen Ursachen verstärken den Effekt. Der Einfluss der Ursachen auf die Wirkung ist unabhängig.
19 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke unabhängige Ursachen Seien C 1,..., C n die Elternknoten von A. C 1,..., C n sind unabhängig, falls das folgende für alle Konfigurationen (c 1,..., c n ) und für alle i gilt: Falls A = a und C i = c i ändert sich nach C i = c i, dann wird die resultierende Verteilung von A nur durch eine Funktion von a, c i, c i bestimmt.
20 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Divorcing Noisy-or und kausale Unabhängigkeit sind Spezialfälle von der Methode Divorcing (scheiden). Seien A 1,..., A n Elternknoten von B. A 1,..., A i is divorced from A i+1,..., A n durch die Einführung einer Zwischenvariablen C mit C wird gemeinsames Kind von A1,..., A i. C wird neben Ai+1,..., A n Elternknoten von B. Annahme: Die Konfigurationen von A 1,..., A i können partitioniert werden in die Mengen c (1),..., c (K), so dass für zwei Konfigurationen a [1,i], a [1,i] aus einer Menge c(j) gilt: P(B a [1,i], a [i+1,k] ) = P(B a [1,i], a [i+1,k])
21 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Beispiel (Ungerichtete Relationen): Um zwei zusammengehörige Socken zu finden, kann man diese nach Farbe und Muster klassifizieren. Nach mehrfachem Waschen ist dies jedoch nicht immer ganz einfach. In der letzten Waschmaschine waren 2 Paar Socken, die nicht mehr ganz eindeutig auseinander zu halten sind. Nichtsdestotrotz müssen wir zwei passende finden. Die Beschränkung dabei ist, dass es jeweils exakt 2 Socken des gleichen Typs gibt.
22 Probabilistische Graphische Modelle Varianten von PGMs: Bayes sche Netzwerke Ungerichtete Relationen Sei R(A, B, C) eine ungerichtete Relation zwischen den Variablen A, B, C, die durch die Werte {0, 1} beschrieben wird. Füge eine Variable D mit A D = {true, false}. Definiere P(D = true A, B, C) = R(A, B, C). Definiere P(D = false A, B, C) = 1 R(A, B, C). Setze die Evidenz D = true.
23 2.1 Varianten von PGMs: Bayes sche Netzwerke Zusammenfassung Bayes-Netze Ein BN ist ein DAG, wobei jedem Knoten (Variablen) eine bedingte Wk.-Tabelle zugeordnet ist. Gerichtete Kanten des DAG ergeben sich häufig über kausale Beziehungen der in den ZV modellierten Ereignisse. Die Faktorisierung der Verbundwk. ergibt sich über die Kettenregel bzw. die Elternknoten. Jede Instanziierung eines BNs (partielle Belegung der Variablen mit Werten Evidenzen) wird als unabhängiges Ereignis betrachtet. Die Theorie von Bayes-Netzen kann auch auf kontinuierliche Variablen ausgedehnt werden ( hybride Bayes-Netze) Ziel ist die Berechnung der bedingten Wahrscheinlichkeit von nicht beobachteten Variablen. Probabilistische Graphische Modelle 21
24 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Hidden Markov Modelle (HMM) HMMs beschreiben einen 2-stufigen stochastischen Prozess erste Stufe: diskreter stochastischer Prozess, stationär, kausal, einfach, endliche Zustandsmenge, endlicher Automat mit Übergangswk. P(s t s 1, s 2,..., s t 1 ) = P(s t s t 1 ) zweite Stufe: Zu jedem Zeitpunkt t wird eine Ausgabe (Emission) ot generiert, die Ausgabe ist nur vom aktuellen Zustand st abhängig P(o t o 1,..., o t 1, s 1,..., s t ) = P(o t s t )
25 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Beispiel Paul ist neu in der Stadt und versucht Mary, die sich in der Stadt recht gut auskennt, zu erklären, wo er gestern lang gegangen ist. Ich bin an einer großen Kreuzung gestartet. Dann bin ich bei einer Kirche herausgekommen und weiter gegangen zu einem Platz mit einem Brunnen. Von dort bin ich dann an einer Eisdiele vorbei gegangen, habe ein Stück weiter Straßenbahngleise überquert und bin bei meinem Hotel herausgekommen. Welcher Weg wurde genommen? An welchem Hotel ist Paul angekommen?
26 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Die Zustandsmenge besteht aus den markierten Stellen im Stadtplan. Die Beobachtungen sind markante Objekte an diesen Orten. Welcher Weg wurde genommen? An welchem Hotel ist Paul angekommen?
27 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Def. Hidden Markov Modelle Ein HMM 1. Ordnung wird vollständig beschrieben durch: eine endliche Menge von Zuständen S t {s 1 s N} eine Matrix A von Zustandsübergangswk. A = {a ij a ij = P(S t = j S t 1 = i)} einen Vektor π von Zustandsstartwk. π = {π i π i = P(S 1 = i)}. zustandsspezifische Emissionsverteilungen B = {b kj b kj = P(O t = o k S t = j)} bzw. {b j (x) b j (x) = p(x S t = j)} (kont. Dichten)
28 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Modellierung der Modellemissionen Meistens wird eine kontinuierliche Dichte durch eine Mischverteilung approximiert: M j b j (x) = c jk N (x µ jk, K jk ) k=1 wobei c jk das Mischungsgewicht mit k c k = 1 und c k 0 k, µ jk der zustandsabh. Mittelwert der Komponente, K jk die zustandsabh. Kovarianzmatrix der Komponente.
29 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Semikontinuierliche HMMs Die zu mischenden Komponenten sind unabhängig vom Zustand: M j b j (x) = c jk N (x µ k, K k ) k=1 wobei c jk das Mischungsgewicht mit k c k = 1 und c k 0 k, µ k der komponentenspezifische Mittelwert, K k die komponentenspezifische Kovarianzmatrix.
30 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Inferenz bei HMMs (Problemstellungen) Sei S = (S 1,..., S T ) eine Folge von Zustandsvariablen. Sei O = (O 1 = o k1,..., O t = o kt ) eine Folge von Beobachtungen. Produktionswk. von HMM λ (Evaluierung) P(O λ) = s 1,...,s T P(O, s 1,..., s T λ) optimale Produktionswk. von HMM λ (Dekodierung) P (O λ) = P(O, s λ) = max s 1,...,s T P(O, s 1,..., s T λ)
31 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Inferenz bei HMMs (Problemstellungen II) Sei S = (S 1,..., S T ) eine Folge von Zustandsvariablen. Sei O = (O 1 = o k1,..., O t = o kt ) eine Folge von Beobachtungen. Klassifikation (zwei oder mehr HMMs λ i ) P(λ i O) = max i P(O λ i ) P(λ i ) P(O)
32 Probabilistische Graphische Modelle Varianten von PGMs: Hidden Markov Modelle Zusammenfassung HMMs Ein HMM ist ein zweistufiger Zufallsprozess (Zustände der ersten Stufe sind nicht beobachtbar). Aufeinander folgende Ereignisse sind nicht unabhängig! Ein HMM wird beschrieben durch λ = (A, π, B). Es wird meistens zur Modellierung zeitlich organisierter Prozesse verwendet. Komplexere Problemstellungen werden meistens durch Verbund-Modelle realisiert (Zusammenschaltung einfacher Modelle) Ein entrolltes HMM entspricht einem einfachen Bayes-Netz mit rechtsseitiger Baumstruktur.
33 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Markov Random Fields (MRF) MRFs beschreiben ein Feld von Zufallsvariablen X mit ungerichteten direkten Abhängigkeiten. Dies ist darstellbar durch einen ungerichteten Graphen mit einer Nachbarschaft X Ni von Knoten X i. Jede Variable X i ist unabhängig von den Zuständen der übrigen Variablen X J gegeben die Menge der Nachbarschaftsknoten X Ni : P(x i x Ni, x J ) = P(x i x Ni ), wobei X = {X i } X J X Ni
34 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Beispiel Auf dem Tankstellenmarkt herrscht ein harter Preiskampf. Jeder Tankstellenbetreiber versucht seine Preise anhand des lokalen Preisgefüges der benachbarten Tankstellen und des Weltmarktpreises zu optimieren. Der Autofahrer unterwegs kennt zwar die Preise von Tankstelle A, B, und C, kann aber den Preis seiner nächsten Tankstelle D an einem Ort zwischen der teuren Tankstelle A und der günstigen Tankstelle C nur schätzen. Lohnt sich der Weg zur Tankstelle C?
35 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Welche Verteilung modelliert die Unabhängigkeitsbed. eines MRF? Gedankenexperiment Gegeben sei ein physikalisches System mit diskreten Energiezuständen ɛ 1, ɛ 2,..., ɛ m. N identische solche Systeme werden in einen abgeschlossenen Raum gesperrt, können aber untereinander Energie austauschen. Was ist die Verteilung der Energiezustände, die sich einstellt (am wahrscheinlichsten ist)?
36 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Boltzmann-Verteilung N s N = exp{ βɛ s} s exp{ βɛ s } wobei N s die Anzahl der Systeme im Zustand s. N die Gesamtanzahl der Systeme. β temperaturabh. Parameter.
37 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Die Faktorisierung der Boltzmann-Verteilung ergibt sich aus einer Zerlegung des Energiezustandes ɛ s in eine Summe aus einzelnen Energietermen E i (s). Faktorisierung der Boltzmann-Verteilung Ns N = exp{ β i E i(s)} Z wobei ɛ s = i E i(s) Z = s exp{ β i E i(s )} (Zustandssumme)
38 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Ein Systemzustand s wird modelliert durch eine Menge von Zufallsvariablen X = {X 1,..., X n } und entspricht einer Systemkonfiguration s (x 1, x 2,..., x n ) Ein Energieterm (Potentialfunktion V I (x I )) kann dabei nur von einer Teilmenge X I X der ZV abhängen. P(x 1,..., x n ) = 1 Z exp{ β I Q V I (x I )} wobei Q P({1, 2,..., n}) (P: Potenzmenge).
39 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields P(x 1,..., x n ) = 1 Z exp{ β I Q V I (x I )} Umsetzung der Zerlegung der Zustandsenergie ɛ s = I Q V I(x I ) in einen Graphen: Definiere für jede ZV einen Knoten. Ziehe genau dann eine Kante (i, j) zwischen zwei Knoten, wenn beide ZV in einem Teilenergieterm V I (x I ) vorkommen. ( I Q X i, X j X I ) Hieraus folgt die Unabhängigkeitbed. in einem MRF. P(x i x Ni, x J ) = P(x i x Ni ), wobei N i Nachbarschaft von X i
40 2.3 Varianten von PGMs: Markov Random Fields Def. Markov Random Fields Ein (diskretes) MRF wird beschreiben durch: Einer Menge von Variablen (Knoten) X und einer Menge von ungerichteten Kanten E. Jede Variable hat eine endliche Menge von sich gegenseitig ausschließenden Zuständen. Die Variablen bilden zusammen mit den ungerichteten Kanten einen ungerichteten Graphen G = (X, E) Es gilt die Unabhängigkeitsbed. (X = {X i } X Ni X J ) P(x i x Ni, x J ) = P(x i x Ni ), j J (i, j) E k Ni (i, k) E Probabilistische Graphische Modelle 38
41 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Bisher haben wir gezeigt, dass die Boltzmann-(Gibbs-)Verteilung die MRF-Bedingungen erfüllt. Hammersley-Clifford Theorem X ist genau dann ein MRF in Bezug auf ein Nachbarschaftssystem N, wenn P(x) eine Boltzmann-Gibbs-Verteilung ist. P(x 1,..., x n ) = 1 Z exp{ β I Q V I (x I )} wobei Q die Menge der (maximalen) Cliquen des Graphen mit Nachbarschaftssystem N ist.
42 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Def. Clique Eine Clique C in einem Graphen G = (X, E) ist eine Knotenteilmenge von G, d.h. C X, die vollverbunden ist, d.h. X i, X j : X i C X j C (i, j) E Die Beschränkung im Hammersley-Clifford-Theorem auf maximale Cliquen bedeutet keine Einschränkung für das Modell. Häufig werden größere Cliquen durch die Summe von Potentialfunktionen von Teil-Cliquen beschrieben.
43 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Inferenz bei MRFs (Problemstellung) Sei X = (X 1,..., X n ) ein Feld von Zustandsvariablen. Sei O = {O 1 = o 1,..., O n = o n } eine Menge von Beobachtungen. Most probable explanation (MPE): arg max x P(x o) = arg max P(o x) P(x) x entspricht einer Energieminimierung (meistens Annahme einer bed. Unabh. im Datenterm): arg min x E(x) = arg min x V I (x I ) I Q n log P(o i x i ) i=1
44 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Wahl des Priors U(x) = I Q V I(x I ) (Beispiele): Multi-level logistic model (nicht geordnete Labelmenge) V I (x I ) = { ζ I ζ I falls alle x i, i I den gleichen Wert haben sonst. Glattheits-Prior (meistens paarweise) U(x) = V I (x I ) = V 2 (x i, x i ), S = {1,..., n} I Q i S i N i mit V 2 (x i, x i ) = 1 2 (x i x i ) 2. andere anwendungsabh. Wahl möglich.
45 Probabilistische Graphische Modelle Varianten von PGMs: Markov Random Fields Zusammenfassung MRFs Ein MRF ist ein ungerichteter Graph, wobei den Cliquen des Graphs Potentialfunktionen zugeordnet sind. Die Faktorisierung der Verbundwk. ergibt sich über die Summe der Potentialfunktionen. Jede Instantiierung einen MRFs wird als unabhängiges Ereignis betrachtet. Die Theorie von MRFs kann auch auf kontinuierliche Variablen ausgedehnt werden. Das Minimieren der Gesamtenergie des MRF entspricht der Berechnung einer most probable explanation der entsprechenden Boltzmann-Gibbs-Verteilung.
46 Probabilistische Graphische Modelle Varianten von PGMs: Gemeinsame Sicht Probabilistische Graphische Modelle kann man sich vorstellen als probabilistische Datenbasis, die wir über einen Anfragemechanismus bezüglich der Werte von Zufallsvariablen abfragen können. Modelliert wird jedes mal die Verbundwahrscheinlichkeit über einer Menge von Zufallsvariablen. Unabhängigkeitsannahmen H ergeben sich aus der Graphstruktur und spiegeln sich in der Faktorisierung der Verbundwk. P(x 1,..., x n H) = I Q f I (x I )
47 Probabilistische Graphische Modelle Varianten von PGMs: Gemeinsame Sicht P(x 1,..., x n H) = I Q f I (x I ) Dabei ist... Bayes-Netze: Q = {({Xi } X πi ) i {1,..., n}} fi (x I ) = P(x i x πi ), wobei I = ({X i } X πi ) ausgerollte HMMs können als Spezialfall eines BNs verstanden werden. MRFs: Q Menge der (maximalen) Cliques über dem Graph. fi (x I ) = exp{ βv I (x I )}
48 Probabilistische Graphische Modelle Varianten von PGMs: Gemeinsame Sicht Bayes-Netze und MRFs modellieren eine Folge von unabhängigen, identisch verteilten (IID) Verbund-Ensembles. Es besteht kein zeitlicher Zusammenhang zwischen zwei aufeinander folgenden Belegungen HMMs modellieren eine Folge von abhängigen Verbund-Ensembles (Zustand, Beobachtung). der zeitliche Zusammenhang ist meistens auf den vorherigen Zustand beschränkt. Erweiterung von Bayes-Netzen und MRFs auf dynamische PGMs.
49 Probabilistische Graphische Modelle Varianten von PGMs: Gemeinsame Sicht Gemeinsame Fragestellungen: Lassen sich Bayes-Netze und MRFs auf einander abbilden? Wo liegen die Grenzen, was kann modelliert werden? was nicht? Gibt es ein gemeinsames Schema für Inferenzalgorithmen? Wie können Parameter und Struktur aus Daten gelernt werden?
Probabilistische Graphische Modelle
Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007 Probabilistische Graphische Modelle
MehrBayes sche und probabilistische Netze
Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen
MehrSyntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel
MehrElektrotechnik und Informationstechnik
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes
MehrMethoden der KI in der Biomedizin Bayes Netze
Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle Modellierung einer Domäne mit verschiedenen
MehrSemester-Fahrplan 1 / 17
Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD
MehrEvidenzpropagation in Bayes-Netzen und Markov-Netzen
Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation
MehrElektrotechnik und Informationstechnik
Elektrotechnik und Informationstechnik Institut für utomatisierungstechnik, Professur Prozessleittechnik Bayessche Netze VL Prozessinformationsverarbeitung WS 2009/2010 Problemstellung Wie kann Wissen
MehrElementare Wahrscheinlichkeitslehre
Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?
MehrBayesianische Netzwerke - Lernen und Inferenz
Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrBayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)
Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief
MehrInstitut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle: Inferenz Wir haben eine Domäne durch gemeinsame
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrBayessche Lineare Regression
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrEinführung in die diskreten Bayes- und Kredal-Netze
Einführung in die diskreten Bayes- und Kredal-Netze Master-Seminar im Wintersemester 2015/16 Patrick Schwaferts Institut für Statistik, LMU 16. Januar 2016 Schwaferts (Institut für Statistik, LMU) Bayes-
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,
MehrGenerative Modelle. Generative Modelle 1 / 49
Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Belief Propagation, Strukturlernen Nico Piatkowski und Uwe Ligges 29.06.2017 1 von 13 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrÜbersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten
Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung
MehrDie Probabilistische Methode
Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.
MehrProjektgruppe. Text Labeling mit Sequenzmodellen
Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:
MehrBiostatistik, Sommer 2017
1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte
MehrStochastik Wiederholung von Teil 1
Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,
MehrHidden Markov Models
Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte
MehrMaschinelle Sprachverarbeitung
Maschinelle Sprachverarbeitung Übung Aufgabe 5: Gen-Erkennung mit Maschinellen Lernen Mario Sänger Problemstellung Erkennung von Genen in Texten NEU: Beachtung von Multi-Token-Entitäten (B-/I-protein)
Mehr3. Kapitel: Arbeiten mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr.
Bayessche Netzwerke und ihre Anwendungen 3. Kapitel: Arbeiten mit Bayesschen Netzwerken Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863)
MehrSprechstunde zur Klausurvorbereitung
htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)
MehrGrundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt
Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum
MehrHidden Markov Models (HMM)
Hidden Markov Models (HMM) Kursfolien Karin Haenelt 1 Themen Definitionen Stochastischer Prozess Markow Kette (Visible) Markov Model Hidden Markov Model Aufgaben, die mit HMMs bearbeitet werden Algorithmen
MehrGrundlagen der Objektmodellierung
Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung Grundlagen der Wahrscheinlichkeitsrechnung
MehrWahrscheinlichkeitstheorie 2
Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):
MehrBayesianische Netzwerke I
Bayesianische Netzwerke I Christiane Belitz 2.5.2003 Überblick Der Vortrag basiert auf Using Bayesian Networks to Analyze Expression Data von Friedman et al. (2000) Definition: Bayesianisches Netzwerk
MehrFrequentisten und Bayesianer. Volker Tresp
Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben
MehrVarianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrBoole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen
Rückblick Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen Vektorraummodell stellt Anfrage und Dokumente als Vektoren in gemeinsamen Vektorraum dar
MehrVorhersage von Protein-Funktionen. Patrick Pfeffer
Vorhersage von Protein-Funktionen Patrick Pfeffer Überblick Motivation Einleitung Methode Markov Random Fields Der Gibbs Sampler Parameter-Schätzung Bayes sche Analyse Resultate Pfeffer 2 Motivation Es
MehrGenerative Modelle. Generative Modelle 1 / 49
Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die
MehrInhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher
Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: 24.01.2011 Autor: René Pecher Inhaltsverzeichnis 1 Permutation 1 1.1 ohne Wiederholungen........................... 1 1.2
MehrQuantitative Methoden Wissensbasierter Systeme
Quantitative Methoden Wissensbasierter Systeme Probabilistische Netze und ihre Anwendungen Robert Remus Universität Leipzig Fakultät für Mathematik und Informatik Abteilung für Intelligente Systeme 23.
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrEinleitung Wahl der a priori Verteilung Bezug zur Maximum Likelihood Methode. Bayessche Statistik. Christian Meisel
19.07.2007 Gliederung 1 2 3 Wahrscheinlichkeitsbegriff In Bayesscher Statistik wird Wahrscheinlichkeit p im Sinne von unvollständigem Wissen über ein Ereignis verwendet. Bei gleichem Vorwissen über unterschiedliche
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Strukturelle Modelle Conditional Random Fields Katharina Morik LS 8 Informatik Technische Universität Dortmund 17.12. 2013 1 von 27 Gliederung 1 Einführung 2 HMM 3 CRF Strukturen
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten
Mehri =1 i =2 i =3 x i y i 4 0 1
Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x
MehrBayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp
Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrLineare Klassifikatoren
Universität Potsdam Institut für Informatik Lehrstuhl Lineare Klassifikatoren Christoph Sawade, Blaine Nelson, Tobias Scheffer Inhalt Klassifikationsproblem Bayes sche Klassenentscheidung Lineare Klassifikator,
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe
MehrÜbungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression
Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen
MehrStochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrProzesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).
77 Markowketten 77 Motivation Der Zustand eines Systems zur Zeit n N werde durch eine Zufallsvariable X n beschrieben und soll nur von X n abhängen (nicht jedoch von früheren Zuständen X n, X n 3, ) Wir
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation
MehrÜberblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator
Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrMustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator
Mustererkennung Bayes-Klassifikator R. Neubecker, WS 2016 / 2017 Bayes-Klassifikator 2 Kontext Ziel: Optimaler Klassifikator ( = minimaler Klassifikationsfehler), basierend auf Wahrscheinlichkeitsverteilungen
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
MehrGauß-Prozess-Regression
Bayessche Regression und Gaußprozesse Dr. rer. nat. Johannes Riesterer Motivation Kriging Der südafrikanische Bergbauingenieur Danie Krige versuchte 1951, eine optimale Interpolationsmethode für den Bergbau
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
MehrGibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells
Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren
MehrPr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrMathematische Grundlagen (Bayes sches Lernen)
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Mathematische Grundlagen (Bayes sches Lernen) Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick Anwendungsbeispiel 1: Diagnostik
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
MehrDWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr
2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,
MehrMathematische und statistische Methoden II
Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+
MehrStatistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze
Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger
MehrInhalt. 6.1 Motivation. 6.2 Klassifikation. 6.3 Clusteranalyse. 6.4 Asszoziationsanalyse. Datenbanken & Informationssysteme / Kapitel 6: Data Mining
6. Data Mining Inhalt 6.1 Motivation 6.2 Klassifikation 6.3 Clusteranalyse 6.4 Asszoziationsanalyse 2 6.1 Motivation Data Mining and Knowledge Discovery zielt darauf ab, verwertbare Erkenntnisse (actionable
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)
MehrBayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
MehrPlanung von Handlungen bei unsicherer Information
Planung von Handlungen bei unsicherer Information Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 20.01.2010 Dr.-Ing. Bernd Ludwig (FAU ER)
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
MehrKlassifikationsverfahren haben viele Anwendungen. Binäres Klassifikationsverfahren auch zur Klassifikation in mehr als zwei Klassen verwendbar
Rückblick Klassifikationsverfahren haben viele Anwendungen Binäres Klassifikationsverfahren auch zur Klassifikation in mehr als zwei Klassen verwendbar Konfusionsmatrix stellt Vorhersagen und Daten gegenüber
MehrLösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer, Tom Vanck, Paul Prasse Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Termin: Montags,
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrLatente Dirichlet-Allokation
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert
MehrBayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008
Bayes sche Klassifikatoren Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 16. Juli 2008 Inhalt Einleitung Grundlagen der Wahrscheinlichkeitsrechnung Noisy-Channel-Modell Bayes sche Klassifikation
MehrHidden Markov Modelle
Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten
MehrHidden Markov Model (HMM)
Hidden Markov Model (HMM) Kapitel 1 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig
Mehr