Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
|
|
- Rüdiger Biermann
- vor 6 Jahren
- Abrufe
Transkript
1 Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr
2 Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen Zufallsgrössen Beispielsweise medizinische Anwendungsbereiche: gemeinsame Verteilung über Attribute von Patienten, Symptome, und Krankheiten Beliebige Wahrscheinlichkeitsanfragen Borreliose-Diagnostik 2
3 Überblick Graphische Modelle: Syntax und Semantik Graphische Modelle im Maschinellen Lernen Inferenz in Graphischen Modellen (exakt, approximativ) Sequenzmodelle 3
4 Überblick Graphische Modelle: Syntax und Semantik Graphische Modelle im Maschinellen Lernen Inferenz in Graphischen Modellen (exakt, approximativ) Sequenzmodelle 4
5 Erinnerung: Zufallsvariablen, Verteilungen Zufallsvariablen: Diskrete ZV: Verteilungen beschrieben durch Wahrscheinlichkeiten Kontinuierliche ZV: Verteilungen beschrieben durch Dichten Gemeinsame Verteilung Bedingte Verteilung Produktregel: Summenregel: X, Y, Z,... p( X, Y) p( X Y) p( X, Y) py ( ) p( X, Y) p( X Y) p( Y) diskret oder kontinuierlich p( x) p( x, y) diskrete Verteilungen y p( x) p( x, y) dy kontinuierliche Verteilungen 5
6 Unabhängigkeit von Zufallsvariablen Unabhängigkeit (diskret oder kontinuierlich) X,Y unabhängig genau dann wenn p( X, Y) p( X ) p( Y) X,Y unabhängig genau dann wenn p( X Y) p( X ) X,Y unabhängig genau dann wenn p( Y X ) p( Y) Bedingte Unabhängigkeit (diskret oder kontinuierlich) X,Y unabhängig gegeben Z genau dann wenn p( X, Y Z) p( X Z) p( Y Z) X,Y unabhängig gegeben Z genau dann wenn p( Y X, Z) p( Y Z) X,Y unabhängig gegeben Z genau dann wenn p( X Y, Z) p( X Z)... einfach Anwendung des Unabhängigkeitsbegriffs auf die bedingte gemeinsame Verteilung p(x,y Z) 6
7 Graphische Modelle: Idee/Ziel Ziel: Modellierung der gemeinsame Verteilung p(x 1,,X ) einer Menge von ZV X 1,,X Aus p(x 1,,X ) lassen sich berechnen Alle Randverteilungen (Summenregel) p( X,..., X ), { i,..., i } {1,..., } i i m 1 m 1 Alle bedingten Verteilungen (aus Randverteilungen) p( X,..., X X,..., X ), { i,..., i } {1,..., } i1 im im1 imk 1 mk Damit lassen sich alle probabilistischen Fragestellungen (Inferenzprobleme) über X 1,,X beantworten 7
8 Graphische Modelle: Idee/Ziel Graphische Modelle: Kombination von Wahrscheinlichkeitstheorie und Graphentheorie Kompakte, intuitive Modellierung von p(x 1,,X ) Graphstruktur repräsentiert Struktur der Verteilung (Abhängigkeiten zwischen Variablen X 1,,X ) Einsicht in Struktur des Modells; einfach, Vorwissen einzubringen Effiziente Algorithmen für Inferenz, die Graphstruktur ausnutzen Viele Methoden des maschinellen Lernens lassen sich in Form von GM darstellen Fragestellungen wie MAP Lernen, Bayessche Vorhersage lassen sich als Inferenzprobleme in GM formulieren 8
9 Graphische Modelle: Beispiel Beispiel: Alarm Szenario Unser Haus in LA hat eine Alarmanlage. Wir sind im Urlaub. Unser achbar ruft an, falls er den Alarm hört. Wenn eingebrochen wurde, wollen wir zurück kommen. Leider ist der achbar nicht immer zu Hause. Leider geht die Alarmanlage auch bei kleinen Erdbeben los. 5 binäre Zufallsvariablen B E A R Burglary Einbruch hat stattgefunden Earthquake Erdbeben hat stattgefunden Alarm Alarmanlage geht los eighborcalls achbar ruft an RadioReport Bericht über Erdbeben im Radio 9
10 Graphische Modelle: Beispiel Zufallsvariablen haben eine gemeinsame Verteilung p(b,e,a,,r). Wie angeben? Welche Abhängigkeiten gelten? Beispiel für Inferenzproblem: achbar hat angerufen (=1), wie wahrscheinlich ist Einbruch (B=1)? Hängt von verschiedenen Faktoren ab Wie wahrscheinlich Einbruch a priori? Wie wahrscheinlich Erdbeben a priori? Wie wahrscheinlich, dass Alarmanlage auslöst? (aive) Inferenz: p( B 1 1) E A R B E A R p( B 1, 1) p ( 1) p( B 1, E, A, 1, R) p( B, E, A, 1, R) 10
11 Graphische Modelle: Beispiel Wie modellieren wir p(b,e,a,,r)? 1. Versuch: vollständige Tabelle B E A R P(B,E,A,,R) Versuch: alles unabhängig +Alle Verteilungen p( B, E, A,, R) können repräsentiert werden - Anzahl Parameter exponentiell - Schwierig anzugeben p( B, E, A,, R) p( B) p( E) p( A) p( ) p( R) +Anzahl Parameter linear - Zu restriktiv, Unabhängigkeitsannahme erlaubt keine sinnvolle Inferenz 11
12 Graphische Modelle: Beispiel Graphisches Modell: Selektive Unabhängigkeitsannahmen, durch Vorwissen motiviert Wähle Variablenordnung: z.b. B<E<A<<R Produktregel: p( B, E, A,, R) p( B, E, A, ) p( R B, E, A, ) p( B, E, A) p( B, E, A) p( R B, E, A, ) p( B, E) p( A B, E) p( B, E, A) p( R B, E, A, ) p( B) p( E B) p( A B, E) p( B, E, A) p( R B, E, A, ) Faktoren beschreiben die Verteilung einer Zufallsvariablen in Abhängigkeit anderer Zufallsvariablen. Können wir diese Faktoren vereinfachen? Welche dieser Abhängigkeiten bestehen wirklich? 12
13 Graphische Modelle: Beispiel Zerlegung in Faktoren nach Produktregel: p( B, E, A,, R) p( B) p( E B) p( A B, E) p( B, E, A) p( R B, E, A, ) Annahme bedingter Unabhängigkeiten (Entfernen von Variablen aus Bedingungsteil) p( E B) p( E) p( A B, E) p( A B, E) p( B, E, A) p( A) p( R B, E, A, ) p( R E) Vereinfachte Darstellung der gemeinsamen Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) Vereinfachte Faktoren Erdbeben hängt nicht von Einbruch ab Alarm hängt von Einbruch und Erdbeben ab Anruf von achbar hängt nur von Alarm ab achricht im Radio hängt nur Erdbeben ab 13
14 Graphische Modelle: Beispiel Graphisches Modell für Alarm Szenario P(B=1) P(E=1) B E P(A=1 B,E) B E A A P(=1 A) Modellierte Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) E P(R=1 E) R Graphisches Modell: - Jede ZV ist ein Knoten - Für jeden Faktor der Form p( X X,..., X ) fügen wir gerichtete Kanten von den X zu X ein - Modell ist parametrisiert mit den bedingten Verteilungen px ( X1,..., X k ) 1 i k 14
15 Graphische Modelle: Beispiel Graphisches Modell für Alarm Szenario Anzahl Parameter: O(*2 K ), K= max. Anzahl von Elternknoten Hier statt Parameter Gerichtete graphische Modelle heißen auch Bayessche etze 15
16 Gerichtete Graphische Modelle: Definition Gegeben eine Menge von ZV {X 1,,X } Ein gerichtetes graphisches Modell über den ZV {X 1,,X } ist ein gerichteter Graph mit Knotenmenge X 1,,X Es gibt keine gerichteten Zyklen X X... X X i i i i 2 k 1 Knoten sind mit parametrisierten bedingten Verteilungen p( Xi pa( X )) assoziiert, wobei pa( X i i) { X j X j Xi} die Menge der Elternknoten eines Knoten ist Das graphische Modell modelliert eine gemeinsame Verteilung über X 1,,X durch p( X,..., X ) p( X pa( X )) 1 i1 i i 1 16
17 Gerichtete Graphische Modelle: Definition Warum muss der Graph azyklisch sein? Satz aus der Graphentheorie: G ist azyklisch es gibt Ordnung der Knoten, so dass gerichtete Kanten Damit ergibt sich 1 die Ordnung respektieren ( ' ') i1 p( X,..., X ) p( X pa( X )) aus Produktregel + bedingten Unabhängigkeitsannahmen (Variablen entsprechend umsortieren) Gegenbeispiel (kein graphisches Modell): X Y p( X, Y) p( X Y) p( Y X ) G i G i Vor X i in G Variablenordnung 17
18 Graphische Modelle: Unabhängigkeit Die Graphstruktur eines Graphischen Modells impliziert (bedingte) Unabhängigkeiten zwischen ZV otation: Für Variablen X, Y, Z schreiben wir X Y Z p( X Y, Z) p( X Z) " X unabhängig von Y gegeben Z" Erweiterung auf disjunkte Mengen A, B, C von ZV C p( A B, C) p( A C) 18
19 Graphische Modelle: Unabhängigkeit Welche Unabhängigkeiten der Form C werden durch die Graphstruktur modelliert? Im Prinzip auszurechnen durch Summen/Produktregel aus der gemeinsamen Verteilung Bei graphischen Modellen aber direkt aus der Graphstruktur ableitbar viel einfacher D-separation : Menge einfacher Regeln, nach denen sich alle Unabhängigkeiten ableiten lassen D in D-separation steht für Directed, weil sich die Regeln auf Unabhängigkeit in gerichteten graphischen Modellen beziehen (gerichteter Graph). 19
20 Graphische Modelle: Unabhängigkeit D-separation: Welche Unabhängigkeiten der Form werden durch die Graphstruktur modelliert? Wichtige Rolle spielen Pfade im Graphen, die ZV verbinden otation: X X X Y Y Y Z Z Z C Pfad zwischen X und Z hat eine konvergierende Verbindung bei Y ( head to head ) Pfad zwischen X und Z hat eine serielle Verbindung bei Y ( head to tail ) Pfad zwischen X und Z hat eine divergierende Verbindung bei Y ( tail-to-tail ) 20
21 Divergierende Verbindungen Betrachte Pfad A E R. Gilt R? B E Gemeinsame Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) A R B= Einbruch = achbar ruft an E= Erdbeben R= Radio Bericht A= Alarm 21
22 Divergierende Verbindungen Betrachte Pfad A E R. Gilt R? B A E R Gemeinsame Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) ein, p( A R) p( A) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: RadioReport wahrscheinlich Erdbeben wahrscheinlich Alarm p( A 1 R 1) p( A 1 R 0) B= Einbruch E= Erdbeben A= Alarm = achbar ruft an R= Radio Bericht ZV R beeinflusst ZV A über die divergierende Verbindung R E A 22
23 Divergierende Verbindungen Betrachte Pfad A E R. Gilt R E? B E A R Gemeinsame Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) beobachteter Knoten 23
24 Divergierende Verbindungen Betrachte Pfad A E R. Gilt R E? B E A R Gemeinsame Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) beobachteter Knoten Ja, p( A R, E) p( A E) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: Wenn wir schon wissen, dass ein Erdbeben eingetreten ist, wird die Wahrscheinlichkeit für Alarm nicht höher/niedriger durch RadioReport Der divergierende Pfad A ER wird durch Beobachtung von E blockiert 24
25 Serielle Verbindungen Betrachte Pfad A B. Gilt? B E A R Gemeinsame Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) 25
26 Serielle Verbindungen Betrachte Pfad A B. Gilt? B A E R Gemeinsame Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) ein, p( B ) p( B) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: eighborcalls wahrscheinlich Alarm wahrscheinlich Burglary p( B 1 1) p( B 1 0) ZV beeinflusst ZV B über den seriellen Pfad AB 26
27 Serielle Verbindungen Betrachte Pfad A B. Gilt A? B E A R Gemeinsame Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) beobachteter Knoten 27
28 Serielle Verbindungen Betrachte Pfad A B. Gilt A? B E A R Gemeinsame Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) beobachteter Knoten Ja, p( B, A) p( B A) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: Wenn wir schon wissen, dass der Alarm ausgelöst wurde, sinkt/steigt die Wahrscheinlichkeit für Einbruch nicht dadurch, dass achbar anruft Der serielle Pfad A B wird durch Beobachtung von A blockiert. 28
29 Konvergierende Verbindung Betrachte Pfad B A E. Gilt? B E A R Gemeinsame Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) 29
30 Konvergierende Verbindung Betrachte Pfad B A E. Gilt? B A E R Gemeinsame Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) Ja, p( B E) p( B) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: Einbrüche treten nicht häufiger/seltener auf an Tagen mit Erdbeben Der konvergierende Pfad B A E ist blockiert wenn A nicht beobachtet ist 30
31 Konvergierende Verbindung Betrachte Pfad B A E. Gilt? B E A R Gemeinsame Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) beobachteter Knoten A 31
32 Konvergierende Verbindung Betrachte Pfad B A E. Gilt? B E A R Gemeinsame Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) beobachteter Knoten A ein, p( B E, A) p( B A) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: Alarm wurde ausgelöst. Falls wir ein Erdbeben beobachten, erklärt das den Alarm, Wahrscheinlichkeit für Einbruch sinkt ("explaining away"). Der konvergierende Pfad B AE wird freigegeben durch Beobachtung von A 32
33 Konvergierende Verbindung Betrachte Pfad B A E. Gilt? B E A R Gemeinsame Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) beobachteter Knoten ein, p( B, A) p( B A) [Ausrechnen mit gemeinsamer Verteilung] Intuitiv: eighborcalls indirekte Beobachtung von Alarm. Erdbebenbeobachtung erklärt den Alarm, Wahrscheinlichkeit für Einbruch sinkt ("explaining away"). Der konvergierende Pfad B AE wird freigegeben durch Beobachtung von 33
34 Zusammenfassung Pfade Zusammenfassung: ein Pfad -X-Y-Z- ist B A E Blockiert bei Y, wenn Divergierende Verbindung, und Y beobachtet, oder Serielle Verbindung, und Y beobachtet, oder Konvergierende Verbindung, und weder Y noch einer seiner achfahren Y Descendants(Y) beobachtet Descendants(Y)={Y es gibt gerichteten Pfad von Y zu Y } Sonst ist der Pfad frei bei Y R Gemeinsame Verteilung: p( B, E, A,, R) p( B) p( E) p( A E, B) p( A) p( R E) 34
35 D-Separation: Blockierte Pfade Bisher: Pfad blockiert bei einem bestimmten Knoten Verallgemeinerung: ein Pfad ist insgesamt blockiert, wenn er bei einem auf dem Pfad liegenden Knoten blockiert ist: Seien X,X ZV, C eine beobachtete Menge von ZV, X,X C Ein ungerichteter Pfad X X 1 X n X zwischen X und X ist blockiert gegeben C gdw es einen Knoten X i gibt so dass Pfad bei X i blockiert ist gegeben C D-Separation basiert auf blockierten Pfaden: Seien A,B,C disjunkte Mengen von ZV. Definition: A und B sind d-separiert durch C gdw jeder Pfad von einem Knoten X A zu einem Knoten Y B blockiert ist gegeben C. 35
36 D-Separation: Korrektheit, Vollständigkeit Gegeben ein graphisches Modell über {X 1,,X } mit Graphstruktur G. Das graphische Modell modelliert eine Verteilung durch p( X,..., X ) p( X pa( X )) 1 i1 abhängig von den bedingten Verteilungen p( Xi pa( Xi)). Theorem (Korrektheit, Vollständigkeit d-separation) Falls A,B d-separiert gegeben C in G, dann Es gibt keine anderen Unabhängigkeiten, die für jede Wahl der bedingten Verteilungen p( X pa( X )) gelten. i i i i p( A B, C) p( A C) 36
37 D-Separation: Beispiel A C E Ein Pfad -X-Y-Z- ist Blockiert bei Y, wenn B G D F Gilt A F D? Gilt B C? Gilt A C? Divergierende Verbindung, und Y beobachtet, oder Serielle Verbindung, und Y beobachtet, oder Konvergierende Verbindung, und weder Y noch einer seiner achfahren Y Descendants(Y) beobachtet Sonst ist der Pfad frei bei Y 37
38 D-Separation: Beispiel A C E Ein Pfad -X-Y-Z- ist Blockiert bei Y, wenn B G D F Gilt A F D? Ja Gilt B C? ein: B G E Gilt A C? ein: A C B G E Divergierende Verbindung, und Y beobachtet, oder Serielle Verbindung, und Y beobachtet, oder Konvergierende Verbindung, und weder Y noch einer seiner achfahren Y Descendants(Y) beobachtet Sonst ist der Pfad frei bei Y 38
39 Modelle Unterschiedlicher Komplexität Komplexität eines Modell hängt ab von der Menge der Kanten im Graph Viele Kanten: wenig Unabhängigkeitsannahmen, viele Parameter, große Klasse von Verteilungen kann repräsentiert werden Wenige Kanten: viele Unabhängigkeitsannahmen, wenige Parameter, kleine Klasse von Verteilungen kann repräsentiert werden Definition: I(G) ={ ( A C): A und B sind d-separiert gegeben C in G} Alle Unabhängigkeitsannahmen, die durch G kodiert werden 39
40 Modelle Unterschiedlicher Komplexität Hinzufügen von Kanten: Familie der darstellbare Verteilungen wird grösser, I(G) wird kleiner Extremfälle: Graph ohne Kanten, (ungerichtet) vollständig verbundener Graph Parameter (binäre Variablen) B A E R B 2-1 Parameter (binäre Variablen) A E R I( G) {( A C): A, B, C disj. Mengen von ZV} IG ( ) 40
41 Überblick Graphische Modelle: Syntax und Semantik Graphische Modelle im Maschinellen Lernen Inferenz in Graphischen Modellen (exakt, approximativ) Sequenzmodelle 41
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle Modellierung einer Domäne mit verschiedenen
MehrInstitut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle: Inferenz Wir haben eine Domäne durch gemeinsame
MehrBayes sche und probabilistische Netze
Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung
MehrSemester-Fahrplan 1 / 17
Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD
MehrMethoden der KI in der Biomedizin Bayes Netze
Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze
MehrSyntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrBayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
MehrElektrotechnik und Informationstechnik
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes
MehrBayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)
Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Graphsche Modelle els Landwehr Zusammenfassung Pfade Zusammenfassung: en Pfad --Y-Z- st B A E Blockert be Y, wenn Dvergerende Verbndung,
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte
MehrBayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind
Bayessche Netze Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Einleitung Sicheres vs. Unsicheres Wissen Kausale Netzwerke Abhängigkeit Verbindungsarten Exkurs:
MehrElektrotechnik und Informationstechnik
Elektrotechnik und Informationstechnik Institut für utomatisierungstechnik, Professur Prozessleittechnik Bayessche Netze VL Prozessinformationsverarbeitung WS 2009/2010 Problemstellung Wie kann Wissen
MehrMaschinelles Lernen II
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen II Niels Landwehr Organisation Vorlesung/Übung 4 SWS. Ort: 3.01.2.31. Termin: Vorlesung: Dienstag, 10:00-11:30.
MehrKapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
MehrBayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur
MehrEvidenzpropagation in Bayes-Netzen und Markov-Netzen
Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation
MehrWahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung
Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2018 Anwendung der Bayesschen Theorie in ML Bayessche Netzwerke Bayessche Netze werden in modernen Expertensystemen benutzt. Das Wissen wird über
MehrUnabhängigkeit von Zufallsvariablen
Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1
MehrZusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen
Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k
MehrWahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de
MehrElementare Wahrscheinlichkeitslehre
Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,
MehrTeil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung
Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrStatistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze
Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrDarstellung, Verarbeitung und Erwerb von Wissen
Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267
MehrEinführung in die diskreten Bayes- und Kredal-Netze
Einführung in die diskreten Bayes- und Kredal-Netze Master-Seminar im Wintersemester 2015/16 Patrick Schwaferts Institut für Statistik, LMU 16. Januar 2016 Schwaferts (Institut für Statistik, LMU) Bayes-
MehrÜbersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches
MehrLatente Dirichlet-Allokation
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrBayessche Lineare Regression
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.
MehrBayesianische Netzwerke - Lernen und Inferenz
Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel
MehrMathematische Grundlagen (Bayes sches Lernen)
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Mathematische Grundlagen (Bayes sches Lernen) Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick Anwendungsbeispiel 1: Diagnostik
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:
Mehr3. Kapitel: Arbeiten mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr.
Bayessche Netzwerke und ihre Anwendungen 3. Kapitel: Arbeiten mit Bayesschen Netzwerken Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863)
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Zusammenfassung. Niels Landwehr, Uwe Dick, Matthias Bussas
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Zusammenfassung Niels Landwehr, Uwe Dick, Matthias Bussas Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrWS 2013/14. Diskrete Strukturen
WS 2013/14 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws1314
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen
MehrDiskrete Strukturen Kapitel 4: Graphentheorie (Bäume)
WS 2016/17 Diskrete Strukturen Kapitel 4: Graphentheorie (Bäume) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_16
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrDatenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- olafs@physik.uzh.ch 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und
MehrProbabilistische Graphische Modelle
Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007 Probabilistische Graphische Modelle
MehrVerteilen von Bällen auf Urnen
Verteilen von Bällen auf Urnen Szenario: Wir verteilen n Bälle auf m Urnen, d.h. f : B U mit B = {b 1,..., b n } und U = {u 1,..., u m }. Dabei unterscheiden wir alle Kombinationen der folgenden Fälle
MehrVorlesung Datenstrukturen
Vorlesung Datenstrukturen Graphen (1) Darstellung Traversierung Dr. Frank Seifert Vorlesung Datenstrukturen - Sommersemester 2016 Folie 441 Generalisierung von Bäumen Verallgemeinerung (von Listen zu Graphen)
MehrVorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a
MehrProgrammierkurs Python II
Programmierkurs Python II Stefan Thater & Michaela Regneri Universität des Saarlandes FR 4.7 Allgemeine Linguistik (Computerlinguistik) Übersicht Topologische Sortierung (einfach) Kürzeste Wege finden
Mehr5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS)
5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) Sommersemester 2009 Dr. Carsten Sinz, Universität Karlsruhe Datenstruktur BDD 2 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer:
MehrKorrektur des Bias Feldes in MR Aufnahmen
Sebastian Brandt Korrektur des Bias Feldes in MR Aufnahmen Folie 1 Korrektur des Bias Feldes in MR Aufnahmen Seminar Medizinische Bildverarbeitung Sebastian Brandt sbrandt@uni-koblenz.de Universität Koblenz-Landau
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen II: Zusammenfassung
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen II: Zusammenfassung Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement
MehrKombinatorik und Wahrscheinlichkeitsrechnung
Kombinatorik und Wahrscheinlichkeitsrechnung Übersicht: 1 Teil 1: Elementare Kombinatorik 2 Teil 2: Grundlagen der Wahrscheinlichkeitsrechnung Kombinatorik und Wahrscheinlichkeitsrechnung E. Hüllermeier
MehrVertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 5.6.2013 8. Unabhängigkeit von Zufallsgrößen, Erwartungswert und Varianz 8.1
Mehr1 Bedingte Erwartungswerte
Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,
MehrKapitel 8: Bipartite Graphen Gliederung der Vorlesung
Gliederung der Vorlesung 1. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege 4. Minimale spannende Bäume 5. Färbungen und Cliquen 6. Traveling Salesman Problem 7. Flüsse in Netzwerken
MehrProgrammierung 2 Studiengang MI / WI
Programmierung 2 Studiengang MI / WI Dipl.-Inf., Dipl.-Ing. (FH) Michael Wilhelm Hochschule Harz FB Automatisierung und Informatik mwilhelm@hs-harz.de Raum 2.202 Tel. 03943 / 659 338 Fachbereich Automatisierung
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
MehrStatistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie
Bedingte W keit, Unabhängigkeit, gemeinsame Verteilung 1/44 Statistik für Informatiker, SS 2018 1 Grundlagen aus der Wahrscheinlichkeitstheorie 1.3 Bedingte Wahrscheinlichkeiten, Unabhängigkeit, gemeinsame
MehrStatistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II
Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte
MehrDie Probabilistische Methode
Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.
MehrKapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung
Gliederung der Vorlesung. Fallstudie Bipartite Graphen. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen. Minimal spannende Bäume. Kürzeste Pfade. Traveling Salesman Problem. Flüsse in Netzwerken
MehrQuantitative Methoden Wissensbasierter Systeme
Quantitative Methoden Wissensbasierter Systeme Probabilistische Netze und ihre Anwendungen Robert Remus Universität Leipzig Fakultät für Mathematik und Informatik Abteilung für Intelligente Systeme 23.
MehrSachrechnen/Größen WS 14/15-
Kapitel Daten & Wahrscheinlichkeit 3.1 Kombinatorische Grundlagen 3.2 Kombinatorik & Wahrscheinlichkeit in der Grundschule 3.3 Daten Darstellen 3.1 Kombinatorische Grundlagen Verschiedene Bereiche der
MehrMaschinelle Sprachverarbeitung
Maschinelle Sprachverarbeitung Übung Aufgabe 5: Gen-Erkennung mit Maschinellen Lernen Mario Sänger Problemstellung Erkennung von Genen in Texten NEU: Beachtung von Multi-Token-Entitäten (B-/I-protein)
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Unabhängigkeit Prof. Dr. Achim Klenke http://www.aklenke.de 6. Vorlesung: 02.12.2011 1/30 Inhalt 1 Wahrscheinlichkeit 2 2/30 Wahrscheinlichkeit
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2011 / 2012 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrIntelligente Systeme
Intelligente Systeme Unsicheres Wissen Prof. Dr. R. Kruse C. Braune {kruse,cbraune}@iws.cs.uni-magdeburg.de Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Christoph Sawade Heute: Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz:
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrGliederung. 1. Kurzeinstieg 2. Warum ist die Semantik so wichtig? 3. OWL 4. GO 5. Übersetzung 6. Zusammenfassung 7. Quellen
Gliederung Gliederung 1. Kurzeinstieg 2. Warum ist die Semantik so wichtig? 3. OWL 4. GO 5. Übersetzung 6. Zusammenfassung 7. Quellen Marcus Lechner - Institut für Informatik Seite 1 Kurzeinstieg 1. Kurzeinstieg
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrKünstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln
Künstliche Intelligenz Unsicherheit Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Rückblick Agent in der Wumpuswelt konnte Entscheidungen
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrÜberblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator
Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrEinleitung Wahl der a priori Verteilung Bezug zur Maximum Likelihood Methode. Bayessche Statistik. Christian Meisel
19.07.2007 Gliederung 1 2 3 Wahrscheinlichkeitsbegriff In Bayesscher Statistik wird Wahrscheinlichkeit p im Sinne von unvollständigem Wissen über ein Ereignis verwendet. Bei gleichem Vorwissen über unterschiedliche
MehrPRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein
PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein Bayes'sche Netze Andreas Bahcecioglu Marcel Bergmann Ertan Samgam Sven Schebitz Jan Seewald Fachhochschule Köln Wintersemester 2014 / 2015
MehrBeispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal
Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrGrundlagen der Objektmodellierung
Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung Grundlagen der Wahrscheinlichkeitsrechnung
MehrLösungen Wahrscheinlichkeitstheorie
Lösungen Wahrscheinlichkeitstheorie Serie 6 Aufgabe 1 (stochastische Unabhängigkeit). Für die Ereignisse A, B und C sind folgende Wahrscheinlichkeiten bekannt: P (A) = 0, 2; P (B) = 0, 6; P (A \ B) = 0,
MehrInformatik II, SS 2014
Informatik II SS 2014 (Algorithmen & Datenstrukturen) Vorlesung 16 (2.7.2014) Graphtraversierung II, Minimale Spannbäume I Algorithmen und Komplexität Tiefensuche: Pseusocode DFS Traversal: for all u in
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrAufgabe 1 Probabilistische Inferenz
Seite 1 von 8 Aufgabe 1 Probabilistische Inferenz (32 Punkte) In einer medizinischen Studie werden zwei Tests zur Diagnose von Leberschäden verglichen. Dabei wurde folgendes festgestellt: Test 1 erkennt
MehrDiskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier
Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
Mehr3 Wahrscheinlichkeitstheorie
Einige mathematische Konzepte 3 Wahrscheinlichkeitstheorie 3.1 Wahrscheinlichkeit Die Wahrscheinlichkeitstheorie modelliert Situationen, in denen Unsicherheit über bestimmte Aspekte der Umwelt vorherrscht.
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
Mehr