Bayes sche und probabilistische Netze
|
|
|
- Margarethe Dunkle
- vor 9 Jahren
- Abrufe
Transkript
1 Bayes sche und probabilistische Netze
2 Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung 2
3 Wahrscheinlichkeiten P( A) Wahrscheinlichkeit, dass ein Ereignis A eintritt P( A, B) Wahrscheinlichkeit, dass die Ereignisse A und B eintreten P( A B) Wahrscheinlichkeit, dass das Ereignis A eintritt, wenn das Ereignis B eingetreten ist (bedingte Wahrscheinlichkeit) 3
4 Baumdiagramme Erste Pfadregel: Die W ahrscheinlichkeit eines Ereignisses ist gleich dem Produkt der W ahrscheinlichkeiten auf dem Pfad, der zu diesem Ereignis führt. Zweite Pfadregel: Die W ahrscheinlichkeit eines Ereignisses ist gleich der Summe der D W ahrscheinlichkeiten der Pfade, die dieses Ereignis bilden Start 1/3 2/3 B 1/2 1/4 1/4 E F G C 1/3 2/3 H Aus der ersten Pfadregel folgt: P(B,D) = P(B) * P(D B) Daraus folgt: P(D B) = P(B,D) / P(B) P(B,D)=P(B)*P(D B)=1/6 4
5 Unabhängigkeit Zwei Ereignisse A und B sind unabhängig wenn: P( A, B) P( B A) P( A) P( B) P( A) Daraus folgt P( B A) P( B) Die Wahrscheinlichkeit von B wird von A nicht beeinflusst. Zwei Ereignisse heißen bei gegebenem B bedingt unabhängig, wenn gilt: P( C A, B) P( C B) Die Wahrscheinlichkeit von C wird durch A nicht beeinflusst. 5
6 Deduktion und Induktion Bei der Deduktion wird aus einem eingetretenen Ereignis auf ein davon abhängiges Ereignis geschlossen Bei der Induktion wird aus einem eingetretenen Ereignis auf ein erzeugendes Ereignis zurück geschlossen. 6
7 Satz von Bayes Es existiert eine endliche Anzahl von Zufallsprozessen, aus dem einer ausgewählt wird und das Eintreten gewisser Ereignisse zur Folge hat. P(k) sei die Apriori Wahrscheinlichkeit des k-ten Prozesses und P(A k) sei die bedingte W ahrscheinlichkeit von A und k, dann gilt : P( k A) P( k) P( A k) P( A) Mit der Formel von Bayes kann von einem eingetretenen Ereignis auf ein erzeugendes Ereignis geschlossen werden (Induktion). 7
8 Bayes sche Netze allgemein(1) Systeme mit Unsicherheiten werden durch Bayes sche Netze dargestellt Bayes sche Netz stellt einen gerichteten azyklischen Graphen dar (DAG) Knoten repräsentieren Zufallsvariablen Kanten repräsentieren direkte stochastische Abhängigkeiten Gesamtmenge der Zufallsvariablen stellt das unsichere Wissen dar Bayes-Netz stellt die Wahrscheinlichkeitsverteilung des unsicheren Wissens graphisch dar. 8
9 Bayes sche Netze allgemein(2) Das Modell besteht aus bedingten Wahrscheinlichkeiten und bedingt unabhängigen Variablen. Jede Variable ist von den Variablen abhängig mit deren Knoten sie durch eine Kante verbunden ist. Die Kanten werden mit den bedingten Wahrscheinlichkeiten der benachbarten Knoten gewichtet 9
10 Beispielszenario Beispielszenario für ein Bayes sches Netz: Ich bin nicht zu Hause. Mein Nachbar Harald ruft mich an, um mir mitzuteilen, dass in meinem Haus die Alarmanlage angegangen ist. Meine Nachbarin Stefanie ruft an und teilt mir dasselbe mit. Die Alarmanlage wird manchmal durch leichte Erdbeben ausgelöst oder es könnte sich um einen Einbrecher handeln. Variablen: Erdbeben, Einbruch, Alarm, Anruf Stefanie und Anruf Harald 10
11 Beispielszenario Man weiß, dass Erdbeben und Einbruch voneinander unabhängig sind. P(Erdbeben Einbruch) = P(Erdbeben) P(Einbruch Erdbeben) = P(Einbruch) Weiterhin weiß man, dass Harald und Stefanie anrufen, wenn sie den Alarm gehört haben. Dieses Wissen kann in einem Bayes schen Netz dargestellt werden. 11
12 Beispielszenario Das W issen kann graphisch mit den dazugehörigen W ahrscheinlichkeiten dargestellt werden. P(Erdbeben) P(Einbruch) Einbruch Erdbeben 0,002 0,001 Einb. Erdb. P(A) A True P(H) 0,9 Alarm True True False False True False True False 0,95 0,94 0,29 0,001 False 0,05 Anruf Harald Anruf Stefanie A True P(S) 0,7 False 0,01 12
13 Konstruktion von Bayes schen Netzen 1. Man wählt geeignete Zufallsvariablen aus 2. Reihenfolge der Variablen wird bestimmt 3. Solange noch nicht alle Variablen in s Netz eingefügt sind: a) Nimm nächste Variable X i b) Setze die Eltern von X i auf minimale Menge c) Bestimme die Wahrscheinlichkeitstabelle für X i Die Kompaktheit eines Netzes hängt von der Reihenfolge der Variablen sehr stark ab. Beachtet man die Abhängigkeiten der Variablen nicht, kann dies zu sehr komplexen Netzen führen. 13
14 Beispiel für eine ungünstige Reihenfolge Wählt man im Beispielszenario den Anruf Stefanie als erste und den Anruf Harald als zweite Variable aus, muss man überprüfen, ob Haralds Anruf von Stefanies Anruf unabhängig ist. P(Anruf Harald Anruf Stefanie) = P(Anruf Harald)??? Nein Anruf Stefanie Hinzufügen von Alarm Anruf Stefanie Anruf Harald Anruf Harald Alarm 14
15 Beispiel für eine ungünstige Reihenfolge Beim Hinzufügen von Einbruch, muss überprüft werden, ob Einbruch von Alarm, Anruf Stefanie und Anruf Harald bedingt unabhängig ist. Da Einbruch von den Anrufen unabhängig ist folgt: P(Einbruch Anruf Stefanie, Anruf Harald, Alarm) = P(Alarm) Anruf Stefanie Anruf Harald Alarm Einbruch 15
16 Beispiel für eine ungünstige Reihenfolge Beim Hinzufügen von Erdbeben muss überprüft werden, wovon Erdbeben bedingt unabhängig ist. Da bei einem Alarm die Information über einen Einbruch relevant ist, hängt Erbeben sowohl von Alarm wie auch von Einbruch ab. Anruf Stefanie Alarm Anruf Harald P(Erdbeben Einbruch, Alarm, Anruf Stefanie, Anruf Harald) = P(Alarm, Einbruch) Einbruch Erdbeben 16
17 Vergleich von günstiger und ungünstiger Reihenfolge Einbruch Erdbeben Anruf Stefanie Alarm Anruf Harald Alarm Anruf Harald Anruf Stefanie Einbruch Erdbeben 17
18 Un / Abhängigkeiten in Bayes schen Netzen Definition: <X,Y,Z> bedeutet: Bei gegebenem Y sind X und Z bedingt unabhängig. Y Z X Z U V X <X,Y,Z>?? Ja <X,U,Z>?? Nein <X,{U,V},Z>?? JA 18
19 D-Separierung Definition: Zwei Knoten X und Y sind d-separiert, durch eine Menge von Evidenzvariablen( Variablen deren Belegung bekannt ist), wenn jeder ungerichtete Pfad zwischen X und Y blockiert ist. Ein Pfad heißt blockiert, wenn eine der folgenden Situationen zutreffen: X Z E Y Z Z 19
20 Beispiel zur D-Separierung Batterie Radio Zündung Benzin Benzin und Radio sind unabhängig, wenn bekannt ist, ob die Zündung funktioniert oder ob die Batterie voll ist. Aber sie werden voneinander abhängig, wenn bekannt wird, ob das Auto startet oder fährt. Start Fahrt 20
21 Nutzen der D-Separierung Mit Tiefensuche kann die D-Separierung in linearer Zeit erfolgen Die D-Separierung liefert einen schnellen Algorithmus um anzugeben ob eine Belegung einer Variablen zusätzliche Hinweise über andere Variablen liefert. 21
22 Probabilistische Inferenz(1) 1. Diagnostische Inferenz: Es wird vom Symptom auf die Diagnose geschlossen P(Alarm Anruf Stefanie) 3. Kausale Inferenz: Es wird von der Ursache auf den Effekt geschlossen. P(Anruf Stefanie Einbruch) 3. Interkausale Inferenz: Zwischen verschiedenen Ursachen desselben Effektes. Die Gegenwart des einen Effektes macht den anderen weniger wahrscheinlich P(Einbruch Alarm&Erdbeben) 22
23 Probabilistische Inferenz(2) 1. Gemischte Inferenz: Kombinationen aus 1-3 P(Alarm Anruf Harald & Erdbeben) Symptom Ursache Ursache Effekt Ursache Effekt Diagnose Effekt Ursache Diagnost. Kausale Interkausale Gemischte Inferenz Inferenz Inferenz Inferenz 23
24 Berechnung der bedingten Wahrscheinlichkeit eines Knotens im probabilistischen Netzwerk(1) 1. Vereinfachte Annahme, dass das Netz nur einfach verbunden ist; es gibt nur einen ungerichteten Pfad zwischen zwei Knoten. (Polytree) 2. Ein Knoten X wird nach seiner diagnostischen und kausalen Evidenz aufgeteilt, die voneinander unabhängig sind. - + P( X E) P( E X ) P( X E ) X P( X E + X ) 5. Berechnung der kausalen Evidenz : Es werden alle Kombinationen der Werte der Elternknoten gemäß der Wahrscheinlichkeitstabelle von X betrachtet und diese werden mit ihren Wahrscheinlichkeiten gewichtet, die rekursiv auf die gleiche W eise berechnet wurden. X 24
25 Berechnung der bedingten Wahrscheinlichkeit eines Knotens im probabilistischen Netzwerk(2) - 4. Berechnung der kausalen Evidenz X : Es werden alle Kombinationen der Werte der Kinderknoten gemäß der W ahrscheinlichkeitstabelle der Kinder betrachtet und diese werden mit ihren Wahrscheinlichkeiten gewichtet, die rekursiv auf die gleiche W eise berechnet wurden. P( E X ) Dieser Algorithmus ist proportional zur Anzahl der Knoten n im Netz, also O(n). 25
26 Aufteilung der Evidenz für einen Knoten E1.. Em E + X E + X X E - X K1.. Km 26
27 Inferenz in mehrfach verbundenen probabilistischen Netzen Beispiel: wolkig P(w)=0,5 w P(S) T 0,1 F 0,5 Sprinkler Regen S T T F R T F T P(nG) 0,99 0,90 0,90 nasses Gras w T F P(R) 0,8 0,2 T T 0,00 Die Ursache kann mehrere Effekte bewirken. Inferenz in mehrfach verbundenen Netzwerken ist NP-vollständig. 27
28 Methoden zur Effizienzsteigerung mehrfach verbundener Netzwerke (1) Cluster Methode: Gruppen von mehrfach verbundenen Knoten werden zu Superknoten zusammengefügt wolkig P(w)=0,5 Sprinkler und Regen nasses Gras S + R T T T F F T T T P(nG) 0,99 0,90 0,90 0,00 28
29 Methoden zur Effizienzsteigerung mehrfach verbundener Netzwerke (2) Konditionale Methode: Durch W ertebelegung bestimmter Variablen werden einfach verbundene Netze erzeugt. wolkig - wolkig - wolkig+ wolkig+ Spronkler Regen Spronkler Regen nasses Grass nasses Grass 29
30 Methoden zur Effizienzsteigerung mehrfach verbundener Netzwerke (3) Stochastische Simulationsmethode: Es werden für die Knoten W erte entsprechend ihrer W ahrscheinlichkeiten gewählt und dies so oft wiederholt, dass man im Mittel eine bestimmt Frage ausreichend sicher beantworten wolkig=t kann. wolkig=t wolkig=t Spronkler=F wolkig=t Regen=T Spronkler=F wolkig=t Regen=T Spronkler=F Regen=T Spronkler=F Regen=T nasses Spronkler=F Regen=T Gras=T nasses Gras=T nasses Gras=T nasses Gras=T nasses Gras=T Spronkler=F wolkig=t nasses Gras=T Regen=T 30
31 Beispielanwendung Online Erstellung individueller Kundenprofile auf elektronischen Markt- Plätzen, um den potentiellen Kunden bei der Suche und Auswahl eines Produktes zu unterstützen. Verschiedene Aspekte des Produktes werden in Dimensionen eingeteilt und Kunde gibt Bewertung für diese Produkt 1 Dimensionen ab. Umweltverträglichkeit unscharfe Kundenwünsche Raumangebot Sportlichkeit Produkt 2 kommt eventuell in Betracht 31
32 Beispielanwendung Bayes sches Netz Geschlecht Soziales Milieu Grundorientierung zu Autos Relatives Gewicht von Attribut A auf Dimension D1 für Kunden im allgemeinen Relatives Gewicht von Dimension D1 für Kunde K Relatives Gewicht von Attribut A auf Dimension D2 für Kunden im Allgemeinen Absolutes Gewicht von Dimension D2 für Kunde K Absolutes Gewicht für Attribut A für Kunde K Signalisierte Präferenz für Dimension1 Relatives Gewicht für Attribut A für Kunde K Signalisierte Präferenz für Dimension2 Bewertung der Attributsausprägung durch Kunde K 32
33 Zusammenfassung Bayes sche Netze sind eine Kombination von Graphentheorie und Wahrscheinlichkeitstheorie Wissen wird als Ansammlung von Wahrscheinlichkeiten ausgedrückt Bei Polytree exakte Inferenz in linearer Zeit möglich, ansonsten exponentielle Laufzeit Anwendungen: Entscheidungsfindung, Wissensrepräsentation, Wettervorhersagen, Diagnosen.. Expertensystem Pathfinder soll besser in der Diagnose sein, als die besten Experten 33
Elektrotechnik und Informationstechnik
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes
Methoden der KI in der Biomedizin Bayes Netze
Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze
Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger
Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind
Bayessche Netze Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Einleitung Sicheres vs. Unsicheres Wissen Kausale Netzwerke Abhängigkeit Verbindungsarten Exkurs:
Syntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung [email protected] http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel
Bedingte Wahrscheinlichkeiten
Bedingte Wahrscheinlichkeiten Bei der Betrachtung der Ereignisse A und B eines Zufallsexperiments muss man die beiden im folgendem beschrieben zwei Situationen unterscheiden. 1. Das Ereignis A und B tritt
Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln
Künstliche Intelligenz Unsicherheit Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Rückblick Agent in der Wumpuswelt konnte Entscheidungen
Satz 18 (Satz von der totalen Wahrscheinlichkeit)
Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte
Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente
Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der
Für die Wahrscheinlichkeit P A (B) des Eintretens von B unter der Bedingung, dass das Ereignis A eingetreten ist, ist dann gegeben durch P(A B) P(A)
3. Bedingte Wahrscheinlichkeit ================================================================== 3.1 Vierfeldertafel und Baumdiagramm Sind A und B zwei Ereignisse, dann nennt man das Schema B B A A P
Berechnung von Abständen
3. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 3.4. Es sei G = (V, E) ein Graph. Der Abstand d(v, w) zweier Knoten v, w V ist die minimale Länge eines Weges von v nach w.
3 Wahrscheinlichkeitstheorie
Einige mathematische Konzepte 3 Wahrscheinlichkeitstheorie 3.1 Wahrscheinlichkeit Die Wahrscheinlichkeitstheorie modelliert Situationen, in denen Unsicherheit über bestimmte Aspekte der Umwelt vorherrscht.
Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte
Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum
STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
Einführung in die Wahrscheinlichkeitsrechnung
Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze
Künstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen
Algorithmen und Datenstrukturen
Algorithmen und Datenstrukturen Graphen 9/1 Begriffsdefinitionen Ein Graph besteht aus Knoten und Kanten. Ein Knoten(Ecke) ist ein benanntes Objekt. Eine Kante verbindet zwei Knoten. Kanten haben ein Gewicht
= 7! = 6! = 0, 00612,
Die Wahrscheinlichkeit, dass Prof. L. die Wette verliert, lässt sich wie folgt berechnen: Ω = {(i 1,..., i 7 ) : i j {1... 7}, j = 1... 7}, wobei i, j für den Wochentag steht, an dem die Person j geboren
Satz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
Allgemeine diskrete Wahrscheinlichkeitsräume I
6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete
Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)
Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich
Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L
Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator
Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen
Rückblick Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen Vektorraummodell stellt Anfrage und Dokumente als Vektoren in gemeinsamen Vektorraum dar
Methoden der KI in der Biomedizin Unsicheres Schließen
Methoden der KI in der Biomedizin Unsicheres Schließen Karl D. Fritscher Motivation Insofern sich die Gesetze der Mathematik auf die Wirklichkeit beziehen, sind sie nicht sicher. Und insofern sie sich
Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)
Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung
Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7
Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt
Bayesianische Netzwerke - Lernen und Inferenz
Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel
Unabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
Unabhängigkeit von Zufallsvariablen
Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1
PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein
PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein Bayes'sche Netze Andreas Bahcecioglu Marcel Bergmann Ertan Samgam Sven Schebitz Jan Seewald Fachhochschule Köln Wintersemester 2014 / 2015
a) (A B) tritt ein = A tritt ein oder B tritt ein. = Mindestens eines der Ereignisse A, B tritt ein.
Lösungsvorschläge zu den Aufgaben von Blatt 6: 43) 7 Telefonzellen ( 7 Kugeln in der Urne); 3 davon sind von je einem Benutzer besetzt ( 3 Kugeln in die Stichprobe). Die Telefonzellen werden nicht mehrfach
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt
Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum
Quantitative Methoden Wissensbasierter Systeme
Quantitative Methoden Wissensbasierter Systeme Probabilistische Netze und ihre Anwendungen Robert Remus Universität Leipzig Fakultät für Mathematik und Informatik Abteilung für Intelligente Systeme 23.
Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung
Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Kursfolien Karin Haenelt 1 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln
Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /
Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =
Satz von der totalen Wahrscheinlichkeit
htw saar 1 Satz von der totalen Wahrscheinlichkeit Sei (Ω, P) ein Wahrscheinlichkeitsraum, und B 1,, B n seien paarweise disjunkte Ereignisse mit B i = Ω. Für jedes Ereignis A gilt dann: P(A) = P(A B 1
Das Heiratsproblem. Definition Matching
Das Heiratsproblem Szenario: Gegeben: n Frauen und m > n Männer. Bekanntschaftsbeziehungen zwischen allen Männern und Frauen. Fragestellung: Wann gibt es für jede der Frauen einen Heiratspartner? Modellierung
Biostatistik, Sommer 2017
1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes
Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen
Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 Übungsblatt 4 für die Übung
Signalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
Musterlösung. Abitur Mathematik Bayern G Bayern Aufgabe 1. Abitur Mathematik: Musterlösung. Stochastik II
Abitur Mathematik: Bayern 2012 Aufgabe 1 a) VIERFELDERTAFEL P(R ) = 88 % und P(V) = 18 % stehen in der Aufgabenstellung. 60 % in der Angabe stehen für die bedingte Wahrscheinlichkeit P R (V). P(R V) =
10. Übungsblatt zu Algorithmen I im SS 2010
Karlsruher Institut für Technologie Institut für Theoretische Informatik Prof. Dr. Peter Sanders G.V. Batz, C. Schulz, J. Speck 0. Übungsblatt zu Algorithmen I im SS 00 http//algo.iti.kit.edu/algorithmeni.php
Graphentheorie. Eulersche Graphen. Eulersche Graphen. Eulersche Graphen. Rainer Schrader. 14. November Gliederung.
Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 14. November 2007 1 / 22 2 / 22 Gliederung eulersche und semi-eulersche Graphen Charakterisierung eulerscher Graphen Berechnung eines
Vorlesung Datenstrukturen
Vorlesung Datenstrukturen Graphen (1) Darstellung Traversierung Dr. Frank Seifert Vorlesung Datenstrukturen - Sommersemester 2016 Folie 441 Generalisierung von Bäumen Verallgemeinerung (von Listen zu Graphen)
abgeschlossen unter,,,, R,
Was bisher geschah Turing-Maschinen können Sprachen L X akzeptieren entscheiden Funktionen berechnen f : X X (partiell) Menge aller Turing-akzeptierbaren Sprachen genau die Menge aller Chomsky-Typ-0-Sprachen
Bipartite Graphen. Beispiele
Bipartite Graphen Ein Graph G = (V, E) heiÿt bipartit (oder paar), wenn die Knotenmenge in zwei disjunkte Teilmengen zerfällt (V = S T mit S T = ), sodass jede Kante einen Knoten aus S mit einem Knoten
Übersicht der Vorlesung
Übersicht der Vorlesung 1. Einführung 2. Bildverarbeitung 3. orphologische Operationen 4. Bildsegmentierung 5. erkmale von Objekten 6. Klassifikation 7. Dreidimensionale Bildinterpretation 8. Bewegungsanalyse
Lösungsskizzen zur Präsenzübung 07
Lösungsskizzen zur Präsenzübung 07 Hilfestellung zur Vorlesung Anwendungen der Mathematik im Wintersemester 2015/2016 Fakultät für Mathematik Universität Bielefeld Veröffentlicht am 14. Dezember 2015 von:
Einführung in die Wahrscheinlichkeitsrechnung
Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg [email protected] Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung
Statistik I für Betriebswirte Vorlesung 2
Statistik I für Betriebswirte Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 11. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS)
5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) Sommersemester 2009 Dr. Carsten Sinz, Universität Karlsruhe Datenstruktur BDD 2 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer:
htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017
htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT htw saar 2 Gliederung 25.01. Bedingte Wahrscheinlichkeit: Motivation und Definition Multiplikationssatz Stochastische Unabhängigkeit:
Eine Einfuhrung. Marc Wagner. 10. Februar 2000
Bayes-Netze Eine Einfuhrung Marc Wagner [email protected] Vortrag im Seminar " Bayes-Netze und Data-Mining\ 10. Februar 2000 Zusammenfassung Bayes-Netze stellen eine sehr vielseitig
KAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
Relationen und DAGs, starker Zusammenhang
Relationen und DAGs, starker Zusammenhang Anmerkung: Sei D = (V, E). Dann ist A V V eine Relation auf V. Sei andererseits R S S eine Relation auf S. Dann definiert D = (S, R) einen DAG. D.h. DAGs sind
4. Kreis- und Wegeprobleme Abstände in Graphen
4. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 4.4. Es sei G = (V,E) ein Graph. Der Abstand d(v,w) zweier Knoten v,w V ist die minimale Länge eines Weges von v nach w. Falls
P A P( A B) Definition Wahrscheinlichkeit
Unabhaengige Ereignisse edingte Wahrscheinlichkeit Definition Wahrscheinlichkeit Die Wahrscheinlichkeit eines Ereignisses ist das Verhältnis der günstigen Ergebnisse zur Gesamtmenge der Ergebnisse nzahl
Künstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes
Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression
Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen
Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke
Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,
5. Bäume und Minimalgerüste
5. Bäume und Minimalgerüste Charakterisierung von Minimalgerüsten 5. Bäume und Minimalgerüste Definition 5.1. Es ein G = (V, E) ein zusammenhängender Graph. H = (V,E ) heißt Gerüst von G gdw. wenn H ein
Verkettete Datenstrukturen: Bäume
Verkettete Datenstrukturen: Bäume 1 Graphen Gerichteter Graph: Menge von Knoten (= Elementen) + Menge von Kanten. Kante: Verbindung zwischen zwei Knoten k 1 k 2 = Paar von Knoten (k 1, k 2 ). Menge aller
ADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 5 Prof. Peter F. Stadler & Dr. Christian Höner zu Siederdissen Bioinformatik/IZBI Institut für Informatik & Interdisziplinäres Zentrum für Bioinformatik Universität
Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen
Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,
Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
Wie wird ein Graph dargestellt?
Wie wird ein Graph dargestellt? Für einen Graphen G = (V, E), ob gerichtet oder ungerichtet, verwende eine Adjazenzliste A G : A G [i] zeigt auf eine Liste aller Nachbarn von Knoten i, wenn G ungerichtet
Very simple methods for all pairs network flow analysis
Very simple methods for all pairs network flow analysis obias Ludes 0.0.0. Einführung Um den maximalen Flusswert zwischen allen Knoten eines ungerichteten Graphen zu berechnen sind nach Gomory und Hu nur
15 Wahrscheinlichkeitsrechnung und Statistik
5 Wahrscheinlichkeitsrechnung und Statistik Alles, was lediglich wahrscheinlich ist, ist wahrscheinlich falsch. ( Descartes ) Trau keiner Statistik, die du nicht selbst gefälscht hast. ( Churchill zugeschrieben
3.3 Bedingte Wahrscheinlichkeit
28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit
Minimal spannender Baum
Minimal spannender Baum 16 1 2 21 5 11 19 6 6 3 14 33 10 5 4 18 Die Kreise zeigen die vorgesehenen Standorte neu zu errichtender Filialen einer Bank. Entlang der bestehenden Straßen sollen Telefonleitungen
Mustererkennung: Graphentheorie
Mustererkennung: Graphentheorie D. Schlesinger TUD/INF/KI/IS D. Schlesinger () ME: Graphentheorie 1 / 9 Definitionen Ein Graph ist ein Paar G = (V, E) mit der Menge der Knoten V und der Menge der Kanten:
Lösungshinweise zu Kapitel 13
L-112 Lösungshinweise zu Kapitel 13 zu Selbsttestaufgabe 13.2 (Eigenschaften der bedingten Unabhängigkeit) Sei P eine Wahrscheinlichkeitsverteilung über V. Wir setzen im Folgenden stillschweigend voraus,
Helmut Schauer Educational Engineering Lab Department for Information Technology University of Zurich. Graphen (2)
Graphen (2) 1 Topologisches Sortieren (1) Die Kanten eines gerichteten zyklenfreien Graphen bilden eine Halbordnung (die Ordnungsrelation ist nur für solche Knoten definiert die am gleichen Pfad liegen).
5 Binomial- und Poissonverteilung
45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1
P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.
2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das
8 Einführung in Expertensysteme
8 Einführung in Expertensysteme 22. Vorlesung: Constraints; Probabilistisches Schließen Für die Programmierung von Expertensystemen werden verschiedene Grundtechniken der Wissensrepräsentation und spezielle
4 Diskrete Wahrscheinlichkeitsverteilungen
4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder
Abschlussprüfung Mathematik 12 Nichttechnik S I - Lösung
GS.06.0 - m_nt-s_lsg_gs_pdf Abschlussprüfung 0 - Mathematik Nichttechnik S I - Lösung Im Folgenden werden relative Häufgkeiten als Wahrscheinlichkeiten interpretiert. Teilaufgabe.0 Bei einer Casting-Show
Algorithmen und Datenstrukturen
Algorithmen und Datenstrukturen Prof. Martin Lercher Institut für Informatik Heinrich-Heine-Universität Düsseldorf Teil 10 Suche in Graphen Version vom 13. Dezember 2016 1 / 2 Vorlesung 2016 / 2017 2 /
Routing A lgorithmen Algorithmen Begriffe, Definitionen Wegewahl Verkehrslenkung
Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über
Maximum and Minimum Satisfiability Problem
and Lehrstuhl für Wissensverarbeitung und Informationssysteme Universität Potsdam 25. Januar 2006 Agenda 1 2 3 I Erfüllbarkeitsproblem der Aussagenlogik : Aussagenlogische Formel auf Erfüllbarkeit prüfen
Aufgabe 8: Stochastik (WTR)
Abitur Mathematik: Nordrhein-Westfalen 2013 Aufgabe 8 a) (1) WAHRSCHEINLICHKEIT FÜR KEINE ANGABE ERMITTELN Nach der Laplace Formel ist Anzahl der Personen, die keine Angabe machten keine Angabe Gesamtzahl
Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem
Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Wahrscheinlichkeitsrechnung Theorie Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem,
