Bayes sche und probabilistische Netze

Größe: px
Ab Seite anzeigen:

Download "Bayes sche und probabilistische Netze"

Transkript

1 Bayes sche und probabilistische Netze

2 Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung 2

3 Wahrscheinlichkeiten P( A) Wahrscheinlichkeit, dass ein Ereignis A eintritt P( A, B) Wahrscheinlichkeit, dass die Ereignisse A und B eintreten P( A B) Wahrscheinlichkeit, dass das Ereignis A eintritt, wenn das Ereignis B eingetreten ist (bedingte Wahrscheinlichkeit) 3

4 Baumdiagramme Erste Pfadregel: Die W ahrscheinlichkeit eines Ereignisses ist gleich dem Produkt der W ahrscheinlichkeiten auf dem Pfad, der zu diesem Ereignis führt. Zweite Pfadregel: Die W ahrscheinlichkeit eines Ereignisses ist gleich der Summe der D W ahrscheinlichkeiten der Pfade, die dieses Ereignis bilden Start 1/3 2/3 B 1/2 1/4 1/4 E F G C 1/3 2/3 H Aus der ersten Pfadregel folgt: P(B,D) = P(B) * P(D B) Daraus folgt: P(D B) = P(B,D) / P(B) P(B,D)=P(B)*P(D B)=1/6 4

5 Unabhängigkeit Zwei Ereignisse A und B sind unabhängig wenn: P( A, B) P( B A) P( A) P( B) P( A) Daraus folgt P( B A) P( B) Die Wahrscheinlichkeit von B wird von A nicht beeinflusst. Zwei Ereignisse heißen bei gegebenem B bedingt unabhängig, wenn gilt: P( C A, B) P( C B) Die Wahrscheinlichkeit von C wird durch A nicht beeinflusst. 5

6 Deduktion und Induktion Bei der Deduktion wird aus einem eingetretenen Ereignis auf ein davon abhängiges Ereignis geschlossen Bei der Induktion wird aus einem eingetretenen Ereignis auf ein erzeugendes Ereignis zurück geschlossen. 6

7 Satz von Bayes Es existiert eine endliche Anzahl von Zufallsprozessen, aus dem einer ausgewählt wird und das Eintreten gewisser Ereignisse zur Folge hat. P(k) sei die Apriori Wahrscheinlichkeit des k-ten Prozesses und P(A k) sei die bedingte W ahrscheinlichkeit von A und k, dann gilt : P( k A) P( k) P( A k) P( A) Mit der Formel von Bayes kann von einem eingetretenen Ereignis auf ein erzeugendes Ereignis geschlossen werden (Induktion). 7

8 Bayes sche Netze allgemein(1) Systeme mit Unsicherheiten werden durch Bayes sche Netze dargestellt Bayes sche Netz stellt einen gerichteten azyklischen Graphen dar (DAG) Knoten repräsentieren Zufallsvariablen Kanten repräsentieren direkte stochastische Abhängigkeiten Gesamtmenge der Zufallsvariablen stellt das unsichere Wissen dar Bayes-Netz stellt die Wahrscheinlichkeitsverteilung des unsicheren Wissens graphisch dar. 8

9 Bayes sche Netze allgemein(2) Das Modell besteht aus bedingten Wahrscheinlichkeiten und bedingt unabhängigen Variablen. Jede Variable ist von den Variablen abhängig mit deren Knoten sie durch eine Kante verbunden ist. Die Kanten werden mit den bedingten Wahrscheinlichkeiten der benachbarten Knoten gewichtet 9

10 Beispielszenario Beispielszenario für ein Bayes sches Netz: Ich bin nicht zu Hause. Mein Nachbar Harald ruft mich an, um mir mitzuteilen, dass in meinem Haus die Alarmanlage angegangen ist. Meine Nachbarin Stefanie ruft an und teilt mir dasselbe mit. Die Alarmanlage wird manchmal durch leichte Erdbeben ausgelöst oder es könnte sich um einen Einbrecher handeln. Variablen: Erdbeben, Einbruch, Alarm, Anruf Stefanie und Anruf Harald 10

11 Beispielszenario Man weiß, dass Erdbeben und Einbruch voneinander unabhängig sind. P(Erdbeben Einbruch) = P(Erdbeben) P(Einbruch Erdbeben) = P(Einbruch) Weiterhin weiß man, dass Harald und Stefanie anrufen, wenn sie den Alarm gehört haben. Dieses Wissen kann in einem Bayes schen Netz dargestellt werden. 11

12 Beispielszenario Das W issen kann graphisch mit den dazugehörigen W ahrscheinlichkeiten dargestellt werden. P(Erdbeben) P(Einbruch) Einbruch Erdbeben 0,002 0,001 Einb. Erdb. P(A) A True P(H) 0,9 Alarm True True False False True False True False 0,95 0,94 0,29 0,001 False 0,05 Anruf Harald Anruf Stefanie A True P(S) 0,7 False 0,01 12

13 Konstruktion von Bayes schen Netzen 1. Man wählt geeignete Zufallsvariablen aus 2. Reihenfolge der Variablen wird bestimmt 3. Solange noch nicht alle Variablen in s Netz eingefügt sind: a) Nimm nächste Variable X i b) Setze die Eltern von X i auf minimale Menge c) Bestimme die Wahrscheinlichkeitstabelle für X i Die Kompaktheit eines Netzes hängt von der Reihenfolge der Variablen sehr stark ab. Beachtet man die Abhängigkeiten der Variablen nicht, kann dies zu sehr komplexen Netzen führen. 13

14 Beispiel für eine ungünstige Reihenfolge Wählt man im Beispielszenario den Anruf Stefanie als erste und den Anruf Harald als zweite Variable aus, muss man überprüfen, ob Haralds Anruf von Stefanies Anruf unabhängig ist. P(Anruf Harald Anruf Stefanie) = P(Anruf Harald)??? Nein Anruf Stefanie Hinzufügen von Alarm Anruf Stefanie Anruf Harald Anruf Harald Alarm 14

15 Beispiel für eine ungünstige Reihenfolge Beim Hinzufügen von Einbruch, muss überprüft werden, ob Einbruch von Alarm, Anruf Stefanie und Anruf Harald bedingt unabhängig ist. Da Einbruch von den Anrufen unabhängig ist folgt: P(Einbruch Anruf Stefanie, Anruf Harald, Alarm) = P(Alarm) Anruf Stefanie Anruf Harald Alarm Einbruch 15

16 Beispiel für eine ungünstige Reihenfolge Beim Hinzufügen von Erdbeben muss überprüft werden, wovon Erdbeben bedingt unabhängig ist. Da bei einem Alarm die Information über einen Einbruch relevant ist, hängt Erbeben sowohl von Alarm wie auch von Einbruch ab. Anruf Stefanie Alarm Anruf Harald P(Erdbeben Einbruch, Alarm, Anruf Stefanie, Anruf Harald) = P(Alarm, Einbruch) Einbruch Erdbeben 16

17 Vergleich von günstiger und ungünstiger Reihenfolge Einbruch Erdbeben Anruf Stefanie Alarm Anruf Harald Alarm Anruf Harald Anruf Stefanie Einbruch Erdbeben 17

18 Un / Abhängigkeiten in Bayes schen Netzen Definition: <X,Y,Z> bedeutet: Bei gegebenem Y sind X und Z bedingt unabhängig. Y Z X Z U V X <X,Y,Z>?? Ja <X,U,Z>?? Nein <X,{U,V},Z>?? JA 18

19 D-Separierung Definition: Zwei Knoten X und Y sind d-separiert, durch eine Menge von Evidenzvariablen( Variablen deren Belegung bekannt ist), wenn jeder ungerichtete Pfad zwischen X und Y blockiert ist. Ein Pfad heißt blockiert, wenn eine der folgenden Situationen zutreffen: X Z E Y Z Z 19

20 Beispiel zur D-Separierung Batterie Radio Zündung Benzin Benzin und Radio sind unabhängig, wenn bekannt ist, ob die Zündung funktioniert oder ob die Batterie voll ist. Aber sie werden voneinander abhängig, wenn bekannt wird, ob das Auto startet oder fährt. Start Fahrt 20

21 Nutzen der D-Separierung Mit Tiefensuche kann die D-Separierung in linearer Zeit erfolgen Die D-Separierung liefert einen schnellen Algorithmus um anzugeben ob eine Belegung einer Variablen zusätzliche Hinweise über andere Variablen liefert. 21

22 Probabilistische Inferenz(1) 1. Diagnostische Inferenz: Es wird vom Symptom auf die Diagnose geschlossen P(Alarm Anruf Stefanie) 3. Kausale Inferenz: Es wird von der Ursache auf den Effekt geschlossen. P(Anruf Stefanie Einbruch) 3. Interkausale Inferenz: Zwischen verschiedenen Ursachen desselben Effektes. Die Gegenwart des einen Effektes macht den anderen weniger wahrscheinlich P(Einbruch Alarm&Erdbeben) 22

23 Probabilistische Inferenz(2) 1. Gemischte Inferenz: Kombinationen aus 1-3 P(Alarm Anruf Harald & Erdbeben) Symptom Ursache Ursache Effekt Ursache Effekt Diagnose Effekt Ursache Diagnost. Kausale Interkausale Gemischte Inferenz Inferenz Inferenz Inferenz 23

24 Berechnung der bedingten Wahrscheinlichkeit eines Knotens im probabilistischen Netzwerk(1) 1. Vereinfachte Annahme, dass das Netz nur einfach verbunden ist; es gibt nur einen ungerichteten Pfad zwischen zwei Knoten. (Polytree) 2. Ein Knoten X wird nach seiner diagnostischen und kausalen Evidenz aufgeteilt, die voneinander unabhängig sind. - + P( X E) P( E X ) P( X E ) X P( X E + X ) 5. Berechnung der kausalen Evidenz : Es werden alle Kombinationen der Werte der Elternknoten gemäß der Wahrscheinlichkeitstabelle von X betrachtet und diese werden mit ihren Wahrscheinlichkeiten gewichtet, die rekursiv auf die gleiche W eise berechnet wurden. X 24

25 Berechnung der bedingten Wahrscheinlichkeit eines Knotens im probabilistischen Netzwerk(2) - 4. Berechnung der kausalen Evidenz X : Es werden alle Kombinationen der Werte der Kinderknoten gemäß der W ahrscheinlichkeitstabelle der Kinder betrachtet und diese werden mit ihren Wahrscheinlichkeiten gewichtet, die rekursiv auf die gleiche W eise berechnet wurden. P( E X ) Dieser Algorithmus ist proportional zur Anzahl der Knoten n im Netz, also O(n). 25

26 Aufteilung der Evidenz für einen Knoten E1.. Em E + X E + X X E - X K1.. Km 26

27 Inferenz in mehrfach verbundenen probabilistischen Netzen Beispiel: wolkig P(w)=0,5 w P(S) T 0,1 F 0,5 Sprinkler Regen S T T F R T F T P(nG) 0,99 0,90 0,90 nasses Gras w T F P(R) 0,8 0,2 T T 0,00 Die Ursache kann mehrere Effekte bewirken. Inferenz in mehrfach verbundenen Netzwerken ist NP-vollständig. 27

28 Methoden zur Effizienzsteigerung mehrfach verbundener Netzwerke (1) Cluster Methode: Gruppen von mehrfach verbundenen Knoten werden zu Superknoten zusammengefügt wolkig P(w)=0,5 Sprinkler und Regen nasses Gras S + R T T T F F T T T P(nG) 0,99 0,90 0,90 0,00 28

29 Methoden zur Effizienzsteigerung mehrfach verbundener Netzwerke (2) Konditionale Methode: Durch W ertebelegung bestimmter Variablen werden einfach verbundene Netze erzeugt. wolkig - wolkig - wolkig+ wolkig+ Spronkler Regen Spronkler Regen nasses Grass nasses Grass 29

30 Methoden zur Effizienzsteigerung mehrfach verbundener Netzwerke (3) Stochastische Simulationsmethode: Es werden für die Knoten W erte entsprechend ihrer W ahrscheinlichkeiten gewählt und dies so oft wiederholt, dass man im Mittel eine bestimmt Frage ausreichend sicher beantworten wolkig=t kann. wolkig=t wolkig=t Spronkler=F wolkig=t Regen=T Spronkler=F wolkig=t Regen=T Spronkler=F Regen=T Spronkler=F Regen=T nasses Spronkler=F Regen=T Gras=T nasses Gras=T nasses Gras=T nasses Gras=T nasses Gras=T Spronkler=F wolkig=t nasses Gras=T Regen=T 30

31 Beispielanwendung Online Erstellung individueller Kundenprofile auf elektronischen Markt- Plätzen, um den potentiellen Kunden bei der Suche und Auswahl eines Produktes zu unterstützen. Verschiedene Aspekte des Produktes werden in Dimensionen eingeteilt und Kunde gibt Bewertung für diese Produkt 1 Dimensionen ab. Umweltverträglichkeit unscharfe Kundenwünsche Raumangebot Sportlichkeit Produkt 2 kommt eventuell in Betracht 31

32 Beispielanwendung Bayes sches Netz Geschlecht Soziales Milieu Grundorientierung zu Autos Relatives Gewicht von Attribut A auf Dimension D1 für Kunden im allgemeinen Relatives Gewicht von Dimension D1 für Kunde K Relatives Gewicht von Attribut A auf Dimension D2 für Kunden im Allgemeinen Absolutes Gewicht von Dimension D2 für Kunde K Absolutes Gewicht für Attribut A für Kunde K Signalisierte Präferenz für Dimension1 Relatives Gewicht für Attribut A für Kunde K Signalisierte Präferenz für Dimension2 Bewertung der Attributsausprägung durch Kunde K 32

33 Zusammenfassung Bayes sche Netze sind eine Kombination von Graphentheorie und Wahrscheinlichkeitstheorie Wissen wird als Ansammlung von Wahrscheinlichkeiten ausgedrückt Bei Polytree exakte Inferenz in linearer Zeit möglich, ansonsten exponentielle Laufzeit Anwendungen: Entscheidungsfindung, Wissensrepräsentation, Wettervorhersagen, Diagnosen.. Expertensystem Pathfinder soll besser in der Diagnose sein, als die besten Experten 33

Elektrotechnik und Informationstechnik

Elektrotechnik und Informationstechnik Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes

Mehr

Elektrotechnik und Informationstechnik

Elektrotechnik und Informationstechnik Elektrotechnik und Informationstechnik Institut für utomatisierungstechnik, Professur Prozessleittechnik Bayessche Netze VL Prozessinformationsverarbeitung WS 2009/2010 Problemstellung Wie kann Wissen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen

Mehr

Methoden der KI in der Biomedizin Bayes Netze

Methoden der KI in der Biomedizin Bayes Netze Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit

Mehr

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind

Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Bayessche Netze Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Einleitung Sicheres vs. Unsicheres Wissen Kausale Netzwerke Abhängigkeit Verbindungsarten Exkurs:

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel

Mehr

Bedingte Wahrscheinlichkeiten

Bedingte Wahrscheinlichkeiten Bedingte Wahrscheinlichkeiten Bei der Betrachtung der Ereignisse A und B eines Zufallsexperiments muss man die beiden im folgendem beschrieben zwei Situationen unterscheiden. 1. Das Ereignis A und B tritt

Mehr

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur

Mehr

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Künstliche Intelligenz Unsicherheit Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Rückblick Agent in der Wumpuswelt konnte Entscheidungen

Mehr

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Satz 18 (Satz von der totalen Wahrscheinlichkeit) Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte

Mehr

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der

Mehr

Für die Wahrscheinlichkeit P A (B) des Eintretens von B unter der Bedingung, dass das Ereignis A eingetreten ist, ist dann gegeben durch P(A B) P(A)

Für die Wahrscheinlichkeit P A (B) des Eintretens von B unter der Bedingung, dass das Ereignis A eingetreten ist, ist dann gegeben durch P(A B) P(A) 3. Bedingte Wahrscheinlichkeit ================================================================== 3.1 Vierfeldertafel und Baumdiagramm Sind A und B zwei Ereignisse, dann nennt man das Schema B B A A P

Mehr

Berechnung von Abständen

Berechnung von Abständen 3. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 3.4. Es sei G = (V, E) ein Graph. Der Abstand d(v, w) zweier Knoten v, w V ist die minimale Länge eines Weges von v nach w.

Mehr

Übersicht. 16. Treffen einfacher Entscheidungen

Übersicht. 16. Treffen einfacher Entscheidungen Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 14. Unsicherheiten 15. Probabilistische Inferenzsysteme 16. Treffen

Mehr

3 Wahrscheinlichkeitstheorie

3 Wahrscheinlichkeitstheorie Einige mathematische Konzepte 3 Wahrscheinlichkeitstheorie 3.1 Wahrscheinlichkeit Die Wahrscheinlichkeitstheorie modelliert Situationen, in denen Unsicherheit über bestimmte Aspekte der Umwelt vorherrscht.

Mehr

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen Algorithmen und Datenstrukturen Graphen 9/1 Begriffsdefinitionen Ein Graph besteht aus Knoten und Kanten. Ein Knoten(Ecke) ist ein benanntes Objekt. Eine Kante verbindet zwei Knoten. Kanten haben ein Gewicht

Mehr

= 7! = 6! = 0, 00612,

= 7! = 6! = 0, 00612, Die Wahrscheinlichkeit, dass Prof. L. die Wette verliert, lässt sich wie folgt berechnen: Ω = {(i 1,..., i 7 ) : i j {1... 7}, j = 1... 7}, wobei i, j für den Wochentag steht, an dem die Person j geboren

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume I

Allgemeine diskrete Wahrscheinlichkeitsräume I 6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator

Mehr

Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen

Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen Rückblick Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen Vektorraummodell stellt Anfrage und Dokumente als Vektoren in gemeinsamen Vektorraum dar

Mehr

Methoden der KI in der Biomedizin Unsicheres Schließen

Methoden der KI in der Biomedizin Unsicheres Schließen Methoden der KI in der Biomedizin Unsicheres Schließen Karl D. Fritscher Motivation Insofern sich die Gesetze der Mathematik auf die Wirklichkeit beziehen, sind sie nicht sicher. Und insofern sie sich

Mehr

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7 Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Unabhängigkeit von Zufallsvariablen

Unabhängigkeit von Zufallsvariablen Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1

Mehr

PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein

PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein Bayes'sche Netze Andreas Bahcecioglu Marcel Bergmann Ertan Samgam Sven Schebitz Jan Seewald Fachhochschule Köln Wintersemester 2014 / 2015

Mehr

a) (A B) tritt ein = A tritt ein oder B tritt ein. = Mindestens eines der Ereignisse A, B tritt ein.

a) (A B) tritt ein = A tritt ein oder B tritt ein. = Mindestens eines der Ereignisse A, B tritt ein. Lösungsvorschläge zu den Aufgaben von Blatt 6: 43) 7 Telefonzellen ( 7 Kugeln in der Urne); 3 davon sind von je einem Benutzer besetzt ( 3 Kugeln in die Stichprobe). Die Telefonzellen werden nicht mehrfach

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Unabhängigkeit Prof. Dr. Achim Klenke http://www.aklenke.de 6. Vorlesung: 02.12.2011 1/30 Inhalt 1 Wahrscheinlichkeit 2 2/30 Wahrscheinlichkeit

Mehr

Bayes-Netze. Vorlesung im Sommersemester 2012

Bayes-Netze. Vorlesung im Sommersemester 2012 Bayes-Netze Vorlesung im Sommersemester 2012 Organisatorisches Zeit und Ort: Mo 14-16 Cartesium 0.01 Prof. Carsten Lutz Raum Cartesium 2.59 Tel. (218)-64431 clu@uni-bremen.de Position im Curriculum: Modulbereich

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum

Mehr

Quantitative Methoden Wissensbasierter Systeme

Quantitative Methoden Wissensbasierter Systeme Quantitative Methoden Wissensbasierter Systeme Probabilistische Netze und ihre Anwendungen Robert Remus Universität Leipzig Fakultät für Mathematik und Informatik Abteilung für Intelligente Systeme 23.

Mehr

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Kursfolien Karin Haenelt 1 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln

Mehr

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 / Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =

Mehr

Satz von der totalen Wahrscheinlichkeit

Satz von der totalen Wahrscheinlichkeit htw saar 1 Satz von der totalen Wahrscheinlichkeit Sei (Ω, P) ein Wahrscheinlichkeitsraum, und B 1,, B n seien paarweise disjunkte Ereignisse mit B i = Ω. Für jedes Ereignis A gilt dann: P(A) = P(A B 1

Mehr

Das Heiratsproblem. Definition Matching

Das Heiratsproblem. Definition Matching Das Heiratsproblem Szenario: Gegeben: n Frauen und m > n Männer. Bekanntschaftsbeziehungen zwischen allen Männern und Frauen. Fragestellung: Wann gibt es für jede der Frauen einen Heiratspartner? Modellierung

Mehr

Reasoning and decision-making under uncertainty

Reasoning and decision-making under uncertainty Reasoning and decision-making under uncertainty 9. Vorlesung Actions, interventions and complex decisions Sebastian Ptock AG Sociable Agents Rückblick: Decision-Making A decision leads to states with values,

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes

Mehr

Seminar: Knowledge Engineering und Lernen in Spielen - Bayesian Networks

Seminar: Knowledge Engineering und Lernen in Spielen - Bayesian Networks Seminar: Knowledge Engineering und Lernen in Spielen - Bayesian Networks Fachgebiet: Knowledge Engineering Betreuer: Prof. Dr. Johannes Fürnkranz Matthias Wich Darmstadt, 04.07.2006 Bayesian Networks Agenda

Mehr

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 Übungsblatt 4 für die Übung

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Musterlösung. Abitur Mathematik Bayern G Bayern Aufgabe 1. Abitur Mathematik: Musterlösung. Stochastik II

Musterlösung. Abitur Mathematik Bayern G Bayern Aufgabe 1. Abitur Mathematik: Musterlösung. Stochastik II Abitur Mathematik: Bayern 2012 Aufgabe 1 a) VIERFELDERTAFEL P(R ) = 88 % und P(V) = 18 % stehen in der Aufgabenstellung. 60 % in der Angabe stehen für die bedingte Wahrscheinlichkeit P R (V). P(R V) =

Mehr

10. Übungsblatt zu Algorithmen I im SS 2010

10. Übungsblatt zu Algorithmen I im SS 2010 Karlsruher Institut für Technologie Institut für Theoretische Informatik Prof. Dr. Peter Sanders G.V. Batz, C. Schulz, J. Speck 0. Übungsblatt zu Algorithmen I im SS 00 http//algo.iti.kit.edu/algorithmeni.php

Mehr

Berechenbarkeitstheorie 24. Vorlesung

Berechenbarkeitstheorie 24. Vorlesung 1 Berechenbarkeitstheorie Dr. Institut für Mathematische Logik und Grundlagenforschung WWU Münster WS 15/16 Alle Folien unter Creatie Commons Attribution-NonCommercial 3.0 Unported Lizenz. DHC Eingabe:

Mehr

Graphentheorie. Eulersche Graphen. Eulersche Graphen. Eulersche Graphen. Rainer Schrader. 14. November Gliederung.

Graphentheorie. Eulersche Graphen. Eulersche Graphen. Eulersche Graphen. Rainer Schrader. 14. November Gliederung. Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 14. November 2007 1 / 22 2 / 22 Gliederung eulersche und semi-eulersche Graphen Charakterisierung eulerscher Graphen Berechnung eines

Mehr

Vorlesung Datenstrukturen

Vorlesung Datenstrukturen Vorlesung Datenstrukturen Graphen (1) Darstellung Traversierung Dr. Frank Seifert Vorlesung Datenstrukturen - Sommersemester 2016 Folie 441 Generalisierung von Bäumen Verallgemeinerung (von Listen zu Graphen)

Mehr

abgeschlossen unter,,,, R,

abgeschlossen unter,,,, R, Was bisher geschah Turing-Maschinen können Sprachen L X akzeptieren entscheiden Funktionen berechnen f : X X (partiell) Menge aller Turing-akzeptierbaren Sprachen genau die Menge aller Chomsky-Typ-0-Sprachen

Mehr

Bipartite Graphen. Beispiele

Bipartite Graphen. Beispiele Bipartite Graphen Ein Graph G = (V, E) heiÿt bipartit (oder paar), wenn die Knotenmenge in zwei disjunkte Teilmengen zerfällt (V = S T mit S T = ), sodass jede Kante einen Knoten aus S mit einem Knoten

Mehr

Übersicht der Vorlesung

Übersicht der Vorlesung Übersicht der Vorlesung 1. Einführung 2. Bildverarbeitung 3. orphologische Operationen 4. Bildsegmentierung 5. erkmale von Objekten 6. Klassifikation 7. Dreidimensionale Bildinterpretation 8. Bewegungsanalyse

Mehr

Lösungsskizzen zur Präsenzübung 07

Lösungsskizzen zur Präsenzübung 07 Lösungsskizzen zur Präsenzübung 07 Hilfestellung zur Vorlesung Anwendungen der Mathematik im Wintersemester 2015/2016 Fakultät für Mathematik Universität Bielefeld Veröffentlicht am 14. Dezember 2015 von:

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung

Mehr

Statistik I für Betriebswirte Vorlesung 2

Statistik I für Betriebswirte Vorlesung 2 Statistik I für Betriebswirte Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 11. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS)

5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) 5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) Sommersemester 2009 Dr. Carsten Sinz, Universität Karlsruhe Datenstruktur BDD 2 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer:

Mehr

htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017

htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017 htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT htw saar 2 Gliederung 25.01. Bedingte Wahrscheinlichkeit: Motivation und Definition Multiplikationssatz Stochastische Unabhängigkeit:

Mehr

Eine Einfuhrung. Marc Wagner. 10. Februar 2000

Eine Einfuhrung. Marc Wagner. 10. Februar 2000 Bayes-Netze Eine Einfuhrung Marc Wagner mcwagner@stud.informatik.uni-erlangen.de Vortrag im Seminar " Bayes-Netze und Data-Mining\ 10. Februar 2000 Zusammenfassung Bayes-Netze stellen eine sehr vielseitig

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

Relationen und DAGs, starker Zusammenhang

Relationen und DAGs, starker Zusammenhang Relationen und DAGs, starker Zusammenhang Anmerkung: Sei D = (V, E). Dann ist A V V eine Relation auf V. Sei andererseits R S S eine Relation auf S. Dann definiert D = (S, R) einen DAG. D.h. DAGs sind

Mehr

4. Kreis- und Wegeprobleme Abstände in Graphen

4. Kreis- und Wegeprobleme Abstände in Graphen 4. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 4.4. Es sei G = (V,E) ein Graph. Der Abstand d(v,w) zweier Knoten v,w V ist die minimale Länge eines Weges von v nach w. Falls

Mehr

P A P( A B) Definition Wahrscheinlichkeit

P A P( A B) Definition Wahrscheinlichkeit Unabhaengige Ereignisse edingte Wahrscheinlichkeit Definition Wahrscheinlichkeit Die Wahrscheinlichkeit eines Ereignisses ist das Verhältnis der günstigen Ergebnisse zur Gesamtmenge der Ergebnisse nzahl

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

5. Bäume und Minimalgerüste

5. Bäume und Minimalgerüste 5. Bäume und Minimalgerüste Charakterisierung von Minimalgerüsten 5. Bäume und Minimalgerüste Definition 5.1. Es ein G = (V, E) ein zusammenhängender Graph. H = (V,E ) heißt Gerüst von G gdw. wenn H ein

Mehr

Verkettete Datenstrukturen: Bäume

Verkettete Datenstrukturen: Bäume Verkettete Datenstrukturen: Bäume 1 Graphen Gerichteter Graph: Menge von Knoten (= Elementen) + Menge von Kanten. Kante: Verbindung zwischen zwei Knoten k 1 k 2 = Paar von Knoten (k 1, k 2 ). Menge aller

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 5 Prof. Peter F. Stadler & Dr. Christian Höner zu Siederdissen Bioinformatik/IZBI Institut für Informatik & Interdisziplinäres Zentrum für Bioinformatik Universität

Mehr

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Wie wird ein Graph dargestellt?

Wie wird ein Graph dargestellt? Wie wird ein Graph dargestellt? Für einen Graphen G = (V, E), ob gerichtet oder ungerichtet, verwende eine Adjazenzliste A G : A G [i] zeigt auf eine Liste aller Nachbarn von Knoten i, wenn G ungerichtet

Mehr

Bayessche Graphen. Jan Simon, RWTH Aachen, im Sommer 2008

Bayessche Graphen. Jan Simon, RWTH Aachen, im Sommer 2008 Bayessche Graphen Jan Simon, RWTH Aachen, im Sommer 2008 S. 1 Zum Inhalt: Nach einer Wiederholung der relevanten Grundlagen werden Bayessche Graphen als graphentheoretische Darstellung der Bedingtheitsstruktur

Mehr

Very simple methods for all pairs network flow analysis

Very simple methods for all pairs network flow analysis Very simple methods for all pairs network flow analysis obias Ludes 0.0.0. Einführung Um den maximalen Flusswert zwischen allen Knoten eines ungerichteten Graphen zu berechnen sind nach Gomory und Hu nur

Mehr

15 Wahrscheinlichkeitsrechnung und Statistik

15 Wahrscheinlichkeitsrechnung und Statistik 5 Wahrscheinlichkeitsrechnung und Statistik Alles, was lediglich wahrscheinlich ist, ist wahrscheinlich falsch. ( Descartes ) Trau keiner Statistik, die du nicht selbst gefälscht hast. ( Churchill zugeschrieben

Mehr

3.3 Bedingte Wahrscheinlichkeit

3.3 Bedingte Wahrscheinlichkeit 28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit

Mehr

Minimal spannender Baum

Minimal spannender Baum Minimal spannender Baum 16 1 2 21 5 11 19 6 6 3 14 33 10 5 4 18 Die Kreise zeigen die vorgesehenen Standorte neu zu errichtender Filialen einer Bank. Entlang der bestehenden Straßen sollen Telefonleitungen

Mehr

Mustererkennung: Graphentheorie

Mustererkennung: Graphentheorie Mustererkennung: Graphentheorie D. Schlesinger TUD/INF/KI/IS D. Schlesinger () ME: Graphentheorie 1 / 9 Definitionen Ein Graph ist ein Paar G = (V, E) mit der Menge der Knoten V und der Menge der Kanten:

Mehr

Lösungshinweise zu Kapitel 13

Lösungshinweise zu Kapitel 13 L-112 Lösungshinweise zu Kapitel 13 zu Selbsttestaufgabe 13.2 (Eigenschaften der bedingten Unabhängigkeit) Sei P eine Wahrscheinlichkeitsverteilung über V. Wir setzen im Folgenden stillschweigend voraus,

Mehr

Helmut Schauer Educational Engineering Lab Department for Information Technology University of Zurich. Graphen (2)

Helmut Schauer Educational Engineering Lab Department for Information Technology University of Zurich. Graphen (2) Graphen (2) 1 Topologisches Sortieren (1) Die Kanten eines gerichteten zyklenfreien Graphen bilden eine Halbordnung (die Ordnungsrelation ist nur für solche Knoten definiert die am gleichen Pfad liegen).

Mehr

5 Binomial- und Poissonverteilung

5 Binomial- und Poissonverteilung 45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1

Mehr

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3. 2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das

Mehr

8 Einführung in Expertensysteme

8 Einführung in Expertensysteme 8 Einführung in Expertensysteme 22. Vorlesung: Constraints; Probabilistisches Schließen Für die Programmierung von Expertensystemen werden verschiedene Grundtechniken der Wissensrepräsentation und spezielle

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

Abschlussprüfung Mathematik 12 Nichttechnik S I - Lösung

Abschlussprüfung Mathematik 12 Nichttechnik S I - Lösung GS.06.0 - m_nt-s_lsg_gs_pdf Abschlussprüfung 0 - Mathematik Nichttechnik S I - Lösung Im Folgenden werden relative Häufgkeiten als Wahrscheinlichkeiten interpretiert. Teilaufgabe.0 Bei einer Casting-Show

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen Algorithmen und Datenstrukturen Prof. Martin Lercher Institut für Informatik Heinrich-Heine-Universität Düsseldorf Teil 10 Suche in Graphen Version vom 13. Dezember 2016 1 / 2 Vorlesung 2016 / 2017 2 /

Mehr

Bayesianische Netzwerke I

Bayesianische Netzwerke I Bayesianische Netzwerke I Christiane Belitz 2.5.2003 Überblick Der Vortrag basiert auf Using Bayesian Networks to Analyze Expression Data von Friedman et al. (2000) Definition: Bayesianisches Netzwerk

Mehr

Routing A lgorithmen Algorithmen Begriffe, Definitionen Wegewahl Verkehrslenkung

Routing A lgorithmen Algorithmen Begriffe, Definitionen Wegewahl Verkehrslenkung Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über

Mehr

Maximum and Minimum Satisfiability Problem

Maximum and Minimum Satisfiability Problem and Lehrstuhl für Wissensverarbeitung und Informationssysteme Universität Potsdam 25. Januar 2006 Agenda 1 2 3 I Erfüllbarkeitsproblem der Aussagenlogik : Aussagenlogische Formel auf Erfüllbarkeit prüfen

Mehr

Aufgabe 8: Stochastik (WTR)

Aufgabe 8: Stochastik (WTR) Abitur Mathematik: Nordrhein-Westfalen 2013 Aufgabe 8 a) (1) WAHRSCHEINLICHKEIT FÜR KEINE ANGABE ERMITTELN Nach der Laplace Formel ist Anzahl der Personen, die keine Angabe machten keine Angabe Gesamtzahl

Mehr

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Wahrscheinlichkeitsrechnung Theorie Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem,

Mehr