3. Kapitel: Arbeiten mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr.

Größe: px
Ab Seite anzeigen:

Download "3. Kapitel: Arbeiten mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr."

Transkript

1 Bayessche Netzwerke und ihre Anwendungen 3. Kapitel: Arbeiten mit Bayesschen Netzwerken Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863) Fakultät für Informatik Universität der Bundeswehr München FT 2010 Dozent: Dr. Max Krüger

2 Inhalt 3.1 Anfragen an Bayessche Netzwerke 3.2 Softwaretool für Bayessche Netze 3.3 Graphische Unabhängigkeit: d-separation FT 2010 Bayessche Netzwerke und ihre Anwendungen 2

3 Abschnitt 3.1: Anfragen an Bayessche Netzwerke FT 2010 Bayessche Netzwerke und ihre Anwendungen 3

4 Übersicht über Anfragetypen Hauptanfragetypen Es gibt (mindestens) vier Haupttypen von Anfragen an Bayessche Netzwerke: Probability of Evidence Prior Marginal und Posterior Marginal Most Probable Explanation (MPE) Maximum A Posteriori Hypothesis (MAP) Bemerkung: Einige der zugehörigen Anfragen können unter bestimmten Bedingungen identisch sein. FT 2010 Bayessche Netzwerke und ihre Anwendungen 4

5 Anfragetyp 1: Probability of Evidence Definition: Sei ein Bayessches Netzwerk. Für eine gegebene Evidenz heißt die Wahrscheinlichkeit des Auftretens dieser Evidenz die Probability of Evidence. Bemerkung: Das Ergebnis einer Anfrage beim Anfragetyp Probability of Evidence ist eine einzelne Wahrscheinlichkeit. FT 2010 Bayessche Netzwerke und ihre Anwendungen 5

6 Beispiel zur Probability of Evidence Beispiel: In Pearl s Einbruch-Erdbeben-Beispiel berechnet sich für die Evidenz die Probability of Evidence zu. FT 2010 Bayessche Netzwerke und ihre Anwendungen 6

7 Anfragetyp 2: Prior Marginal und Posterior Marginal Verteilung Definition: Sei ein Bayessches Netzwerk. Für eine Teilmenge der Zufallsvariablen mit und eine gegebene Evidenz heißt die Prior Marginal Verteilung und die Posterior Marginal Verteilung der Variablen. Bemerkung: Das Ergebnis bei diesen Anfragetypen ist (jeweils) eine Verteilung. FT 2010 Bayessche Netzwerke und ihre Anwendungen 7

8 Beispiel zur Prior Marginal und Posterior Marginal Verteilung Beispiel: In Pearl s Einbruch-Erdbeben-Beispiel sei wiederum die Evidenz gegeben. Für die Variable durch Alarm ist die Prior Marginal Verteilung gegeben P(A) A=True A=False und die Posterior Marginal Verteilung durch Alarm P(A e) A=True A=False FT 2010 Bayessche Netzwerke und ihre Anwendungen 8

9 Anfragetyp 3: Most Probable Explanation (MPE) Definition: Sei ein Bayessches Netzwerk. Für eine gegebene Evidenz heißt ein gemeinsamer Zustand der Zufallsvariablen die Most Probable Explanation (MPE) der Evidenz, falls die Wahrscheinlichkeit maximal unter allen gemeinsamen Zuständen der Zufallsvariablen ist. Bemerkung: Das Ergebnis einer Anfrage beim Anfragetyp Most Probable Explanation ist ein gemeinsamer Zustand und die zugehörige Wahrscheinlichkeit. FT 2010 Bayessche Netzwerke und ihre Anwendungen 9

10 Beispiel zur Most Probable Explanation (MPE) Beispiel: In Pearl s Einbruch-Erdbeben-Beispiel ist für die Evidenz die Most Probable Explanation gegeben durch mit. FT 2010 Bayessche Netzwerke und ihre Anwendungen 10

11 Anfragetyp 4: Maximum A Posteriori Hypothesis (MAP) Definition: Sei ein Bayessches Netzwerk und sei eine Teilmenge der Zufallsvariablen. Für eine gegebene Evidenz heißt ein gemeinsamer Zustand mit für die Maximum A Posteriori Hypothesis (MAP) der Zufallsvariablen bezüglich der Evidenz, falls die Wahrscheinlichkeit maximal unter allen gemeinsamen Zuständen der Zufallsvariablen ist. Bemerkung: Das Anfrageergebnis ist ein gemeinsamer Zustand der MAP- Variablen und die zugehörige Wahrscheinlichkeit. FT 2010 Bayessche Netzwerke und ihre Anwendungen 11

12 Übungsaufgabe 3.1 (1): Das zu betrachtende Netzwerk A: Asienreise gemacht S: Raucher T: Hat Tuberkulose C: Hat Lungenkrebs B: Hat Bronchitis P: Symptomatik für Tuberkulose oder Krebs X: Röntgenbefund ist positiv D: Hat Atemnot FT 2010 Bayessche Netzwerke und ihre Anwendungen 12

13 Übungsaufgabe 3.1(2): Aufgabenstellung Betrachten Sie bitte das vorangehende Bayessche Netzwerk aus dem Bereich der medizinischen Diagnose, dessen Zufallsvariablen jeweils die Zustände Ja/Nein annehmen können: Erläutern Sie die dargestellten Zusammenhänge des zugrundeliegenden Problembereichs. Erläutern Sie die Struktur des Netzwerkes, z.b. hinsichtlich Variablentypen, Kausalbeziehungen und eventuellen Besonderheiten. Welche Fragestellungen könnten dem Netzwerk zugrunde liegen? Formulieren Sie zu jedem der Hauptanfragetypen eine Anfrage, die ein Mediziner an das Netzwerk richten könnte (bzw. würde). Geben Sie Beispiele von Anfragen, die verschiedenen Hauptanfragetypen zugeordnet werden können. FT 2010 Bayessche Netzwerke und ihre Anwendungen 13

14 Abschnitt 3.2: Softwaretool für Bayessche Netze FT 2010 Bayessche Netzwerke und ihre Anwendungen 14

15 Softwaretool für Bayessche Netzwerke: GeNIe 2.0 & SMILE The GeNIe (Graphical Network Interface) software package can be used to create decision theoretic models intuitively using the graphical click-and-drop interface. GeNIe is the graphical interface to SMILE, a fully portable Bayesian inference engine developed by the Decision Systems Laboratory [ ] [ SMILE (Structural Modeling, Inference, and Learning Engine) is a fully platform independent library of C++ classes implementing graphical probabilistic and decision-theoretic models, such as Bayesian networks, influence diagrams, and structural equation models. Its individual classes, defined in SMILE API (Application Programming Interface), allows you create, edit, save, and load graphical models, and use them for probabilistic reasoning and decision making under uncertainty. [ ] [ Download und Lizenzbedingungen unter Hinweis: Die Verwendung dieses Tools ist beispielhaft. Alternativ ist eine Vielzahl kommerzieller und nicht-kommerzieller Tools für Bayessche Netzwerke über das Internet erhältlich. FT 2010 Bayessche Netzwerke und ihre Anwendungen 15

16 Screenshot mit Pearl s Einbruch-Erdbeben-Beispiel FT 2010 Bayessche Netzwerke und ihre Anwendungen 16

17 Bedienung (1): Modellierung und Aufbau von Bayes-Netzen Modellierung und Aufbau: Erzeugung von Knoten und Namensgebung Bestimmung der Zustände und Namensgebung Erzeugung der Pfeile (graphische Abhängigkeiten) Befüllung der Bedingten Wahrscheinlichkeitstabellen FT 2010 Bayessche Netzwerke und ihre Anwendungen 17

18 Bedienung (2): Darstellung und Ansichten von Bayes-Netzen Darstellung und Ansichten: Knotendarstellung: Icon / Bar Chart Fullscreen / Fit to Window Überblick Menüleiste FT 2010 Bayessche Netzwerke und ihre Anwendungen 18

19 Bedienung (3): Anfragen und Berechnungen in Bayes-Netze Anfragen und Berechnungen: Evidenzen: Set Evidence Clear Evidence / Clear all Evidence Posterior Marginal Verteilung des Zufallsknoten : Update Beliefs / Update Immediately Invalidate Values Probability of Evidence: FT 2010 Bayessche Netzwerke und ihre Anwendungen 19

20 Übungsaufgabe 3.2: Modellieren Sie Pearl s Einbruch-Erdbeben mittels eines Softwaretools, beispielsweise mittels GeNIe 2.0 & SMILE. Berechnen Sie die folgende Evidenzwahrscheinlichkeit. FT 2010 Bayessche Netzwerke und ihre Anwendungen 20

21 Abschnitt 3.3: Graphische Unabhängigkeit: d-separation FT 2010 Bayessche Netzwerke und ihre Anwendungen 21

22 Einleitendes Beispiel zur d-separation Gegeben sei das nebenstehende Bayessche Netzwerk und die zugehörige Evidenz. B=b A B C D E F G Wenn man dann erfährt, dass Zusätzlich gilt, kann dies die Zustandswahrscheinlichkeiten von für irgendeine Parametrisierung ändern? (Antwort: Ja, siehe später.) Hätte eine nachträgliche Information über über möglicherweise Einfluss auf? (Antwort: Nein, siehe später.) H I J K L M=m M Quelle: Jensen&Nielsen 2007, S. 31 anstelle der Information FT 2010 Bayessche Netzwerke und ihre Anwendungen 22

23 Fragestellung bei der d-separation Sei ein Bayessches Netzwerk gegeben. Für eine Teilmenge der Zufallsvariablen seien die Zustände gegeben mittels einer Evidenz gegeben. Zudem seien weitere Zufallsvariablen des Bayesschen Netzwerkes. A B C D E F G H I J K L Fragestellung (informell): Bei der d-seperation wird die Frage behandelt, ob unabhängig von der konkreten Parametrisierung des Bayesschen Netzwerks neu hinzu gewonnenes Wissen bezüglich, d.h., die aktuellen Wahrscheinlichkeiten der Zustände von beeinflussen könnte. M Quelle: Jensen&Nielsen 2007, S. 31 FT 2010 Bayessche Netzwerke und ihre Anwendungen 23

24 Vorgehen zur Untersuchung eines Netzes auf d-separation Für die Untersuchung eines Bayesschen Netzwerkes hinsichtlich der Fragestellung, ob zwei Knoten für eine gegebene Evidenz (die beide Knoten nicht beinhaltet, d.h. festlegt) d-separiert sind, untersuchen wir (zumindest im Prinzip) jeden möglichen ungerichteten Pfad zwischen diesen beiden Knoten. Für die Untersuchung kann man sich alle Knoten eines verbindenden Pfads als Absperrhähne vorstellen, jeweils offen oder geschlossen. Ist auf jedem dieser Pfade zwischen mindestens ein solcher Absperrhahn (Zwischenknoten) geschlossen, so sind die Knoten d-separiert und können sich nicht gegenseitig beeinflussen, wenn über einen der beiden Knoten neues Wissen (Evidenz) hinzukommt. FT 2010 Bayessche Netzwerke und ihre Anwendungen 24

25 Typen von Verbindungsstücken Ein ungerichteter Pfad zwischen zwei Knoten ist aus einer Reihe von Verbindungsstücken mit jeweils einem Zwischenknoten zusammengesetzt. Es gibt genau drei verschiedene Typen von Verbindungsstücken: Typ 1: Serielles Verbindungsstück A B C D E F G Typ 2: Divergentes Verbindungsstück H I J Typ 3: Konvergentes Verbindungsstück K L M Quelle: Jensen&Nielsen 2007, S. 31 FT 2010 Bayessche Netzwerke und ihre Anwendungen 25

26 Übungsaufgabe 3.3: Modellieren Sie jeweils das nebenstehende serielle, divergente und konvergente Verbindungsstück jeweils in Ihrem Softwaretool für Bayessche Netzwerke und befüllen Sie jeweils die CPT s mit (nicht-trivialen) Werten. A B C B A C Setzen Sie nacheinander jeweils eine Evidenz nur in B eine Evidenz nur in D und in eine Evidenz nur in E. Was passiert mit den Wahrscheinlichkeiten der Zustände von C bzw. A, wenn Sie in A bzw. C eine weitere Evidenz setzen? A C D E FT 2010 Bayessche Netzwerke und ihre Anwendungen 26

27 Offene und geschlossene serielle Verbindungsstücke Definition: Sei ein Bayessches Netzwerk und sei eine Teilmenge der Knoten (die in einer gegebenen Evidenz bezüglich ihres Zustands festgelegt sind). Ein serielles Verbindungsstück mit dem Zwischenknoten heißt (in beide Richtungen) offen gegeben, falls gilt. Für heißt das Verbindungsstück geschlossen (bzw. blockiert) gegeben. FT 2010 Bayessche Netzwerke und ihre Anwendungen 27

28 Notation offene/geschlossene serielle Verbindungsstücke Notationsbeispiele: W A A W W B sind Beispiele für offene serielle Verbindungsstücke. W A B A W B W sind Beispiele für geschlossene serielle Verbindungsstücke. FT 2010 Bayessche Netzwerke und ihre Anwendungen 28

29 Informationstransport über ein serielles Verbindungsstück Beispiel: Gegen sei das folgende Netzwerk mit den Knoten und Zuständen Rainfall mit, Water level mit und Flooding mit : R W F Quelle: Jensen&Nielsen 2007, S. 27 Beispiele für den Informationstransport: Bei unbekanntem Zustand von kann die Evidenz die Zustandswahrscheinlichkeit von und dies wiederum die Zustandswahrscheinlichkeit von erhöhen. Umgekehrt erhöht bei unbekanntem Zustand von möglicherweise auch die Evidenz die Wahrscheinlichkeit des Zustands. Bei bekanntem Zustand von verändern die Evidenzen die Zustandswahrscheinlichkeiten des jeweils anderen Knotens dagegen sicher nicht. FT 2010 Bayessche Netzwerke und ihre Anwendungen 29

30 Offene und geschlossene divergente Verbindungsstücke Definition: Sei ein Bayessches Netzwerk und sei eine Teilmenge der Knoten (die in einer gegebenen Evidenz bezüglich ihres Zustands festgelegt sind). Ein divergentes Verbindungsstück mit dem Zwischenknoten heißt offen gegeben, falls gilt. Für heißt das Verbindungsstück geschlossen (bzw. blockiert) gegeben. FT 2010 Bayessche Netzwerke und ihre Anwendungen 30

31 Notation offene/geschlossene divergente Verbindungsstücke Notationsbeispiele: W A A W B W sind Beispiele für offene divergente Verbindungsstücke. W A A W W sind Beispiele für geschlossene divergente Verbindungsstücke. FT 2010 Bayessche Netzwerke und ihre Anwendungen 31 B

32 Informationstransport über ein divergentes Verbindungsstück Beispiel: Gegen sei das folgende Netzwerk mit den Knoten und Zuständen Sex mit, Hair Length mit und Height mit : L S H Quelle: Jensen&Nielsen 2007, S Beispiele für den Informationstransport: Bei unbekanntem Geschlecht kann eine beobachtete Haarlänge die Zustandswahrscheinlichkeit des Geschlechts und die wiederum die Zustandswahrscheinlichkeit der Größe verändern. Bei bekanntem Geschlecht verändern Beobachtungen die Zustandswahrscheinlichkeiten des jeweils anderen Knotens dagegen sicher nicht. FT 2010 Bayessche Netzwerke und ihre Anwendungen 32

33 Offene und geschlossene konvergente Verbindungsstücke Definition: Sei ein Bayessches Netzwerk und sei eine Teilmenge der Knoten (die in einer gegebenen Evidenz bezüglich ihres Zustands festgelegt sind). bezeichne die Menge, die aus dem Knoten und allen (gerichteten direkten und indirekten) Nachfolgern (Kinderknoten) von besteht. Ein konvergentes Verbindungsstück mit dem Zwischenknoten heißt offen gegeben, falls gilt. Für heißt das Verbindungsstück geschlossen (bzw. blockiert) gegeben. FT 2010 Bayessche Netzwerke und ihre Anwendungen 33

34 Notation offene/geschlossene konvergente Verbindungsstücke Notationsbeispiele: W A B A W B W sind Beispiele für offene konvergente Verbindungsstücke. W A A W W B B sind Beispiele für geschlossene konvergente Verbindungsstücke. FT 2010 Bayessche Netzwerke und ihre Anwendungen 34

35 Informationstransport über ein konvergentes Verbindungsstück Beispiel: Gegen sei das folgende Netzwerk mit den Knoten und Zuständen Salmonella mit, Flu (Grippe) mit, Nausea (Brechreiz) mit und Pallor (Blässe) mit : Beispiele für den Informationstransport: Bei unbekanntem Zustand der Knoten Nausea und Pallor verändert eine Beobachtung von Flu die Zustandwahrscheinlichkeit von Salmonella nicht (und umgekehrt). Bei bekanntem Brechreiz kann eine Beobachtung hinsichtlich einer möglichen Ursache die Zustandswahrscheinlichkeit der anderen möglichen Ursachen verändern. Explaining Away -Effekt Bei bekannter Blässe (und damit erhöhter Wahrscheinlichkeit für den Brechreiz) kann der Explaining Away -Effekt ebenfalls auftreten. Quelle: Jensen&Nielsen 2007, S FT 2010 Bayessche Netzwerke und ihre Anwendungen 35 S N P F

36 Formale Definition der d-separation Definition: Sei ein Bayessches Netzwerk und seien paarweise disjunkte Knotenmengen darin, wobei die Teilmenge der (in einer gegebenen Evidenz bezüglich ihres Zustands festgelegten Knoten) bezeichne. Die Mengen heißen durch d-separiert, genau dann wenn jeder (ungerichtete) Pfad zwischen einem Knoten aus und einem Knoten aus durch blockiert wird. Dabei heißt ein Pfad durch blockiert, wenn er bei gegebener Menge mindestens ein geschlossenes Zwischenstück enthält. Anmerkung: Bei der Definition der d-separation wird formal nicht verwendet, dass die Menge gerade die Variablen einer Evidenz enthält. FT 2010 Bayessche Netzwerke und ihre Anwendungen 36

37 Übungsaufgabe 3.4: d-separation Bestimmen Sie bitte für das unten gezeigte Netzwerk die größtmögliche Knotenmenge die von der Menge durch d-separiert wird. B=b A B C D E F G H I J K L M M=m Quelle: Jensen&Nielsen 2007, S. 31 FT 2010 Bayessche Netzwerke und ihre Anwendungen 37

38 Bedingte Unabhängigkeit und d-separation Satz: Sei ein Bayessches Netzwerk und seien paarweise disjunkte Teilmengen der Knoten menge. Die Zufallsvektoren und seien jeweils aus allen in der zugehörigen Menge oder enthaltenen Zufallsvariablen zusammengesetzt. Dann gelten die folgenden Zusammenhänge: Wenn durch d-separiert sind, dann sind für alle möglichen Parametrisierungen von die Zufallsvektoren bedingt unabhängig gegeben den Zufallsvektor. Wenn durch nicht d-separiert sind, so hängt eine mögliche bedingte Unabhängigkeit von der gegebenen Parametrisierung ab. Dabei bezeichnet eine Parametrisierung von eine konkrete Befüllung der bedingten Wahrscheinlichkeitstabellen aus. FT 2010 Bayessche Netzwerke und ihre Anwendungen 38

39 Kriterium für d-separation: Markov-Decke Definition und Satz: Sei Zufallsvariable. ein Bayessches Netzwerk und eine Die Markov-Decke des Knotens ist die Menge, die alle Elternknoten von (gerichete Vorgänger), alle Kinderknoten von (gerichtete Nachfolger) und alle Knoten die mit ein gemeinsames Kind haben (Partnerknoten) enthält. Die Menge wird durch die Markov-Decke des Knotens von allen übrigen Knoten des Netzwerkes d-separiert. FT 2010 Bayessche Netzwerke und ihre Anwendungen 39

40 Übungsaufgabe 3.5: Markov-Decke Bitte betrachten Sie das nachfolgend dargestellte Netzwerk. B D F A C E G H I J K L M N Quelle: Jensen&Nielsen 2007, S. 32 Bestimmen Sie bitte die Markov-Decke des Knotens I. Wird der Knoten I vom Rest des Netzwerkes bereits durch die Menge seiner Nachbarknoten d-separiert? FT 2010 Bayessche Netzwerke und ihre Anwendungen 40

41 Literatur (Auswahl) Finn v. Jensen & Thomas D. Nielsen: Bayesian Networks and Decision Graphs (2. ed.). Springer Science + Business Media, Adnan Darwiche: Modeling and Reasoning with Bayesian Networks. Cambridge University Press, Stuart Russel & Peter Norvig: Künstliche Intelligenz Ein moderner Ansatz (2. Aufl.). Pearson Education, Judea Pearl: Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference (revised second printing). Morgan Kaufmann Publishers Inc., FT 2010 Bayessche Netzwerke und ihre Anwendungen 41

42 Ende Vielen Dank für Ihre Mitarbeit! FT 2010 Bayessche Netzwerke und ihre Anwendungen 42

Bayessche Netzwerke und ihre Anwendungen

Bayessche Netzwerke und ihre Anwendungen Bayessche Netzwerke und ihre Anwendungen 1. Kapitel: Grundlagen Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863) Fakultät für Informatik

Mehr

4. Kapitel: Klassifizierung mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr.

4. Kapitel: Klassifizierung mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr. Bayessche Netzwerke und ihre Anwendungen 4. Kapitel: Klassifizierung mit Bayesschen Netzwerken Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.:

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen

Mehr

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities) Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief

Mehr

Elektrotechnik und Informationstechnik

Elektrotechnik und Informationstechnik Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes

Mehr

Methoden der KI in der Biomedizin Bayes Netze

Methoden der KI in der Biomedizin Bayes Netze Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze

Mehr

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit

Mehr

Evidenzpropagation in Bayes-Netzen und Markov-Netzen

Evidenzpropagation in Bayes-Netzen und Markov-Netzen Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation

Mehr

Elektrotechnik und Informationstechnik

Elektrotechnik und Informationstechnik Elektrotechnik und Informationstechnik Institut für utomatisierungstechnik, Professur Prozessleittechnik Bayessche Netze VL Prozessinformationsverarbeitung WS 2009/2010 Problemstellung Wie kann Wissen

Mehr

Bayes-Netze. Vorlesung im Sommersemester 2012

Bayes-Netze. Vorlesung im Sommersemester 2012 Bayes-Netze Vorlesung im Sommersemester 2012 Organisatorisches Zeit und Ort: Mo 14-16 Cartesium 0.01 Prof. Carsten Lutz Raum Cartesium 2.59 Tel. (218)-64431 clu@uni-bremen.de Position im Curriculum: Modulbereich

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel

Mehr

PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein

PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein Bayes'sche Netze Andreas Bahcecioglu Marcel Bergmann Ertan Samgam Sven Schebitz Jan Seewald Fachhochschule Köln Wintersemester 2014 / 2015

Mehr

Reasoning and decision-making under uncertainty

Reasoning and decision-making under uncertainty Reasoning and decision-making under uncertainty 9. Vorlesung Actions, interventions and complex decisions Sebastian Ptock AG Sociable Agents Rückblick: Decision-Making A decision leads to states with values,

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Bayes sche und probabilistische Netze

Bayes sche und probabilistische Netze Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung

Mehr

Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind

Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Bayessche Netze Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Einleitung Sicheres vs. Unsicheres Wissen Kausale Netzwerke Abhängigkeit Verbindungsarten Exkurs:

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

Graphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i])

Graphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i]) Seminar über Algorithmen 19. November 2013 Michael Brückner Graphische Spiele Wolfgang Mulzer, Yannik Stein 1 Einführung Da in Mehrspielerspielen mit einer hohen Anzahl n N an Spielern die Auszahlungsdarstellungen

Mehr

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle Modellierung einer Domäne mit verschiedenen

Mehr

Dr. Johannes Bauer Institut für Soziologie, LMU München. Directed Acyclic Graphs (DAG)

Dr. Johannes Bauer Institut für Soziologie, LMU München. Directed Acyclic Graphs (DAG) Dr. Institut für Soziologie, LMU München Directed Acyclic Graphs (DAG) Wie ist der Zusammenhang von und Z blockiert den Pfad Mediator 50% = 1 50% = 0 Z Z if =0: 20% if =1: 80% Gegenwsk if Z=0: 20% if Z=1:

Mehr

Einführung in die diskreten Bayes- und Kredal-Netze

Einführung in die diskreten Bayes- und Kredal-Netze Einführung in die diskreten Bayes- und Kredal-Netze Master-Seminar im Wintersemester 2015/16 Patrick Schwaferts Institut für Statistik, LMU 16. Januar 2016 Schwaferts (Institut für Statistik, LMU) Bayes-

Mehr

Bayesian Networks. Syntax Semantics Parametrized Distributions Inference in Bayesian Networks. Exact Inference. Approximate Inference

Bayesian Networks. Syntax Semantics Parametrized Distributions Inference in Bayesian Networks. Exact Inference. Approximate Inference Syntax Semantics Parametrized Distributions Inference in Exact Inference Approximate Inference enumeration variable elimination stochastic simulation Markov Chain Monte Carlo (MCMC) 1 Includes many slides

Mehr

Commonsense Reasoning

Commonsense Reasoning Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2017 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232 Kapitel 4 Grundideen probabilistischen

Mehr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der

Mehr

Konzepte der AI. Unsicheres Schließen

Konzepte der AI. Unsicheres Schließen Konzepte der AI Unsicheres Schließen http://www.dbai.tuwien.ac.at/education/aikonzepte/ Wolfgang Slany Institut für Informationssysteme, Technische Universität Wien mailto: wsi@dbai.tuwien.ac.at, http://www.dbai.tuwien.ac.at/staff/slany/

Mehr

Wahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung

Wahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2018 Anwendung der Bayesschen Theorie in ML Bayessche Netzwerke Bayessche Netze werden in modernen Expertensystemen benutzt. Das Wissen wird über

Mehr

In einem mathematischen Modell wird dies beschrieben durch einen funktionalen Zusammenhang: x = f (t).

In einem mathematischen Modell wird dies beschrieben durch einen funktionalen Zusammenhang: x = f (t). Aktueller Überblick 0 Einführende Worte ( ) 1 Geschichtlicher Überblick ( ) 2 Zufall 3 Perfekte Sicherheit und ihre Grenzen 4 Angriffsszenarien 5 Der komplexitätstheoretische Ansatz 6 Pseudozufallsgeneratoren

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Matchings in Graphen. Praktikum Diskrete Optimierung (Teil 5)

Matchings in Graphen. Praktikum Diskrete Optimierung (Teil 5) Praktikum Diskrete Optimierung (Teil 5) 6.05.009 Matchings in Graphen Es sei ein ungerichteter Graph G = (V, E) gegeben. Ein Matching in G ist eine Teilmenge M E, so dass keine zwei Kanten aus M einen

Mehr

Wahrscheinlichkeiten

Wahrscheinlichkeiten Wahrscheinlichkeiten August, 2013 1 von 21 Wahrscheinlichkeiten Outline 1 Wahrscheinlichkeiten 2 von 21 Wahrscheinlichkeiten Zufallsexperimente Die möglichen Ergebnisse (outcome) i eines Zufallsexperimentes

Mehr

Bayesian updating in natural hazard risk assessment

Bayesian updating in natural hazard risk assessment International Forum on Engineering Decision Making, Third IFED Forum, Shoal Bay, Australia, 12-15 15 December 2007 1/23 Bayesian updating in natural hazard risk assessment Mathias Graf, Kazuyoshi Nishijima,

Mehr

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung Gliederung der Vorlesung. Fallstudie Bipartite Graphen. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen. Minimal spannende Bäume. Kürzeste Pfade. Traveling Salesman Problem. Flüsse in Netzwerken

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Latente Dirichlet-Allokation

Latente Dirichlet-Allokation Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,

Mehr

Kapitel 8: Bipartite Graphen Gliederung der Vorlesung

Kapitel 8: Bipartite Graphen Gliederung der Vorlesung Gliederung der Vorlesung 1. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege 4. Minimale spannende Bäume 5. Färbungen und Cliquen 6. Traveling Salesman Problem 7. Flüsse in Netzwerken

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

Darstellung, Verarbeitung und Erwerb von Wissen

Darstellung, Verarbeitung und Erwerb von Wissen Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267

Mehr

Kapitel 4: Merkmalszusammenhänge

Kapitel 4: Merkmalszusammenhänge Kapitel 4: Merkmalszusammenhänge Korrelationen 1 Lineare Regression 3 Literatur 5 Korrelationen Mit Hilfe von G*Power lässt sich analog zum Vorgehen beim t-test (Kapitel 3, Band I) vor einer Untersuchung

Mehr

Seminar: Knowledge Engineering und Lernen in Spielen - Bayesian Networks

Seminar: Knowledge Engineering und Lernen in Spielen - Bayesian Networks Seminar: Knowledge Engineering und Lernen in Spielen - Bayesian Networks Fachgebiet: Knowledge Engineering Betreuer: Prof. Dr. Johannes Fürnkranz Matthias Wich Darmstadt, 04.07.2006 Bayesian Networks Agenda

Mehr

Kapitel 1: Bayes-Netze

Kapitel 1: Bayes-Netze Kapitel 1: Bayes-Netze Bayes-Netze Ausgangspunkt: Wahrscheinlichkeitsverteilungen über Welten sind geeignet, um unsicheres Wissen zu repräsentieren Eine naive Repräsentation als Liste von Wahrscheinlichkeiten

Mehr

Quantitative Methoden Wissensbasierter Systeme

Quantitative Methoden Wissensbasierter Systeme Quantitative Methoden Wissensbasierter Systeme Probabilistische Netze und ihre Anwendungen Robert Remus Universität Leipzig Fakultät für Mathematik und Informatik Abteilung für Intelligente Systeme 23.

Mehr

Lösungen Wahrscheinlichkeitstheorie

Lösungen Wahrscheinlichkeitstheorie Lösungen Wahrscheinlichkeitstheorie Serie 6 Aufgabe 1 (stochastische Unabhängigkeit). Für die Ereignisse A, B und C sind folgende Wahrscheinlichkeiten bekannt: P (A) = 0, 2; P (B) = 0, 6; P (A \ B) = 0,

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Eziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2007/08

Mehr

Bayesianisches Risikomanagement

Bayesianisches Risikomanagement Bayesianisches Risikomanagement Armin Haas Potsdam-Institut für Klimafolgenforschung Abschlusskonferenz des BMBF-Projektes Mainstreaming von Klimarisiken und -chancen im Finanzsektor Frankfurt, 27. November

Mehr

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,

Mehr

Dynamic Bayesian Network Library

Dynamic Bayesian Network Library Dynamic Bayesian Network Library Ein C++ Framework für Berechnungen auf dynamischen Bayes schen Netzen Ralf Kohlhaas, Ferdinand Szekeresch, Tobias Gindele und Rüdiger Dillmann Institut für Anthropomatik,

Mehr

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Satz 18 (Satz von der totalen Wahrscheinlichkeit) Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte

Mehr

Stochastik für Ingenieure

Stochastik für Ingenieure Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS)

5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) 5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) Sommersemester 2009 Dr. Carsten Sinz, Universität Karlsruhe Datenstruktur BDD 2 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer:

Mehr

Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle: Inferenz Wir haben eine Domäne durch gemeinsame

Mehr

Bayesian Networks. Syntax Semantics Parametrized Distributions Inference in Bayesian Networks. Exact Inference. Approximate Inference

Bayesian Networks. Syntax Semantics Parametrized Distributions Inference in Bayesian Networks. Exact Inference. Approximate Inference Syntax Semantics Parametrized Distributions Inference in Exact Inference Approximate Inference enumeration variable elimination stochastic simulation Markov Chain Monte Carlo (MCMC) 1 Includes many slides

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme 10 Matching-Probleme 10.1 Definition von Matching-Probleme Definition 21 [2-dimensionales Matching] Sei G = (V, E) ein ungerichteter Graph und E E. E ist ein Matching, wenn für alle Kantenpaare e 1, e

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator

Mehr

Abgabe: (vor der Vorlesung)

Abgabe: (vor der Vorlesung) TECHNISCHE UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR INFORMATIK Lehrstuhl für Sprachen und Beschreibungsstrukturen SS 009 Grundlagen: Algorithmen und Datenstrukturen Übungsblatt 0 Prof. Dr. Helmut Seidl, S. Pott,

Mehr

Bayesianische Netzwerke I

Bayesianische Netzwerke I Bayesianische Netzwerke I Christiane Belitz 2.5.2003 Überblick Der Vortrag basiert auf Using Bayesian Networks to Analyze Expression Data von Friedman et al. (2000) Definition: Bayesianisches Netzwerk

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester

Mehr

Kapitel 9: Lineare Programmierung Gliederung

Kapitel 9: Lineare Programmierung Gliederung Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen

Mehr

Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen

Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen Rückblick Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen Vektorraummodell stellt Anfrage und Dokumente als Vektoren in gemeinsamen Vektorraum dar

Mehr

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza)

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza) WS 2013/14 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ws/ds/uebung/ 22. Januar 2014 ZÜ DS ZÜ XIII

Mehr

Mathematik I Herbstsemester 2018 Kapitel 6: Potenzreihen

Mathematik I Herbstsemester 2018 Kapitel 6: Potenzreihen Mathematik I Herbstsemester 208 Kapitel 6: Potenzreihen Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/ farkas / 58 6. Potenzreihen Reihen (Zahlenreihen) Konvergenzkriterien für Reihen Notwendiges

Mehr

Formale Grundlagen der Informatik

Formale Grundlagen der Informatik Formale Grundlagen der Informatik / 2015 1 Die Elemente einer (endlichen) Menge sollen den Elementen einer zweiten, gleichmächtigen Menge zugeordnet werden Problemstellung Bipartite Graphen Zuordnungsprobleme

Mehr

Wie liest man Konfidenzintervalle? Teil II. Premiu m

Wie liest man Konfidenzintervalle? Teil II. Premiu m Wie liest man Konfidenzintervalle? Teil II Premiu m - Hintergrund Anderer Wahrscheinlichkeitsbegriff subjektiver Wahrscheinlichkeitsbegriff Beispiel: Was ist die Wahrscheinlichkeit dafür, dass ein Patient

Mehr

Shannon Formeln. Formale Systeme. Normierte Shannon Formeln. Eigenschaften des sh-operators

Shannon Formeln. Formale Systeme. Normierte Shannon Formeln. Eigenschaften des sh-operators Shannon Formeln Formale Systeme Prof. Dr. Bernhard Beckert Fakultät für Informatik Universität Karlsruhe (TH) Shannon Formeln sind aussagenlogische Formeln, die aufgebaut sind aus dem dreistelligen Operator

Mehr

Kapitel 3: Ehrenfeucht-Fraïssé Spiele

Kapitel 3: Ehrenfeucht-Fraïssé Spiele Kapitel 3: Ehrenfeucht-Fraïssé Spiele Kapitel 3: Ehrenfeucht-Fraïssé Spiele Abschnitt 3.0: In diesem Kapitel werden Ehrenfeucht-Fraïssé-Spiele (kurz: EF-Spiele) eingeführt. Diese liefern ein Werkzeug,

Mehr

Bayesnetzmodelle (BNM) in der Kardiologie

Bayesnetzmodelle (BNM) in der Kardiologie Bayesnetzmodelle (BNM) in der Kardiologie Vorgehensmodell - Ergebnisse Claus Möbus - Heiko Seebold Jan-Ole Janssen, Andreas Lüdtke, Iris Najman, Heinz-Jürgen Thole Besonderen Dank an: Herrn Reinke (Münster)

Mehr

Kapitel 5: Minimale spannende Bäume Gliederung der Vorlesung

Kapitel 5: Minimale spannende Bäume Gliederung der Vorlesung Gliederung der Vorlesung 1. Grundbegriffe 2. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege. Minimale spannende Bäume. Färbungen und Cliquen. Traveling Salesman Problem. Flüsse in Netzwerken

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Aufgaben zur Klausurvorbereitung

Aufgaben zur Klausurvorbereitung Vorlesung Graphen und Optimierung Sommersemester 2013/14 Prof. S. Lange Aufgaben zur Klausurvorbereitung Hier finden Sie eine Reihe von Übungsaufgaben, die wir an den beiden Vorlesungsterminen am 29.01.2014

Mehr

Formale Systeme. Prof. Dr. Bernhard Beckert. Winter 2008/2009. Fakultät für Informatik Universität Karlsruhe (TH)

Formale Systeme. Prof. Dr. Bernhard Beckert. Winter 2008/2009. Fakultät für Informatik Universität Karlsruhe (TH) Formale Systeme Prof. Dr. Bernhard Beckert Fakultät für Informatik Universität Karlsruhe (TH) Winter 28/29 Prof. Dr. Bernhard Beckert Formale Systeme Winter 28/29 / 32 Shannon Formeln Shannon Formeln sind

Mehr

WS 2013/14. Diskrete Strukturen

WS 2013/14. Diskrete Strukturen WS 2013/14 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws1314

Mehr

Zählen perfekter Matchings in planaren Graphen

Zählen perfekter Matchings in planaren Graphen Zählen perfekter Matchings in planaren Graphen Kathlén Kohn Institut für Mathematik Universität Paderborn 25. Mai 2012 Inhaltsverzeichnis Motivation Einführung in Graphentheorie Zählen perfekter Matchings

Mehr

Satz von der totalen Wahrscheinlichkeit

Satz von der totalen Wahrscheinlichkeit htw saar 1 Satz von der totalen Wahrscheinlichkeit Sei (Ω, P) ein Wahrscheinlichkeitsraum, und B 1,, B n seien paarweise disjunkte Ereignisse mit B i = Ω. Für jedes Ereignis A gilt dann: P(A) = P(A B 1

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Diskrete Strukturen Kapitel 4: Graphentheorie (Bäume)

Diskrete Strukturen Kapitel 4: Graphentheorie (Bäume) WS 2016/17 Diskrete Strukturen Kapitel 4: Graphentheorie (Bäume) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_16

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

Folgen und Reihen. Wirtschaftswissenschaftliches Zentrum Universität Basel. Mathematik für Ökonomen 1 Dr. Thomas Zehrt

Folgen und Reihen. Wirtschaftswissenschaftliches Zentrum Universität Basel. Mathematik für Ökonomen 1 Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen Dr. Thomas Zehrt Folgen und Reihen Literatur Referenz: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen, Band, 7. Auflage,

Mehr

Elementare Wahrscheinlichkeitslehre

Elementare Wahrscheinlichkeitslehre Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013

Mehr

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij. 8 Markov-Ketten 8.1 Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.

Mehr

1 Inhaltsverzeichnis. 1 Einführung...1

1 Inhaltsverzeichnis. 1 Einführung...1 1 Inhaltsverzeichnis 1 Einführung...1 1.1 Arten der stochastischen Abhängigkeit...2 1.2 Wo kommen regressive Abhängigkeiten vor?...3 1.3 Hauptaufgaben von Regressionsmodellen...3 1.4 Wissenschaftstheoretische

Mehr

Mustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10

Mustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Mustererkennung: Wahrscheinlichkeitstheorie D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Definitionen (axiomatisch) Wahrscheinlichkeitsraum (Ω, σ, P), mit Ω Die Grundmenge, die Menge der elementaren

Mehr

Bayessche Graphen. Jan Simon, RWTH Aachen, im Sommer 2008

Bayessche Graphen. Jan Simon, RWTH Aachen, im Sommer 2008 Bayessche Graphen Jan Simon, RWTH Aachen, im Sommer 2008 S. 1 Zum Inhalt: Nach einer Wiederholung der relevanten Grundlagen werden Bayessche Graphen als graphentheoretische Darstellung der Bedingtheitsstruktur

Mehr

WS 2015/16 Diskrete Strukturen Kapitel 4: Graphen (Matchings)

WS 2015/16 Diskrete Strukturen Kapitel 4: Graphen (Matchings) WS 2015/16 Diskrete Strukturen Kapitel 4: Graphen (Matchings) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_15

Mehr

Übungsblatt 6 Lösungen

Übungsblatt 6 Lösungen Grundlagen der Künstlichen Intelligenz Prof. Dr. J. Boedecker, Prof. Dr. W. Burgard, Prof. Dr. F. Hutter, Prof. Dr. B. Nebel M. Krawez, T. Schulte Sommersemester 2018 Universität Freiburg Institut für

Mehr

Berechnung optimaler Bayesscher Netzwerke. Ivo Große IPK Gatersleben Bioinformatikzentrum Gatersleben-Halle

Berechnung optimaler Bayesscher Netzwerke. Ivo Große IPK Gatersleben Bioinformatikzentrum Gatersleben-Halle Berechnung optimaler Bayesscher Netzwerke Ivo Große IPK Gatersleben Bioinformatikzentrum Gatersleben-Halle Markov Modelle Markov 0 - Nukleotide statistisch unabhängig - position weight matrix (Staden 1984)

Mehr

Sprechstunde zur Klausurvorbereitung

Sprechstunde zur Klausurvorbereitung htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr