3. Kapitel: Arbeiten mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr.
|
|
- Eugen Bösch
- vor 6 Jahren
- Abrufe
Transkript
1 Bayessche Netzwerke und ihre Anwendungen 3. Kapitel: Arbeiten mit Bayesschen Netzwerken Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863) Fakultät für Informatik Universität der Bundeswehr München FT 2010 Dozent: Dr. Max Krüger
2 Inhalt 3.1 Anfragen an Bayessche Netzwerke 3.2 Softwaretool für Bayessche Netze 3.3 Graphische Unabhängigkeit: d-separation FT 2010 Bayessche Netzwerke und ihre Anwendungen 2
3 Abschnitt 3.1: Anfragen an Bayessche Netzwerke FT 2010 Bayessche Netzwerke und ihre Anwendungen 3
4 Übersicht über Anfragetypen Hauptanfragetypen Es gibt (mindestens) vier Haupttypen von Anfragen an Bayessche Netzwerke: Probability of Evidence Prior Marginal und Posterior Marginal Most Probable Explanation (MPE) Maximum A Posteriori Hypothesis (MAP) Bemerkung: Einige der zugehörigen Anfragen können unter bestimmten Bedingungen identisch sein. FT 2010 Bayessche Netzwerke und ihre Anwendungen 4
5 Anfragetyp 1: Probability of Evidence Definition: Sei ein Bayessches Netzwerk. Für eine gegebene Evidenz heißt die Wahrscheinlichkeit des Auftretens dieser Evidenz die Probability of Evidence. Bemerkung: Das Ergebnis einer Anfrage beim Anfragetyp Probability of Evidence ist eine einzelne Wahrscheinlichkeit. FT 2010 Bayessche Netzwerke und ihre Anwendungen 5
6 Beispiel zur Probability of Evidence Beispiel: In Pearl s Einbruch-Erdbeben-Beispiel berechnet sich für die Evidenz die Probability of Evidence zu. FT 2010 Bayessche Netzwerke und ihre Anwendungen 6
7 Anfragetyp 2: Prior Marginal und Posterior Marginal Verteilung Definition: Sei ein Bayessches Netzwerk. Für eine Teilmenge der Zufallsvariablen mit und eine gegebene Evidenz heißt die Prior Marginal Verteilung und die Posterior Marginal Verteilung der Variablen. Bemerkung: Das Ergebnis bei diesen Anfragetypen ist (jeweils) eine Verteilung. FT 2010 Bayessche Netzwerke und ihre Anwendungen 7
8 Beispiel zur Prior Marginal und Posterior Marginal Verteilung Beispiel: In Pearl s Einbruch-Erdbeben-Beispiel sei wiederum die Evidenz gegeben. Für die Variable durch Alarm ist die Prior Marginal Verteilung gegeben P(A) A=True A=False und die Posterior Marginal Verteilung durch Alarm P(A e) A=True A=False FT 2010 Bayessche Netzwerke und ihre Anwendungen 8
9 Anfragetyp 3: Most Probable Explanation (MPE) Definition: Sei ein Bayessches Netzwerk. Für eine gegebene Evidenz heißt ein gemeinsamer Zustand der Zufallsvariablen die Most Probable Explanation (MPE) der Evidenz, falls die Wahrscheinlichkeit maximal unter allen gemeinsamen Zuständen der Zufallsvariablen ist. Bemerkung: Das Ergebnis einer Anfrage beim Anfragetyp Most Probable Explanation ist ein gemeinsamer Zustand und die zugehörige Wahrscheinlichkeit. FT 2010 Bayessche Netzwerke und ihre Anwendungen 9
10 Beispiel zur Most Probable Explanation (MPE) Beispiel: In Pearl s Einbruch-Erdbeben-Beispiel ist für die Evidenz die Most Probable Explanation gegeben durch mit. FT 2010 Bayessche Netzwerke und ihre Anwendungen 10
11 Anfragetyp 4: Maximum A Posteriori Hypothesis (MAP) Definition: Sei ein Bayessches Netzwerk und sei eine Teilmenge der Zufallsvariablen. Für eine gegebene Evidenz heißt ein gemeinsamer Zustand mit für die Maximum A Posteriori Hypothesis (MAP) der Zufallsvariablen bezüglich der Evidenz, falls die Wahrscheinlichkeit maximal unter allen gemeinsamen Zuständen der Zufallsvariablen ist. Bemerkung: Das Anfrageergebnis ist ein gemeinsamer Zustand der MAP- Variablen und die zugehörige Wahrscheinlichkeit. FT 2010 Bayessche Netzwerke und ihre Anwendungen 11
12 Übungsaufgabe 3.1 (1): Das zu betrachtende Netzwerk A: Asienreise gemacht S: Raucher T: Hat Tuberkulose C: Hat Lungenkrebs B: Hat Bronchitis P: Symptomatik für Tuberkulose oder Krebs X: Röntgenbefund ist positiv D: Hat Atemnot FT 2010 Bayessche Netzwerke und ihre Anwendungen 12
13 Übungsaufgabe 3.1(2): Aufgabenstellung Betrachten Sie bitte das vorangehende Bayessche Netzwerk aus dem Bereich der medizinischen Diagnose, dessen Zufallsvariablen jeweils die Zustände Ja/Nein annehmen können: Erläutern Sie die dargestellten Zusammenhänge des zugrundeliegenden Problembereichs. Erläutern Sie die Struktur des Netzwerkes, z.b. hinsichtlich Variablentypen, Kausalbeziehungen und eventuellen Besonderheiten. Welche Fragestellungen könnten dem Netzwerk zugrunde liegen? Formulieren Sie zu jedem der Hauptanfragetypen eine Anfrage, die ein Mediziner an das Netzwerk richten könnte (bzw. würde). Geben Sie Beispiele von Anfragen, die verschiedenen Hauptanfragetypen zugeordnet werden können. FT 2010 Bayessche Netzwerke und ihre Anwendungen 13
14 Abschnitt 3.2: Softwaretool für Bayessche Netze FT 2010 Bayessche Netzwerke und ihre Anwendungen 14
15 Softwaretool für Bayessche Netzwerke: GeNIe 2.0 & SMILE The GeNIe (Graphical Network Interface) software package can be used to create decision theoretic models intuitively using the graphical click-and-drop interface. GeNIe is the graphical interface to SMILE, a fully portable Bayesian inference engine developed by the Decision Systems Laboratory [ ] [ SMILE (Structural Modeling, Inference, and Learning Engine) is a fully platform independent library of C++ classes implementing graphical probabilistic and decision-theoretic models, such as Bayesian networks, influence diagrams, and structural equation models. Its individual classes, defined in SMILE API (Application Programming Interface), allows you create, edit, save, and load graphical models, and use them for probabilistic reasoning and decision making under uncertainty. [ ] [ Download und Lizenzbedingungen unter Hinweis: Die Verwendung dieses Tools ist beispielhaft. Alternativ ist eine Vielzahl kommerzieller und nicht-kommerzieller Tools für Bayessche Netzwerke über das Internet erhältlich. FT 2010 Bayessche Netzwerke und ihre Anwendungen 15
16 Screenshot mit Pearl s Einbruch-Erdbeben-Beispiel FT 2010 Bayessche Netzwerke und ihre Anwendungen 16
17 Bedienung (1): Modellierung und Aufbau von Bayes-Netzen Modellierung und Aufbau: Erzeugung von Knoten und Namensgebung Bestimmung der Zustände und Namensgebung Erzeugung der Pfeile (graphische Abhängigkeiten) Befüllung der Bedingten Wahrscheinlichkeitstabellen FT 2010 Bayessche Netzwerke und ihre Anwendungen 17
18 Bedienung (2): Darstellung und Ansichten von Bayes-Netzen Darstellung und Ansichten: Knotendarstellung: Icon / Bar Chart Fullscreen / Fit to Window Überblick Menüleiste FT 2010 Bayessche Netzwerke und ihre Anwendungen 18
19 Bedienung (3): Anfragen und Berechnungen in Bayes-Netze Anfragen und Berechnungen: Evidenzen: Set Evidence Clear Evidence / Clear all Evidence Posterior Marginal Verteilung des Zufallsknoten : Update Beliefs / Update Immediately Invalidate Values Probability of Evidence: FT 2010 Bayessche Netzwerke und ihre Anwendungen 19
20 Übungsaufgabe 3.2: Modellieren Sie Pearl s Einbruch-Erdbeben mittels eines Softwaretools, beispielsweise mittels GeNIe 2.0 & SMILE. Berechnen Sie die folgende Evidenzwahrscheinlichkeit. FT 2010 Bayessche Netzwerke und ihre Anwendungen 20
21 Abschnitt 3.3: Graphische Unabhängigkeit: d-separation FT 2010 Bayessche Netzwerke und ihre Anwendungen 21
22 Einleitendes Beispiel zur d-separation Gegeben sei das nebenstehende Bayessche Netzwerk und die zugehörige Evidenz. B=b A B C D E F G Wenn man dann erfährt, dass Zusätzlich gilt, kann dies die Zustandswahrscheinlichkeiten von für irgendeine Parametrisierung ändern? (Antwort: Ja, siehe später.) Hätte eine nachträgliche Information über über möglicherweise Einfluss auf? (Antwort: Nein, siehe später.) H I J K L M=m M Quelle: Jensen&Nielsen 2007, S. 31 anstelle der Information FT 2010 Bayessche Netzwerke und ihre Anwendungen 22
23 Fragestellung bei der d-separation Sei ein Bayessches Netzwerk gegeben. Für eine Teilmenge der Zufallsvariablen seien die Zustände gegeben mittels einer Evidenz gegeben. Zudem seien weitere Zufallsvariablen des Bayesschen Netzwerkes. A B C D E F G H I J K L Fragestellung (informell): Bei der d-seperation wird die Frage behandelt, ob unabhängig von der konkreten Parametrisierung des Bayesschen Netzwerks neu hinzu gewonnenes Wissen bezüglich, d.h., die aktuellen Wahrscheinlichkeiten der Zustände von beeinflussen könnte. M Quelle: Jensen&Nielsen 2007, S. 31 FT 2010 Bayessche Netzwerke und ihre Anwendungen 23
24 Vorgehen zur Untersuchung eines Netzes auf d-separation Für die Untersuchung eines Bayesschen Netzwerkes hinsichtlich der Fragestellung, ob zwei Knoten für eine gegebene Evidenz (die beide Knoten nicht beinhaltet, d.h. festlegt) d-separiert sind, untersuchen wir (zumindest im Prinzip) jeden möglichen ungerichteten Pfad zwischen diesen beiden Knoten. Für die Untersuchung kann man sich alle Knoten eines verbindenden Pfads als Absperrhähne vorstellen, jeweils offen oder geschlossen. Ist auf jedem dieser Pfade zwischen mindestens ein solcher Absperrhahn (Zwischenknoten) geschlossen, so sind die Knoten d-separiert und können sich nicht gegenseitig beeinflussen, wenn über einen der beiden Knoten neues Wissen (Evidenz) hinzukommt. FT 2010 Bayessche Netzwerke und ihre Anwendungen 24
25 Typen von Verbindungsstücken Ein ungerichteter Pfad zwischen zwei Knoten ist aus einer Reihe von Verbindungsstücken mit jeweils einem Zwischenknoten zusammengesetzt. Es gibt genau drei verschiedene Typen von Verbindungsstücken: Typ 1: Serielles Verbindungsstück A B C D E F G Typ 2: Divergentes Verbindungsstück H I J Typ 3: Konvergentes Verbindungsstück K L M Quelle: Jensen&Nielsen 2007, S. 31 FT 2010 Bayessche Netzwerke und ihre Anwendungen 25
26 Übungsaufgabe 3.3: Modellieren Sie jeweils das nebenstehende serielle, divergente und konvergente Verbindungsstück jeweils in Ihrem Softwaretool für Bayessche Netzwerke und befüllen Sie jeweils die CPT s mit (nicht-trivialen) Werten. A B C B A C Setzen Sie nacheinander jeweils eine Evidenz nur in B eine Evidenz nur in D und in eine Evidenz nur in E. Was passiert mit den Wahrscheinlichkeiten der Zustände von C bzw. A, wenn Sie in A bzw. C eine weitere Evidenz setzen? A C D E FT 2010 Bayessche Netzwerke und ihre Anwendungen 26
27 Offene und geschlossene serielle Verbindungsstücke Definition: Sei ein Bayessches Netzwerk und sei eine Teilmenge der Knoten (die in einer gegebenen Evidenz bezüglich ihres Zustands festgelegt sind). Ein serielles Verbindungsstück mit dem Zwischenknoten heißt (in beide Richtungen) offen gegeben, falls gilt. Für heißt das Verbindungsstück geschlossen (bzw. blockiert) gegeben. FT 2010 Bayessche Netzwerke und ihre Anwendungen 27
28 Notation offene/geschlossene serielle Verbindungsstücke Notationsbeispiele: W A A W W B sind Beispiele für offene serielle Verbindungsstücke. W A B A W B W sind Beispiele für geschlossene serielle Verbindungsstücke. FT 2010 Bayessche Netzwerke und ihre Anwendungen 28
29 Informationstransport über ein serielles Verbindungsstück Beispiel: Gegen sei das folgende Netzwerk mit den Knoten und Zuständen Rainfall mit, Water level mit und Flooding mit : R W F Quelle: Jensen&Nielsen 2007, S. 27 Beispiele für den Informationstransport: Bei unbekanntem Zustand von kann die Evidenz die Zustandswahrscheinlichkeit von und dies wiederum die Zustandswahrscheinlichkeit von erhöhen. Umgekehrt erhöht bei unbekanntem Zustand von möglicherweise auch die Evidenz die Wahrscheinlichkeit des Zustands. Bei bekanntem Zustand von verändern die Evidenzen die Zustandswahrscheinlichkeiten des jeweils anderen Knotens dagegen sicher nicht. FT 2010 Bayessche Netzwerke und ihre Anwendungen 29
30 Offene und geschlossene divergente Verbindungsstücke Definition: Sei ein Bayessches Netzwerk und sei eine Teilmenge der Knoten (die in einer gegebenen Evidenz bezüglich ihres Zustands festgelegt sind). Ein divergentes Verbindungsstück mit dem Zwischenknoten heißt offen gegeben, falls gilt. Für heißt das Verbindungsstück geschlossen (bzw. blockiert) gegeben. FT 2010 Bayessche Netzwerke und ihre Anwendungen 30
31 Notation offene/geschlossene divergente Verbindungsstücke Notationsbeispiele: W A A W B W sind Beispiele für offene divergente Verbindungsstücke. W A A W W sind Beispiele für geschlossene divergente Verbindungsstücke. FT 2010 Bayessche Netzwerke und ihre Anwendungen 31 B
32 Informationstransport über ein divergentes Verbindungsstück Beispiel: Gegen sei das folgende Netzwerk mit den Knoten und Zuständen Sex mit, Hair Length mit und Height mit : L S H Quelle: Jensen&Nielsen 2007, S Beispiele für den Informationstransport: Bei unbekanntem Geschlecht kann eine beobachtete Haarlänge die Zustandswahrscheinlichkeit des Geschlechts und die wiederum die Zustandswahrscheinlichkeit der Größe verändern. Bei bekanntem Geschlecht verändern Beobachtungen die Zustandswahrscheinlichkeiten des jeweils anderen Knotens dagegen sicher nicht. FT 2010 Bayessche Netzwerke und ihre Anwendungen 32
33 Offene und geschlossene konvergente Verbindungsstücke Definition: Sei ein Bayessches Netzwerk und sei eine Teilmenge der Knoten (die in einer gegebenen Evidenz bezüglich ihres Zustands festgelegt sind). bezeichne die Menge, die aus dem Knoten und allen (gerichteten direkten und indirekten) Nachfolgern (Kinderknoten) von besteht. Ein konvergentes Verbindungsstück mit dem Zwischenknoten heißt offen gegeben, falls gilt. Für heißt das Verbindungsstück geschlossen (bzw. blockiert) gegeben. FT 2010 Bayessche Netzwerke und ihre Anwendungen 33
34 Notation offene/geschlossene konvergente Verbindungsstücke Notationsbeispiele: W A B A W B W sind Beispiele für offene konvergente Verbindungsstücke. W A A W W B B sind Beispiele für geschlossene konvergente Verbindungsstücke. FT 2010 Bayessche Netzwerke und ihre Anwendungen 34
35 Informationstransport über ein konvergentes Verbindungsstück Beispiel: Gegen sei das folgende Netzwerk mit den Knoten und Zuständen Salmonella mit, Flu (Grippe) mit, Nausea (Brechreiz) mit und Pallor (Blässe) mit : Beispiele für den Informationstransport: Bei unbekanntem Zustand der Knoten Nausea und Pallor verändert eine Beobachtung von Flu die Zustandwahrscheinlichkeit von Salmonella nicht (und umgekehrt). Bei bekanntem Brechreiz kann eine Beobachtung hinsichtlich einer möglichen Ursache die Zustandswahrscheinlichkeit der anderen möglichen Ursachen verändern. Explaining Away -Effekt Bei bekannter Blässe (und damit erhöhter Wahrscheinlichkeit für den Brechreiz) kann der Explaining Away -Effekt ebenfalls auftreten. Quelle: Jensen&Nielsen 2007, S FT 2010 Bayessche Netzwerke und ihre Anwendungen 35 S N P F
36 Formale Definition der d-separation Definition: Sei ein Bayessches Netzwerk und seien paarweise disjunkte Knotenmengen darin, wobei die Teilmenge der (in einer gegebenen Evidenz bezüglich ihres Zustands festgelegten Knoten) bezeichne. Die Mengen heißen durch d-separiert, genau dann wenn jeder (ungerichtete) Pfad zwischen einem Knoten aus und einem Knoten aus durch blockiert wird. Dabei heißt ein Pfad durch blockiert, wenn er bei gegebener Menge mindestens ein geschlossenes Zwischenstück enthält. Anmerkung: Bei der Definition der d-separation wird formal nicht verwendet, dass die Menge gerade die Variablen einer Evidenz enthält. FT 2010 Bayessche Netzwerke und ihre Anwendungen 36
37 Übungsaufgabe 3.4: d-separation Bestimmen Sie bitte für das unten gezeigte Netzwerk die größtmögliche Knotenmenge die von der Menge durch d-separiert wird. B=b A B C D E F G H I J K L M M=m Quelle: Jensen&Nielsen 2007, S. 31 FT 2010 Bayessche Netzwerke und ihre Anwendungen 37
38 Bedingte Unabhängigkeit und d-separation Satz: Sei ein Bayessches Netzwerk und seien paarweise disjunkte Teilmengen der Knoten menge. Die Zufallsvektoren und seien jeweils aus allen in der zugehörigen Menge oder enthaltenen Zufallsvariablen zusammengesetzt. Dann gelten die folgenden Zusammenhänge: Wenn durch d-separiert sind, dann sind für alle möglichen Parametrisierungen von die Zufallsvektoren bedingt unabhängig gegeben den Zufallsvektor. Wenn durch nicht d-separiert sind, so hängt eine mögliche bedingte Unabhängigkeit von der gegebenen Parametrisierung ab. Dabei bezeichnet eine Parametrisierung von eine konkrete Befüllung der bedingten Wahrscheinlichkeitstabellen aus. FT 2010 Bayessche Netzwerke und ihre Anwendungen 38
39 Kriterium für d-separation: Markov-Decke Definition und Satz: Sei Zufallsvariable. ein Bayessches Netzwerk und eine Die Markov-Decke des Knotens ist die Menge, die alle Elternknoten von (gerichete Vorgänger), alle Kinderknoten von (gerichtete Nachfolger) und alle Knoten die mit ein gemeinsames Kind haben (Partnerknoten) enthält. Die Menge wird durch die Markov-Decke des Knotens von allen übrigen Knoten des Netzwerkes d-separiert. FT 2010 Bayessche Netzwerke und ihre Anwendungen 39
40 Übungsaufgabe 3.5: Markov-Decke Bitte betrachten Sie das nachfolgend dargestellte Netzwerk. B D F A C E G H I J K L M N Quelle: Jensen&Nielsen 2007, S. 32 Bestimmen Sie bitte die Markov-Decke des Knotens I. Wird der Knoten I vom Rest des Netzwerkes bereits durch die Menge seiner Nachbarknoten d-separiert? FT 2010 Bayessche Netzwerke und ihre Anwendungen 40
41 Literatur (Auswahl) Finn v. Jensen & Thomas D. Nielsen: Bayesian Networks and Decision Graphs (2. ed.). Springer Science + Business Media, Adnan Darwiche: Modeling and Reasoning with Bayesian Networks. Cambridge University Press, Stuart Russel & Peter Norvig: Künstliche Intelligenz Ein moderner Ansatz (2. Aufl.). Pearson Education, Judea Pearl: Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference (revised second printing). Morgan Kaufmann Publishers Inc., FT 2010 Bayessche Netzwerke und ihre Anwendungen 41
42 Ende Vielen Dank für Ihre Mitarbeit! FT 2010 Bayessche Netzwerke und ihre Anwendungen 42
Bayessche Netzwerke und ihre Anwendungen
Bayessche Netzwerke und ihre Anwendungen 1. Kapitel: Grundlagen Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863) Fakultät für Informatik
Mehr4. Kapitel: Klassifizierung mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr.
Bayessche Netzwerke und ihre Anwendungen 4. Kapitel: Klassifizierung mit Bayesschen Netzwerken Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.:
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen
MehrBayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)
Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief
MehrElektrotechnik und Informationstechnik
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes
MehrMethoden der KI in der Biomedizin Bayes Netze
Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze
MehrStatistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze
Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit
MehrEvidenzpropagation in Bayes-Netzen und Markov-Netzen
Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation
MehrElektrotechnik und Informationstechnik
Elektrotechnik und Informationstechnik Institut für utomatisierungstechnik, Professur Prozessleittechnik Bayessche Netze VL Prozessinformationsverarbeitung WS 2009/2010 Problemstellung Wie kann Wissen
MehrBayes-Netze. Vorlesung im Sommersemester 2012
Bayes-Netze Vorlesung im Sommersemester 2012 Organisatorisches Zeit und Ort: Mo 14-16 Cartesium 0.01 Prof. Carsten Lutz Raum Cartesium 2.59 Tel. (218)-64431 clu@uni-bremen.de Position im Curriculum: Modulbereich
MehrSyntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel
MehrPRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein
PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein Bayes'sche Netze Andreas Bahcecioglu Marcel Bergmann Ertan Samgam Sven Schebitz Jan Seewald Fachhochschule Köln Wintersemester 2014 / 2015
MehrReasoning and decision-making under uncertainty
Reasoning and decision-making under uncertainty 9. Vorlesung Actions, interventions and complex decisions Sebastian Ptock AG Sociable Agents Rückblick: Decision-Making A decision leads to states with values,
MehrBayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
MehrBayes sche und probabilistische Netze
Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung
MehrBayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind
Bayessche Netze Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Einleitung Sicheres vs. Unsicheres Wissen Kausale Netzwerke Abhängigkeit Verbindungsarten Exkurs:
MehrSemester-Fahrplan 1 / 17
Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD
MehrGraphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i])
Seminar über Algorithmen 19. November 2013 Michael Brückner Graphische Spiele Wolfgang Mulzer, Yannik Stein 1 Einführung Da in Mehrspielerspielen mit einer hohen Anzahl n N an Spielern die Auszahlungsdarstellungen
MehrBayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle Modellierung einer Domäne mit verschiedenen
MehrDr. Johannes Bauer Institut für Soziologie, LMU München. Directed Acyclic Graphs (DAG)
Dr. Institut für Soziologie, LMU München Directed Acyclic Graphs (DAG) Wie ist der Zusammenhang von und Z blockiert den Pfad Mediator 50% = 1 50% = 0 Z Z if =0: 20% if =1: 80% Gegenwsk if Z=0: 20% if Z=1:
MehrEinführung in die diskreten Bayes- und Kredal-Netze
Einführung in die diskreten Bayes- und Kredal-Netze Master-Seminar im Wintersemester 2015/16 Patrick Schwaferts Institut für Statistik, LMU 16. Januar 2016 Schwaferts (Institut für Statistik, LMU) Bayes-
MehrBayesian Networks. Syntax Semantics Parametrized Distributions Inference in Bayesian Networks. Exact Inference. Approximate Inference
Syntax Semantics Parametrized Distributions Inference in Exact Inference Approximate Inference enumeration variable elimination stochastic simulation Markov Chain Monte Carlo (MCMC) 1 Includes many slides
MehrCommonsense Reasoning
Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2017 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232 Kapitel 4 Grundideen probabilistischen
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrKonzepte der AI. Unsicheres Schließen
Konzepte der AI Unsicheres Schließen http://www.dbai.tuwien.ac.at/education/aikonzepte/ Wolfgang Slany Institut für Informationssysteme, Technische Universität Wien mailto: wsi@dbai.tuwien.ac.at, http://www.dbai.tuwien.ac.at/staff/slany/
MehrWahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung
Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2018 Anwendung der Bayesschen Theorie in ML Bayessche Netzwerke Bayessche Netze werden in modernen Expertensystemen benutzt. Das Wissen wird über
MehrIn einem mathematischen Modell wird dies beschrieben durch einen funktionalen Zusammenhang: x = f (t).
Aktueller Überblick 0 Einführende Worte ( ) 1 Geschichtlicher Überblick ( ) 2 Zufall 3 Perfekte Sicherheit und ihre Grenzen 4 Angriffsszenarien 5 Der komplexitätstheoretische Ansatz 6 Pseudozufallsgeneratoren
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrMatchings in Graphen. Praktikum Diskrete Optimierung (Teil 5)
Praktikum Diskrete Optimierung (Teil 5) 6.05.009 Matchings in Graphen Es sei ein ungerichteter Graph G = (V, E) gegeben. Ein Matching in G ist eine Teilmenge M E, so dass keine zwei Kanten aus M einen
MehrWahrscheinlichkeiten
Wahrscheinlichkeiten August, 2013 1 von 21 Wahrscheinlichkeiten Outline 1 Wahrscheinlichkeiten 2 von 21 Wahrscheinlichkeiten Zufallsexperimente Die möglichen Ergebnisse (outcome) i eines Zufallsexperimentes
MehrBayesian updating in natural hazard risk assessment
International Forum on Engineering Decision Making, Third IFED Forum, Shoal Bay, Australia, 12-15 15 December 2007 1/23 Bayesian updating in natural hazard risk assessment Mathias Graf, Kazuyoshi Nishijima,
MehrKapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung
Gliederung der Vorlesung. Fallstudie Bipartite Graphen. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen. Minimal spannende Bäume. Kürzeste Pfade. Traveling Salesman Problem. Flüsse in Netzwerken
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrLatente Dirichlet-Allokation
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,
MehrKapitel 8: Bipartite Graphen Gliederung der Vorlesung
Gliederung der Vorlesung 1. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege 4. Minimale spannende Bäume 5. Färbungen und Cliquen 6. Traveling Salesman Problem 7. Flüsse in Netzwerken
MehrSatz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
MehrDarstellung, Verarbeitung und Erwerb von Wissen
Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267
MehrKapitel 4: Merkmalszusammenhänge
Kapitel 4: Merkmalszusammenhänge Korrelationen 1 Lineare Regression 3 Literatur 5 Korrelationen Mit Hilfe von G*Power lässt sich analog zum Vorgehen beim t-test (Kapitel 3, Band I) vor einer Untersuchung
MehrSeminar: Knowledge Engineering und Lernen in Spielen - Bayesian Networks
Seminar: Knowledge Engineering und Lernen in Spielen - Bayesian Networks Fachgebiet: Knowledge Engineering Betreuer: Prof. Dr. Johannes Fürnkranz Matthias Wich Darmstadt, 04.07.2006 Bayesian Networks Agenda
MehrKapitel 1: Bayes-Netze
Kapitel 1: Bayes-Netze Bayes-Netze Ausgangspunkt: Wahrscheinlichkeitsverteilungen über Welten sind geeignet, um unsicheres Wissen zu repräsentieren Eine naive Repräsentation als Liste von Wahrscheinlichkeiten
MehrQuantitative Methoden Wissensbasierter Systeme
Quantitative Methoden Wissensbasierter Systeme Probabilistische Netze und ihre Anwendungen Robert Remus Universität Leipzig Fakultät für Mathematik und Informatik Abteilung für Intelligente Systeme 23.
MehrLösungen Wahrscheinlichkeitstheorie
Lösungen Wahrscheinlichkeitstheorie Serie 6 Aufgabe 1 (stochastische Unabhängigkeit). Für die Ereignisse A, B und C sind folgende Wahrscheinlichkeiten bekannt: P (A) = 0, 2; P (B) = 0, 6; P (A \ B) = 0,
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Eziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2007/08
MehrBayesianisches Risikomanagement
Bayesianisches Risikomanagement Armin Haas Potsdam-Institut für Klimafolgenforschung Abschlusskonferenz des BMBF-Projektes Mainstreaming von Klimarisiken und -chancen im Finanzsektor Frankfurt, 27. November
MehrKapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen
Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,
MehrDynamic Bayesian Network Library
Dynamic Bayesian Network Library Ein C++ Framework für Berechnungen auf dynamischen Bayes schen Netzen Ralf Kohlhaas, Ferdinand Szekeresch, Tobias Gindele und Rüdiger Dillmann Institut für Anthropomatik,
MehrSatz 18 (Satz von der totalen Wahrscheinlichkeit)
Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte
MehrStochastik für Ingenieure
Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen
Mehr5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS)
5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) Sommersemester 2009 Dr. Carsten Sinz, Universität Karlsruhe Datenstruktur BDD 2 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer:
MehrInstitut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle: Inferenz Wir haben eine Domäne durch gemeinsame
MehrBayesian Networks. Syntax Semantics Parametrized Distributions Inference in Bayesian Networks. Exact Inference. Approximate Inference
Syntax Semantics Parametrized Distributions Inference in Exact Inference Approximate Inference enumeration variable elimination stochastic simulation Markov Chain Monte Carlo (MCMC) 1 Includes many slides
MehrAlgorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme
10 Matching-Probleme 10.1 Definition von Matching-Probleme Definition 21 [2-dimensionales Matching] Sei G = (V, E) ein ungerichteter Graph und E E. E ist ein Matching, wenn für alle Kantenpaare e 1, e
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrBayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L
Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator
MehrAbgabe: (vor der Vorlesung)
TECHNISCHE UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR INFORMATIK Lehrstuhl für Sprachen und Beschreibungsstrukturen SS 009 Grundlagen: Algorithmen und Datenstrukturen Übungsblatt 0 Prof. Dr. Helmut Seidl, S. Pott,
MehrBayesianische Netzwerke I
Bayesianische Netzwerke I Christiane Belitz 2.5.2003 Überblick Der Vortrag basiert auf Using Bayesian Networks to Analyze Expression Data von Friedman et al. (2000) Definition: Bayesianisches Netzwerk
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrKapitel 9: Lineare Programmierung Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
MehrBoole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen
Rückblick Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen Vektorraummodell stellt Anfrage und Dokumente als Vektoren in gemeinsamen Vektorraum dar
MehrZentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza)
WS 2013/14 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ws/ds/uebung/ 22. Januar 2014 ZÜ DS ZÜ XIII
MehrMathematik I Herbstsemester 2018 Kapitel 6: Potenzreihen
Mathematik I Herbstsemester 208 Kapitel 6: Potenzreihen Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/ farkas / 58 6. Potenzreihen Reihen (Zahlenreihen) Konvergenzkriterien für Reihen Notwendiges
MehrFormale Grundlagen der Informatik
Formale Grundlagen der Informatik / 2015 1 Die Elemente einer (endlichen) Menge sollen den Elementen einer zweiten, gleichmächtigen Menge zugeordnet werden Problemstellung Bipartite Graphen Zuordnungsprobleme
MehrWie liest man Konfidenzintervalle? Teil II. Premiu m
Wie liest man Konfidenzintervalle? Teil II Premiu m - Hintergrund Anderer Wahrscheinlichkeitsbegriff subjektiver Wahrscheinlichkeitsbegriff Beispiel: Was ist die Wahrscheinlichkeit dafür, dass ein Patient
MehrShannon Formeln. Formale Systeme. Normierte Shannon Formeln. Eigenschaften des sh-operators
Shannon Formeln Formale Systeme Prof. Dr. Bernhard Beckert Fakultät für Informatik Universität Karlsruhe (TH) Shannon Formeln sind aussagenlogische Formeln, die aufgebaut sind aus dem dreistelligen Operator
MehrKapitel 3: Ehrenfeucht-Fraïssé Spiele
Kapitel 3: Ehrenfeucht-Fraïssé Spiele Kapitel 3: Ehrenfeucht-Fraïssé Spiele Abschnitt 3.0: In diesem Kapitel werden Ehrenfeucht-Fraïssé-Spiele (kurz: EF-Spiele) eingeführt. Diese liefern ein Werkzeug,
MehrBayesnetzmodelle (BNM) in der Kardiologie
Bayesnetzmodelle (BNM) in der Kardiologie Vorgehensmodell - Ergebnisse Claus Möbus - Heiko Seebold Jan-Ole Janssen, Andreas Lüdtke, Iris Najman, Heinz-Jürgen Thole Besonderen Dank an: Herrn Reinke (Münster)
MehrKapitel 5: Minimale spannende Bäume Gliederung der Vorlesung
Gliederung der Vorlesung 1. Grundbegriffe 2. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege. Minimale spannende Bäume. Färbungen und Cliquen. Traveling Salesman Problem. Flüsse in Netzwerken
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
MehrAufgaben zur Klausurvorbereitung
Vorlesung Graphen und Optimierung Sommersemester 2013/14 Prof. S. Lange Aufgaben zur Klausurvorbereitung Hier finden Sie eine Reihe von Übungsaufgaben, die wir an den beiden Vorlesungsterminen am 29.01.2014
MehrFormale Systeme. Prof. Dr. Bernhard Beckert. Winter 2008/2009. Fakultät für Informatik Universität Karlsruhe (TH)
Formale Systeme Prof. Dr. Bernhard Beckert Fakultät für Informatik Universität Karlsruhe (TH) Winter 28/29 Prof. Dr. Bernhard Beckert Formale Systeme Winter 28/29 / 32 Shannon Formeln Shannon Formeln sind
MehrWS 2013/14. Diskrete Strukturen
WS 2013/14 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws1314
MehrZählen perfekter Matchings in planaren Graphen
Zählen perfekter Matchings in planaren Graphen Kathlén Kohn Institut für Mathematik Universität Paderborn 25. Mai 2012 Inhaltsverzeichnis Motivation Einführung in Graphentheorie Zählen perfekter Matchings
MehrSatz von der totalen Wahrscheinlichkeit
htw saar 1 Satz von der totalen Wahrscheinlichkeit Sei (Ω, P) ein Wahrscheinlichkeitsraum, und B 1,, B n seien paarweise disjunkte Ereignisse mit B i = Ω. Für jedes Ereignis A gilt dann: P(A) = P(A B 1
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrDiskrete Strukturen Kapitel 4: Graphentheorie (Bäume)
WS 2016/17 Diskrete Strukturen Kapitel 4: Graphentheorie (Bäume) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_16
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrStatistische Tests (Signifikanztests)
Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)
MehrFolgen und Reihen. Wirtschaftswissenschaftliches Zentrum Universität Basel. Mathematik für Ökonomen 1 Dr. Thomas Zehrt
Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen Dr. Thomas Zehrt Folgen und Reihen Literatur Referenz: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen, Band, 7. Auflage,
MehrElementare Wahrscheinlichkeitslehre
Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)
SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013
Mehrfür die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.
8 Markov-Ketten 8.1 Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.
Mehr1 Inhaltsverzeichnis. 1 Einführung...1
1 Inhaltsverzeichnis 1 Einführung...1 1.1 Arten der stochastischen Abhängigkeit...2 1.2 Wo kommen regressive Abhängigkeiten vor?...3 1.3 Hauptaufgaben von Regressionsmodellen...3 1.4 Wissenschaftstheoretische
MehrMustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10
Mustererkennung: Wahrscheinlichkeitstheorie D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Definitionen (axiomatisch) Wahrscheinlichkeitsraum (Ω, σ, P), mit Ω Die Grundmenge, die Menge der elementaren
MehrBayessche Graphen. Jan Simon, RWTH Aachen, im Sommer 2008
Bayessche Graphen Jan Simon, RWTH Aachen, im Sommer 2008 S. 1 Zum Inhalt: Nach einer Wiederholung der relevanten Grundlagen werden Bayessche Graphen als graphentheoretische Darstellung der Bedingtheitsstruktur
MehrWS 2015/16 Diskrete Strukturen Kapitel 4: Graphen (Matchings)
WS 2015/16 Diskrete Strukturen Kapitel 4: Graphen (Matchings) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_15
MehrÜbungsblatt 6 Lösungen
Grundlagen der Künstlichen Intelligenz Prof. Dr. J. Boedecker, Prof. Dr. W. Burgard, Prof. Dr. F. Hutter, Prof. Dr. B. Nebel M. Krawez, T. Schulte Sommersemester 2018 Universität Freiburg Institut für
MehrBerechnung optimaler Bayesscher Netzwerke. Ivo Große IPK Gatersleben Bioinformatikzentrum Gatersleben-Halle
Berechnung optimaler Bayesscher Netzwerke Ivo Große IPK Gatersleben Bioinformatikzentrum Gatersleben-Halle Markov Modelle Markov 0 - Nukleotide statistisch unabhängig - position weight matrix (Staden 1984)
MehrSprechstunde zur Klausurvorbereitung
htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr