Elektrotechnik und Informationstechnik

Größe: px
Ab Seite anzeigen:

Download "Elektrotechnik und Informationstechnik"

Transkript

1 Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes Pfeffer

2 Thomas Bayes Thomas Bayes [bɛi:z] * um 1702 in London 17. April 1761 Bayestheorem (Satz von Bayes) Bayesscher Wahrscheinlichkeitsbegriff Bayessche Statistik Bayes-Klassifikator Bayessches Filter Bayes'sches Netz Bayessche Ökonometrie Perfektes Bayessches Gleichgewicht (Spieltheorie) PLT2 (c) , Urbas, Pfeffer 2

3 Problemstellung Wie kann Wissen über zufällige Ereignisse und kausale Zusammenhänge zwischen diesen mathematisch effizient gefasst werden um aus Beobachtung auf die Wahrscheinlichkeit einer Folge zu schließen (Deduktion) aus Beobachtung (Symptomen) auf die Wahrscheinlichkeit bekannter Ursachen zu schließen (Induktion) aus Beobachtungen und grundlegendem Wissen über Zusammenhänge die Verbundwahrscheinlichkeit zu lernen? PLT2 (c) , Urbas, Pfeffer 3

4 Übersicht Bayes'sche Netze Einführung Modellierungsansatz Berechnung Typische Fragestellungen an ein Bayes'sches Netz Dynamische Bayes'sche Netze Erweiterung um die Dimension Zeit Modellierungsansatz DBN = Generalisierung von Markov Modellen und Hidden Markov Modellen PLT2 (c) , Urbas, Pfeffer 4

5 Bayes'sche Netze Sssst 0,05 0,95 kein Sssst Chinesische Vase auf schiefer Ebene Graphentheorie + Wahrscheinlichkeitsrechnung Gerichteter azyklischer Graph (DAG) mit Knoten: diskretwertige Zufallsvariablen Kanten: direkte stochastische Abhängigkeiten zwischen Variablen Knoten ohne Eltern: Wahrscheinlichkeit: P(A=i) i (i z.b. true, false oder Ssst, kein Ssst) Bumm Knoten mit Eltern: Bedingte Wahrscheinlichkeit: P(A=i B=j,C=k) i,j,k PLT2 (c) , Urbas, Pfeffer 5

6 Beispiel (Beobachtungsszenario) Ich wohne in Philippsburg und bin nicht zu Hause. Mein Nachbar Harald ruft mich an, um mir mitzuteilen, dass in meinem Haus die Alarmanlage angegangen ist. Meine Nachbarin Stefanie ruft an und teilt mir dasselbe mit. Aber: Die Alarmanlage wird manchmal auch durch leichte Erdbeben ausgelöst. Harald verwechselt schon mal das Geräusch meines Telefons mit dem Geräusch der Alarmanlage. Variablen: Erdbeben, Einbruch, Alarm, Anruf Stefanie und Anruf Harald PLT2 (c) , Urbas, Pfeffer 6

7 Modellierung Erdbeben & Einbruch sind unabhängig P(Erdbeben Einbruch) = P(Erdbeben) P(Einbruch Erdbeben) = P(Einbruch) Kausale Zusammenhänge Erdbeben oder Einbruch führen unabhängig voneinander mit bestimmten Wahrscheinlichkeiten zu einem Alarm Alarm/Kein Alarm führen mit bestimmten Wahrscheinlichkeiten zu Anrufen der Nachbarn PLT2 (c) , Urbas, Pfeffer 7

8 Bayes'sches Netz PLT2 (c) , Urbas, Pfeffer 8

9 Probabilistische Inferenzen Diagnostische Inferenz: Geg: Effekt Ges: Ursache P(Alarm Anruf Stefanie) Kausale Inferenz: Geg: Ursache Ges: Effekt P(Anruf Stefanie Einbruch) Interkausale Inferenz: Geg: eine mögliche Ursache, Effekt Ges: andere Ursache P(Einbruch Anruf Stefanie, Erdbeben) + Kombination aus PLT2 (c) , Urbas, Pfeffer 9

10 Inferenz nach Beobachtungen Diagnostisch Kausal Interkausal? Einbruch Erdbeben Einbruch Erdbeben Einbruch Erdbeben? Alarm Alarm Alarm Anruf Harald Anruf Stefanie Anruf Harald? Anruf Stefanie Anruf Harald Anruf Stefanie PLT2 (c) , Urbas, Pfeffer 10

11 Neues einfaches Beispiel Hebebühne Batterie, hebbares Teil Batterieanzeige (Gauge), Bewegung PLT2 (c) , Urbas, Pfeffer 11

12 (Evidenz) Kausale Inferenz Wie wahrscheinlich ist es, dass wir das Teil heben können, wenn es hebbar ist? P(M L) Allgemeiner Ansatz (Produktregel) Q=Query, E=Evidenz? (Query) P(Q E)=ΣP(Q,R=r i E) mit R = Eltern(Q), ohne Evidenzen ΣP(Q,R=r i E) = ΣP(Q R=r i,e)p(r=r i E) PLT2 (c) , Urbas, Pfeffer 12

13 ? (Query) (Evidenz) Diagnostische Inferenz Wie wahrscheinlich ist es, dass das Teil zu schwer ist, wenn wir sehen, dass sich nichts bewegt? P(M L) Allgemeiner Ansatz (Bayes'sche Regel) P(Q E)= P(E Q)P(Q)/P(E) PLT2 (c) , Urbas, Pfeffer 13

14 (Query)? (Evidenz) (Evidenz) Interkausale Inferenz Wie wahrscheinlich ist es, dass das Teil nicht angehoben werden kann, wenn wir sehen, dass sich nichts bewegt und die Gauge eine leere Batterie anzeigt? P( L G, M) Ansatz wie bei kausaler Inferenz PLT2 (c) , Urbas, Pfeffer 14

15 Berechnung d. bedingten Wahrscheinlichkeit eines Knotens in einem einfach verbundenen Netz (1/2) Gesucht: P(X E) Vereinfachung: Netz nur einfach verbunden (Polytree) Aufteilung in diagnostische und kausale Evidenz (unabhängig!) P(X E) = α P(E- X) P(X E+) PLT2 (c) , Urbas, Pfeffer 15

16 Berechnung der bed. WS eines Knotens in einem einfach verbundenen Netz (2/2) Berechnung diagn.evidenz P(X E+) Alle Kombinationen der Werte der Elternknoten gemäß WSTabelle von X betrachten und mit ihren WS gewichten, die rekursiv auf gleiche Weise berechnet werden. Berechnung kausalen Evidenz P(E- X) Alle Kombinationen der Werte der Kindknoten gemäß WSTabelle von X betrachten und mit ihren WS gewichten, die rekursiv auf gleiche Weise berechnet werden. Algorithmus Є O(n) PLT2 (c) , Urbas, Pfeffer 16

17 Belief-Net-Ask-Algorithmus Beiträge von E+ und E- P(X E+,E-) = (P(E- X,E+)+P(X E+))/P(E- E+) X d-separiert E+ und E- Exkurs Abhängigkeit in BN, d-separation F. 24ff P(X E) = a P(E- X) P(X E+) PLT2 (c) , Urbas, Pfeffer 17

18 Topologie: Mehrfach verbundene Netze Ursache kann mehrere Effekte bewirken PLT2 (c) , Urbas, Pfeffer 18

19 Effizienzsteigerung Cluster Methode PLT2 (c) , Urbas, Pfeffer 19

20 Konditionierung Wertebelegung PLT2 (c) , Urbas, Pfeffer 20

21 Abhängigkeiten in Bayes'schen Netzen Definition <X,Y,Z> : Bei gegebenem Y sind X und Z bedingt unabhängig <X,Y,Z> JA <X,U,Z> Nein <X,{U,V},Z> Ja PLT2 (c) , Urbas, Pfeffer 21

22 Kausale Verbindungen in BN Seriell B bekannt A,C unabhängig Divergent A bekannt B,C bedingt unabhängig A A B B C C Konvergent C unbekannt A,B unabhängig C bekannt A,B bedingt abhängig A B C PLT2 (c) , Urbas, Pfeffer 22

23 D-Separation - Begriff / Definition D-Separation erlaubt eine allgemeine Aussage darüber, ob eine Knotenmenge X unabhängig von einer Knotenmenge Y ist (bei gegebener Evidenzknotenmenge E) Zwei verschiedene Variablen X und Y sind d-separated (directiondependent-separated), falls auf allen (ungerichteten) Pfaden zwischen X und Y eine Variable Z existiert, so dass entweder die Verbindung seriell oder divergent und Z ein Evidenzknoten ist oder die Verbindung konvergent und weder Z noch Z's Nachfahren Evidenzknoten sind Sind zwei Knoten nicht d-separated, werden sie auch als d- connected bezeichnet PLT2 (c) , Urbas, Pfeffer 23

24 Topologische Interpretation Jeder (ungerichtete) Pfad von X nach Y ist blockiert wenn er eine Evidenz enthält. Ein Pfad ist blockiert durch einen Knoten z, wenn z E und z ein- und ausgehenden Unterpfad hat z E und beide Unterpfade ausgehend sind z E, beide Pfade eingehend und Nachfolger z von z gilt: z E PLT2 (c) , Urbas, Pfeffer 24

25 D-Separation - Beispiel A F C G H B D E Welche Aussagen sind wahr? F d-separated von H bei geg. G C d-separated von G bei geg. F A d-separated von B bei geg. D A d-separated von B D d-separated von F bei geg. C, G PLT2 (c) , Urbas, Pfeffer 25

26 Literatur & Bibliotheken Literatur Pearl, J. (1988) Probabilistic Reasoning in Intelligent Systems. Morgan Kaufmann Charniak, E. (1991) Bayesian Networks without Tears. AI Magazine Korb, K. and Nicholson, A. (2003) Bayesian Artificial Intelligence, Chapman&Hall Bibliotheken Kevin Murphy's Bayesian Network Toolbox for MatLab: Lernen von Bayesschen Netzen in R Bayesian network tools in Java: Tutorial: AIspace Java-Applet: PLT2 (c) , Urbas, Pfeffer 26

27 Grundlagen - Unbedingte/Bedingte WSK Unbedingte WS: P(A) Bedingte WS: P(B A) WS des Ereignisses B unter der Bedingung, dass A bereits eingetreten ist Rechenregeln: P B A = P A B / P A Allgemeiner Multiplikationssatz für 2 Ereignisse: P A B =P A P B A =P B P A B Allgemeiner Multiplikationssatz für n Ereignisse: n P i=1 A i =P A 1 P A 2 A 1 P A 3 A 1 A 2 P A n A 1 A n PLT2 (c) , Urbas, Pfeffer 27

28 Grundlagen Totale WSK / Bayes-Satz Formel der totalen Wahrscheinlichkeit: n P B = i=1 Der Bayes'sche Satz: P A k B = P B A k P A k P B P B A i P A i = P B A k P A k n P B A i P A i i= PLT2 (c) , Urbas, Pfeffer 28

29 Darstellung kausaler Beziehungen durch bed. WS. Produktregel: Von der Ursache zur (wahrscheinlichen) Wirkung P(A,B C)= P(A B,C)*P(B C) = P(B A,C)*P(A C) Bayes'sche Regel: Von der Wirkung zur (wahrscheinlichen) Ursache P(B A,C)= P(A B,C)*P(B C) / P(A,C) PLT2 (c) , Urbas, Pfeffer 29

30 PLT2 (c) , Urbas, Pfeffer 30

Elektrotechnik und Informationstechnik

Elektrotechnik und Informationstechnik Elektrotechnik und Informationstechnik Institut für utomatisierungstechnik, Professur Prozessleittechnik Bayessche Netze VL Prozessinformationsverarbeitung WS 2009/2010 Problemstellung Wie kann Wissen

Mehr

Bayes sche und probabilistische Netze

Bayes sche und probabilistische Netze Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen

Mehr

Methoden der KI in der Biomedizin Bayes Netze

Methoden der KI in der Biomedizin Bayes Netze Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit

Mehr

Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind

Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Bayessche Netze Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Einleitung Sicheres vs. Unsicheres Wissen Kausale Netzwerke Abhängigkeit Verbindungsarten Exkurs:

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel

Mehr

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Künstliche Intelligenz Unsicherheit Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Rückblick Agent in der Wumpuswelt konnte Entscheidungen

Mehr

Berechnung von Abständen

Berechnung von Abständen 3. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 3.4. Es sei G = (V, E) ein Graph. Der Abstand d(v, w) zweier Knoten v, w V ist die minimale Länge eines Weges von v nach w.

Mehr

3. Kapitel: Arbeiten mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr.

3. Kapitel: Arbeiten mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr. Bayessche Netzwerke und ihre Anwendungen 3. Kapitel: Arbeiten mit Bayesschen Netzwerken Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863)

Mehr

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur

Mehr

Seminar: Knowledge Engineering und Lernen in Spielen - Bayesian Networks

Seminar: Knowledge Engineering und Lernen in Spielen - Bayesian Networks Seminar: Knowledge Engineering und Lernen in Spielen - Bayesian Networks Fachgebiet: Knowledge Engineering Betreuer: Prof. Dr. Johannes Fürnkranz Matthias Wich Darmstadt, 04.07.2006 Bayesian Networks Agenda

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

Bayessche Graphen. Jan Simon, RWTH Aachen, im Sommer 2008

Bayessche Graphen. Jan Simon, RWTH Aachen, im Sommer 2008 Bayessche Graphen Jan Simon, RWTH Aachen, im Sommer 2008 S. 1 Zum Inhalt: Nach einer Wiederholung der relevanten Grundlagen werden Bayessche Graphen als graphentheoretische Darstellung der Bedingtheitsstruktur

Mehr

Das Heiratsproblem. Definition Matching

Das Heiratsproblem. Definition Matching Das Heiratsproblem Szenario: Gegeben: n Frauen und m > n Männer. Bekanntschaftsbeziehungen zwischen allen Männern und Frauen. Fragestellung: Wann gibt es für jede der Frauen einen Heiratspartner? Modellierung

Mehr

2. Rechnen mit Wahrscheinlichkeiten

2. Rechnen mit Wahrscheinlichkeiten 2. Rechnen mit Wahrscheinlichkeiten 2.1 Axiome der Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitsrechnung ist ein Teilgebiet der Mathematik. Es ist üblich, an den Anfang einer mathematischen Theorie

Mehr

htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017

htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017 htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT htw saar 2 Gliederung 25.01. Bedingte Wahrscheinlichkeit: Motivation und Definition Multiplikationssatz Stochastische Unabhängigkeit:

Mehr

Routing A lgorithmen Algorithmen Begriffe, Definitionen Wegewahl Verkehrslenkung

Routing A lgorithmen Algorithmen Begriffe, Definitionen Wegewahl Verkehrslenkung Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über

Mehr

Algorithmen zur Visualisierung von Graphen

Algorithmen zur Visualisierung von Graphen Algorithmen zur Visualisierung von Graphen Kombinatorische Optimierung mittels Flussmethoden II Vorlesung im Wintersemester 2011/2012 10.11.2011 Orthogonale Zeichnungen II letztes Mal: Satz G Maxgrad-4-Graph

Mehr

Routing Algorithmen. Begriffe, Definitionen

Routing Algorithmen. Begriffe, Definitionen Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über

Mehr

PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein

PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein Bayes'sche Netze Andreas Bahcecioglu Marcel Bergmann Ertan Samgam Sven Schebitz Jan Seewald Fachhochschule Köln Wintersemester 2014 / 2015

Mehr

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)

Mehr

Reasoning and decision-making under uncertainty

Reasoning and decision-making under uncertainty Reasoning and decision-making under uncertainty 9. Vorlesung Actions, interventions and complex decisions Sebastian Ptock AG Sociable Agents Rückblick: Decision-Making A decision leads to states with values,

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87

16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 16. November 2011 Zentralitätsmaße H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 Darstellung in spektraler Form Zentralität genügt Ax = κ 1 x (Herleitung s. Tafel), daher ist x der Eigenvektor

Mehr

5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS)

5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) 5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) Sommersemester 2009 Dr. Carsten Sinz, Universität Karlsruhe Datenstruktur BDD 2 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer:

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω 2 3 8 N Wir definieren

Mehr

Vorlesung Datenstrukturen

Vorlesung Datenstrukturen Vorlesung Datenstrukturen Graphen (1) Darstellung Traversierung Dr. Frank Seifert Vorlesung Datenstrukturen - Sommersemester 2016 Folie 441 Generalisierung von Bäumen Verallgemeinerung (von Listen zu Graphen)

Mehr

4. Kreis- und Wegeprobleme Abstände in Graphen

4. Kreis- und Wegeprobleme Abstände in Graphen 4. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 4.4. Es sei G = (V,E) ein Graph. Der Abstand d(v,w) zweier Knoten v,w V ist die minimale Länge eines Weges von v nach w. Falls

Mehr

Erzeugung zufälliger Graphen und Bayes-Netze

Erzeugung zufälliger Graphen und Bayes-Netze Erzeugung zufälliger Graphen und Bayes-Netze Proseminar Algorithmen auf Graphen Georg Lukas, IF2000 2002-07-09 E-Mail: georg@op-co.de Folien: http://op-co.de/bayes/ Gliederung 1. Einleitung 2. einfache

Mehr

Dynamic Bayesian Network Library

Dynamic Bayesian Network Library Dynamic Bayesian Network Library Ein C++ Framework für Berechnungen auf dynamischen Bayes schen Netzen Ralf Kohlhaas, Ferdinand Szekeresch, Tobias Gindele und Rüdiger Dillmann Institut für Anthropomatik,

Mehr

Verkettete Datenstrukturen: Bäume

Verkettete Datenstrukturen: Bäume Verkettete Datenstrukturen: Bäume 1 Graphen Gerichteter Graph: Menge von Knoten (= Elementen) + Menge von Kanten. Kante: Verbindung zwischen zwei Knoten k 1 k 2 = Paar von Knoten (k 1, k 2 ). Menge aller

Mehr

Einführung in die Stochastik 6. Übungsblatt

Einführung in die Stochastik 6. Übungsblatt Einführung in die Stochastik 6. Übungsblatt Fachbereich Mathematik SS M. Kohler 3. Mai A. Fromkorth D. Furer Gruppen und Hausübung Aufgabe (a) Die Wahrscheinlichkeit, dass eine S Bahn Verspätung hat, betrage.3.

Mehr

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator

Mehr

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen Ü b u n g 1 Aufgabe 1 Die Ereignisse A, B und C erfüllen die Bedingungen P(A) = 0. 7, P(B) = 0. 6, P(C) = 0. 5 P(A B) = 0. 4, P(A C) = 0. 3, P(B C) = 0. 2, P(A B C) = 0. 1 Bestimmen Sie P(A B), P(A C),

Mehr

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 / Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =

Mehr

Konzepte der AI. Unsicheres Schließen

Konzepte der AI. Unsicheres Schließen Konzepte der AI Unsicheres Schließen http://www.dbai.tuwien.ac.at/education/aikonzepte/ Wolfgang Slany Institut für Informationssysteme, Technische Universität Wien mailto: wsi@dbai.tuwien.ac.at, http://www.dbai.tuwien.ac.at/staff/slany/

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Bayessche Netzwerke und ihre Anwendungen

Bayessche Netzwerke und ihre Anwendungen Bayessche Netzwerke und ihre Anwendungen 1. Kapitel: Grundlagen Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863) Fakultät für Informatik

Mehr

Ein Ereignis ist eine Menge von Elementarereignissen. Berechnung von Wahrscheinlichkeiten zufälliger Ereignisse erfordert ein Modell.

Ein Ereignis ist eine Menge von Elementarereignissen. Berechnung von Wahrscheinlichkeiten zufälliger Ereignisse erfordert ein Modell. SS 2013 Prof. Dr. J. Schütze/ J.Puhl FB GW Wkt.1 1 Grundbegriffe Zufallsexperiment unter gleichen Bedingungen wiederholbarer Vorgang (geplant, gesteuert, beobachtet oder auch nur gedanklich) Menge der

Mehr

6. Übungsblatt zur Einführung in die Stochastik

6. Übungsblatt zur Einführung in die Stochastik Fachbereich Mathematik Prof. Dr. Michael Kohler Dipl.-Math. Andreas Fromkorth Dipl.-Inf. Jens Mehnert SS 9 1.6.29 6. Übungsblatt zur Einführung in die Stochastik Aufgabe 22 Sei P ein auf der Borelschen

Mehr

Lernmodul 7 Algorithmus von Dijkstra

Lernmodul 7 Algorithmus von Dijkstra Folie 1 von 30 Lernmodul 7 Algorithmus von Dijkstra Quelle: http://www.map24.de Folie 2 von 30 Algorithmus von Dijkstra Übersicht Kürzester Weg von A nach B in einem Graphen Problemstellung: Suche einer

Mehr

Lösungsskizzen zur Präsenzübung 07

Lösungsskizzen zur Präsenzübung 07 Lösungsskizzen zur Präsenzübung 07 Hilfestellung zur Vorlesung Anwendungen der Mathematik im Wintersemester 2015/2016 Fakultät für Mathematik Universität Bielefeld Veröffentlicht am 14. Dezember 2015 von:

Mehr

Quantitative Methoden Wissensbasierter Systeme

Quantitative Methoden Wissensbasierter Systeme Quantitative Methoden Wissensbasierter Systeme Probabilistische Netze und ihre Anwendungen Robert Remus Universität Leipzig Fakultät für Mathematik und Informatik Abteilung für Intelligente Systeme 23.

Mehr

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? 2. Übung: Wahrscheinlichkeitsrechnung Aufgabe 1 Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? a) P ist nichtnegativ. b) P ist additiv. c) P ist multiplikativ.

Mehr

9. Elementare Wahrscheinlichkeitsrechnung

9. Elementare Wahrscheinlichkeitsrechnung 9. Elementare Wahrscheinlichkeitsrechnung Beispiel (Einmaliges Würfeln): verbal mengentheoretisch I. Zufällige Ereignisse Beispiel (Einmaliges Würfeln): Alle möglichen Ausgänge 1,,, 6 des Experiments werden

Mehr

Bayes-Netze. Vorlesung im Sommersemester 2012

Bayes-Netze. Vorlesung im Sommersemester 2012 Bayes-Netze Vorlesung im Sommersemester 2012 Organisatorisches Zeit und Ort: Mo 14-16 Cartesium 0.01 Prof. Carsten Lutz Raum Cartesium 2.59 Tel. (218)-64431 clu@uni-bremen.de Position im Curriculum: Modulbereich

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206 Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- olafs@physik.uzh.ch 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und

Mehr

Bayesnetzmodelle (BNM) in der Kardiologie

Bayesnetzmodelle (BNM) in der Kardiologie Bayesnetzmodelle (BNM) in der Kardiologie Vorgehensmodell - Ergebnisse Claus Möbus - Heiko Seebold Jan-Ole Janssen, Andreas Lüdtke, Iris Najman, Heinz-Jürgen Thole Besonderen Dank an: Herrn Reinke (Münster)

Mehr

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 2

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 2 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/14 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie svorschläge

Mehr

Wahrscheinlichkeitsrechnung Übung Aufgabe 2.b und 3

Wahrscheinlichkeitsrechnung Übung Aufgabe 2.b und 3 Wahrscheinlichkeitsrechnung Übung Aufgabe 2.b und 3 B I N O M I A L V E R T E I L U N G, B I N O M I A L T A B E L L E, U N A B H Ä N G I G E E R E I G N I S S E Zentrale Methodenlehre, Europa Universität

Mehr

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren

Mehr

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Rumpfskript Elementare Wahrscheinlichkeitsrechnung Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Vorbemerkung Vorbemerkung Das vorliegende Skript heißt nicht nur Rumpf skript, sondern

Mehr

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum

Mehr

Lösungshinweise zu Kapitel 13

Lösungshinweise zu Kapitel 13 L-112 Lösungshinweise zu Kapitel 13 zu Selbsttestaufgabe 13.2 (Eigenschaften der bedingten Unabhängigkeit) Sei P eine Wahrscheinlichkeitsverteilung über V. Wir setzen im Folgenden stillschweigend voraus,

Mehr

Statistik für Ingenieure Vorlesung 2

Statistik für Ingenieure Vorlesung 2 Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen

Mehr

Internetkommunikation I WS 2004/05 Rafael Birkner

Internetkommunikation I WS 2004/05 Rafael Birkner Vortrag zum Thema: Bayes'sche Filter zur SPAM-Erkennung 1. Bayes'sche Filter: Eigenschaften - englischer Mathematiker Thomas Bayes (1702 1761) - state of the art Technologie zur Bekämpfung von Spam - adaptive

Mehr

Graphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i])

Graphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i]) Seminar über Algorithmen 19. November 2013 Michael Brückner Graphische Spiele Wolfgang Mulzer, Yannik Stein 1 Einführung Da in Mehrspielerspielen mit einer hohen Anzahl n N an Spielern die Auszahlungsdarstellungen

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung

Mehr

Eine Einfuhrung. Marc Wagner. 10. Februar 2000

Eine Einfuhrung. Marc Wagner. 10. Februar 2000 Bayes-Netze Eine Einfuhrung Marc Wagner mcwagner@stud.informatik.uni-erlangen.de Vortrag im Seminar " Bayes-Netze und Data-Mining\ 10. Februar 2000 Zusammenfassung Bayes-Netze stellen eine sehr vielseitig

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 10. November 2010 1 Bedingte Wahrscheinlichkeit Satz von der totalen Wahrscheinlichkeit Bayessche Formel 2 Grundprinzipien

Mehr

Matching. Organisatorisches. VL-18: Matching. (Datenstrukturen und Algorithmen, SS 2017) Gerhard Woeginger. Tanzabend

Matching. Organisatorisches. VL-18: Matching. (Datenstrukturen und Algorithmen, SS 2017) Gerhard Woeginger. Tanzabend Organisatorisches VL-18: Matching (Datenstrukturen und Algorithmen, SS 2017) Gerhard Woeginger Vorlesung: Gerhard Woeginger (Zimmer 4024 im E1) Sprechstunde: Mittwoch 11:15 12:00 Übungen: Tim Hartmann,

Mehr

6: Diskrete Wahrscheinlichkeit

6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 219 6: Diskrete Wahrscheinlichkeit 6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 220 Wahrscheinlichkeitsrechnung Eines der wichtigsten

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Künstliche Intelligenz Logische Agenten & Resolution

Künstliche Intelligenz Logische Agenten & Resolution Künstliche Intelligenz Logische Agenten & Resolution Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Inferenz-Algorithmus Wie könnte ein

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Institut für Biometrie und klinische Forschung. WiSe 2012/2013 Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive

Mehr

Sachrechnen/Größen WS 14/15-

Sachrechnen/Größen WS 14/15- Kapitel Daten & Wahrscheinlichkeit 3.1 Kombinatorische Grundlagen 3.2 Kombinatorik & Wahrscheinlichkeit in der Grundschule 3.3 Daten Darstellen 3.1 Kombinatorische Grundlagen Verschiedene Bereiche der

Mehr

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der

Mehr

Musterlösung. Abitur Mathematik Bayern G Bayern Aufgabe 1. Abitur Mathematik: Musterlösung. Stochastik II

Musterlösung. Abitur Mathematik Bayern G Bayern Aufgabe 1. Abitur Mathematik: Musterlösung. Stochastik II Abitur Mathematik: Bayern 2012 Aufgabe 1 a) VIERFELDERTAFEL P(R ) = 88 % und P(V) = 18 % stehen in der Aufgabenstellung. 60 % in der Angabe stehen für die bedingte Wahrscheinlichkeit P R (V). P(R V) =

Mehr

Lösungen zur Klausur zur Vorlesung. Mathematik für Informatiker I. (Dr. Frank Hoffmann) Wintersemester 2011/ Februar 2012

Lösungen zur Klausur zur Vorlesung. Mathematik für Informatiker I. (Dr. Frank Hoffmann) Wintersemester 2011/ Februar 2012 Lösungen zur Klausur zur Vorlesung Mathematik für Informatiker I (Dr. Frank Hoffmann) Wintersemester 2011/2012 22. Februar 2012 Aufgabe 1 Logisches und Grundsätzliches /4+4+2 (a) Testen Sie mit dem Resolutionskalkül,

Mehr

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Eziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2007/08

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Datenstrukturen Teil 2. Bäume. Definition. Definition. Definition. Bäume sind verallgemeinerte Listen. Sie sind weiter spezielle Graphen

Datenstrukturen Teil 2. Bäume. Definition. Definition. Definition. Bäume sind verallgemeinerte Listen. Sie sind weiter spezielle Graphen Bäume sind verallgemeinerte Listen Datenstrukturen Teil 2 Bäume Jeder Knoten kann mehrere Nachfolger haben Sie sind weiter spezielle Graphen Graphen bestehen aus Knoten und Kanten Kanten können gerichtet

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum

Mehr

Programmierkurs Python II

Programmierkurs Python II Programmierkurs Python II Stefan Thater & Michaela Regneri Universität des Saarlandes FR 4.7 Allgemeine Linguistik (Computerlinguistik) Übersicht Topologische Sortierung (einfach) Kürzeste Wege finden

Mehr

1.3 Stochastische Unabhängigkeit und bedingte

1.3 Stochastische Unabhängigkeit und bedingte 1.3 Stochastische Unabhängigkeit und bedingte Wahrscheinlichkeiten Ziel: komplexere Modelle aus Verkettung ( Koppelung ) von Zufallsexperimenten bauen, insbesondere Ziehung von n-personen aus n-maliger

Mehr

Programmiertechnik II

Programmiertechnik II Graph-Algorithmen Anwendungsgebiete "Verbundene Dinge" oft Teilproblem/Abstraktion einer Aufgabenstellung Karten: Wie ist der kürzeste Weg von Sanssouci nach Kunnersdorf? Hypertext: Welche Seiten sind

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Entscheidungsverfahren für die Software-Verifikation. 4 - BDDs

Entscheidungsverfahren für die Software-Verifikation. 4 - BDDs Entscheidungsverfahren für die Software-Verifikation 4 - BDDs Datenstruktur BDD 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer: Booleschen Funktionen) Boolesche

Mehr

Kapitel 9: Lineare Programmierung Gliederung

Kapitel 9: Lineare Programmierung Gliederung Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Programmiertechnik II

Programmiertechnik II Graph-Algorithmen Anwendungsgebiete "Verbundene Dinge" oft Teilproblem/Abstraktion einer Aufgabenstellung Karten: Wie ist der kürzeste Weg von Sanssouci nach Kunnersdorf? Hypertext: Welche Seiten sind

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Stud.-Nummer: Datenstrukturen & Algorithmen Seite 1

Stud.-Nummer: Datenstrukturen & Algorithmen Seite 1 Stud.-Nummer: Datenstrukturen & Algorithmen Seite 1 Aufgabe 1. / 16 P Instruktionen: 1) In dieser Aufgabe sollen Sie nur die Ergebnisse angeben. Diese können Sie direkt bei den Aufgaben notieren. 2) Sofern

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Spracherkennung und Hidden Markov Modelle Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Einführung in die Computerlinguistik WS 04/05 Spracherkennung Merkmalsextraktion

Mehr

WS 2009/10. Diskrete Strukturen

WS 2009/10. Diskrete Strukturen WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910

Mehr

Tutoraufgabe 1 (Suchen in Graphen):

Tutoraufgabe 1 (Suchen in Graphen): Prof. aa Dr. E. Ábrahám Datenstrukturen und Algorithmen SS14 F. Corzilius, S. Schupp, T. Ströder Tutoraufgabe 1 (Suchen in Graphen): a) Geben Sie die Reihenfolge an, in der die Knoten besucht werden, wenn

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr