Wahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung

Größe: px
Ab Seite anzeigen:

Download "Wahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung"

Transkript

1 Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung

2 Anwendung der Bayesschen Theorie in ML Bayessche Netzwerke Bayessche Netze werden in modernen Expertensystemen benutzt. Das Wissen wird über Zufallsvariablen und deren Beziehungen untereinander dargestellt. Zur effektiven Erfassung des Wissens ist es nötig, mit möglichst wenigen Angaben eine hinreichende Beschreibung der spezifischen Merkmale eines Systems zu erhalten. Bayessche Netze sind auf Effizienz für Speicher und Rechenzeit ausgelegt. Im Folgenden wird erklärt wie ein solches Netzwerk aufgebaut ist und damit Vorhersagen getroffen werden können.

3 Bayessches Netz Graph + Wahrscheinlichkeitsverteilungen: Der Graph enthält Knoten (Zufallsgrößen), sowie Kanten zwischen den Knoten, die kausale Abhängigkeiten darstellen. Die Kanten im Graph sind gerichtet und stellen damit jeweils einen kausalen Einfluss vom Knoten an dem die Kante beginnt (der Ursache) auf den Knoten auf den die Kante verweist (der Wirkung) dar. Ein gerichteter Pfad bezeichnet eine Verbindung in der nur entsprechend der Kantenrichtung vorgegangen werden darf.

4 Es sind nur solche Graphen zulässig, die keine (gerichteten) Zyklen enthalten. D.h. es dürfen keine zwei Knoten A und B existieren, bei denen man, unter Beachtung der Kantenrichtung, von Knoten A zum Knoten B und wieder zurück zu Knoten A gelangen könnte. Ein Graph der diese Bedingung erfüllt wird gerichteter azyklischer Graph genannt (DAG - Directed Acyclic Graph).

5 Durch die Graphen-Struktur hat jeder Knoten X eine Menge von Elternknoten pa(x) (Engl. parents). Diese umfasst all jene Knoten von denen eine Kante ausgeht, die auf den Knoten X zeigt. Menge der Elternknoten kann auch leer sein (pa(x) = ). Entsprechendes gilt auch für die Menge der Kindknoten ch(x) (Engl. child), also jene Knoten zu denen von X ausgehend eine Kante führt). z.b.: pa(e) =, pa(b) = {E, A}, pa(c) = {B}, ch(a) = {B, D}

6 Für jeden Knoten X im Graph müssen bedingte Wahrscheinlichkeitsverteilungen P(X pa(x)) definiert werden. Im Falle der kategorialen Variablen haben diese Wahrscheinlichkeitsverteilungen die Form (mehrdimensionaler) Tafeln (Engl. CPTs - conditional probability tables). Für elternlose Knoten X wird die sogenannte a-priori Verteilung P(X) verlangt. A-priori Verteilungen für die Knoten E und A E P(E=...) A P(A=...)

7 Bedingte Wahrscheinlichkeiten P(B E, A) B P(B=... E=0,A=0) P(B=... E=1,A=0) P(B=... E=1,A=0) P(B... E=1,A=1) b b b

8 Bedingte Wahrscheinlichkeiten P(D A), P(C B) D P(D=... A=0) P(D=... A=1) d d C P(C=... B = b 1 ) P(C=... B = b 2 ) P(C=... B = b 3 ) c c

9 Neben der direkten kausalen Abhängigkeit zwischen Elternund Kindknoten gibt es in einem Bayesschen Netz auch weiterreichende indirekte Abhängigkeitsbeziehungen. Dabei spielen auch die Mengen der Vorgänger an(x) (Engl. ancestor, antecedent; Rum. predecesor) und Nachfolger de(x) (Engl. descendant; Rum. succesor) eines Knotens X eine Rolle. Diese Mengen enthalten neben den Elternknoten bzw. Kindknoten auch Knoten die über längere gerichtete (von X ausgehende bzw. zu X hinführende) Pfade mit X verbunden sind. Alle nicht-nachfolger Knoten von X werden mit nde(x) (Engl. non-descendant) bezeichnet. im gegebenen Beispiel: de(b) = {C}, nde(b) = {A, D, E}, nde(d) = {A, B, C, E}

10 Im Folgenden seien X diskrete ZG mit Werten {x i : i I} Y diskrete ZG mit Werten {y j : j J} Z diskrete ZG mit Werten {z k : k K } Bedingte Unabhängigkeit von diskreten ZG Definition: X ist bedingt unabhängig von Y gegeben Z, wenn i I, j J, k K : P(X = x i, Y = y j Z = z k ) = P(X = x i Z = z k )P(Y = y j Z = z k ), solche Formeln werden oft kompakt geschrieben P(X, Y Z ) = P(X Z )P(Y Z ). Man kann zeigen, dass X ist bedingt unabhängig von Y gegeben Z ist äquivalent mit (in kompakter Schreibweise) P(X Y, Z ) = P(X Z ) P(Y X, Z ) = P(Y Z )

11 Definition: X 1,..., X n sind bedingt unabhängig, gegeben Z, wenn (in kompakter Schreibweise) P(X 1,..., X n Z ) = P(X 1 Z ) P(X 2 Z )... P(X n Z ). Sind X 1,..., X n bedingt unabhängig, gegeben Z, dann gilt P(X 1 X 2, X 3,...X n, Z ) = P(X 1 Z ) P(X 2 X 1, X 3,...X n, Z ) = P(X 2 Z ). P(X n X 1, X 2,...X n 1, Z ) = P(X n Z ).

12 Grundlegende Rechenregeln aus der Theorie der bedingten Wahrscheinlichkeiten Marginalisierung: Aufsummierung, bei der die Wahrscheinlichkeiten für jeden möglichen Wert der anderen Variablen summiert werden: P(X = x i ) = j J P(X = x i, Y = y j ) Konditionierung: Aufsummierung durch Verwendung von bedingten Wahrscheinlichkeiten: P(X = x i ) = j J P(X = x i Y = y j )P(Y = y j ) P(X = x i Y = y j ) = k K P(X = x i Y = y j, Z = z k )P(Z = z k Y = y j ) gemeinsame Wahrscheinlichkeit (Multiplikationsregel): n 1 P(X 1, X 2,..., X n ) = P(X 1 ) P(X i+1 X 1,..., X i 1 ). i=1

13 Ein bayessches Netzwerk erfüllt folgende Eigenschaft: jeder Knoten X mit pa(x) und die nicht-nachfolger Knoten nde(x) sind bedingt unabhängig, wenn pa(x) bekannt sind; wenn X keine Elternknoten hat (d.h. pa(x) = ), dann ist X unabhängig von allen nicht-nachfolger Knoten nde(x). Das Bayes-Netz reduziert die Komplexität der Darstellung der Daten für die Berechnung von P(X 1,..., X n ), so dass nur die bedingten Wahrscheinlichkeiten P(X i pa(x i )) und die a-priori Warscheinlichkeiten der elternlosen Knoten abzuspeichern sind.

14 Beispiel: X 1,...X 6 sind die Zustände von 6 Komponenten in einem technischen Prozess (X i {0, 1} i = 1, 6, 1=funktioniert, 0=funktioniert nicht). X2 X1 X3 X4 X5 X6 Die Knoten X 1 und X 2 sind die a-priori Wahrscheinlichkeiten P(X 1 ) und P(X 2 ) gegeben, da diese Knoten keine Vorfahren (Eltern) haben.

15 Für X i ist die bedingte Wahrscheinlichkeitsverteilung P(X i pa(x i )), i = 3, 6 zugeordnet. Z.B. Für den Knoten X 3 ist dies die bedingte Wahrscheinlichkeit P(X 3 X 1, X 2 ), die sich aus acht möglichen Wahrscheinlichkeitswerten besteht; sind vier Wahrscheinlichkeiten gegeben, so kann man die restlichen vier durch die Komplementeigenschaft berechnen. X2 X5 X3 X1 X4 X6 die Knoten X 3, X 4, X 5, X 6 sind von allen nicht-nachfolger-knoten, bedingt unabhängig, wenn die Elternknoten bekannt sind; die Wurzelknoten X 1 und X 2 sind unabhängig.

16 Zur Berechnung von P(X 1,..., X 6 ) benutzen wir die Multiplikationsregel und Eigenschaft der Baysschen Netze P(X 1,..., X 6 ) = P(X 1 ) 5 P(X i+1 X 1,.., X i ) i=1 =P(X 1 )P(X 2 )P(X 3 X 1, X 2 )P(X 4 X 3 ) P(X 5 X 3 )P(X 6 X 1, X 4, X 5 ). Diese strukturierte Darstellung bringt eine starke Reduktion der Informationen mit sich.

17 Normalerweise, für P(X 1,..., X 6 ) benötigt man 2 6 = 64 Wertekombinationen. Für dieses bayessche Netz speichert man folgende Anfangsdaten: einen Wert: der a-priori-wahrscheinlichkeiten P(X 1 ) und P(X 2 ) je zwei Werte: der bedingten Wahrscheinlichkeiten P(X 4 X 3 ), P(X 5 X 3 ) vier Werte: für die bedingte Wahrscheinlichkeit P(X 3 X 1, X 2 ) acht Werte: für die bedingte Wahrscheinlichkeit P(X 6 X 1, X 4, X 5 ) für die Berechnung von P(X 1,..., X 6 ) müssen = 18 Anfangswerte gespeichert werden.

18 Im bayesschen Netzwerk mit Causal-Chain-Struktur: P(Z X, Y ) = P(Z Y ), d.h. X und Z sind bedingt unabhängig, gegeben Y. Es gilt: P(X, Y, Z ) = P(X)P(Y X)P(Z Y )

19 Im bayesschen Netzwerk mit Common-Cause-Struktur: P(Z X, Y ) = P(Z Y ) und P(X Y, Z ) = P(X Y ) d.h. X und Z sind bedingt unabhängig, gegeben Y. Es gilt: P(X, Y, Z ) = P(Y )P(X Y )P(Z Y )

20 Im bayesschen Netzwerk mit Common-Effect-Struktur: P(Z X) = P(Z ), d.h. X und Z sind unabhängig. P(X, Y, Z ) =?

21 Aufgabenbeispiel Bayessches Netz - Aufgabenbeispiel Wir betrachten folgende ZG, welche den Abend einer Person beschreiben (1=ja, 0=nein ): F im Kino ist Filmpremiere F = 1 oder nicht F = 0 T die Eintrittskarte zum Film ist teuer T = 1 oder nicht T = 0 K Person geht ins Kino K = 1 oder nicht K = 0 R Person geht zum Abendessen ins Restaurant R = 1 oder nicht R = 0 B Person geht zu einem Drink in die Bar B = 1 oder nicht B = 0

22 Die obigen (kategorialen) ZG bilden ein bayessches Netzwerk und es sind folgende Tabellen mit Wahrscheinlichkeiten und bedingten Wahrscheinlichkeiten gegeben: P(F = 1) P(F = 0) T P(T =... F = 1) P(T =... F = 0)

23 K P(K=... T=1,F=1) P(K=... T=1,F=0) P(K=... T=0,F=1) P(K=... T=0,F=0) R P(R =... K = 1) P(R =... K = 0) B P(B =... K = 1) P(B =... K = 0)

24 Man berechne folgende Wahrscheinlichkeiten: a) Die Person geht ins Kino, wo ein Film, der keine Premiere ist, läuft. b) Die Person geht zum Abendessen ins Restaurant. c) Die Person trinkt ein Cocktail in der Bar, wenn man weiß, dass sie die Filmpremiere im Kino nicht verfolgt, weil die Eintrittskarte teuer ist.

25 Lsg.: a) P(K = 1, F = 0) = P(K = 1, F = 0, T = 1) + P(K = 1, F = 0, T = 0) = P(K = 1 T = 1, F = 0) P(T = 1 F = 0) P(F = 0) + P(K = 1 T = 0, F = 0) P(T = 0 F = 0) P(F = 0) = = = 5, 6%.

26 b) P(R = 1) = P(R = 1 K = 1) P(K = 1) + P(R = 1 K = 0) P(K = 0) = 0.3 P(K = 1, T = i, F = j) P(K = 0, T = i, F = j) i,j {0,1} = i,j {0,1} i,j {0,1} i,j {0,1} P(K = 1 T = i, F = j) P(T = i F = j) P(F = j) P(K = 0 T = i, F = j) P(T = i F = j) P(F = j) = = 38.8%.

27 c) P(B = 1, F = 1, T = 1, K = 0) P(B = 1 F = 1, T = 1, K = 0) = P(F = 1, T = 1, K = 0) P(B = 1, F = 1, T = 1 K = 0) = P(F = 1, T = 1 K = 0) P(B = 1 K = 0)P(F = 1, T = 1 K = 0) = P(F = 1, T = 1 K = 0) = P(B = 1 K = 0) = 0.8.

28 Statistik Statistik = wissenschaftliche Disziplin, deren Gegenstand die Entwicklung und Anwendung formaler Methoden zur Gewinnung, Beschreibung und Analyse und Beurteilung von Daten (Beobachtungen) ist. Aufgaben und Ziele der Statistik Design von Experimenten: Wie sollen die Daten gewonnen werden? Beschreibende (deskriptive) Statistik: Wie sollen große Datensätze beschrieben werden, um die Gesetzmäßigkeiten und Strukturen in ihnen entdecken zu können? Schließende Statistik: Welche Schlußfolgerungen kann man aus den Daten ziehen?

29 Arbeitsweise in der Statistik Datenerhebung (Beobachtung, Befragung, Experiment) Visualisierung und beschreibende Datenanalyse: graphische Präsentation, Zusammenfassung (Darstellung der Daten in einer Tabelle oder Darstellung mit Hilfe von Grafiken) Explorative Datenanalyse (man sucht nach Gesetzmäßigkeiten in den Daten) Modellierung der Daten Modellanpassung (Schätzung von Modellparametern) Modellvalidierung (Wie gut war die Modellanpassung?)

30 Anwendung der Statistik: in politischen Umfragen: z.b. Befragung zur Beliebtheit von Politikern oder einer Partei in der Analyse von Finanzmarktdaten: z.b. Analyse von Aktien-, Zinskursen in klinischen und epidemiologischen Studien (Medizin und Pharmazie) in der Technik: z.b. die Lebensdaueranalyse oder die Zuverlässigkeit von elektronischen Systemen in der Wirtschaft: z.b. Data Mining und Data Warehousing sind zwei Bereiche, in denen man versucht mit Hilfe von statistischen Methoden aus einer Vielzahl von Kundendaten jene herauszufiltern und aufzubereiten, die für den Erfolg des Betriebs von Interesse sind

31 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten einer Klinik Grundgesamtheit (Population) = Menge aller statistischen Einheiten über die man Aussagen erhalten will z.b. wahlberechtigte Bevölkerung einer Stadt; Schüler der 10. Klasser einer bestimmten Schule; Patienten einer bestimmten Station einer Klinik statistisches Merkmal = Eigenschaft einer statistischen Einheit für die man sich bei einer statistischen Untersuchung interessiert z.b. Alter; Geschlecht; Wert BMW Aktie , 17 Uhr; Merkmalsausprägung = konkreter Wert des Merkmals z.b. 25 Jahre; weiblich; 82.5 Euro Stichprobe = tatsächlich untersuchte Teilmenge der Grundgesamtheit

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2017 Monte Carlo Methode für numerische Integration Sei g : [0, 1] R stetige Funktion; man möchte 1 0 g(t)dt numerisch approximieren mit Hilfe von Zufallszahlen: Sei (U n ) n eine Folge

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten

Mehr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der

Mehr

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend oder eindeutig, wenn keine alternativen Interpretationsmöglichkeiten

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit

Mehr

Evidenzpropagation in Bayes-Netzen und Markov-Netzen

Evidenzpropagation in Bayes-Netzen und Markov-Netzen Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation

Mehr

Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19

Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19 Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, 2016 6:34 P.M. Page 11 Inhaltsverzeichnis Über die Übersetzerin 9 Einleitung 19 Was Sie hier finden werden 19 Wie dieses Arbeitsbuch aufgebaut ist

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg 2 R. 06-206 (Persike) R. 06-214 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein

PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein Bayes'sche Netze Andreas Bahcecioglu Marcel Bergmann Ertan Samgam Sven Schebitz Jan Seewald Fachhochschule Köln Wintersemester 2014 / 2015

Mehr

Stichwortverzeichnis. Symbole

Stichwortverzeichnis. Symbole Stichwortverzeichnis Symbole 50ste Perzentil 119 A Absichern, Ergebnisse 203 Abzählbar unendliche Zufallsvariable 146 Alternativhypothese 237 238 formulieren 248 Anekdote 340 Annäherung 171, 191 Antwortquote

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Inhaltsbereich Wahrscheinlichkeit und Statistik

Inhaltsbereich Wahrscheinlichkeit und Statistik Inhaltsbereich Wahrscheinlichkeit und Statistik AG Mathematik, Sankt Pölten 11.11.2009 Markus Binder Modell für die zentrale srp im Schulversuch Teil I: Aufgaben mit 15-25 Items Teil II: 6-8 Aufgaben,

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel

Mehr

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities) Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Statistik für Ingenieure Vorlesung 2

Statistik für Ingenieure Vorlesung 2 Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen

Mehr

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()

Mehr

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur

Mehr

Methoden der KI in der Biomedizin Bayes Netze

Methoden der KI in der Biomedizin Bayes Netze Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k

Mehr

Wahrscheinlichkeitsrechnung und Statistik. 8. Vorlesung

Wahrscheinlichkeitsrechnung und Statistik. 8. Vorlesung Wahrscheinlichkeitsrechnung und Statistik 8. Vorlesung - 208 ) Monte Carlo Methode für numerische Integration Sei g : [0, ] R stetige Funktion; man möchte numerisch approximieren mit Hilfe von Zufallszahlen:

Mehr

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Institut für Biometrie und klinische Forschung. WiSe 2012/2013 Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive

Mehr

Einführung in die diskreten Bayes- und Kredal-Netze

Einführung in die diskreten Bayes- und Kredal-Netze Einführung in die diskreten Bayes- und Kredal-Netze Master-Seminar im Wintersemester 2015/16 Patrick Schwaferts Institut für Statistik, LMU 16. Januar 2016 Schwaferts (Institut für Statistik, LMU) Bayes-

Mehr

Statistische Datenanalyse

Statistische Datenanalyse Werner A. Stahel Statistische Datenanalyse Eine Einführung für Naturwissenschaftler 3., durchgesehene Auflage vieweg VII 1 Einleitung 1 1.1 Was ist Statistische Datenanalyse? 1 1.2 Ziele 6 1.3 Hinweise

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Statistik, Geostatistik

Statistik, Geostatistik Geostatistik Statistik, Geostatistik Statistik Zusammenfassung von Methoden (Methodik), die sich mit der wahrscheinlichkeitsbezogenen Auswertung empirischer (d.h. beobachteter, gemessener) Daten befassen.

Mehr

Übersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1

Übersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Bei 10 dieser Würfe wurde gleichzeitig eine 1 gewürfelt. Bei 25 dieser Würfe wurde gleichzeitig eine Augenzahl größer als 2 gewürfelt.

Bei 10 dieser Würfe wurde gleichzeitig eine 1 gewürfelt. Bei 25 dieser Würfe wurde gleichzeitig eine Augenzahl größer als 2 gewürfelt. 3 Wahrscheinlichkeiten 1 Kapitel 3: Wahrscheinlichkeiten A: Beispiele Beispiel 1: Ein Experiment besteht aus dem gleichzeitigen Werfen einer Münze und eines Würfels. Nach 100 Wiederholungen dieses Experiments

Mehr

Elektrotechnik und Informationstechnik

Elektrotechnik und Informationstechnik Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Lineare Algebra, Optimierung, Wahrscheinlichkeitsrechnung und Statistik

Lineare Algebra, Optimierung, Wahrscheinlichkeitsrechnung und Statistik Siegfried Fuchs Monika Lutz Lineare Algebra, Optimierung, Wahrscheinlichkeitsrechnung und Statistik VERLAG HARRI DEUTSCH Inhaltsverzeichnis I Lineare Algebra 1 1 Determinanten 1 1.1 Einführendes Beispiel

Mehr

Bayesnetzmodelle (BNM) in der Kardiologie

Bayesnetzmodelle (BNM) in der Kardiologie Bayesnetzmodelle (BNM) in der Kardiologie Vorgehensmodell - Ergebnisse Claus Möbus - Heiko Seebold Jan-Ole Janssen, Andreas Lüdtke, Iris Najman, Heinz-Jürgen Thole Besonderen Dank an: Herrn Reinke (Münster)

Mehr

Mustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10

Mustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Mustererkennung: Wahrscheinlichkeitstheorie D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Definitionen (axiomatisch) Wahrscheinlichkeitsraum (Ω, σ, P), mit Ω Die Grundmenge, die Menge der elementaren

Mehr

Teil / Ein paar statistische Grundlagen 25. Kapitel 1 Was Statistik ist und Warum sie benötigt Wird 2 7

Teil / Ein paar statistische Grundlagen 25. Kapitel 1 Was Statistik ist und Warum sie benötigt Wird 2 7 Inhaltsverzeichnis Einführung 21 Über dieses Buch 21 Törichte Annahmen über den Leser 22 Wie dieses Buch aufgebaut ist 23 Teil I: Ein paar statistische Grundlagen 23 Teil II: Die beschreibende Statistik

Mehr

Bayes sche und probabilistische Netze

Bayes sche und probabilistische Netze Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle Modellierung einer Domäne mit verschiedenen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,

Mehr

Darstellung, Verarbeitung und Erwerb von Wissen

Darstellung, Verarbeitung und Erwerb von Wissen Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung R. Brinkmann http://brinkmann-du.de Seite 5.05.0 Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung Erwartungswert binomialverteilter Zufallsgrößen Wird ein Bernoulli- Versuch, bei

Mehr

Stochastik für Ingenieure

Stochastik für Ingenieure Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:

Mehr

Grundlegende Eigenschaften von Punktschätzern

Grundlegende Eigenschaften von Punktschätzern Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur

Mehr

Schließende Statistik

Schließende Statistik Schließende Statistik [statistical inference] Sollen auf der Basis von empirischen Untersuchungen (Daten) Erkenntnisse gewonnen und Entscheidungen gefällt werden, sind die Methoden der Statistik einzusetzen.

Mehr

Statistik I für Betriebswirte Vorlesung 8

Statistik I für Betriebswirte Vorlesung 8 Statistik I für Betriebswirte Vorlesung 8 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 30. Mai 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Polynomfunktion Typische Verläufe von Graphen in Abhängigkeit vom Grad der Polynomfunktion (er)kennen Zwischen tabellarischen und grafischen

Polynomfunktion Typische Verläufe von Graphen in Abhängigkeit vom Grad der Polynomfunktion (er)kennen Zwischen tabellarischen und grafischen AG AG 1 AG 1.1 AG 1.2 AG 2 AG 2.1 AG 2.2 AG 2.3 AG 2.4 AG 2.5 AG 3 AG 3.1 AG 3.2 AG 3.3 AG 3.4 AG 3.5 AG 4 AG 4.1 AG 4.2 Inhaltsbereich Algebra und Geometrie Grundbegriffe der Algebra Wissen über die Zahlenmengen

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- olafs@physik.uzh.ch 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Bayesianische Netzwerke I

Bayesianische Netzwerke I Bayesianische Netzwerke I Christiane Belitz 2.5.2003 Überblick Der Vortrag basiert auf Using Bayesian Networks to Analyze Expression Data von Friedman et al. (2000) Definition: Bayesianisches Netzwerk

Mehr

Unabhängigkeit von Zufallsvariablen

Unabhängigkeit von Zufallsvariablen Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1

Mehr

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 / Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =

Mehr

Elektrotechnik und Informationstechnik

Elektrotechnik und Informationstechnik Elektrotechnik und Informationstechnik Institut für utomatisierungstechnik, Professur Prozessleittechnik Bayessche Netze VL Prozessinformationsverarbeitung WS 2009/2010 Problemstellung Wie kann Wissen

Mehr

Wahrscheinlichkeitsrechnung und schließende Statistik

Wahrscheinlichkeitsrechnung und schließende Statistik Karl Mosler Friedrich Schmid Wahrscheinlichkeitsrechnung und schließende Statistik Vierte, verbesserte Auflage Springer Inhaltsverzeichnis 0 Einführung 1 1 Zufalls Vorgänge und Wahrscheinlichkeiten 5 1.1

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum

Mehr

Hochschule Darmstadt FB Mathematik und Naturwissenschaften. Statistik. für Wirtschaftsingenieure (B.Sc.) Sommersemester 2017

Hochschule Darmstadt FB Mathematik und Naturwissenschaften. Statistik. für Wirtschaftsingenieure (B.Sc.) Sommersemester 2017 für Wirtschaftsingenieure (B.Sc.) Sommersemester 2017 Dr. rer. nat. habil. E-mail: adam-georg.balogh@h-da.de 1 A. Einführung In eigener Sache Organisatorisches Inhalt der Vorlesung 2 Kurze Vorstellung

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler Philipp Sibbertsen Hartmut Lehne Statistik Einführung für Wirtschafts- und Sozialwissenschaftler 2., überarbeitete Auflage 4^ Springer Gabler Inhaltsverzeichnis Teil I Deskriptive Statistik 1 Einführung

Mehr

Statistik I für Betriebswirte Vorlesung 2

Statistik I für Betriebswirte Vorlesung 2 Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Grundbegriffe. Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse

Grundbegriffe. Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse Grundbegriffe Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse 33 Mengenschreibweise von Ereignissen - Rechenregeln: (1)

Mehr

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 Übungsblatt 4 für die Übung

Mehr

LV: Höhere und Angewandte Mathematik Teil: Statistik (Teil: Numerik&Simulation: Prof. Günter)

LV: Höhere und Angewandte Mathematik Teil: Statistik (Teil: Numerik&Simulation: Prof. Günter) LV: Höhere und Angewandte Mathematik Teil: Statistik (Teil: Numerik&Simulation: Prof. Günter) Am Ende: Gemeinsame Klausur mit 2 Teilen, jeder Teil geht mit 50% in die Endnote ein. Teil (5 ECTS) Grabowski

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Bio- Statistik 1. mit 87 Abbildungen, 40 Tabellen und 102 Beispielen

Bio- Statistik 1. mit 87 Abbildungen, 40 Tabellen und 102 Beispielen Bio- Statistik 1 Beschreibende und explorative Statistik - Wahrscheinlichkeitsrechnung und Zufallsvariablen - Statistische Maßzahlen - Wichtige Verteilungen - Beurteilende Statistik - Vertrauensintervalle

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen

Mehr

Vorlesung Datenstrukturen

Vorlesung Datenstrukturen Vorlesung Datenstrukturen Graphdarstellungen Maike Buchin 0.6.017 Graphen Motivation: Graphen treten häufig als Abstraktion von Objekten (Knoten) und ihren Beziehungen (Kanten) auf. Beispiele: soziale

Mehr

Statistik für Dummies

Statistik für Dummies Bearbeitet von Deborah Rumsey, Reinhard Engel 3. aktualisierte Auflage 2015. Buch. 368 S. Softcover ISBN 978 3 527 71156 7 Format (B x L): 17,6 x 24 cm Wirtschaft > Betriebswirtschaft: Theorie & Allgemeines

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte

Mehr

4. Grundzüge der Wahrscheinlichkeitsrechnung

4. Grundzüge der Wahrscheinlichkeitsrechnung 4. Grundzüge der Wahrscheinlichkeitsrechnung Dr. Antje Kiesel Institut für angewandte Mathematik WS 2010/2011 In der beschreibenden Statistik haben wir verschiedene Kennzahlen (Statistiken) für Stichproben

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 3. Vorlesung - 21.10.2016 Bedingte Wahrscheinlichkeit In einer Urne sind 2 grüne und 3 blaue Kugeln. 2 Kugeln werden ohne Zürücklegen gezogen. Welches ist die Wahrscheinlichkeit, dass : a) man eine grüne

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes

Mehr

Kapitel IX - Mehrdimensionale Zufallsvariablen

Kapitel IX - Mehrdimensionale Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel IX - Mehrdimensionale Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,

Mehr

1. Einführung und statistische Grundbegriffe. Grundsätzlich unterscheidet man zwei Bedeutungen des Begriffs Statistik:

1. Einführung und statistische Grundbegriffe. Grundsätzlich unterscheidet man zwei Bedeutungen des Begriffs Statistik: . Einführung und statistische Grundbegriffe Beispiele aus dem täglichen Leben Grundsätzlich unterscheidet man zwei Bedeutungen des Begriffs Statistik: Quantitative Information Graphische oder tabellarische

Mehr

Wahrscheinlichkeitsrechnung und Statistik. 11. Vorlesung /2019

Wahrscheinlichkeitsrechnung und Statistik. 11. Vorlesung /2019 Wahrscheinlichkeitsrechnung und Statistik 11. Vorlesung - 2018/2019 Quantil der Ordnung α für die Verteilung des beobachteten Merkmals X ist der Wert z α R für welchen gilt z 1 2 heißt Median. P(X < z

Mehr

Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind

Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Bayessche Netze Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Einleitung Sicheres vs. Unsicheres Wissen Kausale Netzwerke Abhängigkeit Verbindungsarten Exkurs:

Mehr

TEIL 7: EINFÜHRUNG UNIVARIATE ANALYSE TABELLARISCHE DARSTELLUNG / AUSWERTUNG

TEIL 7: EINFÜHRUNG UNIVARIATE ANALYSE TABELLARISCHE DARSTELLUNG / AUSWERTUNG TEIL 7: EINFÜHRUNG UNIVARIATE ANALYSE TABELLARISCHE DARSTELLUNG / AUSWERTUNG GLIEDERUNG Statistik eine Umschreibung Gliederung der Statistik in zwei zentrale Teilbereiche Deskriptive Statistik Inferenzstatistik

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 6. Vorlesung - 2018 Diskrete ZG eine diskrete ZG X wird vollständig durch ihre Wahrscheinlichkeitsverteilung beschrieben ( ) x1 x X 2... x i... = p 1 p 2... p i... P(X (a, b]) = und die Verteilungsfunktion

Mehr

Statistik für Ökonomen

Statistik für Ökonomen Wolfgang Kohn Riza Öztürk Statistik für Ökonomen Datenanalyse mit R und SPSS tfü. Springer Inhaltsverzeichnis Teil I Einführung 1 Kleine Einführung in R 3 1.1 Installieren und Starten von R 3 1.2 R-Befehle

Mehr

Wie liest man Konfidenzintervalle? Teil II. Premiu m

Wie liest man Konfidenzintervalle? Teil II. Premiu m Wie liest man Konfidenzintervalle? Teil II Premiu m - Hintergrund Anderer Wahrscheinlichkeitsbegriff subjektiver Wahrscheinlichkeitsbegriff Beispiel: Was ist die Wahrscheinlichkeit dafür, dass ein Patient

Mehr

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 7. Konfidenzintervalle

Wahrscheinlichkeitsrechnung und Statistik für Biologen 7. Konfidenzintervalle Wahrscheinlichkeitsrechnung und Statistik für Biologen 7. Konfidenzintervalle Matthias Birkner & Dirk Metzler http://www.zi.biologie.uni-muenchen.de/evol/statgen.html 9. Juni 2009 1 Wiederholung: Bedingte

Mehr

Kapitel IV - Spezielle Verteilungen: Diskrete Verteilungen

Kapitel IV - Spezielle Verteilungen: Diskrete Verteilungen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel IV - Spezielle Verteilungen: Diskrete Verteilungen Markus Höchstötter Lehrstuhl

Mehr

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische

Mehr

WAHRSCHEINLICHKEITSRECHNUNG

WAHRSCHEINLICHKEITSRECHNUNG WAHRSCHEINLICHKEITSRECHNUNG Mathematischer Teil In der Wahrscheinlichkeitsrechnung haben wir es mit Zufallsexperimenten zu tun, d.h. Ausgang nicht vorhersagbar. Grundbegriffe Zufallsexperiment und Ergebnisse

Mehr

Wahrscheinlichkeitsrechnung Übung Aufgabe 2.b und 3

Wahrscheinlichkeitsrechnung Übung Aufgabe 2.b und 3 Wahrscheinlichkeitsrechnung Übung Aufgabe 2.b und 3 B I N O M I A L V E R T E I L U N G, B I N O M I A L T A B E L L E, U N A B H Ä N G I G E E R E I G N I S S E Zentrale Methodenlehre, Europa Universität

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr