Wahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung
|
|
- Waldemar Ursler
- vor 5 Jahren
- Abrufe
Transkript
1 Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung
2 Anwendung der Bayesschen Theorie in ML Bayessche Netzwerke Bayessche Netze werden in modernen Expertensystemen benutzt. Das Wissen wird über Zufallsvariablen und deren Beziehungen untereinander dargestellt. Zur effektiven Erfassung des Wissens ist es nötig, mit möglichst wenigen Angaben eine hinreichende Beschreibung der spezifischen Merkmale eines Systems zu erhalten. Bayessche Netze sind auf Effizienz für Speicher und Rechenzeit ausgelegt. Im Folgenden wird erklärt wie ein solches Netzwerk aufgebaut ist und damit Vorhersagen getroffen werden können.
3 Bayessches Netz Graph + Wahrscheinlichkeitsverteilungen: Der Graph enthält Knoten (Zufallsgrößen), sowie Kanten zwischen den Knoten, die kausale Abhängigkeiten darstellen. Die Kanten im Graph sind gerichtet und stellen damit jeweils einen kausalen Einfluss vom Knoten an dem die Kante beginnt (der Ursache) auf den Knoten auf den die Kante verweist (der Wirkung) dar. Ein gerichteter Pfad bezeichnet eine Verbindung in der nur entsprechend der Kantenrichtung vorgegangen werden darf.
4 Es sind nur solche Graphen zulässig, die keine (gerichteten) Zyklen enthalten. D.h. es dürfen keine zwei Knoten A und B existieren, bei denen man, unter Beachtung der Kantenrichtung, von Knoten A zum Knoten B und wieder zurück zu Knoten A gelangen könnte. Ein Graph der diese Bedingung erfüllt wird gerichteter azyklischer Graph genannt (DAG - Directed Acyclic Graph).
5 Durch die Graphen-Struktur hat jeder Knoten X eine Menge von Elternknoten pa(x) (Engl. parents). Diese umfasst all jene Knoten von denen eine Kante ausgeht, die auf den Knoten X zeigt. Menge der Elternknoten kann auch leer sein (pa(x) = ). Entsprechendes gilt auch für die Menge der Kindknoten ch(x) (Engl. child), also jene Knoten zu denen von X ausgehend eine Kante führt). z.b.: pa(e) =, pa(b) = {E, A}, pa(c) = {B}, ch(a) = {B, D}
6 Für jeden Knoten X im Graph müssen bedingte Wahrscheinlichkeitsverteilungen P(X pa(x)) definiert werden. Im Falle der kategorialen Variablen haben diese Wahrscheinlichkeitsverteilungen die Form (mehrdimensionaler) Tafeln (Engl. CPTs - conditional probability tables). Für elternlose Knoten X wird die sogenannte a-priori Verteilung P(X) verlangt. A-priori Verteilungen für die Knoten E und A E P(E=...) A P(A=...)
7 Bedingte Wahrscheinlichkeiten P(B E, A) B P(B=... E=0,A=0) P(B=... E=1,A=0) P(B=... E=1,A=0) P(B... E=1,A=1) b b b
8 Bedingte Wahrscheinlichkeiten P(D A), P(C B) D P(D=... A=0) P(D=... A=1) d d C P(C=... B = b 1 ) P(C=... B = b 2 ) P(C=... B = b 3 ) c c
9 Neben der direkten kausalen Abhängigkeit zwischen Elternund Kindknoten gibt es in einem Bayesschen Netz auch weiterreichende indirekte Abhängigkeitsbeziehungen. Dabei spielen auch die Mengen der Vorgänger an(x) (Engl. ancestor, antecedent; Rum. predecesor) und Nachfolger de(x) (Engl. descendant; Rum. succesor) eines Knotens X eine Rolle. Diese Mengen enthalten neben den Elternknoten bzw. Kindknoten auch Knoten die über längere gerichtete (von X ausgehende bzw. zu X hinführende) Pfade mit X verbunden sind. Alle nicht-nachfolger Knoten von X werden mit nde(x) (Engl. non-descendant) bezeichnet. im gegebenen Beispiel: de(b) = {C}, nde(b) = {A, D, E}, nde(d) = {A, B, C, E}
10 Im Folgenden seien X diskrete ZG mit Werten {x i : i I} Y diskrete ZG mit Werten {y j : j J} Z diskrete ZG mit Werten {z k : k K } Bedingte Unabhängigkeit von diskreten ZG Definition: X ist bedingt unabhängig von Y gegeben Z, wenn i I, j J, k K : P(X = x i, Y = y j Z = z k ) = P(X = x i Z = z k )P(Y = y j Z = z k ), solche Formeln werden oft kompakt geschrieben P(X, Y Z ) = P(X Z )P(Y Z ). Man kann zeigen, dass X ist bedingt unabhängig von Y gegeben Z ist äquivalent mit (in kompakter Schreibweise) P(X Y, Z ) = P(X Z ) P(Y X, Z ) = P(Y Z )
11 Definition: X 1,..., X n sind bedingt unabhängig, gegeben Z, wenn (in kompakter Schreibweise) P(X 1,..., X n Z ) = P(X 1 Z ) P(X 2 Z )... P(X n Z ). Sind X 1,..., X n bedingt unabhängig, gegeben Z, dann gilt P(X 1 X 2, X 3,...X n, Z ) = P(X 1 Z ) P(X 2 X 1, X 3,...X n, Z ) = P(X 2 Z ). P(X n X 1, X 2,...X n 1, Z ) = P(X n Z ).
12 Grundlegende Rechenregeln aus der Theorie der bedingten Wahrscheinlichkeiten Marginalisierung: Aufsummierung, bei der die Wahrscheinlichkeiten für jeden möglichen Wert der anderen Variablen summiert werden: P(X = x i ) = j J P(X = x i, Y = y j ) Konditionierung: Aufsummierung durch Verwendung von bedingten Wahrscheinlichkeiten: P(X = x i ) = j J P(X = x i Y = y j )P(Y = y j ) P(X = x i Y = y j ) = k K P(X = x i Y = y j, Z = z k )P(Z = z k Y = y j ) gemeinsame Wahrscheinlichkeit (Multiplikationsregel): n 1 P(X 1, X 2,..., X n ) = P(X 1 ) P(X i+1 X 1,..., X i 1 ). i=1
13 Ein bayessches Netzwerk erfüllt folgende Eigenschaft: jeder Knoten X mit pa(x) und die nicht-nachfolger Knoten nde(x) sind bedingt unabhängig, wenn pa(x) bekannt sind; wenn X keine Elternknoten hat (d.h. pa(x) = ), dann ist X unabhängig von allen nicht-nachfolger Knoten nde(x). Das Bayes-Netz reduziert die Komplexität der Darstellung der Daten für die Berechnung von P(X 1,..., X n ), so dass nur die bedingten Wahrscheinlichkeiten P(X i pa(x i )) und die a-priori Warscheinlichkeiten der elternlosen Knoten abzuspeichern sind.
14 Beispiel: X 1,...X 6 sind die Zustände von 6 Komponenten in einem technischen Prozess (X i {0, 1} i = 1, 6, 1=funktioniert, 0=funktioniert nicht). X2 X1 X3 X4 X5 X6 Die Knoten X 1 und X 2 sind die a-priori Wahrscheinlichkeiten P(X 1 ) und P(X 2 ) gegeben, da diese Knoten keine Vorfahren (Eltern) haben.
15 Für X i ist die bedingte Wahrscheinlichkeitsverteilung P(X i pa(x i )), i = 3, 6 zugeordnet. Z.B. Für den Knoten X 3 ist dies die bedingte Wahrscheinlichkeit P(X 3 X 1, X 2 ), die sich aus acht möglichen Wahrscheinlichkeitswerten besteht; sind vier Wahrscheinlichkeiten gegeben, so kann man die restlichen vier durch die Komplementeigenschaft berechnen. X2 X5 X3 X1 X4 X6 die Knoten X 3, X 4, X 5, X 6 sind von allen nicht-nachfolger-knoten, bedingt unabhängig, wenn die Elternknoten bekannt sind; die Wurzelknoten X 1 und X 2 sind unabhängig.
16 Zur Berechnung von P(X 1,..., X 6 ) benutzen wir die Multiplikationsregel und Eigenschaft der Baysschen Netze P(X 1,..., X 6 ) = P(X 1 ) 5 P(X i+1 X 1,.., X i ) i=1 =P(X 1 )P(X 2 )P(X 3 X 1, X 2 )P(X 4 X 3 ) P(X 5 X 3 )P(X 6 X 1, X 4, X 5 ). Diese strukturierte Darstellung bringt eine starke Reduktion der Informationen mit sich.
17 Normalerweise, für P(X 1,..., X 6 ) benötigt man 2 6 = 64 Wertekombinationen. Für dieses bayessche Netz speichert man folgende Anfangsdaten: einen Wert: der a-priori-wahrscheinlichkeiten P(X 1 ) und P(X 2 ) je zwei Werte: der bedingten Wahrscheinlichkeiten P(X 4 X 3 ), P(X 5 X 3 ) vier Werte: für die bedingte Wahrscheinlichkeit P(X 3 X 1, X 2 ) acht Werte: für die bedingte Wahrscheinlichkeit P(X 6 X 1, X 4, X 5 ) für die Berechnung von P(X 1,..., X 6 ) müssen = 18 Anfangswerte gespeichert werden.
18 Im bayesschen Netzwerk mit Causal-Chain-Struktur: P(Z X, Y ) = P(Z Y ), d.h. X und Z sind bedingt unabhängig, gegeben Y. Es gilt: P(X, Y, Z ) = P(X)P(Y X)P(Z Y )
19 Im bayesschen Netzwerk mit Common-Cause-Struktur: P(Z X, Y ) = P(Z Y ) und P(X Y, Z ) = P(X Y ) d.h. X und Z sind bedingt unabhängig, gegeben Y. Es gilt: P(X, Y, Z ) = P(Y )P(X Y )P(Z Y )
20 Im bayesschen Netzwerk mit Common-Effect-Struktur: P(Z X) = P(Z ), d.h. X und Z sind unabhängig. P(X, Y, Z ) =?
21 Aufgabenbeispiel Bayessches Netz - Aufgabenbeispiel Wir betrachten folgende ZG, welche den Abend einer Person beschreiben (1=ja, 0=nein ): F im Kino ist Filmpremiere F = 1 oder nicht F = 0 T die Eintrittskarte zum Film ist teuer T = 1 oder nicht T = 0 K Person geht ins Kino K = 1 oder nicht K = 0 R Person geht zum Abendessen ins Restaurant R = 1 oder nicht R = 0 B Person geht zu einem Drink in die Bar B = 1 oder nicht B = 0
22 Die obigen (kategorialen) ZG bilden ein bayessches Netzwerk und es sind folgende Tabellen mit Wahrscheinlichkeiten und bedingten Wahrscheinlichkeiten gegeben: P(F = 1) P(F = 0) T P(T =... F = 1) P(T =... F = 0)
23 K P(K=... T=1,F=1) P(K=... T=1,F=0) P(K=... T=0,F=1) P(K=... T=0,F=0) R P(R =... K = 1) P(R =... K = 0) B P(B =... K = 1) P(B =... K = 0)
24 Man berechne folgende Wahrscheinlichkeiten: a) Die Person geht ins Kino, wo ein Film, der keine Premiere ist, läuft. b) Die Person geht zum Abendessen ins Restaurant. c) Die Person trinkt ein Cocktail in der Bar, wenn man weiß, dass sie die Filmpremiere im Kino nicht verfolgt, weil die Eintrittskarte teuer ist.
25 Lsg.: a) P(K = 1, F = 0) = P(K = 1, F = 0, T = 1) + P(K = 1, F = 0, T = 0) = P(K = 1 T = 1, F = 0) P(T = 1 F = 0) P(F = 0) + P(K = 1 T = 0, F = 0) P(T = 0 F = 0) P(F = 0) = = = 5, 6%.
26 b) P(R = 1) = P(R = 1 K = 1) P(K = 1) + P(R = 1 K = 0) P(K = 0) = 0.3 P(K = 1, T = i, F = j) P(K = 0, T = i, F = j) i,j {0,1} = i,j {0,1} i,j {0,1} i,j {0,1} P(K = 1 T = i, F = j) P(T = i F = j) P(F = j) P(K = 0 T = i, F = j) P(T = i F = j) P(F = j) = = 38.8%.
27 c) P(B = 1, F = 1, T = 1, K = 0) P(B = 1 F = 1, T = 1, K = 0) = P(F = 1, T = 1, K = 0) P(B = 1, F = 1, T = 1 K = 0) = P(F = 1, T = 1 K = 0) P(B = 1 K = 0)P(F = 1, T = 1 K = 0) = P(F = 1, T = 1 K = 0) = P(B = 1 K = 0) = 0.8.
28 Statistik Statistik = wissenschaftliche Disziplin, deren Gegenstand die Entwicklung und Anwendung formaler Methoden zur Gewinnung, Beschreibung und Analyse und Beurteilung von Daten (Beobachtungen) ist. Aufgaben und Ziele der Statistik Design von Experimenten: Wie sollen die Daten gewonnen werden? Beschreibende (deskriptive) Statistik: Wie sollen große Datensätze beschrieben werden, um die Gesetzmäßigkeiten und Strukturen in ihnen entdecken zu können? Schließende Statistik: Welche Schlußfolgerungen kann man aus den Daten ziehen?
29 Arbeitsweise in der Statistik Datenerhebung (Beobachtung, Befragung, Experiment) Visualisierung und beschreibende Datenanalyse: graphische Präsentation, Zusammenfassung (Darstellung der Daten in einer Tabelle oder Darstellung mit Hilfe von Grafiken) Explorative Datenanalyse (man sucht nach Gesetzmäßigkeiten in den Daten) Modellierung der Daten Modellanpassung (Schätzung von Modellparametern) Modellvalidierung (Wie gut war die Modellanpassung?)
30 Anwendung der Statistik: in politischen Umfragen: z.b. Befragung zur Beliebtheit von Politikern oder einer Partei in der Analyse von Finanzmarktdaten: z.b. Analyse von Aktien-, Zinskursen in klinischen und epidemiologischen Studien (Medizin und Pharmazie) in der Technik: z.b. die Lebensdaueranalyse oder die Zuverlässigkeit von elektronischen Systemen in der Wirtschaft: z.b. Data Mining und Data Warehousing sind zwei Bereiche, in denen man versucht mit Hilfe von statistischen Methoden aus einer Vielzahl von Kundendaten jene herauszufiltern und aufzubereiten, die für den Erfolg des Betriebs von Interesse sind
31 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten einer Klinik Grundgesamtheit (Population) = Menge aller statistischen Einheiten über die man Aussagen erhalten will z.b. wahlberechtigte Bevölkerung einer Stadt; Schüler der 10. Klasser einer bestimmten Schule; Patienten einer bestimmten Station einer Klinik statistisches Merkmal = Eigenschaft einer statistischen Einheit für die man sich bei einer statistischen Untersuchung interessiert z.b. Alter; Geschlecht; Wert BMW Aktie , 17 Uhr; Merkmalsausprägung = konkreter Wert des Merkmals z.b. 25 Jahre; weiblich; 82.5 Euro Stichprobe = tatsächlich untersuchte Teilmenge der Grundgesamtheit
Wahrscheinlichkeitsrechnung und Statistik
9. Vorlesung - 2017 Monte Carlo Methode für numerische Integration Sei g : [0, 1] R stetige Funktion; man möchte 1 0 g(t)dt numerisch approximieren mit Hilfe von Zufallszahlen: Sei (U n ) n eine Folge
MehrWahrscheinlichkeitsrechnung und Statistik
10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrStandardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend
Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend oder eindeutig, wenn keine alternativen Interpretationsmöglichkeiten
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen
MehrSemester-Fahrplan 1 / 17
Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit
MehrEvidenzpropagation in Bayes-Netzen und Markov-Netzen
Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation
MehrTrim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19
Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, 2016 6:34 P.M. Page 11 Inhaltsverzeichnis Über die Übersetzerin 9 Einleitung 19 Was Sie hier finden werden 19 Wie dieses Arbeitsbuch aufgebaut ist
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg 2 R. 06-206 (Persike) R. 06-214 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrPRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein
PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein Bayes'sche Netze Andreas Bahcecioglu Marcel Bergmann Ertan Samgam Sven Schebitz Jan Seewald Fachhochschule Köln Wintersemester 2014 / 2015
MehrStichwortverzeichnis. Symbole
Stichwortverzeichnis Symbole 50ste Perzentil 119 A Absichern, Ergebnisse 203 Abzählbar unendliche Zufallsvariable 146 Alternativhypothese 237 238 formulieren 248 Anekdote 340 Annäherung 171, 191 Antwortquote
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrInhaltsbereich Wahrscheinlichkeit und Statistik
Inhaltsbereich Wahrscheinlichkeit und Statistik AG Mathematik, Sankt Pölten 11.11.2009 Markus Binder Modell für die zentrale srp im Schulversuch Teil I: Aufgaben mit 15-25 Items Teil II: 6-8 Aufgaben,
MehrSyntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel
MehrBayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)
Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
MehrEinführung in die Wahrscheinlichkeitsrechnung
Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze
MehrStatistik für Ingenieure Vorlesung 2
Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen
MehrTeil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung
Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()
MehrBayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur
MehrMethoden der KI in der Biomedizin Bayes Netze
Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze
MehrBayesianische Netzwerke - Lernen und Inferenz
Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel
MehrZusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen
Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k
MehrWahrscheinlichkeitsrechnung und Statistik. 8. Vorlesung
Wahrscheinlichkeitsrechnung und Statistik 8. Vorlesung - 208 ) Monte Carlo Methode für numerische Integration Sei g : [0, ] R stetige Funktion; man möchte numerisch approximieren mit Hilfe von Zufallszahlen:
MehrInstitut für Biometrie und klinische Forschung. WiSe 2012/2013
Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive
MehrEinführung in die diskreten Bayes- und Kredal-Netze
Einführung in die diskreten Bayes- und Kredal-Netze Master-Seminar im Wintersemester 2015/16 Patrick Schwaferts Institut für Statistik, LMU 16. Januar 2016 Schwaferts (Institut für Statistik, LMU) Bayes-
MehrStatistische Datenanalyse
Werner A. Stahel Statistische Datenanalyse Eine Einführung für Naturwissenschaftler 3., durchgesehene Auflage vieweg VII 1 Einleitung 1 1.1 Was ist Statistische Datenanalyse? 1 1.2 Ziele 6 1.3 Hinweise
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrStatistik, Geostatistik
Geostatistik Statistik, Geostatistik Statistik Zusammenfassung von Methoden (Methodik), die sich mit der wahrscheinlichkeitsbezogenen Auswertung empirischer (d.h. beobachteter, gemessener) Daten befassen.
MehrÜbersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrBei 10 dieser Würfe wurde gleichzeitig eine 1 gewürfelt. Bei 25 dieser Würfe wurde gleichzeitig eine Augenzahl größer als 2 gewürfelt.
3 Wahrscheinlichkeiten 1 Kapitel 3: Wahrscheinlichkeiten A: Beispiele Beispiel 1: Ein Experiment besteht aus dem gleichzeitigen Werfen einer Münze und eines Würfels. Nach 100 Wiederholungen dieses Experiments
MehrElektrotechnik und Informationstechnik
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrLineare Algebra, Optimierung, Wahrscheinlichkeitsrechnung und Statistik
Siegfried Fuchs Monika Lutz Lineare Algebra, Optimierung, Wahrscheinlichkeitsrechnung und Statistik VERLAG HARRI DEUTSCH Inhaltsverzeichnis I Lineare Algebra 1 1 Determinanten 1 1.1 Einführendes Beispiel
MehrBayesnetzmodelle (BNM) in der Kardiologie
Bayesnetzmodelle (BNM) in der Kardiologie Vorgehensmodell - Ergebnisse Claus Möbus - Heiko Seebold Jan-Ole Janssen, Andreas Lüdtke, Iris Najman, Heinz-Jürgen Thole Besonderen Dank an: Herrn Reinke (Münster)
MehrMustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10
Mustererkennung: Wahrscheinlichkeitstheorie D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Definitionen (axiomatisch) Wahrscheinlichkeitsraum (Ω, σ, P), mit Ω Die Grundmenge, die Menge der elementaren
MehrTeil / Ein paar statistische Grundlagen 25. Kapitel 1 Was Statistik ist und Warum sie benötigt Wird 2 7
Inhaltsverzeichnis Einführung 21 Über dieses Buch 21 Törichte Annahmen über den Leser 22 Wie dieses Buch aufgebaut ist 23 Teil I: Ein paar statistische Grundlagen 23 Teil II: Die beschreibende Statistik
MehrBayes sche und probabilistische Netze
Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle Modellierung einer Domäne mit verschiedenen
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,
MehrDarstellung, Verarbeitung und Erwerb von Wissen
Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrErwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung
R. Brinkmann http://brinkmann-du.de Seite 5.05.0 Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung Erwartungswert binomialverteilter Zufallsgrößen Wird ein Bernoulli- Versuch, bei
MehrStochastik für Ingenieure
Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:
MehrGrundlegende Eigenschaften von Punktschätzern
Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur
MehrSchließende Statistik
Schließende Statistik [statistical inference] Sollen auf der Basis von empirischen Untersuchungen (Daten) Erkenntnisse gewonnen und Entscheidungen gefällt werden, sind die Methoden der Statistik einzusetzen.
MehrStatistik I für Betriebswirte Vorlesung 8
Statistik I für Betriebswirte Vorlesung 8 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 30. Mai 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrPolynomfunktion Typische Verläufe von Graphen in Abhängigkeit vom Grad der Polynomfunktion (er)kennen Zwischen tabellarischen und grafischen
AG AG 1 AG 1.1 AG 1.2 AG 2 AG 2.1 AG 2.2 AG 2.3 AG 2.4 AG 2.5 AG 3 AG 3.1 AG 3.2 AG 3.3 AG 3.4 AG 3.5 AG 4 AG 4.1 AG 4.2 Inhaltsbereich Algebra und Geometrie Grundbegriffe der Algebra Wissen über die Zahlenmengen
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrDatenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- olafs@physik.uzh.ch 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrBayesianische Netzwerke I
Bayesianische Netzwerke I Christiane Belitz 2.5.2003 Überblick Der Vortrag basiert auf Using Bayesian Networks to Analyze Expression Data von Friedman et al. (2000) Definition: Bayesianisches Netzwerk
MehrUnabhängigkeit von Zufallsvariablen
Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1
MehrAufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /
Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =
MehrElektrotechnik und Informationstechnik
Elektrotechnik und Informationstechnik Institut für utomatisierungstechnik, Professur Prozessleittechnik Bayessche Netze VL Prozessinformationsverarbeitung WS 2009/2010 Problemstellung Wie kann Wissen
MehrWahrscheinlichkeitsrechnung und schließende Statistik
Karl Mosler Friedrich Schmid Wahrscheinlichkeitsrechnung und schließende Statistik Vierte, verbesserte Auflage Springer Inhaltsverzeichnis 0 Einführung 1 1 Zufalls Vorgänge und Wahrscheinlichkeiten 5 1.1
MehrGrundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt
Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum
MehrHochschule Darmstadt FB Mathematik und Naturwissenschaften. Statistik. für Wirtschaftsingenieure (B.Sc.) Sommersemester 2017
für Wirtschaftsingenieure (B.Sc.) Sommersemester 2017 Dr. rer. nat. habil. E-mail: adam-georg.balogh@h-da.de 1 A. Einführung In eigener Sache Organisatorisches Inhalt der Vorlesung 2 Kurze Vorstellung
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrPhilipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler
Philipp Sibbertsen Hartmut Lehne Statistik Einführung für Wirtschafts- und Sozialwissenschaftler 2., überarbeitete Auflage 4^ Springer Gabler Inhaltsverzeichnis Teil I Deskriptive Statistik 1 Einführung
MehrStatistik I für Betriebswirte Vorlesung 2
Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrGrundbegriffe. Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse
Grundbegriffe Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse 33 Mengenschreibweise von Ereignissen - Rechenregeln: (1)
MehrTechnische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen
Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 Übungsblatt 4 für die Übung
MehrLV: Höhere und Angewandte Mathematik Teil: Statistik (Teil: Numerik&Simulation: Prof. Günter)
LV: Höhere und Angewandte Mathematik Teil: Statistik (Teil: Numerik&Simulation: Prof. Günter) Am Ende: Gemeinsame Klausur mit 2 Teilen, jeder Teil geht mit 50% in die Endnote ein. Teil (5 ECTS) Grabowski
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrBio- Statistik 1. mit 87 Abbildungen, 40 Tabellen und 102 Beispielen
Bio- Statistik 1 Beschreibende und explorative Statistik - Wahrscheinlichkeitsrechnung und Zufallsvariablen - Statistische Maßzahlen - Wichtige Verteilungen - Beurteilende Statistik - Vertrauensintervalle
MehrKlassifikation von Signifikanztests
Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen
MehrVorlesung Datenstrukturen
Vorlesung Datenstrukturen Graphdarstellungen Maike Buchin 0.6.017 Graphen Motivation: Graphen treten häufig als Abstraktion von Objekten (Knoten) und ihren Beziehungen (Kanten) auf. Beispiele: soziale
MehrStatistik für Dummies
Bearbeitet von Deborah Rumsey, Reinhard Engel 3. aktualisierte Auflage 2015. Buch. 368 S. Softcover ISBN 978 3 527 71156 7 Format (B x L): 17,6 x 24 cm Wirtschaft > Betriebswirtschaft: Theorie & Allgemeines
MehrBayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
MehrStatistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II
Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte
Mehr4. Grundzüge der Wahrscheinlichkeitsrechnung
4. Grundzüge der Wahrscheinlichkeitsrechnung Dr. Antje Kiesel Institut für angewandte Mathematik WS 2010/2011 In der beschreibenden Statistik haben wir verschiedene Kennzahlen (Statistiken) für Stichproben
MehrWahrscheinlichkeitsrechnung und Statistik
3. Vorlesung - 21.10.2016 Bedingte Wahrscheinlichkeit In einer Urne sind 2 grüne und 3 blaue Kugeln. 2 Kugeln werden ohne Zürücklegen gezogen. Welches ist die Wahrscheinlichkeit, dass : a) man eine grüne
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe
MehrBiostatistik, Sommer 2017
1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes
MehrKapitel IX - Mehrdimensionale Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel IX - Mehrdimensionale Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
MehrKapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen
Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,
Mehr1. Einführung und statistische Grundbegriffe. Grundsätzlich unterscheidet man zwei Bedeutungen des Begriffs Statistik:
. Einführung und statistische Grundbegriffe Beispiele aus dem täglichen Leben Grundsätzlich unterscheidet man zwei Bedeutungen des Begriffs Statistik: Quantitative Information Graphische oder tabellarische
MehrWahrscheinlichkeitsrechnung und Statistik. 11. Vorlesung /2019
Wahrscheinlichkeitsrechnung und Statistik 11. Vorlesung - 2018/2019 Quantil der Ordnung α für die Verteilung des beobachteten Merkmals X ist der Wert z α R für welchen gilt z 1 2 heißt Median. P(X < z
MehrBayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind
Bayessche Netze Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Einleitung Sicheres vs. Unsicheres Wissen Kausale Netzwerke Abhängigkeit Verbindungsarten Exkurs:
MehrTEIL 7: EINFÜHRUNG UNIVARIATE ANALYSE TABELLARISCHE DARSTELLUNG / AUSWERTUNG
TEIL 7: EINFÜHRUNG UNIVARIATE ANALYSE TABELLARISCHE DARSTELLUNG / AUSWERTUNG GLIEDERUNG Statistik eine Umschreibung Gliederung der Statistik in zwei zentrale Teilbereiche Deskriptive Statistik Inferenzstatistik
MehrWahrscheinlichkeitsrechnung und Statistik
6. Vorlesung - 2018 Diskrete ZG eine diskrete ZG X wird vollständig durch ihre Wahrscheinlichkeitsverteilung beschrieben ( ) x1 x X 2... x i... = p 1 p 2... p i... P(X (a, b]) = und die Verteilungsfunktion
MehrStatistik für Ökonomen
Wolfgang Kohn Riza Öztürk Statistik für Ökonomen Datenanalyse mit R und SPSS tfü. Springer Inhaltsverzeichnis Teil I Einführung 1 Kleine Einführung in R 3 1.1 Installieren und Starten von R 3 1.2 R-Befehle
MehrWie liest man Konfidenzintervalle? Teil II. Premiu m
Wie liest man Konfidenzintervalle? Teil II Premiu m - Hintergrund Anderer Wahrscheinlichkeitsbegriff subjektiver Wahrscheinlichkeitsbegriff Beispiel: Was ist die Wahrscheinlichkeit dafür, dass ein Patient
MehrKapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen 7. Konfidenzintervalle
Wahrscheinlichkeitsrechnung und Statistik für Biologen 7. Konfidenzintervalle Matthias Birkner & Dirk Metzler http://www.zi.biologie.uni-muenchen.de/evol/statgen.html 9. Juni 2009 1 Wiederholung: Bedingte
MehrKapitel IV - Spezielle Verteilungen: Diskrete Verteilungen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel IV - Spezielle Verteilungen: Diskrete Verteilungen Markus Höchstötter Lehrstuhl
MehrDeskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien
Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische
MehrWAHRSCHEINLICHKEITSRECHNUNG
WAHRSCHEINLICHKEITSRECHNUNG Mathematischer Teil In der Wahrscheinlichkeitsrechnung haben wir es mit Zufallsexperimenten zu tun, d.h. Ausgang nicht vorhersagbar. Grundbegriffe Zufallsexperiment und Ergebnisse
MehrWahrscheinlichkeitsrechnung Übung Aufgabe 2.b und 3
Wahrscheinlichkeitsrechnung Übung Aufgabe 2.b und 3 B I N O M I A L V E R T E I L U N G, B I N O M I A L T A B E L L E, U N A B H Ä N G I G E E R E I G N I S S E Zentrale Methodenlehre, Europa Universität
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
Mehr