Kapitel ML:IV (Fortsetzung)
|
|
- Adrian Schulz
- vor 7 Jahren
- Abrufe
Transkript
1 Kapitel ML:IV (Fortsetzung) IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-18 Statistical Learning c STEIN
2 Satz 3 (Bayes) Seien (Ω, P(Ω), P) ein Wahrscheinlichkeitsraum, B 1,...,B k disjunkte Ereignisse mit Ω = B 1... B k, P(B i ) > 0, i = 1,..., k, und A P(Ω) mit P(A) > 0. Dann gilt: P(B i A) = P(B i ) P(A B i ) k i=1 P(B i) P(A B i ) P(B i ) heißt a-priori-wahrscheinlichkeit von B i. P(B i A) heißt a-posteriori-wahrscheinlichkeit von B i. ML:IV-19 Statistical Learning c STEIN
3 Satz 3 (Bayes) Seien (Ω, P(Ω), P) ein Wahrscheinlichkeitsraum, B 1,...,B k disjunkte Ereignisse mit Ω = B 1... B k, P(B i ) > 0, i = 1,..., k, und A P(Ω) mit P(A) > 0. Dann gilt: P(B i A) = P(B i ) P(A B i ) k i=1 P(B i) P(A B i ) P(B i ) heißt a-priori-wahrscheinlichkeit von B i. P(B i A) heißt a-posteriori-wahrscheinlichkeit von B i. Beweis Aus den bedingten Wahrscheinlichkeiten für P(A B i ) und P(B i A) folgt: P(B i A) = P(A B i) P(A) = P(B i) P(A B i ) P(A) Anwendung des Satzes der totalen Wahrscheinlichkeit für P(A) im Nenner des Bruches gibt die Behauptung. ML:IV-20 Statistical Learning c STEIN
4 Satz von Bayes für kombinierte Ereignisse Bezeichne P(B i A 1,..., A p ) die Wahrscheinlichkeit für das Eintreten von Ereignis B i unter der Voraussetzung, dass die Ereignisse A 1,...,A p eingetreten sind. Anwendung zur Klassifikation: die A j, j = 1,..., p, entsprechen den Ereignissen Attribut j =Wert j, die B i, i = 1,..., k, entsprechen den Ereignissen Klasse=c i beobachtbarer Zusammenhang: A 1,..., A p B i Umkehrschluss- bzw. Diagnosesituation: B i A 1,..., A p ML:IV-21 Statistical Learning c STEIN
5 Satz von Bayes für kombinierte Ereignisse Bezeichne P(B i A 1,..., A p ) die Wahrscheinlichkeit für das Eintreten von Ereignis B i unter der Voraussetzung, dass die Ereignisse A 1,...,A p eingetreten sind. Anwendung zur Klassifikation: die A j, j = 1,..., p, entsprechen den Ereignissen Attribut j =Wert j, die B i, i = 1,..., k, entsprechen den Ereignissen Klasse=c i beobachtbarer Zusammenhang: A 1,..., A p B i Umkehrschluss- bzw. Diagnosesituation: B i A 1,..., A p Wenn Daten zur Schätzung von P(B i ) und P(A 1,..., A p B i ) akquirierbar sind, dann lässt sich P(B i A 1,...,A p ) mit dem Satz von Bayes berechnen: P(B i A 1,...,A p ) = P(B i) P(A 1,..., A p B i ) P(A 1,..., A p ) ( ) ML:IV-22 Statistical Learning c STEIN
6 Bemerkungen: P(B i A 1,..., A p ) heißt bedingte Wahrscheinlichkeit für B i unter den Bedingungen A 1,..., A p. Äquivalente Schreibweisen: 1. P(B i A 1,..., A p ) 2. P(B i A 1... A p ) 3. P(B i A 1... A p ) Anwendung der Wahrscheinlichkeitsrechnung zur Klassifikation: Klassen und Attribut-Wert-Paare werden als Ereignisse aufgefasst; Ereignisse sind Teilmengen eines Ergebnisraums Ω = {ω 1,..., ω n }. Beobachtbarer, evtl. kausaler Zusammenhang: es wird (wurde in der Vergangenheit) immer wieder festgestellt, dass in der Situation B i die Symptome A 1,..., A p auftreten. Umkehrschluss- bzw. Diagnosesituation: es treten die Symptome A 1,..., A p auf; gesucht ist die Wahrscheinlichkeit für das Vorliegen von B i. Aus den a-priori-wahrscheinlichkeiten für die Klassen, P(Klasse=c), und den Wahrscheinlichkeiten für die unmittelbar beobachtbaren Zusammenhänge, P(Attribut=Wert Klasse=c), lässt sich in der Diagnosesituation mit dem Satz von Bayes die Wahrscheinlichkeit P(Klasse=c Attribut=Wert) berechnen. Dem bedingten Ereignis Attribut=Wert Klasse=c liegt nicht zwangsläufig ein kausaler Zusammenhang zugrunde: das Ereignis Klasse=c kann, muss aber nicht das Ereignis Attribut=Wert verursachen. ML:IV-23 Statistical Learning c STEIN
7 Naive-Bayes Der Aufbau einer Datenbasis, um verlässliche Werte für P(A 1,..., A p B i ) schätzen zu können, ist in der Praxis unmöglich. Ansatz: (a) Unter dem Ereignis / der Bedingung B i sind die Ereignisse A 1,..., A p stochastisch unabhängig. (Naive Bayes Assumption). In Zeichen: p P(A 1,...,A p B i ) NB = P(A j B i ) j=1 ML:IV-24 Statistical Learning c STEIN
8 Naive-Bayes Der Aufbau einer Datenbasis, um verlässliche Werte für P(A 1,..., A p B i ) schätzen zu können, ist in der Praxis unmöglich. Ansatz: (a) Unter dem Ereignis / der Bedingung B i sind die Ereignisse A 1,..., A p stochastisch unabhängig. (Naive Bayes Assumption). In Zeichen: p P(A 1,...,A p B i ) NB = P(A j B i ) (b) P(A 1,...,A p ) ist eine Konstante und braucht nicht bekannt zu sein, um das unter der Naive-Bayes-Annahme wahrscheinlichste Ereignis B NB {B 1,..., B k } mit dem Satz von Bayes ( ) zu bestimmen: j=1 P(B i ) P(A 1,..., A p B i ) argmax B i {B 1,...,B k } P(A 1,...,A p ) NB = argmax P(B i ) B i {B 1,...,B k } p P(A j B i ) = B NB j=1 ML:IV-25 Statistical Learning c STEIN
9 Bemerkungen: In der Praxis sind die Wahrscheinlichkeiten P(A 1,..., A p B i ) oft nicht schätzbar: Angenommen, die Anzahl der Klassen sei k und es gäbe für jedes der p Attribute mindestens l Ausprägungen, dann wären über k p l verschiedene Instanzen (= Klassen- Attributvektor-Kombinationen) in der Datenbasis möglich. Um sinnvolle Aussagen bzgl. der relativen Häufigkeit machen zu können, muss eine Instanz auch noch entsprechend häufig in der Datenbasis vorkommen. Die Wahrscheinlichkeiten P(A j B i ) hingegen lassen sich wesentlich einfacher schätzen. Trifft die Naive-Bayes-Annahme zu, so maximiert B NB auch die a-posteriori- Wahrscheinlichkeit P(B NB A 1,..., A p ), die mit dem Satz von Bayes ( ) berechnet wird. Stichwort: diskriminative versus generative Verfahren Das Lernen bei einem Naive-Bayes-Klassifikator besteht in der Schätzung der a-priori- Wahrscheinlichkeiten P(B i ) und der Wahrscheinlichkeiten P(A j B i ) für die beobachtbaren Zusammenhänge auf Basis von Traningsdaten D. Die geschätzten Wahrscheinlichkeiten entsprechen der gelernten Hypothese, die dazu verwendet wird, neue Beispiele gemäß der Optimierungsformel für B NB zu klassifizieren. Der Hypothesenraum H besteht aus der Menge aller Werte, die P(B i ) und P(A j B i ) annehmen können. Bei der Konstruktion eines Naive-Bayes-Klassifikators wird der Hypothesenraum H nicht durchsucht, sondern die gesuchte Hypothese wird direkt aus einer Häufigkeitsanalyse von D berechnet. ML:IV-26 Statistical Learning c STEIN
10 Naive-Bayes Sei neben der Naive-Bayes-Annahme weiterhin vorausgesetzt: k (c) die Menge der B i ist vollständig: P(B i ) = 1 (d) die B i schließen sich gegenseitig aus: P(B i, B ι ) = 0, i=1 1 i, ι k, i ι ML:IV-27 Statistical Learning c STEIN
11 Naive-Bayes Sei neben der Naive-Bayes-Annahme weiterhin vorausgesetzt: k (c) die Menge der B i ist vollständig: P(B i ) = 1 (d) die B i schließen sich gegenseitig aus: P(B i, B ι ) = 0, dann gilt: i=1 1 i, ι k, i ι P(A 1,..., A p ) = k P(B i ) P(A 1,..., A p B i ) i=1 NB = k i=1 P(B i ) p P(A j B i ) j=1 (totale Wahrscheinlichkeit) (Naive-Bayes-Annahme) ML:IV-28 Statistical Learning c STEIN
12 Naive-Bayes Sei neben der Naive-Bayes-Annahme weiterhin vorausgesetzt: k (c) die Menge der B i ist vollständig: P(B i ) = 1 (d) die B i schließen sich gegenseitig aus: P(B i, B ι ) = 0, dann gilt: i=1 1 i, ι k, i ι P(A 1,..., A p ) = k P(B i ) P(A 1,..., A p B i ) i=1 NB = k i=1 P(B i ) p P(A j B i ) j=1 (totale Wahrscheinlichkeit) (Naive-Bayes-Annahme) und es folgt mit dem Satz von Bayes ( ) für die bedingten Wahrscheinlichkeiten: P(B i A 1,..., A p ) = P(B i) P(A 1,..., A p B i ) P(A 1,..., A p ) NB,c,d = P(B i ) p j=1 P(A j B i ) k i=1 P(B i) p j=1 P(A j B i ) ML:IV-29 Statistical Learning c STEIN
13 Bemerkungen: Auf Basis von argmax B i {B 1,...,B k } P(B i ) p j=1 P(A j B i ) lässt sich eine Rangordnung zwischen den Ereignissen B i berechnen. Unter weiteren bestimmten Voraussetzungen lassen sich die Rangordnungswerte der B i in die a-posteriori-wahrscheinlichkeiten P(B i A 1,..., A p ) umrechnen. Kann nämlich (c) Vollständigkeit und (d) Exklusivität der B i angenommen werden, so gilt, dass die Summe aller a-posteriori-wahrscheinlichkeiten 1 ergeben muss, in Zeichen: k i=1 P(B i A 1,..., A p ) = 1. Unter diesen Voraussetzungen dürfen die Rangordnungswerte nach der Normalisierung als a-posteriori-wahrscheinlichkeiten interpretiert werden. Die Normalisierung geschieht mittels Division durch die Summe aller Rangordnungswerte, k i=1 P(B i) p j=1 P(A j B i ). ML:IV-30 Statistical Learning c STEIN
14 Naive-Bayes: Zusammenfassung Sei D eine Menge von Trainingsbeispielen der Form (x, c(x)); die k Ausprägungen (= Klassen) des Zielkonzeptes c entsprechen den Ereignissen B 1,..., B k, die Ausprägungen der x = p Attribute den Ereignissen A 1,..., A p. ML:IV-31 Statistical Learning c STEIN
15 Naive-Bayes: Zusammenfassung Sei D eine Menge von Trainingsbeispielen der Form (x, c(x)); die k Ausprägungen (= Klassen) des Zielkonzeptes c entsprechen den Ereignissen B 1,..., B k, die Ausprägungen der x = p Attribute den Ereignissen A 1,..., A p. Konstruktion und Anwendung eines Naive-Bayes-Klassifikators: 1. Schätzung von P(B i ) auf Basis der relativen Häufigkeiten in D. 2. Schätzung von P(A j B i ) auf Basis der relativen Häufigkeiten in D. 3. Klassifikation eines neuen Beispiels x als B NB, mit B NB = argmax B i {B 1,...,B k } p(b i ) p(a j B i ) A j x j=1,...,p 4. Gegebenenfalls Berechnung der a-posteriori-wahrscheinlichkeit für B NB durch Normalisierung von p(b NB ) p(a j B NB ) A j x j=1,...,p ML:IV-32 Statistical Learning c STEIN
16 Bemerkungen: Die Wahrscheinlichkeiten P sind unbekannt und werden durch die relativen Häufigkeiten, in Zeichen: p, geschätzt. Naive-Bayes ist angesagt für Trainingsmengen D, die mittelgroß bis sehr groß sind. Naive-Bayes fordert, dass die Attributausprägungen der Beispiele stochastisch unabhängig von den Ausprägungen des Zielkonzeptes sind. Die Praxis im Bereich der Textklassifikation zeigt, dass auch bei Verletzung der Naive-Bayes-Annahme hervorragende Klassifikationsergebnisse mit einem Naive-Bayes-Klassifikator erzielbar sind. Möchte man nicht nur Rangordnungswerte sondern auch a-posteriori-wahrscheinlichkeiten berechnen, wird noch die Vollständigkeit der B i (Closed World Assumption) und der gegenseitiger Ausschluss der B i (Single Fault Assumption) gefordert. Insgesamt muss gelten, dass sich die betrachtete Welt nur langsam ändert: die Daten müssen über einen längeren Zeitraum relativ konstant bleiben. ML:IV-33 Statistical Learning c STEIN
17 Naive-Bayes: Beispiel Outlook Temperature Humidity Wind EnjoySport 1 sunny hot high weak no 2 sunny hot high strong no 3 overcast hot high weak yes 4 rain mild high weak yes 5 rain cold normal weak yes 6 rain cold normal strong no 7 overcast cold normal strong yes 8 sunny mild high weak no 9 sunny cold normal weak yes 10 rain mild normal weak yes 11 sunny mild normal strong yes 12 overcast mild high strong yes 13 overcast hot normal weak yes 14 rain mild nigh strong no Das Zielkonzept der Instanz x = (sunny, cool, high, strong) sei unbekannt. ML:IV-34 Statistical Learning c STEIN
18 Naive-Bayes: Beispiel (Fortsetzung) B NB = argmax p(b i ) p(a j B i ) B i {yes,no} A j x = argmax p(b i ) p(outlook=sunny B i ) p(temperature=cool B i )... B i {yes,no} A j x bezeichnet die im Merkmalsvektor x codierten Ereignisse. Zum Beispiel werden durch x = (sunny, cool, high, strong) die folgenden Ereignisse definiert: A 1 : Outlook=sunny A 2 : Temperature=cool A 3 : Humidity=high A 4 : Wind=strong ML:IV-35 Statistical Learning c STEIN
19 Naive-Bayes: Beispiel (Fortsetzung) Zur Klassifikation von x sind Wahrscheinlichkeiten zu schätzen: p(enjoysport=yes) = 9 14 = 0.64 p(enjoysport=no) = 5 14 = 0.36 p(wind=strong EnjoySport=yes) = 3 9 = Rangordnung: 1. p(enjoysport=no) A j x p(a j EnjoySport=no) = p(enjoysport=yes) A j x p(a j EnjoySport=yes) = Normalisierung: 1. P(EnjoySport=no x) = = P(EnjoySport=yes x) = = ML:IV-36 Statistical Learning c STEIN
Kapitel VI. Wahrscheinlichkeitsbegriff. Wahrscheinlichkeitsbegriff. LF: VI Bayesian Learning c STEIN
Kapitel VI VI. Bayes sches Lernen Maximum-a-Posteriori-Hypothesen 1 Definition 18 (Zufallsexperiment, Zufallsbeobachtung) Ein Zufallsexperiment ist ein im Prinzip beliebig oft wiederholbarer Vorgang mit
MehrKapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen
Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,
MehrMaschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt 1 Aufgabe 1 Nearest Neighbour Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity
MehrKapitel MK:V. V. Diagnoseansätze
Kapitel MK:V V. Diagnoseansätze Diagnoseproblemstellung Diagnose mit Bayes Evidenztheorie von Dempster/Shafer Diagnose mit Dempster/Shafer Truth Maintenance Assumption-Based TMS Diagnosis Setting Diagnosis
MehrDiagnose. Statistische Diagnose. Statistische Diagnose. Statistische Diagnose. Einordnung: Diagnose Problemklasse Analyse
Statistische Einordnung: Problemklasse Analyse Kernfrage bzgl. der Modellierung: Wieviel ist bekannt über das zu diagnostizierende System? Begriffe der : System. Ausschnitt aus der realen Welt. Hier: System
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 7. Übungsblatt Aufgabe 1 Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity Wind PlayTennis D1? Hot High Weak No D2 Sunny
MehrData Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt
Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 7. Übungsblatt 1 Aufgabe 1a) Auffüllen von Attributen
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 7. Übungsblatt Aufgabe 1: Evaluierung und Kosten Gegeben sei ein Datensatz mit 300 Beispielen, davon 2 /3 positiv
MehrNaive Bayes. Naive Bayes
Naive Bayes Ein einfacher Klassifikator Wolfgang Konen Fachhochschule Köln November 007 W. Konen DMC WS007 Seite - 1 informatikö Inhalt Naive Bayes Der Ansatz Beispiel Wetterdaten Bayes sche Regel Das
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
MehrSplitting. Impurity. c 1. c 2. c 3. c 4
Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)
MehrEinführung in die Wahrscheinlichkeitsrechnung
Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrSEMINAR KLASSIFIKATION & CLUSTERING STATISTISCHE GRUNDLAGEN. Stefan Langer WINTERSEMESTER 2014/15.
SEMINAR KLASSIFIKATION & CLUSTERING WINTERSEMESTER 2014/15 STATISTISCHE GRUNDLAGEN Stefan Langer stefan.langer@cis.uni-muenchen.de Frequenz & Häufigkeit: Übersicht Absolute Häufigkeit Relative Häufigkeit
MehrSatz von der totalen Wahrscheinlichkeit
htw saar 1 Satz von der totalen Wahrscheinlichkeit Sei (Ω, P) ein Wahrscheinlichkeitsraum, und B 1,, B n seien paarweise disjunkte Ereignisse mit B i = Ω. Für jedes Ereignis A gilt dann: P(A) = P(A B 1
MehrDecision Tree Learning
Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 6. Übungsblatt Aufgabe 1 Gegeben sei eine Beispielmenge mit folgenden Eigenschaften: Jedes Beispiel ist durch 10 nominale Attribute A 1,...,
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrInduktion von Assoziationsregeln. Stefan Mandl
Induktion von Assoziationsregeln Stefan Mandl Inhalt Was sind Assoziationsregeln? Qualitätsbewertung Algorithmus Was sind Assoziationsregeln? Assoziationsregeln Assoziationsregeln beschreiben Korrelationen
MehrSatz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrKapitel MK:V. V. Diagnoseansätze
Kapitel MK:V V. Diagnoseansätze Diagnoseproblemstellung Diagnose mit Bayes Evidenztheorie von Dempster/Shafer Diagnose mit Dempster/Shafer Truth Maintenance Assumption-Based TMS Diagnosis Setting Diagnosis
MehrKapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente
Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine Universität Düsseldorf 29. Oktober 2009 Mengensprechweise Die Menge aller Elementarereignisse ist der Ereignisraum. Seine Teilmengen heißen
Mehrhtw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017
htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT htw saar 2 Gliederung 25.01. Bedingte Wahrscheinlichkeit: Motivation und Definition Multiplikationssatz Stochastische Unabhängigkeit:
MehrSatz 18 (Satz von der totalen Wahrscheinlichkeit)
Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte
MehrKapitel 5 Stochastische Unabhängigkeit
Kapitel 5 Stochastische Unabhängigkeit Vorlesung Wahrscheinlichkeitsrechnung I vom SoSe 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 5.1 Das Konzept der stochastischen Unabhängigkeit. 1 Herleitung anhand
MehrAllgemeine diskrete Wahrscheinlichkeitsräume II
6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete
MehrAllgemeine diskrete Wahrscheinlichkeitsräume I
6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete
MehrAllgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)
Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich
Mehr= 7! = 6! = 0, 00612,
Die Wahrscheinlichkeit, dass Prof. L. die Wette verliert, lässt sich wie folgt berechnen: Ω = {(i 1,..., i 7 ) : i j {1... 7}, j = 1... 7}, wobei i, j für den Wochentag steht, an dem die Person j geboren
MehrAufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen
Ü b u n g 1 Aufgabe 1 Die Ereignisse A, B und C erfüllen die Bedingungen P(A) = 0. 7, P(B) = 0. 6, P(C) = 0. 5 P(A B) = 0. 4, P(A C) = 0. 3, P(B C) = 0. 2, P(A B C) = 0. 1 Bestimmen Sie P(A B), P(A C),
MehrBayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L
Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator
MehrKapitel II - Wahrscheinlichkeitsraum
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel II - Wahrscheinlichkeitsraum Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie
MehrKapitel II - Wahrscheinlichkeitsraum
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel II - Wahrscheinlichkeitsraum Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
MehrZiegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem
Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Wahrscheinlichkeitsrechnung Theorie Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem,
MehrStochastik Grundlagen
Grundlegende Begriffe: Zufallsexperiment: Ein Experiment, das beliebig oft wiederholt werden kann. Die möglichen Ergebnisse sind bekannt, nicht jedoch nicht, welches Ergebnis ein einzelnes Experiment hat.
Mehr7. Kapitel: Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten
7. Kapitel: Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten 7.1 Zufallsvorgänge - zufälliges Geschehen/ Zufallsvorgang/ stochastische Vorgang: aus Geschehen/Vorgang/Experiment (mit gegebener Ausgangssituation)
MehrEinführung in die Wahrscheinlichkeitsrechnung
Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung
MehrTeil II. Wahrscheinlichkeitsrechnung
Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse
MehrTeil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129
Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse
MehrTeil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse
5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) Teil II Wahrscheinlichkeitsrechnung 5 Zufallsexperimente Ergebnisse Ereignisse Wahrscheinlichkeiten Deskriptive Statistik und Wahrscheinlichkeitsrechnung
MehrWahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele
Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Wahrscheinlichkeitstheorie Agenda:
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen II: Klassifikation mit Entscheidungsbäumen Vera Demberg Universität des Saarlandes 12. Juli 2012 Vera Demberg (UdS) Mathe III 12. Juli 2012 1 / 38 Einleitung
MehrWahrscheinlichkeitsrechnung und Statistik
3. Vorlesung - 21.10.2016 Bedingte Wahrscheinlichkeit In einer Urne sind 2 grüne und 3 blaue Kugeln. 2 Kugeln werden ohne Zürücklegen gezogen. Welches ist die Wahrscheinlichkeit, dass : a) man eine grüne
Mehr6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)
6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden
MehrGrundbegriffe. Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse
Grundbegriffe Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse 33 Mengenschreibweise von Ereignissen - Rechenregeln: (1)
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω 2 3 8 N Wir definieren
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen. Bsp (3-maliges Werfen einer Münze) Menge der Elementarereignisse:
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen Bsp. 1.19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz, zzw,zwz,wzz,zww,wzw,wwz,www}. Dabei gilt: Ω 2 3 8 N. Wir definieren
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
MehrPopulation und Stichprobe: Wahrscheinlichkeitstheorie
Population und Stichprobe: Wahrscheinlichkeitstheorie SS 2001 4. Sitzung vom 15.05.2001 Wahrscheinlichkeitstheorie in den Sozialwissenschaften: Stichprobenziehung: Aussagen über Stichprobenzusammensetzung
MehrEinführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte
Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 2
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/14 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie svorschläge
Mehr3. Grundbegriffe der Wahrscheinlichkeitstheorie
03. JULI 2006: BLATT 17 3. Grundbegriffe der Wahrscheinlichkeitstheorie (v.a. nach Manning/Schütze: 40ff und Fahrmeir /Künstler/Pigeot/Tutz: 171ff) Übersicht Um entscheiden zu können, ob eine statistische
MehrVorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie
Kapitel 4 Christoph Hindermann Vorkurs Mathematik 1 4.0 Motivation Wenn 100 Münzen geworfen werden, wie ist dann die Wahrscheinlichkeit, dass genau 50 davon Kopf zeigen? Angenommen, es befinden sich 300
MehrKapitel N. Wahrscheinlichkeitsrechnung
Kapitel N Wahrscheinlichkeitsrechnung Inhalt dieses Kapitels N000 1 Diskrete Wahrscheinlichkeitsräume 2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 1 Produktexperimente 2 Kombinatorik und Urnenmodelle
MehrWahrscheinlichkeitsrechnung und Statistik. 8. Vorlesung
Wahrscheinlichkeitsrechnung und Statistik 8. Vorlesung - 208 ) Monte Carlo Methode für numerische Integration Sei g : [0, ] R stetige Funktion; man möchte numerisch approximieren mit Hilfe von Zufallszahlen:
MehrÜbungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression
Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen
MehrP (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.
2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 1
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/ Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie svorschläge zu
MehrLösungen Wahrscheinlichkeitstheorie
Lösungen Wahrscheinlichkeitstheorie Serie 6 Aufgabe 1 (stochastische Unabhängigkeit). Für die Ereignisse A, B und C sind folgende Wahrscheinlichkeiten bekannt: P (A) = 0, 2; P (B) = 0, 6; P (A \ B) = 0,
MehrData Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 12. Übungsblatt
Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 12. Übungsblatt 9. Februar 2016 1 Aufgabe 1: RelieF (1) Gegeben sind folgende 12 Beispiele der Wetter-Daten: ID outlook
MehrMathe-Camp 2017 Stochastik: Geometrische Wahrscheinlichkeiten
Mathe-Camp 2017 Stochastik: Geometrische Wahrscheinlichkeiten Jo rn Saß, sass@mathematik.uni-kl.de Fachbereich Mathematik, TU Kaiserslautern Arbeitsgruppe Stochastische Steuerung und Finanzmathematik Kaiserslautern
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrWahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)
Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung
MehrKapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit
Teil I: Wahrscheinlichkeitstheorie 1 Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 3: Bedingte Wahrscheinlichkeit Kapitel 4: Zufallsvariablen Kapitel 5: Erwartungswerte, Varianz, Kovarianz
MehrStochastik - Kapitel 2
" k " h(a) n = bezeichnet man als die relative Häufigkeit des Ereignisses A bei n Versuchen. n (Anmerkung: für das kleine h wird in der Literatur häufig auch ein r verwendet) k nennt man die absolute Häufigkeit
MehrLösungsskizzen zur Präsenzübung 04
Lösungsskizzen zur Präsenzübung 04 Hilfestellung zur Vorlesung Anwendungen der Mathematik im Wintersemester 2015/2016 Fakultät für Mathematik Universität Bielefeld Veröffentlicht am 23. November 2015 von:
MehrZusammenfassung Stochastik
Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl
MehrEntscheidungsbaum-Lernen: Übersicht
Entscheidungsbaum-Lernen: Übersicht Entscheidungsbäume als Repräsentationsformalismus Semantik: Klassifikation Lernen von Entscheidungsbäumen vollst. Suche vs. TDIDT Tests, Ausdrucksfähigkeit Maße: Information
MehrWelche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?
2. Übung: Wahrscheinlichkeitsrechnung Aufgabe 1 Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? a) P ist nichtnegativ. b) P ist additiv. c) P ist multiplikativ.
MehrSatz 16 (Multiplikationssatz)
Haug verwendet man die Denition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A \ B] = Pr[BjA] Pr[A] = Pr[AjB] Pr[B] : (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1 ; : : : ; A n
MehrBedingte Wahrscheinlichkeiten
Bedingte Wahrscheinlichkeiten Bei der Betrachtung der Ereignisse A und B eines Zufallsexperiments muss man die beiden im folgendem beschrieben zwei Situationen unterscheiden. 1. Das Ereignis A und B tritt
MehrLehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007
. Grundlagen der Wahrscheinlichkeitstheorie. Zufallsereignisse, Ereignisraum und Ereignismenge Zufallsexperiment: nach einer bestimmten Vorschrift ausgeführter, unter gleichen edingungen beliebig oft wiederholbarer
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω = {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω = 2 3 = 8 = N
MehrWelche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?
2. Übung: Wahrscheinlichkeitsrechnung Aufgabe 1 Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? a) P ist nichtnegativ. b) P ist additiv. c) P ist multiplikativ.
MehrWahrscheinlichkeitstheorie und Naive Bayes
Wahrscheinlichkeitstheorie und Naive Bayes Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 12.05.2011 Caroline Sporleder Naive Bayes (1) Elementare Wahrscheinlichkeitstheorie
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Grundlagen Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2016 1 / 21 Diskrete Wahrscheinlichkeitsräume (1) Carstensen et al. (2010), Abschnitt
MehrInstitut für Stochastik, SoSe K L A U S U R , 8:00-11:00. Aufgabe Punkte erreichte Punkte Korrektur
Institut für Stochastik, SoSe 2014 Mathematische Statistik Paravicini/Heusel 2. K L A U S U R 29.9.2014, 8:00-11:00 Name: Geburtsdatum: Vorname: Matrikelnummer: Übungsgruppe bei: Studiengang & angestrebter
MehrGrundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt
Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum
MehrMathematische und statistische Methoden II
Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206 Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrSprechstunde zur Klausurvorbereitung
htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
MehrKapitel ML: III. III. Entscheidungsbäume. Repräsentation und Konstruktion Impurity-Funktionen Entscheidungsbaumalgorithmen Pruning
Kapitel ML: III III. Entscheidungsbäume Repräsentation und Konstruktion Impurity-Funktionen Entscheidungsbaumalgorithmen Pruning ML: III-1 Decision Trees c STEIN/LETTMANN 2005-2011 Spezifikation von Klassifikationsproblemen
Mehr2. Rechnen mit Wahrscheinlichkeiten
2. Rechnen mit Wahrscheinlichkeiten 2.1 Axiome der Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitsrechnung ist ein Teilgebiet der Mathematik. Es ist üblich, an den Anfang einer mathematischen Theorie
MehrÜbungsaufgaben, Statistik 1
Übungsaufgaben, Statistik 1 Kapitel 3: Wahrscheinlichkeiten [ 4 ] 3. Übungswoche Der Spiegel berichtet in Heft 29/2007 von folgender Umfrage vom 3. und 4. Juli 2007:,, Immer wieder werden der Dalai Lama
MehrDas Ziegenproblem. Nils Schwinning und Christian Schöler Juni 2010
Das Ziegenproblem Nils Schwinning und Christian Schöler http://www.esaga.uni-due.de/ Juni 2010 Die Formulierung Obwohl das sogenannte Ziegenproblem in der Mathematik allgegenwärtig erscheint, wurde es
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
Mehr