Kapitel VI. Wahrscheinlichkeitsbegriff. Wahrscheinlichkeitsbegriff. LF: VI Bayesian Learning c STEIN

Größe: px
Ab Seite anzeigen:

Download "Kapitel VI. Wahrscheinlichkeitsbegriff. Wahrscheinlichkeitsbegriff. LF: VI Bayesian Learning c STEIN"

Transkript

1 Kapitel VI VI. Bayes sches Lernen Maximum-a-Posteriori-Hypothesen 1 Definition 18 (Zufallsexperiment, Zufallsbeobachtung) Ein Zufallsexperiment ist ein im Prinzip beliebig oft wiederholbarer Vorgang mit folgenden Eigenschaften: 1. Anordnung: durch eine Beschreibung festgelegte reproduzierbare Gegebenheit Der Vorgang kann mehrmalig mit demselben System oder einmalig mit gleichartigen Systemen durchgeführt werden. Auch Zufallsexperimente laufen kausal im Sinne von Ursache und Wirkung ab. Die Zufälligkeit des Ergebnisses beruht nur auf dem Fehlen von Informationen über die Ursachenkette. Somit kann ein Zufallsexperiment durch neue Erkenntnisse sein ganze Zufälligkeit verlieren. 2. Prozedur: Vorgehen zur Durchführung des Experiments mit der Anordnung 3. Unvorhersagbarkeit des Resultats Werden Anordnung und Prozedur nicht künstlich geschaffen, so spricht man von natürlichen Zufallsexperimenten bzw. von Zufallsbeobachtungen. 2 2a Definition 19 (Ergebnisraum, Ereignisraum) Eine Menge Ω={ω 1,ω 2,..., ω n} heißt Ergebnisraum eines Zufallsexperiments, wenn jedem Versuchsausgang höchstens ein Element ω Ω zugeordnet ist. Die Elemente von Ω heißen Ergebnisse. Jede Teilmenge A eines Ergebnisraums Ω heißt Ereignis. Ein Ereignis A tritt genau dann ein, wenn ein Ergebnis ω vorliegt mit ω A. Die Menge aller Ereignisse P(Ω) heißt Ereignisraum. 3

2 Definition 19 (Ergebnisraum, Ereignisraum) Eine Menge Ω={ω 1,ω 2,..., ω n} heißt Ergebnisraum eines Zufallsexperiments, wenn jedem Versuchsausgang höchstens ein Element ω Ω zugeordnet ist. Die Elemente von Ω heißen Ergebnisse. Jede Teilmenge A eines Ergebnisraums Ω heißt Ereignis. Ein Ereignis A tritt genau dann ein, wenn ein Ergebnis ω vorliegt mit ω A. Die Menge aller Ereignisse P(Ω) heißt Ereignisraum. Definition 20 (wichtige Ereignistypen) Sei Ω ein Ergebnisraums, A Ω und B Ω zwei Ereignisse. Dann sei vereinbart: heißt unmögliches, Ω heißt sicheres Ereignis Ω \ A =: A heißt Gegenereignis zu A A =1 A heißt Elementarereignis A B A heißt Teilereignis von B bzw. A zieht B nach sich A = B (A B B A) A B = A und B sind unvereinbar (ansonsten vereinbar) 3 Klassische Begriffsbildung Empirisches Gesetz der großen Zahlen: Es gibt Ereignisse, deren relative Häufigkeit nach einer hinreichend großen Anzahl von Versuchen ungefähr gleich einem festen Zahlenwert ist. 4

3 Klassische Begriffsbildung Empirisches Gesetz der großen Zahlen: Es gibt Ereignisse, deren relative Häufigkeit nach einer hinreichend großen Anzahl von Versuchen ungefähr gleich einem festen Zahlenwert ist. Definition 21 (klassischer / Laplace scher ) Wird jedem Elementarereignis aus Ω die gleiche Wahrscheinlichkeit zugeordnet, so gilt für die Wahrscheinlichkeit P (A) eines Ereignisses A: P (A) = A Anzahl der für A günstigen Elementarereignisse = Ω Anzahl aller möglichen Elementarereignisse Ein Zufallsexperiment, bei dem auf Basis einer Analyse der Anordnung und Prozedur angenommen werden kann, daß alle Ergebnisse gleich wahrscheinlich sind heißt Laplace- Experiment. Die Wahrscheinlichkeiten der Ergebnisse heißen Laplace- Wahrscheinlichkeiten. Laplace-Annahme: Annahme, daß es sich bei einem Experiment um ein Laplace- Experiment handelt. Trifft die Laplace-Annahme nicht zu, so können die Wahrscheinlichkeiten nur als relative Häufigkeiten bei der Durchführung vieler Versuche geschätzt werden. Strenggenommen handelt es sich bei der Definition des Laplace scher s nicht um eine Definition. Motiviert durch das empirische Gesetz der großen Zahlen wurde versucht, den frequentistisch, über den (fiktiven) Grenzwert der relativen Häufigkeit zu definieren (hier insbesondere v. Mises, 1951). Dieser Versuch scheiterte, weil dieser Grenzwert im Gegensatz zu Grenzwerten in der Infinitesimalrechnung nicht nachweisbar ist. 4 4a Axiomatische Begriffsbildung 1. Postulierung einer Funktion, die jedem Element des Ereignisraums eine Wahrscheinlichkeit zuordnet. 2. Formulierung grundlegender Eigenschaften dieser Funktion in Form von Axiomen. Definition 22 (Wahrscheinlichkeitsmaß) Sei Ω eine Menge, genannt Ergebnisraum, und sei P(Ω) die Menge aller Ereignisse, genannt Ereignisraum. Dann heißt eine Funktion P : P(Ω) R, die jedem Ereignis A P(Ω) eine relle Zahl P (A) zuordnet, Wahrscheinlichkeitsmaß, wenn sie folgende Eigenschaften besitzt: 1. P (A) 0 (Axiom I) 2. P (Ω) = 1 (Axiom II) 3. A B = P (A B) =P (A) +P (B) (Axiom III) [Kolmogorow 1933] 5 Axiomatische Begriffsbildung Definition 23 (Wahrscheinlichkeitsraum) Sei Ω ein Ergebnisraum, P(Ω) ein Ereignisraum und P : P(Ω) R ein Wahrscheinlichkeitsmaß. Dann heißt das Paar Ω,P bzw. das Tripel Ω, P(Ω),P Wahrscheinlichkeitsraum. Die drei Axiome heißen auch das Axiomensystem von Kolmogorow. P (A) wird als Wahrscheinlichkeit für das Eintreffen von A bezeichnet. Es ist nicht definiert, wie die Wahrscheinlichkeiten P verteilt sind. Allgemein nennt man eine Funktion, welche die drei Bedingungen der Definition erfüllt, ein nicht-negatives, normiertes und additives Maß. Satz 5 (Folgerungen der Axiome von Kolmogorov) 1. P (A) +P (A) =1 (aus Axiomen II und III) 2. P ( ) =0 (aus 1. mit A =Ω) 3. Monotoniegesetz des Wahrscheinlichkeitsmaßes: A B P (A) P (B) (aus Axiomen I und II) 4. P (A B) =P (A) +P (B) P (A B) (aus Axiom III) 5. Seien A 1,A 2..., A p paarweise unvereinbar, dann gilt: P (A 1 A 2... A p)=p (A 1)+P (A 2) P (A p) 6a 6

4 Bedingte Wahrscheinlichkeiten Definition 24 (bedingte Wahrscheinlichkeit) Seien Ω, P(Ω),P ein Wahrscheinlichkeitsraum und A, B P(Ω) zwei Ereignisse. Die Wahrscheinlichkeit, daß A eintritt, wenn man bereits weiß, daß B eingetreten ist, ist wie folgt definiert: P (A B) P (A B) =, falls P (B) > 0 P (B) P (A B) heißt bedingte Wahrscheinlichkeit für A unter der Bedingung B. 7 Bedingte Wahrscheinlichkeiten Satz 6 (totale Wahrscheinlichkeit) Seien Ω, P(Ω),P ein Wahrscheinlichkeitsraum, B 1,..., B k disjunkte Ereignisse mit Ω=B 1... B k, P (B i) > 0, i =1,..., k, und A P(Ω). Dann gilt: P (A) = P (B i) P (A B i) 8 Bedingte Wahrscheinlichkeiten Satz 6 (totale Wahrscheinlichkeit) Seien Ω, P(Ω),P ein Wahrscheinlichkeitsraum, B 1,..., B k disjunkte Ereignisse mit Ω=B 1... B k, P (B i) > 0, i =1,..., k, und A P(Ω). Dann gilt: P (A) = P (B i) P (A B i) Beweisidee P (A) = P (Ω A) Die bedingte Wahrscheinlichkeit P (A B) erfüllt für variables A und festes B die Axiome von Kolmogorov und stellt ein Wahrscheinlichkeitsmaß dar. Im allgemeinen gilt P (A B) 1 P (A B). Wichtige Folgerungen aus der Definition der bedingten Wahrscheinlichkeit: 1. P (A B) =P (B) P (A B) (Multiplikationsregel) 2. P (A B) =P (B A) =P (A) P (B A) 3. P (B) P (A B) =P (A) P (B A) P (A B) P (B) P (A B) P (B A) = = P (A) P (A) 4. P (A B) =1 P (A B) = P ((B 1... B k) A) = P ((B 1 A)... (B k A)) = P (B i A) = P (A B i) = P (B i) P (A B i) 8 8a

5 Unabhängigkeit von Ereignissen Definition 25 (stochastische Unabhängigkeit von zwei Ereignissen) Seien Ω, P(Ω),P ein Wahrscheinlichkeitsraum und A, B P(Ω) zwei Ereignisse. A und B heißen stochastisch unabhängig (bei P ) genau dann, wenn gilt: P (A B) =P (A) P (B) Produktregel Mit 0 <P(B) < 1 gelten folgende Äquivalenzen: P (A B) = P (A) P (B) P (A B) = P (A B) P (A B) = P (A) 9 Unabhängigkeit von Ereignissen Definition 26 (stochastische Unabhängigkeit von m Ereignissen) Seien Ω, P(Ω),P ein Wahrscheinlichkeitsraum und A 1,..., A p P(Ω) Ereignisse. A 1,..., A p heißen gemeinsam stochastisch unabhängig (bei P ) genau dann, wenn für alle Teilmengen {A i1,..., A il } aus {A 1,..., A p} mit i 1 <i 2 <... < i l und 2 l m die Produktregel gilt: P (A i1... A il )=P(A i1 )... P (A il ) 10

6 Kapitel VI VI. Bayes sches Lernen Maximum-a-Posteriori-Hypothesen 11 Satz 5 (Bayes) Seien Ω, P(Ω),P ein Wahrscheinlichkeitsraum, B 1,..., B k disjunkte Ereignisse mit Ω=B 1... B k, P (B i) > 0, i =1,..., k, und A P(Ω) mit P (A) > 0. Dann gilt: P (B i) P (A B i) P (B i A) = k P (Bi) P (A Bi) P (B i) heißt a-priori-wahrscheinlichkeit von B i. P (B i A) heißt a-posteriori-wahrscheinlichkeit von B i. 12 Satz 5 (Bayes) Seien Ω, P(Ω),P ein Wahrscheinlichkeitsraum, B 1,..., B k disjunkte Ereignisse mit Ω=B 1... B k, P (B i) > 0, i =1,..., k, und A P(Ω) mit P (A) > 0. Dann gilt: Anwendung zur Klassifikation: Aus den a-priori-wahrscheinlichkeiten für die Klassen, P (Klasse=C), und den Wahrscheinlichkeiten für Kausalzusammenhänge, P (Attribut=Wert Klasse=C), läßt sich in einer Umkehrschlußsituation mittels Bayes die Wahrscheinlichkeit P (Klasse=C Attribut=Wert) berechnen. Klassen und Attribut-Wert-Paare werden als Ereignisse aufgefaßt; Ereignisse sind Teilmengen eines Ergebnisraums Ω={ω 1,..., ω n }. P (B i) P (A B i) P (B i A) = k P (Bi) P (A Bi) P (B i) heißt a-priori-wahrscheinlichkeit von B i. P (B i A) heißt a-posteriori-wahrscheinlichkeit von B i. Beweisidee Aus der Multiplikationsregel für P (A B i) und P (B i A) folgt: P (A Bi) P (Bi) P (A Bi) P (B i A) = = P (A) P (A) Anwendung des Satzes der totalen Wahrscheinlichkeit für P (A) im Nenner des Bruches gibt die Behauptung a

7 Satz von Bayes für kombinierte Ereignisse Bezeichne P (B i A 1,..., A p) die Wahrscheinlichkeit für das Eintreten von Ereignis B i unter der Voraussetzung, daß die Ereignisse A 1,..., A p eingetreten sind. Anwendung zur Klassifikation: die A j, j =1,..., p, stehen für Ereignisse der Form Attribut_j=Wert_j, die B i, i =1,..., k, stehen für Ereignisse der Form Klasse=C_i Kausalzusammenhang: A 1,..., A p B i Umkehrschlußsituation: B i A 1,..., A p 13 Satz von Bayes für kombinierte Ereignisse Bezeichne P (B i A 1,..., A p) die Wahrscheinlichkeit für das Eintreten von Ereignis B i unter der Voraussetzung, daß die Ereignisse A 1,..., A p eingetreten sind. Anwendung zur Klassifikation: P (B i A 1,..., A p ) heißt bedingte Wahrscheinlichkeit für B i unter den Bedingungen A 1,..., A p. Andere Schreibweisen für P (B i A 1,..., A p ): P (B i A 1... A p ), P (B i A 1... A p ) Kausalzusammenhang: Es wird (wurde in der Vergangenheit) immer wieder festgestellt, daß in der Situation B i die Symptome A 1,..., A p beobachtbar sind. Umkehrschlußsituation: Beobachtet werden die Symptome A 1,..., A p ; gesucht ist die Wahrscheinlichkeit für das Vorliegen von B i. die A j, j =1,..., p, stehen für Ereignisse der Form Attribut_j=Wert_j, die B i, i =1,..., k, stehen für Ereignisse der Form Klasse=C_i Kausalzusammenhang: A 1,..., A p B i Umkehrschlußsituation: B i A 1,..., A p Wenn sich Daten zur Berechnung von P (B i) und P (A 1,..., A p B i) akquirieren lassen, läßt sich P (B i A 1,..., A p) mit dem Satz von Bayes berechnen: P (Bi) P (A1,..., Ap Bi) P (B i A 1,..., A p)= ( ) P (A 1,..., A p) 13 13a Naive-Bayes Der Aufbau einer Datenbasis, um verläßliche Werte für P (A 1,..., A p B i) schätzen zu können, ist in der Praxis unmöglich. Ausweg durch die Naive-Bayes-Assumption : Unter dem Ereignis (der Bedingung) B i sind die Ereignisse A 1,..., A p stochastisch unabhängig. p P (A 1,..., A p B i)= P (A j B i) j=1 14

8 Naive-Bayes Der Aufbau einer Datenbasis, um verläßliche Werte für P (A 1,..., A p B i) schätzen zu können, ist in der Praxis unmöglich. Ausweg durch die Naive-Bayes-Assumption : Unter dem Ereignis (der Bedingung) B i sind die Ereignisse A 1,..., A p stochastisch unabhängig. p P (A 1,..., A p B i)= P (A j B i) j=1 Trifft die Naive-Bayes-Assumption zu, so maximiert B NB auch die a-posteriori- Wahrscheinlichkeit P (B NB A 1,..., A p ), die mit dem Satz von Bayes ( ) berechnet wird. Das Lernen bei einem Naive- besteht in der Schätzung der a-priori- Wahrscheinlichkeiten P (B i ) und der Wahrscheinlichkeiten für Kausalzusammenhänge P (A j B i ) auf Basis von Traningsdaten D. Die geschätzten Wahrscheinlichkeiten entsprechen der gelernten Hypothese, die dazu verwendet wird, neue Beispiele gemäß der Optimierungsformel für B NB zu klassifizieren. Der Hypothesenraum H besteht aus der Menge aller Werte, die P (B i ) und P (A j B i ) annehmen können. Beachte, daß bei der Konstruktion eines Naive-Bayes- Classifiers der Hypothesenraum H nicht durchsucht wird, sondern daß sich die gesuchte Hypothese direkt aus einer Häufigkeitsanalyse von D berechnet. Die Wahrscheinlichkeit P (A 1,..., A p) ist eine Konstante und braucht nicht bekannt zu sein, um das unter der Naive-Bayes-Assumption wahrscheinlichste Ereignis B NB {B 1,..., B k} mit Hilfe von Bayes zu bestimmen: P (B i) P (A 1,..., A p B i) argmax B i {B 1,...,B k} P (A 1,..., A p) p argmax B i {B 1,...,B k} P (B i) j=1 NB = P (A j B i)=b NB 14 14a Naive-Bayes Wird weiterhin vorausgesetzt: die Menge der B i ist vollständig: P (B i)=1 die B i schließen sich gegenseitig aus: P (B i,b j)=0, 1 i, j k, i j 15 Naive-Bayes Wird weiterhin vorausgesetzt: die Menge der B i ist vollständig: dann gilt: P (B i)=1 die B i schließen sich gegenseitig aus: P (B i,b j)=0, 1 i, j k, i j P (A 1,..., A p) = P (B i) P (A 1,..., A p B i) p = P (B i) P (A j B i) j=1 (totale Wahrscheinlichkeit) (Naive-Bayes-Assumption) 15

9 Naive-Bayes Wird weiterhin vorausgesetzt: die Menge der B i ist vollständig: P (B i)=1 die B i schließen sich gegenseitig aus: P (B i,b j)=0, 1 i, j k, i j Auf Basis von argmax P (B i ) p P (A j=1 j B i ) läßt sich eine Rangordnung B i {B 1,...,B k} zwischen den Ereignissen B i berechnen. Unter bestimmten Voraussetzungen lassen sich die Rangordnungswerte der B i in die a- Posteriori-Wahrscheinlichkeiten P (B i A 1,..., A p ) umrechnen. Kann nämlich Vollständigkeit und Exklusivität der B i angenommen werden, so gilt, daß die Summe aller a-posteriori-wahrscheinlichkeiten Eins sein muß, in Zeichen: k P (B i A 1,..., A p )=1. Damit ergeben sich die Wahrscheinlichkeiten aus den Rangordnungswerten durch Normalisierung (Division) mit der Summe ( ) aller Rangordnungswerte. dann gilt: P (A 1,..., A p) = P (B i) P (A 1,..., A p B i) p = P (B i) P (A j B i) j=1 (totale Wahrscheinlichkeit) (Naive-Bayes-Assumption) und es folgt für die bedingten Wahrscheinlichkeiten: P (Bi) P (A1,..., Ap Bi) P (B i A 1,..., A p) = = P (A 1,..., A p) P (B i) p j=1 P (Aj Bi) p P (Bi) j=1 P (Aj Bi) ( ) k 15 15a Naive-Bayes: Zusammenfassung Sei D eine Menge von Trainingsbeispielen der Form x,c(x) ; diek Ausprägungen (Klassen) des Zielkonzeptes c werden als Ereignisse B 1,..., B k aufgefaßt, die Ausprägungen (Werte) der m = dim(x) Attribute als Ereignisse A 1,..., A m. Konstruktion und Anwendung eines Naive-s: 1. Schätzung von P (B i) auf Basis der relativen Häufigkeiten in D durch p(b i) 2. Schätzung von P (A j B i) auf Basis der relativen Häufigkeiten in D durch p(a j B i) 3. Klassifikation eines neuen Beispiels x als B NB, mit B NB = argmax p(b i) p(a j B i) B i {B 1,...,B k} A j x j=1,...,p 4. Berechnung der a-posteriori-wahrscheinlichkeit für B NB durch Normalisieren von p(b NB) A j x p(aj BNB) 16 Die echten Wahrscheinlichkeiten P sind unbekannt und werden durch die relativen Häufigkeiten, in Zeichen p, geschätzt. Naive-Bayes ist angesagt für Trainingsmengen D, die mittelgroß bis sehr groß sind. Naive-Bayes fordert, daß die Attributausprägungen der Beispiele stochastisch unabhängig von den Ausprägungen des Zielkonzeptes sind. Die Praxis hat gezeigt, daß auch bei Verletzung der Naive-Bayes-Assumption hervorragende Klassifikationsergebnisse mit einem Naive- erzielbar sind. Beispiel: Textklassifikation Möchte man nicht nur Rangordnungswerte sondern auch a-posteriori- Wahrscheinlichkeiten berechnen, wird noch die Closed-World-Assumption (Vollständigkeit der B i ) und die Single-Fault-Assumption (gegenseitiger Ausschluß der B i ) gefordert. Insgesamt muß gelten, daß sich die betrachtete Welt nur langsam ändert: die statistischen Daten müssen über einen längeren Zeitraum relativ konstant bleiben. 16a

10 Naive-Bayes: Beispiel Outlook Temperature Humidity Wind PlayTennis 1 sunny hot high weak no 2 sunny hot high strong no 3 overcast hot high weak yes 4 rain mild high weak yes 5 rain cold normal weak yes 6 rain cold normal strong no 7 overcast cold normal strong yes 8 sunny mild high weak no 9 sunny cold normal weak yes 10 rain mild normal weak yes 11 sunny mild normal strong yes 12 overcast mild high strong yes 13 overcast hot normal weak yes 14 rain mild nigh strong no Die Wert des Zielkonzeptes der folgenden Instanz x sei unbekannt: x = Outlook=sunny, Temperature=cool, Humidity=high, Wind=strong 17 Naive-Bayes: Beispiel (Fortsetzung) B NB = argmax p(b i) p(a j B i) A j x = argmax p(b i) p(outlook=sunny B i)... A j x bezeichnet die Ereignisse {x Outlook(x) =sunny }, {x Temperature(x) =cool}, {x Humidity(x) =high}, {x Wind(x) =strong} a Naive-Bayes: Beispiel (Fortsetzung) B NB = argmax p(b i) p(a j B i) A j x = argmax p(b i) p(outlook=sunny B i)... Zur Klassifikation von x sind 10 Wahrscheinlichkeiten zu schätzen: p(playtennis=yes) = 9 14 =0.64 p(playtennis=no) = 5 14 =0.36 p(wind=strong PlayTennis=yes) = 3 9 =

11 Naive-Bayes: Beispiel (Fortsetzung) B NB = argmax p(b i) p(a j B i) A j x = argmax p(b i) p(outlook=sunny B i)... Zur Klassifikation von x sind 10 Wahrscheinlichkeiten zu schätzen: p(playtennis=yes) = 9 14 =0.64 p(playtennis=no) = 5 14 =0.36 p(wind=strong PlayTennis=yes) = 3 9 = Rangordnung: 1. p(playtennis=no) A j x p(aj PlayTennis=no) = p(playtennis=yes) A j x p(aj PlayTennis=yes) = Normalisierung: P (PlayTennis=no x) = =

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,

Mehr

Kapitel ML:IV (Fortsetzung)

Kapitel ML:IV (Fortsetzung) Kapitel ML:IV (Fortsetzung) IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-18 Statistical Learning c STEIN 2005-2011 Satz 3 (Bayes)

Mehr

Diagnose. Statistische Diagnose. Statistische Diagnose. Statistische Diagnose. Einordnung: Diagnose Problemklasse Analyse

Diagnose. Statistische Diagnose. Statistische Diagnose. Statistische Diagnose. Einordnung: Diagnose Problemklasse Analyse Statistische Einordnung: Problemklasse Analyse Kernfrage bzgl. der Modellierung: Wieviel ist bekannt über das zu diagnostizierende System? Begriffe der : System. Ausschnitt aus der realen Welt. Hier: System

Mehr

Teil II. Wahrscheinlichkeitsrechnung

Teil II. Wahrscheinlichkeitsrechnung Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

Teil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129

Teil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129 Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) Teil II Wahrscheinlichkeitsrechnung 5 Zufallsexperimente Ergebnisse Ereignisse Wahrscheinlichkeiten Deskriptive Statistik und Wahrscheinlichkeitsrechnung

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie Kapitel 4 Christoph Hindermann Vorkurs Mathematik 1 4.0 Motivation Wenn 100 Münzen geworfen werden, wie ist dann die Wahrscheinlichkeit, dass genau 50 davon Kopf zeigen? Angenommen, es befinden sich 300

Mehr

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007 . Grundlagen der Wahrscheinlichkeitstheorie. Zufallsereignisse, Ereignisraum und Ereignismenge Zufallsexperiment: nach einer bestimmten Vorschrift ausgeführter, unter gleichen edingungen beliebig oft wiederholbarer

Mehr

4. Die Laplacesche Gleichverteilung

4. Die Laplacesche Gleichverteilung Universität Basel Wirtschaftswissenschaftliches Zentrum Grundlagen der Stochastik Dr. Thomas Zehrt Inhalt: 1. Die Ereignismenge 2. Die Wahrscheinlichkeitsverteilung 3. Eigenschaften einer Wahrscheinlichkeitsverteilung

Mehr

Stochastik für Ingenieure

Stochastik für Ingenieure Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:

Mehr

Kapitel 2 Wahrscheinlichkeitsrechnung

Kapitel 2 Wahrscheinlichkeitsrechnung Motivation bisher: Beschreibung von Datensätzen = beobachteten Merkmalsausprägungen Frage: Sind Schlußfolgerungen aus diesen Beobachtungen möglich? Antwort: Ja, aber diese gelten nur mit einer bestimmten

Mehr

2.2 Ereignisse und deren Wahrscheinlichkeit

2.2 Ereignisse und deren Wahrscheinlichkeit 2.2 Ereignisse und deren Wahrscheinlichkeit Literatur: [Papula Bd., Kap. II.2 und II.], [Benning, Kap. ], [Bronstein et al., Kap. 1.2.1] Def 1 [Benning] Ein Zufallsexperiment ist ein beliebig oft wiederholbarer,

Mehr

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Rumpfskript Elementare Wahrscheinlichkeitsrechnung Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Vorbemerkung Vorbemerkung Das vorliegende Skript heißt nicht nur Rumpf skript, sondern

Mehr

Dr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung

Dr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung Vorlesungscharts Vorlesung 1 Grundbegriffe der Wahrscheinlichkeitsrechnung Zufallsvorgänge und Zufallsereignisse Definitionen der Wahrscheinlichkeit Seite 1 von 11 Chart 1: Vorgänge deterministisch zufällig

Mehr

Satz von der totalen Wahrscheinlichkeit

Satz von der totalen Wahrscheinlichkeit htw saar 1 Satz von der totalen Wahrscheinlichkeit Sei (Ω, P) ein Wahrscheinlichkeitsraum, und B 1,, B n seien paarweise disjunkte Ereignisse mit B i = Ω. Für jedes Ereignis A gilt dann: P(A) = P(A B 1

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 1 Vorbemerkungen

Mehr

Zusammenfassung Stochastik

Zusammenfassung Stochastik Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl

Mehr

1 Elementare Wahrscheinlichkeitstheorie

1 Elementare Wahrscheinlichkeitstheorie 1 Elementare Wahrscheinlichkeitstheorie 1.1 Zufallsexperiment Definition 1.1. Ein Zufallsexperiment ist ein Vorgang, der im Prinzip beliebig oft unter identischen Randbedingungen wiederholt werden kann.

Mehr

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis Stochastische Prozesse: Grundlegende Begriffe bei zufälligen Prozessen In diesem Abschnitt beschäftigen wir uns mit den grundlegenden Begriffen und Definitionen von Zufallsexperimenten, also Prozessen,

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Satz 18 (Satz von der totalen Wahrscheinlichkeit) Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte

Mehr

7. Kapitel: Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten

7. Kapitel: Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten 7. Kapitel: Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten 7.1 Zufallsvorgänge - zufälliges Geschehen/ Zufallsvorgang/ stochastische Vorgang: aus Geschehen/Vorgang/Experiment (mit gegebener Ausgangssituation)

Mehr

Grundbegriffe. Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse

Grundbegriffe. Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse Grundbegriffe Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse 33 Mengenschreibweise von Ereignissen - Rechenregeln: (1)

Mehr

Kapitel 5 Stochastische Unabhängigkeit

Kapitel 5 Stochastische Unabhängigkeit Kapitel 5 Stochastische Unabhängigkeit Vorlesung Wahrscheinlichkeitsrechnung I vom SoSe 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 5.1 Das Konzept der stochastischen Unabhängigkeit. 1 Herleitung anhand

Mehr

Maschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt

Maschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt Maschinelles Lernen: Symbolische Ansätze Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt 1 Aufgabe 1 Nearest Neighbour Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit

Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit Teil I: Wahrscheinlichkeitstheorie 1 Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 3: Bedingte Wahrscheinlichkeit Kapitel 4: Zufallsvariablen Kapitel 5: Erwartungswerte, Varianz, Kovarianz

Mehr

SEMINAR KLASSIFIKATION & CLUSTERING STATISTISCHE GRUNDLAGEN. Stefan Langer WINTERSEMESTER 2014/15.

SEMINAR KLASSIFIKATION & CLUSTERING STATISTISCHE GRUNDLAGEN. Stefan Langer WINTERSEMESTER 2014/15. SEMINAR KLASSIFIKATION & CLUSTERING WINTERSEMESTER 2014/15 STATISTISCHE GRUNDLAGEN Stefan Langer stefan.langer@cis.uni-muenchen.de Frequenz & Häufigkeit: Übersicht Absolute Häufigkeit Relative Häufigkeit

Mehr

3. Grundbegriffe der Wahrscheinlichkeitstheorie

3. Grundbegriffe der Wahrscheinlichkeitstheorie 03. JULI 2006: BLATT 17 3. Grundbegriffe der Wahrscheinlichkeitstheorie (v.a. nach Manning/Schütze: 40ff und Fahrmeir /Künstler/Pigeot/Tutz: 171ff) Übersicht Um entscheiden zu können, ob eine statistische

Mehr

Stochastik Grundlagen

Stochastik Grundlagen Grundlegende Begriffe: Zufallsexperiment: Ein Experiment, das beliebig oft wiederholt werden kann. Die möglichen Ergebnisse sind bekannt, nicht jedoch nicht, welches Ergebnis ein einzelnes Experiment hat.

Mehr

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 1. und 2. Vorlesung - 2017 Im Alltag... Laut den meteorologischen Vorhersagen wird es morgen regnen. Ob ich riskiere und die Wette verlieren werde? Ich werde mit Sicherheit gewinnen! Ist das wirklich unmöglich?

Mehr

= 7! = 6! = 0, 00612,

= 7! = 6! = 0, 00612, Die Wahrscheinlichkeit, dass Prof. L. die Wette verliert, lässt sich wie folgt berechnen: Ω = {(i 1,..., i 7 ) : i j {1... 7}, j = 1... 7}, wobei i, j für den Wochentag steht, an dem die Person j geboren

Mehr

Ein Ereignis ist eine Menge von Elementarereignissen. Berechnung von Wahrscheinlichkeiten zufälliger Ereignisse erfordert ein Modell.

Ein Ereignis ist eine Menge von Elementarereignissen. Berechnung von Wahrscheinlichkeiten zufälliger Ereignisse erfordert ein Modell. SS 2013 Prof. Dr. J. Schütze/ J.Puhl FB GW Wkt.1 1 Grundbegriffe Zufallsexperiment unter gleichen Bedingungen wiederholbarer Vorgang (geplant, gesteuert, beobachtet oder auch nur gedanklich) Menge der

Mehr

Mathematische Grundlagen der Computerlinguistik Wahrscheinlichkeit

Mathematische Grundlagen der Computerlinguistik Wahrscheinlichkeit Mathematische Grundlagen der Computerlinguistik Wahrscheinlichkeit Dozentin: Wiebke Petersen 8. Foliensatz Wiebke Petersen math. Grundlagen 1 Motivation Bsp.: In vielen Bereichen der CL kommt Wahrscheinlichkeitstheorie

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω 2 3 8 N Wir definieren

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 7. Übungsblatt Aufgabe 1: Evaluierung und Kosten Gegeben sei ein Datensatz mit 300 Beispielen, davon 2 /3 positiv

Mehr

Wahrscheinlichkeitsrechnung [probability]

Wahrscheinlichkeitsrechnung [probability] Wahrscheinlichkeitsrechnung [probability] Hinweis: Die Wahrscheinlichkeitsrechnung ist nicht Gegenstand dieser Vorlesung. Es werden lediglich einige Begriffsbildungen bereitgestellt und an Beispielen erläutert,

Mehr

Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt

Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 7. Übungsblatt 1 Aufgabe 1a) Auffüllen von Attributen

Mehr

Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele

Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Wahrscheinlichkeitstheorie Agenda:

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung. Semester Begleitendes Skriptum zur Vorlesung im FH-Masterstudiengang Technisches Management von Günther Karigl FH Campus Wien 206/7 Inhaltsverzeichnis. Semester: Wahrscheinlichkeitsrechnung

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? 2. Übung: Wahrscheinlichkeitsrechnung Aufgabe 1 Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? a) P ist nichtnegativ. b) P ist additiv. c) P ist multiplikativ.

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Es werden 120 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 120 Schülern besitzen 99 ein Handy.

Es werden 120 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 120 Schülern besitzen 99 ein Handy. R. Brinkmann http://brinkmann-du.de Seite 08..2009 Von der relativen Häufigkeit zur Wahrscheinlichkeit Es werden 20 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 20 Schülern

Mehr

Wahrscheinlichkeitslehre

Wahrscheinlichkeitslehre Wahrscheinlichkeitslehre I. Was ist unter dem Ausdruck "wahrscheinlich" zu verstehen? Wir unterscheiden vier verschiedene, teils miteinander zusammenhängende, teils heterogene Verwendungen des Ausdrucks

Mehr

1. Grundlagen der Wahrscheinlichkeitsrechnung

1. Grundlagen der Wahrscheinlichkeitsrechnung 1. Grundlagen der Wahrscheinlichkeitsrechnung Ereignisse und Wahrscheinlichkeiten Zufälliger Versuch: Vorgang, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang innerhalb einer

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω = {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω = 2 3 = 8 = N

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 27. Oktober 2010 Teil III Wahrscheinlichkeitstheorie 1 Zufallsereignisse Vorüberlegungen Der Ereignisraum Konstruktionen

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 7. Übung SS 16: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 7. Übung SS 16: Woche vom Übungsaufgaben 7. Übung SS 16: Woche vom 23. 5. 27. 5.. 2016 Stochastik I: Klassische Wkt.-Berechnung Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/... (SS16).html

Mehr

Bedingte Wahrscheinlichkeiten

Bedingte Wahrscheinlichkeiten Bedingte Wahrscheinlichkeiten Bei der Betrachtung der Ereignisse A und B eines Zufallsexperiments muss man die beiden im folgendem beschrieben zwei Situationen unterscheiden. 1. Das Ereignis A und B tritt

Mehr

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? 2. Übung: Wahrscheinlichkeitsrechnung Aufgabe 1 Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? a) P ist nichtnegativ. b) P ist additiv. c) P ist multiplikativ.

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung

Mehr

Grundwissen Stochastik Grundkurs 23. Januar 2008

Grundwissen Stochastik Grundkurs 23. Januar 2008 GYMNSIUM MIT SCHÜLERHEIM PEGNITZ math.-technolog. u. sprachl. Gymnasium WILHELM-VON-HUMBOLDT-STRSSE 7 91257 PEGNITZ FERNRUF 09241/48333 FX 09241/2564 Grundwissen Stochastik Grundkurs 23. Januar 2008 1.

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Sprechstunde zur Klausurvorbereitung

Sprechstunde zur Klausurvorbereitung htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Wahrscheinlichkeiten

Wahrscheinlichkeiten Wahrscheinlichkeiten Bestimmung der Wahrscheinlichkeit Bei einem Zufallsexperiment kann man nicht voraussagen, welches Ereignis eintritt, aber manche Ereignisse treten naturgemäß mit einer größeren Wahrscheinlichkeit

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 7. Übungsblatt Aufgabe 1 Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity Wind PlayTennis D1? Hot High Weak No D2 Sunny

Mehr

Stochastik - Kapitel 2

Stochastik - Kapitel 2 " k " h(a) n = bezeichnet man als die relative Häufigkeit des Ereignisses A bei n Versuchen. n (Anmerkung: für das kleine h wird in der Literatur häufig auch ein r verwendet) k nennt man die absolute Häufigkeit

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Gegeben Menge Ω (Wahscheinlichkeitsraum, Menge aller möglichen Ausgänge eines Zufallsexperiments), Abbildung P : P(Ω) [0, 1] (Wahrscheinlichkeit): Jeder Teilmenge

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II

Allgemeine diskrete Wahrscheinlichkeitsräume II 6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume I

Allgemeine diskrete Wahrscheinlichkeitsräume I 6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

Interaktives Skriptum: Elementare Wahrscheinlichkeitsrechnung

Interaktives Skriptum: Elementare Wahrscheinlichkeitsrechnung Interaktives Skriptum: Elementare Wahrscheinlichkeitsrechnung 1. Grundbegriffe Würfeln, Werfen einer Münze, Messen der Lebensdauer einer Glühbirne Ausfall/Ausgang: Würfeln: Augenzahlen 1, 2, 3, 4, 5, 6

Mehr

Population und Stichprobe: Wahrscheinlichkeitstheorie

Population und Stichprobe: Wahrscheinlichkeitstheorie Population und Stichprobe: Wahrscheinlichkeitstheorie SS 2001 4. Sitzung vom 15.05.2001 Wahrscheinlichkeitstheorie in den Sozialwissenschaften: Stichprobenziehung: Aussagen über Stichprobenzusammensetzung

Mehr

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3. 2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 8. Übung SS 16: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 8. Übung SS 16: Woche vom Übungsaufgaben 8. Übung SS 16: Woche vom 30. 5. 3.6. 2016 Stochastik II: Klassische Wkt.-Berechnung; Unabhängigkeit Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Kombinatorik & Stochastik Übung im Sommersemester 2018

Kombinatorik & Stochastik Übung im Sommersemester 2018 Kombinatorik & Stochastik Übung im Sommersemester 2018 Kombinatorik Formeln & Begriffe Begrifflichkeiten Permutation = Anordnung in einer bestimmten Reihenfolge Kombination = Anordnung ohne bestimmte Reihenfolge

Mehr

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

15 Wahrscheinlichkeitsrechnung und Statistik

15 Wahrscheinlichkeitsrechnung und Statistik 5 Wahrscheinlichkeitsrechnung und Statistik Alles, was lediglich wahrscheinlich ist, ist wahrscheinlich falsch. ( Descartes ) Trau keiner Statistik, die du nicht selbst gefälscht hast. ( Churchill zugeschrieben

Mehr

Splitting. Impurity. c 1. c 2. c 3. c 4

Splitting. Impurity. c 1. c 2. c 3. c 4 Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision

Mehr

Kapitel II - Wahrscheinlichkeitsraum

Kapitel II - Wahrscheinlichkeitsraum Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel II - Wahrscheinlichkeitsraum Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/

Mehr

Kapitel MK:V. V. Diagnoseansätze

Kapitel MK:V. V. Diagnoseansätze Kapitel MK:V V. Diagnoseansätze Diagnoseproblemstellung Diagnose mit Bayes Evidenztheorie von Dempster/Shafer Diagnose mit Dempster/Shafer Truth Maintenance Assumption-Based TMS Diagnosis Setting Diagnosis

Mehr

Gründe für die Behandlung von stochastischen Problemen (nach KÜTTING)

Gründe für die Behandlung von stochastischen Problemen (nach KÜTTING) Vorlesung 03.01.09 Stochastik Gründe für die Behandlung von stochastischen Problemen (nach KÜTTING) Der Mathematikunterricht der Schule hat die Aufgabe, eine Grundbildung zu vermitteln, die auf ein mathematisches

Mehr

1.3 Stochastische Unabhängigkeit und bedingte

1.3 Stochastische Unabhängigkeit und bedingte 1.3 Stochastische Unabhängigkeit und bedingte Wahrscheinlichkeiten Ziel: komplexere Modelle aus Verkettung ( Koppelung ) von Zufallsexperimenten bauen, insbesondere Ziehung von n-personen aus n-maliger

Mehr

Wie hoch ist das Risiko, dass ein System, das aus mehreren Komponenten besteht, ausfällt?

Wie hoch ist das Risiko, dass ein System, das aus mehreren Komponenten besteht, ausfällt? In diesem Kapitel werden wir den egriff Wahrscheinlichkeit und die Grundlagen der Wahrscheinlichkeitsrechnung kennenlernen, um z.. folgende Fragestellungen zu beantworten. Wie hoch ist das Risiko, dass

Mehr

htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017

htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017 htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT htw saar 2 Gliederung 25.01. Bedingte Wahrscheinlichkeit: Motivation und Definition Multiplikationssatz Stochastische Unabhängigkeit:

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr