Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Ähnliche Dokumente
Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Vorlesung 12a. Zerlegung der Varianz

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 1

Vorlesung 4b. Die Varianz

Vorlesung 4b. Die Varianz

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Zweitklausur. b p b. q a. c 1. p a

Vorlesung 8a. Kovarianz und Korrelation

Mathematik für Biologen

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

i Pr(X = i). Bsp: Sei X die Summe zweier Würfe eines Würfels. Dann gilt E[X] =

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Varianz und Kovarianz

KAPITEL 5. Erwartungswert

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

1.5 Erwartungswert und Varianz

Probeklausur Statistik II

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Unabhängige Zufallsvariablen

Einführung in Quantitative Methoden

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Die Varianz (Streuung) Definition

Wahrscheinlichkeit und Statistik: Zusammenfassung

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Biostatistik, Winter 2011/12

Verteilung von Summen

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

1. Wahrscheinlichkeitsverteilungen und Versicherungsanwendungen 1.1 Wichtige diskrete Verteilungen a. Poisson-Verteilung.

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Stochastik. Peter Pfaffelhuber

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

von x-würfeln bei wachsendem n? Zur Beantwortung führen wir ein Simulationsexperiment durch.

Mathematik für Biologen

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Stetige Verteilungen, Unabhängigkeit & ZGS

1.5 Erwartungswert und Varianz

5 Erwartungswerte, Varianzen und Kovarianzen

Wahrscheinlichkeit und Statistik BSc D-INFK

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

Modelle diskreter Zufallsvariablen

5. Spezielle stetige Verteilungen

Wichtige Definitionen und Aussagen

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

Woche 2: Zufallsvariablen

Wahrscheinlichkeitstheorie und Statistik vom

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

Mathematik für Biologen

Technische Universität Berlin

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das

Satz von der totalen Wahrscheinlichkeit

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.

Kapitel 10 VERTEILUNGEN

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Wahrscheinlichkeitstheorie 2

Willkommen zur Vorlesung Statistik (Master)

3. Kombinatorik und Wahrscheinlichkeit

7.2 Moment und Varianz

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

Forschungsstatistik I

Zufallsvariablen [random variable]

Mathematik für Biologen

Ü b u n g s b l a t t 13

Mathematik für Biologen

Ausgewählte spezielle Verteilungen

3.3 Bedingte Wahrscheinlichkeit

1 Multivariate Zufallsvariablen

2 Zufallsvariable und Verteilungsfunktionen

Biostatistik, Winter 2011/12

Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

Willkommen zur Vorlesung Statistik (Master)

Übung zur Vorlesung Statistik I WS Übungsblatt 12

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26)

Diskrete Strukturen WiSe 2012/13 in Trier

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

BSc Bioinformatik Wintersemester 2013/2014 Nachklausur zur Statistik I Freie Universität Berlin

4. Verteilungen von Funktionen von Zufallsvariablen

2 Aufgaben aus [Teschl, Band 2]

Statistik, Datenanalyse und Simulation

Mathematik für Informatiker III im WS 05/06 Musterlösung zur 4. Übung

Erwartungswert und Varianz von Zufallsvariablen

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

7.5 Erwartungswert, Varianz

Übungen Abgabetermin: Freitag, , 10 Uhr

Zufallsvariable: Verteilungen & Kennzahlen

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI

Satz 61 (Chebyshev-Ungleichung)

Mathematik für Biologen

Mathematik 3 für Informatik

Statistik für Ingenieure Vorlesung 2

Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm.

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

Transkript:

Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1

Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen: P(X 1 = a 1,X 2 = a 2 ) = P(X 1 = a 1 )P a1 (X 2 = a 2 ). [ E a1 h(x1,x 2 ) ] := h(a 1,a 2 )P a1 (X 2 = a 2 ) a 2 S 2 nennen wir den bedingten Erwartungswert von h(x 1,X 2 ), gegeben {X 1 = a 1 }. 2

= a 1 S 1 = a 1 S 1 E [ h(x 1,X 2 ) ] a 2 S 2 h(a 1,a 2 )P(X 1 = a 1,X 2 = a 2 ) a 2 S 2 h(a 1,a 2 )P(X 1 = a 1 )P a1 (X 2 = a 2 ) [ P(X 1 = a 1 )E a1 h(x1,x 2 ) ] a 1 S 1 [ P(X 1 = a 1 )E a1 h(a1,x 2 ) ] a 1 S 1 = = = E [ E X1 [h(x 1,X 2 )] ]. Zerlegung des Erwartungswertes nach der ersten Stufe 3

Merke: Der bedingte Erwartungswert E a1 [ h(x1,x 2 ) ] ist eine Zahl. E X1 [ h(x1,x 2 ) ] ist eine Zufallsvariable. Wir sprechen von der bedingten Erwartung von h(x 1,X 2 ) gegeben X 1. 4

Die bedingte Erwartung als beste Prognose im quadratischen Mittel: Satz: Sei X 2 reellwertige Zufallsvariable mit E[X 2 2 ] <. Dann minimiert die bedingte Erwartung E X1 [X 2 ] unter allen reellwertigen Zufallsvariablen der Form h(x 1 ) den erwarteten quadratischen Abstand E [ (X 2 h(x 1 )) 2]. 5

Beweis: Wir zerlegen E [ (X 2 h(x 1 )) 2] nach X 1 : E [ (X 2 h(x 1 )) 2] [ = E [E X1 (X2 h(x 1 )) 2]] = a 1 P(X 1 = a 1 )E a1 [ (X2 h(a 1 )) 2] Wir wissen schon (aus Vorlesung 7b): E a1 [ (X2 h(a 1 )) 2] wird minimal für h(a 1 ) := E a1 [X 2 ]. 6

Fazit: Unter allen Zahlen h(a 1 ) ist der bedingte Erwartungswert E a1 [X 2 ] diejenige Zahl, für die E a1 [(X 2 h(a 1 )) 2 ] minimal wird. Unter allen Zufallsvariablen der Form h(x 1 ) ist die bedingte Erwartung E X1 [X 2 ] diejenige, für die E[E X1 [(X 2 h(x 1 )) 2 ]] = E[(X 2 h(x 1 )) 2 ] minimal wird. 7

Definieren wir die bedingte Varianz von X 2, gegeben {X 1 = a 1 }: Var a1 [X 2 ] := E a1 [ (X2 E a1 [X 2 ]) 2] Die Zerlegung E[(Z c) 2 ] = Var[Z]+(EZ c) 2 überträgt sich auf den bedingten Erwartungswert und die bedingte Varianz: E a1 [ (X2 h(a 1 )) 2] = Var a1 [X 2 ]+ ( ) 2 E a1 [X 2 ] h(a 1 ) 8

E a1 [ (X2 h(a 1 )) 2] = Var a1 [X 2 ]+ ( ) 2 E a1 [X 2 ] h(a 1 ) Ersetzen wir a 1 durch die Zufallsvariable X 1 : [ E X1 (X2 h(x 1 )) 2] ( = Var X1 [X 2 ]+ E X1 [X 2 ] h(x 1 ) und bilden den Erwartungswert, dann bekommen wir E [ (X 2 h(x 1 )) 2] = E [ Var X1 [X 2 ] ] +E [( E X1 [X 2 ] h(x 1 )) 2]. Wählen wir speziell h(x 1 ) := E[X 2 ], dann ergibt sich Var[X 2 ] = E [ Var X1 [X 2 ] ] +Var [ E X1 [X 2 ] ] Zerlegung der Varianz nach der ersten Stufe ) 2 9

Beispiel: Zufällige Anzahl unabhängiger Summanden. Y := N Z i i=1 mit Z 1,Z 2,... unabh., ident. vert. und unabhängig von N. µ := E[Z 1 ], σ 2 := Var[Z 1 ] E n [Y] = nµ, Var n [Y] = nσ 2. E[Y] = E[E N Y] = E[Nµ] = E[N] µ. Var[Y] = E [ Var N [Y] ] +Var [ E N [Y] ] = E[N] σ 2 +Var[N] µ 2. 10

Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 11

Bisher: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a 1,.): P(X 1 = a 1,X 2 = a 2 ) := ρ(a 1 )P(a 1,a 2 ) 12

Jetzt: Zerlegung der gemeinsamen Verteilung von X 1 und X 2 in die Verteilung von X 1 und die bedingte Verteilung von X 2 gegeben X 1 13

Sei X 1 eine diskrete Zufallsvariable mit Zielbereich S 1 und X 2 eine Zufallsvariable mit Zielbereich S 2. Dann ist die bedingte Wahrscheinlichkeit von {X 2 A 2 }, gegeben {X 1 = a 1 } definiert als P(X 2 A 2 X 1 = a 1 ) := P(X 1 = a 1,X 2 A 2 ) P(X 1 = a 1 ). 14

Die Verteilung P(X 2 X 1 = a 1 ) heißt die bedingte Verteilung von X 2, gegeben {X 1 = a 1 }. 15

Definieren wir Übergangswahrscheinlichkeiten durch P a1 (X 2 A 2 ) := P(X 2 A 2 X 1 = a 1 ) dann bekommen wir die schon aus der vorigen Vorlesung vertraute Dreiheit zurück: P(X 1 = a 1,X 2 A 2 ) = P(X 1 = a 1 )P a1 (X 2 A 2 ). 16

Bei der Untersuchung von zwei Zufallsvariablen X 1,X 2 kann man immer zu einer 2-stufigen Betrachtungsweise übergehen. Man kann dabei wählen, ob man X 1 in die erste Stufe aufnimmt oder in die zweite. 17

Beispiel: Addieren von unabhängigen ZV en zweistufig aufgefasst X 1 := Y, X 2 := Y +Z P(X 1 = a,x 2 = b) = P(Y = a,a+z = b) = P(Y = a)p(a+z = b) = P(X 1 = a)p(z = b a) Dies führt zu den Übergangswahrscheinlichkeiten P(a,b) := P(Z = b a) 18

P(Y +Z = b) = a P(Y = a)p(z = b a) Beispiel Y, Z unabhängig und Geom(p)-verteilt P(Y +Z = b) = b 1 pq a 1 pq b a 1 a=1 = (b 1)p 2 q b 2, b = 2,3,... Die negative Binomialverteilung mit Parametern 2, p ist die Verteilung der Anzahl der Versuche in einem p-münzwurf bis einschließlich zum zweiten Erfolg. 19

P(Y = a,y +Z = b = P(Y = a)p(a+z = b) Fazit: Die bedingte Verteilung von Y +Z, gegeben {Y = a}, ist gleich der Verteilung von a+z. Was ergibt sich für die bedingte Verteilung von Y, gegeben {Y +Z = b}? Wie war der erste Schritt? 20

Die bedingte Verteilung von Y, gegeben Y +Z = b, ist P(Y = a Y +Z = b) = P(Y = a)p(z = b a) P(Y +Z = b). 21

Ein instruktiver Spezialfall: Y und Z seien unabhängig und Geom(p)-verteilt. Dann ist P(Y = a)p(z = b a) = q a 1 pq (b a) 1 p = p 2 q b 2. Dieses hängt nicht von a ab. Also ist die bedingte Verteilung die uniforme auf {1,...,b 1} 22

Das ist auch ohne Rechnung plausibel: Gegeben, dass in einem p-münzwurf der zweite Erfolg beim b-ten Versuch kommt, ist der Zeitpunkt des ersten Erfolges uniform verteilt auf {1,...,b 1}. 23

Alte Regeln (für zweistufige Experimente) im neuen Gewand: Formel für die totale Wahrscheinlichkeit: P(X 2 A 2 ) = P(X 1 = a 1 )P ( ) X 2 A 2 X 1 = a 1 a 1 S 1 24

Bedingter Erwartungswert von h(x 1,X 2 ), gegeben {X 1 = a 1 }: E [ ] h(x 1,X 2 ) X 1 = a 1 := a 2 S 2 h(a 1,a 2 )P ( X 2 = a 2 X 1 = a 1 Bedingte Erwartung von h(x 1,X 2 ), gegeben X 1 : E [ ] h(x 1,X 2 ) X 1 = e(x1 ), mit e(a 1 ) := E [ ] h(x 1,X 2 ) X 1 = a 1. 25 )

Definition. Seien E 1, E 2 Ereignisse. Dann ist die bedingte Wahrscheinlichkeit von E 2, gegeben E 1, definiert als P(E 2 E 1 ) := P(E 2 E 1 ) P(E 1 ) = P(I E2 = 1 I E1 = 1)... die Wahrscheinlichkeit von E 2, wenn man schon weiß, dass E 1 eingetreten ist. 26

Beispiel: Gedächtnislosigkeit der geometrischen Verteilung: P(T > k +l T > k) = q k+l /q k = q l. Die Kenntnis, dass T einen Wert größer als k annimmt, ändert also die Verteilung für die restliche Wartezeit nicht. P(T k > l T > k) = P(T > l) 27

Zweistufigkeit - Spieß umgedreht: P(X 1 = a 1 X 2 = a 2 ) = P(X 2=a 2 X 1 =a 1 )P(X 1 =a 1 ) P(X 2 =a 2 ) Formel von Bayes P(X 1 = a 1 X 2 = a 2 ) = P(X 2=a 2 X 1 =a 1 )P(X 1 =a 1 ) b S 1 P(X 2 =a 2 X 1 =b)p(x 1 =b) P(E E ) = P(E E)P(E) P(E E)P(E)+P(E E c )P(E c ) 28

Beispiel: Reihenuntersuchungen: Eine kranke Person wird in 100% der Fälle positiv getestet, eine gesunde Person in 1%. Wie groß ist die Wahrscheinlichkeit, dass eine positiv getestete Person wirklich krank ist? Der Prozentsatz der kranken Personen sei 0.1%. P(E) = 0.001, P(E E) = 1, P(E E c ) = 0.01. Bayes: P(E E ) = 0.091. Die Wahrscheinlichkeit, bei positivem Testbefund wirklich krank zu sein, liegt also bei nur 9%! 29

0.999 g 0.01 0.001 k 1 p P(X 1 = k,x 2 = p) P(X 2 = p) = 0.001 1 0.999 0.01+0.001 1 1 11 30