Vorlesung 8b. Bedingte Erwartung und bedingte Varianz

Ähnliche Dokumente
Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 1

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 2

Vorlesung 12a. Zerlegung der Varianz

Vorlesung 13b. Relative Entropie

Vorlesung 5a. Die Varianz

Vorlesung 4b. Die Varianz

Vorlesung 5a. Varianz und Kovarianz

Vorlesung 4b. Die Varianz

Vorlesung 11b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten

Zweitklausur. b p b. q a. c 1. p a

Vorlesung 9b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung

Vorlesung 7b. Der Zentrale Grenzwertsatz

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie

Vorlesung 7a. Der Zentrale Grenzwertsatz

Statistik I für Betriebswirte Vorlesung 3

Vorlesung 3b. Der Erwartungswert

Vorlesung 8a. Kovarianz und Korrelation

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Vorlesung 5a. Zufallsvariable mit Dichten

Woche 2: Zufallsvariablen

4.2 Moment und Varianz

Statistik I für Betriebswirte Vorlesung 4

Einführung in Quantitative Methoden

Vorlesung 9b. Kovarianz und Korrelation

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

7.2 Moment und Varianz

Woche 2: Zufallsvariablen

1.5 Erwartungswert und Varianz

Vorlesung 8b. Kovarianz, Korrelation und Regressionsgerade

von x-würfeln bei wachsendem n? Zur Beantwortung führen wir ein Simulationsexperiment durch.

Vorlesung 2b. Diskrete Zufallsvariable. und ihre Verteilungen

Wahrscheinlichkeit und Statistik BSc D-INFK

Vorlesung 7b. Kovarianz und Korrelation

Vorlesung 5b. Zufallsvariable mit Dichten

13 Grenzwertsätze Das Gesetz der großen Zahlen

Verteilung von Summen

Vorlesung 7a. Unabhängigkeit

Statistik für Ingenieure Vorlesung 5

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

4. Verteilungen von Funktionen von Zufallsvariablen

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik für Ingenieure Vorlesung 3

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Grundbegriffe der Wahrscheinlichkeitsrechnung

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

1.5 Erwartungswert und Varianz

5. Spezielle stetige Verteilungen

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Mathematische Ökonometrie

Statistik II für Wirtschaftswissenschaftler

Mathematik für Biologen

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Zufallsvariablen [random variable]

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen

Wichtige Definitionen und Aussagen

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

5 Erwartungswerte, Varianzen und Kovarianzen

Lösungsskizzen zur Präsenzübung 09

Stetige Verteilungen, Unabhängigkeit & ZGS

Mathematik für Biologen

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.

Vorlesung 3b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson

Stochastik Wiederholung von Teil 1

Vorlesung 2a. Diskret uniform verteilte Zufallsvariable. (Buch S. 6-11)

Die Varianz (Streuung) Definition

Wahrscheinlichkeit und Statistik: Zusammenfassung

Grundbegriffe der Wahrscheinlichkeitsrechnung

Mathematik für Biologen

Statistik I für Betriebswirte Vorlesung 3

Varianz und Kovarianz

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

1 Multivariate Zufallsvariablen

Biostatistik, Sommer 2017

Stetige Verteilungen, Unabhängigkeit & ZGS

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

Statistik I für Betriebswirte Vorlesung 5

9 Die Normalverteilung

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Hypothesentests. 5 Regression

Vorlesung 2a. Diskret uniform verteilte Zufallsvariable

Vorlesung 4b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

6.6 Poisson-Verteilung

Klausur,,Algorithmische Mathematik II

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe

Erwartungswert und Varianz von Zufallsvariablen

Vorlesung: Statistik II für Wirtschaftswissenschaft

Kapitel 10 VERTEILUNGEN

Wahrscheinlichkeitsrechnung und Statistik

Transkript:

Vorlesung 8b Bedingte Erwartung und bedingte Varianz 1

1. Zerlegung eines Erwartungswertes nach der ersten Stufe (Buch S. 91) 2

Wie in der vorigen Vorlesung betrachten wir die gemeinsame Verteilung von zwei Zufallsvariablen X 1, X 2, aufgebaut aus der Verteilung von X 1 und den Übergangsverteilungen: P(X 1 = a 1,X 2 = a 2 ) = P(X 1 = a 1 )P a1 (X 2 = a 2 ) µ(a 1,a 2 ) = ρ(a 1 )P(a 1,a 2 ) Auch den Erwartungswert einer reellwertigen Zufallsvariablen g(x 1,X 2 ) kann nach der ersten Stufe zerlegt werden. 3

Sei g : S 1 S 2 R. Wir betrachten die Zufallsvariable g(x 1,X 2 ). Für a 1 S 1 setzen wir [ E a1 g(x1,x 2 ) ] := g(a 1,a 2 )P a1 (X 2 = a 2 ) a 2 S 2 und nennen diese Zahl den bedingten Erwartungswert von g(x 1,X 2 ), gegeben {X 1 = a 1 }. 4

Merke: Der bedingte Erwartungswert E a1 [ g(x1,x 2 ) ] wird gebildet mit der Übergangsverteilung P(a 1,.), also mit den Wahrscheinlichkeitsgewichten, die die Zeile P(a 1,.) der Matrix P bilden: E a1 [ g(x1,x 2 ) ] = a 2 S 2 g(a 1,a 2 )P(a 1,a 2 ) 5

X 2 S 2 X 1 a 1 (a 1,a 2 ) g(a 1,a 2 ) S 1 R 6

Ähnlich wie die Verteilungsgewichte von (X 1,X 2 ) lässt sich auch der Erwartungswert E[g(X 1,X 2 )] nach den Ausgängen von X 1 zerlegen. (Zerlegung des Erwartungswerts nach der ersten Stufe) 7

= a 1 S 1 = a 1 S 1 E [ g(x 1,X 2 ) ] a 2 S 2 g(a 1,a 2 )P(X 1 = a 1,X 2 = a 2 ) a 2 S 2 g(a 1,a 2 )P(X 1 = a 1 )P a1 (X 2 = a 2 ) [ P(X 1 = a 1 )E a1 g(x1,x 2 ) ] a 1 S 1 [ P(X 1 = a 1 )E a1 g(a1,x 2 ) ] a 1 S 1 = = = E [ E X1 [g(x 1,X 2 )] ]. Zerlegung des Erwartungswertes nach der ersten Stufe 8

Merke: Der bedingte Erwartungswert E a1 [ g(x1,x 2 ) ] ist eine Zahl. E X1 [ g(x1,x 2 ) ] ist eine Zufallsvariable. Wir nennen diese Zufallsvariable die bedingte Erwartung von g(x 1,X 2 ) gegeben X 1. 9

E [ g(x 1,X 2 ) ] = E [ E X1 [g(x 1,X 2 )] ] Ist X 2 reellwertig (also S 2 R), dann ergibt sich als Spezialfall (mit g(a 1,a 2 ) := a 2 ) E a1 [X 2 ] = a 2 S 2 a 2 P a1 (X 2 = a 2 ), Diese Zahl nennen wir den Erwartungswert von X 2, gegeben {X 1 = a 1 }. Wir haben dann die einprägsame Formel E[E X1 [X 2 ]] = E[X 2 ]. (Zerlegung des Erwartungswertes von X 2 nach X 1.) 10

2. Ein Beispiel: Suchen in Listen. (Buch S. 85-87) 11

n Namen werden in r Listen einsortiert. Dadurch ergibt sich ein r-tupel k = (k 1,...,k r ) von Listenlängen (eine Besetzung k der Plätze 1,...,r) Jeder Name steht in seiner Liste Nr. j an einer der Stellen i = 0,...,k j 1. Vorstellung: Die Listennummer entspricht dem Anfangsbuchstaben des Namens. Für ein Alphabet mit r = 4 Buchstaben (und bei n = 15 Namen) ist eine mögliche Besetzung: 12

i j 0 1 2 3 4 1 2 3 4 5 n = 15, r = 4 k = (k 1,k 2,k 3,k 4 ) = (4,2,3,6) 13

i j 0 1 2 3 4 1 2 3 4 5 Erste Frage: Was ist für gegebene Listenlängen (k j ) der Erwartungswert der Stellennummer M (der Suchtiefe ) eines rein zufällig aus den n herausgegriffenen Names? 14

i j 0 1 2 3 4 1 2 3 4 5 Liste j = 2, Tiefe i = 0. 15

i j 0 1 2 3 4 1 2 3 4 5 Liste j = 4, Tiefe i = 3. 16

i j 0 1 2 3 4 1 2 3 4 5 Was ist bei gegebenem k der Erwartungswert der Suchtiefe M eines rein zufällig aus den n herausgegriffenen Names? 17

i j 0 1 2 3 4 1 2 3 4 5 Die Antwort ist E k [M] = 1 n r j=1 k j 1 i=0 i = 1 n r j=1 k j (k j 1) 2. 18

Wir betrachten jetzt ein stochastisches Modell für die erste Stufe: Annahme: Die zufällige Besetzung Z = (Z 1,...,Z r ) kommt durch n-maliges Würfeln mit den Gewichten p 1,...,p r zustande. Z ist multinomial (n, p 1,...,p r )-verteilt. (Vorstellung: Die n Namen sind eine Stichprobe aus einer großen Population mit bekannter Verteilung der Anfangsbuchstaben.) 19

Aus den n Namen wird rein zufällig einer herausgegriffen. Es sei M die Stelle, die er in seiner Liste einnimmt. Aufgabe: Berechne E[M]. (Dieser Erwartungswert beschreibt die mittlere Suchzeit (Suchtiefe) für einen aus den Listen zufällig gewählten Namen.) 20

Der Erwartungswert von M, gegeben Z = k, war E k [M] = 1 n r j=1 k j (k j 1) 2. Mit der oben hergeleitetet Zerlegung des Erwartungswertes E[M] = E [ E Z [M] ] erhalten wir E[M] = 1 n r j=1 [ Z E j (Z j 1) 2 ]. 21

E[M] = 1 n r j=1 [ Z E j (Z j 1) 2 ] Nach Annahme ist Z j Binomial(n,p j )-verteilt. Mit der Formel Var[Z] = E[Z 2 ] (E[Z]) 2 folgt E[Z j (Z j 1)] = Var[Z j ]+E[Z j ] 2 E[Z j ] = np j (1 p j )+(np j ) 2 np j = p 2 j n(n 1), E[M] = n 1 2 (p2 1 + +p 2 r). 22

E[M] = n 1 2 (p2 1 + +p 2 r). Im Fall uniformer Gewichte p 1 = = p r = 1/r ergibt sich E[M] = n 1 2r. 23

Eine Modifikation des vorigen Beispiels: Sei Z wieder multinomial (n, p 1,...,p r )-verteilt, J sei unabhängig von Z, mit P(J = j) = p j, j = 1,...,r. Berechne den Erwartungswert von X := Z J. (Dieser Erwartungswert beschreibt die mittlere Suchzeit nach einem in den Listen nicht vorhandenen Namen) 24

Wir zerlegen E[X] nach den Ausgängen von Z: E[X] = E[E Z [X]] = k P(Z = k)e k [X] = k P(Z = k) r j=1 p j k j = r j=1 p j k P(Z = k)k j = r j=1 p j EZ j = r j=1 p j np j = n r j=1 p 2 j. 25

Im Fall uniformer Gewichte p 1 = = p r = 1/r ergibt sich E[X] = n r. Im Vergleich dazu war (siehe voriges Besipiel) die mittlere Suchtiefe eines rein zufällig aus den n herausgegriffenen Namens E[M] = n 1 2r. 26

3. Bedingte Varianz (Buch S. 90) 27

Für reellwertiges X 2 definieren wir die bedingte Varianz von X 2, gegeben {X 1 = a 1 }: Var a1 [X 2 ] := E a1 [ (X2 E a1 [X 2 ]) 2] Dies is die Varianz der Wahrscheinlichkeitsverteilung mit den Gewichten P(a 1,a 2 ), a 2 S 2. 28

Eine hilfreiche Formel (aus Vl 7b): E[(Y c) 2 ] = Var[Y]+(E[Y] c) 2. Daraus folgt (für alle a 1 S 1 und h(a 1 ) R): E a1 [(X 2 h(a 1 )) 2 ] = Var a1 [X 2 ]+(E a1 [X 2 ] h(a 1 )) 2. Was Variablen recht ist: ist Zufallsvariablen billig, also: E X1 [(X 2 h(x 1 )) 2 ] = Var X1 [X 2 ]+(E X1 [X 2 ] h(x 1 )) 2. Bilde in dieser Gleichheit den Erwartungswert und verwende die Formel von dessen Zerlegung nach X 1 : ( ) E[(X 2 h(x 1 )) 2 ] = E[Var X1 [X 2 ]]+E[(E X1 [X 2 ] h(x 1 )) 2 ]. 29

4. Die bedingte Erwartung als beste Prognose im quadratischen Mittel (Buch S. 90) 30

Satz: Sei X 2 reellwertige Zufallsvariable mit E[X 2 2 ] <. Dann minimiert die bedingte Erwartung E X1 [X 2 ] unter allen reellwertigen Zufallsvariablen der Form h(x 1 ) den erwarteten quadratischen Abstand E [ (X 2 h(x 1 )) 2]. 31

Beweis: Der Satz über die Positivität des Erwartungswerts impliziert: Der letzte Term in der Formel ( ) am Ende von Abschnitt 3 wird minimal (nämlich 0) genau dann, wenn P(h(X 1 ) = E X1 [X 2 ]) = 1. Äquivalent dazu: h(a 1 ) = E a1 [X 2 ] für alle a 1 mit P(X 1 = a 1 ) > 0. 32

Fazit: Unter allen Zahlen h(a 1 ) ist der bedingte Erwartungswert E a1 [X 2 ] diejenige Zahl, für die E a1 [(X 2 h(a 1 )) 2 ] minimal wird. Unter allen Zufallsvariablen der Form h(x 1 ) ist die bedingte Erwartung E X1 [X 2 ] diejenige, für die E[E X1 [(X 2 h(x 1 )) 2 ]] = E[(X 2 h(x 1 )) 2 ] minimal wird. 33

5. Zerlegung der Varianz (Buch S. 90) 34

Setzen wir in der Formel ( ) am Ende von Abschnitt 3 h(a 1 ) := E[X 2 ] für alle a 1 S 1, dann ergibt sich für den letzen Term der Formel ( ): E[(E X1 [X 2 ] E[X 2 ]) 2 ] = Var[E X1 [X 2 ]] (wegen E[E X1 [X 2 ]] = E[X 2 ]) Insgesamt wird dann die Formel ( ) zu Var[X 2 ] = E [ Var X1 [X 2 ] ] +Var [ E X1 [X 2 ] ] Dies ist die Formel von der Zerlegung der Varianz. 35

Var[X 2 ] = E [ Var X1 [X 2 ] ] +Var [ E X1 [X 2 ] ] Zum Merken: Die Varianz von X 2 ist die Summe aus dem Erwartungswert der bedingten Varianzen und der Varianz der bedingten Erwartungswerte (Variabilität innerhalb der Zeilen plus Variabilität zwischen den Zeilen). Wir illustrieren dies mit einem kleinen Besipiel: 36

Die Übergangsmatrix P sei 1 2 3 5 7 b 0.4 0.2 0.4 0 0 c 0 0 0.2 0.6 0.2 b 1 2 3 5 7 c Dann gilt: E b [X 2 ] = 2, E c [X 2 ] = 5, Var b [X 2 ] = 0.8 1 2 = 0.8, Var c [X 2 ] = 0.4 2 2 = 1.6. 37

E b [X 2 ] = 2, E c [X 2 ] = 5, Var b [X 2 ] = 0.8, Var c [X 2 ] = 1.6. b 1 2 3 5 7 c Die Startgewichte seien ρ(b) = 0.3, ρ(c) = 0.7. Damit: - Erwartungswert der bedingten Varianzen: 0.3 0.8+0.7 1.6 - Varianz der bedingten Erwartung: 0.3 0.7 (5 2) 2 Deren Summe ist Var[X 2 ] = 3.25. 38

Beispiel: Summe aus einer zufälligen Anzahl unabhängiger Summanden. Y := N Z i i=1 mit Z 1,Z 2,... unabhängig, identisch verteilt und unabhängig von N. µ := E[Z 1 ], σ 2 := Var[Z 1 ] Aufgabe: Berechne E[Y] und Var[Y] aus E[N],Var[N],µ und σ 2. 39

Y = N i=1 Z i, µ := E[Z 1 ], σ 2 := Var[Z 1 ]. Wir nehmen N als erste und Y als zweite Stufe: E n [Y] = nµ, Var n [Y] = nσ 2. E[Y] = E[E N [Y]] = E[Nµ] = E[N] µ. Var[Y] = E [ Var N [Y] ] +Var [ E N [Y] ] = E[N] σ 2 +Var[N] µ 2. 40