Vorlesung 4b. Die Varianz

Ähnliche Dokumente
Vorlesung 4b. Die Varianz

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Mathematik 3 für Informatik

Varianz und Kovarianz

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

5 Erwartungswerte, Varianzen und Kovarianzen

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Mathematik für Biologen

Stochastik. Peter Pfaffelhuber

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Zweitklausur. b p b. q a. c 1. p a

Wirtschaftsmathematik

Diskrete Zufallsvariable

i Pr(X = i). Bsp: Sei X die Summe zweier Würfe eines Würfels. Dann gilt E[X] =

Vorlesung 7a. Der Zentrale Grenzwertsatz

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

67 Zufallsvariable, Erwartungswert, Varianz

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

KAPITEL 5. Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert

Probeklausur Statistik II

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

3. Kombinatorik und Wahrscheinlichkeit

Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

K3 (Diskrete) Zufallsvariablen 3.1 Basis

Beispiel Zusammengesetzte Zufallsvariablen

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Die Varianz (Streuung) Definition

Vorlesung 8a. Kovarianz und Korrelation

Sabrina Kallus, Eva Lotte Reinartz, André Salé

Vorlesung 12a. Zerlegung der Varianz

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung

Stetige Verteilungen, Unabhängigkeit & ZGS

Stochastik für Studierende der Informatik

Erwartungswerte, Varianzen

Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

Unabhängige Zufallsvariablen

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

1.5 Erwartungswert und Varianz

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

4. Verteilungen von Funktionen von Zufallsvariablen

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 1

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

2 Zufallsvariable und Verteilungsfunktionen

Willkommen zur Vorlesung Statistik (Master)

Prüfungsvorbereitungskurs Höhere Mathematik 3

Willkommen zur Vorlesung Statistik (Master)

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Reelle Zufallsvariablen

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Ausgewählte spezielle Verteilungen

Einführung in Quantitative Methoden

falls rote Kugel im 1. Zug gezogen Die Ziehungen sind daher nicht unabhängig voneinander. Damit liegt kein Bernoulli-Prozess

1.5 Erwartungswert und Varianz

5 Binomial- und Poissonverteilung

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Prüfungsvorbereitungskurs Höhere Mathematik 3

Mathematik für Biologen

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Paarweise Unabhängigkeit vs. Unabhängigkeit

A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen:

7.5 Erwartungswert, Varianz

Modelle diskreter Zufallsvariablen

Unabhängigkeit von Zufallsvariablen

Denition 57 Eine geometrisch verteilte Zufallsvariable X mit Parameter (Erfolgswahrscheinlichkeit) p 2 (0; 1] und q := 1 p hat die Dichte

7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen

Übungen zu Wahrscheinlichkeitstheorie und Statistik

Grundbegriffe der Wahrscheinlichkeitsrechnung

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Stochastik. Informatiker(innen)

1 Multivariate Zufallsvariablen

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Forschungsstatistik I

Klausur: Diskrete Strukturen I

Kapitel 10 VERTEILUNGEN

Satz 61 (Chebyshev-Ungleichung)

Zufallsvariable: Verteilungen & Kennzahlen

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

5. Spezielle stetige Verteilungen

7.2 Moment und Varianz

Wenn es sich um ein faires Spiel handeln soll, muss der Einsatz 1 betragen (2) Weniger als 3 mal Wappen ( ) 32 (3) Mindestens 1 mal Wappen ( )

Prüfung. Wahrscheinlichkeit und Statistik. ETH Zürich SS 2016 Prof. Dr. P. Embrechts August BSc INFK. Nachname. Vorname.

Wahrscheinlichkeit und Statistik BSc D-INFK

Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm.

Stochastik für Studierende der Informatik

3.3 Bedingte Wahrscheinlichkeit

13 Grenzwertsätze Das Gesetz der großen Zahlen

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Stochastik. 1. Wahrscheinlichkeitsräume

Transkript:

Vorlesung 4b Die Varianz 1

X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ Die Varianz von X ist definiert als Var[X] := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen X von ihrem Erwartungswert µ. 2

Statt Var[X] schreiben wir auch VarX oder σ 2 X oder (wenn klar ist, welche Zufallsvariable gemeint ist) σ 2. 3

Wie ändert sich die Varianz, wenn man X um eine Konstante verschiebt? Var[X +d] = E[((X +d) (µ+d)) 2 ] = VarX Und wenn man X mit einer Konstanten multipliziert ( skaliert )? Var[cX] = E[(cX cµ) 2 ] = c 2 VarX 4

Die Standardabweichung (Streuung) von X ist die Wurzel aus der Varianz: σ := σ X := VarX = E[(X µ) 2 ]. Sie gibt an, mit welcher typischen Abweichung der Zufallsvariablen X von ihrem Erwartungswert man rechnen sollte. 5

Es gilt: σ X+d = σ X, σ cx = cσ X. Man sagt: σ ist ein Skalenparameter. 6

Wie der Erwartungswert ist auch die Varianz von X durch die Verteilung von X bestimmt: Hat X die Verteilungsgewichte ρ(a), a S R und Erwartungswert µ, so ist VarX = a S (a µ) 2 ρ(a). 7

Beispiel: Eine faire Münze wird einmal geworfen. P(Z = 1) = P(Z = 0) = 1 2. Var Z = 1 2 (0 1 2 )2 + 1 2 (1 1 2 )2 = 1 4 Oder: (Z 1 2 )2 1 4, Var Z = 1 4. 8

Beispiel: Eine faire Münze wird zweimal geworfen. Var [Z 1 +Z 2 ] = 1 4 (0 1)2 + 1 2 (1 1)2 + 1 4 (2 1)2 = 2 14 9

Beispiel: Eine faire Münze wird dreimal geworfen. Var [Z 1 +Z 2 +Z 3 ] = 1 8 (0 3 2 )2 + 3 8 (1 3 2 )2 + 3 8 (2 3 2 )2 + 1 8 (3 3 2 )2 = 1 8 9+3+3+9 4 = 3 1 4 10

Fairer Münzwurf: VarZ 1 = 1 4 Var [Z 1 +Z 2 ] = 2 14 Var [Z 1 +Z 2 +Z 3 ] = 3 14 11

Beispiel: Eine p-münze wird einmal geworfen. P(Z = 1) = p, P(Z = 0) = q Var[Z] =? q(0 p) 2 +p(1 p) 2 = qp 2 +p 2 = pq(p+q) = pq. 12

Aufgabe: Eine p-münze wird n-mal geworfen. Var[Z 1 + +Z n ] =? Das möchte man nicht mehr zu Fuß ausrechnen. Es gibt hilfreiche Formeln. 13

Var[X] = E[X 2 ] E[X] 2 Denn: E[(X µ) 2 ] = E[X 2 2µX +µ 2 ] = E[X 2 ] 2µE[X]+µ 2 (wegen Linearität des Erwartungswertes) 14

Aus der Gleichheit Var[X] = E[X 2 ] E[X] 2 folgt Var[X] = E[X(X 1)]+E[X] E[X] 2 15

Beispiel: Sei X eine Bin(n, p)-verteilte Zufallsvariable VarX =? E[X(X 1)] = n k=0 k(k 1) ( ) n k p k q n k = n(n 1)p 2 n k=2 ( n 2 k 2 ) p k 2 q (n 2) (k 2) = n(n 1)p 2. 16

E[X(X 1)] = n(n 1)p 2. Var[X] = E[X(X 1)]+E[X] E[X] 2 = n(n 1)p 2 +np (np) 2 = np np 2 = npq. Fazit: Die Varianz einer Bin(n, p)-verteilten Zufallsvariablen X ist VarX = npq. 17

Die Varianz einer Poissonverteilten Zufallsvariablen: Zur Erinnerung: Die Poissonverteilung mit Parameter λ entsteht als Grenzwert von Binomialverteilungen mit n, p 0, np λ. Weil dann npq gegen λ konvergiert, steht zu vermuten: Die Varianz einer Pois(λ)-verteilten Zufallsvariablen X ist λ. 18

Beweis durch Rechnung: E[X(X 1)] = k=0 k(k 1) λk k! e λ = λ 2 k=2 λ k 2 (k 2)! e λ = λ 2. Var[X] = E[X(X 1)]+E[X] E[X] 2 = λ 2 +λ λ 2. 19

Z 1,...,Z n p-münzwurf, X = Z 1 + +Z n Var[Z i ] = pq, Var[X] = npq. Wir haben das über die Biomialgewichte ausgerechnet. Kann man es auch direkt sehen? Wie steht s mit der Varianz einer Summe von Zufallsvariablen? 20

Var[X +Y = E[((X µ X )+(Y µ Y )) 2 ] = E[(X µ X ) 2 +E[(Y µ Y ) 2 ]+2E[(X µ X )(Y µ Y )] Mit der Definition der Covarianz Cov[X,Y] := E[(X µ X )(Y µ Y )] bekommen wir Var[X +Y] = Var X +Var Y +2Cov[X,Y]. 21

Die Covarianz Cov[X,Y] = E[(X µ X )(Y µ Y )] ist positiv, wenn X und Y die Tendenz haben, gemeinsam über bzw. gemeinsam unter ihrem Erwartungswert zu sein. (Größere Abweichungen fallen dabei mehr ins Gewicht.) 22

Zwei Spezialfälle: Y = X : Cov[X,Y] = E[(X µ X )(X µ X )] = Var[X] Y = X : Cov[X,Y] = E[(X µ X )( X +µ X )] = Var[X] 23

Var[X +Y] = VarX +VarY +2Cov[X,Y]. Ganz analog ergibt sich: Var[Z 1 + +Z n ] = VarZ 1 + VarZ n +2 i<j Cov[Z i,z j ] Was ist Cov[Z i,z j ] beim Münzwurf? 24

Eine nützliche Umformung von Cov[X,Y] = E[(X µ X )(Y µ Y )]: Cov[X,Y] = E[XY] E[X]E[Y] Beim p-münzwurf: E[Z i Z j ] = P(Z i = 1,Z j = 1) = p 2, E[Z i ]E[Z j ] = P(Z i = 1)P(Z j = 1) = p 2 Also ist beim p-münzwurf Cov[Z i,z j ] = 0. 25

Damit haben wir noch einmal bewiesen: Die Varianz einer Bin(n, p)-verteilten Zufallsvariablen ist n pq. 26

Wir halten fest: Sind X 1,...,X n reellwertige Zufallsvariable mit endlicher Varianz und Cov[X i,x j ] = 0 für i j (man sagt dafür auch: die X i sind paarweise unkorreliert) dann gilt: Var[X 1 + +X n ] = VarX 1 + +VarX n 27

Var[Z 1 + +Z n ] = VarZ 1 + +VarZ n +2 i<j Cov[Z i,z j ] Beispiel: Die Anzahl der Erfolge beim Ziehen ohne Zurücklegen Die hypergeometrische Verteilung. In einer Urne sind r rote und b blaue Kugeln. Es wird n-mal ohne Zurücklegen gezogen. X := Anzahl der gezogenen roten Kugeln. Var[X] =? 28

Zur Erinnerung: Mit g := r +b ist P(X = k) = ( r k )( b n k ) ( g n), k = 0,...,r. X heißt hypergeometrsich verteilt mit Parametern n, g und r. Erwartungswert und Varianz kann man direkt über die Verteilungsgewichte ausrechnen (siehe Buch S. 32). Es geht auch eleganter (vgl Buch S. 50/51): 29

Wir betrachten dazu die Zufallsvariable Z i, die... den Wert 1 annimmt, falls die i-te gezogene Kugel rot ist,... und sonst den Wert 0. Man sagt dafür auch: Z i ist die Indikatorvariable (kurz: der Indikator) des Ereignisses {i-te gezogene Kugel rot}. 30

X := Z 1 + +Z n E[Z i ] = P(Z i = 1) = p, mit p := r g der Anteil der roten Kugeln in der Urne. Also: E[X] = np. Und wie stehts mit der Varianz von X? 31

X := Z 1 + +Z n VarX = VarZ 1 + +VarZ n +2 1 i<j n Cov[Z i,z j ] Sei g = r +b die Gesamtanzahl der Kugeln, p := r der Anteil der roten Kugeln in der Urne, g q := 1 p. VarZ i = pq. Cov[Z i,z j ] =? 32

Cov[Z i,z j ] = P(Z i = 1,Z j = 1) P(Z i = 1)P(Z j = 1) = r(r 1) g(g 1) r g 2 = r g r 1 g 1 r = r g g g +r (g 1)g = 1 r(g r) g 1 g 2 = 1 g 1 pq. 33

VarX = VarZ 1 + +VarZ n +2 1 i<j n Cov[Z i,z j ] = nvarz 1 +n(n 1)Cov[Z 1,Z 2 ] = npq n(n 1) 1 g 1 pq = npq 1 n 1 = npq g n g 1 g 1. 34

Fazit: Die Varianz von Hyp(n,g,pg) ist npq g n g 1. 35

Wir hatten gebraucht: Cov[Z i,z j ] = 1 g 1 pq Diese Formel bekommt man übrigens noch eleganter: Wir ziehen in Gedanken, bis die Urne leer ist (d.h. wir setzen n = g.) 36

Wir ziehen in Gedanken, bis die Urne leer ist. Dann ist Z 1 + +Z g = r, also Var[Z 1 + +Z g ] = 0. 0 = VarZ 1 + +Var Z g +2 1 i<j g Cov[Z i,z j ], d.h. 0 = gpq +g(g 1)Cov[Z 1,Z 2 ], d.h. Cov[Z 1,Z 2 ] = 1 g 1 pq 37

Zusammenfassung: Var[X] := E[(X µ) 2 ] Var[X +Y] = Var[X]+Var[Y]+Cov[X,Y] Die Varianz einer Summe von unkorrelierten ZV en ist gleich der Summe der Varianzen, die Varianz einer Summe von negativ korrelierten ZV en ist kleiner als die Summe der Varianzen. 38

Die Varianz von Bin(n, p) ist npq die von Hyp (n,g,pg) ist npq g n g 1. Die Varianz einer Poisson(λ)-verteilten Zufallsvariablen ist so groß wie ihr Erwartungswert, nämlich λ. 39