Vorlesung 7a. Unabhängigkeit

Ähnliche Dokumente
Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung

Vorlesung 7b. Der Zentrale Grenzwertsatz

Vorlesung 11b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 5a. Zufallsvariable mit Dichten

Vorlesung 5a. Die Varianz

Vorlesung 3. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 5a. Varianz und Kovarianz

Vorlesung 4b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson

Vorlesung 4b. Die Varianz

Vorlesung 3b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 9b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 2

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Vorlesung 2b. Diskrete Zufallsvariable. und ihre Verteilungen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 5b. Zufallsvariable mit Dichten

Vorlesung 4b. Die Varianz

Vorlesung 3b. Der Erwartungswert

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Unabhängigkeit von Zufallsvariablen

Vorlesung 7a. Der Zentrale Grenzwertsatz

Unabhängige Zufallsvariablen

Vorlesung 6b. Zufallsvariable mit Dichten. Teil 1 Uniforme Verteilung & Co.

Biostatistik, Winter 2011/12

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 1

Statistik I für Betriebswirte Vorlesung 3

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze

Statistik I für Betriebswirte Vorlesung 4

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Statistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie

2 Zufallsvariable, Verteilungen, Erwartungswert

4. Verteilungen von Funktionen von Zufallsvariablen

Stochastik Wiederholung von Teil 1

1.5 Mehrdimensionale Verteilungen

Sprechstunde zur Klausurvorbereitung

Vorlesung 13a. Schätzen von Parametern. Teil 2

Reelle Zufallsvariablen

Zweitklausur. b p b. q a. c 1. p a

Vorlesung 9b. Bedingte Wahrscheinlichkeiten und bedingte Erwartungswerte

Stochastik. Peter Pfaffelhuber

Statistik für Informatiker, SS Verteilungen mit Dichte

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.

2 Zufallsvariable und Verteilungsfunktionen

Wirtschaftsmathematik

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Vorlesung 8b. Bedingte Erwartung und bedingte Varianz

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Statistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

7.5 Erwartungswert, Varianz

Unabhängigkeit KAPITEL 4

KAPITEL 5. Erwartungswert

Klausur zur Vorlesung Stochastik II

5. Stichproben und Statistiken

Die Varianz (Streuung) Definition

Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

70 Wichtige kontinuierliche Verteilungen

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Wahrscheinlichkeitstheorie und Statistik vom

4.2 Moment und Varianz

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

67 Zufallsvariable, Erwartungswert, Varianz

Statistik I für Betriebswirte Vorlesung 2

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Diskrete Strukturen II

5 Erwartungswerte, Varianzen und Kovarianzen

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Stochastik für Studierende der Informatik

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom

Mustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

7.2 Moment und Varianz

Paarweise Unabhängigkeit vs. Unabhängigkeit

Wichtige Definitionen und Aussagen

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr

Ü b u n g s b l a t t 7

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Vorlesung 12a. Schätzen von Parametern. Teil 2

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

Mathematik für Biologen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Die Probabilistische Methode

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom

Übungen zu Wahrscheinlichkeitstheorie und Statistik

Transkript:

Vorlesung 7a Unabhängigkeit 1

Wir erinnern an die Definition der Unabhängigkeit von zwei Zufallsvariablen (Buch S. 61): Zufallsvariable X 1,X 2 heißen (stochastisch) unabhängig, falls für alle Ereignisse {X 1 A 1 }, {X 2 A 2 } gilt: P(X 1 A 1,X 2 A 2 ) = P(X 1 A 1 )P(X 2 A 2 ) ( Produktformel ) 2

Erwartungswert unabhängiger Produkte Satz: X 1,X 2 unabhängige ZV e mit Zielbereichen S 1,S 2, h 1,h 2 Abbildungen von S 1 bzw. S 2 in die reellen Zahlen. Haben h 1 (X 1 ) und h 2 (X 2 ) endlichen Erwartungswert, so folgt E [ h 1 (X 1 )h 2 (X 2 ) ] = E [ h 1 (X 1 ) ] E [ h 2 (X 2 ) ]. Insbesondere sind (im Fall endlicher Varianzen) h 1 (X 1 ) und h 2 (X 2 ) unkorreliert. 3

Beweis für diskrete ZV e: a 1,a 2 h 1 (a 1 )h 2 (a 2 )P(X 1 = a 1,X 2 = a 2 ) = a 1,a 2 h 1 (a 1 )P(X 1 = a 1 )h 2 (a 2 )P(X 2 = a 2 ) = a 1 h 1 (a 1 )P(X 1 = a 1 ) a 2 h 2 (a 2 )P(X 2 = a 2 ). 4

Zufallsvariable X 1,...,X n mit Zielbereichen S 1,...,S n heißen (stochastisch) unabhängig, falls für alle Ereignisse {X i A i } folgende Produktformel gilt: P(X 1 A 1,...,X n A n ) = P(X 1 A 1 ) P(X n A n ). 5

Für diskrete Zufallsvariable ist die Unabhängigkeit geichbedeutend mit der Produktform der Verteilungsgewichte: P(X 1 = a 1,...,X n = a n ) = ρ 1 (a 1 ) ρ n (a n ) Die ρ i (a i ) sind dann die Verteilungsgewichte von X i. 6

Sei X 1,X 2,... eine Folge von Zufallsvariaben. Definition: Die Zufallsvariablen X 1,X 2,... sind unabhängig : für jedes n sind X 1,...,X n unabhängig. Beispiele: Fortgesetzter Münzwurf, fortgesetztes Würfeln 7

Ereignisse E 1,...,E n heißen unabhängig : I E1,...,I En sind unabhängig. Satz: Dies ist gleichbedeutend mit P(E i1 E ik ) = P(E i1 ) P(E ik ) für beliebige 1 i 1 < < i k n. Einen eleganten Beweis führt man mit einem Faktorisierungsargument für Indikatorvariable (ähnlich wie bei der Einschluss-Ausschlussformel in Vorlesung 6) vgl. Buch Seite 67. 8

I E1 E i Ei+1 c Ec = I n E 1 E i (1 I Ei+1 ) (1 I En ) = I E1 E i I E1 E i E j + I E1 E i E j E k j>i k>j>i 9

E[I E1 E i Ei+1 c Ec] = E[I n E 1 E i (1 I Ei+1 ) (1 I En )] = E[I E1 E i ] E[I E1 E i E j ]+ E[I E1 E i E j E k ] j>i k>j>i 10

E[I E1 E i Ei+1 c Ec] = E[I n E 1 E i (1 I Ei+1 ) (1 I En )] = E[I E1 E i ] E[I E1 E i E j ]+ E[I E1 E i E j E k ] j>i k>j>i Mit den vorausgesetzen Produktformeln folgt P(E 1 E i E c i+1 Ec n) = P(E 1 ) P(E i ) ( 1 j>i P(E j )+ k>j>i P(E j )P(E k ) ) 11

E[I E1 E i Ei+1 c Ec] = E[I n E 1 E i (1 I Ei+1 ) (1 I En )] = E[I E1 E i ] E[I E1 E i E j ]+ E[I E1 E i E j E k ] j>i k>j>i Mit den vorausgesetzen Produktformeln folgt P(E 1 E i E c i+1 Ec n) = P(E 1 ) P(E i ) ( 1 j>i P(E j )+ k>j>i = P(E 1 ) P(E i )(1 P(E i+1 )) (1 P(E n )) P(E j )P(E k ) ) 12

E[I E1 E i Ei+1 c Ec] = E[I n E 1 E i (1 I Ei+1 ) (1 I En )] = E[I E1 E i ] E[I E1 E i E j ]+ E[I E1 E i E j E k ] j>i k>j>i Mit den vorausgesetzen Produktformeln folgt P(E 1 E i E c i+1 Ec n) = P(E 1 ) P(E i ) ( 1 j>i P(E j )+ k>j>i = P(E 1 ) P(E i )(1 P(E i+1 )) (1 P(E n )) P(E j )P(E k ) ) = P(E 1 ) P(E i )P(E c i+1 ) P(Ec n). 13

Fazit: Die Unahängigkeit zweier Ereignisse E 1,E 2 ist äquivalent zur Produktformel P(E 1 E 2 ) = P(E 1 )P(E 2 ) 14

Und die Unabhängigkeit dreier Ereignisse E 1, E 2, E 3 ist äquivalent dazu, dass beide der folgenden Bedingungen a) und b) erfüllt sind: a) P(E 1 E 2 ) = P(E 1 )P(E 2 ), P(E 1 E 3 ) = P(E 1 )P(E 3 ), P(E 2 E 3 ) = P(E 2 )P(E 3 ). b) P(E 1 E 2 E 3 ) = P(E 1 )P(E 2 )P(E 3 ) a) oder b) allein reichen i.a. nicht für die Unabhängigkeit: 15

Beispiel: Z 1,Z 2,Z 3 sei ein 1 2 -Münzwurf, E 1 := {Z 1 = 1}, E 2 := {Z 2 = 1}, E 3 := {Z 1 = Z 2 } E 1,E 2,E 3 sind paarweise unabhängig, aber nicht unabhängig. 16

Aufgabe: Finden Sie ein möglichst einfaches Beispiel mit 3 Ereignissen E 1, E 2, E 3, die trotz der Gleichheit P(E 1 E 2 E 3 ) = P(E 1 )P(E 2 )P(E 3 ) nicht unabhängig sind. 17

Gewisse Teilaspekte von abhängigen Zufallsvariablen können unabhängig sein: Beispiel (vgl. Buch S. 65): (X,Y) seien rein zufällige Zwei aus {1,2,...,32}. Offenbar sind X und Y nicht unabhängig, wohl aber die Ereignisse E 1 := {X ist durch 8 teilbar } und E 2 := {17 Y 24}. Denn P(E 1 ) = 1 8,P(E 2) = 1 4,P(E 1 E 2 ) = 7 1+8 3 32 31 = 1 32. 18

Ein Beispiel für indirekte Abhängigkeiten: (vgl. Buch S. 68) (X,Y) sei ein p-münzwurf, U sei uniform verteilt auf {0,1}, X, Y, U seien unabhängig. P(X = U) = p 1 2 +q1 2 = 1 2, analog: P(Y = U) = 1 2 19

Ein Beispiel für indirekte Abhängigkeiten: (vgl. Buch S. 68) (X,Y) sei ein p-münzwurf, U sei uniform verteilt auf {0,1}, X, Y, U seien unabhängig. P(X = U) = p 1 2 +q1 2 = 1 2, analog: P(Y = U) = 1 2 P(X = U,Y = U) = (p 2 +q 2 ) 1 2 p 2 +q 2 = (p+q) 2 2pq = 1 2pq 1 2, mit = genau dann wenn p = 1 2.

Ein Beispiel für indirekte Abhängigkeiten: (vgl. Buch S. 68) (X,Y) sei ein p-münzwurf, U sei uniform verteilt auf {0,1}, X, Y, U seien unabhängig. P(X = U) = p 1 2 +q1 2 = 1 2, analog: P(Y = U) = 1 2 P(X = U,Y = U) = (p 2 +q 2 ) 1 2 p 2 +q 2 = (p+q) 2 2pq = 1 2pq 1 2, mit = genau dann wenn p = 2 1. Für p 1 2 sind I {X=U} und I {Y=U} nicht unabhängig!

Unabhängigkeit von Zufallsvariablen mit Dichten Satz X 1,...,X n seien reellwertige Zufallsvariable. Dann sind äquivalent: (i) X 1,...,X n sind unabhängig, und X i hat die Dichte f i (a i )da i, i = 1,...,n. (ii) (X 1,...,X n ) hat die Dichte f(a 1,...,a n )da 1...da n := f 1 (a 1 ) f n (a n )da 1...da n 20

Beispiel: Multivariate Standard-Normalverteilung. Sei Z := (Z 1,...,Z n ). Dann gilt: Z 1,...,Z n sind unabhängig und N(0,1)-verteilt P(Z da) = 1 (2π) n/2 exp ( mit a 2 := a 2 1 + +a2 n. a 2 ) da, a R n, 2 Z heißt dann standard-normalverteilt auf R n. 21

Analog zum Fall n = 2 (vgl. Folien der Vorlesung 5b) gilt: Ist Z = (Z 1,...,Z n ) standard-normalverteilt auf R n und sind τ 1,...,τ n reelle Zahlen mit τ 2 1 + +τ2 n = 1, dann ist Y := τ 1 Z 1 + +τ n Z n N(0,1)-verteilt. ( Y ist die Koordinate von Z = Z 1 e 1 + +Z n e n zum Einheitsvektor u := τ 1 e 1 + +τ n e n.) Insbesondere ergibt sich: Z 1 + +Z n n ist N(0,1)-verteilt. 22