Y = g 2 (U 1,U 2 ) = 2 ln U 1 sin 2πU 2

Ähnliche Dokumente
11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

11 Mehrdimensionale Zufallsvariablen

4.2 Moment und Varianz

7.2 Moment und Varianz

5 Erwartungswerte, Varianzen und Kovarianzen

9 Die Normalverteilung

Statistik I für Betriebswirte Vorlesung 3

10 Transformation von Zufallsvariablen

Statistik I für Betriebswirte Vorlesung 4

Varianz und Kovarianz

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Grenzwertsätze Das Gesetz der großen Zahlen

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.

4. Verteilungen von Funktionen von Zufallsvariablen

Unabhängige Zufallsvariablen

Kapitel 8: Zufallsvektoren

7.5 Erwartungswert, Varianz

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

1.5 Mehrdimensionale Verteilungen

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

Übungsrunde 10, Gruppe 2 LVA , Übungsrunde 10, Gruppe 2, Markus Nemetz, TU Wien,

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

5 Zufallsvariablen, Grundbegriffe

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Unabhängigkeit von Zufallsvariablen

2 Zufallsvariable und Verteilungsfunktionen

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Vorlesung 7b. Der Zentrale Grenzwertsatz

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr

Wahrscheinlichkeitsrechnung und Statistik

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen

5. Spezielle stetige Verteilungen

Wahrscheinlichkeitsrechnung und Statistik

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Reelle Zufallsvariablen

1.5 Erwartungswert und Varianz

Bivariate Normalverteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

15.3 Statistische Tests von Pseudozufallszahlen

Mehrdimensionale Zufallsvariablen

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Wirtschaftsmathematik

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom

Bem. 6 Die charakterische Funktion existiert.

Die Varianz (Streuung) Definition

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

7.4 Charakteristische Funktionen

Statistik für Ingenieure Vorlesung 3

4 MEHRDIMENSIONALE VERTEILUNGEN

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN

Name Vorname Fachrichtg. Matrikelnr. Punkte Klausur Aufgabe max. Punkte Punkte. Bitte beachten!

1. Grundbegri e der Stochastik

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

8. Stetige Zufallsvariablen

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Einführung in die angewandte Stochastik

Studienbegleitende Prüfung Stochastik 2

Finanzmathematische Modelle und Simulation

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.

Mathematik für Informatiker III im WS 05/06 Musterlösung zur 4. Übung

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Statistik für Ingenieure Vorlesung 5

Zusatzmaterial zur Vorlesung Statistik II

1.4 Stichproben aus einer Normalverteilung

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)

Statistik I für Betriebswirte Vorlesung 3

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

1.5 Erwartungswert und Varianz

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER

13 Grenzwertsätze Das Gesetz der großen Zahlen

Wahrscheinlichkeitsrechnung und Statistik

Die n-dimensionale Normalverteilung

Klausurenkurs zum Staatsexamen (SS 2015): Differential und Integralrechnung 6

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212

Lösungen zu Übungsaufgaben Blatt 9

A1: Diplomvorprüfung HM II/III WS 2007/

Vorlesung 9b. Kovarianz und Korrelation

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze

Theorem 9 Sei G eine Verteilungsfunktion in IR. 1. Quantil-Transformation: Wenn U U(0, 1) (standard Gleichverteilung), dann gilt P(G (U) x) = G(x).

1 Multivariate Zufallsvariablen

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II

Zulassungsprüfung Stochastik,

Probeklausur zur Analysis 2, SoSe 2017

Klausurenkurs zum Staatsexamen (WS 2014/15): Differential und Integralrechnung 6

7 Integralrechnung für Funktionen einer Variablen

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

Diskrete Zufallsvariablen (Forts.) I

Transkript:

Bsp. 72 (BOX MÜLLER Transformation) Es seien U 1 und U 2 zwei unabhängige, über dem Intervall [0, 1[ gleichverteilte Zufallsgrößen (U i R(0, 1), i = 1, 2), U = (U 1,U 2 ) T ein zufälliger Vektor. Wir betrachten den zufälligen Vektor V = g(u) = (X,Y ) T, wobei: X = g 1 (U 1,U 2 ) = 2 ln U 1 cos 2πU 2 Y = g 2 (U 1,U 2 ) = 2 ln U 1 sin 2πU 2 Wir suchen die Dichtefunktionen für die zufälligen Variablen X und Y. Wir bestimmen zunächst die Umkehrfunktion zur Abbildung g. Es gilt: U = g 1 (V) = (ψ 1 (X,Y ),ψ 2 (X,Y )). 430 W.Kössler, Humboldt-Universität zu Berlin

Wir ermitteln die Teilfunktionen ψ 1 und ψ 2. Dazu berechnen wir X 2 + Y 2 = ( 2 ln U 1 cos 2 (2πU 2 )) + ( 2 ln U 1 sin 2 (2πU 2 )) = ( 2 ln U 1 ) (cos 2 (2πU 2 ) + sin 2 (2πU 2 )) = 2 ln U 1 Durch Umstellen erhalten wir: U 1 = ψ 1 (X,Y ) = e 1 2 (X2 +Y 2). Weiterhin gilt: Y X = tan 2πU 2. 431 W.Kössler, Humboldt-Universität zu Berlin

Daraus folgt: U 2 = ψ 2 (X,Y ) = 1 2π arctan Bestimmung von J. Wir wissen bisher: ( ) Y. X Dann gilt für ψ 1 (x,y) = e 1 2 (x2 +y 2) = u 1 ψ 2 (x,y) = 1 ( y ) 2π arctan x J = ψ 1 x ψ 2 x ψ 1 y ψ 2 y = u 2 432 W.Kössler, Humboldt-Universität zu Berlin

x exp( 1 2 J = (x2 + y 2 )) y exp( 1 2 (x2 + y 2 )) 1 y 1 1 2π 1+ y2 x 2 x 2 2π 1+ y2 x 2 x = 1 ( 2π exp 1 ) ( 2) x 2 (x2 + y 2 2 ) x 2 + y + y2 2 x 2 + y = 1 1 2 (x2 +x 2 ) 2π e Für die Dichtefunktion des zufälligen Vektors V gilt nach der Transformationsformel: f V (x,y) = f U (ψ 1 (x,y),ψ 2 (x,y)) J. Da die Zufallsgrößen U 1 und U 2 unabhängig sind, gilt: f V (x,y) = f U1 (ψ 1 (x,y)) f U2 (ψ 2 (x,y)) J. 433 W.Kössler, Humboldt-Universität zu Berlin

Nun sind U 1,U 2 R(0, 1). Daraus folgt aber: f V (x,y) = J = 1 2π e = f X (x) f Y (y). 1 2 (x2 +y 2) = 1 e 1 2 x2 2π 1 2π e 1 2 y2 mit f X (x) = f Y (y) = 1 2π e 1 2 x2 1 2π e 1 2 y2 Das bedeutet, daß die Zufallsgrößen X und Y unabhängig und standardnormalverteilt sind: X N(0, 1), Y N(0, 1). 434 W.Kössler, Humboldt-Universität zu Berlin

Bsp. 73 (Treffen einer Zielscheibe ) Es seien folgende Bedingungen erfüllt V1: Die Randverteilungen von X und Y seien stetig V2: Die Dichte h(x,y) von (X,Y ) hängt nur vom Abstand x 2 + y 2 vom Nullpunkt ab (Radialsymmetrie) V3: Die Fehler in x- und y-richtung sind unabhängig. Sei Z die zufällige Abweichung in beliebiger Richtung. Dann ist Z N(0,σ 2 ). Beweis: Seien p(x) und q(y) Randdichten von (X,Y ). Aus 435 W.Kössler, Humboldt-Universität zu Berlin

V2 und V3 folgt Substitutionsmethode: p(x)q(y) = s(r), r 2 = x 2 + y 2 (3) x = 0: p(0)q(y) = s(y), p(0) 0 y = 0: q(0)p(x) = s(x), damit p(0)p(y) = s(y) q(0) 0 x = y: p(x) = q(x) und Teilen obige Funktionalgleichung durch p(0) 2, p(x) p(0) p(y) p(0) = s(r) p(0) = p(r) 2 p(0) 436 W.Kössler, Humboldt-Universität zu Berlin

Logarithmieren ln( p(x) p(0) ) + ln(p(y) p(0) ) = ln(p(r) p(0) ) Mit f(x) := ln( p(x) p(0) ): f(x) + f(y) = f(r), r 2 = x 2 + y 2 y = 0,x = x 1 : f( x) = f( x ) wegen f(0) = 0. x 2 = x 2 1 + x 2 2: f(r) = f(y)+f(x 1 )+f(x 2 ), r 2 = y 2 +x 2 1 +x 2 2 437 W.Kössler, Humboldt-Universität zu Berlin

Wiederholtes Einsetzen: f(r) = f(x 1 )+f(x 2 )+...+f(x k ), r 2 = k = n 2,x = x 1 =... = x k : k i=1 x 2 i f(nx) = n 2 f(x) x=1 f(n) = n 2 f(1) x = m n,m Z: n 2 f( m n ) = f(nm n ) = f(m) = m2 f(1) f( m n ) = f(1)( m n ) 2 f(x) = cx 2, c = f(1) 438 W.Kössler, Humboldt-Universität zu Berlin

für alle rationalen x. Wegen der Stetigkeit (V1) folgt diese Relation für alle x R. p(x) = p(0)e cx2 p(x) > 0 da Wkt.dichte, c < 0, c := 1 1 = p(x)dx = p(0) 2σ 2. p(x) = 1 σ 2π e Gemeinsame Dichte von (X,Y ): e cx2 dx = p(0)σ 2π x 2 2σ 2 p(x)p(y) = 1 x 2 +y 2 σ 2 2π e 2σ 2. 439 W.Kössler, Humboldt-Universität zu Berlin

Fehler in einer beliebigen Richtung, θ, 0 θ 2π: Z = X cos(θ) + Y sin(θ) Variablentransformation z = x cos(θ) + y sin(θ) u = x cos(θ) y sin(θ) 1 0 Jacobi-Determinante J: J = 0 1 = 1 = 1 Quadrieren liefert z 2 u 2 = x 2 cos 2 (θ) + y 2 sin 2 (θ) + 2xy cos(θ) sin(θ) = x 2 cos 2 (θ) + y 2 sin 2 (θ) 2xy cos(θ) sin(θ) Addition: x 2 + y 2 = z 2 + u 2 also gemeinsame Dichte von 440 W.Kössler, Humboldt-Universität zu Berlin

(Z,U): h 1 (z,u) = 1 z 2 +u 2 σ 2 2π e 2σ 2 = 1 σ 2π e z 2 1 2σ 2 σ 2π e d.h. Z und U sind unabhängig, h 1 (z,u) = h Z (z)h U (u) und u 2 2σ 2 h Z (z) = 1 σ 2π e z 2 2σ 2 441 W.Kössler, Humboldt-Universität zu Berlin

Satz 32 (Transformationssatz für EW) Es sei X = (X 1,...,X p ) T ein zufälliger Vektor und g: R p R eine Abbildung. a) Es sei X diskret mit Wkt.funktion (Zähldichte) f. Falls g(x) f(x) < so gilt: E(g(X)) = g(x)f(x). x x b) Es sei X stetig. f : R p R sei die Dichtefunktion des zufälligen Vektors X. Falls g(x 1,...,x p ) f(x 1,...,x p )dx 1...dx p < R p 442 W.Kössler, Humboldt-Universität zu Berlin

gilt, so: Eg(X) = g(x 1,...,x p ) f(x 1,...,x p )dx 1...dx p. R p Bem.: Der Beweis des Satzes erfordert Maßtheorie. Wir haben eine eingeschränkte Version bereits im Abschnitt Erwartungswerte gezeigt. Bsp. 74 Es sei X = (X 1,X 2 ) T ein stetiger zufälliger Vektor mit Dichtefunktion f(x 1,x 2 ). Wir definieren die Funktion g: R 2 R durch g(x) := X 1 + X 2. Dann gilt:

Eg(X) = E(X 1 + X 2 ) = g(x 1,x 2 ) f(x 1,x 2 )dx 1 dx 2 R 2 + + = (x 1 + x 2 ) f(x 1,x 2 )dx 1 dx 2 = = x 1 f(x 1,x 2 )dx 1 dx 2 + x 2 f(x 1,x 2 )dx 1 dx 2 R 2 R 2 + + f(x 1,x 2 )dx 2 dx 1 + x 1 + x 2 + f(x 1,x 2 )dx 1 dx 2

Eg(X) = + x 1 f X1 (x 1 )dx 1 + + x 2 f X2 (x 2 )dx 2 = EX 1 + EX 2 Allgemeiner erhalten wir also für zwei stetige zufällige Variablen X 1 und X 2 : E(c X 1 + d X 2 ) = c EX 1 + d EX 2. Das ist ein Beweis der Aussage 5 in Satz 11 für stetige zufällige Variablen. 445 W.Kössler, Humboldt-Universität zu Berlin

11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient ϱ(x 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen X 1 und X 2. Ist cov (X 1,X 2 ) = 0 dann heißen die beiden Zufallsgrößen unkorreliert. Bem.: X 1 und X 2 unabhängig cov (X 1,X 2 ) = 0. Die Umkehrung der Aussage gilt im allgemeinen nicht. 446 W.Kössler, Humboldt-Universität zu Berlin

Bsp. 75 (2x2 Tafel) Y X Raucher Nichtraucher Summe w p 11 p 12 p 1. m p 21 p 22 p 2. Summe p.1 p.2 1 X Bi(1,p.2 ) Y Bi(1,p 2. ) E(X) = p.2 var(x) = p.2 (1 p.2 ) = p.2 p.1 E(Y ) = p 2. var(y ) = p 2. (1 p 2. ) = p 2. p 1. cov(x,y ) = E(X Y ) E(X)E(Y ) = p 22 p.2 p 2. 447 W.Kössler, Humboldt-Universität zu Berlin

Korrelationskoeffizient: ρ = p 22 p.2 p 2. p.2 p 1. p 2. p.1 = p 11p 22 p 12 p 21 p.2 p 2. p 1. p.1 p 22 p 2. p.2 = p 22 (p 21 + p 22 )(p 12 + p 22 ) = p 22 (p 21 p 12 + p 22 p 12 + p 21 p 22 + p 2 22) = p 22 (1 p 12 p 21 p 22 ) p 21 p 12 = p 22 p 11 p 21 p 12 448 W.Kössler, Humboldt-Universität zu Berlin

Satz 33 Es seien X 1 und X 2 zwei Zufallsgrößen, für die σ X1,σ X2 > 0 ist. Dann gilt für den Korrelationskoeffizienten dieser beiden zufälligen Variablen: 1 ϱ(x 1,X 2 ) 1. Beweis: Wir definieren eine Funktion A wie folgt: A(t,u) := E[t (X 1 EX 1 ) + u (X 2 EX 2 )] 2 0. 449 W.Kössler, Humboldt-Universität zu Berlin

Nun gilt für alle t,u R: A(t,u) = E(t 2 (X 1 EX 1 ) 2 + u 2 (X 2 EX 2 ) 2 ) +2tuE(X 1 EX 1 )(X 2 EX 2 ) = t 2 E(X 1 EX 1 ) 2 + u 2 E(X 2 EX 2 ) 2 +2tuE((X 1 EX 1 )(X 2 EX 2 )) = t 2 VarX 1 + 2 t u cov (X 1,X 2 ) + u 2 VarX 2 0 Wir setzen t := σ X2 und u := σ X1. Außerdem dividieren wir 450 W.Kössler, Humboldt-Universität zu Berlin

durch σ X1 σ X2 : A(σ X2,σ X1 ) σ X1 σ X2 = σ2 X 2 σ 2 X 1 +2 σ X1 σ X2 cov (X 1,X 2 )+σ 2 X 1 σ 2 X 2 σ X1 σ X2 = σ X1 σ X2 + 2 cov (X 1,X 2 ) + σ X1 σ X2 = 2 σ X1 σ X2 + 2 cov (X 1,X 2 ) 0 Also: σ X1 σ X2 + cov (X 1,X 2 ) 0. Andererseits gilt aber auch mit t := σ X2 und u := σ X1 sowie derselben Herleitung wie oben: A( σ X2,σ X1 ) σ X1 σ X2 = σ2 X 2 σ 2 X 1 2 σ X1 σ X2 cov (X 1,X 2 )+σ 2 X 1 σ 2 X 2 σ X1 σ X2 = 2 σ X1 σ X2 2 cov (X 1,X 2 ) 0 451 W.Kössler, Humboldt-Universität zu Berlin

Also: σ X1 σ X2 cov (X 1,X 2 ) 0. Das heißt jedoch, daß gilt: σ X1 σ X2 cov (X 1,X 2 ) σ X1 σ X2. Wir stellen etwas um und erhalten: 1 cov (X 1,X 2 ) σ X1 σ X2 = ϱ(x 1,X 2 ) 1. 452 W.Kössler, Humboldt-Universität zu Berlin

Bem. 16 Die Ungleichung kann auch direkt aus der Cauchy-Schwarz schen Ungleichung hergeleitet werden. Satz 34 Es seien X 1 und X 2 zwei Zufallsgrößen, für die σ X1,σ X2 > 0 ist. Dann gilt ϱ(x 1,X 2 ) = 1 genau dann, wenn es Zahlen a,b R (a 0) gibt, so daß gilt: P(X 1 = a X 2 + b) = 1. Beweis: ( =) Es seien die Zahlen a,b R so gewählt, daß gilt P(X 1 = a X 2 + b) = 1. Für Erwartungswert und Varianz der Zufallsgröße X 1 453 W.Kössler, Humboldt-Universität zu Berlin

gilt dann: EX 1 = E(a X 2 + b) = a EX 2 + b, σx 2 1 = σa X 2 2 +b = σa X 2 2 = a 2 σx 2 2. Damit gilt für den Korrelationskoeffizienten der 454 W.Kössler, Humboldt-Universität zu Berlin

Zufallsgrößen X 1 und X 2 : ϱ(x 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 = E((X 1 EX 1 ) (X 2 EX 2 )) a σ X2 σ X2 = E([(a X 2+b) (a EX 2 +b)] (X 2 EX 2 )) a σ 2 X 2 = a E(X 2 EX 2 ) 2 = a σ2 X 2 a σx 2 a σ 2 2 X 2 = Das bedeutet: ϱ(x 1,X 2 ) = 1. 1, falls a > 0 1, falls a < 0 455 W.Kössler, Humboldt-Universität zu Berlin

(= ) Es gelte ϱ(x 1,X 2 ) = 1. Nun gilt: ϱ(x 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 = E((X 1 EX 1 ) (X 2 EX 2 )) σ X1 σ X2 = E Wir definieren zwei Zufallsgrößen: ( ) X 1 EX 1 σ X1 X2 EX 2 σ X2 X 1 := X 1 EX 1 σ X1, X 2 := X 2 EX 2 σ X2. Für die Varianz dieser Zufallsgrößen X i (i = 1, 2) gilt 456 W.Kössler, Humboldt-Universität zu Berlin

dann: σ 2 X i = E (X i EX i ) 2 = E (Xi ) 2 (EXi ) 2 ( ) 2 X = E i EX i σ Xi (E ( )) 2 X i EX i σ Xi = 1 σ 2 X i (E(X i EX i ) 2 (E(X i EX i )) 2) = 1 σ 2 X i σ 2 X i EX i = 1 σ 2 X i σ 2 X i = 1 457 W.Kössler, Humboldt-Universität zu Berlin

Wir ermitteln jetzt die Erwartungswerte (i = 1, 2): ( ) EXi X = E i EX i σ Xi = 1 σ Xi (EX i E(EX i )) = 1 σ Xi (EX i EX i ) = 0 Daraus folgt: ϱ(x 1,X 2 ) = E (X 1 X 2). Wir unterscheiden zwei Fälle: ϱ(x 1,X 2 ) = 1: Wir untersuchen die Varianz der 458 W.Kössler, Humboldt-Universität zu Berlin

Zufallsgröße X 1 X 2: σ 2 X 1 X 2 = E ((X1 X2) E (X1 X2)) 2 = E ((X1 X2) EX1 + EX2) 2 = E (X1 X2) 2 = E (X1) 2 2 E (X1 X2) + E (X2) 2 Für i = 1, 2 gilt nun: E (X i ) 2 = E (X i EX i ) 2 = σ 2 X i = 1. 459 W.Kössler, Humboldt-Universität zu Berlin

Damit erhalten wir dann: σ 2 X 1 X 2 = E (X 1) 2 2 E (X 1 X 2) + E (X 2) 2 = 2 2 ϱ(x 1,X 2 ) = 0 Nun gilt aber σx 2 = 0 genau dann, wenn es ein 1 X 2 c R gibt, so daß P (X1 X2 = c) = 1 ist. Das bedeutet aber, daß gilt: E (X1 X2) = c. Wegen EX1 = EX 2 = 0 ist c = 0, woraus folgt P (X1 = X2) = 1. 460 W.Kössler, Humboldt-Universität zu Berlin

Dann gilt: 1 = P (X 1 = X 2) = P = P = P ( ) X 1 EX 1 σ X1 = X 2 EX 2 σ X2 ( ) X 1 = σ X 1 X 2 σ X1 EX 2 σ X2 + EX 1 ( ) X 1 = σ X 1 σ X2 X 2 σ X 1 σ X2 EX 2 + EX 1 Wir definieren a := σ X 1 σ X2 > 0 und b := σ X 1 σ X2 EX 2 + EX 1, und die Aussage ist für diesen Fall gezeigt. ϱ(x 1,X 2 ) = 1: Hier untersucht man die Varianz der Zufallsgröße X 1 + X 2 und zeigt, daß sie ebenfalls gleich Null ist. Danach verläuft der Beweis völlig 461 W.Kössler, Humboldt-Universität zu Berlin

analog zum Fall ϱ(x 1,X 2 ) = 1. Bem. 17 Eine Zufallsgröße, deren Erwartungswert gleich Null und deren Varianz gleich Eins sind, heißt standardisierte Zufallsgröße. 462 W.Kössler, Humboldt-Universität zu Berlin