Vorlesung 7b. Der Zentrale Grenzwertsatz

Ähnliche Dokumente
Vorlesung 5a. Varianz und Kovarianz

Vorlesung 7a. Der Zentrale Grenzwertsatz

Vorlesung 5a. Zufallsvariable mit Dichten

Vorlesung 5a. Die Varianz

Vorlesung 7a. Unabhängigkeit

Vorlesung 5b. Zufallsvariable mit Dichten

Vorlesung 4b. Die Varianz

Varianz und Kovarianz

Vorlesung 4b. Die Varianz

4. Verteilungen von Funktionen von Zufallsvariablen

Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung

Wichtige Definitionen und Aussagen

Zweitklausur. b p b. q a. c 1. p a

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr

Vorlesung 8a. Kovarianz und Korrelation

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II

Zulassungsprüfung Stochastik,

13 Grenzwertsätze Das Gesetz der großen Zahlen

70 Wichtige kontinuierliche Verteilungen

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Vorlesung 8b. Kovarianz, Korrelation und Regressionsgerade

Wahrscheinlichkeitstheorie und Statistik

Vorlesung 9b. Kovarianz und Korrelation

Vorlesung 7b. Kovarianz und Korrelation

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Vorlesung 3b. Der Erwartungswert

2 Zufallsvariable und Verteilungsfunktionen

Die Varianz (Streuung) Definition

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom

Wirtschaftsmathematik

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Statistik für Ingenieure Vorlesung 5

Vorlesung 8b. Bedingte Erwartung und bedingte Varianz

Statistik I für Betriebswirte Vorlesung 4

7.5 Erwartungswert, Varianz

5 Erwartungswerte, Varianzen und Kovarianzen

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

4.2 Moment und Varianz

Vorlesung 12a. Zerlegung der Varianz

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie. Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 2

22 Charakteristische Funktionen und Verteilungskonvergenz

Stochastik Wiederholung von Teil 1

Diskrete Strukturen II

Stetige Verteilungen, Unabhängigkeit & ZGS

Klausur zur Vorlesung Stochastik II

Einführung in Quantitative Methoden

Vorlesung 6b. Von der Binomial-zur Normalverteilung

2 Zufallsvariable, Verteilungen, Erwartungswert

Mathematische Ökonometrie

7.2 Moment und Varianz

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Scheinklausur zur Vorlesung Stochastik II

Grundbegriffe der Stochastik II

Vorlesung 13b. Relative Entropie

5. Spezielle stetige Verteilungen

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Erwartungswert und Varianz von Zufallsvariablen

Statistik I für Betriebswirte Vorlesung 3

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik I für Betriebswirte Vorlesung 5

Unabhängige Zufallsvariablen

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212

Kapitel 2.9 Der zentrale Grenzwertsatz. Stochastik SS

Stetige Verteilungen, Unabhängigkeit & ZGS

Vorlesung 4b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

1.5 Mehrdimensionale Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Wahrscheinlichkeitstheorie und Statistik vom

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Y = g 2 (U 1,U 2 ) = 2 ln U 1 sin 2πU 2

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

Biostatistik, Sommer 2017

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Vorlesung 3b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson

Mathematica: u=5;s=1;plot[exp[-0.5((x-u)/s)^2],{x,0,10}] 76

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Wahrscheinlichkeitsräume und Zufallsvariablen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Stochastische Prozesse

Wahrscheinlichkeit und Statistik: Zusammenfassung

Mathematik für Biologen

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Statistische Methoden

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

Transkript:

Vorlesung 7b Der Zentrale Grenzwertsatz 1

Zentraler Grenzwertsatz (Tschebyscheff) Die standardisierte Summe von unabhängigen, identisch verteilten R-wertigen Zufallsvariablen konvergiert in Verteilung gegen eine standard-normalverteilte Zufallsvariable. 2

Formal: Seien X 1, X 2,... unabhängige und identisch verteilte Zufallsvariable mit endlichem Erwartungswert µ und endlicher Varianz σ 2 > 0. Dann gilt für alle a < b R { X P 1 + + X n nµ nσ 2 } [a, b] P{Z [a, b]}. n Dabei ist Z standard-normalverteilt. Noch zu klären ist: Was heißt: X 1, X 2,... unabhängig? 3

Die Zufallsvariablen X 1,..., X n heißen (stochastisch) unabhängig, wenn ihre gemeinsame Verteilung die folgende Produktgestalt hat: P{X 1 A 1,..., X n A n } = P{X 1 A 1 } P{X n A n }. 4

Sind die Zufallsvariablen X i diskret, dann ist notwendig und hinreichend für ihre Unabhängigkeit, dass P{X 1 = a 1,..., X n = a n } = P{X 1 = a 1 } P{X n = a n }. M.a. W.: Die gemeinsamen Verteilungsgewichte sind die Produkte der Randverteilungsgewichte: ν(a 1,..., a n ) = ν 1 (a 1 ) ν n (a n ). 5

Wenn die Zufallsvariablen X 1,..., X n eine gemeinsame Dichte besitzen, dann ist die Unabhängigkeit gleichbedeutend damit, dass diese Dichte das Produkt über die Dichten der Randverteilungen ist: f(x 1,..., x n ) d(x 1,..., x n ) = f 1 (x 1 ) f n (x n ) dx 1 dx n 6

Beispiel: Unabhängige standard-normalverteilte Z 1,..., Z n haben die gemeinsame Dichte 1 (2π) n/2e (z2 1 + +z2 n)/2 dz = 1 /2 dz. (2π) n/2e z 2 7

Sind Z 1,..., Z n unabhängig und standard-normalverteilt, dann ist auch Y := 1 n (Z 1 +... + Z n ) standard-normalverteilt. Am elegantesten sieht man das geometrisch (vgl. Vorlesung 6a für den Fall n = 2): 8

Wir betrachten im R n den Einheitsvektor a := 1 n (1,...,1). Y := 1 n (Z 1 +... + Z n ) lässt sich auffassen als a-koordinate des zufälligen Vektors Z := (Z 1,..., Z n ). Wegen der Rotationsinvarianz der Verteilung von Z ist Y so verteilt wie die erste Standardkoordinate Z 1. 9

Die folgende einfache Bemerkung wird uns auch hilfreich sein beim Beweis des Zentralen Grenzwertsatzes: Sind Y 1,..., Y n unabhängig, dann sind für m < n auch die beiden Tupel (Y 1,..., Y m ) und (Y m+1,..., Y n ) voneinander unabhängig. 10

Inbesondere folgt aus der Unabhängigkeit der Y 1,..., Y n, für reellwertige g und h die folgende Produktformel: E[g(Y 1,..., Y m ) h(y m+1,..., Y n )] = E[g(Y 1,..., Y m )]E[h(Y m+1,..., Y n )], vorausgesetzt die Erwartungswerte sind endlich. (Vgl. dazu auch Vorlesung 5a.) 11

Definition: Eine Folge von Zufallsvariablen Y 1, Y 2,... heißt unabhängig, wenn je endlich viele Y 1,..., Y n unabhängig sind. 12

Wir sind jetzt vorbereitet auf eine Beweisskizze des Zentralen Grenzwertsatzes. Dieser besagt: Seien X 1, X 2,... unabhängige und identisch verteilte Zufallsvariable mit endlichem Erwartungswert µ und endlicher Varianz σ 2 > 0. Dann gilt für alle a < b R { X P 1 + + X n nµ nσ 2 } [a, b] P{Z [a, b]}. n Dabei ist Z standard-normalverteilt. 13

X 1, X 2,... seien identisch verteilte rellwertige Zufallsvariable mit endlicher Varianz. Ohne Einschränkung können wir annehmen: E[X i ] = 0, VarX i = 1. (Denn sonst gehen wir einfach zu den standardisierten Zufallsvariablen X i µ σ über.) 14

Die Behauptung ist dann: [ (X E 1 1 + + X n ) ] [a,b] n n E[1 [a,b] (Z)] mit standard-normalverteiltem Z. 15

Weil man Indikatorfunktionen 1 [a,b] durch glatte Funktionen h approximieren kann, reicht es (wie man zeigen kann, mehr dazu später), diese Konvergenz nur für solche h zu beweisen. 1 a b 16

Satz. Sei h : R R dreimal stetig differenzierbar und seien h, h, h und h beschränkt. Dann gilt [ E h ( X 1 + + X n ) ] n n E[h(Z)] 17

Beweisskizze: Die Hauptidee besteht darin, eine Folge von unabhängigen standard-normalverteilten Zufallsvariablen (Z 1, Z 2,...) ins Spiel zu bringen, die zusammen mit (X 1, X 2,...) ein zufälliges Paar von Folgen bilden. Dabei seien alle Z 1, Z 2,..., X 1, X 2,... unabhängig. Wir wissen schon, dass gilt: [ E[h(Z)] = E h ( Z 1 + + Z n ) ]. n Wir folgen einem im Klassiker Probability von Leo Breiman (SIAM 1992) angegebenen Beweis. 18

Außerdem ergibt sich mit der Linearität des Erwartungswertes: [ E h ( X 1 + + X n n ) ] [ E h ( Z 1 + + Z n ) ] n [ = E h ( X 1 + + X n n ) (Z h 1 + + Z n ) ] n 19

Außerdem ergibt sich mit der Linearität des Erwartungswertes: [ E h ( X 1 + + X n n ) ] [ E h ( Z 1 + + Z n ) ] n [ = E h ( X 1 + + X n n ) h (Z 1 + + Z n n ) ] ). Es reicht also zu zeigen, dass letzteres für n gegen Null konvergiert. 20

Eine clevere Idee ist es jetzt, die Differenz als Teleskopsumme darzustellen: h ( X 1 + + X n ) (Z h 1 + + Z n ) n n = n i=1 ( h ( X 1 + + X i 1 + X i + Z i+1 + + Z n ) n h ( X 1 + + X i 1 + Z i + Z i+1 + + Z n ) ) n 21

Taylorentwicklung ergibt: = n i=1 X i Z i h ( X 1 + + X i 1 + Z i+1 + + Z n ) n n + n i=1 X 2 i Z2 i 2n h ( X 1 + + X i 1 + Z i+1 + + Z n ) n + n i=1 ( X 3 i 6n 3/2h (Y i ) Z3 ) i 6n 3/2h (Ỹ i ) mit passenden Zwischenstellen Y i, Ỹ i. 22

Wir nehmen der Einfachheit halber an: E[ X 1 3 ] <. Ist C eine obere Schranke von h, so folgt E [ h ( X 1 + + X n ) (Z h 1 + + Z n ) ] n n n 1 6n 3/2(E[ X 1 3 ] + E[ Z 1 3 ])C 0, denn die Erw. werte der ersten beiden Summen sind Null wegen E[X 1 ] = E[Z 1 ] = 0 und E[X 2 1 ] = E[Z2 1 ] = 1, zusammen mit der Unabhängigkeit der X i, Z i und der oben festgestellten Produktformel. 23

Hier ist die (oben präzisierte) Botschaft der Stunde: Summen (und Mittelwerte) von vielen unabhängigen, identisch verteilten ZV mit endlicher Varianz sind annähernd normalverteilt. Diese Aussage bleibt übrigens auch unter schwächeren Bedingungen bestehen, sowohl was die Unabhängigkeit, als auch was die identische Verteiltheit betrifft. Zu letzterem vgl Skript Kersting, Abschnitt 6.3. 24

Eine gängige und nützliche Variante unseres Zentralen Grenzwertsatzes ist: Seien X 1, X 2,... unabhängig und identisch verteilt mit endlichem Erwartungswert µ und endlicher Varianz σ 2. Dann gilt für die standardisierten Summen V n := X 1 + + X n nµ : nσ 2 E[g(V n )] n E[g(Z)] für jede stetige und beschränkte Abbildung g : R R. Dabei ist Z standard-normalverteilt. 25

(Auch beim Beweis dieser Variante kann man verwenden, dass sich eine stetige und beschränkte Abbildung g geeignet durch glatte Abbildungen h approximieren lässt; mehr dazu später.) 26

Das folgende (auch für sich interessante) Beispiel wird uns einen hübschen Beweis der Stirling-Formel liefern. Beispiel: Y n sei Poisson-verteilt mit Parameter n. Dann konvergiert für n V n := Y n n n in Verteilung gegen ein standardnormalverteiltes Z. 27

Denn: Die Summe von n unabhängigen Poisson(1)-verteilten Zufallsvariablen ist Poisson(n)-verteilt (vgl. Übungsaufgabe). Damit folgt die behauptete Verteilungskonvergenz aus dem Zentralen Grenzwertsatz. (Zur Erinnerung: Die Varianz einer Poisson(λ)-verteilten Zufallsvariable ist λ.) 28

Für l N sei g l (x) := x + l, x R. Dabei verwenden wir die Notation a b := min(a, b), a b := max(a, b), x + := x 0. x + = x 0 l x + l l AAAAAAAAAAAAAAA 29

Weil x g l (x) eine beschränkte, stetige Funktion ist, liefert der Zentrale Grenzwertsatz: E[g l (V n )] n E[g l (Z)] Mit anderen Worten: E[V n + l] n E[Z+ l] Behauptung: Es gilt auch E[V + n ] n E[Z+ ] Dazu schätzen wir die Differenzen ab: 30

E[Z + ] E[Z + l] = E[Z + Z + l] E[Z 1 [l, ) (Z)] = 1 2π l xe x2 /2 dx 0. l 31

E[V + n ] E[V + n l] = E[V + n V + n l] E[V n 1 [l, ) (V n )] Mit der Cauchy-Schwarz-Ungleichung E[XY ] E[X 2 ] E[Y 2 ] (siehe unten) können wir weiter abschätzen: E[V 2 n ] E[1 [l, ) (V n )] = 1 P{V n l}. 32

Mit der Tschebyscheff-Ungleichung ergibt sich (man beachte E[V n ] = 0, Var V n = 1): P{V n l} 1 l 2. Insgesamt also: E[V + n ] E[V + n l] 1 l. 33

Aus dem eben Bewiesenen, E[V + n l] n E[Z+ l], E[Z + ] E[Z + l] l 0, E[V + n ] E[V + n l] 1 l, folgt E[V + n ] n E[Z + ] 34

Für das standard-normalverteilte Z gilt: E[Z + ] = 1 2π 0 xe x2 /2 dx = 1 2π Andererseits gilt für das Poisson(n)-verteilte Y n (Übungsaufgabe!) E[(Y n n) + n nn+1 ] = e n! Also: E[V n + ] = 1 E[(Y n n) + ( n ] = n e ) n n 1/2 n! 35

Unser Grenzwertsatz E[V + n ] n E[Z + ] besagt also: ( n e ) n n 1/2 n! n 1 2π. Das ist aber nichts anderes als eine Umstellung der Stirling-Formel, die wir damit aus dem Zentralen Grenzwertsatz hergeleitet haben. 36

Wir tragen nach: Cauchy-Schwarz-Ungleichung: Für zwei reellwertige Zufallsvariable U, V gilt: E[ UV ] E[U 2 ] E[V 2 ] Beweis: Ist E[U 2 ] = 0, so folgt P{U = 0} = 1, E[ UV ] = 0. (Im diskreten Fall ist das klar, für den allgemeinen Fall kommen wir hierauf zurück.) Wir können also annehmen: 0 < E[U 2 ], 0 < E[V 2 ]. 37

Für E[U 2 ] = oder E[V 2 ] = gilt dann die CS-Ungleichung klarerweise. Bleibt der Fall 0 < E[U 2 ] <, 0 < E[V 2 ] <. Setzen wir X := U/ E[U 2 ], Y := V/ E[V 2 ]. Dann gilt E[X 2 ] = E[Y 2 ] = 1, und zu zeigen bleibt E[ XY ] 1. Dies folgt durch Bilden des Erwartungswertes über XY 1 2 (X2 + Y 2 ). 38