13 Grenzwertsätze Das Gesetz der großen Zahlen
|
|
- Caroline Koch
- vor 6 Jahren
- Abrufe
Transkript
1 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n (n N) und bildet dann das arithmetische Mittel dieser Beobachtungen: n X = 1 n X i =: X n i=1 Dabei muß man jedoch beachten, daß die Beobachtungen X 1,...,X n unabhängig oder wenigstens unkorreliert sind. 495 W.Kössler, Humboldt-Universität zu Berlin
2 Satz 43 (Schwaches Gesetz der großen Zahlen) Es seien X 1,...,X n unkorrelierte zufällige Variablen mit µ := EX i und σ 2 := VarX i < (für alle i = 1,...,n). Dann gilt für alle ε > 0: lim n P( X n µ > ε) = 0. Beweis: Zum Beweis des Satzes verwenden wir die Ungleichung von TSCHEBYCHEW (vgl. Satz??). 496 W.Kössler, Humboldt-Universität zu Berlin
3 Da die Zufallsgrößen X 1,...,X n unkorreliert sind, gilt ( ) ( n n ) Var X = Var X i = 1 Var X n 2 i = 1 n 2 1 n n i=1 i=1 i=1 Var (X i ) = 1 n 2 n σ 2 = σ2 n EX = E = 1 n ( 1 n ) n X i i=1 = 1 n E ( n i=1 n EX i = 1 n µ = µ n i=1 X i ) 497 W.Kössler, Humboldt-Universität zu Berlin
4 Mittels der TSCHEBYCHEV Ungleichung erhalten wir: P( X n µ > ε) = P( X EX > ε) = VarX ε 2 σ 2 n ε 2 n 0 Bem. 19 Aus dem Beweis erkennen wir, daß die Voraussetzungen etwas abgeschwächt werden können, anstelle Var X i = σ 2 genügt die Forderung lim n 1 n 2 VarXi = W.Kössler, Humboldt-Universität zu Berlin
5 Def. 45 Wenn lim P( Y n Y 0 > ε) = 0 ε > 0 n dann heißt Y 0 stochastischer Grenzwert der Folge {Y n } und man schreibt p lim Y n = Y W.Kössler, Humboldt-Universität zu Berlin
6 Bsp. 81 Es seien X i B(1,p) X i : p p Dann gilt: µ := EX = EX i = 0 (1 p) + 1 p = p 500 W.Kössler, Humboldt-Universität zu Berlin
7 und σ 2 := E(X p) 2 = (0 p) 2 (1 p) + (1 p) 2 p = p 2 (1 p) + (1 p) 2 p = p 2 p 3 + p 2 p 2 + p 3 = p p 2 = p (1 p) Nach dem schwachen Gesetz der großen Zahlen folgt: ( ) n 1 P X n i p > ε n 0. i=1 501 W.Kössler, Humboldt-Universität zu Berlin
8 Bsp. 82 Es sei A ein Ereignis, p = P(A) sei unbekannt. Zur Schätzung von p führen wir eine Reihe von unabhängigen Experimenten durch, bei denen A und A die einzig möglichen Ausgänge seien. n: # der Experimente, die durchgeführt werden. n(a): # Auftretens des Ereignisses A. ˆp n = n(a) n die relative Häufigkeit des Ereignisses A. Frage: ˆp n n p? Dazu definieren wir Zufallsgrößen X i (i = 1,...,n), 502 W.Kössler, Humboldt-Universität zu Berlin
9 X i := 1, A im i ten Experiment eintritt 0, A im i-ten Experiment nicht eintritt Dann gilt für alle i = 1,...,n: X i B(1,p) und P(X i = 1) = p sowie P(X i = 0) = 1 p. σ 2 = VarX i = p (1 p) µ = EX i = p Wir definieren weiterhin: n X := 1 X n i = 1 n(a) = ˆp n n. i=1 503 W.Kössler, Humboldt-Universität zu Berlin
10 Wir wenden nun das Schwache Gesetz der großen Zahlen an und erhalten: lim P( ˆp n p > ε) = n Folglich gilt: ˆp n n p. lim P( X n µ > ε) n = 0, ε > 0 Bem. 20 Schätzungen ˆp n, die gegen den zu schätzenden Parameter konvergieren heißen (schwach) konsistent. 504 W.Kössler, Humboldt-Universität zu Berlin
11 Satz 44 (Gesetz der Großen Zahlen) Seien die Zufallsvariablen X 1,...,X n identisch verteilt und unabhängig, E X i <, EX i = µ. Dann gilt P(ω : lim n X n = µ) = 1. Bem. 21 Das Schwache Gesetz der Großen Zahlen lautet entsprechend: Seien die Zufallsvariablen X 1,...,X n identisch verteilt, EX i = µ und unkorreliert (cov(x i,x j ) = σ 2 δ ij ). Dann gilt p lim X n = µ. 505 W.Kössler, Humboldt-Universität zu Berlin
12 Das Gesetz der großen Zahlen eignet sich also zum Schätzen von Erwartungswerten oder auch zur Approximation von Integralen. Bsp. 83 Sei X F mit Dichte f(x), den Beobachtungen x 1,...,x n und g( ) eine beliebige Funktion. Der Erwartungswert E(g(X)) = g(x)f(x)dx wird (falls er existiert) geschätzt durch Î = 1 n n i=1 g(x i ) 506 W.Kössler, Humboldt-Universität zu Berlin
13 Bsp. 84 Ist f > 0 kann das Integral I = g(x) dx (falls es existiert) geschätzt werden durch Î = 1 n n i=1 g(x i ) f(x i ). 507 W.Kössler, Humboldt-Universität zu Berlin
14 13.2 Der Satz von GLIVENKO CANTELLI Seien X 1,...,X n zufällige Beobachtungen mit P(X i < x) = F(x), i = 1,...,n. Die Verteilungsfunktion F(x) soll durch die Funktion approximiert werden. F n (x) := #{X i : X i <x,i=1,...,n} n Def. 46 Seien X 1,...,X n unkorreliert, X i F, und X (1),...,X (n), X (1) X (2)... X (n) die geordnete 508 W.Kössler, Humboldt-Universität zu Berlin
15 Stichprobe. Die Funktion F n (x) = #{X i: X i < x,i = 1,...,n} n 0 falls x < X (1) = i falls X n (i) x < X (i+1) 1 falls X (n) < x heißt empirische Verteilungsfunktion. EDF.sas EDF 2.sas Satz 45 Seien X 1,...,X n unkorreliert. Es gilt: lim P( F n(x) F(x) > ε) = 0 x R. n 509 W.Kössler, Humboldt-Universität zu Berlin
16 Beweis: Wir definieren Zufallsgrößen Y ix (i = 1,...,n, x R) durch: 1, falls X i < x Y ix = 0, sonst Dann gilt offensichtlich für alle i = 1,...,n und x R: Y ix : F(x) F(x) D.h. Y ix B(1,F(x)). Sei, für alle x R, Y x := 1 n n Y ix. i=1 510 W.Kössler, Humboldt-Universität zu Berlin
17 Vergleichen wir die Zufallsgrößen F n (x) und Y x : Y x = F n (x). Aus Beispiel 81 folgt, µ := EY ix = F(x). Deshalb folgt aus dem schwachen Gesetz der großen Zahlen: D.h. für alle ε > 0 gilt: lim n P( Y x µ > ε) = 0, ε > 0. lim P( F n(x) F(x) > ε) = 0 n 511 W.Kössler, Humboldt-Universität zu Berlin
18 Verschärfung: Satz 46 (Satz von GLIVENKO CANTELLI) Es seien X 1,...,X n unabhängige zufällige Variablen. Dann gilt: ( ) P lim sup F n (x) F(x) = 0 = 1. n x R Dieser Satz wird auch oft als der Hauptsatz der Statistik bezeichnet. 512 W.Kössler, Humboldt-Universität zu Berlin
19 13.3 Konvergenz von Folgen zufälliger Variablen Wir betrachten in diesem Abschnitt eine Reihe von Konvergenzbegriffen, die ersten beiden haben wir schon am Anfang des Kapitels kennengelernt. Def. 47 Eine Folge {X n } n N zufälliger Variablen konvergiert stochastisch (in Wkt.) gegen eine zufällige Variable X, falls für alle ε > 0 gilt: lim P( X n X > ε) = 0. n Wir bezeichnen dann: p lim X n = X. 513 W.Kössler, Humboldt-Universität zu Berlin
20 X heißt stochastischer Grenzwert der Folge {X n }. Def. 48 Eine Folge {X n } n N zufälliger Variablen heißt fast sicher konvergent gegen eine zufällige Variable X, falls gilt: P ({ }) ω: lim X n (ω) = X(ω) n Wir bezeichnen dann: limx n = X f.s. a = 1. X heißt f.s. Grenzwert der Folge {X n }. a Das Kürzel f.s. steht für fast sicher. Manchmal findet man statt f.s. auch das Kürzel a.e.. Es bedeutet almost everywhere. 514 W.Kössler, Humboldt-Universität zu Berlin
21 Def. 49 Es seien X 1,...,X n,x zufällige Variablen mit E X i p <,E X p <. {X n } konvergiert im p-ten Mittel gegen X, falls lim E X n X p = 0. n Wir bezeichnen dann: lim n X n = X p.m. (q.m. wenn p = 2). 515 W.Kössler, Humboldt-Universität zu Berlin
22 Def. 50 Es sei {X n } n N eine Folge von zufälligen Variablen. X sei eine Zufallsgröße mit der Verteilungsfunktion F(x) = P(X < x). Die Folge {X n } n N konvergiert in Verteilung gegen die Zufallsgröße X, wenn für alle x R, in denen die Funktion F stetig ist, gilt: lim P(X n < x) = F(x). n Wir bezeichnen dann: X n D X. 516 W.Kössler, Humboldt-Universität zu Berlin
23 Wir versuchen jetzt Zusammenhänge zwischen den verschiedenen Konvergenzbegriffen herzustellen. Lemma 47 Sei X eine Zufallsvariable mit E X p <, p < p. Dann gilt ( ) E X p 1 p ( E X p) 1 p. Beweis: Die Funktion g(x) = x t ist konvex für t 1. Für eine beliebige Zufallsvariable Y gilt (Jensens Ungleichung) EY t E Y t. Sei Y = X p, t = p p 1. Daraus folgt ( E X p ) p p E (( X p ) p p ) = E X p. 517 W.Kössler, Humboldt-Universität zu Berlin
24 Folg. 7 Sei p < p. lim X n = X n p.m. lim n X n = X p.m. Beweis: Wegen Lemma 47 gilt: ( E Xn X p ) 1 p ( E X n X p) 1 p. Lemma 48 Sei p 1. Dann gilt lim X n = X p.m. p lim x X n = X. n 518 W.Kössler, Humboldt-Universität zu Berlin
25 Beweis: Es gilt für alle n: P( X n X > ε) = P( X n X p > ε p ) E X n X p ε p Markoff-Ungleichung lim P( X E X n X p n X > ε) lim = 0. n n ε p Das folgende Beispiel zeigt, daß stochastische und fast sichere Konvergenz nicht identisch sind. Bsp. 85 Wir wollen eine Folge {X n } n N zufälliger Variablen konstruieren, für die zwar p lim X n = 0 gilt, nicht aber limx n = 0 f.s. Es seien Ω = [0, 1] und E = [0, 1] B W.Kössler, Humboldt-Universität zu Berlin
26 gegeben. Für alle Ereignisse A [0, 1] gelte: 0 P(A) = 1dx 1. Wir betrachten nun eine Folge {A n } n N von Ereignissen im Ereignisfeld E. Für alle n N sei A n definiert durch: A n := [k 2 h, (k + 1) 2 h ], wobei für die Zahlen h und k folgendes gelte: h,k Z + {0}; n = 2 h + k; (n 2 2 h ) 0 k < 2 h. A 520 W.Kössler, Humboldt-Universität zu Berlin
27 Die Folge {X n } n N definieren wir nun wie folgt: 1, falls ω A n X n (ω) = 0, sonst Untersuchen wir die stochastische Konvergenz dieser Folge von Zufallsgrößen: Nach Definition der Folge {X n } n N gilt: d.h. p lim X n = 0. P( X n > ε) = P( X n = 1) = P(A n ) = (k + 1) 2 h k 2 h = 2 h 2 n 0,
28 Wir untersuchen nun, ob die Folge {X n } n N auch fast sicher gegen Null konvergiert. Sehen wir uns die Intervalle A n an, für n = 1,...,8: n = 2 h + k h k A n 1 = A 1 = [0, 1] 2 = A 2 = [0, 1] 2 3 = A 3 = [ 1, 1] 2 4 = A 4 = [0, 1] 4 5 = A 5 = [ 1, 1] = A 6 = [ 1, 3] = A 7 = [ 3, 1] 4 8 = A 8 = [0, 1] 8
29 Die Folge {A n } n N ist nirgends konvergent. Also ({ }) P ω: lim X n (ω) = 0 = 0 1. n Satz 49 Es sei {X n } n N eine Folge von zufälligen Variablen, für die es zwei Zufallsgrößen X und Y gibt, so daß gilt: Dann folgt daraus: X = p lim X n und Y = p lim X n. P(X = Y ) = 1. Beweis: Es sei ε > 0 beliebig. Dann berechnen wir P ({ω: X(ω) Y (ω) > ε}) = ( ) 523 W.Kössler, Humboldt-Universität zu Berlin
30 ( ) = P ({ω: X(ω) X n (ω) + X n (ω) Y (ω) > ε}) P ({ω: X(ω) X n (ω) + X n (ω) Y (ω) > ε}) P ({ ω: X n (ω) X(ω) > ε 2} { ω: Xn (ω) Y (ω) > ε 2 P ({ ω: XX(ω) X(ω) > 2}) ε + P ({ }) ω: X n (ω) η(ω) > ε 2 n 0 }) D.h. P( X Y > ε) = 0 ε > 0. P ({ω: X(ω) = Y (ω)}) = W.Kössler, Humboldt-Universität zu Berlin
31 Lemma 50 p lim n X n = X X n D X Wir kennen vier verschiedene Arten der Konvergenz einer Folge von Zufallsgrößen gegen eine zufällige Variable. Sie bilden z.t. eine gewisse Hierarchie. limx n = X f.s. = p lim X n = X = X n D X limx n = X q.m. = p lim X n = X Die Umkehrungen gelten im allgemeinen nicht. Da die Verteilungskonvergenz in dieser Kette die schwächste ist, wird sie oft auch als schwache Konvergenz bezeichnet. 525 W.Kössler, Humboldt-Universität zu Berlin
32 Bsp. 86 X n Bi(n,p n ), lim np n = λ, Y Poi(λ) X n D Y. Diese Aussage kennen wir schon von früher. 526 W.Kössler, Humboldt-Universität zu Berlin
33 13.4 Die fast sichere Konvergenz Dieser Abschnitt wird in der Vorlesung nicht behandelt. Er dient nur als Ergänzung für den interessierten Leser. Def. 51 Es sei {A n } n N eine Folge von Ereignissen. Wir definieren ( ) lim sup A n := lim A k. n n k=n Bem.: Wir definieren für alle n N: B n := k=n A k. Dann gilt: B n+1 B n (n N). Folglich ist die Folge {B n } n N 527 W.Kössler, Humboldt-Universität zu Berlin
34 monoton fallend. Demzufolge gilt: lim B n = n n=1 B n. Das bedeutet jedoch nichts anderes als: ( ) lim sup A n = lim A k = n n k=n n=1 ( k=n A k ). Lemma 51 (BOREL CANTELLI) Es sei {A n } n N eine Folge von Ereignissen aus einem Wahrscheinlichkeitsraum (Ω, E,P). Gilt P(A n ) <, so folgt daraus: n=1 P ( ) lim sup A n n = W.Kössler, Humboldt-Universität zu Berlin
35 Beweis: Zunächst gilt: P ( A k ) P(A n ). k=n k=n Es sei ε > 0 beliebig gewählt. Da nach Voraussetzung P(A n ) < gilt, folgt für hinreichend großes n: n=1 k=n P(A n ) < ε. Folglich gilt: 529 W.Kössler, Humboldt-Universität zu Berlin
36 P ( ) lim sup A n n = P ( lim n lim n k=n A k ) = lim n P P(A n ) = 0. k=n ( k=n A k ) Wir betrachten eine Folge {X n } n N von Zufallsvariablen, die fast sicher gegen eine zufällige Variable X konvergiert. Es gilt: lim X n = X f.s. n 530 W.Kössler, Humboldt-Universität zu Berlin
37 P P P ({ }) ω: lim X n (ω) = X(ω) = 1 n ( ) {ω: X k (ω) X(ω) ε} k=n Cauchy-Kriterium ( ) {ω: X k (ω) X(ω) > ε} k=n n 1 ε > 0 n 0 ε > 0 lim P(B n ) = 0, B n := {ω: X k (ω) X(ω) ε} n k=n ( ) P lim B n = 0 (da {B n } n N monoton fallend ist) n ( ) P lim sup B n = 0. n 531 W.Kössler, Humboldt-Universität zu Berlin
38 Satz 52 Es sei {X n } n N eine Folge von Zufallsgrößen, und X eine weitere zufällige Variable. limx n = Xf.s. p lim X n = X. Beweis: Es sei ε > 0 beliebig gewählt. Dann gilt: 0 lim P({ω: X n (ω) X(ω) > ε}) n ( ) lim P {ω: X k (ω) X(ω) > ε} n k=n = 0 nach Vor. 532 W.Kössler, Humboldt-Universität zu Berlin
39 Folg. 8 (aus dem Borel-Cantelli Lemma) P( X n X > ε) < ε > 0 lim = Xf.s. n n=1 Lemma 53 Sei p lim X n = X. Dann existiert eine Teilfolge {X nk } von {X n } so daß lim k X nk f.s. Lemma 54 n=1 E X n X p < lim n X n = Xf.s. Satz 55 (Satz von der majorisierten Konvergenz) lim n X n = X f.s. und X n Y, E Y p <. Dann gilt: lim n X n = X p.m. 533 W.Kössler, Humboldt-Universität zu Berlin
40 13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz) Es seien X 1,...,X n (n N) unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle n N Zufallsgrößen Z n, Z n und Y n durch: Z n := n X i bzw. Z n := Z n n und i=1 Y n = n Zn µ σ 534 W.Kössler, Humboldt-Universität zu Berlin
41 Dann gilt: ( lim P Z n n µ n n σ ) < x = lim P (Y n < x) = Φ(x) n = 1 2π x e t2 2 dt. Beweis: (Als Hilfsmittel werden charakteristische Funktionen verwendet, siehe unten, für den interessierten Leser) 535 W.Kössler, Humboldt-Universität zu Berlin
42 Bem.: Die Folge {Y n } n N konvergiert in Verteilung gegen eine Zufallsgröße Z, Y n D Z, Z N(0, 1). Anwendungen: Simulation bei der Erzeugung einer normalverteilten Zufallsgröße aus Pseudozufallszahlen Approximation von Wkt.-verteilungen (insbes. von Teststatistiken) 536 W.Kössler, Humboldt-Universität zu Berlin
43 Genauigkeitsabschätzung: Satz 57 (BERRY-ESSÉEN) Es seien die Voraussetzungen des zentralen Grenzwertsatzes erfüllt und M := E X i µ 3 <. Dann gilt: ) P < x Φ(x) < K, wobei K = 0,8 M σ3 n ist. ( Z n n µ n σ Bsp. 87 Es seien X i R(0, 1), µ = EX i = 1 2 σ 2 = EX 2 i µ 2 = W.Kössler, Humboldt-Universität zu Berlin
44 Wir bestimmen die Zahl M: M = E X i µ 3 = + x µ 3 f(x)dx = 1 x dx = 2 1 (x 1 2 )3 dx = n K W.Kössler, Humboldt-Universität zu Berlin
45 Bsp. 88 Seien X i Poi(λ), Wir schätzen die Zahl M ab: EX i = VarX i = λ M 1 3 = ( E X i λ 3) 1 3 Berry-Esseen Schranke: ( E X i λ 4) 1 4 (Lemma 47) = ( E(X i λ) 4) 1 4 = (λ + 3λ 2 ) 1 4 K 0.8(λ + 3λ2 ) λ 3 λ 2 n n 539 W.Kössler, Humboldt-Universität zu Berlin
46 n K W.Kössler, Humboldt-Universität zu Berlin
47 Bsp. 89 Seien X i B(1,p), i = 1,...,n, unabhängig, X i : p p EX i = µ = p; VarX i = σ 2 = p(1 p). Wir definieren nun für alle n N eine Zufallsgröße Z n := n i=1 X i. 541 W.Kössler, Humboldt-Universität zu Berlin
48 Die Zufallsgrößen Z n (n N) haben also folgende Gestalt: Z n : n p 0 p 1 p 2... p n Wir zeigen jetzt: Für alle n N gilt: Z n B(n,p),d.h. p i = ( n i) p i (1 p) n i. Beweis mittels vollständiger Induktion. IA: Es sei n = 2. Dann gilt: Z 2 = X 1 + X 2 : p 0 p 1 p W.Kössler, Humboldt-Universität zu Berlin
49 Wir ermitteln die Wktn. p 0, p 1 und p 2 : p 0 = P(Z 2 = 0) = P(X 1 = 0,X 2 = 0) = P(X 1 = 0) P(X 2 = 0) (Unabh. von X 1 und X 2 ) ( ) 2 = (1 p) (1 p) = (1 p) 2 = p 0 (1 p) p 1 = P(Z 2 = 1) = P({X 1 = 1,X 2 = 0} {X 1 = 0,X 2 = 1}) = P(X 1 = 1,X 2 = 0) + P(X 1 = 0,X 2 = 1) (Unvereinbarkeit der Ereignisse) = P(X 1 = 1) P(X 2 = 0) + P(X 1 = 0) P(X 2 = 1) ( ) 2 = p (1 p) + (1 p) p = p 1 (1 p) W.Kössler, Humboldt-Universität zu Berlin
50 IS: ÜA p 2 = P(Z 2 = 2) = P(X 1 = 1,X 2 = 1) ( ) 2 = P(X 1 = 1) P(X 2 = 1) = p 2 = p 2 (1 p) Satz 58 (MOIVRE LAPLACE) Es seien X i Bi(1,p), unabhängig. Dann gilt für Z n = n i=1 X i ( Bi(n,p)): lim Z n D Z N(np,np(1 p)) Bem.: Der Satz sagt aus, daß für ausreichend großes n N die Binomialverteilung durch die (einfachere) 544 W.Kössler, Humboldt-Universität zu Berlin
51 (Standard )Normalverteilung ersetzt werden kann, ( ) y n p P(Z n < y) Φ. n p (1 p) Beweis: Mit EZ n = np und VarZ n = np(1 p) folgt unter Anwendung des Zentralen Grenzwertsatzes: ) P(Z n < y) = P < y n µ n σ = P ( Φ ( Z n n µ n σ ( Z n n p n p (1 p) < y n p n p (1 p) ) y n p n p (1 p) ) 545 W.Kössler, Humboldt-Universität zu Berlin
52 Bsp. 90 Es seien n = 1000 und p = 0.4. Gesucht werde die Wahrscheinlichkeit P(Z n < 300). Es gilt: P(Z n < 300) = P(Z n = x) = großer Rechenaufwand. x< i=0 ( 1000 i ) 0.4 i (1 0.4) 1000 i besser: Anwendung des Satzes von MOIVRE LAPLACE. 546 W.Kössler, Humboldt-Universität zu Berlin
53 Es gilt: P(Z n < 300) Φ = Φ ( ( ) , ,4 (1 0,4) ) ( ) Φ 15,49 = Φ( 6.45) = 1 Φ(6.45) }{{} 1 0 Bem.: Die Anwendung des Satzes von MOIVRE LAPLACE setzt voraus, daß n N hinreichend groß ist. Faustregel: n p 10 und n (1 p) W.Kössler, Humboldt-Universität zu Berlin
54 Bsp. 91 Wir betrachten POISSON verteilte unabhängige Zufallsgrößen X i Poi(λ i ) (i = 1,...,n, k... X i : p 0i p 1i p 2i... p ki... mit p ji = λj i j! e λ i (i = 1,...,n). EX i = VarX i = λ i. Z n := n i=1 X i 548 W.Kössler, Humboldt-Universität zu Berlin
55 Für den Erwartungswert dieser Zufallsgrößen gilt: ( n ) n n EZ n = E X i = EX i = i=1 i=1 i=1 Wir nehmen nun an, λ i = λ, für alle i = 1,...,n. Ohne diese Annahme haben die Zufallsgrößen X i verschiedene Erwartungswerte und Varianzen, so daß der zentrale Grenzwertsatz (in der angegebenen Form) nicht anwendbar ist. Es gilt also unter dieser Annahme: EX i = µ = λ; VarX i = σ 2 = λ. λ i 549 W.Kössler, Humboldt-Universität zu Berlin
56 Lemma 59 Es seien X 1 und X 2 unabhängig, X 1,X 2 Poi(λ i ), i = 1, 2). Dann ist die Zufallsgröße Z 2 := X 1 + X 2 ebenfalls POISSON verteilt und es gilt: Z 2 Poi(λ 1 + λ 2 ). (Bem: Vergleichen Sie mit der Faltungsformel für stetige Zufallsvariablen) 550 W.Kössler, Humboldt-Universität zu Berlin
57 Beweis: Es gilt für alle k N: P(Z 2 = k) = = = k p 1 (t) p 2 (k t) t=0 k t=0 k t=0 ( λ t 1 e λ1 λk t 2 t! (k t)! e λ 2 ( ) λ t 1 λ k t 2 t! (k t)! e (λ 1+λ 2 ) = e (λ 1+λ 2) 1 k! k t=0 λ t 1 λk t 2 k! t! (k t)! = e (λ 1 +λ 2 ) k! (λ 1 + λ 2 ) k (Binomischer Lehrsatz) ) 551 W.Kössler, Humboldt-Universität zu Berlin
58 Bem. 22 Die Funktionen p 1 und p 2 heißen auch Faltungsdichten. Mit λ i = λ (i = 1,...,n) folgt daraus n Z n = X i Poi(n λ). i=1 Wir wenden jetzt den Zentralen Grenzwertsatz an. Dann erhalten wir für hinreichend großes λ := n λ: ) ) P < x = P < x Φ(x). ( Z n n µ n σ ( Z n λ λ Also kann auch eine POISSON Verteilung durch eine einfachere (Standard )Normalverteilung ersetzt werden, falls die Parameter λ i (i = 1,...,n) alle gleich λ sind und der 552 W.Kössler, Humboldt-Universität zu Berlin
59 Faktor n λ hinreichend groß ist (etwa n λ 10). Bem.: Sind die Parameter λ i (i = 1,...,n) nicht alle gleich, so gilt die Aussage trotzdem, falls ihre Summe hinreichend groß ist ( 10). 553 W.Kössler, Humboldt-Universität zu Berlin
60 Bsp. 92 Seien X i unabhängig, X i N(0, 1), i = 1,...,n. Y = n i=1 X 2 i χ 2 n, d.h. Y ist χ 2 verteilt mit n Freiheitsgraden. 1 )xn 2 2 f Y (y) = n 2 Γ( n 2 e x 2, falls x sonst. EY = n VarY = E(Y n) 2 = E( n (Xi 2 1)) 2 = ne(x1 2 1) 2 i=1 = ne(x 4 1 2EX ) = n( ) = 2n. 554 W.Kössler, Humboldt-Universität zu Berlin
61 lim P ( n i=1 X2 i n n 2n < y ) = Φ(y). P( n i=1 X 2 i < x) Φ ( x n 2n ) z.b. n = 30,x = : P( n i=1 X2 i < x) = 0.2 Φ ( x n 2n ) = Φ( ) = = W.Kössler, Humboldt-Universität zu Berlin
62 bleibt z.z.: EX 4 i = 3. 2πEX 4 i = = 2 = 0 0 x 4 e x2 2 dx x 4 e x2 2 dx, t = x 2, dx = 1 2 t 1 2 dt t 3 2 e t 2 dt = = Γ ( 5) 5 ( 1) = Γ π = = 3 2π EXi 4 = 3. 0 t e t 2 dt 556 W.Kössler, Humboldt-Universität zu Berlin
63 Dabei haben wir verwendet: 0 t λ 1 e αt dt = Γ(λ) α λ Γ(n + 1) = nγ(n) = n! Γ(n ) = (2n 1) π 2 n 557 W.Kössler, Humboldt-Universität zu Berlin
64 Beweis des Zentralen Grenzwertsatzes Sei φ X µ die charakteristische Funktion von X i µ. Da die ersten beiden Momente (µ,σ 2 ) existieren, folgt aus der Taylorreihendarstellung φ X µ (t) = σ2 t 2 + o(t 2 ) Die ZV X i µ nσ haben die charakteristische Funktion ( t ) φ X µ, nσ Die ZV Y n = n i=1 X i µ nσ hat also die charakteristische 558 W.Kössler, Humboldt-Universität zu Berlin
65 Funktion Es gilt: φ Yn (t) = ( φ X µ ( t nσ ) ) n = ( 1 t2 2n + o(t2 n )) n. ln ( 1 t2 2n + o(t2 n )) n = n ln ( 1 t 2 2n + o(t2 n )) t2 2. (vgl. Taylorreihenentwicklung des Logarithmus) 559 W.Kössler, Humboldt-Universität zu Berlin
66 ln φ Yn (t) t2 2 φ Yn (t) e t2 2. D.h. die ch.fkt. von Y n konvergiert gegen die ch.fkt. der Standard-Normalverteilung (sogar gleichmäßig). Aus dem Konvergenzsatz folgt: Y n Z N(0, 1). 560 W.Kössler, Humboldt-Universität zu Berlin
67 Bsp. 93 Münzwurf: 1000 mal. Wie groß ist die Wkt., dass weniger als 475 mal Zahl fällt? 1 falls Zahl X i = 0 sonst 1000 P( i= Xi } {{ 4 } N(0,1) Φ( ) 2 = Φ( 1.58) X i 475) = P( ) 561 W.Kössler, Humboldt-Universität zu Berlin
68 Bedeutung des ZGWS in der Statistik beim Schätzen Gesetz der Großen Zahlen: X µ. Frage: Wie groß ist der Stichprobenumfang zu wählen, um eine bestimmte Genauigkeit zu erreichen? ε, δ vorgegeben, klein (ε, δ < 0.5). n ist so zu wählen, dass P( X µ ε) 1 δ 562 W.Kössler, Humboldt-Universität zu Berlin
69 1 δ P( X µ ε) = P( ( X µ n ε n ) V arx V arx = P( n Φ( n ε σ ) ( X µ σ n ε σ ) gdw. Φ 1 (1 δ) n n ε σ ( σφ 1 (1 δ) ε ) W.Kössler, Humboldt-Universität zu Berlin
70 Bedeutung des ZGWS in der Statistik beim Testen µ := EX. Wir testen z.b. Teststatistik: H 0 : µ µ 0 gegen H 1 : µ > µ 0 T n = n X µ 0 σ T n klein spricht für H 0, T n groß gegen H 0. Fehler 1. Art: H 0 ablehnen, obwohl richtig möchte man begrenzen ( α) Fehler 2. Art: H 0 annehmen, obwohl falsch 564 W.Kössler, Humboldt-Universität zu Berlin
71 sollte auch klein sein ( β) P µ0 (T n u 1 α ) α nach ZGWS denn P µ0 (T n < u 1 α ) Φ(u 1 α ) = 1 α (wenn µ < µ 0 so P µ (T n < u 1 α ) > P µ0 (T n < u 1 α )) 565 W.Kössler, Humboldt-Universität zu Berlin
72 Bsp. 94 In der BRD gab es im Zeitraum insgesamt registrierte Lebendgeburten, davon waren Mädchen. Berechnen Sie die ein 95% Vertrauensintervall für die Wahrscheinlichkeit einer Mädchengeburt! Das zufällige Ereignis einer Mädchengeburt wird dargestellt durch eine Bernoulli-verteilte Zufallsvariable, X i B(1,p). Sei n = und n S n = i=1 X i die zufällige Anzahl der Mädchengeburten. Wir wissen, ES n = n p und VarS n = n p (1 p). 566 W.Kössler, Humboldt-Universität zu Berlin
73 Weiter sei u das Quantil der Standardnormalverteilung, d.h Φ(u ) = Nachsehen in der Tabelle liefert u = Aus dem ZGWS folgt P( S n np V arsn u ) = Die folgenden Ungleichungen gelten jeweils mit Wkt. 0.95: S n np 1.96 np(1 p) (S n np) np(1 p) n 2 p 2 2S n np + S 2 n np np W.Kössler, Humboldt-Universität zu Berlin
74 (n n)p 2 ( n + 2nS n )p + S 2 n 0 bzw. wenn wir die Schätzung ˆp = S n n für die relative Anzahl der Mädchengeburten einsetzen, für die Randpunkte des Vertrauensintervalls 1 ( p 1,2 = nˆp + ± 1.96 nˆp(1 ˆp) n Hier haben wir ˆp = S n n = = %-Vertrauensintervall: [ , ]. 568 W.Kössler, Humboldt-Universität zu Berlin
75 Bsp. 95 (Fortsetzung des vorigen Beispiels) Angenommen, es würde gelten p = 1. Mit welcher Wkt. würden dann 2 höchstens auftreten? P(S n ) = P ( S n np np(1 p) np) np(1 p) Φ( np np(1 p) ) = Φ( 137.2) W.Kössler, Humboldt-Universität zu Berlin
76 Bsp. 96 (Roulette) Beim Roulette gibt es 36 Zahlen, 18 davon sind schwarz, 18 sind rot, dazu die 0, die ist grün. Bei Setzen der richtigen Farbe gibt es den doppelten Einsatz, bei Setzen der richtigen Zahl den 36 fachen Einsatz. Zwei Spieler A und B spielen folgende Strategie: A setzt auf Farbe, B auf Zahl. Beide spielen 100 mal, und jetzen jeweils 10 Euro. Wie groß ist die Wkt., dass sie nach n = 100 Spielen mindestens 40 Euro gewonnen haben? Wir beschreiben die Gewinne/Verluste im i-ten Spiel durch 570 W.Kössler, Humboldt-Universität zu Berlin
77 Bernoulli-Zufallsvariablen, X i :, Y i : EX i = = =: µ A V arx i = EXi 2 (EX i ) 2 = 100 ( 10 EY i = )2 =: σ 2 A = =: µ B V ary i = EY 2 i (EY i ) 2 = ( 10) (10 37 )2 =: σ 2 B 571 W.Kössler, Humboldt-Universität zu Berlin
78 P ( 100 i=1 P ( 100 i=1 X i 40 ) = P ( 100 i=1 X i nµ A 40 nµ A ) n V arxi n V arxi = 1 Φ ( 40 nµ A ) n V arxi = 1 Φ(0.067) = 0.47 Y i 40 ) = P ( 100 i=1 Y i nµ B 40 nµ B ) n V arxi n V arxi = 1 Φ ( 40 nµ B ) n V arxi = 1 Φ(0.12) = W.Kössler, Humboldt-Universität zu Berlin
13.5 Der zentrale Grenzwertsatz
13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
Mehr9 Die Normalverteilung
9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,
MehrMathematische Ökonometrie
Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
Mehr11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
MehrGesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrSpezielle stetige Verteilungen
Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für
Mehr16.3 Rekurrente und transiente Zustände
16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrKapitel 2 Wahrscheinlichkeitsrechnung
Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrKlausur Stochastik und Statistik 31. Juli 2012
Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω 2 3 8 N Wir definieren
Mehrk np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr
Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p
MehrDiskrete Wahrscheinlichkeitstheorie - Probeklausur
Diskrete Wahrscheinlichkeitstheorie - robeklausur Sommersemester 2007 - Lösung Name: Vorname: Matrikelnr.: Studiengang: Hinweise Sie sollten insgesamt Blätter erhalten haben. Tragen Sie bitte Ihre Antworten
Mehr1 Dichte- und Verteilungsfunktion
Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die
MehrEinführung in die Induktive Statistik: Testen von Hypothesen
Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 9. Dezember 2010 1 Konfidenzintervalle Idee Schätzung eines Konfidenzintervalls mit der 3-sigma-Regel Grundlagen
MehrStatistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:
Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
MehrÜ b u n g s b l a t t 13
Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrMusterlösung Klausur,,Einführung in die W theorie
Institut für angewandte Mathematik Wintersemester 3/4 Andreas Eberle, Lisa Hartung / Patrick Müller Musterlösung Klausur,,Einführung in die W theorie. (Zufallsvariablen und ihre Verteilung) a) Was ist
Mehr0, t 0,5
XIII. Die Normalverteilung ==================================================================. Der lokale Grenzwertsatz --------------------------------------------------------------------------------------------------------------
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
MehrLösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6
1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung
MehrÜbung zu Empirische Ökonomie für Fortgeschrittene SS 2009
Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte
MehrMonotone Approximationen durch die Stirlingsche Formel. Wir beginnen mit einem einfachen Beweis einer schwachen Form von Stirlings
Monotone Approximationen durch die Stirlingsche Formel Wir beginnen mit einem einfachen Beweis einer schwachen Form von Stirlings Formel für n!: e n n e n n! e n n+/2 e n Genauer zeigen wir, dass die Folge
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
MehrKapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Induktive Statistik Prof. Dr. W.-D.
Mehr8. Stetige Zufallsvariablen
8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse
MehrAllgemeine Wahrscheinlichkeitsräume
Kapitel 3 Allgemeine Wahrscheinlichkeitsräume 3. Einleitung Wir hatten schon bemerkt, dass der Begriff des diskreten Wahrscheinlichkeitsraums nicht ausreicht, um das unendliche Wiederholen eines Zufallsexperiments
Mehr5 Potenzreihenansatz und spezielle Funktionen
5 Potenzreihenansatz und spezielle Funktionen In diesem Kapitel betrachten wir eine Methode zur Lösung linearer Differentialgleichungen höherer Ordnung, die sich anwenden läßt, wenn sich alle Koeffizienten
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrAbiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.
Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment
MehrK8 Stetige Zufallsvariablen Theorie und Praxis
K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R
MehrSchätzer und Konfidenzintervalle
Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl
MehrÜ b u n g s b l a t t 10
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel. 6. 2007 Ü b u n g s b l a t t 0 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrKapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion
Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig
MehrStatistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe
Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
MehrLösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
MehrZusammenfassung Stochastik I + II
Zusammenfassung Stochastik I + II Stephan Kuschel Vorlesung von Dr. Nagel Stochastik I: WS 007/08 Stochastik II: SS 008 zuletzt aktualisiert: 7. Juli 009 Da diese Zusammenfassung den Menschen, die sie
MehrKlausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne
MehrKapitel 16 : Differentialrechnung
Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrMathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007
Mathematik IV für Maschinenbau und Informatik Stochastik Universität Rostock, Institut für Mathematik Sommersemester 007 Prof. Dr. F. Liese Dipl.-Math. M. Helwich Serie Termin: 9. Juni 007 Aufgabe 3 Punkte
Mehr1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...
Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 6. Ausgewählte Verteilungen (Distributions) * diskret: Bernoulli, Binomial, Geometrisch, Poisson * stetig: Uniform, Exponential, Normal, χ 2,
MehrWir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, (
Kapitel 4 Konfidenzbereiche Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden Teil-Parameter
MehrZufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten
Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrStatistik II. Statistische Tests. Statistik II
Statistik II Statistische Tests Statistik II - 12.5.2006 1 Test auf Anteilswert: Binomialtest Sei eine Stichprobe unabhängig, identisch verteilter ZV (i.i.d.). Teile diese Stichprobe in zwei Teilmengen
Mehrε δ Definition der Stetigkeit.
ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x
MehrKapitel 5 KONVERGENZ
Kapitel 5 KONVERGENZ Fassung vom 21. April 2002 Claude Portenier ANALYSIS 75 5.1 Metrische Räume 5.1 Metrische Räume DEFINITION 1 Sei X eine Menge. Eine Abbildung d : X X! R + heißt Metrik oder Distanz
Mehr4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
MehrÜbung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
MehrZusammenfassung der Lebesgue-Integrationstheorie
Zusammenfassung der Lebesgue-Integrationstheorie Das Lebesguesche Integral verallgemeinert das Riemannsche Integral. Seine Vorteile liegen für unsere Anwendungen vor allem bei den wichtigen Konvergenzsätzen,
MehrSTETIGE VERTEILUNGEN
STETIGE VERTEILUNGEN. Die Näherungsformel von Moivre Laplace Betrachtet man die Binomialverteilungen Bnp für wachsendes n bei konstantem p, so werden die Histogramme einer binomialverteilten Zufallsvariablen
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrKlausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK
Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:
MehrScheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik
Universität Karlsruhe (TH) Institut für Stochastik Dr. Bernhard Klar Dipl.-Math. oec. Volker Baumstark Name Vorname Matr.-Nr.: Scheinklausur Stochastik für Studierende des Lehramts und der Diplom-Pädagogik
Mehr3.3 Methoden zur Evaluierung von Schätzern
3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,
MehrÜbungsaufgaben zu Partielle Differentialgleichungen Blatt III vom
Prof. Dr. M. Kaßmann Fakultät für Mathematik Wintersemester 2011/2012 Universität Bielefeld Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom 27.10.2011 Aufgabe III.1 (4 Punkte) Sei Ω R
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrChi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Die Verteilung einer Summe X +X +...+X n, wobei X,..., X n unabhängige standardnormalverteilte Zufallsvariablen sind, heißt χ -Verteilung mit n Freiheitsgraden. Eine N(, )-verteilte
Mehr3.3 Bedingte Wahrscheinlichkeit
28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit
Mehr5.8 Anpassungstests. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 389 / 419
5.8 8.1 Einführung empirische Verteilungsfunktion 8.2 EDF- Kolmogorov-Smirnov-Test Anderson-Darling-Test Cramer-von Mises-Test 8.3 Anpassungstest auf Normalverteilung - Shapiro-Wilk-Test 8.4. auf weitere
Mehr6 Reelle und komplexe Zahlenfolgen
Mathematik für Physiker I, WS 200/20 Freitag 0.2 $Id: folgen.tex,v. 200/2/06 :2:5 hk Exp $ $Id: reihen.tex,v. 200/2/0 4:4:40 hk Exp hk $ 6 Reelle und komplexe Zahlenfolgen 6. Cauchyfolgen Wir kommen nun
MehrKlausur zu Statistik II
GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel
Mehr4 Diskrete Wahrscheinlichkeitsverteilungen
4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder
Mehr8.2 Zufallsvariable und Verteilungen
8.2 Zufallsvariable und Verteilungen Sei weiter W = (Ω, E, p) ein Wahrscheinlichkeitsraum. UntereinerZufallsvariablen X von W versteht man eine Funktion X : Ω R, t X(t), für die {ω Ω; X(ω) t} für alle
MehrKapitel 1: Elemente der Statistik
1 Kapitel 1: Elemente der Statistik 1.1 Beispiel Ein Elektromarkt erhält eine Lieferung von N = 10000 Glühbirnen. Darunter ist eine unbekannte Anzahl h defekt, wobei h 0 1 = {0, 1,..., N}. Um Kenntnisse
Mehr9 Konvergenz und absolute Konvergenz von Reihen
9 Konvergenz und absolute Konvergenz von Reihen 9.2 Konvergenz von Reihen 9.5 Monotoniekriterium für Reihen 9.6 Konvergenzkriterium von Cauchy für Reihen 9.9 Rechenregeln für konvergente Reihen 9.10 Absolute
Mehr1 Reihen von Zahlen. Inhalt:
5 Kapitel 3 Reihen Reihen von Zahlen Inhalt: Konvergenz und Divergenz von Reihen reeller oder komplexer Zahlen, geometrische Reihe, harmonische Reihe, alternierende Reihen. Cauchy-Kriterium, absolute Konvergenz,
MehrStochastik und Statistik für Ingenieure Vorlesung 4
Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl
MehrKapitel 3 Schließende Statistik
Beispiel 3.4: (Fortsetzung Bsp. 3.) bekannt: 65 i=1 X i = 6, also ˆp = X = 6 65 = 0, 4 Überprüfen der Voraussetzungen: (1) n = 65 30 () n ˆp = 6 10 (3) n (1 ˆp) = 39 10 Dr. Karsten Webel 194 Beispiel 3.4:
MehrDas Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern.
10. Stetige Zufallsvariable, Normalverteilung 55 Die in den folgenden Beispielen dargestellten Verteilungen haben ungefähr Glockenform. Sie können durch die sogenannte Normalverteilung oder Gaussverteilung
MehrWebinar Induktive Statistik. - Wahrscheinlichkeitsrechnung - Stichprobentheorie
Webinar Induktive Statistik - Wahrscheinlichkeitsrechnung - Stichprobentheorie Wahrscheinlichkeitstheorie Aufgabe : Zwei Lieferanten decken den Bedarf eines PKW-Herstellers von 00.000 Einheiten pro Monat.
MehrSTOCHASTIK A&B PHILIP HERRMANN
STOCHASTIK A&B PHILIP HERRMANN Inhaltsverzeichnis 1. Kombinatorik 2 2. Wahrscheinlichkeiten 2 3. Bedingte Wahrscheinlichkeiten 3 4. Unabhängige Ereignisse 4 5. Diskrete Zufallsvariablen 4 6. Erwartungswert
MehrDarstellungsformeln für die Lösung von parabolischen Differentialgleichungen
Kapitel 8 Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Wir hatten im Beispiel 5. gesehen, dass die Wärmeleitungsgleichung t u u = f auf Ω (0, ) (8.1) eine parabolische Differentialgleichung
MehrBeispiel: Zweidimensionale Normalverteilung I
10 Mehrdimensionale Zufallsvariablen Bedingte Verteilungen 10.6 Beispiel: Zweidimensionale Normalverteilung I Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale (multivariate) Normalverteilung
MehrStatistische Tests für unbekannte Parameter
Konfidenzintervall Intervall, das den unbekannten Parameter der Verteilung mit vorgegebener Sicherheit überdeckt ('Genauigkeitsaussage' bzw. Zuverlässigkeit einer Punktschätzung) Statistischer Test Ja-Nein-Entscheidung
MehrProf. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006
Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 Hypothesentesten, Fehlerarten und Güte 2 Literatur Kreyszig: Statistische Methoden und ihre Anwendungen, 7.
MehrGrundgesamtheit und Stichprobe
Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U
MehrFüllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge
2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.
MehrEinführung in die (induktive) Statistik
Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung
MehrStochastik für Studierende der Informatik
Stochastik für Studierende der Informatik von Peter Pfaffelhuber Version: 28. September 2013 Inhaltsverzeichnis 1 Grundlegendes 3 1.1 Häufige Modelle: Münzwurf, Würfeln, Urnen.................. 3 1.2 Kombinatorik....................................
MehrDWT 334/460 csusanne Albers
Die Wahrscheinlichkeit fur den Fehler 1. Art wird mit bezeichnet, und man spricht deshalb gelegentlich vom -Fehler. heit auch Signikanzniveau des Tests. In der Praxis ist es ublich, sich ein Signikanzniveau
MehrDiskrete Verteilungen
KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder
Mehr