13 Grenzwertsätze Das Gesetz der großen Zahlen

Größe: px
Ab Seite anzeigen:

Download "13 Grenzwertsätze Das Gesetz der großen Zahlen"

Transkript

1 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n (n N) und bildet dann das arithmetische Mittel dieser Beobachtungen: n X = 1 n X i =: X n i=1 Dabei muß man jedoch beachten, daß die Beobachtungen X 1,...,X n unabhängig oder wenigstens unkorreliert sind. 495 W.Kössler, Humboldt-Universität zu Berlin

2 Satz 43 (Schwaches Gesetz der großen Zahlen) Es seien X 1,...,X n unkorrelierte zufällige Variablen mit µ := EX i und σ 2 := VarX i < (für alle i = 1,...,n). Dann gilt für alle ε > 0: lim n P( X n µ > ε) = 0. Beweis: Zum Beweis des Satzes verwenden wir die Ungleichung von TSCHEBYCHEW (vgl. Satz??). 496 W.Kössler, Humboldt-Universität zu Berlin

3 Da die Zufallsgrößen X 1,...,X n unkorreliert sind, gilt ( ) ( n n ) Var X = Var X i = 1 Var X n 2 i = 1 n 2 1 n n i=1 i=1 i=1 Var (X i ) = 1 n 2 n σ 2 = σ2 n EX = E = 1 n ( 1 n ) n X i i=1 = 1 n E ( n i=1 n EX i = 1 n µ = µ n i=1 X i ) 497 W.Kössler, Humboldt-Universität zu Berlin

4 Mittels der TSCHEBYCHEV Ungleichung erhalten wir: P( X n µ > ε) = P( X EX > ε) = VarX ε 2 σ 2 n ε 2 n 0 Bem. 19 Aus dem Beweis erkennen wir, daß die Voraussetzungen etwas abgeschwächt werden können, anstelle Var X i = σ 2 genügt die Forderung lim n 1 n 2 VarXi = W.Kössler, Humboldt-Universität zu Berlin

5 Def. 45 Wenn lim P( Y n Y 0 > ε) = 0 ε > 0 n dann heißt Y 0 stochastischer Grenzwert der Folge {Y n } und man schreibt p lim Y n = Y W.Kössler, Humboldt-Universität zu Berlin

6 Bsp. 81 Es seien X i B(1,p) X i : p p Dann gilt: µ := EX = EX i = 0 (1 p) + 1 p = p 500 W.Kössler, Humboldt-Universität zu Berlin

7 und σ 2 := E(X p) 2 = (0 p) 2 (1 p) + (1 p) 2 p = p 2 (1 p) + (1 p) 2 p = p 2 p 3 + p 2 p 2 + p 3 = p p 2 = p (1 p) Nach dem schwachen Gesetz der großen Zahlen folgt: ( ) n 1 P X n i p > ε n 0. i=1 501 W.Kössler, Humboldt-Universität zu Berlin

8 Bsp. 82 Es sei A ein Ereignis, p = P(A) sei unbekannt. Zur Schätzung von p führen wir eine Reihe von unabhängigen Experimenten durch, bei denen A und A die einzig möglichen Ausgänge seien. n: # der Experimente, die durchgeführt werden. n(a): # Auftretens des Ereignisses A. ˆp n = n(a) n die relative Häufigkeit des Ereignisses A. Frage: ˆp n n p? Dazu definieren wir Zufallsgrößen X i (i = 1,...,n), 502 W.Kössler, Humboldt-Universität zu Berlin

9 X i := 1, A im i ten Experiment eintritt 0, A im i-ten Experiment nicht eintritt Dann gilt für alle i = 1,...,n: X i B(1,p) und P(X i = 1) = p sowie P(X i = 0) = 1 p. σ 2 = VarX i = p (1 p) µ = EX i = p Wir definieren weiterhin: n X := 1 X n i = 1 n(a) = ˆp n n. i=1 503 W.Kössler, Humboldt-Universität zu Berlin

10 Wir wenden nun das Schwache Gesetz der großen Zahlen an und erhalten: lim P( ˆp n p > ε) = n Folglich gilt: ˆp n n p. lim P( X n µ > ε) n = 0, ε > 0 Bem. 20 Schätzungen ˆp n, die gegen den zu schätzenden Parameter konvergieren heißen (schwach) konsistent. 504 W.Kössler, Humboldt-Universität zu Berlin

11 Satz 44 (Gesetz der Großen Zahlen) Seien die Zufallsvariablen X 1,...,X n identisch verteilt und unabhängig, E X i <, EX i = µ. Dann gilt P(ω : lim n X n = µ) = 1. Bem. 21 Das Schwache Gesetz der Großen Zahlen lautet entsprechend: Seien die Zufallsvariablen X 1,...,X n identisch verteilt, EX i = µ und unkorreliert (cov(x i,x j ) = σ 2 δ ij ). Dann gilt p lim X n = µ. 505 W.Kössler, Humboldt-Universität zu Berlin

12 Das Gesetz der großen Zahlen eignet sich also zum Schätzen von Erwartungswerten oder auch zur Approximation von Integralen. Bsp. 83 Sei X F mit Dichte f(x), den Beobachtungen x 1,...,x n und g( ) eine beliebige Funktion. Der Erwartungswert E(g(X)) = g(x)f(x)dx wird (falls er existiert) geschätzt durch Î = 1 n n i=1 g(x i ) 506 W.Kössler, Humboldt-Universität zu Berlin

13 Bsp. 84 Ist f > 0 kann das Integral I = g(x) dx (falls es existiert) geschätzt werden durch Î = 1 n n i=1 g(x i ) f(x i ). 507 W.Kössler, Humboldt-Universität zu Berlin

14 13.2 Der Satz von GLIVENKO CANTELLI Seien X 1,...,X n zufällige Beobachtungen mit P(X i < x) = F(x), i = 1,...,n. Die Verteilungsfunktion F(x) soll durch die Funktion approximiert werden. F n (x) := #{X i : X i <x,i=1,...,n} n Def. 46 Seien X 1,...,X n unkorreliert, X i F, und X (1),...,X (n), X (1) X (2)... X (n) die geordnete 508 W.Kössler, Humboldt-Universität zu Berlin

15 Stichprobe. Die Funktion F n (x) = #{X i: X i < x,i = 1,...,n} n 0 falls x < X (1) = i falls X n (i) x < X (i+1) 1 falls X (n) < x heißt empirische Verteilungsfunktion. EDF.sas EDF 2.sas Satz 45 Seien X 1,...,X n unkorreliert. Es gilt: lim P( F n(x) F(x) > ε) = 0 x R. n 509 W.Kössler, Humboldt-Universität zu Berlin

16 Beweis: Wir definieren Zufallsgrößen Y ix (i = 1,...,n, x R) durch: 1, falls X i < x Y ix = 0, sonst Dann gilt offensichtlich für alle i = 1,...,n und x R: Y ix : F(x) F(x) D.h. Y ix B(1,F(x)). Sei, für alle x R, Y x := 1 n n Y ix. i=1 510 W.Kössler, Humboldt-Universität zu Berlin

17 Vergleichen wir die Zufallsgrößen F n (x) und Y x : Y x = F n (x). Aus Beispiel 81 folgt, µ := EY ix = F(x). Deshalb folgt aus dem schwachen Gesetz der großen Zahlen: D.h. für alle ε > 0 gilt: lim n P( Y x µ > ε) = 0, ε > 0. lim P( F n(x) F(x) > ε) = 0 n 511 W.Kössler, Humboldt-Universität zu Berlin

18 Verschärfung: Satz 46 (Satz von GLIVENKO CANTELLI) Es seien X 1,...,X n unabhängige zufällige Variablen. Dann gilt: ( ) P lim sup F n (x) F(x) = 0 = 1. n x R Dieser Satz wird auch oft als der Hauptsatz der Statistik bezeichnet. 512 W.Kössler, Humboldt-Universität zu Berlin

19 13.3 Konvergenz von Folgen zufälliger Variablen Wir betrachten in diesem Abschnitt eine Reihe von Konvergenzbegriffen, die ersten beiden haben wir schon am Anfang des Kapitels kennengelernt. Def. 47 Eine Folge {X n } n N zufälliger Variablen konvergiert stochastisch (in Wkt.) gegen eine zufällige Variable X, falls für alle ε > 0 gilt: lim P( X n X > ε) = 0. n Wir bezeichnen dann: p lim X n = X. 513 W.Kössler, Humboldt-Universität zu Berlin

20 X heißt stochastischer Grenzwert der Folge {X n }. Def. 48 Eine Folge {X n } n N zufälliger Variablen heißt fast sicher konvergent gegen eine zufällige Variable X, falls gilt: P ({ }) ω: lim X n (ω) = X(ω) n Wir bezeichnen dann: limx n = X f.s. a = 1. X heißt f.s. Grenzwert der Folge {X n }. a Das Kürzel f.s. steht für fast sicher. Manchmal findet man statt f.s. auch das Kürzel a.e.. Es bedeutet almost everywhere. 514 W.Kössler, Humboldt-Universität zu Berlin

21 Def. 49 Es seien X 1,...,X n,x zufällige Variablen mit E X i p <,E X p <. {X n } konvergiert im p-ten Mittel gegen X, falls lim E X n X p = 0. n Wir bezeichnen dann: lim n X n = X p.m. (q.m. wenn p = 2). 515 W.Kössler, Humboldt-Universität zu Berlin

22 Def. 50 Es sei {X n } n N eine Folge von zufälligen Variablen. X sei eine Zufallsgröße mit der Verteilungsfunktion F(x) = P(X < x). Die Folge {X n } n N konvergiert in Verteilung gegen die Zufallsgröße X, wenn für alle x R, in denen die Funktion F stetig ist, gilt: lim P(X n < x) = F(x). n Wir bezeichnen dann: X n D X. 516 W.Kössler, Humboldt-Universität zu Berlin

23 Wir versuchen jetzt Zusammenhänge zwischen den verschiedenen Konvergenzbegriffen herzustellen. Lemma 47 Sei X eine Zufallsvariable mit E X p <, p < p. Dann gilt ( ) E X p 1 p ( E X p) 1 p. Beweis: Die Funktion g(x) = x t ist konvex für t 1. Für eine beliebige Zufallsvariable Y gilt (Jensens Ungleichung) EY t E Y t. Sei Y = X p, t = p p 1. Daraus folgt ( E X p ) p p E (( X p ) p p ) = E X p. 517 W.Kössler, Humboldt-Universität zu Berlin

24 Folg. 7 Sei p < p. lim X n = X n p.m. lim n X n = X p.m. Beweis: Wegen Lemma 47 gilt: ( E Xn X p ) 1 p ( E X n X p) 1 p. Lemma 48 Sei p 1. Dann gilt lim X n = X p.m. p lim x X n = X. n 518 W.Kössler, Humboldt-Universität zu Berlin

25 Beweis: Es gilt für alle n: P( X n X > ε) = P( X n X p > ε p ) E X n X p ε p Markoff-Ungleichung lim P( X E X n X p n X > ε) lim = 0. n n ε p Das folgende Beispiel zeigt, daß stochastische und fast sichere Konvergenz nicht identisch sind. Bsp. 85 Wir wollen eine Folge {X n } n N zufälliger Variablen konstruieren, für die zwar p lim X n = 0 gilt, nicht aber limx n = 0 f.s. Es seien Ω = [0, 1] und E = [0, 1] B W.Kössler, Humboldt-Universität zu Berlin

26 gegeben. Für alle Ereignisse A [0, 1] gelte: 0 P(A) = 1dx 1. Wir betrachten nun eine Folge {A n } n N von Ereignissen im Ereignisfeld E. Für alle n N sei A n definiert durch: A n := [k 2 h, (k + 1) 2 h ], wobei für die Zahlen h und k folgendes gelte: h,k Z + {0}; n = 2 h + k; (n 2 2 h ) 0 k < 2 h. A 520 W.Kössler, Humboldt-Universität zu Berlin

27 Die Folge {X n } n N definieren wir nun wie folgt: 1, falls ω A n X n (ω) = 0, sonst Untersuchen wir die stochastische Konvergenz dieser Folge von Zufallsgrößen: Nach Definition der Folge {X n } n N gilt: d.h. p lim X n = 0. P( X n > ε) = P( X n = 1) = P(A n ) = (k + 1) 2 h k 2 h = 2 h 2 n 0,

28 Wir untersuchen nun, ob die Folge {X n } n N auch fast sicher gegen Null konvergiert. Sehen wir uns die Intervalle A n an, für n = 1,...,8: n = 2 h + k h k A n 1 = A 1 = [0, 1] 2 = A 2 = [0, 1] 2 3 = A 3 = [ 1, 1] 2 4 = A 4 = [0, 1] 4 5 = A 5 = [ 1, 1] = A 6 = [ 1, 3] = A 7 = [ 3, 1] 4 8 = A 8 = [0, 1] 8

29 Die Folge {A n } n N ist nirgends konvergent. Also ({ }) P ω: lim X n (ω) = 0 = 0 1. n Satz 49 Es sei {X n } n N eine Folge von zufälligen Variablen, für die es zwei Zufallsgrößen X und Y gibt, so daß gilt: Dann folgt daraus: X = p lim X n und Y = p lim X n. P(X = Y ) = 1. Beweis: Es sei ε > 0 beliebig. Dann berechnen wir P ({ω: X(ω) Y (ω) > ε}) = ( ) 523 W.Kössler, Humboldt-Universität zu Berlin

30 ( ) = P ({ω: X(ω) X n (ω) + X n (ω) Y (ω) > ε}) P ({ω: X(ω) X n (ω) + X n (ω) Y (ω) > ε}) P ({ ω: X n (ω) X(ω) > ε 2} { ω: Xn (ω) Y (ω) > ε 2 P ({ ω: XX(ω) X(ω) > 2}) ε + P ({ }) ω: X n (ω) η(ω) > ε 2 n 0 }) D.h. P( X Y > ε) = 0 ε > 0. P ({ω: X(ω) = Y (ω)}) = W.Kössler, Humboldt-Universität zu Berlin

31 Lemma 50 p lim n X n = X X n D X Wir kennen vier verschiedene Arten der Konvergenz einer Folge von Zufallsgrößen gegen eine zufällige Variable. Sie bilden z.t. eine gewisse Hierarchie. limx n = X f.s. = p lim X n = X = X n D X limx n = X q.m. = p lim X n = X Die Umkehrungen gelten im allgemeinen nicht. Da die Verteilungskonvergenz in dieser Kette die schwächste ist, wird sie oft auch als schwache Konvergenz bezeichnet. 525 W.Kössler, Humboldt-Universität zu Berlin

32 Bsp. 86 X n Bi(n,p n ), lim np n = λ, Y Poi(λ) X n D Y. Diese Aussage kennen wir schon von früher. 526 W.Kössler, Humboldt-Universität zu Berlin

33 13.4 Die fast sichere Konvergenz Dieser Abschnitt wird in der Vorlesung nicht behandelt. Er dient nur als Ergänzung für den interessierten Leser. Def. 51 Es sei {A n } n N eine Folge von Ereignissen. Wir definieren ( ) lim sup A n := lim A k. n n k=n Bem.: Wir definieren für alle n N: B n := k=n A k. Dann gilt: B n+1 B n (n N). Folglich ist die Folge {B n } n N 527 W.Kössler, Humboldt-Universität zu Berlin

34 monoton fallend. Demzufolge gilt: lim B n = n n=1 B n. Das bedeutet jedoch nichts anderes als: ( ) lim sup A n = lim A k = n n k=n n=1 ( k=n A k ). Lemma 51 (BOREL CANTELLI) Es sei {A n } n N eine Folge von Ereignissen aus einem Wahrscheinlichkeitsraum (Ω, E,P). Gilt P(A n ) <, so folgt daraus: n=1 P ( ) lim sup A n n = W.Kössler, Humboldt-Universität zu Berlin

35 Beweis: Zunächst gilt: P ( A k ) P(A n ). k=n k=n Es sei ε > 0 beliebig gewählt. Da nach Voraussetzung P(A n ) < gilt, folgt für hinreichend großes n: n=1 k=n P(A n ) < ε. Folglich gilt: 529 W.Kössler, Humboldt-Universität zu Berlin

36 P ( ) lim sup A n n = P ( lim n lim n k=n A k ) = lim n P P(A n ) = 0. k=n ( k=n A k ) Wir betrachten eine Folge {X n } n N von Zufallsvariablen, die fast sicher gegen eine zufällige Variable X konvergiert. Es gilt: lim X n = X f.s. n 530 W.Kössler, Humboldt-Universität zu Berlin

37 P P P ({ }) ω: lim X n (ω) = X(ω) = 1 n ( ) {ω: X k (ω) X(ω) ε} k=n Cauchy-Kriterium ( ) {ω: X k (ω) X(ω) > ε} k=n n 1 ε > 0 n 0 ε > 0 lim P(B n ) = 0, B n := {ω: X k (ω) X(ω) ε} n k=n ( ) P lim B n = 0 (da {B n } n N monoton fallend ist) n ( ) P lim sup B n = 0. n 531 W.Kössler, Humboldt-Universität zu Berlin

38 Satz 52 Es sei {X n } n N eine Folge von Zufallsgrößen, und X eine weitere zufällige Variable. limx n = Xf.s. p lim X n = X. Beweis: Es sei ε > 0 beliebig gewählt. Dann gilt: 0 lim P({ω: X n (ω) X(ω) > ε}) n ( ) lim P {ω: X k (ω) X(ω) > ε} n k=n = 0 nach Vor. 532 W.Kössler, Humboldt-Universität zu Berlin

39 Folg. 8 (aus dem Borel-Cantelli Lemma) P( X n X > ε) < ε > 0 lim = Xf.s. n n=1 Lemma 53 Sei p lim X n = X. Dann existiert eine Teilfolge {X nk } von {X n } so daß lim k X nk f.s. Lemma 54 n=1 E X n X p < lim n X n = Xf.s. Satz 55 (Satz von der majorisierten Konvergenz) lim n X n = X f.s. und X n Y, E Y p <. Dann gilt: lim n X n = X p.m. 533 W.Kössler, Humboldt-Universität zu Berlin

40 13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz) Es seien X 1,...,X n (n N) unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle n N Zufallsgrößen Z n, Z n und Y n durch: Z n := n X i bzw. Z n := Z n n und i=1 Y n = n Zn µ σ 534 W.Kössler, Humboldt-Universität zu Berlin

41 Dann gilt: ( lim P Z n n µ n n σ ) < x = lim P (Y n < x) = Φ(x) n = 1 2π x e t2 2 dt. Beweis: (Als Hilfsmittel werden charakteristische Funktionen verwendet, siehe unten, für den interessierten Leser) 535 W.Kössler, Humboldt-Universität zu Berlin

42 Bem.: Die Folge {Y n } n N konvergiert in Verteilung gegen eine Zufallsgröße Z, Y n D Z, Z N(0, 1). Anwendungen: Simulation bei der Erzeugung einer normalverteilten Zufallsgröße aus Pseudozufallszahlen Approximation von Wkt.-verteilungen (insbes. von Teststatistiken) 536 W.Kössler, Humboldt-Universität zu Berlin

43 Genauigkeitsabschätzung: Satz 57 (BERRY-ESSÉEN) Es seien die Voraussetzungen des zentralen Grenzwertsatzes erfüllt und M := E X i µ 3 <. Dann gilt: ) P < x Φ(x) < K, wobei K = 0,8 M σ3 n ist. ( Z n n µ n σ Bsp. 87 Es seien X i R(0, 1), µ = EX i = 1 2 σ 2 = EX 2 i µ 2 = W.Kössler, Humboldt-Universität zu Berlin

44 Wir bestimmen die Zahl M: M = E X i µ 3 = + x µ 3 f(x)dx = 1 x dx = 2 1 (x 1 2 )3 dx = n K W.Kössler, Humboldt-Universität zu Berlin

45 Bsp. 88 Seien X i Poi(λ), Wir schätzen die Zahl M ab: EX i = VarX i = λ M 1 3 = ( E X i λ 3) 1 3 Berry-Esseen Schranke: ( E X i λ 4) 1 4 (Lemma 47) = ( E(X i λ) 4) 1 4 = (λ + 3λ 2 ) 1 4 K 0.8(λ + 3λ2 ) λ 3 λ 2 n n 539 W.Kössler, Humboldt-Universität zu Berlin

46 n K W.Kössler, Humboldt-Universität zu Berlin

47 Bsp. 89 Seien X i B(1,p), i = 1,...,n, unabhängig, X i : p p EX i = µ = p; VarX i = σ 2 = p(1 p). Wir definieren nun für alle n N eine Zufallsgröße Z n := n i=1 X i. 541 W.Kössler, Humboldt-Universität zu Berlin

48 Die Zufallsgrößen Z n (n N) haben also folgende Gestalt: Z n : n p 0 p 1 p 2... p n Wir zeigen jetzt: Für alle n N gilt: Z n B(n,p),d.h. p i = ( n i) p i (1 p) n i. Beweis mittels vollständiger Induktion. IA: Es sei n = 2. Dann gilt: Z 2 = X 1 + X 2 : p 0 p 1 p W.Kössler, Humboldt-Universität zu Berlin

49 Wir ermitteln die Wktn. p 0, p 1 und p 2 : p 0 = P(Z 2 = 0) = P(X 1 = 0,X 2 = 0) = P(X 1 = 0) P(X 2 = 0) (Unabh. von X 1 und X 2 ) ( ) 2 = (1 p) (1 p) = (1 p) 2 = p 0 (1 p) p 1 = P(Z 2 = 1) = P({X 1 = 1,X 2 = 0} {X 1 = 0,X 2 = 1}) = P(X 1 = 1,X 2 = 0) + P(X 1 = 0,X 2 = 1) (Unvereinbarkeit der Ereignisse) = P(X 1 = 1) P(X 2 = 0) + P(X 1 = 0) P(X 2 = 1) ( ) 2 = p (1 p) + (1 p) p = p 1 (1 p) W.Kössler, Humboldt-Universität zu Berlin

50 IS: ÜA p 2 = P(Z 2 = 2) = P(X 1 = 1,X 2 = 1) ( ) 2 = P(X 1 = 1) P(X 2 = 1) = p 2 = p 2 (1 p) Satz 58 (MOIVRE LAPLACE) Es seien X i Bi(1,p), unabhängig. Dann gilt für Z n = n i=1 X i ( Bi(n,p)): lim Z n D Z N(np,np(1 p)) Bem.: Der Satz sagt aus, daß für ausreichend großes n N die Binomialverteilung durch die (einfachere) 544 W.Kössler, Humboldt-Universität zu Berlin

51 (Standard )Normalverteilung ersetzt werden kann, ( ) y n p P(Z n < y) Φ. n p (1 p) Beweis: Mit EZ n = np und VarZ n = np(1 p) folgt unter Anwendung des Zentralen Grenzwertsatzes: ) P(Z n < y) = P < y n µ n σ = P ( Φ ( Z n n µ n σ ( Z n n p n p (1 p) < y n p n p (1 p) ) y n p n p (1 p) ) 545 W.Kössler, Humboldt-Universität zu Berlin

52 Bsp. 90 Es seien n = 1000 und p = 0.4. Gesucht werde die Wahrscheinlichkeit P(Z n < 300). Es gilt: P(Z n < 300) = P(Z n = x) = großer Rechenaufwand. x< i=0 ( 1000 i ) 0.4 i (1 0.4) 1000 i besser: Anwendung des Satzes von MOIVRE LAPLACE. 546 W.Kössler, Humboldt-Universität zu Berlin

53 Es gilt: P(Z n < 300) Φ = Φ ( ( ) , ,4 (1 0,4) ) ( ) Φ 15,49 = Φ( 6.45) = 1 Φ(6.45) }{{} 1 0 Bem.: Die Anwendung des Satzes von MOIVRE LAPLACE setzt voraus, daß n N hinreichend groß ist. Faustregel: n p 10 und n (1 p) W.Kössler, Humboldt-Universität zu Berlin

54 Bsp. 91 Wir betrachten POISSON verteilte unabhängige Zufallsgrößen X i Poi(λ i ) (i = 1,...,n, k... X i : p 0i p 1i p 2i... p ki... mit p ji = λj i j! e λ i (i = 1,...,n). EX i = VarX i = λ i. Z n := n i=1 X i 548 W.Kössler, Humboldt-Universität zu Berlin

55 Für den Erwartungswert dieser Zufallsgrößen gilt: ( n ) n n EZ n = E X i = EX i = i=1 i=1 i=1 Wir nehmen nun an, λ i = λ, für alle i = 1,...,n. Ohne diese Annahme haben die Zufallsgrößen X i verschiedene Erwartungswerte und Varianzen, so daß der zentrale Grenzwertsatz (in der angegebenen Form) nicht anwendbar ist. Es gilt also unter dieser Annahme: EX i = µ = λ; VarX i = σ 2 = λ. λ i 549 W.Kössler, Humboldt-Universität zu Berlin

56 Lemma 59 Es seien X 1 und X 2 unabhängig, X 1,X 2 Poi(λ i ), i = 1, 2). Dann ist die Zufallsgröße Z 2 := X 1 + X 2 ebenfalls POISSON verteilt und es gilt: Z 2 Poi(λ 1 + λ 2 ). (Bem: Vergleichen Sie mit der Faltungsformel für stetige Zufallsvariablen) 550 W.Kössler, Humboldt-Universität zu Berlin

57 Beweis: Es gilt für alle k N: P(Z 2 = k) = = = k p 1 (t) p 2 (k t) t=0 k t=0 k t=0 ( λ t 1 e λ1 λk t 2 t! (k t)! e λ 2 ( ) λ t 1 λ k t 2 t! (k t)! e (λ 1+λ 2 ) = e (λ 1+λ 2) 1 k! k t=0 λ t 1 λk t 2 k! t! (k t)! = e (λ 1 +λ 2 ) k! (λ 1 + λ 2 ) k (Binomischer Lehrsatz) ) 551 W.Kössler, Humboldt-Universität zu Berlin

58 Bem. 22 Die Funktionen p 1 und p 2 heißen auch Faltungsdichten. Mit λ i = λ (i = 1,...,n) folgt daraus n Z n = X i Poi(n λ). i=1 Wir wenden jetzt den Zentralen Grenzwertsatz an. Dann erhalten wir für hinreichend großes λ := n λ: ) ) P < x = P < x Φ(x). ( Z n n µ n σ ( Z n λ λ Also kann auch eine POISSON Verteilung durch eine einfachere (Standard )Normalverteilung ersetzt werden, falls die Parameter λ i (i = 1,...,n) alle gleich λ sind und der 552 W.Kössler, Humboldt-Universität zu Berlin

59 Faktor n λ hinreichend groß ist (etwa n λ 10). Bem.: Sind die Parameter λ i (i = 1,...,n) nicht alle gleich, so gilt die Aussage trotzdem, falls ihre Summe hinreichend groß ist ( 10). 553 W.Kössler, Humboldt-Universität zu Berlin

60 Bsp. 92 Seien X i unabhängig, X i N(0, 1), i = 1,...,n. Y = n i=1 X 2 i χ 2 n, d.h. Y ist χ 2 verteilt mit n Freiheitsgraden. 1 )xn 2 2 f Y (y) = n 2 Γ( n 2 e x 2, falls x sonst. EY = n VarY = E(Y n) 2 = E( n (Xi 2 1)) 2 = ne(x1 2 1) 2 i=1 = ne(x 4 1 2EX ) = n( ) = 2n. 554 W.Kössler, Humboldt-Universität zu Berlin

61 lim P ( n i=1 X2 i n n 2n < y ) = Φ(y). P( n i=1 X 2 i < x) Φ ( x n 2n ) z.b. n = 30,x = : P( n i=1 X2 i < x) = 0.2 Φ ( x n 2n ) = Φ( ) = = W.Kössler, Humboldt-Universität zu Berlin

62 bleibt z.z.: EX 4 i = 3. 2πEX 4 i = = 2 = 0 0 x 4 e x2 2 dx x 4 e x2 2 dx, t = x 2, dx = 1 2 t 1 2 dt t 3 2 e t 2 dt = = Γ ( 5) 5 ( 1) = Γ π = = 3 2π EXi 4 = 3. 0 t e t 2 dt 556 W.Kössler, Humboldt-Universität zu Berlin

63 Dabei haben wir verwendet: 0 t λ 1 e αt dt = Γ(λ) α λ Γ(n + 1) = nγ(n) = n! Γ(n ) = (2n 1) π 2 n 557 W.Kössler, Humboldt-Universität zu Berlin

64 Beweis des Zentralen Grenzwertsatzes Sei φ X µ die charakteristische Funktion von X i µ. Da die ersten beiden Momente (µ,σ 2 ) existieren, folgt aus der Taylorreihendarstellung φ X µ (t) = σ2 t 2 + o(t 2 ) Die ZV X i µ nσ haben die charakteristische Funktion ( t ) φ X µ, nσ Die ZV Y n = n i=1 X i µ nσ hat also die charakteristische 558 W.Kössler, Humboldt-Universität zu Berlin

65 Funktion Es gilt: φ Yn (t) = ( φ X µ ( t nσ ) ) n = ( 1 t2 2n + o(t2 n )) n. ln ( 1 t2 2n + o(t2 n )) n = n ln ( 1 t 2 2n + o(t2 n )) t2 2. (vgl. Taylorreihenentwicklung des Logarithmus) 559 W.Kössler, Humboldt-Universität zu Berlin

66 ln φ Yn (t) t2 2 φ Yn (t) e t2 2. D.h. die ch.fkt. von Y n konvergiert gegen die ch.fkt. der Standard-Normalverteilung (sogar gleichmäßig). Aus dem Konvergenzsatz folgt: Y n Z N(0, 1). 560 W.Kössler, Humboldt-Universität zu Berlin

67 Bsp. 93 Münzwurf: 1000 mal. Wie groß ist die Wkt., dass weniger als 475 mal Zahl fällt? 1 falls Zahl X i = 0 sonst 1000 P( i= Xi } {{ 4 } N(0,1) Φ( ) 2 = Φ( 1.58) X i 475) = P( ) 561 W.Kössler, Humboldt-Universität zu Berlin

68 Bedeutung des ZGWS in der Statistik beim Schätzen Gesetz der Großen Zahlen: X µ. Frage: Wie groß ist der Stichprobenumfang zu wählen, um eine bestimmte Genauigkeit zu erreichen? ε, δ vorgegeben, klein (ε, δ < 0.5). n ist so zu wählen, dass P( X µ ε) 1 δ 562 W.Kössler, Humboldt-Universität zu Berlin

69 1 δ P( X µ ε) = P( ( X µ n ε n ) V arx V arx = P( n Φ( n ε σ ) ( X µ σ n ε σ ) gdw. Φ 1 (1 δ) n n ε σ ( σφ 1 (1 δ) ε ) W.Kössler, Humboldt-Universität zu Berlin

70 Bedeutung des ZGWS in der Statistik beim Testen µ := EX. Wir testen z.b. Teststatistik: H 0 : µ µ 0 gegen H 1 : µ > µ 0 T n = n X µ 0 σ T n klein spricht für H 0, T n groß gegen H 0. Fehler 1. Art: H 0 ablehnen, obwohl richtig möchte man begrenzen ( α) Fehler 2. Art: H 0 annehmen, obwohl falsch 564 W.Kössler, Humboldt-Universität zu Berlin

71 sollte auch klein sein ( β) P µ0 (T n u 1 α ) α nach ZGWS denn P µ0 (T n < u 1 α ) Φ(u 1 α ) = 1 α (wenn µ < µ 0 so P µ (T n < u 1 α ) > P µ0 (T n < u 1 α )) 565 W.Kössler, Humboldt-Universität zu Berlin

72 Bsp. 94 In der BRD gab es im Zeitraum insgesamt registrierte Lebendgeburten, davon waren Mädchen. Berechnen Sie die ein 95% Vertrauensintervall für die Wahrscheinlichkeit einer Mädchengeburt! Das zufällige Ereignis einer Mädchengeburt wird dargestellt durch eine Bernoulli-verteilte Zufallsvariable, X i B(1,p). Sei n = und n S n = i=1 X i die zufällige Anzahl der Mädchengeburten. Wir wissen, ES n = n p und VarS n = n p (1 p). 566 W.Kössler, Humboldt-Universität zu Berlin

73 Weiter sei u das Quantil der Standardnormalverteilung, d.h Φ(u ) = Nachsehen in der Tabelle liefert u = Aus dem ZGWS folgt P( S n np V arsn u ) = Die folgenden Ungleichungen gelten jeweils mit Wkt. 0.95: S n np 1.96 np(1 p) (S n np) np(1 p) n 2 p 2 2S n np + S 2 n np np W.Kössler, Humboldt-Universität zu Berlin

74 (n n)p 2 ( n + 2nS n )p + S 2 n 0 bzw. wenn wir die Schätzung ˆp = S n n für die relative Anzahl der Mädchengeburten einsetzen, für die Randpunkte des Vertrauensintervalls 1 ( p 1,2 = nˆp + ± 1.96 nˆp(1 ˆp) n Hier haben wir ˆp = S n n = = %-Vertrauensintervall: [ , ]. 568 W.Kössler, Humboldt-Universität zu Berlin

75 Bsp. 95 (Fortsetzung des vorigen Beispiels) Angenommen, es würde gelten p = 1. Mit welcher Wkt. würden dann 2 höchstens auftreten? P(S n ) = P ( S n np np(1 p) np) np(1 p) Φ( np np(1 p) ) = Φ( 137.2) W.Kössler, Humboldt-Universität zu Berlin

76 Bsp. 96 (Roulette) Beim Roulette gibt es 36 Zahlen, 18 davon sind schwarz, 18 sind rot, dazu die 0, die ist grün. Bei Setzen der richtigen Farbe gibt es den doppelten Einsatz, bei Setzen der richtigen Zahl den 36 fachen Einsatz. Zwei Spieler A und B spielen folgende Strategie: A setzt auf Farbe, B auf Zahl. Beide spielen 100 mal, und jetzen jeweils 10 Euro. Wie groß ist die Wkt., dass sie nach n = 100 Spielen mindestens 40 Euro gewonnen haben? Wir beschreiben die Gewinne/Verluste im i-ten Spiel durch 570 W.Kössler, Humboldt-Universität zu Berlin

77 Bernoulli-Zufallsvariablen, X i :, Y i : EX i = = =: µ A V arx i = EXi 2 (EX i ) 2 = 100 ( 10 EY i = )2 =: σ 2 A = =: µ B V ary i = EY 2 i (EY i ) 2 = ( 10) (10 37 )2 =: σ 2 B 571 W.Kössler, Humboldt-Universität zu Berlin

78 P ( 100 i=1 P ( 100 i=1 X i 40 ) = P ( 100 i=1 X i nµ A 40 nµ A ) n V arxi n V arxi = 1 Φ ( 40 nµ A ) n V arxi = 1 Φ(0.067) = 0.47 Y i 40 ) = P ( 100 i=1 Y i nµ B 40 nµ B ) n V arxi n V arxi = 1 Φ ( 40 nµ B ) n V arxi = 1 Φ(0.12) = W.Kössler, Humboldt-Universität zu Berlin

13.5 Der zentrale Grenzwertsatz

13.5 Der zentrale Grenzwertsatz 13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

9 Die Normalverteilung

9 Die Normalverteilung 9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,

Mehr

Mathematische Ökonometrie

Mathematische Ökonometrie Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient 11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Spezielle stetige Verteilungen

Spezielle stetige Verteilungen Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für

Mehr

16.3 Rekurrente und transiente Zustände

16.3 Rekurrente und transiente Zustände 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Kapitel 2 Wahrscheinlichkeitsrechnung

Kapitel 2 Wahrscheinlichkeitsrechnung Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Klausur Stochastik und Statistik 31. Juli 2012

Klausur Stochastik und Statistik 31. Juli 2012 Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω 2 3 8 N Wir definieren

Mehr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p

Mehr

Diskrete Wahrscheinlichkeitstheorie - Probeklausur

Diskrete Wahrscheinlichkeitstheorie - Probeklausur Diskrete Wahrscheinlichkeitstheorie - robeklausur Sommersemester 2007 - Lösung Name: Vorname: Matrikelnr.: Studiengang: Hinweise Sie sollten insgesamt Blätter erhalten haben. Tragen Sie bitte Ihre Antworten

Mehr

1 Dichte- und Verteilungsfunktion

1 Dichte- und Verteilungsfunktion Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die

Mehr

Einführung in die Induktive Statistik: Testen von Hypothesen

Einführung in die Induktive Statistik: Testen von Hypothesen Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 9. Dezember 2010 1 Konfidenzintervalle Idee Schätzung eines Konfidenzintervalls mit der 3-sigma-Regel Grundlagen

Mehr

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind: Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

Ü b u n g s b l a t t 13

Ü b u n g s b l a t t 13 Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben

Mehr

Musterlösung Klausur,,Einführung in die W theorie

Musterlösung Klausur,,Einführung in die W theorie Institut für angewandte Mathematik Wintersemester 3/4 Andreas Eberle, Lisa Hartung / Patrick Müller Musterlösung Klausur,,Einführung in die W theorie. (Zufallsvariablen und ihre Verteilung) a) Was ist

Mehr

0, t 0,5

0, t 0,5 XIII. Die Normalverteilung ==================================================================. Der lokale Grenzwertsatz --------------------------------------------------------------------------------------------------------------

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung

Mehr

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009 Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte

Mehr

Monotone Approximationen durch die Stirlingsche Formel. Wir beginnen mit einem einfachen Beweis einer schwachen Form von Stirlings

Monotone Approximationen durch die Stirlingsche Formel. Wir beginnen mit einem einfachen Beweis einer schwachen Form von Stirlings Monotone Approximationen durch die Stirlingsche Formel Wir beginnen mit einem einfachen Beweis einer schwachen Form von Stirlings Formel für n!: e n n e n n! e n n+/2 e n Genauer zeigen wir, dass die Folge

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung

Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Induktive Statistik Prof. Dr. W.-D.

Mehr

8. Stetige Zufallsvariablen

8. Stetige Zufallsvariablen 8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse

Mehr

Allgemeine Wahrscheinlichkeitsräume

Allgemeine Wahrscheinlichkeitsräume Kapitel 3 Allgemeine Wahrscheinlichkeitsräume 3. Einleitung Wir hatten schon bemerkt, dass der Begriff des diskreten Wahrscheinlichkeitsraums nicht ausreicht, um das unendliche Wiederholen eines Zufallsexperiments

Mehr

5 Potenzreihenansatz und spezielle Funktionen

5 Potenzreihenansatz und spezielle Funktionen 5 Potenzreihenansatz und spezielle Funktionen In diesem Kapitel betrachten wir eine Methode zur Lösung linearer Differentialgleichungen höherer Ordnung, die sich anwenden läßt, wenn sich alle Koeffizienten

Mehr

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc. Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment

Mehr

K8 Stetige Zufallsvariablen Theorie und Praxis

K8 Stetige Zufallsvariablen Theorie und Praxis K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R

Mehr

Schätzer und Konfidenzintervalle

Schätzer und Konfidenzintervalle Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl

Mehr

Ü b u n g s b l a t t 10

Ü b u n g s b l a t t 10 Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel. 6. 2007 Ü b u n g s b l a t t 0 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben

Mehr

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig

Mehr

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

Zusammenfassung Stochastik I + II

Zusammenfassung Stochastik I + II Zusammenfassung Stochastik I + II Stephan Kuschel Vorlesung von Dr. Nagel Stochastik I: WS 007/08 Stochastik II: SS 008 zuletzt aktualisiert: 7. Juli 009 Da diese Zusammenfassung den Menschen, die sie

Mehr

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne

Mehr

Kapitel 16 : Differentialrechnung

Kapitel 16 : Differentialrechnung Kapitel 16 : Differentialrechnung 16.1 Die Ableitung einer Funktion 16.2 Ableitungsregeln 16.3 Mittelwertsätze und Extrema 16.4 Approximation durch Taylor-Polynome 16.5 Zur iterativen Lösung von Gleichungen

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007 Mathematik IV für Maschinenbau und Informatik Stochastik Universität Rostock, Institut für Mathematik Sommersemester 007 Prof. Dr. F. Liese Dipl.-Math. M. Helwich Serie Termin: 9. Juni 007 Aufgabe 3 Punkte

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

Stochastik für die Naturwissenschaften

Stochastik für die Naturwissenschaften Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 6. Ausgewählte Verteilungen (Distributions) * diskret: Bernoulli, Binomial, Geometrisch, Poisson * stetig: Uniform, Exponential, Normal, χ 2,

Mehr

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, (

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, ( Kapitel 4 Konfidenzbereiche Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden Teil-Parameter

Mehr

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Statistik II. Statistische Tests. Statistik II

Statistik II. Statistische Tests. Statistik II Statistik II Statistische Tests Statistik II - 12.5.2006 1 Test auf Anteilswert: Binomialtest Sei eine Stichprobe unabhängig, identisch verteilter ZV (i.i.d.). Teile diese Stichprobe in zwei Teilmengen

Mehr

ε δ Definition der Stetigkeit.

ε δ Definition der Stetigkeit. ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x

Mehr

Kapitel 5 KONVERGENZ

Kapitel 5 KONVERGENZ Kapitel 5 KONVERGENZ Fassung vom 21. April 2002 Claude Portenier ANALYSIS 75 5.1 Metrische Räume 5.1 Metrische Räume DEFINITION 1 Sei X eine Menge. Eine Abbildung d : X X! R + heißt Metrik oder Distanz

Mehr

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

Zusammenfassung der Lebesgue-Integrationstheorie

Zusammenfassung der Lebesgue-Integrationstheorie Zusammenfassung der Lebesgue-Integrationstheorie Das Lebesguesche Integral verallgemeinert das Riemannsche Integral. Seine Vorteile liegen für unsere Anwendungen vor allem bei den wichtigen Konvergenzsätzen,

Mehr

STETIGE VERTEILUNGEN

STETIGE VERTEILUNGEN STETIGE VERTEILUNGEN. Die Näherungsformel von Moivre Laplace Betrachtet man die Binomialverteilungen Bnp für wachsendes n bei konstantem p, so werden die Histogramme einer binomialverteilten Zufallsvariablen

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik Universität Karlsruhe (TH) Institut für Stochastik Dr. Bernhard Klar Dipl.-Math. oec. Volker Baumstark Name Vorname Matr.-Nr.: Scheinklausur Stochastik für Studierende des Lehramts und der Diplom-Pädagogik

Mehr

3.3 Methoden zur Evaluierung von Schätzern

3.3 Methoden zur Evaluierung von Schätzern 3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,

Mehr

Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom

Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom Prof. Dr. M. Kaßmann Fakultät für Mathematik Wintersemester 2011/2012 Universität Bielefeld Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom 27.10.2011 Aufgabe III.1 (4 Punkte) Sei Ω R

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Die Verteilung einer Summe X +X +...+X n, wobei X,..., X n unabhängige standardnormalverteilte Zufallsvariablen sind, heißt χ -Verteilung mit n Freiheitsgraden. Eine N(, )-verteilte

Mehr

3.3 Bedingte Wahrscheinlichkeit

3.3 Bedingte Wahrscheinlichkeit 28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit

Mehr

5.8 Anpassungstests. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 389 / 419

5.8 Anpassungstests. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 389 / 419 5.8 8.1 Einführung empirische Verteilungsfunktion 8.2 EDF- Kolmogorov-Smirnov-Test Anderson-Darling-Test Cramer-von Mises-Test 8.3 Anpassungstest auf Normalverteilung - Shapiro-Wilk-Test 8.4. auf weitere

Mehr

6 Reelle und komplexe Zahlenfolgen

6 Reelle und komplexe Zahlenfolgen Mathematik für Physiker I, WS 200/20 Freitag 0.2 $Id: folgen.tex,v. 200/2/06 :2:5 hk Exp $ $Id: reihen.tex,v. 200/2/0 4:4:40 hk Exp hk $ 6 Reelle und komplexe Zahlenfolgen 6. Cauchyfolgen Wir kommen nun

Mehr

Klausur zu Statistik II

Klausur zu Statistik II GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

8.2 Zufallsvariable und Verteilungen

8.2 Zufallsvariable und Verteilungen 8.2 Zufallsvariable und Verteilungen Sei weiter W = (Ω, E, p) ein Wahrscheinlichkeitsraum. UntereinerZufallsvariablen X von W versteht man eine Funktion X : Ω R, t X(t), für die {ω Ω; X(ω) t} für alle

Mehr

Kapitel 1: Elemente der Statistik

Kapitel 1: Elemente der Statistik 1 Kapitel 1: Elemente der Statistik 1.1 Beispiel Ein Elektromarkt erhält eine Lieferung von N = 10000 Glühbirnen. Darunter ist eine unbekannte Anzahl h defekt, wobei h 0 1 = {0, 1,..., N}. Um Kenntnisse

Mehr

9 Konvergenz und absolute Konvergenz von Reihen

9 Konvergenz und absolute Konvergenz von Reihen 9 Konvergenz und absolute Konvergenz von Reihen 9.2 Konvergenz von Reihen 9.5 Monotoniekriterium für Reihen 9.6 Konvergenzkriterium von Cauchy für Reihen 9.9 Rechenregeln für konvergente Reihen 9.10 Absolute

Mehr

1 Reihen von Zahlen. Inhalt:

1 Reihen von Zahlen. Inhalt: 5 Kapitel 3 Reihen Reihen von Zahlen Inhalt: Konvergenz und Divergenz von Reihen reeller oder komplexer Zahlen, geometrische Reihe, harmonische Reihe, alternierende Reihen. Cauchy-Kriterium, absolute Konvergenz,

Mehr

Stochastik und Statistik für Ingenieure Vorlesung 4

Stochastik und Statistik für Ingenieure Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl

Mehr

Kapitel 3 Schließende Statistik

Kapitel 3 Schließende Statistik Beispiel 3.4: (Fortsetzung Bsp. 3.) bekannt: 65 i=1 X i = 6, also ˆp = X = 6 65 = 0, 4 Überprüfen der Voraussetzungen: (1) n = 65 30 () n ˆp = 6 10 (3) n (1 ˆp) = 39 10 Dr. Karsten Webel 194 Beispiel 3.4:

Mehr

Das Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern.

Das Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern. 10. Stetige Zufallsvariable, Normalverteilung 55 Die in den folgenden Beispielen dargestellten Verteilungen haben ungefähr Glockenform. Sie können durch die sogenannte Normalverteilung oder Gaussverteilung

Mehr

Webinar Induktive Statistik. - Wahrscheinlichkeitsrechnung - Stichprobentheorie

Webinar Induktive Statistik. - Wahrscheinlichkeitsrechnung - Stichprobentheorie Webinar Induktive Statistik - Wahrscheinlichkeitsrechnung - Stichprobentheorie Wahrscheinlichkeitstheorie Aufgabe : Zwei Lieferanten decken den Bedarf eines PKW-Herstellers von 00.000 Einheiten pro Monat.

Mehr

STOCHASTIK A&B PHILIP HERRMANN

STOCHASTIK A&B PHILIP HERRMANN STOCHASTIK A&B PHILIP HERRMANN Inhaltsverzeichnis 1. Kombinatorik 2 2. Wahrscheinlichkeiten 2 3. Bedingte Wahrscheinlichkeiten 3 4. Unabhängige Ereignisse 4 5. Diskrete Zufallsvariablen 4 6. Erwartungswert

Mehr

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Kapitel 8 Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Wir hatten im Beispiel 5. gesehen, dass die Wärmeleitungsgleichung t u u = f auf Ω (0, ) (8.1) eine parabolische Differentialgleichung

Mehr

Beispiel: Zweidimensionale Normalverteilung I

Beispiel: Zweidimensionale Normalverteilung I 10 Mehrdimensionale Zufallsvariablen Bedingte Verteilungen 10.6 Beispiel: Zweidimensionale Normalverteilung I Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale (multivariate) Normalverteilung

Mehr

Statistische Tests für unbekannte Parameter

Statistische Tests für unbekannte Parameter Konfidenzintervall Intervall, das den unbekannten Parameter der Verteilung mit vorgegebener Sicherheit überdeckt ('Genauigkeitsaussage' bzw. Zuverlässigkeit einer Punktschätzung) Statistischer Test Ja-Nein-Entscheidung

Mehr

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 Hypothesentesten, Fehlerarten und Güte 2 Literatur Kreyszig: Statistische Methoden und ihre Anwendungen, 7.

Mehr

Grundgesamtheit und Stichprobe

Grundgesamtheit und Stichprobe Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.

Mehr

Einführung in die (induktive) Statistik

Einführung in die (induktive) Statistik Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung

Mehr

Stochastik für Studierende der Informatik

Stochastik für Studierende der Informatik Stochastik für Studierende der Informatik von Peter Pfaffelhuber Version: 28. September 2013 Inhaltsverzeichnis 1 Grundlegendes 3 1.1 Häufige Modelle: Münzwurf, Würfeln, Urnen.................. 3 1.2 Kombinatorik....................................

Mehr

DWT 334/460 csusanne Albers

DWT 334/460 csusanne Albers Die Wahrscheinlichkeit fur den Fehler 1. Art wird mit bezeichnet, und man spricht deshalb gelegentlich vom -Fehler. heit auch Signikanzniveau des Tests. In der Praxis ist es ublich, sich ein Signikanzniveau

Mehr

Diskrete Verteilungen

Diskrete Verteilungen KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder

Mehr