Vorlesung 7a. Der Zentrale Grenzwertsatz
|
|
- Frank Arnold
- vor 6 Jahren
- Abrufe
Transkript
1 Vorlesung 7a Der Zentrale Grenzwertsatz als Erlebnis und Das Schwache Gesetz der Großen Zahlen
2 Wiederholung: Die Normalverteilung
3 Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) x
4 ϕ(x) Die Gaußsche Glocke x
5 Die Standardnormalverteilung Dichtefunktion:
6 Die Standardnormalverteilung Dichtefunktion: ϕ(x) := 1 2π e x2 /2
7 Die Standardnormalverteilung Dichtefunktion: ϕ(x) := 1 2π e x2 /2 Verteilungsfunktion:
8 Die Standardnormalverteilung Dichtefunktion: ϕ(x) := 1 2π e x2 /2 Verteilungsfunktion: Φ(a) := 1 2π a e x2 /2 dx
9 Die Standardnormalverteilung Dichtefunktion: ϕ(x) := 1 2π e x2 /2 Verteilungsfunktion: Φ(a) := 1 2π a e x2 /2 dx Z standard-normalverteilt:
10 Die Standardnormalverteilung Dichtefunktion: ϕ(x) := 1 2π e x2 /2 Verteilungsfunktion: Φ(a) := 1 2π a e x2 /2 dx Z standard-normalverteilt: P( Z a ) = Φ(a)
11 Die Standard-Normalverteilung EZ = 0 σ Z = 1
12 Die Standard-Normalverteilung EZ = 0 σ Z = 1 Die allgemeine Normalverteilung N = µ+σz
13 Die Standard-Normalverteilung EZ = 0 σ Z = 1 Die allgemeine Normalverteilung N = µ+σz EN = µ σ N = σ
14 Die Standard-Normalverteilung EZ = 0 σ Z = 1 Die allgemeine Normalverteilung N = µ+σz EN = µ σ N = σ
15 Dichtefunktion ϕ der Standard-Normalverteilung ϕ(x) x
16 ϕ(x) P( Z < 1) x
17 ϕ(x) Φ(1) Φ( 1) x
18 ϕ(x) P( Z < 2 ) x
19 Und für allgemeine normalverteilte Zufallsgrößen N? ϕ(x) x
20 ϕ(x) Dasselbe in grün x
21 P( N EN < σ N ) 0.68 ϕ(z) z = (x EN)/σ N
22 P( N EN < 2σ N ) 0.95 ϕ(z) z = (x EN)/σ N
23 Der Zentrale Grenzwertsatz
24 Die Summe von vielen kleinen, unabhängigen Summanden
25 Die Summe von vielen kleinen, unabhängigen Summanden ist annähernd normalverteilt.
26 DER ZENTRALE GRENZWERTSATZ Seien X 1,X 2,... unabhängige, identisch verteilte Zufallsgrößen.
27 DER ZENTRALE GRENZWERTSATZ Seien X 1,X 2,... unabhängige, identisch verteilte Zufallsgrößen. Sei S n := X X n
28 DER ZENTRALE GRENZWERTSATZ Seien X 1,X 2,... unabhängige, identisch verteilte Zufallsgrößen. Sei S n := X X n und Z n := (S n ES n ) / σ Sn.
29 DER ZENTRALE GRENZWERTSATZ Seien X 1,X 2,... unabhängige, identisch verteilte Zufallsgrößen. Sei S n := X X n und Z n := (S n ES n ) / σ Sn. ( EZ n = 0, σ Zn = 1.)
30 Dann gilt: Z n ist asymptotsich standard-normalverteilt.
31 Dann gilt: Z n ist asymptotsich standard-normalverteilt. Das heißt: P( Z n a ) Φ(a).
32 Zentraler Grenzwertsatz (in mathematischer Sprechweise fomuliert:)
33 Zentraler Grenzwertsatz (in mathematischer Sprechweise fomuliert:) Die standardisierte Summe von n unabhängigen, identisch verteilten R-wertigen Zufallsvariablen mit endlicher Varianz konvergiert mit wachsendem n in Verteilung
34 Zentraler Grenzwertsatz (in mathematischer Sprechweise fomuliert:) Die standardisierte Summe von n unabhängigen, identisch verteilten R-wertigen Zufallsvariablen mit endlicher Varianz konvergiert mit wachsendem n in Verteilung gegen eine standard-normalverteilte Zufallsvariable.
35 Zentraler Grenzwertsatz (in mathematischer Sprechweise fomuliert:) Die standardisierte Summe von n unabhängigen, identisch verteilten R-wertigen Zufallsvariablen mit endlicher Varianz konvergiert mit wachsendem n in Verteilung gegen eine standard-normalverteilte Zufallsvariable. kurz:... konvergiert in Verteilung gegen N(0,1).
36 Formal:
37 Formal: Seien X 1, X 2,... unabhängige und identisch verteilte Zufallsvariable mit endlichem Erwartungswert µ und endlicher Varianz σ 2 > 0. Dann gilt für alle a R
38 Formal: Seien X 1, X 2,... unabhängige und identisch verteilte Zufallsvariable mit endlichem Erwartungswert µ und endlicher Varianz σ 2 > 0. Dann gilt für alle a R P ( X1 + +X n nµ nσ 2 ) a P(Z a). n
39 Formal: Seien X 1, X 2,... unabhängige und identisch verteilte Zufallsvariable mit endlichem Erwartungswert µ und endlicher Varianz σ 2 > 0. Dann gilt für alle a R P ( X1 + +X n nµ nσ 2 ) a P(Z a). n Dabei ist Z standard-normalverteilt.
40 Formal: Seien X 1, X 2,... unabhängige und identisch verteilte Zufallsvariable mit endlichem Erwartungswert µ und endlicher Varianz σ 2 > 0. Dann gilt für alle a R P ( X1 + +X n nµ nσ 2 ) a P(Z a). n Dabei ist Z standard-normalverteilt.
41 Geschichte des Zentralen Grenzwertsatzes
42 Abraham de Moivre Der faire Münzwurf (1733)
43 Pierre-Simon Laplace Allgemeine binomiale Zufallsgrößen (1812)
44 Pafnuty Lvovich Chebyshev P( X EX > kσ ) 1 k 2 (1846)
45 Andrei Andreyevich Markov Allgemeiner zentraler Grenzwertsatz
46 Aleksandr Mikhailovich Lyapunov Noch allgemeiner (1906)
47 Nehmen wir an, diese Herren hätten sich auf ihre vielen anderen Interessen beschränkt.
48 Nehmen wir an, diese Herren hätten sich auf ihre vielen anderen Interessen beschränkt. ZENTRALER GRENZWERTSATZ Unbekannt Könnten wir ihn entdecken? Wie kämen wir auf e x2 /2?
49 Nehmen wir an, diese Herren hätten sich auf ihre vielen anderen Interessen beschränkt. ZENTRALER GRENZWERTSATZ Unbekannt.
50 Nehmen wir an, diese Herren hätten sich auf ihre vielen anderen Interessen beschränkt. ZENTRALER GRENZWERTSATZ Unbekannt. Könnten wir ihn entdecken?
51 Nehmen wir an, diese Herren hätten sich auf ihre vielen anderen Interessen beschränkt. ZENTRALER GRENZWERTSATZ Unbekannt. Könnten wir ihn entdecken? Wie kämen wir auf ϕ?
52 Nehmen wir an, diese Herren hätten sich auf ihre vielen anderen Interessen beschränkt. ZENTRALER GRENZWERTSATZ Unbekannt. Könnten wir ihn entdecken? Wie kämen wir auf ϕ? Warum gerade e x2 /2?
53 BEISPIEL
54 BEISPIEL Rundungsfehler bei Addition
55 In Wirklichkeit π =
56 In Wirklichkeit π = Im Rechner
57 In Wirklichkeit π = Im Rechner π
58 MODELL Zahl = Rechnerdarstellung + Rundungsfehler.
59 MODELL Zahl = Rechnerdarstellung + Rundungsfehler. A = a [R] +εx ε = 10 15
60 MODELL Zahl = Rechnerdarstellung + Rundungsfehler. A = a [R] +εx ε = Annahme: X uniform verteilt auf [ 0.5,0.5].
61 MODELL Zahl = Rechnerdarstellung + Rundungsfehler. A = a [R] +εx ε = Annahme: X uniform verteilt auf [ 0.5,0.5]. ni=1 A i =?
62 MODELL Zahl = Rechnerdarstellung + Rundungsfehler. A = a [R] +εx ε = Annahme: X uniform verteilt auf [ 0.5,0.5]. ni=1 A i =? ni=1 A i = n i=1 a [R] i +ε n i=1 X i
63 MODELL Zahl = Rechnerdarstellung + Rundungsfehler. A = a [R] +εx ε = Annahme: X uniform verteilt auf [ 0.5,0.5]. ni=1 A i =? ni=1 A i = n i=1 a [R] i +ε n i=1 X i Wie groß ist der Fehler?
64 MODELL Zahl = Rechnerdarstellung + Rundungsfehler. A = a [R] +εx ε = Annahme: X uniform verteilt auf [ 0.5,0.5]. ni=1 A i =? ni=1 A i = n i=1 a [R] i +ε n i=1 X i Wie groß ist der Fehler? ni=1 X i?
65 Empirische Verteilung von S n := X X n
66 Empirische Verteilung von S n := X X n Simulationen
67 Empirische Verteilung von S n := X X n Simulationen n = 1,2,...,10
68 Empirische Verteilung von S n := X X n Simulationen n = 1,2,...,10 n = 15,20,...,100
69 Dichtefunktion f X der Verteilung von X f X (x) x
70 Dichtefunktion f X der Verteilung von X f X (x) EX = x
71 Dichtefunktion f X der Verteilung von X f X (x) EX = xf X (x)dx EX = x
72 Dichtefunktion f X der Verteilung von X f X (x) EX = EX = 0 xdx x
73 Dichtefunktion f X der Verteilung von X f X (x) EX = 1 2 x EX = x
74 Dichtefunktion f X der Verteilung von X f X (x) EX = 0 EX = x
75 Dichtefunktion f X der Verteilung von X f X (x) σ EX = 0 σ = x
76 Dichtefunktion f X der Verteilung von X f X (x) σ σ 2 = E(X EX) 2 EX = 0 σ = x
77 Dichtefunktion f X der Verteilung von X f X (x) σ σ 2 = EX 2 EX = 0 σ = x
78 Dichtefunktion f X der Verteilung von X f X (x) σ σ 2 = x 2 f X (x)dx EX = 0 σ = x
79 Dichtefunktion f X der Verteilung von X f X (x) σ σ 2 = x 2 dx EX = 0 σ = x
80 Dichtefunktion f X der Verteilung von X f X (x) σ σ 2 = 1 3 x EX = 0 σ = x
81 Dichtefunktion f X der Verteilung von X f X (x) σ σ 2 = 1 12 EX = 0 σ = x
82 Dichtefunktion f X der Verteilung von X f X (x) σ EX σ x
83 Dichtefunktion f X der Verteilung von X f X (x) Aus dieser Verteilung wird mal eine Stichprobe vom Umfang n gezogen. σ EX σ x
84 Anzahl Simulationen (aus ) Verteilung von S 1 = X 1 (n = 1) Sn
85 Anzahl Simulationen (aus ) Verteilung von Sn = X 1 + +Xn (n = 2) Sn
86 Anzahl Simulationen (aus ) Verteilung von Sn (n = 3) Sn
87 Anzahl Simulationen (aus ) Verteilung von Sn (n = 4) Sn
88 Anzahl Simulationen (aus ) Verteilung von Sn (n = 5) Sn
89 Anzahl Simulationen (aus ) Verteilung von Sn (n = 6) Sn
90 Anzahl Simulationen (aus ) Verteilung von Sn (n = 7) Sn
91 Anzahl Simulationen (aus ) Verteilung von Sn (n = 8) Sn
92 Anzahl Simulationen (aus ) Verteilung von Sn (n = 9) Sn
93 Anzahl Simulationen (aus ) Verteilung von Sn (n = 10) Sn
94 Anzahl Simulationen (aus ) Bisher: dynamische Skalierung Sn
95 Anzahl Simulationen (aus ) Jetzt: feste Skalierung Sn
96 Anzahl Simulationen (aus ) Verteilung von Sn (n = 15) Sn
97 Anzahl Simulationen (aus ) Verteilung von Sn (n = 20) Sn
98 Anzahl Simulationen (aus ) Verteilung von Sn (n = 25) Sn
99 Anzahl Simulationen (aus ) Verteilung von Sn (n = 30) Sn
100 Anzahl Simulationen (aus ) Verteilung von Sn (n = 35) Sn
101 Anzahl Simulationen (aus ) Verteilung von Sn (n = 40) Sn
102 Anzahl Simulationen (aus ) Verteilung von Sn (n = 45) Sn
103 Anzahl Simulationen (aus ) Verteilung von Sn (n = 50) Sn
104 Anzahl Simulationen (aus ) Verteilung von Sn (n = 55) Sn
105 Anzahl Simulationen (aus ) Verteilung von Sn (n = 60) Sn
106 Anzahl Simulationen (aus ) Verteilung von Sn (n = 65) Sn
107 Anzahl Simulationen (aus ) Verteilung von Sn (n = 70) Sn
108 Anzahl Simulationen (aus ) Verteilung von Sn (n = 75) Sn
109 Anzahl Simulationen (aus ) Verteilung von Sn (n = 80) Sn
110 Anzahl Simulationen (aus ) Verteilung von Sn (n = 85) Sn
111 Anzahl Simulationen (aus ) Verteilung von Sn (n = 90) Sn
112 Anzahl Simulationen (aus ) Verteilung von Sn (n = 95) Sn
113 Anzahl Simulationen (aus ) Verteilung von Sn (n = 100) Sn
114 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 1)
115 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 2)
116 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 3)
117 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 4)
118 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 5)
119 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 6)
120 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 7)
121 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 8)
122 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 9)
123 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 10)
124 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 15)
125 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 20)
126 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 25)
127 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 30)
128 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 35)
129 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 40)
130 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 45)
131 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 50)
132 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 55)
133 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 60)
134 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 65)
135 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 70)
136 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 75)
137 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 80)
138 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 85)
139 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 90)
140 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 95)
141 z Anzahl Simulationen (aus ) Standardisierung: Zn := (Sn ESn)/σ S n (n = 100)123456
142 Die Verteilung von Z n scheint zu konvergieren.
143 Die Verteilung von Z n scheint zu konvergieren. Welche Form hat die Grenzverteilung?
144 Die Verteilung von Z 100 ist glockenförmig.
145 Die Verteilung von Z 100 ist glockenförmig. Welche Glocke?
146 Glücklicher Einfall:
147 Glücklicher Einfall: Zwei unabhängige Kopien (U,V) = (Z 100,Z 100 )
148 Glücklicher Einfall: Zwei unabhängige Kopien (U,V) = (Z 100,Z 100 ) Wie sieht die gemeinsame Verteilung von U und V aus?
149 Simulationen V = Z U = Z 100
150 Simulationen V = Z U = Z 100
151 Simulationen V = Z U = Z 100
152 Simulationen V = Z U = Z 100
153 Simulationen V = Z U = Z 100
154 Simulationen V = Z U = Z 100
155 Simulationen V = Z U = Z 100
156 Simulationen V = Z U = Z 100
157 Simulationen V = Z U = Z 100
158 Simulationen V = Z U = Z 100
159 Simulationen V = Z U = Z 100
160 Die Verteilung von (U,V) ist rotationssymmetrisch! V = Z U = Z 100
161 Behauptung: Aus U und V unabhängig und Verteilung von (U,V) rotationssymmetrisch
162 Behauptung: Aus U und V unabhängig und Verteilung von (U,V) rotationssymmetrisch folgt, dass U und V normalverteilt sind:
163 Behauptung: Aus U und V unabhängig und Verteilung von (U,V) rotationssymmetrisch folgt, dass U und V normalverteilt sind: f U (x) = f V (x) = 1 σ 2π e x2 /(2σ 2 )
164 Denn: U, V unabhängig bedeutet:
165 Denn: U, V unabhängig bedeutet: f (U,V) (a,b) = f U (a)f V (b)
166 Denn: U, V unabhängig bedeutet: f (U,V) (a,b) = f U (a)f V (b) f (U,V) rotationssymmetrisch heißt: es existiert ein g mit
167 Denn: U, V unabhängig bedeutet: f (U,V) (a,b) = f U (a)f V (b) f (U,V) rotationssymmetrisch heißt: es existiert ein g mit f (U,V) (a,b) = g(r) r := a 2 +b 2
168 Denn: U, V unabhängig bedeutet: f (U,V) (a,b) = f U (a)f V (b) f (U,V) rotationssymmetrisch heißt: es existiert ein g mit f (U,V) (a,b) = g(r) r := a 2 +b 2 Mit f U = f V =: h folgt
169 Denn: U, V unabhängig bedeutet: f (U,V) (a,b) = f U (a)f V (b) f (U,V) rotationssymmetrisch heißt: es existiert ein g mit f (U,V) (a,b) = g(r) r := a 2 +b 2 Mit f U = f V =: h folgt g(r) = h(a)h(b)
170 g(r) = h(a)h(b) g(r) = c h(r) (c := h(0)))
171 g(r) = h(a)h(b) g(r) = c h(r) (c := h(0))) ch( a 2 +b 2 ) = h(a)h(b)
172 g(r) = h(a)h(b) g(r) = c h(r) (c := h(0))) ch( a 2 +b 2 ) = h(a)h(b) Eine Lösung:
173 g(r) = h(a)h(b) g(r) = c h(r) (c := h(0))) ch( a 2 +b 2 ) = h(a)h(b) Eine Lösung: h(x) = e x2
174 g(r) = h(a)h(b) g(r) = c h(r) (c := h(0))) ch( a 2 +b 2 ) = h(a)h(b) Eine Lösung: h(x) = e x2 e (a2 +b 2) = e a2 e b2
175 Allgemeine Lösung (logarithmieren; nach a ableiten) h(x) = k 1 e k 2x 2
176 Allgemeine Lösung (logarithmieren; nach a ableiten) h(x) = k 1 e k 2x 2 Nebenbedingungen:
177 Allgemeine Lösung (logarithmieren; nach a ableiten) h(x) = k 1 e k 2x 2 Nebenbedingungen: P( U R ) = h(x)dx = 1
178 Allgemeine Lösung (logarithmieren; nach a ableiten) h(x) = k 1 e k 2x 2 Nebenbedingungen: P( U R ) = h(x)dx = 1 σ 2 U = x 2 h(x)dx = 1
179 Allgemeine Lösung (logarithmieren; nach a ableiten) h(x) = k 1 e k 2x 2 Nebenbedingungen: P( U R ) = h(x)dx = 1 σ 2 U = x 2 h(x)dx = 1 h(x) = 1 2π e x2 /2
180 FAZIT
181 FAZIT Der Zentrale Grenzwertsatz lässt sich erraten
182 FAZIT Der Zentrale Grenzwertsatz lässt sich erraten (in konkreten Fällen,
183 FAZIT Der Zentrale Grenzwertsatz lässt sich erraten (in konkreten Fällen, mit etwas Glück).
184 Bei unserer Entdeckungsreise zum Zentralen Grenzwertsatz hatten wir die (Beinahe-) Rotationssymmetrie der Verteilung von (Z n,z n ) aus den Simulationen abgelesen. Diese lässt sich aber auch konzeptionell begründen, wenn man die Existenz (irgend-) einer Grenzverteilung im ZGS unterstellt. Aufgabe: Endecken Sie die Rotationssymmetrie der Grenzverteilung von (Z n,z n ) (und damit die Gaußsche Glockenkurve) nochmal, indem Sie (ohne Rückgriff auf den ZGS) Folgendes begründen:
185 Falls für unabhängige, identisch verteilte X 1,X 2,... mit E[X i ] = 0, E[X 2 i ] = 1 die Folge 1 n (X 1 + +X n ) in Verteilung konvergiert, dann hat die Grenzverteilung ν die folgende Eigenschaft:
186 Falls für unabhängige, identisch verteilte X 1,X 2,... mit E[X i ] = 0, E[X 2 i ] = 1 die Folge 1 n (X 1 + +X n ) in Verteilung konvergiert, dann hat die Grenzverteilung ν die folgende Eigenschaft: Sind Z und Z unabhängig mit Verteilung ν, und sind α und β positive Zahlen mit α 2 +β 2 = 1, dann hat auch αz+βz die Verteilung ν.
187 Der Münzwurf passt in den Zentralen Grenzwertsatz:
188 Der Münzwurf passt in den Zentralen Grenzwertsatz: Seien X 1, X 2,... unabhängige und identisch verteilte Zufallsvariable mit endlichem Erwartungswert µ und endlicher Varianz σ 2 > 0. Dann gilt für alle l < r R
189 Der Münzwurf passt in den Zentralen Grenzwertsatz: Seien X 1, X 2,... unabhängige und identisch verteilte Zufallsvariable mit endlichem Erwartungswert µ und endlicher Varianz σ 2 > 0. Dann gilt für alle l < r R P ( X1 + +X n nµ nσ 2 ) [l,r] P(Z [l,r]). n
190 Der Münzwurf passt in den Zentralen Grenzwertsatz: Seien X 1, X 2,... unabhängige und identisch verteilte Zufallsvariable mit endlichem Erwartungswert µ und endlicher Varianz σ 2 > 0. Dann gilt für alle l < r R P ( X1 + +X n nµ nσ 2 ) [l,r] P(Z [l,r]). n Dabei ist Z standard-normalverteilt.
191 Der Münzwurf passt in den Zentralen Grenzwertsatz: Seien X 1, X 2,... unabhängige und identisch verteilte Zufallsvariable mit endlichem Erwartungswert µ und endlicher Varianz σ 2 > 0. Dann gilt für alle l < r R P ( X1 + +X n nµ nσ 2 ) [l,r] P(Z [l,r]). n Dabei ist Z standard-normalverteilt. Mit µ = p und σ 2 = pq ergibt sich der alte Satz von de Moivre und Laplace.
192 Das passt zur Approximation der Binomialgewichte ( n )p k q n k 1 σ ϕ ( k µ k σ ) k σ ϕ ( x µ σ ) dx, k 1 2 mit µ := np, σ := npq
193 Das passt zur Approximation der Binomialgewichte ( n )p k q n k 1 σ ϕ ( k µ k σ ) k σ ϕ ( x µ σ ) dx, k 1 2 mit µ := np, σ := npq P(k 1 X k 2 ) = k k σ ϕ ( x µ σ ) dx = (k µ)/σ (k µ)/σ ϕ(z)dz
194 Das passt zur Approximation der Binomialgewichte ( n )p k q n k 1 σ ϕ ( k µ k σ ) k σ ϕ ( x µ σ ) dx, k 1 2 mit µ := np, σ := npq P(k 1 X k 2 ) = k k σ ϕ ( x µ σ ) dx = (k µ)/σ (k µ)/σ ϕ(z)dz
195 Hier ist noch einmal die (im ZGS präzisierte) Botschaft der Stunde:
196 Hier ist noch einmal die (im ZGS präzisierte) Botschaft der Stunde: Summen (und Mittelwerte) von vielen unabhängigen, identisch verteilten ZV mit endlicher Varianz sind annähernd normalverteilt.
197 Hier ist noch einmal die (im ZGS präzisierte) Botschaft der Stunde: Summen (und Mittelwerte) von vielen unabhängigen, identisch verteilten ZV mit endlicher Varianz sind annähernd normalverteilt. Diese Aussage bleibt übrigens auch unter schwächeren Bedingungen bestehen,
198 Hier ist noch einmal die (im ZGS präzisierte) Botschaft der Stunde: Summen (und Mittelwerte) von vielen unabhängigen, identisch verteilten ZV mit endlicher Varianz sind annähernd normalverteilt. Diese Aussage bleibt übrigens auch unter schwächeren Bedingungen bestehen, sowohl was die Unabhängigkeit, als auch was die identische Verteiltheit betrifft.
199 Für unabhängige, identisch verteilte ZV e X 1,X 2,... mit Erwartungswert µ und endlicher Varianz σ 2 bekommen wir aus dem Zentralen Grenzwertsatz: Für große n ist der Mittelwert X 1+ +X n n annähernd normalverteilt mit Erwartungswert µ und Standardabweichung σ n. Daraus folgt insbesondere, dass für große n die Verteilung von X 1+ +X n n in der Nähe von µ konzentriert ist: P( X 1 + +X n n µ ε ) 0 für n
200 Das Schwache Gesetz der großen Zahlen P( X 1 + +X n n µ ε ) 0 für n gilt sogar für jede Folge von paarweise unkorrelierten Zufallsvariablen mit ein- und demselben Erwartungswert µ und ein-und derselben Varianz σ 2. Dahinter steckt, dass der Erwartungswert von X 1+ +X n n gleich µ bleibt und seine Standardabweichung klein wird, nämlich σ n.
201 Den (einfachen) Beweis des Schwachen Gesetzes der Großen Zahlen bereiten wir vor durch zwei einfache Ungleichungen: die Markov-Ungleichung und die Chebyshev-Ungleichung.
202 Markov-Ungleichung: Für jede Zufallsvariable X 0 und jedes ε > 0 gilt P(X ε) 1 ε E[X].
203 Markov-Ungleichung: Für jede Zufallsvariable X 0 und jedes ε > 0 gilt P(X ε) 1 ε E[X]. Beweis: Es gilt εi {X ε} = ε1 [ε, ] (X) X.
204 Markov-Ungleichung: Für jede Zufallsvariable X 0 und jedes ε > 0 gilt P(X ε) 1 ε E[X]. Beweis: Es gilt εi {X ε} = ε1 [ε, ] (X) X. Mit der Monotonie des Erwartungswertes folgt die Behauptung.
205 Chebyshev-Ungleichung: Für eine reellwertige Zufallsvariable X mit endlichem Erwartungswert gilt für beliebiges ε > 0 P ( X E[X] ε ) 1 ε 2 Var[X]
206 Chebyshev-Ungleichung: Für eine reellwertige Zufallsvariable X mit endlichem Erwartungswert gilt für beliebiges ε > 0 P ( X E[X] ε ) 1 ε 2 Var[X] Beweis: Markov-Ungleichung angewandt auf Y = (X E[X]) 2 : P ( X E[X] ε ) = P(Y ε 2 ) ε 2 E[Y] = ε 2 Var[X].
207 Schwaches Gesetz der Großen Zahlen (Buch S. 74) Die Zufallsvariablen X 1,X 2,... seien reellwertig, identisch verteilt mit endlichem Erwartungswert µ und endlicher Varianz, und sie seien unkorreliert. Dann gilt für alle ε > 0 ( lim n P X 1 + +X n n µ ε ) = 0.
208 Beweis: Gemäß Voraussetzung gilt [ ] X E 1 + +X n = E[X 1]+ +E[X n ] = µ, n n [ ] X Var 1 + +X n = Var[X 1]+ +Var[X n ] n n 2 = Var[X 1]. n
209 Beweis: Gemäß Voraussetzung gilt [ ] X E 1 + +X n = E[X 1]+ +E[X n ] = µ, n n [ ] X Var 1 + +X n = Var[X 1]+ +Var[X n ] n n 2 = Var[X 1] n. Die Chebyshev-Ungleichung, angewandt auf (X 1 + +X n )/n ergibt ( X P 1 + +X n n ) µ ε Var[X 1] ε 2 n.
210 Beweis: Gemäß Voraussetzung gilt [ ] X E 1 + +X n = E[X 1]+ +E[X n ] = µ, n n [ ] X Var 1 + +X n = Var[X 1]+ +Var[X n ] n n 2 = Var[X 1] n. Die Chebyshev-Ungleichung, angewandt auf (X 1 + +X n )/n ergibt ( X P 1 + +X n n ) µ ε Var[X 1] ε 2 n. Die Behauptung folgt nun mit n.
211 Im Schwache Gesetz der Großen Zahlen treffen wir auf die sogenannte stochastische Konvergenz von Zufallsvariablen:
212 Im Schwache Gesetz der Großen Zahlen treffen wir auf die sogenannte stochastische Konvergenz von Zufallsvariablen: Definition: Seien Y,Y 1,Y 2,... Zufallsvariable. Man sagt
213 Im Schwache Gesetz der Großen Zahlen treffen wir auf die sogenannte stochastische Konvergenz von Zufallsvariablen: Definition: Seien Y,Y 1,Y 2,... Zufallsvariable. Man sagt Y n konvergiert für n stochastisch gegen Y, wenn für alle ε > 0 gilt: P( Y n Y > ε) n 0
214 Das Schwache Gesetz kompakt formuliert: Unter den angegebenen Voraussetzungen (paarweise Unkorreliertheit, gleicher Erwartungswert, gleiche Varianz) konvergiert die Folge der Stichprobenmittel stochastisch gegen den Erwartungswert.
215 Ein Wiedersehen von ein paar früheren Folien: Eine faire Münze wird dreimal geworfen. X:= Anzahl der Erfolge. Wie erlebt man den Erwartungswert?
216 Ein Wiedersehen von ein paar früheren Folien: Eine faire Münze wird dreimal geworfen. X:= Anzahl der Erfolge. Wie erlebt man den Erwartungswert? Durch wiederholtes Werfen der drei Münzen!
217 Wiederholungen: X 1,X 2,...,X Xn n
218 M n := (X 1 +X X n )/n Xn n
219 M n := (X 1 +X X n )/n Xn n
220 M n := (X 1 +X X n )/n Xn n
221 M n := (X 1 +X X n )/n Xn n
222 M n := (X 1 +X X n )/n Xn n
223 M n := (X 1 +X X n )/n Xn n
224 M n E[X] Xn n
225 Das Schwache Gesetz der Großen Zahlen wurde von Jacob Bernoulli im Münzwurfmodell endeckt.
226 Ergänzung Zum Schätzen von Mittelwerten
227 Eine große Population von Werten w 1,...,w g ist auf der Zahlengeraden verteilt.
228 Eine große Population von Werten w 1,...,w g ist auf der Zahlengeraden verteilt. Man interessiert sich für den Populationsmittelwert: µ := 1 g g w j. j=1
229 Zur Verfügung stehen die Werte einer rein zufällig aus der Population gezogene Stichprobe x 1,...,x n
230 Zur Verfügung stehen die Werte einer rein zufällig aus der Population gezogene Stichprobe x 1,...,x n m := 1 n (x x n ) ist ein Schätzwert für µ.
231 Wie zuverlässig ist diese Schätzung?
232 Wie zuverlässig ist diese Schätzung? Das hängt ab von der Streuung der Werte w j in der Population
233 Wie zuverlässig ist diese Schätzung? Das hängt ab von der Streuung der Werte w j in der Population und von der Größe n der Stichprobe.
234 Goldene Idee der Statistik: Man fasst x 1,...,x n auf als Ergebnis eines (rein) zufälligen Ziehens aus der Population:
235 Goldene Idee der Statistik: Man fasst x 1,...,x n auf als Ergebnis eines (rein) zufälligen Ziehens aus der Population: X 1 := w J1,X 2 := w J2,... mit J 1,J 2,... rein zufällige Wahl aus {1,...,g}.
236 Ein Maß für die Variabilität in der Population ist σ 2 := 1 g g (w j µ) 2 j=1
237 Ein Maß für die Variabilität in der Population ist σ 2 := 1 g g (w j µ) 2 j=1 Stellen wir uns vor: X 1,X 2,... unabhängig und identisch verteilt mit Erwartungswert µ und Varianz σ 2
238 m = 1 n (x x n ) fasst man auf als eine Realisierung (einen Ausgang) der Zufallsvariable X := 1 n (X X n )
239 m = 1 n (x x n ) fasst man auf als eine Realisierung (einen Ausgang) der Zufallsvariable X := 1 n (X X n ) Wie ist X verteilt?
240 Wie ist X verteilt? Der Zentrale Grenzwertsatz gibt eine Antwort:
241 Wie ist X verteilt? Der Zentrale Grenzwertsatz gibt eine Antwort: X ist approximativ N(µ, σ2 n )-verteilt.
242 Ein Problem in der Praxis: Man kennt σ 2 nicht. Auch σ 2 muss man schätzen. Zwei Vorschläge: s 2 := 1 n 1 n (x i m) 2 i=1 ^σ 2 := 1 n n (x i m) 2. i=1
Der Zentrale Grenzwertsatz
Der Zentrale Grenzwertsatz Der Zentrale Grenzwertsatz & Konfidenzintervalle Die Normalverteilung Dichte φ der Standardnormalverteilung φ(x) 0.0 0.1 0.2 0.3 0.4 4 2 0 2 4 x φ(x) 0.0 0.1 0.2 0.3 0.4 Die
MehrVorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung
Vorlesung 7b Unabhängigkeit bei Dichten und die mehrdimensionale Standardnormalverteilung 0. Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4 4
MehrTeil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation
Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
MehrEinführung in Quantitative Methoden
Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
Mehr70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
MehrVerteilung von Summen
Verteilung von Summen Beispiel: Würfelwurf Frage: Wie verhält sich die Verteilung der Augensumme von -Würfeln bei wachsendem? Zur Beantwortung führen wir ein Simulationseperiment durch. 6 Würfe mit 1 Würfel
MehrVorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) (oder eine Teilmenge davon) ist. Es existiere
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
Mehrvon x-würfeln bei wachsendem n? Zur Beantwortung führen wir ein Simulationsexperiment durch.
Zentraler Grenzwertsatz Die Normalverteilung verdankt ihre universelle theoretische und praktische Bedeutung dem zentralen Grenzwertsatz. Unabhängig von der konkreten k Ausgangsverteilung konvergiert die
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr1.3 Wiederholung der Konvergenzkonzepte
1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche
Mehr1 Stochastische Konvergenz 2
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
MehrVorlesung 4b. Die Varianz
Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ Die Varianz von X ist definiert als Var[X] := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen
MehrGrundbegriffe der Stochastik II
Grundbegriffe der Stochastik II Henrik Gebauer 6. Oktober 9 Zusammenfassung Dieser Vortrag dient der Wiederholung zentraler Begriffe der kontinuierlichen Stochastik. Wahrscheinlichkeitsverteilungen Sei
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrKorollar 116 (Grenzwertsatz von de Moivre)
Ein wichtiger Spezialfall das Zentralen Grenzwertsatzes besteht darin, dass die auftretenden Zufallsgrößen Bernoulli-verteilt sind. Korollar 116 (Grenzwertsatz von de Moivre) X 1,..., X n seien unabhängige
MehrWahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme
Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrWahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19
Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen
Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Noémie Becker & Dirk Metzler 31. Mai 2016 Inhaltsverzeichnis 1 Binomialverteilung 1 2 Normalverteilung 2 3 T-Verteilung
MehrBestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler
6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen
Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
Mehr9 Die Normalverteilung
9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,
MehrMathematische Ökonometrie
Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
Mehr0, t 0,5
XIII. Die Normalverteilung ==================================================================. Der lokale Grenzwertsatz --------------------------------------------------------------------------------------------------------------
MehrVorlesung 4b. Die Varianz
Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert als Var X := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen
MehrWahrscheinlichkeitsrechnung und Statistik
5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften
Mehr5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 7. n (Konvergenz, LLN, CLT) Literatur Kapitel 7 n heisst für uns n gross * Statistik in Cartoons: Kapitel 5, Seite 114 in Kapitel 6 * Stahel:
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung
MehrMotivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Statistik Dr. Thomas Zehrt Ausblick Motivation Wir werfen einen Würfel 000-mal und wir möchten die Wahrscheinlichkeit P bestimmen, dass zwischen
MehrZweitklausur. b p b. q a. c 1. p a
Elementare Stochastik SoSe 27 Zweitklausur Lösungen. Berechnen Sie für die angegebenen Übergangswahrscheinlichkeiten (mit p a,p b >, q a := p a, q b := p b ) die erwartete Anzahl von Schritten bis zum
MehrWeierstraß-Institut für Angewandte Analysis und Stochastik Universalität der Fluktuationen: Warum ist alles Gauß-verteilt?
Weierstraß-Institut für Angewandte Analysis und Stochastik Universalität der Fluktuationen: Warum ist alles Gauß-verteilt? Wolfgang König Technische Universität Berlin und Weierstraß-Institut Berlin Mohrenstraße
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Beispiel 7.5.1: Es werden drei ideale Münzen geworfen, und der Gewinn sei X := Anzahl von W. In Beispiel 7.4.1 hatten wir dazu eine Wahrscheinlichkeitverteilung ermittelt: X
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
Mehr7. Grenzwertsätze. Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012
7. Grenzwertsätze Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Mittelwerte von Zufallsvariablen Wir betrachten die arithmetischen Mittelwerte X n = 1 n (X 1 + X 2 + + X n ) von unabhängigen
Mehr5. Stichproben und Statistiken
5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)
MehrBiostatistik, Sommer 2017
1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
Mehr8 Stichprobenkennwerteverteilung
8 Stichprobenkennwerteverteilung 8.1 Vorbemerkungen 8.2 Die Normalverteilung: Teil 2 8.3 Die t Verteilung 8.4 Normalverteilungs Approximation: Der zentrale Grenzwertsatz 8.1 Vorbemerkungen Daten x 1,...,
MehrSatz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]
Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrMarcus Hudec. Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Statistik 2 für SoziologInnen 1 Normalverteilung
Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Stetige Zufalls-Variable Erweitert man den Begriff der diskreten Zufallsvariable
MehrMarcus Hudec. Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Statistik 2 für SoziologInnen 1 Normalverteilung
Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die
MehrStatistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:
Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die
MehrProbeklausur Statistik II
Prof. Dr. Chr. Müller PROBE-KLAUSUR 1 1 2 3 4 5 6 7 8 Gesamt: 15 8 16 16 7 8 15 15 100 Probeklausur Statistik II Name: Vorname: Fachrichtung: Matrikel-Nummer: Bitte beachten Sie folgendes: 1) Die Klausur
MehrZentraler Grenzwertsatz
Statistik 2 für SoziologInnen Zentraler Grenzwertsatz Univ.Prof. Dr. Marcus Hudec Statistik für SoziologInnen 1 Zentraler Grenzwertsatz Inhalte Themen dieses Kapitels sind: Der zentrale Grenzwertsatz und
MehrWahrscheinlichkeitstheorie. Alea iacta est!
Wahrscheinlichkeitstheorie Alea iacta est! "Wissenschaftliche Theorien, die auf Eigenschaften einer großen Zahl von Individuen rekurrieren, [...] werden anfällig gegen Fehlinterpretationen, wenn man die
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
MehrDer Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),
2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist
MehrStichproben Parameterschätzung Konfidenzintervalle:
Stichproben Parameterschätzung Konfidenzintervalle: Beispiel Wahlprognose: Die Grundgesamtheit hat einen Prozentsatz p der Partei A wählt. Wenn dieser Prozentsatz bekannt ist, dann kann man z.b. ausrechnen,
MehrNormalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.
Normalverteilung Diskrete Stetige f(x) = 1 2πσ 2 e 1 2 ((x µ)2 σ 2 ) Gauß 91 / 169 Normalverteilung Diskrete Stetige Satz: f aus (1) ist Dichte. Beweis: 1. f(x) 0 x R und σ > 0. 2. bleibt z.z. lim F(x)
MehrSpezielle stetige Verteilungen
Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für
Mehrvon x-würfeln bei wachsendem n? Zur Beantwortung führen wir ein Simulationsexperiment durch.
Zentraler Grenzwertsatz Die Normalverteilung verdankt ihre universelle theoretische und praktische Bedeutung dem zentralen Grenzwertsatz. Unabhängig von der konkreten k Ausgangsverteilung konvergiert nämlich
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrGrundlagen der Wahrscheinlichkeitstheorie
Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)
MehrBeispiel 6 (Einige Aufgaben zur Gleichverteilung)
Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrStetige Verteilungen, Unabhängigkeit & ZGS
Mathematik II für Biologen Stetige Verteilungen, & ZGS 19. Juni 2015 Stetige Verteilungen, & ZGS Stetige Zufallsvariable Dichte & Verteilungsfunktion Eigenschaften & Kennzahlen Definition Eigenschaften,
Mehr1.4 Stichproben aus einer Normalverteilung
1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel
MehrStetige Standardverteilungen
Universität Basel Wirtschaftswissenschaftliches Zentrum Stetige Standardverteilungen Dr. Thomas Zehrt Inhalt: 1. Die stetige Gleichverteilung 2. Die Normalverteilung (a) Einstimmung (b) Standardisierung
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
MehrStatistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz
1/65 Statistik für Informatiker, SS 2017 1.3 Erwartungswert, Varianz und Kovarianz Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 7.6.2017 / 14.6.2017 2/65 Der Erwartungswert ist eine
MehrKlausur zur Vorlesung Stochastik II
Institut für Stochastik WS 007/008 Universität Karlsruhe. 0. 008 r. B. Klar Klausur zur Vorlesung Stochastik II Muster-Lösung auer: 90 Minuten Name: Vorname: Matrikelnummer: iese Klausur hat bestanden,
Mehr1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis Vorbemerkungen 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 6 Bedingte
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrPsychologische Methodenlehre und Statistik I
Psychologische Methodenlehre und Statistik I Pantelis Christodoulides & Karin Waldherr SS 2013 Pantelis Christodoulides & Karin Waldherr Psychologische Methodenlehre und Statistik I 1/61 Zufallsexperiment
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
Mehr8. Stetige Zufallsvariablen
8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse
MehrVorlesung 12a. Zerlegung der Varianz
Vorlesung 12a Zerlegung der Varianz 1 Im zufälligen Paar (X, Y ) 2 Im zufälligen Paar (X, Y ) sei Y reellwertig mit endlicher Varianz. Im zufälligen Paar (X, Y ) sei Y reellwertig mit endlicher Varianz.
MehrKlausur vom
UNIVERSITÄT KOBLENZ LANDAU INSTITUT FÜR MATHEMATIK Dr. Dominik Faas Stochastik Wintersemester 00/0 Klausur vom 09.06.0 Aufgabe (++4=9 Punkte) Bei einer Umfrage wurden n Personen befragt, an wievielen Tagen
Mehr0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
MehrKapitel VII. Einige spezielle stetige Verteilungen
Kapitel VII Einige spezielle stetige Verteilungen D. 7.. (Normalverteilung) Eine stetige Zufallsgröße X sei als normalverteilt bezeichnet, wenn sie folgende Wahrscheinlichkeitsdichte besitzt: µ f ( ; µ,
MehrProgramm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung
Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
MehrKlausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik
Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 7. n (Konvergenz, LLN, CLT) n heisst für uns n gross Literatur Kapitel 7 * Statistik in Cartoons: Kapitel 5, Seite 114 in Kapitel 6 * Stahel:
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
MehrÜ b u n g s b l a t t 13
Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrWahrscheinlichkeitsverteilungen
Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet
Mehr