Erwartungswerte, Varianzen
|
|
- Harry Mann
- vor 6 Jahren
- Abrufe
Transkript
1 Kapitel 3 Erwartungswerte, Varianzen Wir wollen nun Zufallsvariablen eine Maßzahl zuordnen, die ihr typisches Verhalten in vager Weise angibt. Haben wir n Punkte x 1,...,x n R d, so ist der Schwerpunkt 1 n (x x n ).Für eine Zufallsvariable, die mit gleicher Wahrscheinlichkeit jeden der Werte x i annimmt, nennen wir dieses arithmetische Mittel ihrer Werte den Erwartungswert. Dies ist offenbar eine nützliche Kenngröße. Wir werden diesen Begriff zunächst auf diskrete Zufallsvariablen erweitern und dann auf allgemeinere reelle Zufallsvariablen. Es folgt ein Abschnitt über die Größe der Abweichungen von diesen Schwerpunkt, die wir Varianz nennen, und deren Rolle der des Trägheitsmomentes in der Mechanik entspricht. 3.1 Erwartungswerte für diskrete Zufallsvariablen Definition 3.1 Sei X eine reelle Zufallsvariable und W : W X R abzählbar. Es gelte P[X W ]1. Dann nennen wir X eine diskrete (reelle) Zufallsvariable mit Wertebereich W X. Offenbar kann man W X durch jede abzählbare Obermenge von W X ersetzen, der Wertebereich ist also nicht eindeutig. Klar ist aber für diskrete Zufallsvariablen x W X P[X x] P[X W X ]1. Setzen wir nun W X : {x W X : P[X x>0]}, so ist WX der minimale Wertebereich von X. Wir werden dies im Folgenden aber nicht benötigen. 53
2 54 Erwartungswerte, Varianzen Definition 3.2 Sei X eine diskrete reelle Zufallsvariable mit Wertebereich W X. Wir sagen, dass X einen Erwartungswert hat, falls x P[X x] <. x W X Wir schreiben dann auch X L 1 : L 1 (P) und nennen E[X] : xp[x x] x W X den Erwartungswert von X. Ist P[X 0] 1, so nennen wir stets E[X] : xp[x x] [0, ] x W X den Erwartungswert von X. Gelegentlich schreiben wir daher auch E[ X ] < für X L 1 (P). Beispiel 3.3 Ist (Ω, P) ein diskreter Wahrscheinlichkeitsraum, so ist jede reelle Zufallsvariable diskret und W X {X(ω) : ω Ω}. Es gilt dann X L 1 (P) ω Ω P[{ω}] X(ω) <. In diesem Fall ist E[X] ω Ω P[{ω}]X(ω). Beispiele 3.4 (i) Sei X eine Bernoulli-Zufallsvariable mit Parameter p [0, 1]: X Ber p. Dann ist W {0, 1} und E[X] 0 (1 p)+1 p p. (ii) Sei X b n,p für gewisse n N und p [0, 1]. Dann ist W {0,...,n} und E[X] n ( n k k n np k1 k1 ) p k (1 p) n k ( n 1 k 1 n 1 np b n 1,p ({k}) np. k0 ) p k 1 (1 p) (n 1) (k 1) (iii) (Mittlere Wartezeit auf den ersten Erfolg) Sei X γ p geometrisch verteilt mit Parameter p (0, 1]. Sei f(x) 1 1 x. Dann hat f für x ( 1, 1) die Potenzreihenentwicklung f(x) n0 x n
3 3.1 Erwartungswerte für diskrete Zufallsvariablen 55 und die Ableitung (per gliedweiser Differentiation) 1 (1 x) 2 f (x) nx n 1, x ( 1, 1). n0 Also bekommen wir E[X] p(1 p) n 1 n n1 pf (1 p) 1 p. Satz 3.5 (Rechenregeln) Seien X, Y, X n,y n (Ω, A, P). Dann gilt L 1 (P), n N, diskrete reelle Zufallsvariablen auf (i) Ist P X P Y,soistE[X] E[Y ]. (ii) (Linearität) Es gelten für alle c R: cx L 1 (P), X + Y L 1 (P) (mit der Dreiecksungleichung E[ X + Y ] E[ X ]+E[ Y ]) sowie (iii) Ist P[X 0] 1, so sind äquivalent E[cX] ce[x] E[X + Y ]E[X]+E[Y]. E[X] 0 P[X 0]1. (iv) (Monotonie) Gilt P[X Y ]1, so gilt E[X] E[Y ] mit Gleichheit genau dann, wenn P[X Y ]1. (v) Ist P[X n 0] 1 für alle n N und gilt P[ n1 X n X] 1,soist E[X] (vi) Gilt Y n Y, so gilt E[Y ] lim n E[Y n ]. E[X n ]. (vii) Sind X und Y unabhängig, so ist X Y L 1 (P) und E[XY ]E[X]E[Y ]. n1 Beweis (i) Klar. (ii) Klar ist W cx cw X : {cx : x W X } also y P[cX y] c x P[X x] <. y W cx x W X Die selbe Rechnung ohne Betragstriche liefert E[cX] ce[x].
4 56 Erwartungswerte, Varianzen Klar ist W X+Y W X + W Y : {x + y : x W X,y W Y }. Also ist nach der Formel von der totalen Wahrscheinlichkeit E[ X + Y ] z P[X + Y z] z W X+Y z P[X x, X + Y z] x W X,z W X+Y x + y P[X x, Y y] x W X,y W Y ( x + y )P[X x, Y y] x W X y W Y x P[X x, Y y]+ y P[X x, Y y] x W X y W Y y W Y x W X x P[X x]+ y P[Y y] x W X y W Y E[ X ]+E[ Y ]. Die selbe Rechnung ohne Betragstriche ergibt E[X + Y ]E[X] +E[Y ]. Dabei dürfen wir die Summationsreihenfolge vertauschen, weil nach dem eben gezeigten alle Reihen absolut konvergieren. (iii) Der Wertebereich von X ist W X [0, ), also ist E[X] x W X xp[x x] 0. Sei nun P[X 0] 1 und E[X] 0. Dann ist für n N 0E[X] xp[x x] x W X xp[x x] x W X [ 1 n, ) 1 P[X x] n x W X [ 1 n, ) 1 n P[X W X [ 1 n, )] 1 n P[X 1 n ], also P[X 1 n ]0. Wegen {X 1 n } {X>0} folgt (iv) Setze Z : Y X und wende (iii) auf Z an. P[X >0] lim n P[X 1 n ]0. (v) Für N N setze S N : N n1 X n. Dann ist S N X nach Voraussetzung, also E[X] E[S N ] (nach (iv)) und damit E[X] lim N E[S N ] lim N n1 N E[X n ] E[X n ]. n1
5 3.1 Erwartungswerte für diskrete Zufallsvariablen 57 Um die andere Ungleichung zu zeigen, zeigen wir dass für jedes c (0, 1) gilt ce[x] E[X n ]. (3.1) n1 Definiere die Zufallsvariable T mit Werten in N durch T : min{n N : S N cx}. Wegen S N X und c<1folgt P[T < ] 1. Betrachte nun die Zufallsvariable S T : ω S T (ω) (ω). Dann ist der Wertebereich W ST N1 W S N abzählbar, also S T diskret. Per Konstruktion ist S T cx also ce[x] E[S T ] sp[s T s] s W ST sp[s N s, T N] N1 s W ST sp[(s N 1 {T N} )s] N1 s W ST E[S N 1 {T N} ] N1 N1 n1 N1 n1 N E[X n 1 {T N} ] N xp[x n x, T N] x W Xn xp[x n x, T N] n1 x W Xn Nn xp[x n x, T N] n1 x W Xn xp[x n x] n1 x W Xn E[X n ]. n1 (vi) Wende (v) an auf X n Y n+1 Y n und X Y Y 1.
6 58 Erwartungswerte, Varianzen (vii) Klar ist W XY {xy : x W x,y W y } abzählbar. Also ist E[ XY ] z P[XY z] z W XY x z/x P[Y z/x, X x] z W XY x W X,x 0 x y P[Y y, X x] y W Y x W X x P[X x] y P[Y y] x W X y W Y E[ X ] E[ Y ] <. Also ist XY L 1. Die selbe Rechnung ohne Betragstriche liefert E[XY ]E[X] E[Y ]. Beispiele 3.6 (i) (Binomialverteilung) Sei X b n,p für n N und p [0, 1]. Sind X 1,...,X n unabhängig und Bernoulli verteilt mit Parameter p, soistx d X X n, also E[X] E[X X n ]E[X 1 ]+...+ E[X n ]pn. (ii) (Negative Binomialverteilung) Sei X b n,p und seien X 1,...,X n unabhängig und geometrisch verteilt mit Parameter p. Nach Beispiel 3.4 ist E[X 1 ] 1 p.esistx i 1 b 1,p und (vergleiche Beispiel 2.38) X d X X n n. Also ist E[X] ne[x 1 ] n 1 p p n. Beispiel 3.7 In einer Urne seien m blaue Kugeln und n rote Kugeln. Wir ziehen diese ohne Zurücklegen und legen sie von links nach rechts aufgereiht auf einen Tisch. Wie groß ist die erwartete Anzahl von blauen Kugeln, neben denen rechts eine rote Kugel liegt? Wir setzen für i 1,...,m+ n { 1, die i-te Kugel ist blau, X i 0, sonst. Setze Y i 1 {Xi1}1 {Xi+10}, i 1,...,m+ n 1, und Y : Y Y m+n 1. Dann ist also E[Y i ] P[Y i 1]P[Y 1 1] m m + n n m + n 1, mn (m+n)(m+n 1). Insgesamt ist die gesuchte erwartete Anzahl E[Y ] m+n 1 i1 E[Y i ] mn m + n.
7 3.2 Erwartungswerte für allgemeine reelle Zufallsvariablen Erwartungswerte für allgemeine reelle Zufallsvariablen Sei X eine reelle Zufallsvariable. Dann ist (mit x : max{k Z : k x}) X n : 2 n 2 n X eine diskrete Zufallsvariable mit Wertebereich W Xn 2 n Z. Offenbar ist X n X X n +2 n (3.2) und X n 2 n X X n +2 n. (3.3) Ferner ist X n X. In Anlehnung an Satz 3.5(vi) treffen wir die folgende Definition. Definition 3.8 (Erwartungswert für allgemeine reelle Zufallsvariablen) Wir sagen, dass eine reelle Zufallsvariable X einen Erwartungswert besitzt (und schreiben X L 1 (P) oder E[ X ] < ), falls X n L 1 (P) für ein n N (und damit für alle n N) und nennen den Erwartungswert von X. E[X] : lim n E[X n] Satz 3.9 Die Rechenregeln aus Satz 3.5 gelten auch für nicht-diskrete Zufallsvariablen. Beweis Man muss jeweils immer nur zeigen, dass Summation und Limes vertauschen. Nach (3.2) und (3.3) sind die Limiten jeweils gleichmäßig, vertauschen also mit der Summation. Wir lassen die Details aus und verweisen auf die Vorlesung Stochastik I. Exemplarisch sei hier nur die Additivität gezeigt. Seien also X, Y L 1 (P). Dann ist E[X + Y ] E[X] E[Y ] lim E[2 n 2 n (X + Y ) 2 n 2 n X 2 n 2 n Y ] n lim n 4 2 n 0. Bemerkung 3.10 Ist X eine reelle Zufallsvariable mit P[X 0] 1, soist Nimmt speziell X Werte in N 0 an, so ist E[X] E[X] 0 P[X t] dt. (3.4) P[X n]. (3.5) n1
8 60 Erwartungswerte, Varianzen Beweis Gelte zunächst P[X N 0 ]1. Dann ist E[X] kp[x k] k1 k1 n1 n1 kn k P[X k] P[X k] P[X n]. Sei nun der allgemeine Fall X 0 betrachtet. Sei X n : 2 n 2 n X. Dann ist n1 E[X] lim n E[X n] lim n 2 n lim n 2 n 0 P[X n k2 n ] k1 P[X k2 n ] k1 P[X t] dt, wobei wir im letzten Schritt die Reihe als Riemann-Summe angesehen haben, die das Integral approximiert. Satz 3.11 Sei X eine reelle Zufallsvariable und habe die Verteilung P X eine Dichte f X. Dann gilt Ist E[ X ] <, so ist E[ X ] < E[X] f X (x) x dx <. (3.6) f(x)xdx. (3.7) Beweis Seien X n, n N, approximierende Zufallsvariablen wie oben. Dann ist (wegen x 2 n 2 n 2 n x x +2 n ) E[ X n ] k Z k Z k Z 2 n + k2 n P[X n k2 n ] (k+1)2 n k2 n f(x) dx k2 n (k+1)2 n k2 n ( x +2 n )f(x) dx ( x +2 n )f(x) dx x f(x) dx.
9 3.2 Erwartungswerte für allgemeine reelle Zufallsvariablen 61 Analog erhalten wir E[ X n ] 2 n + f(x) x dx. Also haben wir (3.6) gezeigt. Die selbe Rechnung ohne Betragstriche liefert (3.6). Beispiel 3.12 Sei X N µ,σ 2 normalverteilt mit Parametern µ R und σ 2 > 0. Nach Beispiel 1.54 ist Y : (X µ)/ σ 2 N 0,1. Die Verteilung von Y hat die Dichte f(x) 1 e x2 /2, x R. 2π Daher ist x f(x) dx 2 2π 0 xe x2 /2 dx 2 2π <. Also ist Y L 1 und damit X L 1. Weiter ist f(x) f( x), also x xf(x) eine ungerade Funktion und damit E[Y ] xf(x) 0. Folglich ist E[X] µ + σ 2 E[Y ]µ. Beispiel 3.13 Sei X Standard-Cauchy verteilt, das heißt X ist reell mit Dichte f(x) 1 1 π 1+x 2, x R. Dann ist f(x) f( x) wie bei der Normalverteilung, aber hier existiert der Erwartungswert nicht (und ist insbesondere nicht Null), denn x f(x) dx 2 x π 0 1+x 2 dx 2 x π 1 1+x 2 dx 1 1 π 1 x dx 1 (wobei wir für x 1 ausgenutzt haben, dass 1+x 1 2 2x ). Also ist E[ X ]. 2 Beispiel 3.14 Seien X 1,X 2,...identisch verteilte Zufallsvariablen mit E[ X 1 ] <. Dann gilt P[ X n n für unendlich viele n N] 0. (Vergleiche Beispiel 2.39.) Dies folgt leicht aus dem Borel-Cantelli Lemma, denn nach Bemerkung 3.10 ist P[ X n n] P[ X 1 n] E[ X 1 ] <. n1 n1 Satz 3.15 (Wald sche Identität) Seien T,X 1,X 2,... unabhängige reelle Zufallsvariablen in L 1 (P). Es sei P[T N 0 ]1, und es seien X 1,X 2,...identisch verteilt. Wir setzen S T : T X i. i1 Dann ist S T L 1 (P) und E[S T ]E[T ]E[X 1 ].
10 62 Erwartungswerte, Varianzen Beweis Setze S n n i1 X i für n N 0. Dann ist (mit Hilfe der Dreiecksungleichung, siehe Satz 3.5(i)) E[ S T ] E[ S n 1 {T n} ] n1 E[ S n ]E[1 {T n} ] n1 E[ X 1 ]np[t n] n1 E[ X 1 ]E[T ]. Die selbe Rechnung ohne Betragstriche liefert die Aussage. 3.3 Varianzen Wir wollen in diesem Abschnitt Varianzen und Kovarianzen von reellen Zufallsvariablen untersuchen. Zunächst betrachten wir allgemein Erwartungswerte von Funktionen von Zufallsvariablen, danach speziell quadratische Funktionen, die die Kovarianzen und Varianzen definieren. Satz 3.16 (i) Sei X (X 1,...,X n ) eine diskrete R n -wertige Zufallsvariable (mit Wertebereich W X ) und H : R n R eine beliebige Abbildung. Setze Y : H(X 1,...,X n ). Dann ist Y L 1 (P) genau dann, wenn x W X H(x) P[X x] <. In diesem Fall ist E[H(X)] x W X H(x) P[X x]. (ii) Sei X (X 1,...,X n ) ein R n -wertige Zufallsvariable mit Dichte f X (also P[X 1 x 1,...,X n x n ] x 1 dt x 1 n dt n f X (t 1,...,t n )) und H : R n R eine messbare Abbildung sowie Y : H(X). Dann ist Y L 1 (P) genau dann, wenn dx R n 1...dx n H(x 1,...,x n ) f X (x 1,...,x n ) <. In diesem Fall gilt E[H(X)] dx 1 dx n H(x 1,...,x n ) f X (x 1,...,x n ). Beweis (i) Für den Wertebereich W H(X) gilt klar W H(X) H(W X ) : {H(x) : x W X }. Für jedes y W H(X) ist das Ereignis {H(X) y} die disjunkte Vereinigung {H(X) y} x H 1 ({y}) {X x}. Es gilt also P[H(X) y] x H 1 ({y}) P[X x]. Mithin ist E[ H(X) ] y P[H(X) y] y W H(X) y W H(X) x H 1 ({y}) y W H(X) x H 1 ({y}) H(x) P[X x]. x W X Die selbe Rechnung ohne Betragstriche liefert die Aussage. y P[X x] H(x) P[X x]
11 3.3 Varianzen 63 (ii) Wir betrachten zunächst nur H : R n [0, ). Dann ist nach Bemerkung 3.10 E[H(X)] 0 0 P[H(X) t] dt dt dx 1 dx 1 dx 1 dx n f(x 1,...,x n )1 [t, ) (H(x 1,...,x n )) dx n f(x 1,...,x n ) dx n f(x 1,...,x n )H(x 1,...,x n ). 0 dt1 [t, ) (H(x 1,...,x n )) Für allgemeines H : R n R betrachte H H + H mit H + : R n [0, ) und H : R n [0, ). Dann ist nach dem bisher Gezeigten E[ H(X) ] E[H + (X)] + E[H (X)] dx 1 dx 1 dx n f(x 1,...,x n ) ( H + (x 1,...,x n )+H (x 1,...,x n ) ) dx n f(x 1,...,x n ) H(X). Die selbe Rechnung ohne Betragstriche liefert die Aussage. Sei stets X eine reelle Zufallsvariable, und sei p 1. Definition 3.17 Wir sagen, dass X ein p-tes Moment besitzt, falls M p (X) :E[ X p ] <. Wir schreiben dann X L p : L p (P) und nennen M p (X) das p te absolute Moment von X. Ist p N und M p (X) <, oder p {2, 4, 6,...}, oder ist X 0, so heißt das p te Moment von X. m p (X) :E[X p ] Satz 3.18 Ist p r 1 und X L p, so ist X L r. Beweis Die folgt direkt aus der Ungleichung x r 1+ x p für alle x R. Definition 3.19 Seien X, Y L 2. Dann heißt Var[X] :E[X 2 ] E[X] 2 die Varianz von X und σ : Var[X] heißt die Streuung von X. Ferner heißt Cov[X, Y ]:E[XY ] E[X]E[Y ] die Kovarianz von X und Y. Gilt Cov[X, Y ]0, so heißen X und Y unkorreliert.
12 64 Erwartungswerte, Varianzen Bemerkung Man beachte, dass xy x 2 +y 2. Daher ist E[ XY ] E[X 2 ]+E[Y 2 ] <.Für X, Y L 2 existiert also stets die Kovarianz. Beispiele 3.20 (i) Sei X Ber p. Dann ist E[X] p und X 2 X, also E[X 2 ]p. Mithin ist Var[X] p p 2 p(1 p). (3.8) (ii) Sei X Poi λ für ein λ 0. Dann ist E[X] λ und Also ist E[X(X 1)] k2 e λ k(k 1) λk k! λ2 k0 λ λk e k! λ2. Var[X] E[X 2 ] E[X] 2 E[X(X 1)] + E[X] E[X] 2 λ 2 + λ λ 2 λ. (3.9) (iii) Sei X γ p für p (0, 1]. Dann ist E[X] 1 p (siehe Beispiel 3.4(iii)). Setze f(x) 1 1 x x n, x ( 1, 1). n0 Dann ist und also Insgesamt erhalten wir 1 (1 x) 2 f (x) n1 2 (1 x) 3 f (x) n1 E[X 2 ]p n 2 (1 p) n 1 n0 nx n 2, n(n 1)x n 2, pf (1 p)+(1 p)f (1 p) 1 p + 2(1 p) p 2 2 p p 2. Var[X] E[X 2 ] E[X] 2 2 p p 2 1 p 2 1 p p 2. (3.10) Satz 3.21 Sind X, Y L 2 (P) unabhängig, so sind X und Y unkorreliert. Beweis Nach Satz 3.5(vii) ist E[XY ]E[X]E[Y ]. Hieraus folgt direkt die Aussage.
13 3.3 Varianzen 65 Bemerkung 3.22 Ins Satz 3.21 gilt die umgekehrte Implikation natürlich nicht. Hierzu betrachten wir als Beispiel X und Y mit P[X 0,Y 1] P[X 0,Y 1]P[X 1,Y 0]P[X 1,Y 0] 1 4. Dann ist Cov[X, Y ]0, aber P[X 0,Y 0]0 1 4 P[X 0]P[Y 0]. Satz 3.23 Es gelten (i) Cov[X, Y ]E[(X E[X])(Y E[Y ])] (ii) Var[X] E[(X E[X]) 2 ] (iii) Speziell ist stets Var[X] 0 und Var[X] 0 P[X E[X]] 1. (3.11) Beweis (i) Dies liefert die einfache Rechnung E[(X E[X])(Y E[Y ])] E[XY ] E[E[X]Y ] E[XE[Y ]] + E[E[X]E[Y ]] E[XY ] E[X]E[Y ] E[X]E[Y ]+E[X]E[Y] E[XY ] E[X]E[Y ] Cov[X, Y ]. (ii) Dies folgt direkt aus (i), weil Var[X] Cov[X, X]. (iii) Die Aussage folgt aus (ii) zusammen mit Satz 3.5(iii)), angewandt auf die Zufallsvariable (X E[X]) 2. Beispiel 3.24 Sei X N µ,σ 2 mit µ R und σ 2 > 0. Dann ist E[X] µ und mittels affiner Substitution und partieller Integration erhalten wir Var[X] E[(X µ) 2 ] 1 ) (x µ) 2 (x µ)2 exp ( 2πσ 2 2σ 2 dx 1 ) x 2 exp ( x2 2πσ 2 2σ 2 dx ) σ2 x 2 exp ( x2 dx 2π 2 [ xe σ2 x2 /2 ) ] + exp ( x2 dx 2π 2 σ 2.
14 66 Erwartungswerte, Varianzen Satz 3.25 Die Abbildung Cov : L 2 (P) L 2 (P) R ist eine positiv semidefinite symmetrische Bilinearform mit Cov[X, Y ]0, falls es ein y R gibt mit P[Y y] 1. Ausgeschrieben heißt dies: Für X 1,..., X m, Y 1,..., Y n L 2 (P) und α 1,...,α m, β 1,...,β n R, sowie d, e R m n Cov d + α i X i,e+ β j Y j α i β j Cov[X i,y j ]. (3.12) i1 j1 i,j Speziell gilt die Bienaymé-Gleichung [ m ] m Var X i Var[X i ]+ i1 i1 m Cov[X i,x j ]. (3.13) Für unkorrelierte (speziell also für unabhängige) X 1,...,X m gilt [ m ] m Var X i Var[X i ]. (3.14) i1 i1 i,j1 i j Beweis m n Cov d + α i X i,e+ β j Y j i1 j1 ( m E α i (X i E[X i ])) n β j (Y j E[Y j ]) i1 j1 m n α i β j E[(X i E[X i ])(Y j E[Y j ])] i1 j1 m n α i β j Cov[X i,y j ]. i1 j1 Beispiel 3.26 Seien n N und p [0, 1], sowie X b n,p. Wir wollen die Varianz von X ausrechnen. Seien X 1,...,X n unabhängig und Bernoulliverteilt mit Parameter p (und damit Var[X i ]p(1 p). Dann ist X d X X n, also Var[X] Var[X X n ]Var[X 1 ]+...+ Var[X n ]np(1 p).
15 3.3 Varianzen 67 Beispiel 3.27 Seien n N und p (0, 1], sowie X b n,p. Seien X 1,...,X n unabhängig X i γ p. (und damit Var[X i ] 1 p p nach Beispiel 3.20(iii)). Dann ist X d X X n n, also Var[X] Var[X n] Var[X X n ]n 1 p p 2. Korollar 3.28 Sind X, Y L 2, so gilt die Cauchy-Schwarz-Ungleichung (Cov[X, Y ]) 2 Var[X] Var[Y ]. (3.15) In (3.15) gilt Gleichheit genau dann, wenn es Zahlen a, b R gibt mit P[X ay + b] 1. In diesem Fall nennen wir X und Y perfekt korreliert. Beweis Die Cauchy-Schwarz Ungleichung gilt für jede positiv semidefinite Bilinearform, auf einem Vektorraum V. Es gilt jeweils Gleichheit x, y 2 x, x y, y genau dann, wenn es eine Zahl a R gibt mit x ay, x ay 0. Wenden wir dies auf die positiv semidefinite Bilinearform Cov[, ] auf L 2 (P) an, so erhalten wir die Cauchy-Schwarz Ungleichung für X, Y L 2 mit Gleichheit genau dann, wenn Var[X ay ]0, also genau dann, wenn (vergleiche Satz 3.23(iii)) P[X ay E[X]+aE[Y ]] 1, also die gewünschte Aussage mit b ae[y ] E[X]. Zeigen wir nun also die Aussage für die allgemeine positiv semidefinite Bilinearform. Ohne Einschränkung gilt y, y > 0 (sonst ist die Aussage trivial). Es gilt dann 0 y, y x x, y y, y, y x x, y y y, y 2 x, x 2 y, y x, y 2 + y, y x, y 2 ( y, y y, y x, x x, y 2), also y, y x, x x, y 2 0. Es gilt Gleichheit genau dann, wenn x, y x, y x y, x y, y y, y y 0. Satz 3.29 (Formel von Blackwell-Girshick) Seien T,X 1,X 2,...unabhängige reelle Zufallsvariablen in L 2 (P). Es sei P[T N 0 ]1, und es seien X 1,X 2,...identisch verteilt. Wir setzen Dann ist S T L 2 (P) und S T : T X i. i1 Var[S T ]E[X 1 ] 2 Var[T ]+E[T ]Var[X 1 ].
16 68 Erwartungswerte, Varianzen Beweis Es ist E[S 2 T ] ( n ) 2 E 1 T n X i n0 n0 i1 ( n ) 2 E[1 T n ]E X i i1 ( n ) 2 ( n ) 2 P[T n] E (X i E[X i ]) + E[X i ] n0 i1 P[T n] ( nvar[x 1 ]+n 2 E[X 1 ] 2) n0 E[T ]Var[X 1 ]+E[T 2 ]E[X 1 ] 2. i1 Nach der Wald schen Identität (Satz 3.15) ist E[S T ]E[T ]E[X 1 ], also ist Var[S T ]E[S 2 T ] E[S T ] 2 E[T ]Var[X 1 ]+(E[T 2 ] E[T ] 2 )E[X 1 ] 2. Dies ist aber die Behauptung. Wir kommen nun zu einer weiteren wichtigen Ungleichung für reellwertige Zufallsvariablen. Trotz der Einfachheit des Argumentes ist diese Aussage fundamental. Satz 3.30 (Markoffungleichung, Tschebyscheffungleichung) (i) Sei X eine reelle Zufallsvariable und f :[0, ) [0, ) eine monotone Funktion. Dann gilt für jedes a>0mit f(a) > 0 die Markoffungleichung P[ X a] E[f( X )]. (3.16) f(a) (ii) Speziell gilt für X L 2 (P) die Tschebyscheffungleichung P[ X E[X] >a] Var[X] a 2. (3.17) Beweis (i) Betrachte die Zufallsvariable Y : f(a)1 { X a}. Dann ist Y f( X ), also (nach Satz 3.5(iv)) E[f( X )] E[Y ]f(a)p[ X a]. (ii) Wende (i) auf die Zufallsvariable X X E[X] an mit f(x) x 2. Beispiel 3.31 Sei X b n,p. Wie können wir für a N die Wahrscheinlichkeit P[X a] einfach abschätzen? (Beispiel 3.20). Daher liefert die Tschebys- Es ist E[X] n 1 p p cheffungleichung (siehe Beispiel 3.6) und Var[X] n 1 p p 2 P[X a] P [ X E[X] a E[X] ] Var[X] (a E[X]) 2 1 p (ap n(1 p)) 2.
17 3.4 Der Median 69 Beispiel 3.32 Sei X Poi λ für ein λ>0. Wie groß ist P[X a]? Wir wenden zunächst die Tschebyscheffungleichung an. Es ist E[X] λ und Var[X] λ (siehe Beispiel 3.20(ii)). Also ist P[X a] Var[X] (a E[X]) 2 λ (a λ) 2. (3.18) Wir wollen diese Abschätzung verbessern, indem wir eine geeignetere Funktion in der Markoffungleichung wählen. Setze f(x) :exp(θx), wobei θ : log(a/λ). Dann ist P[X a] e θa E[e θx ] e θa e λ θk λk e k! k0 e θa e λ e λeθ e θa e λ(1 eθ). Dieser Ausdruck wird minimal genau für unsere Wahl von θ, und es folgt ( P[X a] exp a λ a log ( a ) ). λ (3.19) Für große a ist diese Abschätzung besser als (3.18). 3.4 Der Median Für reelle Zufallsvariablen X, die keinen Erwartungswert besitzen, ist es nützlich, eine andere Kenngröße anzugeben, die einen typischen Wert angibt. Dies kann der Median sein, der als derjenige Wert m X definiert ist, so dass X mit Wahrscheinlichkeit mindestens 1 2 Werte kleiner als m X annimmt, ebenfalls mit Wahrscheinlichkeit mindestens 1 2 Werte größer als m X. Definition 3.33 (Median) Sei µ ein Wahrscheinlichkeitsmaß auf R. Dann heißt jede Zahl m R mit µ((,m]) 1 2 und µ([m, )) 1 2 (3.20) ein Median von µ. Ist speziell X eine reelle Zufallsvariable, so heißt m X Median von X, falls m X der Median von P X ist, also falls P[X m X ] 1 2 und P[X m X ] 1 2. (3.21) Satz 3.34 Die Menge M µ {m R : mist Median von µ} : [m,m + ] ist ein kompaktes Intervall, das möglicherweise aus nur einem Punkt besteht. Beweis Seien m 1,m 2 M µ, m 1 m 2, so ist für jedes m [m 1,m 2 ]: µ((,m]) µ((,m 2 ]) 1 2 und µ([m, )) µ([m 1, )) 1 2.
18 70 Erwartungswerte, Varianzen Also ist m M µ. Außerdem gilt µ((,x]) 0 für x, also existiert ein x R mit µ((,x]) 1 4. Klar ist x m für alle m M µ. Analog existiert ein y R mit y>mfür alle m M µ. Also ist M µ beschränkt. Ist #M µ 1, so ist klar M µ kompakt. Sei also nun M µ ein nicht entartetes Intervall und m : inf M µ R. Sei m n M µ für jedes n N und m 1 >m 2 >m 3 >...sowie m lim n m n, so ist µ((,m ]) lim n µ((,m n]) 1 2 und µ([m, ) µ((m, )) lim µ([m n, )) 1 n 2. Mithin ist m M µ. Analog folgt m + : sup M µ M µ, also ist M µ abgeschlossen und damit kompakt. Der Median hat eine einfache Transformationseigenschaft. Satz 3.35 Sei X eine reelle Zufallsvariable und ϕ : R R eine monoton wachsende, oder monoton fallende, Abbildung. Sei ferner m X ein Median von X. Dann ist ϕ(m X ) ein Median der Zufallsvariablen ϕ(x). Beweis Sei zunächst ϕ monoton wachsend. Für alle x R ist {ϕ(x) ϕ(x)} {X x} und {ϕ(x) ϕ(x)} {X x}. Daher ist P[ϕ(X) ϕ(m X )] P[X m X ] 1 2 und P[ϕ(X) ϕ(m X )] P[X m X ] 1 2. Analog ist für ϕ monoton fallend {ϕ(x) ϕ(x)} {X x} und {ϕ(x) ϕ(x)} {X x}. Daher ist P[ϕ(X) ϕ(m X )] P[X m X ] 1 2 und P[ϕ(X) ϕ(m X )] P[X m X ] 1 2. Beispiel 3.36 Wir nehmen an, dass ein an einem Faden aufgehängter frei drehbarer Spiegel eine zufällige Lage X einnimmt, die gleichverteilt sein soll in dem Intervall (0,π/2). Um die Lage abzulesen, verwenden wir einen Laserstrahl, der einen Messpunkt Y auf einem l Längeneinheiten entfernten Wandschirm liefert. Wir können annehmen, dass die Winkel so angegeben sind, dass gilt: Y l tan(x). Welches ist eine gute Kenngröße für Y? Die Stammfunktion von x tan(x) ist x log(cos(x)). Also ist E[Y ] π/2 0 2 l tan(x) dx πl π 2 log(cos(x)) xπ/2. x0 Andererseits ist von X der Median m X π 4, also von Y der Median m Y l tan(π/4) l. Können wir nun experimentell m Y bestimmen, so können wir ebenfalls auf den Median von X rückschließen durch m X arctan(m Y /l). Bemerkung 3.37 Ist die Verteilungsfunktion x F X (x) P[X x] streng monoton wachsend, so ist der Median eindeutig. Beweis Übung!
19 3.4 Der Median 71 Satz 3.38 Ist X L 1 (P), so ist jeder Median m X ein Minimierer des L 1 -Abstands zu X: E[ X a ] E[ X m X ] für alle x R] (3.22) und E[ X a ] E[ X m X ] a ist eine Median von X. (3.23) Beweis Dann ist Definiere h(a) h(a) :E[ X a ], a R. 0 0 a P[ X a t] dt P[X a t]+p[x a t] dt P[X t] dt + a P[X t] dt. Für t<m X ist 1 P[X t] P[X <t] 0. Für a b m X ist daher h(b) h(a) b a b a b a 0. P[X t] dt + a b P[X t] dt (1 P[X t] P[X <t]) dt (1 P[X t] P[X <t]) dt Speziell ist h(m X ) h(a) für alle a m X. Analog erhält man m(m X ) h(a) für alle a m X. Sei nun m der kleinste Median von X und b<m. Dann ist für alle t (b, m ) sogar 1 P[X t] P[X < t] < 0, also h(b) h(m ) > 0. Analog erhält man h(b) h(m + ) > 0 für alle b die echt größer sind als der größte Median m +. Korollar 3.39 Ist X L 2 (P) und ist m ein Median von X, so ist m E[X] Var[X]. (3.24) Beweis Für jedes c R ist E[X] c E[X c] E[ X c ] E[ X c ]. Außerdem ist für Y L 2 (P) stets E[Y 2 ]Var[Y ]+E[Y ] 2 E[Y ] 2. Wir wenden dies an mit c m und Y X E[X] und erhalten E[X] m E[ X m ] Satz 3.38 E[ X E[X] ] E[(X E[X]) 2 ] Var[X].
I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrVorlesung 4b. Die Varianz
Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert als Var X := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrVorlesung 4b. Die Varianz
Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ Die Varianz von X ist definiert als Var[X] := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
Mehr1.3 Zufallsvariablen
1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrUniversität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt
Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert
Mehr68 Abschätzungen für Abweichungen vom Erwartungswert
68 Abschätzungen für Abweichungen vom Erwartungswert 68.1 Motivation Mit der Varianz bzw. Standardabweichungen kennen wir bereits ein Maß für die Fluktuation einer Zufallsvariablen um ihren Erwartungswert.
MehrKlausur zur Vorlesung Stochastik II
Institut für Stochastik WS 007/008 Universität Karlsruhe. 0. 008 r. B. Klar Klausur zur Vorlesung Stochastik II Muster-Lösung auer: 90 Minuten Name: Vorname: Matrikelnummer: iese Klausur hat bestanden,
MehrFinanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrVorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) (oder eine Teilmenge davon) ist. Es existiere
MehrErwartungswert als Integral
Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral
MehrWahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19
Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrSabrina Kallus, Eva Lotte Reinartz, André Salé
Sabrina Kallus, Eva Lotte Reinartz, André Salé } Wiederholung (Zufallsvariable) } Erwartungswert Was ist das? } Erwartungswert: diskrete endliche Räume } Erwartungswert: Räume mit Dichten } Eigenschaften
Mehr67 Zufallsvariable, Erwartungswert, Varianz
67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
MehrDer Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),
2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist
Mehr12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.
12 Ungleichungen Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. Dann gilt: min c R E(X c)2 = Var X. Beweis: Für alle reellen Zahlen c R gilt: E(X
MehrBeispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal
Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.
MehrGesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrKapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
MehrKapitel 8: Zufallsvektoren
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und
MehrFerienkurs zur Einführung in die Wahrscheinlichkeitstheorie
Ferienkurs zur Einführung in die Wahrscheinlichkeitstheorie Wintersemester 2010/2011 Fabian Benesch 28.02.2011 Information Das Kleingedruckte Dieser Ferienkurs ist kein Bestandteil der Vorlesung Einführung
MehrBeweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass
Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
Mehr11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
Mehr4 Messbare Funktionen
4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und
Mehr10 Transformation von Zufallsvariablen
10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :
MehrSuffizienz und Vollständigkeit
KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt
MehrKlausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 24/25 Universität Karlsruhe 7. März 25 Priv-Doz. Dr. D. Kadelka Klausur zur Vorlesung Stochastik II Dauer: 9 Minuten Name: Vorname: Matrikelnummer: Diese Klausur
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 11. November 2010 1 Erwartungswert und Varianz Erwartungswert Varianz und Streuung Rechenregeln Binomialverteilung
MehrCharakteristische Funktionen
Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrGrundlagen der Wahrscheinlichkeitstheorie
Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)
Mehrx, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
MehrDiskrete Zufallsvariable
Diskrete Zufallsvariablen Slide 1 Diskrete Zufallsvariable Wir gehen von einem diskreten W.-raum Ω aus. Eine Abbildung X : Ω Ê heißt diskrete (numerische) Zufallsvariable oder kurz ZV. Der Wertebereich
Mehri Pr(X = i). Bsp: Sei X die Summe zweier Würfe eines Würfels. Dann gilt E[X] =
Erwartungswert Definition Erwartungswert Der Erwartungswert einer diskreten ZV ist definiert als E[X] = i i Pr(X = i). E[X] ist endlich, falls i i Pr(X = i) konvergiert, sonst unendlich. Bsp: Sei X die
MehrÜ b u n g s b l a t t 13
Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
MehrKapitel 5. Stochastik
76 Kapitel 5 Stochastik In diesem Kapitel wollen wir die Grundzüge der Wahrscheinlichkeitstheorie behandeln. Wir beschränken uns dabei auf diskrete Wahrscheinlichkeitsräume Ω. Definition 5.1. Ein diskreter
Mehr70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
MehrStetige Verteilungen, Unabhängigkeit & ZGS
Mathematik II für Biologen Stetige Verteilungen, & ZGS 19. Juni 2015 Stetige Verteilungen, & ZGS Stetige Zufallsvariable Dichte & Verteilungsfunktion Eigenschaften & Kennzahlen Definition Eigenschaften,
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
Mehr1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis Vorbemerkungen 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 6 Bedingte
MehrKapitel 9. Verteilungsmodelle. 9.1 Diskrete Verteilungsmodelle Die Gleichverteilung
Kapitel 9 Verteilungsmodelle Es gibt eine Reihe von Verteilungsmodellen für univariate diskrete und stetige Zufallsvariablen, die sich in der Praxis bewährt haben. Wir wollen uns von diesen einige anschauen.
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
MehrStochastik - 2. Teil
Stochastik - 2. Teil Andrej Depperschmidt Vorlesungsskript Universität Freiburg Sommersemester 2016 Version: 13. Juli 2016 1 Einleitung und Wiederholung In diesem Kapitel wiederholen wir kurz einige grundlegende
MehrStatistik für Informatiker, SS Verteilungen mit Dichte
1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches
MehrProgramm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung
Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus
Mehr1.3 Zufallsgrößen und Verteilungsfunktionen
.3 Zufallsgrößen und Verteilungsfunktionen.3. Einführung Vielfach sind die Ergebnisse von Zufallsversuchen Zahlenwerte. Häufig möchte man aber auch in den Fällen, wo dies nicht so ist, Zahlenwerte zur
Mehr1.5 Erwartungswert und Varianz
Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:
Mehr0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5
4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 29 UNIVERSITÄT KARLSRUHE Blatt 6 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 27: Sei X eine R + -wertige
MehrDWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
MehrAsymptotische Stochastik (SS 2010)
Institut für Stochastik PD. Dr. Dieter Kadelka Daniel Gentner Asymptotische Stochastik (SS 2010) Lösungen zu Übungsblatt 4 Aufgabe 1 (lokaler Grenzwertsatz von de Moivre und Laplace und eine Verallgemeinerung)
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
MehrMeßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :
24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar
Mehr15. September 2010 Prof. Dr. W. Bley. Universität Kassel Klausur SS 2010 Diskrete Strukturen I (Informatik) Name:... Matr.-Nr.:... Viel Erfolg!
15. September 010 Prof. Dr. W. Bley Universität Kassel Klausur SS 010 Diskrete Strukturen I (Informatik) 1 3 4 5 6 Name:................................................ Matr.-Nr.:............................................
MehrSatz 61 (Chebyshev-Ungleichung)
Die folgende Abschätzung ist nach Pavnuty Lvovich Chebyshev (1821 1894) benannt, der ebenfalls an der Staatl. Universität in St. Petersburg wirkte. Satz 61 (Chebyshev-Ungleichung) Sei X eine Zufallsvariable,
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrKlausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik
Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen
Mehr1 Stochastische Konvergenz 2
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
MehrKapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen
Kapitel 6 Verteilungsparameter Wie bei einem Merkmal wollen wir nun die Lage und die Streuung der Verteilung einer diskreten Zufallsvariablen durch geeignete Maßzahlen beschreiben. Beginnen wir mit Maßzahlen
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrStochastik für Wirtschaftswissenschaftler
Stochastik für Wirtschaftswissenschaftler Hartmut Lanzinger Wintersemester 0/ Inhaltsverzeichnis Wahrscheinlichkeiten Einführung.......................................... Laplacesche Wahrscheinlichkeitsräume...........................
Mehr7. Die Brownsche Bewegung
7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen
MehrZufallsvariable: Verteilungen & Kennzahlen
Mathematik II für Biologen 12. Juni 2015 Zufallsvariable Kennzahlen: Erwartungswert Kennzahlen: Varianz Kennzahlen: Erwartungstreue Verteilungsfunktion Beispiel: Exponentialverteilung Kennzahlen: Erwartungswert
Mehr