4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

Größe: px
Ab Seite anzeigen:

Download "4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung"

Transkript

1 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt des i -ten Systems (i = 1,...,n). Man beschreibe den Ausfallzeitpunkt X des Gesamtsystems bei a) Parallelschaltung ( Ausfall Ausfall in allen Teilsystemen ) ; b) Serienschaltung ( Ausfall Ausfall in einem Teilsystem ). Lösung : a) X =max(x 1,...,X n ); b) X = min(x 1,...,X n ). Modelle für die gemeinsame Beschreibung von ZV. sind besonders einfach bei Unabhängigkeit : Definition 4.1. Seien (Ω, A,P) ein W-Raum und X i : (Ω, A) (X i, B i )-ZV. für i =1, 2,.... Dann heißen X 1,X 2,... (stochastisch ) unabhängig (bzgl. P ), wenn gilt : ( ) P (X i1 B i1,...,x ik B ik )=P(X i1 B i1 ) P(X ik B ik ) für jede endliche Auswahl {i 1,...,i k } N, B iν B iν (ν =1,...,k). Bemerkung 4.1. a) Nach Definition 4.1 genügt die Betrachtung von jeweils endlich vielen ZV., etwa X 1,...,X n. b) Sind alle X i diskret verteilt, d.h. existieren abzählbare Wertebereiche X i mit P (X i X i )=1 i =1,...,n, so gilt : X 1,...,X n unabhängig P (X 1 = x 1,...,X n = x n )= x i X i, n P (X i = x i ) i =1,...,n. c) Setzt man die ZV. X 1,...,X n zu X =(X 1,...,X n ) zusammen, so ist X ein (Ω, A) (X, B) Zufallsvektor ( vgl. Wahrscheinlichkeitstheorie ), wobei X = X 1 X n, B := B 1 B n := kleinste σ-algebra, die alle Ereignisse B 1 B n, B i B i, umfasst. 37

2 Definition 4.2. a) Die Verteilung P X auf B (im Sinne von Definition 2.2) von X =(X 1,...,X n ) heißt gemeinsame Verteilung der ZV. X 1,...,X n. b) Die Verteilung P Xi (auf B i ) der ZV. X i heißt i-te Rand-(Marginal-)Verteilung von P X. Es gilt : P Xi (B i ) = P ( ) (X 1,...,X n ) X 1 X i 1 B i X i+1 X n = P X (X 1 X i 1 B i X i+1 X n ), B i B i, d.h. die gemeinsame Verteilung P X = P X1,...,X n (i =1,...,n). bestimmt die Randverteilungen P Xi Beispiel 4.2. n-maliges Ziehen mit Zurücklegen aus einer Urne mit N Kugeln. Sei X i = Ergebnis der i-ten Ziehung (i =1,...,n). Modell : Ω = { ω =(ω 1,...,ω n ) ω i {1,...,N} } = {1,...,N} n, A = P(Ω), P ({ω}) = 1 ; N n Hier : X i (ω) =ω i (i =1,...,n), (X 1,...,X n )(ω) =(X 1 (ω),...,x n (ω)) = (ω 1,...,ω n )=ω; Bildraum : X =Ω, B = A = P(Ω), P X = P = diskrete Gleichverteilung auf P(Ω) ; i-te Randverteilung : P Xi ({x i })=P (X i = x i )= N n 1 N n = 1 N, [ diskrete Gleichverteilung auf P ( {1,...,N} )]. Sind die ZV. X 1,...,X n unabhängig? Ja, denn P (X 1 = x 1,...,X n = x n )= 1 N n = n P (X i = x i ) x i {1,...,N},,...,n. Beim Ziehen ohne Zurücklegen sind die ZV. X 1,...,X n nicht unabhängig! H Wie lässt sich das gemeinsame Zufallsgeschehen (die gemeinsame Verteilung) von endlich vielen ZV. beschreiben? Wir beschränken uns auf die beiden folgenden Möglichkeiten : a) Der Bildraum X von X =(X 1,...,X n ) ist abzählbar und B = P(X ): Dann ist die gemeinsame Verteilung P X = P X1,...,X n festgelegt durch die (diskrete) W-Dichte p(x 1,...,x n )=P (X 1 = x 1,...,X n = x n ), (x 1,...,x n ) X; 38

3 b) Bildraum X = R n und B = B n =Borel-σ-Algebra in R n = kleinste σ-algebra, die alle n-dimensionalen Intervalle (a, b) =(a 1,b 1 ) (a n,b n ) umfasst : Dann ist P X festgelegt durch Angabe der Wahrscheinlichkeiten P ( X (a, b) ) = P ( X 1 (a 1,b 1 ),...,X n (a n,b n ) ), a i <b i (i =1,...,n). Gilt sogar : P ( X (a, b) ) ( ) b1 = P X (a, b) = a 1... a n f(x 1,...,x n ) dx 1...dx n, wobei f : R n R 1 eine nicht-negative, Riemann-integrierbare Funktion ist mit... f(x 1,...,x n ) dx 1...dx n =1, so heißt X =(X 1,...,X n ) absolut-stetig verteilt mit (gemeinsamer) Dichte f. bn Beispiel 4.3. a) (Exponentialverteilung im R 3 ) { λ 1 λ 2 λ 3 e (λ 1x 1 +λ 2 x 2 +λ 3 x 3 ), x 1,x 2,x 3 > 0, f(x 1,x 2,x 3 )= 0, sonst. b) (Rechteckverteilung im R 2 ) { 1 (b f(x 1,x 2 )=, a 1 a 1 )(b 2 a 2 ) 1 <x 1 <b 1, a 2 <x 2 <b 2, 0, sonst. Bemerkung 4.2. Die Randverteilungen ergeben sich wie folgt : a) X =(X 1,...,X n ) diskret verteilt mit Dichte p(x 1,...,x n ): p i (x i )=P(X i = x i )= p(x 1,...,x i 1,x i,x i+1,...,x n ); xν (ν i) x i fest b) X =(X 1,...,X n ) absolut-stetig verteilt mit Dichte f(x 1,...,x n ): f i (x i )=... (x i fest) f(x 1,...,x n ) dx 1...dx i 1 dx i+1...dx n ist Dichte der Randverteilung P Xi (absolut-stetig ). Beispiele 4.3 (Fortsetzung) Die Randverteilungen besitzen Dichten : a) f i (x i ) = λ i e λ ix i I (0, ) (x i ) (i =1, 2, 3) ; b) f i (x i ) = 1 b i a i I (ai,b i )(x i ) (i =1, 2). 39

4 Bemerkung 4.3. Die Unabhängigkeit der X 1,...,X n der gemeinsamen Dichte, d.h. ergibt sich aus der Produktform a) falls X =(X 1,...,X n ) diskret verteilt ist mit Dichte n p(x 1,...,x n )= p i (x i ), p i i-te Randdichte, bzw. b) falls X =(X 1,...,X n ) absolut-stetig verteilt ist mit Dichte n f(x 1,...,x n )= f i (x i ), f i i-te Randdichte, so sind die ZV. X 1,...,X n unabhängig. Definition 4.3. Seien (Ω, A,P) ein W-Raum und X =(X 1,...,X n ): Ω R n eine n-dimensionale ZV. Die durch F (x 1,...,x n ):=P(X 1 x 1,...,X n x n ), (x 1,...,x n ) R n, definierte Abbildung F : R n [0, 1] heißt (gemeinsame ) VF. der ZV. X 1,...,X n. Analog zu den Sätzen 2.2/2.3 besitzt die gemeinsame VF. folgende Eigenschaften : Satz 4.1. Sei F (gemeinsame ) VF. der n-dimensionalen ZV. (X 1,...,X n ) auf (Ω, A,P). Dann gilt: a) F ist monoton wachsend in jeder Komponente x i (i =1,...,n); b) F ist rechtsstetig in jeder Komponente x i (i =1,...,n); c) lim x i ( i) F (x 1,...,x n )=0, lim F (x 1,...,x n )=1; x i + ( i) d) Ist X =(X 1,...,X n ) absolut-stetig verteilt mit Dichte f(x 1,...,x n ), so gilt in jedem Stetigkeitspunkt x von f : f(x) =f(x 1,...,x n )= e) P X ist durch F eindeutig festgelegt. n x 1... x n F (x 1,...,x n ); 40

5 Bemerkung 4.3 (Fortsetzung) Die Unabhängigkeit der X 1,...,X n ergibt sich ebenfalls aus der Produktform von F,d.h. aus n F (x 1,...,x n )= F i (x i ) (x 1,...,x n ) R n, F i i-te Rand-VF. Beispiel 4.1 (Fortsetzung) Die Ausfallzeitpunkte der n Teilsysteme seien unabhängig, identisch Exp(λ)-verteilt. Dann besitzt der Ausfallzeitpunkt X des Gesamtsystems die folgende Dichte : a) Parallelschaltung, d.h. X =max(x 1,...,X n ): F (x) = P (X x) =P (X 1 x,...,x n x) { n (1 e λx ) n, x > 0, = P (X i x) = 0, sonst. Ableitung : F (x) = { nλ e λx (1 e λx ) n 1, x > 0, 0, x < 0, d.h. X ist absolut-stetig verteilt mit Dichte f der Form : f(x) =nλ e λx (1 e λx ) n 1 I (0, ) (x); Erwarteter Ausfallzeitpunkt (über partielle Integration ) : EX = 0 xnλe λx (1 e λx ) n 1 dx = 1 λ n k=1 1 k ; b) Serienschaltung, d.h. X = min (X 1,...,X n ): F (x) = P ( n {X i x} ) =1 P ( n {X i >x} ) { 1 (e λx ) n =1 e nλx, x > 0, = 0, sonst. Also ist X = min (X 1,...,X n ) Exp(nλ)-verteilt mit Dichte f(x) =nλ e nλx I (0, ) (x). Erwarteter Ausfallzeitpunkt : EX = 1 nλ. 41

6 Bemerkung 4.4. Das obige Beispiel zeigt, dass das Minimum von n unabhängig, identisch verteilten (i.i.d.) ZV. mit einer Exp(λ)-Verteilung eine Exp(nλ)-Verteilung besitzt. Es gilt sogar allgemeiner : X i unabhängig, Exp(λ i )-verteilt (i =1, 2,...,n) = X = min (X 1,...,X n ) ist Exp(λ λ n )-verteilt. Eine weitere, sogar charakteristische, Eigenschaft der Exp(λ)-Verteilung ist deren Gedächtnislosigkeit (bzw. Nichtalterungseigenschaft ). Ein diskretes Analogon zur Exponentialverteilung bildet hierbei noch die geometrische Verteilung. Satz 4.2. a) X sei absolut-stetig verteilt auf (Ω, A, P) mit P (X > 0) = 1 und Dichte f(x) =λe λx I (0, ) (x) (λ>0, fest ). = P (X x + y X x) =P (X y) x, y 0; b) X sei diskret verteilt auf (Ω, A,P) mit P (X N 0 )=1und Dichte p(i) =pq i, i N 0 (0 <p<1, q=1 p, fest ) = P (X = i + j X i) =P (X = j) i, j N 0. Bemerkung 4.5. a) Falls X absolut-stetig verteilt ist mit P (X > 0) = 1, so gilt auch die Umkehrung in Satz 4.2 a) : Charakterisierung der Exponentialverteilung ; b) Falls X diskret verteilt ist mit P (X N 0 ) = 1 und P (X =0)=:p<1, so gilt auch die Umkehrung in Satz 4.2 b): Charakterisierung der geometrischen Verteilung. Die Unabhängigkeit von Zufallsvariablen bleibt unter ( messbaren ) Transformationen erhalten : Satz 4.3. Seien X 1,...,X n unabhängige, reelle ZV. auf (Ω, A,P) und h 1,...,h n messbare reelle Funktionen, d.h. h 1 i (B) B 1 B B 1, i =1,...,n. Dann gilt : Y 1 := h 1 (X 1 ),...,Y n := h n (X n ) sind unabhängige, reelle ZV. Beispiel 4.4. (X 1,...,X n ) unabhängige, reelle ZV. = a) X1 k,...,xn k unabhängige, reelle ZV. (k N, fest); b) s X 1,...,s Xn unabhängige, reelle ZV. (s >0, fest) ; c) e tx 1,...,e txn unabhängige, reelle ZV. (t R, fest). 42

7 Das Zufallsgeschehen eines (n-dimensionalen) Zufallsvektors unter einer n-dimensionalen Transformation verändert sich wie folgt : Seien X = (X 1,...,X n ) eine n-dimensionale ZV. auf (Ω, A,P) und h : R n R n messbar, d.h. h 1 (B) B n B B n, wobei B n = kleinste σ-algebra in R n, die alle n-dimensionalen Intervalle umfasst. Frage : Wie sieht die (gemeinsame) Verteilung aus von Y = h(x) = ( h 1 (X 1,...,X n ),...,h n (X 1,...,X n ) )? Antwort : a) Seien X 1,...,X n diskret verteilt i =1,...,n = X = (X 1,...,X n ) ist diskret verteilt und es genügt, die Wahrscheinlichkeitsdichte zu bestimmen : P (Y 1 = y 1...,Y n = y n )=P(h 1 (X) =y 1,...,h n (X) =y n )=P ( n {X h 1 i ({y i })} ), y =(y 1,...,y n ) h(x ), X Träger von P X, d.h. P X (X )=P(X X)=1. Beispiel 4.5. a) X =(X 1,X 2 ) besitze folgende gemeinsame Verteilung : p X (0, 1) = 1 3, p X(0, 3) = 1 6, p X(1, 2) = 1 2. Was ist die gemeinsame Verteilung von Y 1 = X 1 + X 2,Y 2 = X 1 X 2? Lösung : (0, 1) (1, 1), (0, 3) (3, 3), (1, 2) (3, 1) = p Y (1, 1) = 1 3, p Y (3, 3) = 1 6, p Y (1, 2) = 1 2. b) Sei (X 1,...,X n ) absolut-stetig verteilt mit (gemeinsamer) Dichte f = f(x 1,...,x n ). Dann gilt der folgende Transformationssatz : 43

8 Satz 4.4. X =(X 1,...,X n ) sei absolut-stetig verteilt auf (Ω, A,P) mit Dichte f = f(x 1,...,x n ), x =(x 1,...,x n ) R n. Ferner gelte : (i) h : R n R n ist injektiv mit Umkehrabbildung u : W R n, wobei W := h(r n ) offen ; (ii) h ist ein Diffeomorphismus, d.h. h und u besitzen stetige partielle Ableitungen. Bezeichne J = J(y) die Jacobi-Matrix der Umkehrabbilung u, also u 1 y 1 J(y) =. u n y 1 u 1 y n. u n y n, y W. Dann ist Y =(Y 1,...,Y n )=h(x) absolut-stetig verteilt mit (gemeinsamer ) Dichte { detj(y) f(u 1 (y),...,u n (y)), y W, g(y) =g(y 1,...,y n )= 0, sonst. Beispiel 4.6. X =(X 1,X 2 ) sei absolut-stetig verteilt mit gemeinsamer Dichte f = f(x 1,x 2 ) und Randdichten f 1 = f 1 (x 1 ), f 2 = f 2 (x 2 ). Man bestimme die gemeinsame Verteilung von Y 1 = X 1 + X 2,Y 2 = X 2 : Umkehrabbildung : X 1 = Y 1 Y 2,X 2 = Y 2, also u 1 (y) =y 1 y 2,u 2 (y) =y 2, y =(y 1,y 2 ) R 2 ; h, u bijektiv, stetig partiell differenzierbar ; ( ) det J(Y ) = det =1, y R2 = Dichte : g(y 1,y 2 )=f(y 1 y 2,y 2 ), (y 1,y 2 ) R 2. Als Dichte der Randverteilung von Y 1 = X 1 + X 2 erhält man sofort : g 1 (y 1 )= f(y 1 y 2,y 2 ) dy 2, y 1 R 1. Sind X 1,X 2 sogar unabhängig, etwa f(x 1,x 2 )=f 1 (x 1 )f 2 (x 2 ), (x 1,x 2 ) R 2, so ergibt sich speziell : g 1 (y 1 )= f 1 (y 1 y 2 )f 2 (y 2 ) dy 2. 44

9 Z.B. : X 1,X 2 i.i.d., Exp(λ)- verteilt = Dichte von X 1 X 2 : g 1 (y 1 )= λ 2 e λ y 1, y 1 R 1 (Laplace-Verteilung ; Bezeichnung : D(λ)-Verteilung ). Definition 4.4. X 1,...,X n seien unabhängige, reelle ZV. auf (Ω, A,P). Die Verteilung P X1 + +X n der Summe X 1 + +X n heißt Faltung von P X1,...,P Xn, geschrieben P X1 P Xn. Bemerkung 4.6. Die Herleitung in Beispiel 4.6 zeigt, dass die Faltung zweier unabhängiger, absolut-stetig verteilter ZV. X und Y mit Dichten f = f(x) und g = g(y) die folgende Dichte besitzt (Dichte von Z = X + Y ): h(z) = f(z y)g(y) dy = g(z x)f(x) dx, z R 1. Beispiel 4.7. ( n -dimensionale Normalverteilung ) Die Funktion f : R n R 1 mit f(x 1,...,x n ):= 1 (2π) n/2 e (x x2 n )/2 ist W-Dichte einer n-dimensionalen ZV. X =(X 1,...,X n ), denn f 1 : R 1 R 1 f 1 (x 1 )= 1 2π e x2 1 /2, x 1 R 1, mit ist Dichte der N(0, 1)-Verteilung (vgl. Beispiel 2.5), d.h. f(x 1,...,x n )= n f 1 (x i ), (x 1,...,x n ) R n, ist (gemeinsame ) Dichte von n i.i.d., N(0, 1)-verteilten ZV. X 1,...,X n. Frage : Wie sieht die Dichte von Y = BX + a aus (a R n,b R n n regulär)? Antwort : y = h(x) =Bx + a ist injektiv, da B regulär, W = h(r n )=R n offen ; x = u(y) =B 1 (y a), y R n ; det J = det B 1 =1/ det B ; Setzt man Σ := BB, so gilt : x x2 n = x x =(y a) (B 1 ) B 1 (y a) =(y a) Σ 1 (y a), det B = det Σ 1/2, also Dichte von Y : g(y) = 1 (2π) n/2 det Σ 1 e 1/ (y a) Σ 1 (y a), y R n.

10 Definition 4.5. Ein Zufallsvektor Y mit obiger Dichte g heißt (n -dimensional ) normalverteilt mit Parametern a, Σ; Schreibweise : P Y = N(a, Σ). Erwartungswerte (von reellen Transformationen mehrerer ZV.) X =(X 1,...,X n ) sei eine n-dimensionale ZV. auf (Ω, A,P) und h : R n R 1 sei messbar, d.h. h 1 (B) B n B B 1. Satz 4.5. Sei X diskret verteilt mit Dichte p(x 1,...,x n ) oder absolut-stetig verteilt mit Dichte f(x 1,...,x n ). Dann gilt :... h(x 1,...,x n ) p(x 1,...,x n ), X diskret, x Eh(X) = 1 x n... h(x 1,...,x n ) f(x 1,...,x n ) dx 1...dx n, X absolut-stetig, falls die n-fache Summe bzw. das n-dimensionale Integral absolut konvergieren. Erwartungswerte (von Produkten unabhängiger ZV.) Satz 4.6. X, Y seien unabhängige, reelle ZV. auf (Ω, A,P) mit existierenden EW. EX,EY. Dann gilt : E(XY ) existiert und E(XY )=EX EY. Varianzen, Kovarianzen Seien X, Y reelle ZV. auf (Ω, A,P) mit E(X 2 ) <,E(Y 2 ) <. Dann gilt : Var(X + Y ) existiert und Var(X + Y )=Var(X)+Var(Y)+2E(X EX)(Y EY ). Definition 4.6. Seien X, Y reelle ZV. auf (Ω, A, P) mit existierenden zweiten Momenten. Dann heißt Cov(X, Y ):=E(X EX)(Y EY ) die Kovarianz von X und Y. Falls Cov(X, Y )=0, so heißen X und Y unkorreliert. Bemerkung 4.7. a) Var(X + Y )=Var(X)+Var(Y )+2Cov(X, Y ); 46

11 Allgemein : Var ( n ) n X i = Var(X i )+2 Cov(X i,x j ), i<j falls alle zweiten Momente existieren. b) X, Y unabhängig mit existierenden zweiten Momenten = Cov(X, Y )= 0, also X, Y unkorreliert ; Allgemein : X 1,...,X n unabhängig mit existierenden zweiten Momenten = Var ( n ) n X i = Var(X i ); c) Rechenregeln : X, Y, Z reelle ZV. mit existierenden zweiten Momenten ; a, b, c R 1 = 1) Cov(X, Y ) =Cov(Y,X),Cov(X, X) =Var(X); 2) Cov(aX, by )=ab Cov(X, Y ); 3) Cov(X, Y + Z) =Cov(X, Y )+Cov(X, Z), speziell : Cov(X, Y + c) = Cov(X, Y ); 4) Cov(X, Y )=E(XY ) (EX)(EY ) Verschiebungssatz. Beispiel 4.8. n aus N = R + S Kugeln gezogen : X = Anzahl gezogener roter Kugeln ; Var(X) =? a) Ziehen mit Zurücklegen : { 1, im i-ten Zug rot, Seien X i = 0, sonst ; = X 1,...,X n i.i.d., B(1,p)-verteilt (p = R ) N = Var(X) = Var ( n ) X i = nvar(x1 )=np(1 p). b) Ziehen ohne Zurücklegen : X i wie in a), aber abhängig ; Var(X) =Var ( n ) n X i = Var(X i )+ Cov(X i,x j ). i j Hier : EX i = p, Var(X i )=p(1 p) (wie in a)), aber EX i X j i j =1 P (X i =1)+0= R(R 1) N(N 1) 47

12 = Cov(X i,x j ) i j = R(R 1) ( ) R 2 = R(N R) N(N 1) N N 2 (N 1) Var(X) = n R N R R(N R) n(n 1) N N N 2 (N 1) ( )( =... = n R N 1 R N 1 n 1 N 1), d.h. kleinere Varianz beim Ziehen ohne Zurücklegen. und Für Abschätzungen von Momenten ist die Cauchy-Schwarz sche Ungleichung von großer Bedeutung : Satz 4.7. Seien X, Y reelle ZV. auf (Ω, A, P) mit existierenden zweiten Momenten. Dann gilt : a) {E(XY)} 2 E(X 2 ) E(Y 2 ); b) = gilt genau dann, wenn a, b R existieren mit a 2 + b 2 > 0 und P (ax + by =0)=1, d.h., wenn X und Y mit Wahrscheinlichkeit 1 linear abhängig sind. Beispiel 4.9. Sei P (X = x i,y = y i )= 1 (i =1,...,n) n = {E(XY )} 2 = ( 1 n ) 2 x i y i, EX 2 = 1 n x 2 i n n, EY 2 = 1 n = ( n ) 2 n n x i y i yi 2 (vgl. Lineare Algebra ). x 2 i n y 2 i Bemerkung 4.8. a) Mit zentrierten ZV. X = X EX, Y = Y EY : Cov(X, Y ) Var(X) Var(Y ); b) Für standardisierte ZV. X = X EX Var(X), Y = Y EY Var(Y ) : Cov(X,Y ) 1. Definition 4.7. Seien X, Y Varianzen. Dann heißt Korr(X, Y ):=ρ(x, Y ):= der Korrelationskoeffizient von X und Y. reelle ZV. auf (Ω, A, P) mit existierenden, positiven Cov(X, Y ) Var(X) Var(Y ) = Cov(X,Y ) 48

13 Bemerkung 4.9. ρ(x, Y ) ist ein Maß für die lineare Abhängigkeit zwischen X und Y. Nach Satz 4.7 und Bemerkung 4.8 gilt ρ(x, Y ) 1 und = genau dann, wenn X und Y mit Wahrscheinlichkeit 1 linear abhängig sind. Bedingte Verteilungen und bedingter Erwartungswert unter {Y = y}, falls Y absolut-stetig verteilt ist Man beachte : P (Y = y) = 0, also eine Definition wie in Definition 3.2 ist nicht möglich! Ansatz : Sei (X, Y ) absolut-stetig verteilt mit gemeinsamer Dichte f = f(x, y) und Randdichten f 1 = f 1 (x),f 2 = f 2 (y). Dann gilt : P (X [x, x +Δx] Y [y, y +Δy]) = Δx,Δy klein f(x, y)δxδy f 2 (y)δy = P (X [x, x +Δx],Y [y, y +Δy] P (Y [y, y +Δy]) f(x, y) f 2 (y) Δx =: f X Y =y(x)δx. Ferner : f X Y =y (x) definiert bei festem y mit f 2 (y) > 0 eine W-Dichte, denn es gilt : f X Y =y (x) 0 x und f X Y =y (x) dx = 1 f 2 (y) f(x, y) dx =1. Definition 4.8. Sei (X, Y ) absolut-stetig verteilte ZV. auf (Ω, A, P) mit gemeinsamer Dichte f X,Y = f X,Y (x, y) und Randdichten f X = f X (x),f Y = f Y (y). a) Dann heißt f X,Y (x, y), falls f Y (y) > 0, f X Y =y (x) := f Y (y) 0, sonst, bedingte Dichte von X unter Y = y. b) Existiert der EW. Eh(X, Y ) einer reellwertigen ZV. h(x, Y ), so heißt E[h(X, Y ) Y = y] := h(x, y) f X Y =y (x) dx bedingter EW. von h(x, Y ) unter Y = y. 49

14 Wie im diskreten Fall, d.h., wenn P (Y = y) > 0, so gilt auch hier der Satz vom iterierten Erwartungswert : Satz 4.8. Sei (X, Y ) absolut-stetig verteilte ZV. auf (Ω, A, P) mit Dichte f = f(x, y) und Randdichten f X = f X (x), f Y = f Y (y). Existiert der EW. Eh(X, Y ) einer reellwertigen ZV. h(x, Y ), so folgt : Eh(X, Y )= E[h(X, Y ) Y = y] f Y (y) dy. Unter Unabhängigkeit der ZV. X und Y ergibt sich speziell : Satz 4.9. Unter den Voraussetzungen von Satz 4.8 gelte zusätzlich, dass X und Y unabhängig sind, d.h. (o.e. ), dass f(x, y) =f X (x)f Y (y) x, y. Dann folgt : a) f X Y =y (x) =f X (x) y ; b) E[h(X, Y ) Y = y] =E[h(X, y)] y. Beispiel ( Laplace-Verteilung D(λ) ) a) X besitze eine Exp(λ)-Verteilung, U eine R(0, 1)-Verteilung und X, Y seien unabhängig. Setzt man { X, falls 0 <U 1 2 Z =, 1 X, falls <U<1, 2 so hat Z die Dichte f(z) = λ 2 e λ z, z R ; b) X, Y seien i.i.d. Exp(λ) -verteilt = Z := X Y ist D(λ)-verteilt. Bemerkung Als Spezialfall von Satz 4.8 ergibt sich die Formel von der totalen Wahrscheinlichkeit : P (X B) = P (X B Y = y) f Y (y) dy. 50

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Kapitel 8: Zufallsvektoren

Kapitel 8: Zufallsvektoren Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

1.5 Mehrdimensionale Verteilungen

1.5 Mehrdimensionale Verteilungen Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Kapitel 12 Erwartungswert und Varianz

Kapitel 12 Erwartungswert und Varianz Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

Einführung in die angewandte Stochastik

Einführung in die angewandte Stochastik Einführung in die angewandte Stochastik Fabian Meyer 5. April 2018 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 3 1.1 Definitionen................................... 3 1.2 Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsverteilung,

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik . Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen

Mehr

Wahrscheinlichkeitsrechnung. Sommersemester Kurzskript

Wahrscheinlichkeitsrechnung. Sommersemester Kurzskript Wahrscheinlichkeitsrechnung Sommersemester 2008 Kurzskript Version 1.0 S. Döhler 1. Juli 2008 In diesem Kurzskript sind Begriffe und Ergebnisse aus der Lehrveranstaltung zusammengestellt. Außerdem enthält

Mehr

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt. . Grundbegri e Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis,

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Stochastik. Frank Eckert und. Thomas Huppertz Letzte Änderung:

Stochastik. Frank Eckert und. Thomas Huppertz Letzte Änderung: Stochastik getext von Frank Eckert Frank.Eckert@post.rwth-aachen.de und Thomas Huppertz thuppert@fh-niederrhein.de Letzte Änderung: 4.Juli.2000 INHALTSVERZEICHNIS Inhaltsverzeichnis Kombinatorische Grundformeln

Mehr

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19 Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom Übungsaufgaben 11. Übung SS 18: Woche vom 25. 6. 29. 6. 2016 Stochastik V: ZG; Momente von ZG; Zufallsvektoren Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Vorlesung 5a. Zufallsvariable mit Dichten

Vorlesung 5a. Zufallsvariable mit Dichten Vorlesung 5a 1 Vorlesung 5a Zufallsvariable mit Dichten Vorlesung 5a Zufallsvariable mit Dichten Teil 1 Uniforme Verteilung, Exponentialverteilung. Kontinuierlich uniform verteilte Zufallsvariable: 2 Kontinuierlich

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 7. Vorlesung - 2018 Bemerkung: Sei X = X 1,..., X n Zufallsvektor. Der n dimensionale Vektor EX = EX 1,..., EX n ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N0, 1. X, Y sind die Koordinaten

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz Erwartungswert, Varianz und Kovarianz 1/65 Statistik für Informatiker, SS 2018 1.4 Erwartungswert, Varianz und Kovarianz Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo18/ 14.5.2018 / 28.5.2018

Mehr

22 Charakteristische Funktionen und Verteilungskonvergenz

22 Charakteristische Funktionen und Verteilungskonvergenz 22 Charakteristische Funktionen und Verteilungskonvergenz Charakteristische Funktionen (Fourier-Transformierte liefern ein starkes analytisches Hilfsmittel zur Untersuchung von W-Verteilungen und deren

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 8. Vorlesung - 2017 Bemerkung: Sei X = (X 1,..., X n ) Zufallsvektor. Der n dimensionale Vektor ( ) E(X ) = E(X 1 ),..., E(X n ) ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N (0,

Mehr

Zulassungsprüfung Stochastik,

Zulassungsprüfung Stochastik, Zulassungsprüfung Stochastik, 5.5. Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß auf

Mehr

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz 1/65 Statistik für Informatiker, SS 2017 1.3 Erwartungswert, Varianz und Kovarianz Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 7.6.2017 / 14.6.2017 2/65 Der Erwartungswert ist eine

Mehr

Zusatzmaterial zur Vorlesung Statistik II

Zusatzmaterial zur Vorlesung Statistik II Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Unabhängigkeit von Zufallsvariablen

Unabhängigkeit von Zufallsvariablen Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom Übungsaufgaben 11. Übung SS 13: Woche vom 24. 6. 13-28. 6. 2013 Stochastik V: ZG Momente von ZG; Grenzverteilungssätze Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/

Mehr

Vorlesung 5a. Die Varianz

Vorlesung 5a. Die Varianz Vorlesung 5a Die Varianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

8. Stetige Zufallsvariablen

8. Stetige Zufallsvariablen 8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Stochastik Aufgaben zum Üben: Teil 2

Stochastik Aufgaben zum Üben: Teil 2 Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

Kapitel XIII - Funktion und Transformation mehrdimensionaler Zufallsvariablen

Kapitel XIII - Funktion und Transformation mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIII - Funktion und Transformation mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D.

Mehr

Erwartungswerte, Varianzen

Erwartungswerte, Varianzen Kapitel 3 Erwartungswerte, Varianzen Wir wollen nun Zufallsvariablen eine Maßzahl zuordnen, die ihr typisches Verhalten in vager Weise angibt. Haben wir n Punkte x 1,...,x n R d, so ist der Schwerpunkt

Mehr

Stochastik Musterlösung 7

Stochastik Musterlösung 7 ETH Zürich HS 216 RW, D-MATL, D-MAVT Prof. Dr. Martin Schweizer Koordinator Calypso Herrera Stochastik Musterlösung 7 1. a) Es sind folgende zwei Eigenschaften zu zeigen: f X,Y (x, y) für alle (x, y) R

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Vorlesung 5a. Varianz und Kovarianz

Vorlesung 5a. Varianz und Kovarianz Vorlesung 5a Varianz und Kovarianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist

Mehr

Wahrscheinlichkeitsräume und Zufallsvariablen

Wahrscheinlichkeitsräume und Zufallsvariablen Kapitel Wahrscheinlichkeitsräume und Zufallsvariablen. W-Raum Unter einem Zufallsexperiment verstehen wir einen vom Zufall beeinflussten Vorgang, der ein entsprechend zufälliges Ergebnis hervorbringt.

Mehr

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0 Beispiel: Zweidimensionale Normalverteilung I Beispiel: Zweidimensionale Normalverteilung II Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale multivariate Normalverteilung Spezifikation am

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

Vorlesung 4b. Die Varianz

Vorlesung 4b. Die Varianz Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ Die Varianz von X ist definiert als Var[X] := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

Bem. 6 Die charakterische Funktion existiert.

Bem. 6 Die charakterische Funktion existiert. 4.4 Charakteristische Funktionen Def. 2.14 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

i =1 i =2 i =3 x i y i 4 0 1

i =1 i =2 i =3 x i y i 4 0 1 Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x

Mehr

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit

2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit 2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit a) Fortsetzungssatz, Eindeutigkeit Es wird gezeigt, dass jedes Prämaß µ auf einem Ring R zu einem Maß µ auf A(R) fortgesetzt werden kann, d.h. µ kann

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr 1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Vorlesung 4b. Die Varianz

Vorlesung 4b. Die Varianz Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert als Var X := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Diskrete Zufallsvariablen (Forts.) I

Diskrete Zufallsvariablen (Forts.) I 9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig

Mehr

Diskrete Zufallsvariablen (Forts.) I

Diskrete Zufallsvariablen (Forts.) I 9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c

Mehr

7.4 Charakteristische Funktionen

7.4 Charakteristische Funktionen 7.4 Charakteristische Funktionen Def. 25 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei

Mehr

Lösung Semesterendprüfung

Lösung Semesterendprüfung MAE4 Mathematik: Analysis für Ingenieure 4 Frühlingssemester 26 Dr. Christoph Kirsch ZHAW Winterthur Aufgabe : Lösung Semesterendprüfung Wir betrachten die Ergebnismenge Ω : {, 2,, 4, 5, 6} 2 6 2 6 Elemente,

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel

Mehr

Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie

Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie SS 2014 Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2014ss/dwt/uebung/ 5. Juni 2014 ZÜ DWT ZÜ VI Übersicht:

Mehr