4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
|
|
- Andrea Fischer
- vor 7 Jahren
- Abrufe
Transkript
1 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt des i -ten Systems (i = 1,...,n). Man beschreibe den Ausfallzeitpunkt X des Gesamtsystems bei a) Parallelschaltung ( Ausfall Ausfall in allen Teilsystemen ) ; b) Serienschaltung ( Ausfall Ausfall in einem Teilsystem ). Lösung : a) X =max(x 1,...,X n ); b) X = min(x 1,...,X n ). Modelle für die gemeinsame Beschreibung von ZV. sind besonders einfach bei Unabhängigkeit : Definition 4.1. Seien (Ω, A,P) ein W-Raum und X i : (Ω, A) (X i, B i )-ZV. für i =1, 2,.... Dann heißen X 1,X 2,... (stochastisch ) unabhängig (bzgl. P ), wenn gilt : ( ) P (X i1 B i1,...,x ik B ik )=P(X i1 B i1 ) P(X ik B ik ) für jede endliche Auswahl {i 1,...,i k } N, B iν B iν (ν =1,...,k). Bemerkung 4.1. a) Nach Definition 4.1 genügt die Betrachtung von jeweils endlich vielen ZV., etwa X 1,...,X n. b) Sind alle X i diskret verteilt, d.h. existieren abzählbare Wertebereiche X i mit P (X i X i )=1 i =1,...,n, so gilt : X 1,...,X n unabhängig P (X 1 = x 1,...,X n = x n )= x i X i, n P (X i = x i ) i =1,...,n. c) Setzt man die ZV. X 1,...,X n zu X =(X 1,...,X n ) zusammen, so ist X ein (Ω, A) (X, B) Zufallsvektor ( vgl. Wahrscheinlichkeitstheorie ), wobei X = X 1 X n, B := B 1 B n := kleinste σ-algebra, die alle Ereignisse B 1 B n, B i B i, umfasst. 37
2 Definition 4.2. a) Die Verteilung P X auf B (im Sinne von Definition 2.2) von X =(X 1,...,X n ) heißt gemeinsame Verteilung der ZV. X 1,...,X n. b) Die Verteilung P Xi (auf B i ) der ZV. X i heißt i-te Rand-(Marginal-)Verteilung von P X. Es gilt : P Xi (B i ) = P ( ) (X 1,...,X n ) X 1 X i 1 B i X i+1 X n = P X (X 1 X i 1 B i X i+1 X n ), B i B i, d.h. die gemeinsame Verteilung P X = P X1,...,X n (i =1,...,n). bestimmt die Randverteilungen P Xi Beispiel 4.2. n-maliges Ziehen mit Zurücklegen aus einer Urne mit N Kugeln. Sei X i = Ergebnis der i-ten Ziehung (i =1,...,n). Modell : Ω = { ω =(ω 1,...,ω n ) ω i {1,...,N} } = {1,...,N} n, A = P(Ω), P ({ω}) = 1 ; N n Hier : X i (ω) =ω i (i =1,...,n), (X 1,...,X n )(ω) =(X 1 (ω),...,x n (ω)) = (ω 1,...,ω n )=ω; Bildraum : X =Ω, B = A = P(Ω), P X = P = diskrete Gleichverteilung auf P(Ω) ; i-te Randverteilung : P Xi ({x i })=P (X i = x i )= N n 1 N n = 1 N, [ diskrete Gleichverteilung auf P ( {1,...,N} )]. Sind die ZV. X 1,...,X n unabhängig? Ja, denn P (X 1 = x 1,...,X n = x n )= 1 N n = n P (X i = x i ) x i {1,...,N},,...,n. Beim Ziehen ohne Zurücklegen sind die ZV. X 1,...,X n nicht unabhängig! H Wie lässt sich das gemeinsame Zufallsgeschehen (die gemeinsame Verteilung) von endlich vielen ZV. beschreiben? Wir beschränken uns auf die beiden folgenden Möglichkeiten : a) Der Bildraum X von X =(X 1,...,X n ) ist abzählbar und B = P(X ): Dann ist die gemeinsame Verteilung P X = P X1,...,X n festgelegt durch die (diskrete) W-Dichte p(x 1,...,x n )=P (X 1 = x 1,...,X n = x n ), (x 1,...,x n ) X; 38
3 b) Bildraum X = R n und B = B n =Borel-σ-Algebra in R n = kleinste σ-algebra, die alle n-dimensionalen Intervalle (a, b) =(a 1,b 1 ) (a n,b n ) umfasst : Dann ist P X festgelegt durch Angabe der Wahrscheinlichkeiten P ( X (a, b) ) = P ( X 1 (a 1,b 1 ),...,X n (a n,b n ) ), a i <b i (i =1,...,n). Gilt sogar : P ( X (a, b) ) ( ) b1 = P X (a, b) = a 1... a n f(x 1,...,x n ) dx 1...dx n, wobei f : R n R 1 eine nicht-negative, Riemann-integrierbare Funktion ist mit... f(x 1,...,x n ) dx 1...dx n =1, so heißt X =(X 1,...,X n ) absolut-stetig verteilt mit (gemeinsamer) Dichte f. bn Beispiel 4.3. a) (Exponentialverteilung im R 3 ) { λ 1 λ 2 λ 3 e (λ 1x 1 +λ 2 x 2 +λ 3 x 3 ), x 1,x 2,x 3 > 0, f(x 1,x 2,x 3 )= 0, sonst. b) (Rechteckverteilung im R 2 ) { 1 (b f(x 1,x 2 )=, a 1 a 1 )(b 2 a 2 ) 1 <x 1 <b 1, a 2 <x 2 <b 2, 0, sonst. Bemerkung 4.2. Die Randverteilungen ergeben sich wie folgt : a) X =(X 1,...,X n ) diskret verteilt mit Dichte p(x 1,...,x n ): p i (x i )=P(X i = x i )= p(x 1,...,x i 1,x i,x i+1,...,x n ); xν (ν i) x i fest b) X =(X 1,...,X n ) absolut-stetig verteilt mit Dichte f(x 1,...,x n ): f i (x i )=... (x i fest) f(x 1,...,x n ) dx 1...dx i 1 dx i+1...dx n ist Dichte der Randverteilung P Xi (absolut-stetig ). Beispiele 4.3 (Fortsetzung) Die Randverteilungen besitzen Dichten : a) f i (x i ) = λ i e λ ix i I (0, ) (x i ) (i =1, 2, 3) ; b) f i (x i ) = 1 b i a i I (ai,b i )(x i ) (i =1, 2). 39
4 Bemerkung 4.3. Die Unabhängigkeit der X 1,...,X n der gemeinsamen Dichte, d.h. ergibt sich aus der Produktform a) falls X =(X 1,...,X n ) diskret verteilt ist mit Dichte n p(x 1,...,x n )= p i (x i ), p i i-te Randdichte, bzw. b) falls X =(X 1,...,X n ) absolut-stetig verteilt ist mit Dichte n f(x 1,...,x n )= f i (x i ), f i i-te Randdichte, so sind die ZV. X 1,...,X n unabhängig. Definition 4.3. Seien (Ω, A,P) ein W-Raum und X =(X 1,...,X n ): Ω R n eine n-dimensionale ZV. Die durch F (x 1,...,x n ):=P(X 1 x 1,...,X n x n ), (x 1,...,x n ) R n, definierte Abbildung F : R n [0, 1] heißt (gemeinsame ) VF. der ZV. X 1,...,X n. Analog zu den Sätzen 2.2/2.3 besitzt die gemeinsame VF. folgende Eigenschaften : Satz 4.1. Sei F (gemeinsame ) VF. der n-dimensionalen ZV. (X 1,...,X n ) auf (Ω, A,P). Dann gilt: a) F ist monoton wachsend in jeder Komponente x i (i =1,...,n); b) F ist rechtsstetig in jeder Komponente x i (i =1,...,n); c) lim x i ( i) F (x 1,...,x n )=0, lim F (x 1,...,x n )=1; x i + ( i) d) Ist X =(X 1,...,X n ) absolut-stetig verteilt mit Dichte f(x 1,...,x n ), so gilt in jedem Stetigkeitspunkt x von f : f(x) =f(x 1,...,x n )= e) P X ist durch F eindeutig festgelegt. n x 1... x n F (x 1,...,x n ); 40
5 Bemerkung 4.3 (Fortsetzung) Die Unabhängigkeit der X 1,...,X n ergibt sich ebenfalls aus der Produktform von F,d.h. aus n F (x 1,...,x n )= F i (x i ) (x 1,...,x n ) R n, F i i-te Rand-VF. Beispiel 4.1 (Fortsetzung) Die Ausfallzeitpunkte der n Teilsysteme seien unabhängig, identisch Exp(λ)-verteilt. Dann besitzt der Ausfallzeitpunkt X des Gesamtsystems die folgende Dichte : a) Parallelschaltung, d.h. X =max(x 1,...,X n ): F (x) = P (X x) =P (X 1 x,...,x n x) { n (1 e λx ) n, x > 0, = P (X i x) = 0, sonst. Ableitung : F (x) = { nλ e λx (1 e λx ) n 1, x > 0, 0, x < 0, d.h. X ist absolut-stetig verteilt mit Dichte f der Form : f(x) =nλ e λx (1 e λx ) n 1 I (0, ) (x); Erwarteter Ausfallzeitpunkt (über partielle Integration ) : EX = 0 xnλe λx (1 e λx ) n 1 dx = 1 λ n k=1 1 k ; b) Serienschaltung, d.h. X = min (X 1,...,X n ): F (x) = P ( n {X i x} ) =1 P ( n {X i >x} ) { 1 (e λx ) n =1 e nλx, x > 0, = 0, sonst. Also ist X = min (X 1,...,X n ) Exp(nλ)-verteilt mit Dichte f(x) =nλ e nλx I (0, ) (x). Erwarteter Ausfallzeitpunkt : EX = 1 nλ. 41
6 Bemerkung 4.4. Das obige Beispiel zeigt, dass das Minimum von n unabhängig, identisch verteilten (i.i.d.) ZV. mit einer Exp(λ)-Verteilung eine Exp(nλ)-Verteilung besitzt. Es gilt sogar allgemeiner : X i unabhängig, Exp(λ i )-verteilt (i =1, 2,...,n) = X = min (X 1,...,X n ) ist Exp(λ λ n )-verteilt. Eine weitere, sogar charakteristische, Eigenschaft der Exp(λ)-Verteilung ist deren Gedächtnislosigkeit (bzw. Nichtalterungseigenschaft ). Ein diskretes Analogon zur Exponentialverteilung bildet hierbei noch die geometrische Verteilung. Satz 4.2. a) X sei absolut-stetig verteilt auf (Ω, A, P) mit P (X > 0) = 1 und Dichte f(x) =λe λx I (0, ) (x) (λ>0, fest ). = P (X x + y X x) =P (X y) x, y 0; b) X sei diskret verteilt auf (Ω, A,P) mit P (X N 0 )=1und Dichte p(i) =pq i, i N 0 (0 <p<1, q=1 p, fest ) = P (X = i + j X i) =P (X = j) i, j N 0. Bemerkung 4.5. a) Falls X absolut-stetig verteilt ist mit P (X > 0) = 1, so gilt auch die Umkehrung in Satz 4.2 a) : Charakterisierung der Exponentialverteilung ; b) Falls X diskret verteilt ist mit P (X N 0 ) = 1 und P (X =0)=:p<1, so gilt auch die Umkehrung in Satz 4.2 b): Charakterisierung der geometrischen Verteilung. Die Unabhängigkeit von Zufallsvariablen bleibt unter ( messbaren ) Transformationen erhalten : Satz 4.3. Seien X 1,...,X n unabhängige, reelle ZV. auf (Ω, A,P) und h 1,...,h n messbare reelle Funktionen, d.h. h 1 i (B) B 1 B B 1, i =1,...,n. Dann gilt : Y 1 := h 1 (X 1 ),...,Y n := h n (X n ) sind unabhängige, reelle ZV. Beispiel 4.4. (X 1,...,X n ) unabhängige, reelle ZV. = a) X1 k,...,xn k unabhängige, reelle ZV. (k N, fest); b) s X 1,...,s Xn unabhängige, reelle ZV. (s >0, fest) ; c) e tx 1,...,e txn unabhängige, reelle ZV. (t R, fest). 42
7 Das Zufallsgeschehen eines (n-dimensionalen) Zufallsvektors unter einer n-dimensionalen Transformation verändert sich wie folgt : Seien X = (X 1,...,X n ) eine n-dimensionale ZV. auf (Ω, A,P) und h : R n R n messbar, d.h. h 1 (B) B n B B n, wobei B n = kleinste σ-algebra in R n, die alle n-dimensionalen Intervalle umfasst. Frage : Wie sieht die (gemeinsame) Verteilung aus von Y = h(x) = ( h 1 (X 1,...,X n ),...,h n (X 1,...,X n ) )? Antwort : a) Seien X 1,...,X n diskret verteilt i =1,...,n = X = (X 1,...,X n ) ist diskret verteilt und es genügt, die Wahrscheinlichkeitsdichte zu bestimmen : P (Y 1 = y 1...,Y n = y n )=P(h 1 (X) =y 1,...,h n (X) =y n )=P ( n {X h 1 i ({y i })} ), y =(y 1,...,y n ) h(x ), X Träger von P X, d.h. P X (X )=P(X X)=1. Beispiel 4.5. a) X =(X 1,X 2 ) besitze folgende gemeinsame Verteilung : p X (0, 1) = 1 3, p X(0, 3) = 1 6, p X(1, 2) = 1 2. Was ist die gemeinsame Verteilung von Y 1 = X 1 + X 2,Y 2 = X 1 X 2? Lösung : (0, 1) (1, 1), (0, 3) (3, 3), (1, 2) (3, 1) = p Y (1, 1) = 1 3, p Y (3, 3) = 1 6, p Y (1, 2) = 1 2. b) Sei (X 1,...,X n ) absolut-stetig verteilt mit (gemeinsamer) Dichte f = f(x 1,...,x n ). Dann gilt der folgende Transformationssatz : 43
8 Satz 4.4. X =(X 1,...,X n ) sei absolut-stetig verteilt auf (Ω, A,P) mit Dichte f = f(x 1,...,x n ), x =(x 1,...,x n ) R n. Ferner gelte : (i) h : R n R n ist injektiv mit Umkehrabbildung u : W R n, wobei W := h(r n ) offen ; (ii) h ist ein Diffeomorphismus, d.h. h und u besitzen stetige partielle Ableitungen. Bezeichne J = J(y) die Jacobi-Matrix der Umkehrabbilung u, also u 1 y 1 J(y) =. u n y 1 u 1 y n. u n y n, y W. Dann ist Y =(Y 1,...,Y n )=h(x) absolut-stetig verteilt mit (gemeinsamer ) Dichte { detj(y) f(u 1 (y),...,u n (y)), y W, g(y) =g(y 1,...,y n )= 0, sonst. Beispiel 4.6. X =(X 1,X 2 ) sei absolut-stetig verteilt mit gemeinsamer Dichte f = f(x 1,x 2 ) und Randdichten f 1 = f 1 (x 1 ), f 2 = f 2 (x 2 ). Man bestimme die gemeinsame Verteilung von Y 1 = X 1 + X 2,Y 2 = X 2 : Umkehrabbildung : X 1 = Y 1 Y 2,X 2 = Y 2, also u 1 (y) =y 1 y 2,u 2 (y) =y 2, y =(y 1,y 2 ) R 2 ; h, u bijektiv, stetig partiell differenzierbar ; ( ) det J(Y ) = det =1, y R2 = Dichte : g(y 1,y 2 )=f(y 1 y 2,y 2 ), (y 1,y 2 ) R 2. Als Dichte der Randverteilung von Y 1 = X 1 + X 2 erhält man sofort : g 1 (y 1 )= f(y 1 y 2,y 2 ) dy 2, y 1 R 1. Sind X 1,X 2 sogar unabhängig, etwa f(x 1,x 2 )=f 1 (x 1 )f 2 (x 2 ), (x 1,x 2 ) R 2, so ergibt sich speziell : g 1 (y 1 )= f 1 (y 1 y 2 )f 2 (y 2 ) dy 2. 44
9 Z.B. : X 1,X 2 i.i.d., Exp(λ)- verteilt = Dichte von X 1 X 2 : g 1 (y 1 )= λ 2 e λ y 1, y 1 R 1 (Laplace-Verteilung ; Bezeichnung : D(λ)-Verteilung ). Definition 4.4. X 1,...,X n seien unabhängige, reelle ZV. auf (Ω, A,P). Die Verteilung P X1 + +X n der Summe X 1 + +X n heißt Faltung von P X1,...,P Xn, geschrieben P X1 P Xn. Bemerkung 4.6. Die Herleitung in Beispiel 4.6 zeigt, dass die Faltung zweier unabhängiger, absolut-stetig verteilter ZV. X und Y mit Dichten f = f(x) und g = g(y) die folgende Dichte besitzt (Dichte von Z = X + Y ): h(z) = f(z y)g(y) dy = g(z x)f(x) dx, z R 1. Beispiel 4.7. ( n -dimensionale Normalverteilung ) Die Funktion f : R n R 1 mit f(x 1,...,x n ):= 1 (2π) n/2 e (x x2 n )/2 ist W-Dichte einer n-dimensionalen ZV. X =(X 1,...,X n ), denn f 1 : R 1 R 1 f 1 (x 1 )= 1 2π e x2 1 /2, x 1 R 1, mit ist Dichte der N(0, 1)-Verteilung (vgl. Beispiel 2.5), d.h. f(x 1,...,x n )= n f 1 (x i ), (x 1,...,x n ) R n, ist (gemeinsame ) Dichte von n i.i.d., N(0, 1)-verteilten ZV. X 1,...,X n. Frage : Wie sieht die Dichte von Y = BX + a aus (a R n,b R n n regulär)? Antwort : y = h(x) =Bx + a ist injektiv, da B regulär, W = h(r n )=R n offen ; x = u(y) =B 1 (y a), y R n ; det J = det B 1 =1/ det B ; Setzt man Σ := BB, so gilt : x x2 n = x x =(y a) (B 1 ) B 1 (y a) =(y a) Σ 1 (y a), det B = det Σ 1/2, also Dichte von Y : g(y) = 1 (2π) n/2 det Σ 1 e 1/ (y a) Σ 1 (y a), y R n.
10 Definition 4.5. Ein Zufallsvektor Y mit obiger Dichte g heißt (n -dimensional ) normalverteilt mit Parametern a, Σ; Schreibweise : P Y = N(a, Σ). Erwartungswerte (von reellen Transformationen mehrerer ZV.) X =(X 1,...,X n ) sei eine n-dimensionale ZV. auf (Ω, A,P) und h : R n R 1 sei messbar, d.h. h 1 (B) B n B B 1. Satz 4.5. Sei X diskret verteilt mit Dichte p(x 1,...,x n ) oder absolut-stetig verteilt mit Dichte f(x 1,...,x n ). Dann gilt :... h(x 1,...,x n ) p(x 1,...,x n ), X diskret, x Eh(X) = 1 x n... h(x 1,...,x n ) f(x 1,...,x n ) dx 1...dx n, X absolut-stetig, falls die n-fache Summe bzw. das n-dimensionale Integral absolut konvergieren. Erwartungswerte (von Produkten unabhängiger ZV.) Satz 4.6. X, Y seien unabhängige, reelle ZV. auf (Ω, A,P) mit existierenden EW. EX,EY. Dann gilt : E(XY ) existiert und E(XY )=EX EY. Varianzen, Kovarianzen Seien X, Y reelle ZV. auf (Ω, A,P) mit E(X 2 ) <,E(Y 2 ) <. Dann gilt : Var(X + Y ) existiert und Var(X + Y )=Var(X)+Var(Y)+2E(X EX)(Y EY ). Definition 4.6. Seien X, Y reelle ZV. auf (Ω, A, P) mit existierenden zweiten Momenten. Dann heißt Cov(X, Y ):=E(X EX)(Y EY ) die Kovarianz von X und Y. Falls Cov(X, Y )=0, so heißen X und Y unkorreliert. Bemerkung 4.7. a) Var(X + Y )=Var(X)+Var(Y )+2Cov(X, Y ); 46
11 Allgemein : Var ( n ) n X i = Var(X i )+2 Cov(X i,x j ), i<j falls alle zweiten Momente existieren. b) X, Y unabhängig mit existierenden zweiten Momenten = Cov(X, Y )= 0, also X, Y unkorreliert ; Allgemein : X 1,...,X n unabhängig mit existierenden zweiten Momenten = Var ( n ) n X i = Var(X i ); c) Rechenregeln : X, Y, Z reelle ZV. mit existierenden zweiten Momenten ; a, b, c R 1 = 1) Cov(X, Y ) =Cov(Y,X),Cov(X, X) =Var(X); 2) Cov(aX, by )=ab Cov(X, Y ); 3) Cov(X, Y + Z) =Cov(X, Y )+Cov(X, Z), speziell : Cov(X, Y + c) = Cov(X, Y ); 4) Cov(X, Y )=E(XY ) (EX)(EY ) Verschiebungssatz. Beispiel 4.8. n aus N = R + S Kugeln gezogen : X = Anzahl gezogener roter Kugeln ; Var(X) =? a) Ziehen mit Zurücklegen : { 1, im i-ten Zug rot, Seien X i = 0, sonst ; = X 1,...,X n i.i.d., B(1,p)-verteilt (p = R ) N = Var(X) = Var ( n ) X i = nvar(x1 )=np(1 p). b) Ziehen ohne Zurücklegen : X i wie in a), aber abhängig ; Var(X) =Var ( n ) n X i = Var(X i )+ Cov(X i,x j ). i j Hier : EX i = p, Var(X i )=p(1 p) (wie in a)), aber EX i X j i j =1 P (X i =1)+0= R(R 1) N(N 1) 47
12 = Cov(X i,x j ) i j = R(R 1) ( ) R 2 = R(N R) N(N 1) N N 2 (N 1) Var(X) = n R N R R(N R) n(n 1) N N N 2 (N 1) ( )( =... = n R N 1 R N 1 n 1 N 1), d.h. kleinere Varianz beim Ziehen ohne Zurücklegen. und Für Abschätzungen von Momenten ist die Cauchy-Schwarz sche Ungleichung von großer Bedeutung : Satz 4.7. Seien X, Y reelle ZV. auf (Ω, A, P) mit existierenden zweiten Momenten. Dann gilt : a) {E(XY)} 2 E(X 2 ) E(Y 2 ); b) = gilt genau dann, wenn a, b R existieren mit a 2 + b 2 > 0 und P (ax + by =0)=1, d.h., wenn X und Y mit Wahrscheinlichkeit 1 linear abhängig sind. Beispiel 4.9. Sei P (X = x i,y = y i )= 1 (i =1,...,n) n = {E(XY )} 2 = ( 1 n ) 2 x i y i, EX 2 = 1 n x 2 i n n, EY 2 = 1 n = ( n ) 2 n n x i y i yi 2 (vgl. Lineare Algebra ). x 2 i n y 2 i Bemerkung 4.8. a) Mit zentrierten ZV. X = X EX, Y = Y EY : Cov(X, Y ) Var(X) Var(Y ); b) Für standardisierte ZV. X = X EX Var(X), Y = Y EY Var(Y ) : Cov(X,Y ) 1. Definition 4.7. Seien X, Y Varianzen. Dann heißt Korr(X, Y ):=ρ(x, Y ):= der Korrelationskoeffizient von X und Y. reelle ZV. auf (Ω, A, P) mit existierenden, positiven Cov(X, Y ) Var(X) Var(Y ) = Cov(X,Y ) 48
13 Bemerkung 4.9. ρ(x, Y ) ist ein Maß für die lineare Abhängigkeit zwischen X und Y. Nach Satz 4.7 und Bemerkung 4.8 gilt ρ(x, Y ) 1 und = genau dann, wenn X und Y mit Wahrscheinlichkeit 1 linear abhängig sind. Bedingte Verteilungen und bedingter Erwartungswert unter {Y = y}, falls Y absolut-stetig verteilt ist Man beachte : P (Y = y) = 0, also eine Definition wie in Definition 3.2 ist nicht möglich! Ansatz : Sei (X, Y ) absolut-stetig verteilt mit gemeinsamer Dichte f = f(x, y) und Randdichten f 1 = f 1 (x),f 2 = f 2 (y). Dann gilt : P (X [x, x +Δx] Y [y, y +Δy]) = Δx,Δy klein f(x, y)δxδy f 2 (y)δy = P (X [x, x +Δx],Y [y, y +Δy] P (Y [y, y +Δy]) f(x, y) f 2 (y) Δx =: f X Y =y(x)δx. Ferner : f X Y =y (x) definiert bei festem y mit f 2 (y) > 0 eine W-Dichte, denn es gilt : f X Y =y (x) 0 x und f X Y =y (x) dx = 1 f 2 (y) f(x, y) dx =1. Definition 4.8. Sei (X, Y ) absolut-stetig verteilte ZV. auf (Ω, A, P) mit gemeinsamer Dichte f X,Y = f X,Y (x, y) und Randdichten f X = f X (x),f Y = f Y (y). a) Dann heißt f X,Y (x, y), falls f Y (y) > 0, f X Y =y (x) := f Y (y) 0, sonst, bedingte Dichte von X unter Y = y. b) Existiert der EW. Eh(X, Y ) einer reellwertigen ZV. h(x, Y ), so heißt E[h(X, Y ) Y = y] := h(x, y) f X Y =y (x) dx bedingter EW. von h(x, Y ) unter Y = y. 49
14 Wie im diskreten Fall, d.h., wenn P (Y = y) > 0, so gilt auch hier der Satz vom iterierten Erwartungswert : Satz 4.8. Sei (X, Y ) absolut-stetig verteilte ZV. auf (Ω, A, P) mit Dichte f = f(x, y) und Randdichten f X = f X (x), f Y = f Y (y). Existiert der EW. Eh(X, Y ) einer reellwertigen ZV. h(x, Y ), so folgt : Eh(X, Y )= E[h(X, Y ) Y = y] f Y (y) dy. Unter Unabhängigkeit der ZV. X und Y ergibt sich speziell : Satz 4.9. Unter den Voraussetzungen von Satz 4.8 gelte zusätzlich, dass X und Y unabhängig sind, d.h. (o.e. ), dass f(x, y) =f X (x)f Y (y) x, y. Dann folgt : a) f X Y =y (x) =f X (x) y ; b) E[h(X, Y ) Y = y] =E[h(X, y)] y. Beispiel ( Laplace-Verteilung D(λ) ) a) X besitze eine Exp(λ)-Verteilung, U eine R(0, 1)-Verteilung und X, Y seien unabhängig. Setzt man { X, falls 0 <U 1 2 Z =, 1 X, falls <U<1, 2 so hat Z die Dichte f(z) = λ 2 e λ z, z R ; b) X, Y seien i.i.d. Exp(λ) -verteilt = Z := X Y ist D(λ)-verteilt. Bemerkung Als Spezialfall von Satz 4.8 ergibt sich die Formel von der totalen Wahrscheinlichkeit : P (X B) = P (X B Y = y) f Y (y) dy. 50
2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrFolie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
MehrStochastik Wiederholung von Teil 1
Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrKapitel 8: Zufallsvektoren
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
Mehr1.5 Mehrdimensionale Verteilungen
Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
MehrKapitel 12 Erwartungswert und Varianz
Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt
MehrEinführung in die angewandte Stochastik
Einführung in die angewandte Stochastik Fabian Meyer 5. April 2018 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 3 1.1 Definitionen................................... 3 1.2 Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsverteilung,
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr1. Grundbegri e der Stochastik
. Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen
MehrWahrscheinlichkeitsrechnung. Sommersemester Kurzskript
Wahrscheinlichkeitsrechnung Sommersemester 2008 Kurzskript Version 1.0 S. Döhler 1. Juli 2008 In diesem Kurzskript sind Begriffe und Ergebnisse aus der Lehrveranstaltung zusammengestellt. Außerdem enthält
Mehr1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.
. Grundbegri e Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis,
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrStochastik. Frank Eckert und. Thomas Huppertz Letzte Änderung:
Stochastik getext von Frank Eckert Frank.Eckert@post.rwth-aachen.de und Thomas Huppertz thuppert@fh-niederrhein.de Letzte Änderung: 4.Juli.2000 INHALTSVERZEICHNIS Inhaltsverzeichnis Kombinatorische Grundformeln
MehrInstitut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER
Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................
MehrEine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«
Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrWahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19
Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom
Übungsaufgaben 11. Übung SS 18: Woche vom 25. 6. 29. 6. 2016 Stochastik V: ZG; Momente von ZG; Zufallsvektoren Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrVorlesung 5a. Zufallsvariable mit Dichten
Vorlesung 5a 1 Vorlesung 5a Zufallsvariable mit Dichten Vorlesung 5a Zufallsvariable mit Dichten Teil 1 Uniforme Verteilung, Exponentialverteilung. Kontinuierlich uniform verteilte Zufallsvariable: 2 Kontinuierlich
MehrÜbung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit
Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung
MehrWahrscheinlichkeitsrechnung und Statistik
7. Vorlesung - 2018 Bemerkung: Sei X = X 1,..., X n Zufallsvektor. Der n dimensionale Vektor EX = EX 1,..., EX n ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N0, 1. X, Y sind die Koordinaten
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrStatistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz
Erwartungswert, Varianz und Kovarianz 1/65 Statistik für Informatiker, SS 2018 1.4 Erwartungswert, Varianz und Kovarianz Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo18/ 14.5.2018 / 28.5.2018
Mehr22 Charakteristische Funktionen und Verteilungskonvergenz
22 Charakteristische Funktionen und Verteilungskonvergenz Charakteristische Funktionen (Fourier-Transformierte liefern ein starkes analytisches Hilfsmittel zur Untersuchung von W-Verteilungen und deren
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrWahrscheinlichkeitsrechnung und Statistik
8. Vorlesung - 2017 Bemerkung: Sei X = (X 1,..., X n ) Zufallsvektor. Der n dimensionale Vektor ( ) E(X ) = E(X 1 ),..., E(X n ) ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N (0,
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik, 5.5. Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß auf
MehrStatistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz
1/65 Statistik für Informatiker, SS 2017 1.3 Erwartungswert, Varianz und Kovarianz Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 7.6.2017 / 14.6.2017 2/65 Der Erwartungswert ist eine
MehrZusatzmaterial zur Vorlesung Statistik II
Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November
MehrFinanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
MehrUnabhängigkeit von Zufallsvariablen
Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom
Übungsaufgaben 11. Übung SS 13: Woche vom 24. 6. 13-28. 6. 2013 Stochastik V: ZG Momente von ZG; Grenzverteilungssätze Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/
MehrVorlesung 5a. Die Varianz
Vorlesung 5a Die Varianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert
MehrScheinklausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom
Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
Mehr8. Stetige Zufallsvariablen
8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrStochastik Aufgaben zum Üben: Teil 2
Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
MehrKapitel XIII - Funktion und Transformation mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIII - Funktion und Transformation mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D.
MehrErwartungswerte, Varianzen
Kapitel 3 Erwartungswerte, Varianzen Wir wollen nun Zufallsvariablen eine Maßzahl zuordnen, die ihr typisches Verhalten in vager Weise angibt. Haben wir n Punkte x 1,...,x n R d, so ist der Schwerpunkt
MehrStochastik Musterlösung 7
ETH Zürich HS 216 RW, D-MATL, D-MAVT Prof. Dr. Martin Schweizer Koordinator Calypso Herrera Stochastik Musterlösung 7 1. a) Es sind folgende zwei Eigenschaften zu zeigen: f X,Y (x, y) für alle (x, y) R
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrVorlesung 5a. Varianz und Kovarianz
Vorlesung 5a Varianz und Kovarianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist
MehrWahrscheinlichkeitsräume und Zufallsvariablen
Kapitel Wahrscheinlichkeitsräume und Zufallsvariablen. W-Raum Unter einem Zufallsexperiment verstehen wir einen vom Zufall beeinflussten Vorgang, der ein entsprechend zufälliges Ergebnis hervorbringt.
MehrSind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0
Beispiel: Zweidimensionale Normalverteilung I Beispiel: Zweidimensionale Normalverteilung II Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale multivariate Normalverteilung Spezifikation am
MehrKapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
MehrVorlesung 4b. Die Varianz
Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ Die Varianz von X ist definiert als Var[X] := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen
Mehr1. Grundbegri e der Stochastik
Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt
MehrBem. 6 Die charakterische Funktion existiert.
4.4 Charakteristische Funktionen Def. 2.14 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
Mehri =1 i =2 i =3 x i y i 4 0 1
Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
Mehr2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit
2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit a) Fortsetzungssatz, Eindeutigkeit Es wird gezeigt, dass jedes Prämaß µ auf einem Ring R zu einem Maß µ auf A(R) fortgesetzt werden kann, d.h. µ kann
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr
1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrVorlesung 4b. Die Varianz
Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert als Var X := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrDiskrete Zufallsvariablen (Forts.) I
9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig
MehrDiskrete Zufallsvariablen (Forts.) I
9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Review)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c
Mehr7.4 Charakteristische Funktionen
7.4 Charakteristische Funktionen Def. 25 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
MehrWahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen
Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei
MehrLösung Semesterendprüfung
MAE4 Mathematik: Analysis für Ingenieure 4 Frühlingssemester 26 Dr. Christoph Kirsch ZHAW Winterthur Aufgabe : Lösung Semesterendprüfung Wir betrachten die Ergebnismenge Ω : {, 2,, 4, 5, 6} 2 6 2 6 Elemente,
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel
MehrZentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie
SS 2014 Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2014ss/dwt/uebung/ 5. Juni 2014 ZÜ DWT ZÜ VI Übersicht:
Mehr