Y = g 2 (U 1,U 2 ) = 2 ln U 1 sin 2πU 2
|
|
- August Adenauer
- vor 6 Jahren
- Abrufe
Transkript
1 Bsp. 72 (BOX MÜLLER Transformation) Es seien U 1 und U 2 zwei unabhängige, über dem Intervall [0, 1[ gleichverteilte Zufallsgrößen (U i R(0, 1), i = 1, 2), U = (U 1,U 2 ) T ein zufälliger Vektor. Wir betrachten den zufälligen Vektor V = g(u) = (X,Y ) T, wobei: X = g 1 (U 1,U 2 ) = 2 ln U 1 cos 2πU 2 Y = g 2 (U 1,U 2 ) = 2 ln U 1 sin 2πU 2 Wir suchen die Dichtefunktionen für die zufälligen Variablen X und Y. Wir bestimmen zunächst die Umkehrfunktion zur Abbildung g. Es gilt: U = g 1 (V) = (ψ 1 (X,Y ),ψ 2 (X,Y )). 430 W.Kössler, Humboldt-Universität zu Berlin
2 Wir ermitteln die Teilfunktionen ψ 1 und ψ 2. Dazu berechnen wir X 2 + Y 2 = ( 2 ln U 1 cos 2 (2πU 2 )) + ( 2 ln U 1 sin 2 (2πU 2 )) = ( 2 ln U 1 ) (cos 2 (2πU 2 ) + sin 2 (2πU 2 )) = 2 ln U 1 Durch Umstellen erhalten wir: U 1 = ψ 1 (X,Y ) = e 1 2 (X2 +Y 2). Weiterhin gilt: Y X = tan 2πU W.Kössler, Humboldt-Universität zu Berlin
3 Daraus folgt: U 2 = ψ 2 (X,Y ) = 1 2π arctan Bestimmung von J. Wir wissen bisher: ( ) Y. X Dann gilt für ψ 1 (x,y) = e 1 2 (x2 +y 2) = u 1 ψ 2 (x,y) = 1 ( y ) 2π arctan x J = ψ 1 x ψ 2 x ψ 1 y ψ 2 y = u W.Kössler, Humboldt-Universität zu Berlin
4 x exp( 1 2 J = (x2 + y 2 )) y exp( 1 2 (x2 + y 2 )) 1 y 1 1 2π 1+ y2 x 2 x 2 2π 1+ y2 x 2 x = 1 ( 2π exp 1 ) ( 2) x 2 (x2 + y 2 2 ) x 2 + y + y2 2 x 2 + y = (x2 +x 2 ) 2π e Für die Dichtefunktion des zufälligen Vektors V gilt nach der Transformationsformel: f V (x,y) = f U (ψ 1 (x,y),ψ 2 (x,y)) J. Da die Zufallsgrößen U 1 und U 2 unabhängig sind, gilt: f V (x,y) = f U1 (ψ 1 (x,y)) f U2 (ψ 2 (x,y)) J. 433 W.Kössler, Humboldt-Universität zu Berlin
5 Nun sind U 1,U 2 R(0, 1). Daraus folgt aber: f V (x,y) = J = 1 2π e = f X (x) f Y (y). 1 2 (x2 +y 2) = 1 e 1 2 x2 2π 1 2π e 1 2 y2 mit f X (x) = f Y (y) = 1 2π e 1 2 x2 1 2π e 1 2 y2 Das bedeutet, daß die Zufallsgrößen X und Y unabhängig und standardnormalverteilt sind: X N(0, 1), Y N(0, 1). 434 W.Kössler, Humboldt-Universität zu Berlin
6 Bsp. 73 (Treffen einer Zielscheibe ) Es seien folgende Bedingungen erfüllt V1: Die Randverteilungen von X und Y seien stetig V2: Die Dichte h(x,y) von (X,Y ) hängt nur vom Abstand x 2 + y 2 vom Nullpunkt ab (Radialsymmetrie) V3: Die Fehler in x- und y-richtung sind unabhängig. Sei Z die zufällige Abweichung in beliebiger Richtung. Dann ist Z N(0,σ 2 ). Beweis: Seien p(x) und q(y) Randdichten von (X,Y ). Aus 435 W.Kössler, Humboldt-Universität zu Berlin
7 V2 und V3 folgt Substitutionsmethode: p(x)q(y) = s(r), r 2 = x 2 + y 2 (3) x = 0: p(0)q(y) = s(y), p(0) 0 y = 0: q(0)p(x) = s(x), damit p(0)p(y) = s(y) q(0) 0 x = y: p(x) = q(x) und Teilen obige Funktionalgleichung durch p(0) 2, p(x) p(0) p(y) p(0) = s(r) p(0) = p(r) 2 p(0) 436 W.Kössler, Humboldt-Universität zu Berlin
8 Logarithmieren ln( p(x) p(0) ) + ln(p(y) p(0) ) = ln(p(r) p(0) ) Mit f(x) := ln( p(x) p(0) ): f(x) + f(y) = f(r), r 2 = x 2 + y 2 y = 0,x = x 1 : f( x) = f( x ) wegen f(0) = 0. x 2 = x x 2 2: f(r) = f(y)+f(x 1 )+f(x 2 ), r 2 = y 2 +x 2 1 +x W.Kössler, Humboldt-Universität zu Berlin
9 Wiederholtes Einsetzen: f(r) = f(x 1 )+f(x 2 )+...+f(x k ), r 2 = k = n 2,x = x 1 =... = x k : k i=1 x 2 i f(nx) = n 2 f(x) x=1 f(n) = n 2 f(1) x = m n,m Z: n 2 f( m n ) = f(nm n ) = f(m) = m2 f(1) f( m n ) = f(1)( m n ) 2 f(x) = cx 2, c = f(1) 438 W.Kössler, Humboldt-Universität zu Berlin
10 für alle rationalen x. Wegen der Stetigkeit (V1) folgt diese Relation für alle x R. p(x) = p(0)e cx2 p(x) > 0 da Wkt.dichte, c < 0, c := 1 1 = p(x)dx = p(0) 2σ 2. p(x) = 1 σ 2π e Gemeinsame Dichte von (X,Y ): e cx2 dx = p(0)σ 2π x 2 2σ 2 p(x)p(y) = 1 x 2 +y 2 σ 2 2π e 2σ W.Kössler, Humboldt-Universität zu Berlin
11 Fehler in einer beliebigen Richtung, θ, 0 θ 2π: Z = X cos(θ) + Y sin(θ) Variablentransformation z = x cos(θ) + y sin(θ) u = x cos(θ) y sin(θ) 1 0 Jacobi-Determinante J: J = 0 1 = 1 = 1 Quadrieren liefert z 2 u 2 = x 2 cos 2 (θ) + y 2 sin 2 (θ) + 2xy cos(θ) sin(θ) = x 2 cos 2 (θ) + y 2 sin 2 (θ) 2xy cos(θ) sin(θ) Addition: x 2 + y 2 = z 2 + u 2 also gemeinsame Dichte von 440 W.Kössler, Humboldt-Universität zu Berlin
12 (Z,U): h 1 (z,u) = 1 z 2 +u 2 σ 2 2π e 2σ 2 = 1 σ 2π e z 2 1 2σ 2 σ 2π e d.h. Z und U sind unabhängig, h 1 (z,u) = h Z (z)h U (u) und u 2 2σ 2 h Z (z) = 1 σ 2π e z 2 2σ W.Kössler, Humboldt-Universität zu Berlin
13 Satz 32 (Transformationssatz für EW) Es sei X = (X 1,...,X p ) T ein zufälliger Vektor und g: R p R eine Abbildung. a) Es sei X diskret mit Wkt.funktion (Zähldichte) f. Falls g(x) f(x) < so gilt: E(g(X)) = g(x)f(x). x x b) Es sei X stetig. f : R p R sei die Dichtefunktion des zufälligen Vektors X. Falls g(x 1,...,x p ) f(x 1,...,x p )dx 1...dx p < R p 442 W.Kössler, Humboldt-Universität zu Berlin
14 gilt, so: Eg(X) = g(x 1,...,x p ) f(x 1,...,x p )dx 1...dx p. R p Bem.: Der Beweis des Satzes erfordert Maßtheorie. Wir haben eine eingeschränkte Version bereits im Abschnitt Erwartungswerte gezeigt. Bsp. 74 Es sei X = (X 1,X 2 ) T ein stetiger zufälliger Vektor mit Dichtefunktion f(x 1,x 2 ). Wir definieren die Funktion g: R 2 R durch g(x) := X 1 + X 2. Dann gilt:
15 Eg(X) = E(X 1 + X 2 ) = g(x 1,x 2 ) f(x 1,x 2 )dx 1 dx 2 R = (x 1 + x 2 ) f(x 1,x 2 )dx 1 dx 2 = = x 1 f(x 1,x 2 )dx 1 dx 2 + x 2 f(x 1,x 2 )dx 1 dx 2 R 2 R f(x 1,x 2 )dx 2 dx 1 + x 1 + x 2 + f(x 1,x 2 )dx 1 dx 2
16 Eg(X) = + x 1 f X1 (x 1 )dx x 2 f X2 (x 2 )dx 2 = EX 1 + EX 2 Allgemeiner erhalten wir also für zwei stetige zufällige Variablen X 1 und X 2 : E(c X 1 + d X 2 ) = c EX 1 + d EX 2. Das ist ein Beweis der Aussage 5 in Satz 11 für stetige zufällige Variablen. 445 W.Kössler, Humboldt-Universität zu Berlin
17 11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient ϱ(x 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen X 1 und X 2. Ist cov (X 1,X 2 ) = 0 dann heißen die beiden Zufallsgrößen unkorreliert. Bem.: X 1 und X 2 unabhängig cov (X 1,X 2 ) = 0. Die Umkehrung der Aussage gilt im allgemeinen nicht. 446 W.Kössler, Humboldt-Universität zu Berlin
18 Bsp. 75 (2x2 Tafel) Y X Raucher Nichtraucher Summe w p 11 p 12 p 1. m p 21 p 22 p 2. Summe p.1 p.2 1 X Bi(1,p.2 ) Y Bi(1,p 2. ) E(X) = p.2 var(x) = p.2 (1 p.2 ) = p.2 p.1 E(Y ) = p 2. var(y ) = p 2. (1 p 2. ) = p 2. p 1. cov(x,y ) = E(X Y ) E(X)E(Y ) = p 22 p.2 p W.Kössler, Humboldt-Universität zu Berlin
19 Korrelationskoeffizient: ρ = p 22 p.2 p 2. p.2 p 1. p 2. p.1 = p 11p 22 p 12 p 21 p.2 p 2. p 1. p.1 p 22 p 2. p.2 = p 22 (p 21 + p 22 )(p 12 + p 22 ) = p 22 (p 21 p 12 + p 22 p 12 + p 21 p 22 + p 2 22) = p 22 (1 p 12 p 21 p 22 ) p 21 p 12 = p 22 p 11 p 21 p W.Kössler, Humboldt-Universität zu Berlin
20 Satz 33 Es seien X 1 und X 2 zwei Zufallsgrößen, für die σ X1,σ X2 > 0 ist. Dann gilt für den Korrelationskoeffizienten dieser beiden zufälligen Variablen: 1 ϱ(x 1,X 2 ) 1. Beweis: Wir definieren eine Funktion A wie folgt: A(t,u) := E[t (X 1 EX 1 ) + u (X 2 EX 2 )] W.Kössler, Humboldt-Universität zu Berlin
21 Nun gilt für alle t,u R: A(t,u) = E(t 2 (X 1 EX 1 ) 2 + u 2 (X 2 EX 2 ) 2 ) +2tuE(X 1 EX 1 )(X 2 EX 2 ) = t 2 E(X 1 EX 1 ) 2 + u 2 E(X 2 EX 2 ) 2 +2tuE((X 1 EX 1 )(X 2 EX 2 )) = t 2 VarX t u cov (X 1,X 2 ) + u 2 VarX 2 0 Wir setzen t := σ X2 und u := σ X1. Außerdem dividieren wir 450 W.Kössler, Humboldt-Universität zu Berlin
22 durch σ X1 σ X2 : A(σ X2,σ X1 ) σ X1 σ X2 = σ2 X 2 σ 2 X 1 +2 σ X1 σ X2 cov (X 1,X 2 )+σ 2 X 1 σ 2 X 2 σ X1 σ X2 = σ X1 σ X2 + 2 cov (X 1,X 2 ) + σ X1 σ X2 = 2 σ X1 σ X2 + 2 cov (X 1,X 2 ) 0 Also: σ X1 σ X2 + cov (X 1,X 2 ) 0. Andererseits gilt aber auch mit t := σ X2 und u := σ X1 sowie derselben Herleitung wie oben: A( σ X2,σ X1 ) σ X1 σ X2 = σ2 X 2 σ 2 X 1 2 σ X1 σ X2 cov (X 1,X 2 )+σ 2 X 1 σ 2 X 2 σ X1 σ X2 = 2 σ X1 σ X2 2 cov (X 1,X 2 ) W.Kössler, Humboldt-Universität zu Berlin
23 Also: σ X1 σ X2 cov (X 1,X 2 ) 0. Das heißt jedoch, daß gilt: σ X1 σ X2 cov (X 1,X 2 ) σ X1 σ X2. Wir stellen etwas um und erhalten: 1 cov (X 1,X 2 ) σ X1 σ X2 = ϱ(x 1,X 2 ) W.Kössler, Humboldt-Universität zu Berlin
24 Bem. 16 Die Ungleichung kann auch direkt aus der Cauchy-Schwarz schen Ungleichung hergeleitet werden. Satz 34 Es seien X 1 und X 2 zwei Zufallsgrößen, für die σ X1,σ X2 > 0 ist. Dann gilt ϱ(x 1,X 2 ) = 1 genau dann, wenn es Zahlen a,b R (a 0) gibt, so daß gilt: P(X 1 = a X 2 + b) = 1. Beweis: ( =) Es seien die Zahlen a,b R so gewählt, daß gilt P(X 1 = a X 2 + b) = 1. Für Erwartungswert und Varianz der Zufallsgröße X W.Kössler, Humboldt-Universität zu Berlin
25 gilt dann: EX 1 = E(a X 2 + b) = a EX 2 + b, σx 2 1 = σa X 2 2 +b = σa X 2 2 = a 2 σx 2 2. Damit gilt für den Korrelationskoeffizienten der 454 W.Kössler, Humboldt-Universität zu Berlin
26 Zufallsgrößen X 1 und X 2 : ϱ(x 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 = E((X 1 EX 1 ) (X 2 EX 2 )) a σ X2 σ X2 = E([(a X 2+b) (a EX 2 +b)] (X 2 EX 2 )) a σ 2 X 2 = a E(X 2 EX 2 ) 2 = a σ2 X 2 a σx 2 a σ 2 2 X 2 = Das bedeutet: ϱ(x 1,X 2 ) = 1. 1, falls a > 0 1, falls a < W.Kössler, Humboldt-Universität zu Berlin
27 (= ) Es gelte ϱ(x 1,X 2 ) = 1. Nun gilt: ϱ(x 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 = E((X 1 EX 1 ) (X 2 EX 2 )) σ X1 σ X2 = E Wir definieren zwei Zufallsgrößen: ( ) X 1 EX 1 σ X1 X2 EX 2 σ X2 X 1 := X 1 EX 1 σ X1, X 2 := X 2 EX 2 σ X2. Für die Varianz dieser Zufallsgrößen X i (i = 1, 2) gilt 456 W.Kössler, Humboldt-Universität zu Berlin
28 dann: σ 2 X i = E (X i EX i ) 2 = E (Xi ) 2 (EXi ) 2 ( ) 2 X = E i EX i σ Xi (E ( )) 2 X i EX i σ Xi = 1 σ 2 X i (E(X i EX i ) 2 (E(X i EX i )) 2) = 1 σ 2 X i σ 2 X i EX i = 1 σ 2 X i σ 2 X i = W.Kössler, Humboldt-Universität zu Berlin
29 Wir ermitteln jetzt die Erwartungswerte (i = 1, 2): ( ) EXi X = E i EX i σ Xi = 1 σ Xi (EX i E(EX i )) = 1 σ Xi (EX i EX i ) = 0 Daraus folgt: ϱ(x 1,X 2 ) = E (X 1 X 2). Wir unterscheiden zwei Fälle: ϱ(x 1,X 2 ) = 1: Wir untersuchen die Varianz der 458 W.Kössler, Humboldt-Universität zu Berlin
30 Zufallsgröße X 1 X 2: σ 2 X 1 X 2 = E ((X1 X2) E (X1 X2)) 2 = E ((X1 X2) EX1 + EX2) 2 = E (X1 X2) 2 = E (X1) 2 2 E (X1 X2) + E (X2) 2 Für i = 1, 2 gilt nun: E (X i ) 2 = E (X i EX i ) 2 = σ 2 X i = W.Kössler, Humboldt-Universität zu Berlin
31 Damit erhalten wir dann: σ 2 X 1 X 2 = E (X 1) 2 2 E (X 1 X 2) + E (X 2) 2 = 2 2 ϱ(x 1,X 2 ) = 0 Nun gilt aber σx 2 = 0 genau dann, wenn es ein 1 X 2 c R gibt, so daß P (X1 X2 = c) = 1 ist. Das bedeutet aber, daß gilt: E (X1 X2) = c. Wegen EX1 = EX 2 = 0 ist c = 0, woraus folgt P (X1 = X2) = W.Kössler, Humboldt-Universität zu Berlin
32 Dann gilt: 1 = P (X 1 = X 2) = P = P = P ( ) X 1 EX 1 σ X1 = X 2 EX 2 σ X2 ( ) X 1 = σ X 1 X 2 σ X1 EX 2 σ X2 + EX 1 ( ) X 1 = σ X 1 σ X2 X 2 σ X 1 σ X2 EX 2 + EX 1 Wir definieren a := σ X 1 σ X2 > 0 und b := σ X 1 σ X2 EX 2 + EX 1, und die Aussage ist für diesen Fall gezeigt. ϱ(x 1,X 2 ) = 1: Hier untersucht man die Varianz der Zufallsgröße X 1 + X 2 und zeigt, daß sie ebenfalls gleich Null ist. Danach verläuft der Beweis völlig 461 W.Kössler, Humboldt-Universität zu Berlin
33 analog zum Fall ϱ(x 1,X 2 ) = 1. Bem. 17 Eine Zufallsgröße, deren Erwartungswert gleich Null und deren Varianz gleich Eins sind, heißt standardisierte Zufallsgröße. 462 W.Kössler, Humboldt-Universität zu Berlin
11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
Mehr11 Mehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen. Begriffe Def. 34 Es seien X i, i =,...,p reellwertige, zufällige Variablen auf dem Wahrscheinlichkeitsraum (Ω, E,P). Dann heißt X = (X,...,X p ) T : Ω R p, zufälliger
Mehr4.2 Moment und Varianz
4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
Mehr9 Die Normalverteilung
9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
Mehr10 Transformation von Zufallsvariablen
10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrKapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
Mehr12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.
12 Ungleichungen Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. Dann gilt: min c R E(X c)2 = Var X. Beweis: Für alle reellen Zahlen c R gilt: E(X
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrKapitel 8: Zufallsvektoren
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
Mehr1.5 Mehrdimensionale Verteilungen
Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrÜbungsrunde 10, Gruppe 2 LVA , Übungsrunde 10, Gruppe 2, Markus Nemetz, TU Wien,
Übungsrunde, Gruppe 2 LVA 7.369, Übungsrunde, Gruppe 2, 9..27 Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 9..27 Anmerkung: Viele dieser Lösungsvorschläge stammen aus dem Informatik-Forum, Subforum
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
Mehr5 Zufallsvariablen, Grundbegriffe
II. Zufallsvariablen 5 Zufallsvariablen, Grundbegriffe Def. 12 Es seien (Ω 1, E 1,P 1 ) und (Ω 2, E 2,P 2 ) Wahrscheinlichkeitsräume. Eine Abbildung X : Ω 1 Ω 2 heißt E 1 E 2 meßbar, falls für alle Ereignisse
MehrFolie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte
MehrUnabhängigkeit von Zufallsvariablen
Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom
Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
MehrVorlesung 7b. Der Zentrale Grenzwertsatz
Vorlesung 7b Der Zentrale Grenzwertsatz 1 Zentraler Grenzwertsatz (Tschebyscheff) Die standardisierte Summe von unabhängigen, identisch verteilten R-wertigen Zufallsvariablen konvergiert in Verteilung
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr
1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand
MehrWahrscheinlichkeitsrechnung und Statistik
6. Vorlesung - 2018 Diskrete ZG eine diskrete ZG X wird vollständig durch ihre Wahrscheinlichkeitsverteilung beschrieben ( ) x1 x X 2... x i... = p 1 p 2... p i... P(X (a, b]) = und die Verteilungsfunktion
MehrÜbung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrWahrscheinlichkeitsrechnung und Statistik
7. Vorlesung - 2018 Bemerkung: Sei X = X 1,..., X n Zufallsvektor. Der n dimensionale Vektor EX = EX 1,..., EX n ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N0, 1. X, Y sind die Koordinaten
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
Mehr1.5 Erwartungswert und Varianz
Ziel: Charakterisiere Verteilungen von Zufallsvariablen durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere: a) durchschnittlicher Wert Erwartungswert, z.b.
MehrBivariate Normalverteilung
Bivariate Normalverteilung Die Dichtefunktion der gemeinsamen Verteilung für korrelierte normalverteilte Zufallsvariable ist nicht unmittelbar verständlich. Die Definition dieser multivariaten Normalverteilung
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
Mehr15.3 Statistische Tests von Pseudozufallszahlen
15.3 Statistische Tests von Pseudozufallszahlen Def. 52 Ein Test ist eine Entscheidungsvorschrift, die über die Akzeptanz genau einer von zwei alternativen Hypothesen entscheidet. Bsp. 109 (Analogie zur
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom
Übungsaufgaben 11. Übung SS 18: Woche vom 25. 6. 29. 6. 2016 Stochastik V: ZG; Momente von ZG; Zufallsvektoren Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
MehrBem. 6 Die charakterische Funktion existiert.
4.4 Charakteristische Funktionen Def. 2.14 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrÜbung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit
Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung
MehrBeispiel 6 (Einige Aufgaben zur Gleichverteilung)
Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß
Mehr7.4 Charakteristische Funktionen
7.4 Charakteristische Funktionen Def. 25 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx
MehrStatistik für Ingenieure Vorlesung 3
Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind
Mehr4 MEHRDIMENSIONALE VERTEILUNGEN
4 MEHRDIMENSIONALE VERTEILUNGEN 4.14 Stochastische Vektoren 1. Der Merkmalraum des stochastischen Vektors (X, Y ) sei M = R 2. Betrachten Sie die folgenden Ereignisse und ihre Wahrscheinlichkeiten: A 1
MehrWeihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012
Weihnachtszettel zur Vorlesung Stochastik I Wintersemester 0/0 Aufgabe. Der Weihnachtsmann hat vergessen die Weihnachtsgeschenke mit Namen zu beschriften und muss sie daher zufällig verteilen. Dabei enthält
MehrZusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen
Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom
Übungsaufgaben 11. Übung SS 13: Woche vom 24. 6. 13-28. 6. 2013 Stochastik V: ZG Momente von ZG; Grenzverteilungssätze Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/
MehrVERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN
KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut
MehrName Vorname Fachrichtg. Matrikelnr. Punkte Klausur Aufgabe max. Punkte Punkte. Bitte beachten!
Fakultät für Mathematik Institut für Algebra und Geometrie Prof. Dr. Martin Henk, Dr. Michael Höding Modulprüfung Mathematik III Fachrichtung: Computer Science in Engineering, Computervisualistik, Informatik,
Mehr1. Grundbegri e der Stochastik
. Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen
MehrTeil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung
Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()
Mehr8. Stetige Zufallsvariablen
8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrEinführung in die angewandte Stochastik
Einführung in die angewandte Stochastik Fabian Meyer 5. April 2018 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 3 1.1 Definitionen................................... 3 1.2 Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsverteilung,
MehrStudienbegleitende Prüfung Stochastik 2
Universität Karlsruhe (TH) Institut für Stochastik Prof. Dr. N. Bäuerle Name: Vorname: Matr.-Nr.: Studienbegleitende Prüfung Stochastik 2 27. März 2007 Diese Klausur hat bestanden, wer mindestens 20 Punkte
MehrFinanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
Mehr1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.
Lemma 92 Beweis: Wir berechnen zunachst I 2 : I 2 = Z 1 I := e x2 =2 d x p = 2: 1 Z 1 1 Z 1 Z 1 = 1 1 Z 1 e x2 =2 d x 1 e (x2 +y 2 )=2 d x d y : e y2 =2 d y Wir gehen nun zu Polarkoordinaten uber und setzen
MehrMathematik für Informatiker III im WS 05/06 Musterlösung zur 4. Übung
Mathematik für Informatiker III im WS 5/6 Musterlösung zur. Übung erstellt von K. Kriegel Aufgabe : Wir betrachten den Wahrscheinlichkeitsraum der Punkte P =(a, b) aus dem Einheitsquadrat [, ] [, ] mit
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrStatistik für Ingenieure Vorlesung 5
Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:
MehrZusatzmaterial zur Vorlesung Statistik II
Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November
Mehr1.4 Stichproben aus einer Normalverteilung
1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte
Mehr3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)
3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 20. April 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 18.
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................
Mehr0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5
4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit
Mehr1.5 Erwartungswert und Varianz
Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:
MehrInstitut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER
Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrWahrscheinlichkeitsrechnung und Statistik
10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten
MehrDie n-dimensionale Normalverteilung
U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung
MehrKlausurenkurs zum Staatsexamen (SS 2015): Differential und Integralrechnung 6
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 205): Differential und Integralrechnung 6 6. (Frühjahr 2009, Thema, Aufgabe 3) Sei r > 0. Berechnen Sie die Punkte auf der Parabel y = x 2 mit dem
Mehrf(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212
1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,
MehrLösungen zu Übungsaufgaben Blatt 9
Diskrete Zufallsgrößen Zu Aufgabe Die zufällige Anzahl X von Ausfällen eines Servers pro Jahr genüge folgender Verteilung: ai 0 3 4 5 6 >6 pi /0 /0 3/0 /0 /0 /0 /0 0 Ein Ausfall des Servers verursacht
MehrA1: Diplomvorprüfung HM II/III WS 2007/
A: Diplomvorprüfung HM II/III WS 7/8 6..8 Aufgabe. (+68 Punkte) a) Ist die Reihe k+ k k 5k konvergent oder divergent? Begründen Sie ihre Aussage! b) Führen Sie eine Partialbruchzerlegung für n+ durch und
MehrVorlesung 9b. Kovarianz und Korrelation
Vorlesung 9b Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X,Y]:= E [ (X EX)(Y EY) ] Insbesondere ist
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
MehrTheorem 9 Sei G eine Verteilungsfunktion in IR. 1. Quantil-Transformation: Wenn U U(0, 1) (standard Gleichverteilung), dann gilt P(G (U) x) = G(x).
Theorem 9 Sei G eine Verteilungsfunktion in IR. 1. Quantil-Transformation: Wenn U U(0, 1) (standard Gleichverteilung), dann gilt P(G (U) x) = G(x). 2. Wahrscheinlichkeit-Transformation: Sei Y eine Zufallsvariable
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II
Statistik II 1. Ergänzungen zur Wahrscheinlichkeitstheorie Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 1. Ergänzungen zur
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik, 5.5. Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß auf
MehrProbeklausur zur Analysis 2, SoSe 2017
BERGISCHE UNIVERSITÄT WUPPERTAL 21717 Fakultät 4 - Mathematik und Naturwissenschaften Prof N V Shcherbina Dr T P Pawlaschyk wwwkanauni-wuppertalde Probeklausur zur Analysis 2, SoSe 217 Hinweis Die Lösungen
MehrKlausurenkurs zum Staatsexamen (WS 2014/15): Differential und Integralrechnung 6
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 204/5): Differential und Integralrechnung 6 6. (Frühjahr 2009, Thema, Aufgabe 3) Sei r > 0. Berechnen Sie die Punkte auf der Parabel y = x 2 mit dem
Mehr7 Integralrechnung für Funktionen einer Variablen
7 Integralrechnung für Funktionen einer Variablen In diesem Kapitel sei stets D R, und I R ein Intervall. 7. Das unbestimmte Integral (Stammfunktion) Es sei f : I R eine Funktion. Eine differenzierbare
Mehr1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.
. Grundbegri e Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis,
MehrDiskrete Zufallsvariablen (Forts.) I
9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig
Mehr