Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Größe: px
Ab Seite anzeigen:

Download "Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen"

Transkript

1 Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27

2 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe Aufgabe 7 5 Aufgabe Aufgabe 5 7 Aufgabe Aufgabe Aufgabe 8 6 Aufgabe 9 7 Aufgabe 8 2 Aufgabe 9 Aufgabe Aufgabe 2 2

3 Information Dies sind Aufgaben und Lösungen zu den vom Lehrstuhl angebotenen Klausuraufgaben zur Vorlesung Einführung in die Stochastik für Informatiker (Cramer, Sommersemester 27). Wir übernehmen keinerlei Garantie für Richtigkeit und Vollständigkeit unserer Lösungen. Solltest Du einen Fehler bemerken, würden wir uns über eine Mail an oder freuen.

4 2 Aufgabe Für ein Würfelexperiment werden die (äußerlich ununterscheidbaren) Würfel W, W 2 und W verwendet. Mit p (j) i (i {,..., 6}, j {, 2, }) sei die Wahrscheinlichkeit bezeichnet, dass Würfel W j (nach einmaligem Wurf) genau i Augen zeigt. Würfel W ist fair. Es gilt also p () i = für i {,...6}. 6 Weiter ist bekannt, dass p (2) i = 4 für i {2,, 4, 5} sowie = für i {2,, 4, 5} und p() = p () 6 8. Spieler A wählt zufällig einen der Würfel aus, wobei jeder Würfel mit gleicher Wahrscheinlichkeit gewählt wird. Dann wirft er den gezogenen Würfel mal (in unabhängiger Folge). E i i {,..., }) sei das Ergebnis, dass der Spieler im i-ten Wurf eine Sechs wirft. p () i. Bestimmen Sie die Wahrscheinlichkeit für E. 2. Sind E und E 2 stochastisch unabhängig? Begründen Sie Ihre Entscheidung. (Hinweis: Sei W j (j {, 2, }) das Ergebnis, dass Spieler A den j-ten Würfel wählt. Dann gilt nach Vorraussetzung P (E E 2 W j ) = P (E W j ) P (E 2 W j ).). Wie wahrscheinlich ist es, dass Würfel ausgewählt wurde, falls E und E 2 eingetreten sind? 4. Nehmen Sie an, der Spieler hat Würfel ausgewählt. Lösung: a) Wie wahrscheinlich ist es, dass genau k (k {,..., }) Sechsen in den Zehn Würfen geworfen werden? b) Wie wahrscheinlich ist es, dass die erste Sechs im k-ten Wurfe (k {,..., }) geworfen wird?. Aus der Formel der totalen Wahrscheinlichkeit folgt: P (E ) = P (E W ) P (W ) + P (E W 2 ) P (W 2 ) + P (E W ) P (W ) 2. = = 5 6 P (E 2 ) = P (E ) = 5 6 4

5 Aus der Formel von der totalen Wahrscheinlichkeit folgt: P (E E 2 ) = P (E E 2 W ) P (W )+P (E E 2 W 2 ) P (W 2 )+P (E E 2 W ) P (W ) = = 42 P (E ) P (E 2 ) = Die Ereignisse E und E 2 sind stochastisch abhängig. Nach dem Satz von Bayes gilt: P (W E E 2 ) = P (W ) P (E E 2 W ) P (E E 2 ) = = 9 4. a) X: Anzahl der Sechsen in den Würfen P (X = k) = ( ) k ( ) k 6 b) Y: Auftreten der ersten Sechs in den Würfen P (Y = k) = ( ) 5 k 6 6 ( ) 5 k 6 5

6 Aufgabe 2 Seien X und X 2 stochastisch unabhängige Zufallsvariablen. X sei gleichverteilt auf der Menge {, 2, }, X 2 sei gleichverteilt auf der Menge {4, 5, 6}. (Es gilt also P (X = i) = P (X 2 = j) = für i {, 2, }, j {4, 5, 6}.) Weiterhin sei Z = 2X + 2X 2.. Geben Sie die Zähldichte von Y = X + X 2 an. 2. Berechnen Sie die Erwartungswerte von X, X 2 und Z.. Welchen Wert hat die Wahrscheinlichkeit P (Z = )? 4. Bestimmen Sie die Kovarianzen Cov(X, X 2 ) und Cov(X, Z). Lösung:. Da X und X 2 stochastisch unabhängig sind gilt nach der Methode der Faltung: 9, falls k {5, 9} 2 P (X + X 2 = k) = 9, falls k {6, 8}, falls k = 7, sonst 2. EX = ( ) = 2 EX 2 = ( ) = 5 EZ = 2EX + 2EX 2 E = 4 + =. P (Z = ) = P (2X + 2X 2 = ) = P (X + X 2 = 7) = 4. Weil X und X 2 stochastisch unabhängig sind, gilt nach Lemma C 5.6 (v): Cov(X, X 2 ) = Cov(X, Z) = E((X EX )(Z EZ)) = E((X 2)(Z 5)) = E(X Z 5X 2Z + ) = E(X Z) 5EX 2EZ + E = E(X Z) 26 = E(2X 2 + 2X 2 X X ) 26 = 2EX 2 8 EX 2 ist 2. zentrales Moment von X. Nach Satz C 5.6 gilt: Somit folgt: EX 2 = = 4 Cov(X, Z) = = 4 6

7 4 Aufgabe Seien X und Y stochastisch unabhängige (reellwertige) Zufallsvariablen mit Riemann- Dichten f X, f Y sowie Verteilungsfunktionen F X, F Y, wobei, falls z < F X (z) = cz, falls z < ce 6c(z ), falls z mit einer Konstanten c R und, falls z < F Y (z) = z, falls z <, falls z. Zeigen Sie, dass c = 2 gilt. 2. Geben Sie die Verteilungsfunktion des Zufallsvektors (X, Y ) explizit an.. Ermitteln Sie die Verteilungsfunktion des Maximums von X und Y. 4. Berechnen Sie die Wahrscheinlichkeiten P (X ( 2, 2]) sowie P (X 2, Y > 2). 5. Ermitteln Sie den Erwartungswert von X. Lösung:. F X ist stetig lim z F X (z) = F X () lim z cz = c c = c c = 2 2. Aus der stochastischen Unabhängigkeit von X und Y folgt: = F X,Y (x, y) = F X (x) F Y (y), falls x < y < 2 x y, falls x < y < ( 2 x, falls x < y 2 e (x )) y, falls x y < 2 e (x ), falls x y. F max(x,y ) (z) = P (X z Y z) = P (X z) P (Y z), falls z < = F X (z) F Y (z) = 6 z4, falls z < z 6 ze (z ), falls z < 2 e (z ), falls z 7

8 4. 5. P = ( ( ]) X 2, 2 ( 2 e (2 ) ) ( ) ( ) = P 2 < X 2 = F X (2) F X 2 ( ( ) ) 2 = e.926 P (X 2, Y > 2) = F X (2) ( F Y (2)) ( 2 e ) ( 2) = 6e.25 F X(z) = = lim a a = lim a E(X) =, falls z < 2 z2, falls z < 2 e (z ), falls z z 2 z2 dz + lim b [ 8 z4 ] a = 8 + lim b Mit partieller Integration ergibt sich: + lim b b z F X(z)dz b b z 2 e (z ) dz z 2 e (z ) dz z 2 e (z ) dz u(z) = 2 z u (z) = 2 b v (z) = e (z ) z 2 e (z ) dz = v(z) = e (z ) [ 2 ze (z ) ] b b 2 e (z ) dz = 2 be (b ) + [ 2 + ] b 6 e (z ) = 2 be (b ) 6 e (b ) E(X) = 8 + lim b 2 be (b ) }{{} = (2-fach L Hospital) = = lim b 6 e (b ) } {{ } =

9 5 Aufgabe 4 Seien n (, ) und X,..., X n stochastisch unabhängige N( a 2, a )-verteilte Zufallsvariablen. Betrachten Sie den durch ( ( ϑ n = n ) ) X + 2X i + X n n definierten Schätzer für a (, ). i=2. Zeigen Sie, dass ϑ n erwartungstreu für a (, ) ist. 2. Bestimmen Sie die Varianz von ϑ n.. Zeigen Sie (unter Zuhilfenahme der Tschebyscheff-Ungleichung), dass für alle ɛ > gilt. Lösung: lim P ( ϑ n a ɛ) = n. Damit ϑ n erwartungstreu ist, muss gelten: E ϑ ( ϑ n ) = a ( ) E ϑ ( ϑ n ) = i E(X ) + 2 E(X i ) + E(X n ) n i=2 ( ) = i a n a 2 + a = (n ) a = a 2 n i=2 ϑ n ist erwartungstreu. 2.. ( ( )) n V ar( ϑ n ) = V ar X + 2X i + X n n i=2 ( ) n = (n ) 2 V ar X + 2X i + X n i=2 ( ) n = (n ) 2 V ar(x ) + 4 V ar(x i ) + V ar(x n ) = i=2 (n ) 2 (a + 4(n 2)a + a ) (4n 6) = (n ) 2 a 9

10 6 Aufgabe 5 In den nächsten Semesterferien wird Herr P. eine Europareise mit den Stationen Paris, Rom und London unternehmen. Ein flexibles Flugticket erlaubt es ihm, spontan zu entscheiden, wann er den Flug in die nächste Stadt bzw. die Rückreise antritt. Die Gesamtreseidauer N und die Aufenthaltszeiten N, N 2 bzw. N in den Städten Paris, Rom bzw. London werden als Zufallsvariablen mit Werten in den natürlichen Zahlen modelliert, sodass N = N + N 2 + N gilt. Herr P. hat vor, jeweils vier oder fünf Tage in Paris und Rom zu bleiben, sowie fünf oder sechs Tage in London. Genauer gelte P (N = 5) = P (N = 6) = 2. Darüberhinaus sei die Aufenthaltsdauer N in London unabhängig vom Zufallsvektor (N, N 2 ). Die Zähldichte des Zufallsvektors (N, N 2 ) ist gemäß folgender Tabelle unvollständig gegeben: N N Σ 4 2 g 45 p 4 5 g 54 g 55 Σ r 4 r 5 (D.h.: P (N = 4, N 2 = 4) = 2, P (N = 5, N 2 = 4) = g 54 [, ], P (N 2 = 4) = r 4 [, ] etc.). Begründen Sie, dass die obige Tabelle unter der Vorraussetzung E(N 2 ) = 22 5 = 4, 4 folgendermaßen vervollständigt werden muss. N N Σ Σ 5 2. Sind N und N 2 stochastisch unabhängig? Begründen Sie Ihre Entscheidung.. Wie groß ist die Wahrscheinlichkeit, dass sich Herr P. vier Tage in Rom aufhält, wenn bekannt ist, dass er fünf Tage in Paris war? 4. Geben Sie die Zähldichte von N + N 2 an Welchen Wert hat die erwartete Gesamtreisedauer E(N)? 6. Wie groß ist die Wahrscheinlichkeit, dass die Dauer der gesamten Reise 4 Tage beträgt, wenn bekannt ist, dass Herr P. in Paris und Rom (zusammen) acht Tage verbracht hat?

11 Lösung:. p 4 = P (N = 4) = P (N = 5) = = 7 g 45 = P (N = 4, N 2 = 5) = P (N = 4) P (N = 4, N 2 = 4) = p 4 2 = 7 5 = 5 Weiter gilt: r 4 + r 5 = E(N 2 ) = 4r 4 + 5r 5 = 22 5 r 4 = r 5 E(N 2 ) = 4 ( r 5 ) + 5r 5 = 22 5 r 5 = 2 5 r 4 = 5 g 54 = P (N = 5, N 2 = 4) = r 4 2 = 5 2 = g 55 = r 5 5 = Es gilt: P (N = 4, N 2 = 4) = 2, P (N = 4) = 7, P (N 2 = 4) = 5 P (N = 4) P (N 2 = 4) = 7 5 = = P (N = 4, N 2 = 4) Die Zufallsvariablen N und N 2 sind stochastisch abhängig. Der Tabelle lässt sich entnehmen: P (N = 5, N 2 = 4) =. N (x) = { 7, für x = 4, für x = 5, N 2 (x) = N (x) + N 2 (x) = { 5, für x = 4 2 5, für x = 5 2, für x = 8, für x = 9 5, für x = E(N) = E(N + N 2 + N ) = E(N ) + E(N 2 ) + E(N ) = (N, N 2 ) und N sind stochastisch unabhängig = = 4.2 P (N = 6 (N = 4, N 2 = 4)) = P (N = 6) = 2

12 7 Aufgabe 6 Gegeben sei die Funktion f mit f(x) = { x 2, x [, ], sonst.. Weisen Sie nach, dass f Riemann-Dichte eines Wahrscheinlichkeitsmaßes P auf (R, B) ist. (B bezeichne hierbei die Borel-σ-Algebra über den reellen Zahlen.) 2. Geben Sie die zu f und P gehörende Verteilungsfunktion F an.. Sei X eine (auf einem Wahrscheinlichkeitsraum (Ω, F, P) definierte) reellwertige Zufallsvariable mit Wahrscheinlichkeitsverteilung P. Lösung: a) Ermitteln Sie für die Zufallsvariable Y = X + den Erwartungswert E(Y ) und die Verteilungsfunktion F Y. b) Wie groß ist die Wahrscheinlichkeit P Y ([, 2])?. f ist Riemann-Dichte genau dann, wenn f(x) x R f(x)dx = f(x) ist Riemann-Dichte f(x)dx = x 2 dx = [ x ] = 2. x f(x)dx = x F (x) = x 2 dx = [ x ] x = x, x < x, x [, ], x >. a) = E(Y ) = E(X + ) = E(X ) }{{}. (zentrales) Moment + [ ] x x 2 dx + = x 5 dx + = 2 x6 + = 2 2

13 Nach dem Transformationsatz für Dichtefunktionen (Satz C 4.2) gilt: { f Y (g (y) = ) (y) f X (g (y)), x [, 2], sonst, denn Y = g(x): [,] [,2] g (y) = y Somit folgt: (g ) (y) = (y ) 2 f Y (y) = (y ) 2 (y ) 2 = { f Y, x [, 2] (y) =, sonst F Y (y) = y dy = y, x < F Y (y) = y, x [, 2], sonst b) P Y ([, 2]) = F Y (2) =

14 8 Aufgabe 7 Sei f die Dichtefunktion eines Zufallsvektors (X, Y ) mit f(x, y) = { x e 2 x2 y, x, y, sonst. Zeigen Sie, dass die marginalen Dichten f X und f Y von X und Y gegeben sind durch: { f X x e 2 = x2, x, sonst { f Y e = y, y, sonst 2. Sind X und Y stochastisch unabhängig? Begründen Sie ihre Antwort.. Berechnen Sie den Erwartungswert von X. (Hinweis: Integrieren Sie partiell und beachten Sie, dass für die Dichtefunktion h der N(, )-Verteilung h(x)dx = gilt.) 4. Welche der folgenden Aussagen ist die korrekte Begründung für die Eigenschaft Cov(X, Y 2 ) =? Lösung: a) Mit X und Y sind auch X und Y 2 stochastisch unabhängig. Da aus stochastischer Unabhängigkeit die Unkorreliertheit folgt, gilt Cov(X, Y 2 ) =. b) Aus der Unabhängigkeit von X und Y folgt Cov(X, Y ) =. Eine Eigenschaft der Kovarianz liefert Cov(X, Y 2 ) = 2Cov(X, Y ), so dass Cov(X, Y 2 ) =. c) Es gilt Cov(X, Y ) =. Daraus folgt stets Cov(X, Y 2 ) =.. f X (x) = f X,Y (x, R) = = x e 2 x2 x e 2 x2 y dy = x e 2 x2 e y dy e y dy = lim x a e 2 x2 [ e y] a = lim x a e 2 x2 ( e a ) x e 2 x2 ( e ) = x e 2 x2 ( ) = x e 2 x2 f Y (y) = f X,Y (R, y) = = e y x e 2 x2 y dx = x e 2 x2 dx = lim a e y x e 2 x2 e y dx [ e 2 x2] a = lim a e y ( e 2 a2 ) e y ( e 2 2 ) = e y ( ) = e y 4

15 2. X und Y sind stochastisch unabhängig, denn es gilt: f(x, y) = f X f Y = x e 2 x2 e y = x e 2 x2 y, x, y. E(X) = Partielle Integration: x x e 2 x2 dx = b a x 2 e 2 x2 dx, da f X (x) = x < b u(x) v (x)dx = [u(x) v(x)] b a u (x) v(x)dx a Wähle: u(x) = x, u (x) =, v (x) = x e 2 x2, v(x) = e 2 x2 x x e 2 x2 dx = [x ( e 2 x2 )] = lim [x e x2] a 2 + a }{{} = (2 fach L Hospital) e 2 x2 = ( e 2 x2 )dx e 2 x2 = 2π e 2 x2 = 2π = 2π 2π }{{} = (N(,) Verteilung) 4. Antwort (a) ist nach Lemma C 5.6 (v) korrekt. 5

16 9 Aufgabe 8 Seien Y,..., Y n (n N) unabhängige, identisch verteilte Zufallsvariablen mit Dichte { g ϑ (y) = ϑ e y ϑ, y, sonst, wobei ϑ (, ). Weiter seien y,..., y n > Realisierungen von Y,..., Y n.. Für X Exp(λ), λ >, gilt E(X) = λ sowie V ar(x) = λ 2. Begründen Sie mit diesem Resultat die Aussagen: E ϑ (Y ) = ϑ, V ar ϑ (Y ) = ϑ 2. (E ϑ bzw. V ar ϑ bezeichnen hierbei den Erwartungswert bzw. die Varianz bei gegebener Dichte g ϑ, ϑ (, ).) 2. Bestimmen Sie die Likelihoodfunktion sowie die Log-Likelihoodfunktion für ϑ > bei gegebener Beobachtung y,..., y n >.. Ermitteln Sie die Maximum-Likelihoodschätzung ϑ n (y,..., y n ) für ϑ > bei gegebener Beobachtung y,..., y n > durch Maximieren der Log-Likelihoodfunktion. 4. Zeigen Sie, dass der Maximum-Likelihoodschätzer ϑ n (Y,..., Y n ) = n n i= Y i erwartungstreu für ϑ > ist sowie lim V ar ϑ( ϑ n (Y,..., Y n )) =, für alle ϑ >. n 6

17 Aufgabe 9 Seien a, b > und X, Y reellwertige Zufallsvariablen mit X N(, ) und Y = ax + b. Betrachten Sie folgende Aussagen:. Cov(X, Y ) =, 2. E(Y 2 ) = a 2 + b 2,. Y ist normalverteilt, 4. Y ist absolut stetig mit Dichte f Y, definiert durch f Y (x) = x R, 5. X + Y N(a + b, a 2 + ). Welche dieser Aussagen sind richtig? a) alle außer () b) alle außer (4) c) alle außer () und (5) d) genau () und (4) e) nur (2) 2πa exp( (x b)2 2a 2 ) für Lösung: Die Aussagen () und (5) sind falsch, die Aussagen (2) und () sind korrekt (c) ist die korrekte Antwort. Aussage () ist falsch, denn Y ist eine lineare Transformation von X und somit ist Cov(X, Y ) = ±. Aussage (5) ist falsch, denn nach Beispiel C 4. gilt: Aussage (2) ist korrekt, denn: X + Y = (a + )X + b X + Y N(b, a 2 + 2a + ) EY 2 = E(a 2 X 2 + 2abX + b 2 ) = a 2 EX 2 + b 2 EX 2 ist zweites zentrales Moment der N(,) Verteilung. Nach Beispiel C 6.9 (iii) gilt: Somit folgt für EY 2 : EX 2 = h () = e 2 t2 + t 2 e 2 t2 t= = EY 2 = a 2 + b 2 = a 2 + b 2 Aussage () ist korrekt, denn nach Beispiel C 6.9 ist Y als lineare Transformation einer normalverteilten Zufallsvariable wiederum nomalverteilt. 7

18 Aufgabe Die Zufallsvariablen X,..., X 4 seien unabhängig identisch verteilt mit Wahrscheinlichkeitsverteilung P µ, welche vom unbekannten Erwartungswert µ Θ = (, ) der X i abhängt. ϑ sei eine erwartungstreue Schätzfunktion für µ Θ. Betrachten Sie folgende Aussagen:. E µ ( ϑ) = µ für alle µ Θ, 2. E µ ( ϑ) = E µ (X ) für alle µ Θ,. E µ ( ϑ) = E µ (X X 2 X ) für alle µ Θ, 4. E 2 ( ϑ) = E 2 (X X 2 X 6), 5. E µ ( ϑ) = E µ ( 4 (X + X 2 + X + X 4 )) für alle µ Θ, (E µ bezeichne hierbei den Erwartungswert bei gegebener Verteilung P µ, µ Θ.) Welche dieser Aussagen sind richtig? a) alle b) alle außer () c) alle außer () und (4) d) alle außer (4) und (5) e) nur () 8

19 2 Aufgabe In einem Wahrscheinlichkeitsraum (Ω, F, P ) seien von den Ereignissen A, B, C F folgende Wahrscheinlichkeiten bekannt: P (A) = 2 5 Welche der nachstehenden Aussagen ist richtig?. P (B) = 4, P (A B) =, P (B C) = 2 2, P (B \ C) = 5 und P (A B) =, 2. P (B) = 4 und P (A B) = 6 5,. P (B) = 4 4. P (B) = 2 5. P (B) = 2 Lösung: und P (A B) = 2, und P (A B) = 2, und P (A B) = 9 2. P (B \ C) = P (B) P (B C) 5 = P (B) 2 P (B) = 4 Nach Siebformel gilt: P (A B) = P (A) + P (B) P (A B) 2 = P (A B) P (A B) = 4 Also ist Antwort () korrekt. 9

20 Aufgabe 2 Seien a, a 2 R, v, v 2 > und X, X 2 reellwertige Zufallsvariablen mit X i N(a i, v i ) (i, 2). Betrachten Sie folgende Aussagen:. Cov(X, X 2 ) =, 2. E(X + 2X 2 ) = a + 2a 2,. E(X X 2 ) = a a 2, 4. V ar(x + X 2 ) = v + v 2, 5. V ar(2x + X 2 ) = 4v + v 2. Welche dieser Aussagen können aus den obigen Vorraussetzungen gefolgert werden? a) nur (2), b) genau () und (2), c) alle außer (), () und (4), d) alle außer () und (5), e) alle außer (4). Lösung: Die Aussagen (), (), (4) und (5) sind falsch (a) ist die korrekte Antwort. Aussage () ist falsch, denn im Allgemeinen gilt nicht, dass Cov(X, X 2 ) =, da nicht bekannt ist ob X und X 2 stochastisch unabhängig sind. Aussage () ist falsch, da der Multiplkationssatz (C 5.9) nur für stochastisch unabängige Zufallsvariablen gilt. Aussage (4) ist falsch, denn nach Lemma C 5.5 gilt: V ar(x + X 2 ) = V ar(x ) + V ar(x 2 ) + 2 Cov(X, X 2 ) = 9 V ar(x ) + 9 V ar(x 2 ) + 8 Cov(X, X 2 ) = 9v + 9v Cov(X, X 2 ) Dies ist im Allgemeinen nicht v + v 2. Aussage (5) ist falsch, denn nach Lemma C 5.5 gilt: V ar(2x + X 2 ) = V ar(2x ) + V ar(x 2 ) + 2Cov(2X, X 2 ) = 4 V ar(x ) + V ar(x 2 ) + 4 Cov(X, X 2 ) = 4v + v Cov(X, X 2 ) Somit ist V ar(2x + X 2 ) = 4v + v 2 genau dann, wenn Cov(X, X 2 ) =. Weil nicht bekannt ist ob X und X 2 unkorreliert sind, gilt Aussage (5) im Allgemeinen nicht. 2

21 4 Aufgabe X,..., X n (n N) seien diskrete, identisch verteilte Zufallsvariablen, deren Zähldichte von einem unbekannten Parameter c R abhängt. x,..., x n seien Realisierungen von X,..., X n. Mit der Maximum-Likelihood-Methode wurde eine Schätzfunktion ϑ sowie ein Schätzwert ĉ = ϑ(x,..., x n ) für c ermittelt. Betrachten Sie folgende Aussagen:. Pĉ(X = x,..., X n = x n ) P c (X = x,..., X n = x n ) für alle c R, 2. ϑ = n n i= X i,. Eĉ( ϑ) E c ( ϑ) für alle c R, 4. Eĉ( ϑ) Eĉ(X i ) für alle i {,..., n}, 5. ĉ c für alle c R. Welche dieser Aussagen können stets gefolgert werden? nur (), nur (4), genau () und (4), genau (), (2) und (), alle. 2

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel

Mehr

TU DORTMUND Sommersemester 2018

TU DORTMUND Sommersemester 2018 Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5 4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Zusatzmaterial zur Vorlesung Statistik II

Zusatzmaterial zur Vorlesung Statistik II Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom Institut für Stochastik WS 009/10 Karlsruher Institut für Technologie (KIT) Dr. B. Klar Klausur Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom 08.0.010 Musterlösungen Aufgabe

Mehr

Prof. Dr. R. Mathar RWTH Aachen, SS 2002 Daniel Catrein Abgabe: bis 15:45 Uhr. 1. Übung zur Einführung in die Stochastik für Informatiker

Prof. Dr. R. Mathar RWTH Aachen, SS 2002 Daniel Catrein Abgabe: bis 15:45 Uhr. 1. Übung zur Einführung in die Stochastik für Informatiker Daniel Catrein Abgabe: 02.05.02 1. Übung zur Einführung in die Stochastik für Informatiker Aufgabe 1 Bei einem Kartenspiel mit 52 Karten werden an jeden der vier Spieler (A, B, C und D) 13 Karten ausgegeben.

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Weihnachtsaufgaben. a) Welche Urnenmodelle gibt es? Stelle zu jedem Modell ein konkretes Beispiel auf, welches durch dieses Modell beschrieben wird.

Weihnachtsaufgaben. a) Welche Urnenmodelle gibt es? Stelle zu jedem Modell ein konkretes Beispiel auf, welches durch dieses Modell beschrieben wird. Weihnachtsaufgaben Diese Aufgaben dienen dazu die in der Vorlesung und den Übungen eingeführten Begriffe zu verstehen und zu vertiefen, die Bearbeitung ist freiwillig Das Blatt wurde von den Übungsleitern

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19 Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert

Mehr

Statistik II für Wirtschaftswissenschaftler

Statistik II für Wirtschaftswissenschaftler Fachbereich Mathematik 20.04.2017 Dr. Hefter & Dr. Herzwurm Übungsblatt 0 Keine Abgabe. Gegeben seien die Mengen A 1 =, A 2 = {1}, A 3 = {1, 1}, A 4 = {1, 3}, A 5 = {1, 2, 4}, A 6 = {1, 2, 3, 4}. a) Bestimmen

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Klausur Stochastik und Statistik 31. Juli 2012

Klausur Stochastik und Statistik 31. Juli 2012 Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf

Mehr

Übungsblatt 9 (25. bis 29. Juni)

Übungsblatt 9 (25. bis 29. Juni) Statistik 2 Dr. Andrea Beccarini Dipl.-Vw. Dipl.-Kffr. Heike Bornewasser-Hermes Sommersemester 2012 Übungsblatt 9 (25. bis 29. Juni) Stetiges Verteilungsmodell und Gemeinsame Verteilung Stetiges Verteilungsmodell

Mehr

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.

Mehr

Aufgabe Punkte

Aufgabe Punkte Institut für Mathematik Freie Universität Berlin Carsten Hartmann, Stefanie Winkelmann Musterlösung für die Nachklausur zur Vorlesung Stochastik I im WiSe 20/202 Name: Matr.-Nr.: Studiengang: Mathematik

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß

Mehr

K8 Stetige Zufallsvariablen Theorie und Praxis

K8 Stetige Zufallsvariablen Theorie und Praxis K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R

Mehr

Suffizienz und Vollständigkeit

Suffizienz und Vollständigkeit KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Kapitel 12 Erwartungswert und Varianz

Kapitel 12 Erwartungswert und Varianz Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen

Mehr

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k

Mehr

Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess

Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Name: Vorname: Matrikelnummer: Lösungsvorschlag zur Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik (Stochastik) Datum: 07.

Mehr

Stetige Verteilungen Rechteckverteilung

Stetige Verteilungen Rechteckverteilung Stetige Verteilungen Rechteckverteilung Die Längenabweichungen X produzierter Werkstücke von der Norm seien gleichmäßig verteilt zwischen a = mm und b = 4mm. Die Dichtefunktion lautet also f(x) = für a

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Stochastik WS 007/008 Universität Karlsruhe. 0. 008 r. B. Klar Klausur zur Vorlesung Stochastik II Muster-Lösung auer: 90 Minuten Name: Vorname: Matrikelnummer: iese Klausur hat bestanden,

Mehr

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Übungsscheinklausur,

Übungsscheinklausur, Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

Institut für Stochastik, SoSe K L A U S U R , 13:

Institut für Stochastik, SoSe K L A U S U R , 13: Institut für Stochastik, SoSe 2014 Mathematische Statistik Paravicini/Heusel 1. K L A U S U R 12.7.2014, 13:00-16.00 Name: Geburtsdatum: Vorname: Matrikelnummer: Übungsgruppe bei: Studiengang & angestrebter

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Mathematik für Naturwissenschaften, Teil 2

Mathematik für Naturwissenschaften, Teil 2 Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Allgemeine Wahrscheinlichkeitsräume

Allgemeine Wahrscheinlichkeitsräume Kapitel 3 Allgemeine Wahrscheinlichkeitsräume 3. Einleitung Wir hatten schon bemerkt, dass der Begriff des diskreten Wahrscheinlichkeitsraums nicht ausreicht, um das unendliche Wiederholen eines Zufallsexperiments

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Hauptklausur zur Stochastik für Lehramt

Hauptklausur zur Stochastik für Lehramt Universität Duisburg-Essen Essen, den 20.02.203 Fakultät für Mathematik Dr. Daniel Herden Dipl.-Inf. Christian Thiel Matthias aus der Wiesche Hauptklausur zur Stochastik für Lehramt Bearbeitungszeit: mind.

Mehr

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen

Mehr

Probeklausur Statistik II

Probeklausur Statistik II Prof. Dr. Chr. Müller PROBE-KLAUSUR 1 1 2 3 4 5 6 7 8 Gesamt: 15 8 16 16 7 8 15 15 100 Probeklausur Statistik II Name: Vorname: Fachrichtung: Matrikel-Nummer: Bitte beachten Sie folgendes: 1) Die Klausur

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

Klausur vom

Klausur vom UNIVERSITÄT KOBLENZ LANDAU INSTITUT FÜR MATHEMATIK Dr. Dominik Faas Stochastik Wintersemester 00/0 Klausur vom 09.06.0 Aufgabe (++4=9 Punkte) Bei einer Umfrage wurden n Personen befragt, an wievielen Tagen

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Wahrscheinlichkeit und Statistik BSc D-INFK

Wahrscheinlichkeit und Statistik BSc D-INFK Prof. Dr. P. Bühlmann ETH Zürich Winter 2010 Wahrscheinlichkeit und Statistik BSc D-INFK 1. (10 Punkte) Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete

Mehr

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2012/13

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2012/13 Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2012/13 Aufgabenstellung und Ergebnisse Dr. Martin Becker Hinweise für die

Mehr

1 Verteilungsfunktionen, Zufallsvariable etc.

1 Verteilungsfunktionen, Zufallsvariable etc. 4. Test M3 ET 27 6.6.27 4. Dezember 27 Regelung für den.ten Übungstest:. Wer bei den Professoren Dirschmid, Blümlinger, Vogl oder Langer die UE aus Mathematik 2 gemacht hat, sollte dort die WTH und Statistik

Mehr

Kapitel 8: Zufallsvektoren

Kapitel 8: Zufallsvektoren Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und

Mehr

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Statistik Dr. Thomas Zehrt Ausblick Motivation Wir werfen einen Würfel 000-mal und wir möchten die Wahrscheinlichkeit P bestimmen, dass zwischen

Mehr

Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten

Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten Die Funktion f ;Y (x; y) := Pr[ = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen und Y. Aus der gemeinsamen Dichte f ;Y kann man ableiten f (x) = y2w Y f ;Y (x; y) bzw. f Y (y) = Die Funktionen

Mehr

Übungsblatt 9. f(x) = e x, für 0 x

Übungsblatt 9. f(x) = e x, für 0 x Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable

Mehr

67 Zufallsvariable, Erwartungswert, Varianz

67 Zufallsvariable, Erwartungswert, Varianz 67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()

Mehr

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Aufgabenstellung und Ergebnisse zur. Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2015/16. Dr.

Aufgabenstellung und Ergebnisse zur. Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2015/16. Dr. Aufgabenstellung und Ergebnisse zur Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 205/6 Dr. Martin Becker Hinweise für die Klausurteilnehmer ˆ Die Klausur besteht

Mehr

D-ITET Wahrscheinlichkeitstheorie und Statistik FS 2017 Prof. P. Nolin. Serie 11

D-ITET Wahrscheinlichkeitstheorie und Statistik FS 2017 Prof. P. Nolin. Serie 11 D-ITET Wahrscheinlichkeitstheorie und Statistik FS 2017 Prof. P. Nolin Serie 11 1. Frau A und Herr B wollen sich treffen und verabreden sich für 16 Uhr in einem Café. Mit T A bzw. T B bezeichnen wir die

Mehr

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen Kapitel 6 Verteilungsparameter Wie bei einem Merkmal wollen wir nun die Lage und die Streuung der Verteilung einer diskreten Zufallsvariablen durch geeignete Maßzahlen beschreiben. Beginnen wir mit Maßzahlen

Mehr

10 Transformation von Zufallsvariablen

10 Transformation von Zufallsvariablen 10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :

Mehr

Wiederholungsklausur DWT

Wiederholungsklausur DWT LÖSUNG Wiederholungsklausur DWT Sommersemester 2008 Hinweis: Alle Antworten sind zu begründen. Insbesondere sollte bei nicht-trivialen Umformungen kurz angegeben werden, weshalb diese Umformungen erlaubt

Mehr

Mathematik 2 Probeprüfung 1

Mathematik 2 Probeprüfung 1 WWZ Wirtschaftswissenschaftliche Fakultät der Universität Basel Dr. Thomas Zehrt Bitte in Druckbuchstaben ausfüllen: Name Vorname Mathematik 2 Probeprüfung 1 Zeit: 90 Minuten, Maximale Punktzahl: 72 Zur

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

1.5 Erwartungswert und Varianz

1.5 Erwartungswert und Varianz Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:

Mehr