Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
|
|
- Carl Rosenberg
- vor 7 Jahren
- Abrufe
Transkript
1 Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27
2 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe Aufgabe 7 5 Aufgabe Aufgabe 5 7 Aufgabe Aufgabe Aufgabe 8 6 Aufgabe 9 7 Aufgabe 8 2 Aufgabe 9 Aufgabe Aufgabe 2 2
3 Information Dies sind Aufgaben und Lösungen zu den vom Lehrstuhl angebotenen Klausuraufgaben zur Vorlesung Einführung in die Stochastik für Informatiker (Cramer, Sommersemester 27). Wir übernehmen keinerlei Garantie für Richtigkeit und Vollständigkeit unserer Lösungen. Solltest Du einen Fehler bemerken, würden wir uns über eine Mail an oder freuen.
4 2 Aufgabe Für ein Würfelexperiment werden die (äußerlich ununterscheidbaren) Würfel W, W 2 und W verwendet. Mit p (j) i (i {,..., 6}, j {, 2, }) sei die Wahrscheinlichkeit bezeichnet, dass Würfel W j (nach einmaligem Wurf) genau i Augen zeigt. Würfel W ist fair. Es gilt also p () i = für i {,...6}. 6 Weiter ist bekannt, dass p (2) i = 4 für i {2,, 4, 5} sowie = für i {2,, 4, 5} und p() = p () 6 8. Spieler A wählt zufällig einen der Würfel aus, wobei jeder Würfel mit gleicher Wahrscheinlichkeit gewählt wird. Dann wirft er den gezogenen Würfel mal (in unabhängiger Folge). E i i {,..., }) sei das Ergebnis, dass der Spieler im i-ten Wurf eine Sechs wirft. p () i. Bestimmen Sie die Wahrscheinlichkeit für E. 2. Sind E und E 2 stochastisch unabhängig? Begründen Sie Ihre Entscheidung. (Hinweis: Sei W j (j {, 2, }) das Ergebnis, dass Spieler A den j-ten Würfel wählt. Dann gilt nach Vorraussetzung P (E E 2 W j ) = P (E W j ) P (E 2 W j ).). Wie wahrscheinlich ist es, dass Würfel ausgewählt wurde, falls E und E 2 eingetreten sind? 4. Nehmen Sie an, der Spieler hat Würfel ausgewählt. Lösung: a) Wie wahrscheinlich ist es, dass genau k (k {,..., }) Sechsen in den Zehn Würfen geworfen werden? b) Wie wahrscheinlich ist es, dass die erste Sechs im k-ten Wurfe (k {,..., }) geworfen wird?. Aus der Formel der totalen Wahrscheinlichkeit folgt: P (E ) = P (E W ) P (W ) + P (E W 2 ) P (W 2 ) + P (E W ) P (W ) 2. = = 5 6 P (E 2 ) = P (E ) = 5 6 4
5 Aus der Formel von der totalen Wahrscheinlichkeit folgt: P (E E 2 ) = P (E E 2 W ) P (W )+P (E E 2 W 2 ) P (W 2 )+P (E E 2 W ) P (W ) = = 42 P (E ) P (E 2 ) = Die Ereignisse E und E 2 sind stochastisch abhängig. Nach dem Satz von Bayes gilt: P (W E E 2 ) = P (W ) P (E E 2 W ) P (E E 2 ) = = 9 4. a) X: Anzahl der Sechsen in den Würfen P (X = k) = ( ) k ( ) k 6 b) Y: Auftreten der ersten Sechs in den Würfen P (Y = k) = ( ) 5 k 6 6 ( ) 5 k 6 5
6 Aufgabe 2 Seien X und X 2 stochastisch unabhängige Zufallsvariablen. X sei gleichverteilt auf der Menge {, 2, }, X 2 sei gleichverteilt auf der Menge {4, 5, 6}. (Es gilt also P (X = i) = P (X 2 = j) = für i {, 2, }, j {4, 5, 6}.) Weiterhin sei Z = 2X + 2X 2.. Geben Sie die Zähldichte von Y = X + X 2 an. 2. Berechnen Sie die Erwartungswerte von X, X 2 und Z.. Welchen Wert hat die Wahrscheinlichkeit P (Z = )? 4. Bestimmen Sie die Kovarianzen Cov(X, X 2 ) und Cov(X, Z). Lösung:. Da X und X 2 stochastisch unabhängig sind gilt nach der Methode der Faltung: 9, falls k {5, 9} 2 P (X + X 2 = k) = 9, falls k {6, 8}, falls k = 7, sonst 2. EX = ( ) = 2 EX 2 = ( ) = 5 EZ = 2EX + 2EX 2 E = 4 + =. P (Z = ) = P (2X + 2X 2 = ) = P (X + X 2 = 7) = 4. Weil X und X 2 stochastisch unabhängig sind, gilt nach Lemma C 5.6 (v): Cov(X, X 2 ) = Cov(X, Z) = E((X EX )(Z EZ)) = E((X 2)(Z 5)) = E(X Z 5X 2Z + ) = E(X Z) 5EX 2EZ + E = E(X Z) 26 = E(2X 2 + 2X 2 X X ) 26 = 2EX 2 8 EX 2 ist 2. zentrales Moment von X. Nach Satz C 5.6 gilt: Somit folgt: EX 2 = = 4 Cov(X, Z) = = 4 6
7 4 Aufgabe Seien X und Y stochastisch unabhängige (reellwertige) Zufallsvariablen mit Riemann- Dichten f X, f Y sowie Verteilungsfunktionen F X, F Y, wobei, falls z < F X (z) = cz, falls z < ce 6c(z ), falls z mit einer Konstanten c R und, falls z < F Y (z) = z, falls z <, falls z. Zeigen Sie, dass c = 2 gilt. 2. Geben Sie die Verteilungsfunktion des Zufallsvektors (X, Y ) explizit an.. Ermitteln Sie die Verteilungsfunktion des Maximums von X und Y. 4. Berechnen Sie die Wahrscheinlichkeiten P (X ( 2, 2]) sowie P (X 2, Y > 2). 5. Ermitteln Sie den Erwartungswert von X. Lösung:. F X ist stetig lim z F X (z) = F X () lim z cz = c c = c c = 2 2. Aus der stochastischen Unabhängigkeit von X und Y folgt: = F X,Y (x, y) = F X (x) F Y (y), falls x < y < 2 x y, falls x < y < ( 2 x, falls x < y 2 e (x )) y, falls x y < 2 e (x ), falls x y. F max(x,y ) (z) = P (X z Y z) = P (X z) P (Y z), falls z < = F X (z) F Y (z) = 6 z4, falls z < z 6 ze (z ), falls z < 2 e (z ), falls z 7
8 4. 5. P = ( ( ]) X 2, 2 ( 2 e (2 ) ) ( ) ( ) = P 2 < X 2 = F X (2) F X 2 ( ( ) ) 2 = e.926 P (X 2, Y > 2) = F X (2) ( F Y (2)) ( 2 e ) ( 2) = 6e.25 F X(z) = = lim a a = lim a E(X) =, falls z < 2 z2, falls z < 2 e (z ), falls z z 2 z2 dz + lim b [ 8 z4 ] a = 8 + lim b Mit partieller Integration ergibt sich: + lim b b z F X(z)dz b b z 2 e (z ) dz z 2 e (z ) dz z 2 e (z ) dz u(z) = 2 z u (z) = 2 b v (z) = e (z ) z 2 e (z ) dz = v(z) = e (z ) [ 2 ze (z ) ] b b 2 e (z ) dz = 2 be (b ) + [ 2 + ] b 6 e (z ) = 2 be (b ) 6 e (b ) E(X) = 8 + lim b 2 be (b ) }{{} = (2-fach L Hospital) = = lim b 6 e (b ) } {{ } =
9 5 Aufgabe 4 Seien n (, ) und X,..., X n stochastisch unabhängige N( a 2, a )-verteilte Zufallsvariablen. Betrachten Sie den durch ( ( ϑ n = n ) ) X + 2X i + X n n definierten Schätzer für a (, ). i=2. Zeigen Sie, dass ϑ n erwartungstreu für a (, ) ist. 2. Bestimmen Sie die Varianz von ϑ n.. Zeigen Sie (unter Zuhilfenahme der Tschebyscheff-Ungleichung), dass für alle ɛ > gilt. Lösung: lim P ( ϑ n a ɛ) = n. Damit ϑ n erwartungstreu ist, muss gelten: E ϑ ( ϑ n ) = a ( ) E ϑ ( ϑ n ) = i E(X ) + 2 E(X i ) + E(X n ) n i=2 ( ) = i a n a 2 + a = (n ) a = a 2 n i=2 ϑ n ist erwartungstreu. 2.. ( ( )) n V ar( ϑ n ) = V ar X + 2X i + X n n i=2 ( ) n = (n ) 2 V ar X + 2X i + X n i=2 ( ) n = (n ) 2 V ar(x ) + 4 V ar(x i ) + V ar(x n ) = i=2 (n ) 2 (a + 4(n 2)a + a ) (4n 6) = (n ) 2 a 9
10 6 Aufgabe 5 In den nächsten Semesterferien wird Herr P. eine Europareise mit den Stationen Paris, Rom und London unternehmen. Ein flexibles Flugticket erlaubt es ihm, spontan zu entscheiden, wann er den Flug in die nächste Stadt bzw. die Rückreise antritt. Die Gesamtreseidauer N und die Aufenthaltszeiten N, N 2 bzw. N in den Städten Paris, Rom bzw. London werden als Zufallsvariablen mit Werten in den natürlichen Zahlen modelliert, sodass N = N + N 2 + N gilt. Herr P. hat vor, jeweils vier oder fünf Tage in Paris und Rom zu bleiben, sowie fünf oder sechs Tage in London. Genauer gelte P (N = 5) = P (N = 6) = 2. Darüberhinaus sei die Aufenthaltsdauer N in London unabhängig vom Zufallsvektor (N, N 2 ). Die Zähldichte des Zufallsvektors (N, N 2 ) ist gemäß folgender Tabelle unvollständig gegeben: N N Σ 4 2 g 45 p 4 5 g 54 g 55 Σ r 4 r 5 (D.h.: P (N = 4, N 2 = 4) = 2, P (N = 5, N 2 = 4) = g 54 [, ], P (N 2 = 4) = r 4 [, ] etc.). Begründen Sie, dass die obige Tabelle unter der Vorraussetzung E(N 2 ) = 22 5 = 4, 4 folgendermaßen vervollständigt werden muss. N N Σ Σ 5 2. Sind N und N 2 stochastisch unabhängig? Begründen Sie Ihre Entscheidung.. Wie groß ist die Wahrscheinlichkeit, dass sich Herr P. vier Tage in Rom aufhält, wenn bekannt ist, dass er fünf Tage in Paris war? 4. Geben Sie die Zähldichte von N + N 2 an Welchen Wert hat die erwartete Gesamtreisedauer E(N)? 6. Wie groß ist die Wahrscheinlichkeit, dass die Dauer der gesamten Reise 4 Tage beträgt, wenn bekannt ist, dass Herr P. in Paris und Rom (zusammen) acht Tage verbracht hat?
11 Lösung:. p 4 = P (N = 4) = P (N = 5) = = 7 g 45 = P (N = 4, N 2 = 5) = P (N = 4) P (N = 4, N 2 = 4) = p 4 2 = 7 5 = 5 Weiter gilt: r 4 + r 5 = E(N 2 ) = 4r 4 + 5r 5 = 22 5 r 4 = r 5 E(N 2 ) = 4 ( r 5 ) + 5r 5 = 22 5 r 5 = 2 5 r 4 = 5 g 54 = P (N = 5, N 2 = 4) = r 4 2 = 5 2 = g 55 = r 5 5 = Es gilt: P (N = 4, N 2 = 4) = 2, P (N = 4) = 7, P (N 2 = 4) = 5 P (N = 4) P (N 2 = 4) = 7 5 = = P (N = 4, N 2 = 4) Die Zufallsvariablen N und N 2 sind stochastisch abhängig. Der Tabelle lässt sich entnehmen: P (N = 5, N 2 = 4) =. N (x) = { 7, für x = 4, für x = 5, N 2 (x) = N (x) + N 2 (x) = { 5, für x = 4 2 5, für x = 5 2, für x = 8, für x = 9 5, für x = E(N) = E(N + N 2 + N ) = E(N ) + E(N 2 ) + E(N ) = (N, N 2 ) und N sind stochastisch unabhängig = = 4.2 P (N = 6 (N = 4, N 2 = 4)) = P (N = 6) = 2
12 7 Aufgabe 6 Gegeben sei die Funktion f mit f(x) = { x 2, x [, ], sonst.. Weisen Sie nach, dass f Riemann-Dichte eines Wahrscheinlichkeitsmaßes P auf (R, B) ist. (B bezeichne hierbei die Borel-σ-Algebra über den reellen Zahlen.) 2. Geben Sie die zu f und P gehörende Verteilungsfunktion F an.. Sei X eine (auf einem Wahrscheinlichkeitsraum (Ω, F, P) definierte) reellwertige Zufallsvariable mit Wahrscheinlichkeitsverteilung P. Lösung: a) Ermitteln Sie für die Zufallsvariable Y = X + den Erwartungswert E(Y ) und die Verteilungsfunktion F Y. b) Wie groß ist die Wahrscheinlichkeit P Y ([, 2])?. f ist Riemann-Dichte genau dann, wenn f(x) x R f(x)dx = f(x) ist Riemann-Dichte f(x)dx = x 2 dx = [ x ] = 2. x f(x)dx = x F (x) = x 2 dx = [ x ] x = x, x < x, x [, ], x >. a) = E(Y ) = E(X + ) = E(X ) }{{}. (zentrales) Moment + [ ] x x 2 dx + = x 5 dx + = 2 x6 + = 2 2
13 Nach dem Transformationsatz für Dichtefunktionen (Satz C 4.2) gilt: { f Y (g (y) = ) (y) f X (g (y)), x [, 2], sonst, denn Y = g(x): [,] [,2] g (y) = y Somit folgt: (g ) (y) = (y ) 2 f Y (y) = (y ) 2 (y ) 2 = { f Y, x [, 2] (y) =, sonst F Y (y) = y dy = y, x < F Y (y) = y, x [, 2], sonst b) P Y ([, 2]) = F Y (2) =
14 8 Aufgabe 7 Sei f die Dichtefunktion eines Zufallsvektors (X, Y ) mit f(x, y) = { x e 2 x2 y, x, y, sonst. Zeigen Sie, dass die marginalen Dichten f X und f Y von X und Y gegeben sind durch: { f X x e 2 = x2, x, sonst { f Y e = y, y, sonst 2. Sind X und Y stochastisch unabhängig? Begründen Sie ihre Antwort.. Berechnen Sie den Erwartungswert von X. (Hinweis: Integrieren Sie partiell und beachten Sie, dass für die Dichtefunktion h der N(, )-Verteilung h(x)dx = gilt.) 4. Welche der folgenden Aussagen ist die korrekte Begründung für die Eigenschaft Cov(X, Y 2 ) =? Lösung: a) Mit X und Y sind auch X und Y 2 stochastisch unabhängig. Da aus stochastischer Unabhängigkeit die Unkorreliertheit folgt, gilt Cov(X, Y 2 ) =. b) Aus der Unabhängigkeit von X und Y folgt Cov(X, Y ) =. Eine Eigenschaft der Kovarianz liefert Cov(X, Y 2 ) = 2Cov(X, Y ), so dass Cov(X, Y 2 ) =. c) Es gilt Cov(X, Y ) =. Daraus folgt stets Cov(X, Y 2 ) =.. f X (x) = f X,Y (x, R) = = x e 2 x2 x e 2 x2 y dy = x e 2 x2 e y dy e y dy = lim x a e 2 x2 [ e y] a = lim x a e 2 x2 ( e a ) x e 2 x2 ( e ) = x e 2 x2 ( ) = x e 2 x2 f Y (y) = f X,Y (R, y) = = e y x e 2 x2 y dx = x e 2 x2 dx = lim a e y x e 2 x2 e y dx [ e 2 x2] a = lim a e y ( e 2 a2 ) e y ( e 2 2 ) = e y ( ) = e y 4
15 2. X und Y sind stochastisch unabhängig, denn es gilt: f(x, y) = f X f Y = x e 2 x2 e y = x e 2 x2 y, x, y. E(X) = Partielle Integration: x x e 2 x2 dx = b a x 2 e 2 x2 dx, da f X (x) = x < b u(x) v (x)dx = [u(x) v(x)] b a u (x) v(x)dx a Wähle: u(x) = x, u (x) =, v (x) = x e 2 x2, v(x) = e 2 x2 x x e 2 x2 dx = [x ( e 2 x2 )] = lim [x e x2] a 2 + a }{{} = (2 fach L Hospital) e 2 x2 = ( e 2 x2 )dx e 2 x2 = 2π e 2 x2 = 2π = 2π 2π }{{} = (N(,) Verteilung) 4. Antwort (a) ist nach Lemma C 5.6 (v) korrekt. 5
16 9 Aufgabe 8 Seien Y,..., Y n (n N) unabhängige, identisch verteilte Zufallsvariablen mit Dichte { g ϑ (y) = ϑ e y ϑ, y, sonst, wobei ϑ (, ). Weiter seien y,..., y n > Realisierungen von Y,..., Y n.. Für X Exp(λ), λ >, gilt E(X) = λ sowie V ar(x) = λ 2. Begründen Sie mit diesem Resultat die Aussagen: E ϑ (Y ) = ϑ, V ar ϑ (Y ) = ϑ 2. (E ϑ bzw. V ar ϑ bezeichnen hierbei den Erwartungswert bzw. die Varianz bei gegebener Dichte g ϑ, ϑ (, ).) 2. Bestimmen Sie die Likelihoodfunktion sowie die Log-Likelihoodfunktion für ϑ > bei gegebener Beobachtung y,..., y n >.. Ermitteln Sie die Maximum-Likelihoodschätzung ϑ n (y,..., y n ) für ϑ > bei gegebener Beobachtung y,..., y n > durch Maximieren der Log-Likelihoodfunktion. 4. Zeigen Sie, dass der Maximum-Likelihoodschätzer ϑ n (Y,..., Y n ) = n n i= Y i erwartungstreu für ϑ > ist sowie lim V ar ϑ( ϑ n (Y,..., Y n )) =, für alle ϑ >. n 6
17 Aufgabe 9 Seien a, b > und X, Y reellwertige Zufallsvariablen mit X N(, ) und Y = ax + b. Betrachten Sie folgende Aussagen:. Cov(X, Y ) =, 2. E(Y 2 ) = a 2 + b 2,. Y ist normalverteilt, 4. Y ist absolut stetig mit Dichte f Y, definiert durch f Y (x) = x R, 5. X + Y N(a + b, a 2 + ). Welche dieser Aussagen sind richtig? a) alle außer () b) alle außer (4) c) alle außer () und (5) d) genau () und (4) e) nur (2) 2πa exp( (x b)2 2a 2 ) für Lösung: Die Aussagen () und (5) sind falsch, die Aussagen (2) und () sind korrekt (c) ist die korrekte Antwort. Aussage () ist falsch, denn Y ist eine lineare Transformation von X und somit ist Cov(X, Y ) = ±. Aussage (5) ist falsch, denn nach Beispiel C 4. gilt: Aussage (2) ist korrekt, denn: X + Y = (a + )X + b X + Y N(b, a 2 + 2a + ) EY 2 = E(a 2 X 2 + 2abX + b 2 ) = a 2 EX 2 + b 2 EX 2 ist zweites zentrales Moment der N(,) Verteilung. Nach Beispiel C 6.9 (iii) gilt: Somit folgt für EY 2 : EX 2 = h () = e 2 t2 + t 2 e 2 t2 t= = EY 2 = a 2 + b 2 = a 2 + b 2 Aussage () ist korrekt, denn nach Beispiel C 6.9 ist Y als lineare Transformation einer normalverteilten Zufallsvariable wiederum nomalverteilt. 7
18 Aufgabe Die Zufallsvariablen X,..., X 4 seien unabhängig identisch verteilt mit Wahrscheinlichkeitsverteilung P µ, welche vom unbekannten Erwartungswert µ Θ = (, ) der X i abhängt. ϑ sei eine erwartungstreue Schätzfunktion für µ Θ. Betrachten Sie folgende Aussagen:. E µ ( ϑ) = µ für alle µ Θ, 2. E µ ( ϑ) = E µ (X ) für alle µ Θ,. E µ ( ϑ) = E µ (X X 2 X ) für alle µ Θ, 4. E 2 ( ϑ) = E 2 (X X 2 X 6), 5. E µ ( ϑ) = E µ ( 4 (X + X 2 + X + X 4 )) für alle µ Θ, (E µ bezeichne hierbei den Erwartungswert bei gegebener Verteilung P µ, µ Θ.) Welche dieser Aussagen sind richtig? a) alle b) alle außer () c) alle außer () und (4) d) alle außer (4) und (5) e) nur () 8
19 2 Aufgabe In einem Wahrscheinlichkeitsraum (Ω, F, P ) seien von den Ereignissen A, B, C F folgende Wahrscheinlichkeiten bekannt: P (A) = 2 5 Welche der nachstehenden Aussagen ist richtig?. P (B) = 4, P (A B) =, P (B C) = 2 2, P (B \ C) = 5 und P (A B) =, 2. P (B) = 4 und P (A B) = 6 5,. P (B) = 4 4. P (B) = 2 5. P (B) = 2 Lösung: und P (A B) = 2, und P (A B) = 2, und P (A B) = 9 2. P (B \ C) = P (B) P (B C) 5 = P (B) 2 P (B) = 4 Nach Siebformel gilt: P (A B) = P (A) + P (B) P (A B) 2 = P (A B) P (A B) = 4 Also ist Antwort () korrekt. 9
20 Aufgabe 2 Seien a, a 2 R, v, v 2 > und X, X 2 reellwertige Zufallsvariablen mit X i N(a i, v i ) (i, 2). Betrachten Sie folgende Aussagen:. Cov(X, X 2 ) =, 2. E(X + 2X 2 ) = a + 2a 2,. E(X X 2 ) = a a 2, 4. V ar(x + X 2 ) = v + v 2, 5. V ar(2x + X 2 ) = 4v + v 2. Welche dieser Aussagen können aus den obigen Vorraussetzungen gefolgert werden? a) nur (2), b) genau () und (2), c) alle außer (), () und (4), d) alle außer () und (5), e) alle außer (4). Lösung: Die Aussagen (), (), (4) und (5) sind falsch (a) ist die korrekte Antwort. Aussage () ist falsch, denn im Allgemeinen gilt nicht, dass Cov(X, X 2 ) =, da nicht bekannt ist ob X und X 2 stochastisch unabhängig sind. Aussage () ist falsch, da der Multiplkationssatz (C 5.9) nur für stochastisch unabängige Zufallsvariablen gilt. Aussage (4) ist falsch, denn nach Lemma C 5.5 gilt: V ar(x + X 2 ) = V ar(x ) + V ar(x 2 ) + 2 Cov(X, X 2 ) = 9 V ar(x ) + 9 V ar(x 2 ) + 8 Cov(X, X 2 ) = 9v + 9v Cov(X, X 2 ) Dies ist im Allgemeinen nicht v + v 2. Aussage (5) ist falsch, denn nach Lemma C 5.5 gilt: V ar(2x + X 2 ) = V ar(2x ) + V ar(x 2 ) + 2Cov(2X, X 2 ) = 4 V ar(x ) + V ar(x 2 ) + 4 Cov(X, X 2 ) = 4v + v Cov(X, X 2 ) Somit ist V ar(2x + X 2 ) = 4v + v 2 genau dann, wenn Cov(X, X 2 ) =. Weil nicht bekannt ist ob X und X 2 unkorreliert sind, gilt Aussage (5) im Allgemeinen nicht. 2
21 4 Aufgabe X,..., X n (n N) seien diskrete, identisch verteilte Zufallsvariablen, deren Zähldichte von einem unbekannten Parameter c R abhängt. x,..., x n seien Realisierungen von X,..., X n. Mit der Maximum-Likelihood-Methode wurde eine Schätzfunktion ϑ sowie ein Schätzwert ĉ = ϑ(x,..., x n ) für c ermittelt. Betrachten Sie folgende Aussagen:. Pĉ(X = x,..., X n = x n ) P c (X = x,..., X n = x n ) für alle c R, 2. ϑ = n n i= X i,. Eĉ( ϑ) E c ( ϑ) für alle c R, 4. Eĉ( ϑ) Eĉ(X i ) für alle i {,..., n}, 5. ĉ c für alle c R. Welche dieser Aussagen können stets gefolgert werden? nur (), nur (4), genau () und (4), genau (), (2) und (), alle. 2
13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Review)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel
MehrTU DORTMUND Sommersemester 2018
Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
Mehr0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5
4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrZusatzmaterial zur Vorlesung Statistik II
Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrWahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom
Institut für Stochastik WS 009/10 Karlsruher Institut für Technologie (KIT) Dr. B. Klar Klausur Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom 08.0.010 Musterlösungen Aufgabe
MehrProf. Dr. R. Mathar RWTH Aachen, SS 2002 Daniel Catrein Abgabe: bis 15:45 Uhr. 1. Übung zur Einführung in die Stochastik für Informatiker
Daniel Catrein Abgabe: 02.05.02 1. Übung zur Einführung in die Stochastik für Informatiker Aufgabe 1 Bei einem Kartenspiel mit 52 Karten werden an jeden der vier Spieler (A, B, C und D) 13 Karten ausgegeben.
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrWeihnachtsaufgaben. a) Welche Urnenmodelle gibt es? Stelle zu jedem Modell ein konkretes Beispiel auf, welches durch dieses Modell beschrieben wird.
Weihnachtsaufgaben Diese Aufgaben dienen dazu die in der Vorlesung und den Übungen eingeführten Begriffe zu verstehen und zu vertiefen, die Bearbeitung ist freiwillig Das Blatt wurde von den Übungsleitern
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrWahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19
Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert
MehrStatistik II für Wirtschaftswissenschaftler
Fachbereich Mathematik 20.04.2017 Dr. Hefter & Dr. Herzwurm Übungsblatt 0 Keine Abgabe. Gegeben seien die Mengen A 1 =, A 2 = {1}, A 3 = {1, 1}, A 4 = {1, 3}, A 5 = {1, 2, 4}, A 6 = {1, 2, 3, 4}. a) Bestimmen
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrKlausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK
Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrKlausur Stochastik und Statistik 31. Juli 2012
Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf
MehrÜbungsblatt 9 (25. bis 29. Juni)
Statistik 2 Dr. Andrea Beccarini Dipl.-Vw. Dipl.-Kffr. Heike Bornewasser-Hermes Sommersemester 2012 Übungsblatt 9 (25. bis 29. Juni) Stetiges Verteilungsmodell und Gemeinsame Verteilung Stetiges Verteilungsmodell
MehrBeispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal
Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.
MehrAufgabe Punkte
Institut für Mathematik Freie Universität Berlin Carsten Hartmann, Stefanie Winkelmann Musterlösung für die Nachklausur zur Vorlesung Stochastik I im WiSe 20/202 Name: Matr.-Nr.: Studiengang: Mathematik
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrModellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
MehrUniversität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt
Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert
MehrLösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrBeispiel 6 (Einige Aufgaben zur Gleichverteilung)
Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß
MehrK8 Stetige Zufallsvariablen Theorie und Praxis
K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R
MehrSuffizienz und Vollständigkeit
KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrKapitel 12 Erwartungswert und Varianz
Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen
MehrZusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen
Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k
MehrInstitut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess
Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Name: Vorname: Matrikelnummer: Lösungsvorschlag zur Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik (Stochastik) Datum: 07.
MehrStetige Verteilungen Rechteckverteilung
Stetige Verteilungen Rechteckverteilung Die Längenabweichungen X produzierter Werkstücke von der Norm seien gleichmäßig verteilt zwischen a = mm und b = 4mm. Die Dichtefunktion lautet also f(x) = für a
MehrKapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
MehrKlausur zur Vorlesung Stochastik II
Institut für Stochastik WS 007/008 Universität Karlsruhe. 0. 008 r. B. Klar Klausur zur Vorlesung Stochastik II Muster-Lösung auer: 90 Minuten Name: Vorname: Matrikelnummer: iese Klausur hat bestanden,
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
MehrÜbungsscheinklausur,
Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...
MehrÜbung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit
Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung
MehrInstitut für Stochastik, SoSe K L A U S U R , 13:
Institut für Stochastik, SoSe 2014 Mathematische Statistik Paravicini/Heusel 1. K L A U S U R 12.7.2014, 13:00-16.00 Name: Geburtsdatum: Vorname: Matrikelnummer: Übungsgruppe bei: Studiengang & angestrebter
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrMathematik für Naturwissenschaften, Teil 2
Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
MehrAllgemeine Wahrscheinlichkeitsräume
Kapitel 3 Allgemeine Wahrscheinlichkeitsräume 3. Einleitung Wir hatten schon bemerkt, dass der Begriff des diskreten Wahrscheinlichkeitsraums nicht ausreicht, um das unendliche Wiederholen eines Zufallsexperiments
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrHauptklausur zur Stochastik für Lehramt
Universität Duisburg-Essen Essen, den 20.02.203 Fakultät für Mathematik Dr. Daniel Herden Dipl.-Inf. Christian Thiel Matthias aus der Wiesche Hauptklausur zur Stochastik für Lehramt Bearbeitungszeit: mind.
MehrKlausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik
Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen
MehrProbeklausur Statistik II
Prof. Dr. Chr. Müller PROBE-KLAUSUR 1 1 2 3 4 5 6 7 8 Gesamt: 15 8 16 16 7 8 15 15 100 Probeklausur Statistik II Name: Vorname: Fachrichtung: Matrikel-Nummer: Bitte beachten Sie folgendes: 1) Die Klausur
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
MehrScheinklausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:
MehrFinanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
MehrKlausur vom
UNIVERSITÄT KOBLENZ LANDAU INSTITUT FÜR MATHEMATIK Dr. Dominik Faas Stochastik Wintersemester 00/0 Klausur vom 09.06.0 Aufgabe (++4=9 Punkte) Bei einer Umfrage wurden n Personen befragt, an wievielen Tagen
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrWahrscheinlichkeit und Statistik BSc D-INFK
Prof. Dr. P. Bühlmann ETH Zürich Winter 2010 Wahrscheinlichkeit und Statistik BSc D-INFK 1. (10 Punkte) Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete
MehrWirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2012/13
Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2012/13 Aufgabenstellung und Ergebnisse Dr. Martin Becker Hinweise für die
Mehr1 Verteilungsfunktionen, Zufallsvariable etc.
4. Test M3 ET 27 6.6.27 4. Dezember 27 Regelung für den.ten Übungstest:. Wer bei den Professoren Dirschmid, Blümlinger, Vogl oder Langer die UE aus Mathematik 2 gemacht hat, sollte dort die WTH und Statistik
MehrKapitel 8: Zufallsvektoren
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und
MehrMotivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Statistik Dr. Thomas Zehrt Ausblick Motivation Wir werfen einen Würfel 000-mal und wir möchten die Wahrscheinlichkeit P bestimmen, dass zwischen
MehrDie Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten
Die Funktion f ;Y (x; y) := Pr[ = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen und Y. Aus der gemeinsamen Dichte f ;Y kann man ableiten f (x) = y2w Y f ;Y (x; y) bzw. f Y (y) = Die Funktionen
MehrÜbungsblatt 9. f(x) = e x, für 0 x
Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable
Mehr67 Zufallsvariable, Erwartungswert, Varianz
67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrTeil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung
Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()
MehrParameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),
Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
MehrAufgabenstellung und Ergebnisse zur. Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2015/16. Dr.
Aufgabenstellung und Ergebnisse zur Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 205/6 Dr. Martin Becker Hinweise für die Klausurteilnehmer ˆ Die Klausur besteht
MehrD-ITET Wahrscheinlichkeitstheorie und Statistik FS 2017 Prof. P. Nolin. Serie 11
D-ITET Wahrscheinlichkeitstheorie und Statistik FS 2017 Prof. P. Nolin Serie 11 1. Frau A und Herr B wollen sich treffen und verabreden sich für 16 Uhr in einem Café. Mit T A bzw. T B bezeichnen wir die
MehrKapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen
Kapitel 6 Verteilungsparameter Wie bei einem Merkmal wollen wir nun die Lage und die Streuung der Verteilung einer diskreten Zufallsvariablen durch geeignete Maßzahlen beschreiben. Beginnen wir mit Maßzahlen
Mehr10 Transformation von Zufallsvariablen
10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :
MehrWiederholungsklausur DWT
LÖSUNG Wiederholungsklausur DWT Sommersemester 2008 Hinweis: Alle Antworten sind zu begründen. Insbesondere sollte bei nicht-trivialen Umformungen kurz angegeben werden, weshalb diese Umformungen erlaubt
MehrMathematik 2 Probeprüfung 1
WWZ Wirtschaftswissenschaftliche Fakultät der Universität Basel Dr. Thomas Zehrt Bitte in Druckbuchstaben ausfüllen: Name Vorname Mathematik 2 Probeprüfung 1 Zeit: 90 Minuten, Maximale Punktzahl: 72 Zur
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
Mehr1.5 Erwartungswert und Varianz
Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:
Mehr