8 Zufallsvariablen und Verteilungen. Themen: Zufallsvariablen Verteilungen Gesetz der großen Zahlen

Größe: px
Ab Seite anzeigen:

Download "8 Zufallsvariablen und Verteilungen. Themen: Zufallsvariablen Verteilungen Gesetz der großen Zahlen"

Transkript

1 8 Zufallsvariablen und Verteilungen Themen: Zufallsvariablen Verteilungen Gesetz der großen Zahlen

2 8.1 Zufallsvariablen (Ω, P) = Wahrscheinlichkeitsraum. X : Ω Ê heißt Zufallsvariable.

3 8.1 Zufallsvariablen (Ω, P) = Wahrscheinlichkeitsraum. X : Ω Ê heißt Zufallsvariable. Schreibe X = x für {ω Ω : X(ω) = x}.

4 8.1 Zufallsvariablen (Ω, P) = Wahrscheinlichkeitsraum. X : Ω Ê heißt Zufallsvariable. Schreibe X = x für {ω Ω : X(ω) = x}. Der Wertebereich von X ist eine höchstens abzählbare Menge V X Ê, V X = {v 1, v 2...}.

5 8.1 Zufallsvariablen (Ω, P) = Wahrscheinlichkeitsraum. X : Ω Ê heißt Zufallsvariable. Schreibe X = x für {ω Ω : X(ω) = x}. Der Wertebereich von X ist eine höchstens abzählbare Menge V X Ê, V X = {v 1, v 2...}. Setze p n = P X (v n ) = P(X = v n )

6 Verteilung p n = P X (v n ) = P(X = v n ) Es gilt damit p n 0 und n p n = 1.

7 Verteilung p n = P X (v n ) = P(X = v n ) Es gilt damit p n 0 und n p n = 1. Damit ist (V X, P X ) ein Wahrscheinlichkeitsraum, der Verteilung der Zufallsvariablen X genannt wird.

8 Beispiel Würfle zweimal, X ist die Summe der dabei erzielten Augen.

9 Beispiel Würfle zweimal, X ist die Summe der dabei erzielten Augen. Grundraum sind hier die geordneten Paare Ω = {(m, n) : 1 m, n 6}, p(m, n) = 1 36.

10 Beispiel Würfle zweimal, X ist die Summe der dabei erzielten Augen. Grundraum sind hier die geordneten Paare Ω = {(m, n) : 1 m, n 6}, p(m, n) = X(m, n) = m+n V X = {2,...,12}. Die Bestimmung der p n ist eine einfache Abzählaufgabe: v n p n

11 Unabhängige Zufallsvariablen Zwei Zufallsvariablen über Ω heißen unabhängig, wenn für alle x und y P(X = y und Y = y) = P(X = x) P(Y = y).

12 Unabhängige Zufallsvariablen Zwei Zufallsvariablen über Ω heißen unabhängig, wenn für alle x und y P(X = y und Y = y) = P(X = x) P(Y = y). Im obigen Beispiel sind unabhängig voneinander. X(m, n) = m, Y(m, n) = n

13 Unabhängige Zufallsvariablen Zwei Zufallsvariablen über Ω heißen unabhängig, wenn für alle x und y P(X = y und Y = y) = P(X = x) P(Y = y). Im obigen Beispiel sind unabhängig voneinander. X(m, n) = m, Y(m, n) = n Dagegen gilt für X(m, n) = m+n und Y(m, n) = mn P(X = 2) = 1 36, P(Y = 1) = 1 36, P(X = 2 und Y = 1) = 1 36.

14 Erwartungswert Der Erwartungswert einer Zufallsvariablen X ist EX = ω Ω X(ω)P(ω).

15 Erwartungswert Der Erwartungswert einer Zufallsvariablen X ist EX = ω Ω X(ω)P(ω). Ist Ω abzählbar unendlich, so ist der Erwartungswert nur dann definiert, wenn die Summe absolut konvergiert, X(ω) P(ω) <. ω Ω

16 Erwartungswert Der Erwartungswert einer Zufallsvariablen X ist EX = ω Ω X(ω)P(ω). Ist Ω abzählbar unendlich, so ist der Erwartungswert nur dann definiert, wenn die Summe absolut konvergiert, X(ω) P(ω) <. ω Ω Nur in diesem Fall ist der Erwartungswert unabhängig von der Reihenfolge der Summanden.

17 Beispiel Werfe eine Münze mit gleichverteilten Ausgängen K und Z und erhalte bei K = 1 Einheit bei Z = 0 Einheiten.

18 Beispiel Werfe eine Münze mit gleichverteilten Ausgängen K und Z und erhalte bei K = 1 Einheit bei Z = 0 Einheiten. Modelliere dies durch die Zufallsvariable X mit X(K) = 1 und X(Z) = 0

19 Beispiel Werfe eine Münze mit gleichverteilten Ausgängen K und Z und erhalte bei K = 1 Einheit bei Z = 0 Einheiten. Modelliere dies durch die Zufallsvariable X mit X(K) = 1 und X(Z) = 0 EX = 1 2.

20 Beispiel Werfe eine Münze mit gleichverteilten Ausgängen K und Z und erhalte bei K = 1 Einheit bei Z = 0 Einheiten. Modelliere dies durch die Zufallsvariable X mit X(K) = 1 und X(Z) = 0 EX = 1 2. Der Erwartungswert wird daher auch Mittelwert genannt.

21 Erwartungswert und Verteilung Für den Erwartungswert gilt EX = ω Ω X(ω)P(ω) = x V X x P(X = x).

22 Erwartungswert und Verteilung Für den Erwartungswert gilt EX = ω Ω X(ω)P(ω) = x V X x P(X = x). Der Erwartungswert ist bereits durch die Verteilung bestimmt.

23 Regeln für den Erwartungswert Für Zufallsvariablen X und Y sind die normalen Operationen wie bei Funktionen sonst auch definiert.

24 Regeln für den Erwartungswert Für Zufallsvariablen X und Y sind die normalen Operationen wie bei Funktionen sonst auch definiert. Satz Sind X, Y Zufallsvariablen und α Ê, so gilt: (a) E(X + Y) = EX + EY. (b) E(αX) = αex.

25 Regeln für den Erwartungswert Für Zufallsvariablen X und Y sind die normalen Operationen wie bei Funktionen sonst auch definiert. Satz Sind X, Y Zufallsvariablen und α Ê, so gilt: (a) E(X + Y) = EX + EY. (b) E(αX) = αex. (c) E(XY) = EX EY falls X, Y unabhängig sind.

26 Beweis (a),(b) Es gilt E(X + Y) = ω Ω( X(ω)+Y(ω) ) P(ω) = EX + EY. Ganz analog erhalten wir (b).

27 Beweis (b) Verwende EX = ω Ω X(ω)P(ω) = x V X x P(X = x).

28 Beweis (b) Verwende EX = ω Ω X(ω)P(ω) = x V X x P(X = x). Damit E(XY) = X(ω)Y(ω) P(ω) ω Ω = x V X, y V Y xy P(X = x und Y = y)

29 Beweis (b) Verwende EX = ω Ω X(ω)P(ω) = x V X x P(X = x). Damit E(XY) = X(ω)Y(ω) P(ω) ω Ω = xy P(X = x und Y = y) x V X, y V Y = xy P(X = x)p(y = y) x V X, y V Y = x P(X = x) y P(Y = y) = E(X)E(Y). x V X y V Y

30 8.2 Produkte von Wahrscheinlichkeitsräumen und Verteilungen von Produktexperimenten Beim mehrmaligen Werfen einer Münze oder eines Würfels entsteht in natürlicher Weise ein kartesisches Produkt von Wahrscheinlichkeitsräumen.

31 8.2 Produkte von Wahrscheinlichkeitsräumen und Verteilungen von Produktexperimenten Beim mehrmaligen Werfen einer Münze oder eines Würfels entsteht in natürlicher Weise ein kartesisches Produkt von Wahrscheinlichkeitsräumen. Wir können dies präzisieren, indem wir annehmen, dass Wahrscheinlichkeitsräume bereits vorgegeben sind. (Ω 1, P 1 ),...,(Ω n, P n )

32 Produktexperimente Auf Ω = Ω 1... Ω n = { ω Ω : ω = (ω 1,...,ω n ), ω i Ω i }

33 Produktexperimente Auf Ω = Ω 1... Ω n = { ω Ω : ω = (ω 1,...,ω n ), ω i Ω i } definieren wir n P(ω) = P i (ω i ). i=1

34 Produktexperimente Auf Ω = Ω 1... Ω n = { ω Ω : ω = (ω 1,...,ω n ), ω i Ω i } definieren wir P(ω) = n P i (ω i ). P ist ein Wahrscheinlichkeitsmaß auf Ω, das Produktmaß genannt wird. i=1

35 Produktexperimente Auf Ω = Ω 1... Ω n = { ω Ω : ω = (ω 1,...,ω n ), ω i Ω i } definieren wir P(ω) = n P i (ω i ). P ist ein Wahrscheinlichkeitsmaß auf Ω, das Produktmaß genannt wird. Ist so gilt i=1 A = n i=1a i, A i Ω i, P(A) = n P i (A i ). i=1

36 Abhängigkeit von Indexmengen Sei I = {1,...,n }. Wir sagen, ein Ereignis A Ω hängt nur von I ab, wenn A = A n i=n +1 Ω i, A n i=1ω i.

37 Abhängigkeit von Indexmengen Sei I = {1,...,n }. Wir sagen, ein Ereignis A Ω hängt nur von I ab, wenn A = A n i=n +1 Ω i, A n i=1ω i. Analog sind von I abhängige Mengen für I I definiert.

38 Ein Unabhängigkeitssatz Satz I 1,...I m sei eine disjunkte Zerlegung von I = {1,...,n}, A i sind Ereignisse in Ω, die nur von I i abhängen. Dann sind die Ereignisse A 1,...,A m unabhängig in Ω.

39 Bernoulli-Experiment Führe ein Einzelexperiment mit den beiden Ausgängen Ω i = {0, 1} n-mal durch.

40 Bernoulli-Experiment Führe ein Einzelexperiment mit den beiden Ausgängen Ω i = {0, 1} n-mal durch. P i (1) = p, P i (0) = 1 p, seien unabhängig von n.

41 Bernoulli-Experiment Führe ein Einzelexperiment mit den beiden Ausgängen Ω i = {0, 1} n-mal durch. P i (1) = p, P i (0) = 1 p, seien unabhängig von n. Der zugrunde liegende Produktraum ist dann Ω = {0, 1} n = { (ω 1,...,ω n ) : ω i {0, 1}, 1 i n }.

42 Bernoulli-Experiment Führe ein Einzelexperiment mit den beiden Ausgängen Ω i = {0, 1} n-mal durch. P i (1) = p, P i (0) = 1 p, seien unabhängig von n. Der zugrunde liegende Produktraum ist dann Ω = {0, 1} n = { (ω 1,...,ω n ) : ω i {0, 1}, 1 i n }. Man bezeichnet jede erscheinende 1 in ω als Erfolg.

43 Bernoulli-Experiment Führe ein Einzelexperiment mit den beiden Ausgängen Ω i = {0, 1} n-mal durch. P i (1) = p, P i (0) = 1 p, seien unabhängig von n. Der zugrunde liegende Produktraum ist dann Ω = {0, 1} n = { (ω 1,...,ω n ) : ω i {0, 1}, 1 i n }. Man bezeichnet jede erscheinende 1 in ω als Erfolg. Gibt es k Einsen in ω = (ω 1,...,ω n ), so P(ω) = p k (1 p) n k.

44 Bernoulli-Experiment Führe ein Einzelexperiment mit den beiden Ausgängen Ω i = {0, 1} n-mal durch. P i (1) = p, P i (0) = 1 p, seien unabhängig von n. Der zugrunde liegende Produktraum ist dann Ω = {0, 1} n = { (ω 1,...,ω n ) : ω i {0, 1}, 1 i n }. Man bezeichnet jede erscheinende 1 in ω als Erfolg. Gibt es k Einsen in ω = (ω 1,...,ω n ), so P(ω) = p k (1 p) n k. Man nennt dieses Experiment Bernoulli-Experiment mit Erfolgswahrscheinlichkeit p.

45 Die Binomialverteilung E k = In n Versuchen erscheinen insgesamt k Einsen.

46 Die Binomialverteilung E k = In n Versuchen erscheinen insgesamt k Einsen. E k = { ω Ω : n ω i = k }. i=1

47 Die Binomialverteilung E k = In n Versuchen erscheinen insgesamt k Einsen. E k = { ω Ω : n ω i = k }. E k ist die Zahl der k-elementigen Teilmengen einer n-elementigen Menge, also ( n ) E k =. k i=1

48 Die Binomialverteilung E k = In n Versuchen erscheinen insgesamt k Einsen. E k = { ω Ω : n ω i = k }. E k ist die Zahl der k-elementigen Teilmengen einer n-elementigen Menge, also ( n ) E k =. k i=1 ( n P(E k ) = b n,p (k) = k ) p k (1 p) n k, 0 k n.

49 Die Binomialverteilung ( n P(E k ) = b n,p (k) = k ) p k (1 p) n k, 0 k n. Die E k bilden eine disjunkte Zerlegung von Ω, b n,p (k) = 1. k

50 Die Binomialverteilung ( n P(E k ) = b n,p (k) = k ) p k (1 p) n k, 0 k n. Die E k bilden eine disjunkte Zerlegung von Ω, b n,p (k) = 1. k Die b n,p (k) liefern daher eine Wahrscheinlichkeitsverteilung auf {0, 1,...,n}, die Binomialverteilung oder b n,p -Verteilung genannt wird.

51 Die Binomialverteilung ( n P(E k ) = b n,p (k) = k ) p k (1 p) n k, 0 k n. Die E k bilden eine disjunkte Zerlegung von Ω, b n,p (k) = 1. k Die b n,p (k) liefern daher eine Wahrscheinlichkeitsverteilung auf {0, 1,...,n}, die Binomialverteilung oder b n,p -Verteilung genannt wird. Binomialverteilung, weil es die Verteilung der Zufallsvariablen S : {0, 1} n Ê, S(ω) = n i=1 ω i ist.

52 Beispiel p = 0, 515 = Wahrscheinlichkeit für die Geburt eines Jungen.

53 Beispiel p = 0, 515 = Wahrscheinlichkeit für die Geburt eines Jungen. Die Geburten sind voneinander unabhängig. Wahrscheinlichkeit, dass es in einer Familie mit vier Kindern zwei Jungen und zwei Mädchen gibt, ist ( 4 2 ) p 2 (1 p)

54 Die Multinomialverteilung Führe ein Einzelexperiment mit den r Ausgängen Ω i = {1,...,r} n-mal durch.

55 Die Multinomialverteilung Führe ein Einzelexperiment mit den r Ausgängen Ω i = {1,...,r} n-mal durch. P i (i) = p i, seien unabhängig von n, r i=1 p i = 1.

56 Die Multinomialverteilung Führe ein Einzelexperiment mit den r Ausgängen Ω i = {1,...,r} n-mal durch. P i (i) = p i, seien unabhängig von n, r i=1 p i = 1. Der zugrunde liegende Produktraum ist dann Ω = {1,...,r} n

57 Die Multinomialverteilung Führe ein Einzelexperiment mit den r Ausgängen Ω i = {1,...,r} n-mal durch. P i (i) = p i, seien unabhängig von n, r i=1 p i = 1. Der zugrunde liegende Produktraum ist dann Ω = {1,...,r} n Die Wahrscheinlichkeit, in den n Teilversuchen k 1 mal das Ergebnis 1, k 2 mal das Ergebnis 2,..., k r mal das Ergebnis r zu bekommen, ist dann ( n ) p k 1 1 k 1,...,k...pkr r r mit dem Multinomialkoeffizienten ( n ) n! = k 1,...,k r k 1! k r!.

58 Die geometrische Verteilung Betrachten ein Zufallsexperimment mit Ausgängen {0, 1} und P(1) = p (wie bei der Binomialverteilung).

59 Die geometrische Verteilung Betrachten ein Zufallsexperimment mit Ausgängen {0, 1} und P(1) = p (wie bei der Binomialverteilung). Die Wahrscheinlichkeit, im k-ten Experiment zum ersten Mal eine 1 zu bekommen, ist dann p (1 p) k 1 = pq k 1.

60 Die geometrische Verteilung Betrachten ein Zufallsexperimment mit Ausgängen {0, 1} und P(1) = p (wie bei der Binomialverteilung). Die Wahrscheinlichkeit, im k-ten Experiment zum ersten Mal eine 1 zu bekommen, ist dann p (1 p) k 1 = pq k 1. k=1 pq k 1 = p 1 q = 1

61 Die geometrische Verteilung Betrachten ein Zufallsexperimment mit Ausgängen {0, 1} und P(1) = p (wie bei der Binomialverteilung). Die Wahrscheinlichkeit, im k-ten Experiment zum ersten Mal eine 1 zu bekommen, ist dann p (1 p) k 1 = pq k 1. k=1 pq k 1 = p 1 q = 1 Erhalte Wahrscheinlichkeitsverteilung P(k) = pq k 1 auf Ω = {1, 2,...}.

62 Die geometrische Verteilung Betrachten ein Zufallsexperimment mit Ausgängen {0, 1} und P(1) = p (wie bei der Binomialverteilung). Die Wahrscheinlichkeit, im k-ten Experiment zum ersten Mal eine 1 zu bekommen, ist dann p (1 p) k 1 = pq k 1. k=1 pq k 1 = p 1 q = 1 Erhalte Wahrscheinlichkeitsverteilung P(k) = pq k 1 auf Ω = {1, 2,...}. Dies ist die geometrische Verteilung. Dies ist gleichzeitig ein Beispiel für einen Wahrscheinlichkeitsraum mit abzählbar unendlicher Grundmenge Ω.

63 8.3 Momente von Zufallsvariablen Schreibe für A V X P(X A) statt P({ω : X(ω) A}).

64 8.3 Momente von Zufallsvariablen Schreibe für A V X P(X A) statt P({ω : X(ω) A}). Dann P(X A) = x A P X (x).

65 8.3 Momente von Zufallsvariablen Schreibe für A V X P(X A) statt P({ω : X(ω) A}). Dann P(X A) = x A P X (x). Um Wahrscheinlichkeiten für Ereignisse in V X zu bestimmen, reicht demnach die Verteilung von X aus.

66 8.3 Momente von Zufallsvariablen Habe nun mehrere Zufallsvariablen X 1,...,X n, und bestimme P(X 1 A 1,...,X n A n ) = P({ω : X 1 (ω) A 1,...,X n (ω) A n }).

67 8.3 Momente von Zufallsvariablen Habe nun mehrere Zufallsvariablen X 1,...,X n, und bestimme P(X 1 A 1,...,X n A n ) = P({ω : X 1 (ω) A 1,...,X n (ω) A n }). Die Kenntnis der einzelnen Verteilungen der X i genügt nicht.

68 8.3 Momente von Zufallsvariablen Habe nun mehrere Zufallsvariablen X 1,...,X n, und bestimme P(X 1 A 1,...,X n A n ) = P({ω : X 1 (ω) A 1,...,X n (ω) A n }). Die Kenntnis der einzelnen Verteilungen der X i genügt nicht. Wir fassen die Wertebereiche V Xi durch zusammen und setzen V X = V X1... V Xn X = (X 1,...,X n ).

69 8.3 Momente von Zufallsvariablen Habe nun mehrere Zufallsvariablen X 1,...,X n, und bestimme P(X 1 A 1,...,X n A n ) = P({ω : X 1 (ω) A 1,...,X n (ω) A n }). Die Kenntnis der einzelnen Verteilungen der X i genügt nicht. Wir fassen die Wertebereiche V Xi durch zusammen und setzen V X = V X1... V Xn X = (X 1,...,X n ). P(X 1 = x 1,...,X n = x n ) heißt gemeinsame Verteilung der X i.

70 Beispiel Drei Schützen treffen eine Scheibe mit Wahrscheinlichkeit 1/2, 2/3, 3/4.

71 Beispiel Drei Schützen treffen eine Scheibe mit Wahrscheinlichkeit 1/2, 2/3, 3/4. Nachdem jeder einmal geschossen hat, werden zwei Treffer gezählt. Man bestimme die Wahrscheinlichkeiten p i dafür, dass der i-te Schütze nicht getroffen hat.

72 Beispiel Drei Schützen treffen eine Scheibe mit Wahrscheinlichkeit 1/2, 2/3, 3/4. Nachdem jeder einmal geschossen hat, werden zwei Treffer gezählt. Man bestimme die Wahrscheinlichkeiten p i dafür, dass der i-te Schütze nicht getroffen hat. Ω = {0, 1} 3, X i (ω) = ω i, wobei 1 für einen Treffer gesetzt wird.

73 Beispiel Drei Schützen treffen eine Scheibe mit Wahrscheinlichkeit 1/2, 2/3, 3/4. Nachdem jeder einmal geschossen hat, werden zwei Treffer gezählt. Man bestimme die Wahrscheinlichkeiten p i dafür, dass der i-te Schütze nicht getroffen hat. Ω = {0, 1} 3, X i (ω) = ω i, wobei 1 für einen Treffer gesetzt wird. Es ist p i = P(X 1 + X 2 + X 3 = 2, X i = 0) zu bestimmen.

74 Beispiel P(X 1 = 1) = 1 2, P(X 2 = 1) = 2 3, P(X 3 = 1) = 3 4 p i = P(X 1 + X 2 + X 3 = 2, X i = 0)

75 Beispiel P(X 1 = 1) = 1 2, P(X 2 = 1) = 2 3, P(X 3 = 1) = 3 4 p i = P(X 1 + X 2 + X 3 = 2, X i = 0) Benötige einen Teil der gemeinsamen Verteilung der drei Zufallsvariablen: P(X 1 = 0, X 2 = 1, X 3 = 1) = = 1 4 P(X 1 = 1, X 2 = 0, X 3 = 1) = = 1 8 P(X 1 = 1, X 2 = 1, X 3 = 0) = = 1 12.

76 Beispiel P(X 1 = 1) = 1 2, P(X 2 = 1) = 2 3, P(X 3 = 1) = 3 4 p i = P(X 1 + X 2 + X 3 = 2, X i = 0) Benötige einen Teil der gemeinsamen Verteilung der drei Zufallsvariablen: P(X 1 = 0, X 2 = 1, X 3 = 1) = = 1 4 P(X 1 = 1, X 2 = 0, X 3 = 1) = = 1 8 P(X 1 = 1, X 2 = 1, X 3 = 0) = = Die Summe dieser drei Wahrscheinlichkeiten beträgt 11/24, daher p 1 = 6 11, p 2 = 3 11, p 3 = 2 11.

77 Unabhängige Zufallsvariablen Wir hatten zwei Zufallsvariablen X und Y unabhängig genannt, wenn P(X = x, Y = y) = P(X = x) P(Y = y) für alle x V X und y V Y.

78 Unabhängige Zufallsvariablen Wir hatten zwei Zufallsvariablen X und Y unabhängig genannt, wenn P(X = x, Y = y) = P(X = x) P(Y = y) für alle x V X und y V Y. Entsprechend heißen die Zufallsvariablen X 1,...,X n unabhängig, wenn P(X 1 = x 1,...,X n = x n ) = n P(X i = x i ) x i V xi. i=1

79 Unabhängige Zufallsvariablen Wir hatten zwei Zufallsvariablen X und Y unabhängig genannt, wenn P(X = x, Y = y) = P(X = x) P(Y = y) für alle x V X und y V Y. Entsprechend heißen die Zufallsvariablen X 1,...,X n unabhängig, wenn P(X 1 = x 1,...,X n = x n ) = Äquivalent hierzu ist die Bedingung i=1 für alle Ereignisse A i. n P(X i = x i ) x i V xi. i=1 ( n ) P {X i A i } = n P(X i A i ) i=1

80 Erwartungswert Der Erwartungswert EX von X war definiert durch EX = X(ω)P(ω) = xp X (x). ω Ω x V X

81 Erwartungswert Der Erwartungswert EX von X war definiert durch EX = X(ω)P(ω) = xp X (x). ω Ω x V X Während die Zufallsvariable i.a. nicht aus der Verteilung rekonstruiert werden kann, genügt ihre Kenntnis, um den Erwartungswert zu bestimmen.

82 Beispiel (i) - binomialverteilte Zufallsvariablen Im Bernoulli-Experiment hatten wir n Experimente mit Ausgängen {0, 1} und Wahrscheinlichkeit P(1) = p durchgeführt.

83 Beispiel (i) - binomialverteilte Zufallsvariablen Im Bernoulli-Experiment hatten wir n Experimente mit Ausgängen {0, 1} und Wahrscheinlichkeit P(1) = p durchgeführt. Die Zufallsvariable S(ω) = ω ω n ist binomialverteilt, ( n P S (k) = b n,p (k) = k ) p k (1 p) n k.

84 Beispiel (i) - binomialverteilte Zufallsvariablen ( n ) P S (k) = b n,p (k) = p k (1 p) n k. k

85 Beispiel (i) - binomialverteilte Zufallsvariablen ( n ) P S (k) = b n,p (k) = p k (1 p) n k. k Für jede binomialverteilte Zufallsvariable X berechnet sich der Erwartungswert zu EX = = n k=0 ( n ) k p k (1 p) n k k n (n 1)! np (k 1)!((n 1)) (k 1))! pk 1 (1 p) (n 1) (k 1) k=1

86 Beispiel (i) - binomialverteilte Zufallsvariablen ( n ) P S (k) = b n,p (k) = p k (1 p) n k. k Für jede binomialverteilte Zufallsvariable X berechnet sich der Erwartungswert zu EX = = n k=0 ( n ) k p k (1 p) n k k n (n 1)! np (k 1)!((n 1)) (k 1))! pk 1 (1 p) (n 1) (k 1) k=1 n 1 = np b n 1,p (k) = np. k=0

87 Beispiel (i) - binomialverteilte Zufallsvariablen n 1 EX = np b n 1,p (k) = np. k=0

88 Beispiel (i) - binomialverteilte Zufallsvariablen Anderer Zugang: Wir setzen n 1 EX = np b n 1,p (k) = np. k=0 X = X X n mit X i (ω) = ω i.

89 Beispiel (i) - binomialverteilte Zufallsvariablen Anderer Zugang: Wir setzen n 1 EX = np b n 1,p (k) = np. k=0 X = X X n mit X i (ω) = ω i. Für diese Zufallsvariable gilt EX i = p, daher EX = np.

90 Beispiel (ii) - hypergeometrisch verteilte Zufallsvariablen Sei X hypergeometrisch verteilt, also ( S P X (s) = s )( N s n s ) ( N / n ).

91 Beispiel (ii) - hypergeometrisch verteilte Zufallsvariablen Sei X hypergeometrisch verteilt, also ( S P X (s) = s )( N s n s ) ( N / n P X (s) gibt die Wahrscheinlichkeit an, aus einer Urne mit S schwarzen und N S weißen Kugeln in n Versuchen ohne Rücklegen genau s schwarze Kugeln zu bekommen. ).

92 Beispiel (ii) - hypergeometrisch verteilte Zufallsvariablen Sei X hypergeometrisch verteilt, also ( S P X (s) = s )( N s n s ) ( N / n P X (s) gibt die Wahrscheinlichkeit an, aus einer Urne mit S schwarzen und N S weißen Kugeln in n Versuchen ohne Rücklegen genau s schwarze Kugeln zu bekommen. Auch hier können wir X = X X n setzen mit X i (ω) = 1, falls die i-te Kugel schwarz ist. ).

93 Beispiel (ii) - hypergeometrisch verteilte Zufallsvariablen Sei X hypergeometrisch verteilt, also ( S P X (s) = s )( N s n s ) ( N / n P X (s) gibt die Wahrscheinlichkeit an, aus einer Urne mit S schwarzen und N S weißen Kugeln in n Versuchen ohne Rücklegen genau s schwarze Kugeln zu bekommen. Auch hier können wir X = X X n setzen mit X i (ω) = 1, falls die i-te Kugel schwarz ist. Es gilt (Überraschung!) P(X i = 1) = S N, obwohl in jeder einzelnen Stichprobe das Ergebnis im i-ten Schritt von den zuvor gezogenen Kugeln abhängt. ).

94 Beispiel (ii) - hypergeometrisch verteilte Zufallsvariablen P(X i = 1) = S N Man kann dies durch vollständige Induktion über i beweisen. Wir zeigen es für i = 2: P(X 2 = 1) = N S S 1 N 1 +N S N S N 1 = S(S 1)+(N S)S N(N 1) = S N.

95 Beispiel (ii) - hypergeometrisch verteilte Zufallsvariablen P(X i = 1) = S N Man kann dies durch vollständige Induktion über i beweisen. Wir zeigen es für i = 2: P(X 2 = 1) = N S S 1 N 1 +N S N S N 1 = S(S 1)+(N S)S N(N 1) = S N. Damit gilt EX i = S/N und EX = ns/n.

96 Beispiel (ii) - hypergeometrisch verteilte Zufallsvariablen Für den großen Mathematiker Poisson war das Resultat P(X i = 1) = S N trivial und eines Beweises unwürdig.

97 Beispiel (ii) - hypergeometrisch verteilte Zufallsvariablen Für den großen Mathematiker Poisson war das Resultat P(X i = 1) = S N trivial und eines Beweises unwürdig. Wir können uns die schwarzen Kugeln als Gewinne und die weißen als Nieten in einer Lotterie vorstellen.

98 Beispiel (ii) - hypergeometrisch verteilte Zufallsvariablen Für den großen Mathematiker Poisson war das Resultat P(X i = 1) = S N trivial und eines Beweises unwürdig. Wir können uns die schwarzen Kugeln als Gewinne und die weißen als Nieten in einer Lotterie vorstellen. Dann ist der Erwartungswert für den Gewinn mit einem Los S/N und niemand würde sich daran stören, dass schon vorher Lose verkauft wurden.

99 Beispiel (iii) - geometrisch verteilte Zufallsvariablen Ist X geometrisch verteilt, so ist V X = Æ, P X (k) = p(1 p) k 1.

100 Beispiel (iii) - geometrisch verteilte Zufallsvariablen Ist X geometrisch verteilt, so ist V X = Æ, P X (k) = p(1 p) k 1. Damit ist EX = kp(1 p) k 1. k=1

101 Beispiel (iii) - geometrisch verteilte Zufallsvariablen Ist X geometrisch verteilt, so ist Damit ist V X = Æ, P X (k) = p(1 p) k 1. EX = kp(1 p) k 1. k=1 Wir differenzieren die geometrische Reihe auf beiden Seiten nach x: kx k 1 = k=1 1 (1 x) 2, x < 1.

102 Beispiel (iii) - geometrisch verteilte Zufallsvariablen Ist X geometrisch verteilt, so ist Damit ist V X = Æ, P X (k) = p(1 p) k 1. EX = kp(1 p) k 1. k=1 Wir differenzieren die geometrische Reihe auf beiden Seiten nach x: kx k 1 = k=1 Für x = 1 p folgt dann 1 (1 x) 2, x < 1. EX = p p 2 = 1 p.

103 Varianz Existiert E(X 2 ), so heißt Var(X) = E((X EX) 2 ) = P X (x) x EX 2, x V X die Varianz der Zufallsvariablen X.

104 Varianz Existiert E(X 2 ), so heißt Var(X) = E((X EX) 2 ) = die Varianz der Zufallsvariablen X. x V X P X (x) x EX 2, Die Varianz ist ein Maß für die Abweichung vom Mittelwert der Zufallsvariablen.

105 Varianz Existiert E(X 2 ), so heißt Var(X) = E((X EX) 2 ) = die Varianz der Zufallsvariablen X. x V X P X (x) x EX 2, Die Varianz ist ein Maß für die Abweichung vom Mittelwert der Zufallsvariablen. Es gilt Var(X) = E(X 2 2X EX +(EX) 2 ) = E(X 2 ) 2(EX)(EX)+(EX) 2 = E(X 2 ) (EX) 2.

106 Varianz Existiert E(X 2 ), so heißt Var(X) = E((X EX) 2 ) = die Varianz der Zufallsvariablen X. x V X P X (x) x EX 2, Die Varianz ist ein Maß für die Abweichung vom Mittelwert der Zufallsvariablen. Es gilt Var(X) = E(X 2 2X EX +(EX) 2 ) = E(X 2 ) 2(EX)(EX)+(EX) 2 = E(X 2 ) (EX) 2. Die Varianz ist also das Mittel des Quadrats minus dem Quadrat des Mittels.

107 Beispiel Nach dieser Formel können wir die Varianz für das Werfen eines Würfels, also X(m) = m, leicht bestimmen, Var(X) = 1 6 ( ) ( 7) 2 35 = 2 12.

108 Standardabweichung Var(X) = 1 6 ( ) ( 7 2 ) 2 = Aus diesem Beispiel sieht man, dass man besser die Wurzel aus der Varianz zieht, um die mittlere Abweichung vom Mittelwert zu bekommen.

109 Standardabweichung Var(X) = 1 6 ( ) ( 7) 2 35 = Aus diesem Beispiel sieht man, dass man besser die Wurzel aus der Varianz zieht, um die mittlere Abweichung vom Mittelwert zu bekommen. σ(x) = Var(X) 1/2 heißt Streuung oder Standardabweichung der Zufallsvariablen X.

110 Youngsche Ungleichung Für reelle Zahlen a, b gilt die Youngsche Ungleichung ab 1 2 a b2.

111 Youngsche Ungleichung Für reelle Zahlen a, b gilt die Youngsche Ungleichung ab 1 2 a b2. Wird bewiesen durch 0 (a±b) 2 = a 2 ± 2ab + b 2.

112 Notation X ist die Zufallsvariable ω X(ω).

113 Notation X ist die Zufallsvariable ω X(ω). Ungleichungen zwischen Zufallsvariablen: X Y X(ω) Y(ω) für alle ω Ω.

114 k-tes Moment Für k Æ heißt E(X k ) das k-te Moment der Zufallsvariablen X.

115 k-tes Moment Für k Æ heißt E(X k ) das k-te Moment der Zufallsvariablen X. Wenn das zweite Moment existiert, so auch der Erwartungswert wegen X X 2.

116 k-tes Moment Für k Æ heißt E(X k ) das k-te Moment der Zufallsvariablen X. Wenn das zweite Moment existiert, so auch der Erwartungswert wegen X X 2. Damit existiert auch Var(X) = E(X 2 ) EX 2.

117 Kovarianz Existieren E(X 2 ), E(Y 2 ) für Zufallsvariablen X, Y, so ist die Kovarianz von X und Y definiert durch Cov(X, Y) = E ( (X EX)(Y EY) ).

118 Kovarianz Existieren E(X 2 ), E(Y 2 ) für Zufallsvariablen X, Y, so ist die Kovarianz von X und Y definiert durch Cov(X, Y) = E ( (X EX)(Y EY) ). Die zweiten Momente von X und Y reichen für die Existenz der Kovarianz aus wegen X Y 1 2 X Y 2.

119 Analogie zur Mechanik Viele Begriffe der Stochastik lassen sich auch mechanisch deuten. Ist ρ(x) die Massendichte eines Stabes, der in einem Intervall I liegt, so ist M = ρ(x) dx die Masse des Stabes. I

120 Analogie zur Mechanik Viele Begriffe der Stochastik lassen sich auch mechanisch deuten. Ist ρ(x) die Massendichte eines Stabes, der in einem Intervall I liegt, so ist M = ρ(x) dx die Masse des Stabes. Der Schwerpunkt des Stabes errechnet sich zu S = 1 xρ(x) dx, M was äquivalent ist zu (x S)ρ(x) dx = 0. I I I

121 Analogie zur Mechanik Viele Begriffe der Stochastik lassen sich auch mechanisch deuten. Ist ρ(x) die Massendichte eines Stabes, der in einem Intervall I liegt, so ist M = ρ(x) dx die Masse des Stabes. Der Schwerpunkt des Stabes errechnet sich zu S = 1 xρ(x) dx, M was äquivalent ist zu I I (x S)ρ(x) dx = 0. I Ein Hebel mit Stütze im Schwerpunkt befindet sich im Gleichgewicht.

122 Zentrieren Mit X EX verschiebt man den Schwerpunkt in den Nullpunkt, man bezeichnet dies auch als Zentrieren der Zufallsvariablen X.

123 Zentrieren Mit X EX verschiebt man den Schwerpunkt in den Nullpunkt, man bezeichnet dies auch als Zentrieren der Zufallsvariablen X. Daher wird die Varianz auch als zweites zentrales Moment von X bezeichnet.

124 Zusammenfassung Satz Seien X, Y,X i Zufallsvariablen, für die die zweiten Momente existieren, und seien a, b, c, d reelle Zahlen. Dann gilt Var(X) = E(X 2 ) (EX) 2, Var(aX + b) = a 2 Var(X), Cov(X, Y) = E(XY) EX EY,

125 Zusammenfassung Satz Seien X, Y,X i Zufallsvariablen, für die die zweiten Momente existieren, und seien a, b, c, d reelle Zahlen. Dann gilt Var(X) = E(X 2 ) (EX) 2, Var(aX + b) = a 2 Var(X), Cov(X, Y) = E(XY) EX EY, Cov(aX + b, cy + d) = ac Cov(X, Y), Var(X X n ) = n i=1 Var(X i )+ i j Cov(X i, X j ).

126 Zusammenfassung Satz Seien X, Y,X i Zufallsvariablen, für die die zweiten Momente existieren, und seien a, b, c, d reelle Zahlen. Dann gilt Var(X) = E(X 2 ) (EX) 2, Var(aX + b) = a 2 Var(X), Cov(X, Y) = E(XY) EX EY, Cov(aX + b, cy + d) = ac Cov(X, Y), Var(X X n ) = n i=1 Var(X i )+ i j Für unabhängige X, Y gilt, Cov(X, Y) = 0. Für unabhängige X 1,...,X n gilt Var(X X n ) = n Var(X i ). i=1 Cov(X i, X j ).

127 Beweis Cov(X, Y) = E(XY) EX EY,

128 Beweis Cov(X, Y) = E(XY) EX EY, Dies erhalten wir mit Cov(X, Y) = E ( (X EX)(Y EY) ) = E(XY) E(X EY) E(EX Y)+E((EX)(EY))

129 Beweis Cov(X, Y) = E(XY) EX EY, Dies erhalten wir mit Cov(X, Y) = E ( (X EX)(Y EY) ) = E(XY) E(X EY) E(EX Y)+E((EX)(EY)) = E(XY) 2(EX)(EY)+(EX)(EY) = E(XY) (EX)(EY).

130 Beweis Cov(aX + b, cy + d) = ac Cov(X, Y),

131 Beweis Cov(aX + b, cy + d) = ac Cov(X, Y), b, d verschwinden, weil jeweils der Erwartungswert abgezogen wurde.

132 Beweis Var(X X n ) = Wir setzen X i = X i EX i, n i=1 Var(X i )+ i j Cov(X i, X j ),

133 Beweis Var(X X n ) = Wir setzen X i = X i EX i, n i=1 Var(X i )+ i j Cov(X i, X j ), Var(X X n ) = E(( X X n )( X X n ))

134 Beweis Var(X X n ) = n i=1 Var(X i )+ i j Cov(X i, X j ), Wir setzen X i = X i EX i, Var(X X n ) = E(( X X n )( X X n )) = = n E( X i X i )+ E( X i X j ) i=1 i j n Var(X i )+ Cov(X i, X j ) i=1 i j

135 Beweis Sind X, Y unabhängig, so Cov(X, Y) = 0,

136 Beweis Sind X, Y unabhängig, so Cov(X, Y) = 0, Mit X, Y sind auch X EX, Y EY unabhängig. Es gilt E((X EX)(Y EY)) = E(X EX) E(Y EY) = 0.

137 Beispiel zu einem Missverständnis Die Kovarianz verschwindet für unabhängige X, Y, aber sie ist kein Maß für die Abhängigkeit zweier Zufallsvariablen.

138 Beispiel zu einem Missverständnis Die Kovarianz verschwindet für unabhängige X, Y, aber sie ist kein Maß für die Abhängigkeit zweier Zufallsvariablen. Unabhängigkeit ist eine Aussage über die tiefere Struktur der Zufallsvariablen, die Kovarianz ist nur eine einzige Zahl.

139 Beispiel zu einem Missverständnis Die Kovarianz verschwindet für unabhängige X, Y, aber sie ist kein Maß für die Abhängigkeit zweier Zufallsvariablen. Unabhängigkeit ist eine Aussage über die tiefere Struktur der Zufallsvariablen, die Kovarianz ist nur eine einzige Zahl. Als Beispiel wähle den Raum Ω = {1, 2, 3, 4} mit P(1) = P(2) = 2 5, P(3) = P(4) = 1 10.

140 Beispiel zu einem Missverständnis Die Kovarianz verschwindet für unabhängige X, Y, aber sie ist kein Maß für die Abhängigkeit zweier Zufallsvariablen. Unabhängigkeit ist eine Aussage über die tiefere Struktur der Zufallsvariablen, die Kovarianz ist nur eine einzige Zahl. Als Beispiel wähle den Raum Ω = {1, 2, 3, 4} mit P(1) = P(2) = 2 5, P(3) = P(4) = Definiere die Zufallsvariablen X(1) = 1, Y(1) = 1, X(2) = 1, Y(2) = 1, X(3) = Y(3) = 2, X(4) = Y(4) = 2.

141 Beispiel zu einem Missverständnis P(1) = P(2) = 2 5, P(3) = P(4) = X(1) = 1, Y(1) = 1, X(2) = 1, Y(2) = 1, X(3) = Y(3) = 2, X(4) = Y(4) = 2.

142 Beispiel zu einem Missverständnis P(1) = P(2) = 2 5, P(3) = P(4) = X(1) = 1, Y(1) = 1, X(2) = 1, Y(2) = 1, X(3) = Y(3) = 2, X(4) = Y(4) = 2. Die Werte von X bestimmen die zugehörigen ω und damit auch Y eindeutig.

143 Beispiel zu einem Missverständnis P(1) = P(2) = 2 5, P(3) = P(4) = X(1) = 1, Y(1) = 1, X(2) = 1, Y(2) = 1, X(3) = Y(3) = 2, X(4) = Y(4) = 2. Die Werte von X bestimmen die zugehörigen ω und damit auch Y eindeutig. X, Y sind daher extrem voneinander abhängig, aber Cov(X, Y) = E(XY) = ( 1) 2 5 +( 1) = 0.

144 Beispiel Sei X binomialverteilt mit Parametern n und p.

145 Beispiel Sei X binomialverteilt mit Parametern n und p. Ist X i (ω) = ω i, so ist EX i = p, Var(X i ) = E(X 2 i ) (EX i ) 2 = p p 2.

146 Beispiel Sei X binomialverteilt mit Parametern n und p. Ist X i (ω) = ω i, so ist EX i = p, Var(X i ) = E(X 2 i ) (EX i ) 2 = p p 2. Da die Zufallsvariablen unabhängig sind, folgt Var(X) = Var(X i ) = nvar(x 1 ) = np(1 p).

147 Tschebyscheff-Ungleichung Satz Für jedes ε > 0 gilt P( X EX ε) Var(X) ε 2.

148 Beweis P( X EX ε) Var(X) ε 2.

149 Beweis P( X EX ε) Var(X) ε 2. Sei Z = X EX. Wir setzen { 0 falls Z(ω) < ε Y(ω) = ε 2 falls Z(ω) ε.

150 Beweis P( X EX ε) Var(X) ε 2. Sei Z = X EX. Wir setzen { 0 falls Z(ω) < ε Y(ω) = ε 2 falls Z(ω) ε. Dann ist Y Z 2 und Var(X) = E( Z 2 ) E(Y) = ε 2 P(Y = ε 2 ) = ε 2 P( X EX ε).

151 Schwaches Gesetz der großen Zahlen Satz Seien X 1,...,X n unabhängige Zufallsvariablen mit gleichem Erwartungswert und Var(X i ) M <.

152 Schwaches Gesetz der großen Zahlen Satz Seien X 1,...,X n unabhängige Zufallsvariablen mit gleichem Erwartungswert und Var(X i ) M <. Dann gilt für alle ε > 0 P ( 1 n (X X n ) EX 1 ε ) M ε 2 n 0.

153 Beweis Sei X = (X X n )/n. Dann ist EX = EX 1 und Var(X) = n 2 Var(X X n )

154 Beweis Sei X = (X X n )/n. Dann ist EX = EX 1 und Var(X) = n 2 Var(X X n ) = n 2 (Var(X 1 )+...+Var(X n )) M n.

155 Beweis Sei X = (X X n )/n. Dann ist EX = EX 1 und Var(X) = n 2 Var(X X n ) = n 2 (Var(X 1 )+...+Var(X n )) M n. Die Tschebyscheff-Ungleichung angewendet auf X liefert die Behauptung.

156 8.4 Die Poisson-Verteilung Für α > 0 setzen wir g α (k) = e α k! αk.

157 8.4 Die Poisson-Verteilung Für α > 0 setzen wir g α (k) = e α k! αk. g α (k) bilden eine Wahrscheinlichkeitsverteilung auf Æ 0 wegen g α (k) = e α k=0 k=0 α k k! = e α e α = 1.

158 8.4 Die Poisson-Verteilung Für α > 0 setzen wir g α (k) = e α k! αk. g α (k) bilden eine Wahrscheinlichkeitsverteilung auf Æ 0 wegen g α (k) = e α k=0 k=0 α k k! = e α e α = 1. Dies ist die Poisson-Verteilung mit Parameter α.

159 Die Poisson-Verteilung g α (k) = e α k! αk. Für Erwartungswert und Varianz einer Zufallsvariablen X mit dieser Verteilung erhalten wir EX = e α k=0 kα k k! = e α k=0 α k+1 k! = α,

160 Die Poisson-Verteilung g α (k) = e α k! αk. Für Erwartungswert und Varianz einer Zufallsvariablen X mit dieser Verteilung erhalten wir EX = e α k=0 kα k k! = e α k=0 α k+1 k! = α, E(X 2 ) = e α (k 1)kα k k! k=0 + e α k=0 kα k k! = α 2 +α Var(X) = E(X 2 ) (EX) 2 = α.

161 Approximation der Binomialverteilung Die Poisson-Verteilung kann manchmal zur Approximation der Binomialverteilung, ( n b n,p (k) = k ) p k (1 p) n k, verwendet werden.

162 Approximation der Binomialverteilung Die Poisson-Verteilung kann manchmal zur Approximation der Binomialverteilung, ( n b n,p (k) = k ) p k (1 p) n k, verwendet werden. Wir setzen α = np n und betrachten bei konstantem α n p n 0.

163 Approximation der Binomialverteilung Die Poisson-Verteilung kann manchmal zur Approximation der Binomialverteilung, ( n b n,p (k) = k ) p k (1 p) n k, verwendet werden. Wir setzen α = np n und betrachten bei konstantem α n p n 0. Wir schreiben dazu b n (k) = b n,pn (k). Es gilt ( n b n (k) = k ) ( α n ) k ( α) n k. 1 n

164 Approximation der Binomialverteilung ( n b n (k) = k ) ( α n ) k ( α) n k. 1 n

165 Approximation der Binomialverteilung ( n b n (k) = k Wegen (1+x/n) n e x ) ( α n ) k ( α) n k. 1 n lim b n(0) = ( 1 α ) n e α. n n

166 Approximation der Binomialverteilung ( n b n (k) = k Wegen (1+x/n) n e x Mit ) ( α n ) k ( α) n k. 1 n lim b n(0) = ( 1 α ) n e α. n n b n (k + 1) b n (k) = n k k + 1 (α n )( α) 1 1 n

167 Approximation der Binomialverteilung ( n b n (k) = k Wegen (1+x/n) n e x Mit ) ( α n ) k ( α) n k. 1 n lim b n(0) = ( 1 α ) n e α. n n b n (k + 1) b n (k) = n k k + 1 (α n )( α) 1 α 1 = n k + 1 n k n ( α) 1 α 1 n k + 1 folgt dann induktiv lim n b n(k) = α k lim n b n(k 1) = g α (k).

168 Approximation der Binomialverteilung ( n b n (k) = k Wegen (1+x/n) n e x Mit ) ( α n ) k ( α) n k. 1 n lim b n(0) = ( 1 α ) n e α. n n b n (k + 1) b n (k) = n k k + 1 (α n )( α) 1 α 1 = n k + 1 n k n ( α) 1 α 1 n k + 1 folgt dann induktiv lim n b n(k) = α k lim n b n(k 1) = g α (k). Aus der Herleitung geht hervor, dass die Konvergenz für kleine k schneller ist als für große.

169 Approximation der Binomialverteilung lim n b n(k) = α k lim n b n(k 1) = g α (k).

170 Approximation der Binomialverteilung lim n b n(k) = α k lim n b n(k 1) = g α (k). Wenn also n groß gegenüber np ist, können wir für kleine k die Binomialverteilung durch die Poissonverteilung mit α = np ersetzen.

171 Approximation der Binomialverteilung lim n b n(k) = α k lim n b n(k 1) = g α (k). Wenn also n groß gegenüber np ist, können wir für kleine k die Binomialverteilung durch die Poissonverteilung mit α = np ersetzen. Der Erwartungswert für die Binomialverteilung mit np = α stimmt mit dem Erwartungswert für die Poissonverteilung überein.

172 Approximation der Binomialverteilung lim n b n(k) = α k lim n b n(k 1) = g α (k). Wenn also n groß gegenüber np ist, können wir für kleine k die Binomialverteilung durch die Poissonverteilung mit α = np ersetzen. Der Erwartungswert für die Binomialverteilung mit np = α stimmt mit dem Erwartungswert für die Poissonverteilung überein. Für die Varianz der Binomialverteilung gilt npq = α(1 α n ) α.

173 Approximation der Binomialverteilung lim n b n(k) = α k lim n b n(k 1) = g α (k). Wenn also n groß gegenüber np ist, können wir für kleine k die Binomialverteilung durch die Poissonverteilung mit α = np ersetzen. Der Erwartungswert für die Binomialverteilung mit np = α stimmt mit dem Erwartungswert für die Poissonverteilung überein. Für die Varianz der Binomialverteilung gilt npq = α(1 α n ) α. Das ist die Varianz der Poissonverteilung.

174 Beispiel - seltenes Ereignis Als Beispiel für ein seltenes Ereignis betrachten wir eine richtig gesetzte Zahl beim Roulette.

175 Beispiel - seltenes Ereignis Als Beispiel für ein seltenes Ereignis betrachten wir eine richtig gesetzte Zahl beim Roulette. Die Wahrscheinlichkeit, nach 37 Spielen 0-, 1- oder 2-mal zu gewinnen, wird gegeben durch b 37,p (k) mit p = 1/37, also b 37,p (0) = ( ) 37 = 0,

176 Beispiel - seltenes Ereignis Als Beispiel für ein seltenes Ereignis betrachten wir eine richtig gesetzte Zahl beim Roulette. Die Wahrscheinlichkeit, nach 37 Spielen 0-, 1- oder 2-mal zu gewinnen, wird gegeben durch b 37,p (k) mit p = 1/37, also b 37,p (0) = ( ) 37 = 0, b 37,p (1) = b 37,p (2) = ( 37 1 ( 37 2 ) (1 1 ) 36 ( 1 ) ( 1 ) 36 = 1 = 0, ) (1 1 ) 35 ( 1 ) 2 36 ( 1 ) 35 = 1 = 0,

177 Beispiel - seltenes Ereignis Als Beispiel für ein seltenes Ereignis betrachten wir eine richtig gesetzte Zahl beim Roulette. Die Wahrscheinlichkeit, nach 37 Spielen 0-, 1- oder 2-mal zu gewinnen, wird gegeben durch b 37,p (k) mit p = 1/37, also b 37,p (0) = ( ) 37 = 0, b 37,p (1) = b 37,p (2) = ( 37 1 ( 37 2 ) (1 1 ) 36 ( 1 ) ( 1 ) 36 = 1 = 0, ) (1 1 ) 35 ( 1 ) 2 36 ( 1 ) 35 = 1 = 0, Wegen np = 1 können wir diese Zahlen durch die Poissonverteilung g 1 (k) approximieren mit g 1 (0) = e 1 = 0, , g 1 (1) = e 1, g 1 (2) = 1 2 e 1 = 0,

178 Beispiel - Zufällig erscheinendes Teilchen Wir messen die Ankunft eines zufällig erscheinenden Teilchens, der Erwartungswert für die Zahl der im Zeitintervall 1 erscheinenden Teilchen sei α.

179 Beispiel - Zufällig erscheinendes Teilchen Wir messen die Ankunft eines zufällig erscheinenden Teilchens, der Erwartungswert für die Zahl der im Zeitintervall 1 erscheinenden Teilchen sei α. Wir möchten ein Modell konstruieren, das uns die Wahrscheinlichkeit für das Auftreten von k Teilchen im Zeitraum t angibt.

180 Beispiel - Zufällig erscheinendes Teilchen Wir messen die Ankunft eines zufällig erscheinenden Teilchens, der Erwartungswert für die Zahl der im Zeitintervall 1 erscheinenden Teilchen sei α. Wir möchten ein Modell konstruieren, das uns die Wahrscheinlichkeit für das Auftreten von k Teilchen im Zeitraum t angibt. Wir wählen N so groß, dass wir in erster Näherung davon ausgehen können, dass im Zeitintervall t/n ein Teilchen mit Wahrscheinlichkeit p = αt/n erscheint oder mit Wahrscheinlichkeit q = 1 p nicht erscheint.

181 Beispiel - Zufällig erscheinendes Teilchen Wir messen die Ankunft eines zufällig erscheinenden Teilchens, der Erwartungswert für die Zahl der im Zeitintervall 1 erscheinenden Teilchen sei α. Wir möchten ein Modell konstruieren, das uns die Wahrscheinlichkeit für das Auftreten von k Teilchen im Zeitraum t angibt. Wir wählen N so groß, dass wir in erster Näherung davon ausgehen können, dass im Zeitintervall t/n ein Teilchen mit Wahrscheinlichkeit p = αt/n erscheint oder mit Wahrscheinlichkeit q = 1 p nicht erscheint. Damit ist die Wahrscheinlichkeit, dass k Teilchen im Zeitraum t erscheinen gerade b N,p (k). In diesem Fall kann N beliebig groß gewählt werden, so dass hier die Poissonverteilung g αt (k) das geeignete Modell ist.

182 8.5 Erzeugende Funktionen Ist X eine Zufallsvariable mit Werten in Æ 0, so können wir ihr die erzeugende Funktion zuordnen. g(z) = P(X = k)z k k=0

183 8.5 Erzeugende Funktionen Ist X eine Zufallsvariable mit Werten in Æ 0, so können wir ihr die erzeugende Funktion zuordnen. g(z) = P(X = k)z k k=0 In dieser Definition reicht offenbar die Kenntnis der Verteilung von X zur Bestimmung von g aus.

184 8.5 Erzeugende Funktionen Ist X eine Zufallsvariable mit Werten in Æ 0, so können wir ihr die erzeugende Funktion zuordnen. g(z) = P(X = k)z k k=0 In dieser Definition reicht offenbar die Kenntnis der Verteilung von X zur Bestimmung von g aus. Kennen wir X, so ist g(z) = ω Ω P(ω)z X(ω) zur obigen Definition äquivalent.

185 Existenz und Differenzierbarkeit g(z) = ω Ω P(ω)z X(ω) P(X = k) = 1 Reihe konvergiert mindestens für z < 1, k

186 Existenz und Differenzierbarkeit g(z) = ω Ω P(ω)z X(ω) P(X = k) = 1 Reihe konvergiert mindestens für z < 1, k g(1) = 1. g ist für z < 1 unendlich oft differenzierbar mit g (k) (0)/k! = P(X = k),

187 Existenz und Differenzierbarkeit g(z) = ω Ω P(ω)z X(ω) P(X = k) = 1 Reihe konvergiert mindestens für z < 1, k g(1) = 1. g ist für z < 1 unendlich oft differenzierbar mit g (k) (0)/k! = P(X = k), die Verteilung von X lässt sich aus g rekonstruieren,

188 Existenz und Differenzierbarkeit g(z) = ω Ω P(ω)z X(ω) P(X = k) = 1 Reihe konvergiert mindestens für z < 1, k g(1) = 1. g ist für z < 1 unendlich oft differenzierbar mit g (k) (0)/k! = P(X = k), die Verteilung von X lässt sich aus g rekonstruieren, g ist auf dem Intervall [0, 1] nichtnegativ und monoton steigend.

189 Bestimmung der Kenngrößen g (m) (1 ) = linksseitiger Grenzwert von g (m) in z = 1.

190 Bestimmung der Kenngrößen g (m) (1 ) = linksseitiger Grenzwert von g (m) in z = 1. Satz Es gilt E(X(X 1)...(X m+1)) = g (m) (1 ),

191 Bestimmung der Kenngrößen g (m) (1 ) = linksseitiger Grenzwert von g (m) in z = 1. Satz Es gilt E(X(X 1)...(X m+1)) = g (m) (1 ), insbesondere EX = g (1 ), Var(X) = g (1 )+g (1 ) g (1 ) 2.

192 Bestimmung der Kenngrößen g (m) (1 ) = linksseitiger Grenzwert von g (m) in z = 1. Satz Es gilt insbesondere E(X(X 1)...(X m+1)) = g (m) (1 ), EX = g (1 ), Var(X) = g (1 )+g (1 ) g (1 ) 2. In allen Fällen existiert der Grenzwert auf der rechten Seite genau dann, wenn die Summe auf der linken Seite konvergiert.

193 Beweis Für 0 z < 1 gilt ( ) g (m) (z) = k(k 1)...(k m+1)p(x = k)z k m. k=0

194 Beweis Für 0 z < 1 gilt ( ) g (m) (z) = Es gilt k(k 1)...(k m+1)p(x = k)z k m. k=0 k m 2 m k(k 1)...(k m+1) km für k 2m

195 Beweis Für 0 z < 1 gilt ( ) g (m) (z) = Es gilt k(k 1)...(k m+1)p(x = k)z k m. k=0 k m 2 m k(k 1)...(k m+1) km für k 2m Daher ist die Reihe an der Stelle z = 1 genau dann konvergent, wenn E(X m ) = k m P(X = k) existiert.

196 Beweis Für 0 z < 1 gilt ( ) g (m) (z) = Es gilt k(k 1)...(k m+1)p(x = k)z k m. k=0 k m 2 m k(k 1)...(k m+1) km für k 2m Daher ist die Reihe an der Stelle z = 1 genau dann konvergent, wenn E(X m ) = k m P(X = k) existiert. Im Falle der Konvergenz ist die Reihe für g (m) im Intervall [0, 1] gleichmäßig konvergent und wir können in ( ) den Grenzwert z 1 bilden.

197 Beispiel - Poisson-Verteilung Ist X poissonverteilt mit Parameter α, so gilt P(X = k) = e α α, k! daher g(z) = e α k=0 α k k! zk = e α(z 1).

198 Beispiel - Poisson-Verteilung Ist X poissonverteilt mit Parameter α, so gilt daher P(X = k) = e α α, k! g(z) = e α k=0 Für Erwartungswert und Varianz gilt dann α k k! zk = e α(z 1). EX = g (1) = α, Var(X) = g (1)+g (1) (g (1)) 2 = α 2 +α α 2 = α.

199 Beispiel - geometrische Verteilung Für geometrisch verteiltes X gilt P(X = k) = p(1 p) k 1 für k 1, also g(z) = p(1 p) k 1 z k = k=1 pz 1 (1 p)z.

200 Beispiel - geometrische Verteilung Für geometrisch verteiltes X gilt P(X = k) = p(1 p) k 1 für k 1, also Daher g(z) = p(1 p) k 1 z k = k=1 pz 1 (1 p)z. EX = g (1) = 1 p, Var(X) = g (1)+g (1) (g (1)) 2 = 1 p p 2.

201 Summe von Zufallszahlen Satz Sind X und Y unabhängige Zufallsvariablen mit Werten in Æ 0, so gilt g X+Y (z) = g X (z)g Y (z).

202 Beweis Das folgt sofort aus der Unabhängigkeit von z X und z Y, nämlich g X+Y (z) = E(z X+Y ) = E(z X z Y ) = E(z X )E(z Y ).

203 Beweis Das folgt sofort aus der Unabhängigkeit von z X und z Y, nämlich g X+Y (z) = E(z X+Y ) = E(z X z Y ) = E(z X )E(z Y ). Oder mit direkter Rechnung g X+Y (z) = P(X + Y = k)z k ( k = P(X = l, Y = k l) ) z k k=0 k=0 l=0

204 Beweis Das folgt sofort aus der Unabhängigkeit von z X und z Y, nämlich g X+Y (z) = E(z X+Y ) = E(z X z Y ) = E(z X )E(z Y ). Oder mit direkter Rechnung g X+Y (z) = = P(X + Y = k)z k ( k = P(X = l, Y = k l) ) z k k=0 k=0 l=0 ( k P(X = l)p(y = k l) ) z k = g X (z)g Y (z). k=0 l=0

205 Beispiel Führen n Bernoulli-Experimente durch mit Erfolgswahrscheinlichkeit P(X i = 1) = p.

206 Beispiel Führen n Bernoulli-Experimente durch mit Erfolgswahrscheinlichkeit P(X i = 1) = p. Dann g Xi (z) = P(X i = 0)z 0 + P(X i = 1)z 1 = (1 p)+pz.

207 Beispiel Führen n Bernoulli-Experimente durch mit Erfolgswahrscheinlichkeit P(X i = 1) = p. Dann g Xi (z) = P(X i = 0)z 0 + P(X i = 1)z 1 = (1 p)+pz. Nach dem letzten Satz gilt für X = X X N, dass g X (z) = ((1 p)+pz) n.

208 Beispiel Führen n Bernoulli-Experimente durch mit Erfolgswahrscheinlichkeit P(X i = 1) = p. Dann g Xi (z) = P(X i = 0)z 0 + P(X i = 1)z 1 = (1 p)+pz. Nach dem letzten Satz gilt für X = X X N, dass g X (z) = ((1 p)+pz) n. Das ist die erzeugende Funktion der Binomialverteilung.

209

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 5.6.2013 8. Unabhängigkeit von Zufallsgrößen, Erwartungswert und Varianz 8.1

Mehr

K3 (Diskrete) Zufallsvariablen 3.1 Basis

K3 (Diskrete) Zufallsvariablen 3.1 Basis K3 (Diskrete) Zufallsvariablen 3.1 Basis Ω = {ω}, X(ω) ist eine Größe die durch ω bestimmt ist. Bei der zufälligen Auswahl von ω bekommen wir den Wert, X(ω). Definition: Ist (Ω, F, P) ein Wahrscheinlichkeitsraum

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Vorlesung 5a. Varianz und Kovarianz

Vorlesung 5a. Varianz und Kovarianz Vorlesung 5a Varianz und Kovarianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist

Mehr

Vorlesung 5a. Die Varianz

Vorlesung 5a. Die Varianz Vorlesung 5a Die Varianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Vorlesung 4b. Die Varianz

Vorlesung 4b. Die Varianz Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ Die Varianz von X ist definiert als Var[X] := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen

Mehr

Vorlesung 4b. Die Varianz

Vorlesung 4b. Die Varianz Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert als Var X := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Kapitel 10 VERTEILUNGEN

Kapitel 10 VERTEILUNGEN Kapitel 10 VERTEILUNGEN Fassung vom 18. Januar 2001 130 VERTEILUNGEN Zufallsvariable. 10.1 10.1 Zufallsvariable. HäuÞg wird statt des Ergebnisses ω Ω eines Zufalls-Experiments eine zugeordnete Zahl X(ω)

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19 Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Sabrina Kallus, Eva Lotte Reinartz, André Salé

Sabrina Kallus, Eva Lotte Reinartz, André Salé Sabrina Kallus, Eva Lotte Reinartz, André Salé } Wiederholung (Zufallsvariable) } Erwartungswert Was ist das? } Erwartungswert: diskrete endliche Räume } Erwartungswert: Räume mit Dichten } Eigenschaften

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen 0. Diskrete reellwertige Zufallsvariable X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) oder

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

Vorlesung 3. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen Vorlesung 3 Der Erwartungswert von diskreten reellwertigen Zufallsvariablen 0. Diskrete reellwertige Zufallsvariable X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) oder

Mehr

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) (oder eine Teilmenge davon) ist. Es existiere

Mehr

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz Erwartungswert, Varianz und Kovarianz 1/65 Statistik für Informatiker, SS 2018 1.4 Erwartungswert, Varianz und Kovarianz Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo18/ 14.5.2018 / 28.5.2018

Mehr

Diskrete Zufallsvariable

Diskrete Zufallsvariable Diskrete Zufallsvariablen Slide 1 Diskrete Zufallsvariable Wir gehen von einem diskreten W.-raum Ω aus. Eine Abbildung X : Ω Ê heißt diskrete (numerische) Zufallsvariable oder kurz ZV. Der Wertebereich

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binären Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhängigen

Mehr

Kapitel 6 Diskrete Wahrscheinlichkeitsräume

Kapitel 6 Diskrete Wahrscheinlichkeitsräume Kapitel 6 Wahrscheinlichkeitsräume Vorlesung Wahrscheinlichkeitsrechnung I vom SoSe 2009 Die Laplace- Die Poisson- Lehrstuhl für Angewandte Mathematik 1 FAU Die einer ZV en von ZVen Wahrscheinlichkeitsräume

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Denition 57 Eine geometrisch verteilte Zufallsvariable X mit Parameter (Erfolgswahrscheinlichkeit) p 2 (0; 1] und q := 1 p hat die Dichte

Denition 57 Eine geometrisch verteilte Zufallsvariable X mit Parameter (Erfolgswahrscheinlichkeit) p 2 (0; 1] und q := 1 p hat die Dichte 5.3 Geometrische Verteilung Man betrachte ein Experiment, das so lange wiederholt wird, bis Erfolg eintritt. Gelingt ein einzelner Versuch mit Wahrscheinlichkeit p, so ist die Anzahl der Versuche bis zum

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine diskrete reellwertige Zufallsvariable, d.h. eine ZV e mit Wertebereich R (oder einer Teilmenge davon), sodass eine

Mehr

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz 1/65 Statistik für Informatiker, SS 2017 1.3 Erwartungswert, Varianz und Kovarianz Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 7.6.2017 / 14.6.2017 2/65 Der Erwartungswert ist eine

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 13.0.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. 2 Zufallsvariable 2.1 Einführung Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. Eine Zufallsvariable X ordnet jedem elementaren Versuchsausgang

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

1.3 Zufallsgrößen und Verteilungsfunktionen

1.3 Zufallsgrößen und Verteilungsfunktionen .3 Zufallsgrößen und Verteilungsfunktionen.3. Einführung Vielfach sind die Ergebnisse von Zufallsversuchen Zahlenwerte. Häufig möchte man aber auch in den Fällen, wo dies nicht so ist, Zahlenwerte zur

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

Diskrete Strukturen I

Diskrete Strukturen I Universität Kassel Fachbereich 10/1 PD Dr. Sebastian Petersen 14.09.2017 Klausur zur Vorlesung Diskrete Strukturen I Es können maximal 40 Punkte erreicht werden. Version mit Lösungsskizze Zur Notation:

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Kapitel 5. Stochastik

Kapitel 5. Stochastik 76 Kapitel 5 Stochastik In diesem Kapitel wollen wir die Grundzüge der Wahrscheinlichkeitstheorie behandeln. Wir beschränken uns dabei auf diskrete Wahrscheinlichkeitsräume Ω. Definition 5.1. Ein diskreter

Mehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Mathematik 3 für Informatik

Mathematik 3 für Informatik Gunter Ochs Wintersemester 20/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt 4 Lösungshinweise (ohne Ganantie auf Fehlerfreiheit. Wenn man beim Roulette auf Rot oder Schwarz setzt, erhält

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Vorlesung 3b. Der Erwartungswert

Vorlesung 3b. Der Erwartungswert Vorlesung 3b Der Erwartungswert von diskreten reellwertigen Zufallsvariablen Teil 2 0. Wiederholung X sei eine diskrete reellwertige Zufallsvariable X S R E[X] := a S a P(X = a). heißt Erwartungswert von

Mehr

Kombinatorik kompakt. Stochastik WS 2016/17 1

Kombinatorik kompakt. Stochastik WS 2016/17 1 Kombinatorik kompakt Stochastik WS 2016/17 1 Übersicht Auswahl/Kombinationen von N aus m Elementen Statistische unterscheidbare ununterscheidbare Physik Objekte (gleiche) Objekte ( ohne m N m+n 1 ) N mit

Mehr

7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X].

7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X]. 7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := gilt G X(1) = Pr[X = k] s k = E[s X ], k=0 k Pr[X = k] = E[X]. k=1 DWT 7.1 Einführung 182/476 Beispiel 73 Sei X binomialverteilt

Mehr

7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen

7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen 7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen 7.7.1 Die Laplace-Verteilung Sei X eine gleich verteilte Zufallsvariable mit den Werten in der Menge Ω X = {x i R : i = 1,...,n}, d.h. f (x i = 1

Mehr

Psychologische Methodenlehre und Statistik I

Psychologische Methodenlehre und Statistik I Psychologische Methodenlehre und Statistik I Pantelis Christodoulides & Karin Waldherr SS 2013 Pantelis Christodoulides & Karin Waldherr Psychologische Methodenlehre und Statistik I 1/61 Zufallsexperiment

Mehr

Dichte der geometrischen Verteilung

Dichte der geometrischen Verteilung 0,8 Ô ¼ 0,8 Ô ¼ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 7 8 9 10 0,0 1 2 3 4 5 6 7 8 9 10 0,8 Ô ¼ 0,8 Ô ¼ ¾ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 7 8 9 10 0,0 1 2 3 4 5 6 7 8 9 10 Dichte der geometrischen

Mehr

Einführung in die angewandte Stochastik

Einführung in die angewandte Stochastik Einführung in die angewandte Stochastik Fabian Meyer 5. April 2018 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 3 1.1 Definitionen................................... 3 1.2 Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsverteilung,

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 30. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 4 Version: 24.

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 112 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

5 Binomial- und Poissonverteilung

5 Binomial- und Poissonverteilung 45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1

Mehr

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik Kapitel 11 Diskrete Zufallsvariablen 11.1. Wahrscheinlichkeits- und diskret Wahrscheinlichkeitsverteilungen Wahrscheinlichkeitsfunktion von X Nimmt abzählbare Anzahl von Ausprägungen an (z.b. Zählvariablen)

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik . Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen

Mehr

Dichte der geometrischen Verteilung

Dichte der geometrischen Verteilung 0,8 Ô ¼ 0,8 Ô ¼ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 7 8 9 10 0,0 1 2 3 4 5 6 7 8 9 10 0,8 Ô ¼ 0,8 Ô ¼ ¾ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 0,0 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 Dichte der geometrischen

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 7. Vorlesung - 2018 Bemerkung: Sei X = X 1,..., X n Zufallsvektor. Der n dimensionale Vektor EX = EX 1,..., EX n ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N0, 1. X, Y sind die Koordinaten

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Unabhängigkeit Prof. Dr. Achim Klenke http://www.aklenke.de 6. Vorlesung: 02.12.2011 1/30 Inhalt 1 Wahrscheinlichkeit 2 2/30 Wahrscheinlichkeit

Mehr

TU DORTMUND Sommersemester 2018

TU DORTMUND Sommersemester 2018 Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge

Mehr

Klausur,,Algorithmische Mathematik II

Klausur,,Algorithmische Mathematik II Institut für angewandte Mathematik Sommersemester 017 Andreas Eberle, Matthias Erbar / Behrend Heeren Klausur,,Algorithmische Mathematik II Musterlösung 1 (Unabhängige Zufallsvariablen) a) Wir bezeichnen

Mehr

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre

Mehr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung

Mehr

p k (1 p) n k s k = (1 p + ps) n. k p(1 p) k 1 s k ((1 p)s) k 1 =

p k (1 p) n k s k = (1 p + ps) n. k p(1 p) k 1 s k ((1 p)s) k 1 = Binomialverteilung Für X Bin(n, p) gilt nach der binomischen Formel G X (s) = E[s X ] = n ( ) n p k (1 p) n k s k = (1 p + ps) n. k Geometrische Verteilung Sei X eine geometrisch verteilte Zufallsvariable

Mehr

Klausur zu Analysis und Wahrscheinlichkeitsrechnung

Klausur zu Analysis und Wahrscheinlichkeitsrechnung 1 Klausur zu Analysis und Wahrscheinlichkeitsrechnung WS 016/17, 5.01.017 Prof. Dr. Hans-Jürgen Steens Name: Vorname: Matrikelnummer: Die Klausur besteht aus 3 Aufgaben. Es sind maximal 00 Punkte 11 +

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie

Zentralübung Diskrete Wahrscheinlichkeitstheorie Zentralübung Diskrete Wahrscheinlichkeitstheorie Christian Ivicevic (christian.ivicevic@tum.de) Technische Universität München 14. Juni 2017 Agenda Disclaimer und wichtige Hinweise Übungsaufgaben Disclaimer

Mehr

Lösungsskizzen zur Präsenzübung 09

Lösungsskizzen zur Präsenzübung 09 Lösungsskizzen zur Präsenzübung 09 Hilfestellung zur Vorlesung Anwendungen der Mathematik im Wintersemester 2015/2016 Fakultät für Mathematik Universität Bielefeld Veröffentlicht am 07. Februar 2016 von:

Mehr

Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit

Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Bedingte Wahrscheinlichkeiten und stochastische Unabhängigkeit Stochastische Unabhängigkeit von Ereignissen Beispiel: das Ziegenproblem Gewinnspiel: Hinter einer von drei Türen ist ein Preis, hinter den

Mehr