Biostatistik, WS 2010/2011 Grundlagen aus der Wahrscheinlichkeitstheorie

Größe: px
Ab Seite anzeigen:

Download "Biostatistik, WS 2010/2011 Grundlagen aus der Wahrscheinlichkeitstheorie"

Transkript

1 1/73 Biostatistik, WS 2010/2011 Grundlagen aus der Wahrscheinlichkeitstheorie Matthias Birkner

2 2/73 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

3 3/73 Inhalt Deterministische und zufällige Vorgänge 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

4 Deterministische und zufällige Vorgänge 4/73 Was können wir vorhersagen? Freier Fall: Falldauer eines Objektes bei gegebener Fallhöhe läßt sich vorhersagen (falls Luftwiderstand vernachlässigbar) (c) by Michael Maggs

5 Deterministische und zufällige Vorgänge 4/73 Was können wir vorhersagen? Freier Fall: Falldauer eines Objektes bei gegebener Fallhöhe läßt sich vorhersagen (falls Luftwiderstand vernachlässigbar) Deterministische Vorgänge laufen immer gleich ab. Aus Beobachtungen lassen sich künftige Versuche vorhersagen. (c) by Michael Maggs

6 Deterministische und zufa llige Vorga nge Was ko nnen wir vorhersagen? Wu rfelwurf: Das Ergebnis eines einzelnen Wu rfelwurfes la sst sich nicht vorhersagen. (c) public domain 5/73

7 Deterministische und zufa llige Vorga nge Was ko nnen wir vorhersagen? Wu rfelwurf: Das Ergebnis eines einzelnen Wu rfelwurfes la sst sich nicht vorhersagen. (c) public domain Wiederholter Wu rfelwurf: Wu rfelt man 600 mal, so wu rde man gerne darauf wetten, dass die Anzahl an Einsern zwischen 85 und 115 liegt. 5/73

8 Deterministische und zufa llige Vorga nge Was ko nnen wir vorhersagen? Wu rfelwurf: Das Ergebnis eines einzelnen Wu rfelwurfes la sst sich nicht vorhersagen. (c) public domain Wiederholter Wu rfelwurf: Wu rfelt man 600 mal, so wu rde man gerne darauf wetten, dass die Anzahl an Einsern zwischen 85 und 115 liegt. Die genaue Anzahl la sst sich wieder nicht vorhersagen. 5/73

9 Deterministische und zufa llige Vorga nge Was ko nnen wir vorhersagen? Wu rfelwurf: Das Ergebnis eines einzelnen Wu rfelwurfes la sst sich nicht vorhersagen. (c) public domain Wiederholter Wu rfelwurf: Wu rfelt man 600 mal, so wu rde man gerne darauf wetten, dass die Anzahl an Einsern zwischen 85 und 115 liegt. Die genaue Anzahl la sst sich wieder nicht vorhersagen. Aber: Eine Aussage u ber die Verteilung ist mo glich (die besser ist als reines Raten.) 5/73

10 Deterministische und zufällige Vorgänge 6/73 Empirisch stellt man fest: Bei Wiederholung eines Zufallsexperiments stabilisieren sich die relativen Häufigkeiten der möglichen Ergebnisse.

11 Deterministische und zufällige Vorgänge 6/73 Empirisch stellt man fest: Bei Wiederholung eines Zufallsexperiments stabilisieren sich die relativen Häufigkeiten der möglichen Ergebnisse. Beispiel: Beim Würfelwurf stabilisiert sich die relative Häufigkeit jeder der Zahlen {1, 2,..., 6} bei 1 6.

12 Deterministische und zufällige Vorgänge 6/73 Empirisch stellt man fest: Bei Wiederholung eines Zufallsexperiments stabilisieren sich die relativen Häufigkeiten der möglichen Ergebnisse. Beispiel: Fazit: Beim Würfelwurf stabilisiert sich die relative Häufigkeit jeder der Zahlen {1, 2,..., 6} bei 1 6. Das Ergebnis eines einzelnen zufälligen Vorgangs läßt sich nicht vorhersagen. Aber: Eine Aussage über die Verteilung ist möglich (die besser ist als reines Raten).

13 Deterministische und zufällige Vorgänge 7/73 Abstraktionsschritt: Verwende empirisch ermittelte Verteilung als Verteilung jedes Einzelexperiments!

14 Deterministische und zufällige Vorgänge 7/73 Abstraktionsschritt: Beispiel: Verwende empirisch ermittelte Verteilung als Verteilung jedes Einzelexperiments! Wir nehmen an, daß bei einem einzelnen Würfelwurf jede der Zahlen {1, 2,..., 6} die Wahrscheinlichkeit 1 6 hat.

15 8/73 Inhalt Zufallsvariablen und Verteilung 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

16 Zufallsvariablen und Verteilung 9/73 Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs.

17 Zufallsvariablen und Verteilung 9/73 Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs. Der Wertebereich S (engl. state space) einer Zufallsgröße ist die Menge aller möglichen Werte.

18 Zufallsvariablen und Verteilung 9/73 Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs. Der Wertebereich S (engl. state space) einer Zufallsgröße ist die Menge aller möglichen Werte. Die Verteilung einer Zufallsgröße X weist jeder Menge A S die Wahrscheinlichkeit P(X A) zu, dass X einen Wert in A annimmt

19 Zufallsvariablen und Verteilung 9/73 Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs. Der Wertebereich S (engl. state space) einer Zufallsgröße ist die Menge aller möglichen Werte. Die Verteilung einer Zufallsgröße X weist jeder Menge A S die Wahrscheinlichkeit P(X A) zu, dass X einen Wert in A annimmt Für Zufallsgrößen werden üblicherweise Großbuchstaben verwendet (z.b. X, Y, Z ), für konkrete Werte Kleinbuchstaben.

20 10/73 Zufallsvariablen und Verteilung Beispiel: Würfelwurf W = Augenzahl des nächsten Würfelwurfs. S = {1, 2,..., 6} P(W = 1) = = P(W = 6) = 1 6 ( P(W = x) = 1 für alle x {1,..., 6} ) 6 Die Verteilung erhält man aus einer Symmetrieüberlegung oder aus einer langen Würfelreihe.

21 10/73 Zufallsvariablen und Verteilung Beispiel: Würfelwurf W = Augenzahl des nächsten Würfelwurfs. S = {1, 2,..., 6} P(W = 1) = = P(W = 6) = 1 6 ( P(W = x) = 1 für alle x {1,..., 6} ) 6 Die Verteilung erhält man aus einer Symmetrieüberlegung oder aus einer langen Würfelreihe. Beispiel: Geschlecht X bei Neugeborenen. S = { männlich, weiblich } Die Verteilung erhält man aus einer langen Beobachtungsreihe.

22 10/73 Zufallsvariablen und Verteilung Beispiel: Würfelwurf W = Augenzahl des nächsten Würfelwurfs. S = {1, 2,..., 6} P(W = 1) = = P(W = 6) = 1 6 ( P(W = x) = 1 für alle x {1,..., 6} ) 6 Die Verteilung erhält man aus einer Symmetrieüberlegung oder aus einer langen Würfelreihe. Beispiel: Geschlecht X bei Neugeborenen. S = { männlich, weiblich } Die Verteilung erhält man aus einer langen Beobachtungsreihe. Beispiel: Körpergrößenverteilung in Deutschland. Die Verteilung erhält man aus einer langen Messreihe.

23 11/73 Rechenregeln: Zufallsvariablen und Verteilung Beispiel Würfelwurf W : P({W = 2} {W = 3}) = P(W {2, 3}) = 2 = = P(W = 2) + P(W = 3) Vorsicht: P(W {1, 2} {3, 4}) = 4 6 = = P(W {1, 2}) + P(W {3, 4}) P(W {2, 3}) + P(W {3, 4}) P(W {2, 3, 4})

24 Zufallsvariablen und Verteilung 12/73 Beispiel zweifacher Würfelwurf (W 1, W 2 ): Sei W 1 (bzw W 2 ) die Augenzahl des ersten (bzw zweiten) Würfels. P(W 1 {4}, W 2 {2, 3, 4}) = P((W 1, W 2 ) {(4, 2), (4, 3), (4, 4)}) = 3 36 = = P(W 1 {4}) P(W 2 {2, 3, 4})

25 Zufallsvariablen und Verteilung 13/73 Sei S die Summe der Augenzahlen, d.h. S = W 1 + W 2. Was ist die Wahrscheinlichkeit, daß S = 5 ist, wenn der erste Würfel die Augenzahl W 1 = 2 zeigt? P(S = 5 W 1 = 2)! = P(W 2 = 3) = 1 6 = 1/36 1/6 = P(S = 5, W 1 = 2) P(W 1 = 2)

26 Zufallsvariablen und Verteilung 13/73 Sei S die Summe der Augenzahlen, d.h. S = W 1 + W 2. Was ist die Wahrscheinlichkeit, daß S = 5 ist, wenn der erste Würfel die Augenzahl W 1 = 2 zeigt? P(S = 5 W 1 = 2)! = P(W 2 = 3) = 1 6 = 1/36 1/6 = P(S = 5, W 1 = 2) P(W 1 = 2) Was ist die Ws von S {4, 5} unter der Bedingung W 1 {1, 6}? P(S {4, 5} W 1 {1, 6})! = P(W 2 {3, 4}) = 2 6 = 4/36 2/6 = P(W 2 {3, 4}, W 1 {1, 6}) P(W 1 {1, 6}) = P(S {4, 5}, W 1 {1, 6}) P(W 1 {1, 6})

27 14/73 Rechenregeln: Zufallsvariablen und Verteilung Seien X, Y Zufallsgrößen mit Wertebereich S. 0 P(X A) 1 für jede Teilmenge A S

28 14/73 Rechenregeln: Zufallsvariablen und Verteilung Seien X, Y Zufallsgrößen mit Wertebereich S. 0 P(X A) 1 für jede Teilmenge A S P(X S) = 1

29 14/73 Rechenregeln: Zufallsvariablen und Verteilung Seien X, Y Zufallsgrößen mit Wertebereich S. 0 P(X A) 1 für jede Teilmenge A S P(X S) = 1 Sind A, B S disjunkt, d.h. A B =, P(X A B) = P(X A) + P(X B)

30 14/73 Rechenregeln: Zufallsvariablen und Verteilung Seien X, Y Zufallsgrößen mit Wertebereich S. 0 P(X A) 1 für jede Teilmenge A S P(X S) = 1 Sind A, B S disjunkt, d.h. A B =, P(X A B) = P(X A) + P(X B) Bayes-Formel für die bedingte Wahrscheinlichkeit: Ws des Ereignisses {Y B} unter der Bedingung {X A} P(Y B X A) := P(Y B, X A) P(X A) bedingte Ws von {Y B} gegeben {X A}

31 14/73 Rechenregeln: Zufallsvariablen und Verteilung Seien X, Y Zufallsgrößen mit Wertebereich S. 0 P(X A) 1 für jede Teilmenge A S P(X S) = 1 Sind A, B S disjunkt, d.h. A B =, P(X A B) = P(X A) + P(X B) Bayes-Formel für die bedingte Wahrscheinlichkeit: Ws des Ereignisses {Y B} unter der Bedingung {X A} P(Y B X A) := P(Y B, X A) P(X A) bedingte Ws von {Y B} gegeben {X A} Beachte: P(X A, Y B) = P(X A) P(Y B X A)

32 Zufallsvariablen und Verteilung 15/73 Wir wollen P(X A, Y B) = P(X A) P(Y B X A) in Worten ausdrücken:

33 Zufallsvariablen und Verteilung 15/73 Wir wollen P(X A, Y B) = P(X A) P(Y B X A) in Worten ausdrücken: Die Ws des Ereignisses {X A, Y B} läßt sich in zwei Schritten berechnen: Zunächst muss das Ereignis {X A} eintreten. Die Ws hiervon wird multipliziert mit der Ws von {Y B}, wenn man schon weiß, daß {X A} eintritt.

34 16/73 Zufallsvariablen und Verteilung Stochastische Unabhängigkeit Definition Zwei Zufallsgrößen X und Y heißen (stochastisch) unabhängig, wenn für alle Ereignisse {X A}, {Y B} gilt P(X A, Y B) = P(X A) P(Y B)

35 Zufallsvariablen und Verteilung 16/73 Stochastische Unabhängigkeit Definition Zwei Zufallsgrößen X und Y heißen (stochastisch) unabhängig, wenn für alle Ereignisse {X A}, {Y B} gilt Beispiel: P(X A, Y B) = P(X A) P(Y B) Werfen zweier Würfel: X = Augenzahl Würfel 1, Y = Augenzahl Würfel 2. P(X = 2, Y = 5) = 1 36 = = P(X = 2) P(Y = 5)

36 17/73 Zufallsvariablen und Verteilung Stochastische Unabhängigkeit In der Praxis wendet man häufig Resultate an, die Unabhängigkeit einer Stichprobe voraussetzen.

37 Zufallsvariablen und Verteilung 17/73 Stochastische Unabhängigkeit In der Praxis wendet man häufig Resultate an, die Unabhängigkeit einer Stichprobe voraussetzen. Beispiele: Für eine Studie wird eine zufällige Person in München und eine zufällige Person in Hamburg befragt. Die Antworten dürfen als unabhängig voneinander angenommen werden.

38 Zufallsvariablen und Verteilung 17/73 Stochastische Unabhängigkeit In der Praxis wendet man häufig Resultate an, die Unabhängigkeit einer Stichprobe voraussetzen. Beispiele: Für eine Studie wird eine zufällige Person in München und eine zufällige Person in Hamburg befragt. Die Antworten dürfen als unabhängig voneinander angenommen werden. Befragt man zwei Schwestern oder nahe verwandte (getrennt voneinander), so werden die Antworten nicht unabhängig voneinander sein.

39 18/73 Inhalt Die Binomialverteilung 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

40 19/73 Die Binomialverteilung Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten.

41 Die Binomialverteilung 19/73 Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten. Diese werden üblicherweise mit 1 und 0 bezeichnet

42 Die Binomialverteilung 19/73 Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten. Diese werden üblicherweise mit 1 und 0 bezeichnet, beziehungsweise als Erfolg und Misserfolg.

43 Die Binomialverteilung 19/73 Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten. Diese werden üblicherweise mit 1 und 0 bezeichnet, beziehungsweise als Erfolg und Misserfolg. Bernoulli-Zufallsgröße X: Zustandsraum S = {0, 1}. Verteilung: P(X = 1) = p P(X = 0) = 1 p Der Parameter p [0, 1] heißt Erfolgswahrscheinlichkeit.

44 Die Binomialverteilung 20/73 Bernoulli-Verteilung Beispiele: Münzwurf: mögliche Werte sind Kopf und Zahl.

45 Die Binomialverteilung 20/73 Bernoulli-Verteilung Beispiele: Münzwurf: mögliche Werte sind Kopf und Zahl. Hat die gesampelte Drosophila eine Mutation, die weiße Augen verursacht? Mögliche Antworten sind Ja und Nein.

46 Die Binomialverteilung 20/73 Bernoulli-Verteilung Beispiele: Münzwurf: mögliche Werte sind Kopf und Zahl. Hat die gesampelte Drosophila eine Mutation, die weiße Augen verursacht? Mögliche Antworten sind Ja und Nein. Das Geschlecht einer Person hat die möglichen Werte männlich und weiblich.

47 21/73 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt.

48 21/73 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt?

49 21/73 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? p p p p = p n

50 21/73 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? 2...immer scheitert? p p p p = p n

51 21/73 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? 2...immer scheitert? p p p p = p n (1 p) (1 p) (1 p) = (1 p) n

52 21/73 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? 2...immer scheitert? p p p p = p n (1 p) (1 p) (1 p) = (1 p) n 3...erst k mal gelingt und dann n k mal scheitert?

53 21/73 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? 2...immer scheitert? p p p p = p n (1 p) (1 p) (1 p) = (1 p) n 3...erst k mal gelingt und dann n k mal scheitert? p k (1 p) n k 4...insgesamt k mal gelingt und n k mal scheitert?

54 21/73 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? 2...immer scheitert? p p p p = p n (1 p) (1 p) (1 p) = (1 p) n 3...erst k mal gelingt und dann n k mal scheitert? p k (1 p) n k 4...insgesamt k mal gelingt und n k mal scheitert? ( ) n p k (1 p) n k k

55 Die Binomialverteilung 22/73 Erläuterung ( n ) k = n! ist die Anzahl der Möglichkeiten, die k Erfolge in k! (n k)! die n Versuche einzusortieren.

56 23/73 Die Binomialverteilung Binomialverteilung Sei X die Anzahl der Erfolge bei n unabhängigen Versuchen mit Erfolgswahrscheinlichkeit von jeweils p. Dann gilt für k {0, 1,..., n} ( ) n P(X = k) = p k (1 p) n k k und X heißt binomialverteilt, kurz: X bin(n, p).

57 Die Binomialverteilung 24/73 probabilities of bin(n=10,p=0.2) k

58 Die Binomialverteilung 24/73 probabilities of bin(n=100,p=0.2) k

59 25/73 Inhalt Erwartungswert 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

60 Erwartungswert 26/73 Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R.

61 Erwartungswert 26/73 Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a P(X = a)

62 Erwartungswert 26/73 Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a P(X = a) Manche schreiben auch µ X statt EX.

63 Erwartungswert 26/73 Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a P(X = a) Ersetzt man in der Definition die Wahrscheinlichkeit durch relative Häufigkeiten, so erhält man die bekannte Formel Erwartungswert = Summe der Werte Anzahl der Werte :

64 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a P(X = a) Ersetzt man in der Definition die Wahrscheinlichkeit durch relative Häufigkeiten, so erhält man die bekannte Formel Summe der Werte Erwartungswert = Anzahl der Werte : Sei k a die Häufigkeit des Wertes a in einer Gesamtheit der Größe n, so schreibt sich der Erwartungswert als a ka n = a a k a = n EX = a Summe der Werte Anzahl der Werte. 26/73

65 Erwartungswert 27/73 Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a P(X = a)

66 Erwartungswert 27/73 Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a P(X = a) Sei X Bernoulli-verteilt mit Erfolgswahrscheinlichkeit p [0, 1]. Dann gilt EX = 1 P(X = 1) + 0 P(X = 0) = P(X = 1) = p

67 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a P(X = a) Sei X Bernoulli-verteilt mit Erfolgswahrscheinlichkeit p [0, 1]. Dann gilt EX = 1 P(X = 1) + 0 P(X = 0) = P(X = 1) = p Sei W die Augenzahl bei einem Würfelwurf. Dann gilt EW = 1 P(W = 1) + 2 P(W = 2) + 6 P(W = 6) = = 21 6 = /73

68 Erwartungswert 28/73 Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem Wertebereich S R. Sei f : S R eine Funktion.

69 Erwartungswert 28/73 Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem Wertebereich S R. Sei f : S R eine Funktion. Dann ist der Erwartungswert von f (X) definiert durch E[f (X)] = a S f (a) P(X = a)

70 Erwartungswert 28/73 Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem Wertebereich S R. Sei f : S R eine Funktion. Dann ist der Erwartungswert von f (X) definiert durch E[f (X)] = a S f (a) P(X = a) Beispiel: Sei W die Augenzahl bei einem Würfelwurf. Dann gilt E[W 2 ] = 1 2 P(W = 1) P(W = 2) P(W = 6) = = 91 6

71 Erwartungswert 29/73 Rechnen mit Erwartungswerten Satz (Linearität der Erwartung) Sind X und Y Zufallsvariablen mit Werten in R und ist a R, so gilt: E(a X) = a EX E(X + Y ) = EX + EY

72 Erwartungswert 29/73 Rechnen mit Erwartungswerten Satz (Linearität der Erwartung) Sind X und Y Zufallsvariablen mit Werten in R und ist a R, so gilt: E(a X) = a EX E(X + Y ) = EX + EY Satz (Nur für Unabhängige!) Sind X und Y stochastisch unabhängige Zufallsvariablen mit Werten in R, so gilt E(X Y ) = EX EY.

73 Erwartungswert 29/73 Rechnen mit Erwartungswerten Satz (Linearität der Erwartung) Sind X und Y Zufallsvariablen mit Werten in R und ist a R, so gilt: E(a X) = a EX E(X + Y ) = EX + EY Satz (Nur für Unabhängige!) Sind X und Y stochastisch unabhängige Zufallsvariablen mit Werten in R, so gilt E(X Y ) = EX EY. Beweise ggf. an der Tafel.

74 30/73 Erwartungswert Erwartungswert der Binomialverteilung Seien Y 1, Y 2,..., Y n die Indikatorvariablen der n unabhängigen Versuche d.h. { 1 falls der i te Versuch gelingt Y i = 0 falls der i te Versuch scheitert

75 30/73 Erwartungswert Erwartungswert der Binomialverteilung Seien Y 1, Y 2,..., Y n die Indikatorvariablen der n unabhängigen Versuche d.h. { 1 falls der i te Versuch gelingt Y i = 0 falls der i te Versuch scheitert Dann ist X = Y Y n binomialverteilt mit Parametern (n, p), wobei p die Erfolgswahrscheinlichkeit der Versuche ist.

76 30/73 Erwartungswert Erwartungswert der Binomialverteilung Seien Y 1, Y 2,..., Y n die Indikatorvariablen der n unabhängigen Versuche d.h. { 1 falls der i te Versuch gelingt Y i = 0 falls der i te Versuch scheitert Dann ist X = Y Y n binomialverteilt mit Parametern (n, p), wobei p die Erfolgswahrscheinlichkeit der Versuche ist. Wegen der Linearität der Erwartung gilt EX = E(Y Y n ) = EY EY n

77 30/73 Erwartungswert Erwartungswert der Binomialverteilung Seien Y 1, Y 2,..., Y n die Indikatorvariablen der n unabhängigen Versuche d.h. { 1 falls der i te Versuch gelingt Y i = 0 falls der i te Versuch scheitert Dann ist X = Y Y n binomialverteilt mit Parametern (n, p), wobei p die Erfolgswahrscheinlichkeit der Versuche ist. Wegen der Linearität der Erwartung gilt EX = E(Y Y n ) = EY EY n = p + + p = np

78 31/73 Erwartungswert Erwartungswert der Binomialverteilung Wir halten fest: X bin(n, p) EX = n p

79 32/73 Inhalt Varianz und Korrelation 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

80 Varianz und Korrelation 33/73 Definition (Varianz, Kovarianz und Korrelation) Die Varianz einer R-wertigen Zufallsgröße X ist VarX = σ 2 X = E [ (X EX) 2].

81 Varianz und Korrelation 33/73 Definition (Varianz, Kovarianz und Korrelation) Die Varianz einer R-wertigen Zufallsgröße X ist VarX = σx 2 = E [ (X EX) 2]. σ X = Var X ist die Standardabweichung.

82 Varianz und Korrelation 33/73 Definition (Varianz, Kovarianz und Korrelation) Die Varianz einer R-wertigen Zufallsgröße X ist VarX = σ 2 X = E [ (X EX) 2]. σ X = Var X ist die Standardabweichung. Ist Y eine weitere reellwertige Zufallsvariable, so ist Cov(X, Y ) = E [(X EX) (Y EY )] die Kovarianz von X und Y.

83 Varianz und Korrelation 33/73 Definition (Varianz, Kovarianz und Korrelation) Die Varianz einer R-wertigen Zufallsgröße X ist VarX = σ 2 X = E [ (X EX) 2]. σ X = Var X ist die Standardabweichung. Ist Y eine weitere reellwertige Zufallsvariable, so ist Cov(X, Y ) = E [(X EX) (Y EY )] die Kovarianz von X und Y. Die Korrelation von X und Y ist Cor(X, Y ) = Cov(X, Y ) σ X σ Y.

84 Varianz und Korrelation 34/73 Die Varianz VarX = E [ (X EX) 2] ist die mittlere quadrierte Abweichung vom Mittelwert.

85 Varianz und Korrelation 34/73 Die Varianz VarX = E [ (X EX) 2] ist die mittlere quadrierte Abweichung vom Mittelwert. Die Korrelation Cor(X, Y ) = Cov(X, Y ) σ X σ Y liegt immer im Intervall [ 1, 1]. Die Variablen X und Y sind positiv korreliert, wenn X und Y tendenziell entweder beide überdurchschnittlich große Werte oder beide unterdurchschnittlich große Werte annehmen. negativ korreliert, wenn X und Y tendenziell auf verschiedenen Seiten ihrer Erwartungswerte liegen.

86 Varianz und Korrelation 34/73 Die Varianz VarX = E [ (X EX) 2] ist die mittlere quadrierte Abweichung vom Mittelwert. Die Korrelation Cor(X, Y ) = Cov(X, Y ) σ X σ Y liegt immer im Intervall [ 1, 1]. Die Variablen X und Y sind positiv korreliert, wenn X und Y tendenziell entweder beide überdurchschnittlich große Werte oder beide unterdurchschnittlich große Werte annehmen. negativ korreliert, wenn X und Y tendenziell auf verschiedenen Seiten ihrer Erwartungswerte liegen. Sind X und Y unabhängig, so sind sie auch unkorreliert, d.h. Cor(X, Y ) = 0.

87 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y 35/73

88 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [X EX]>0 [X EX]<0 35/73

89 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [Y EY]>0 [Y EY]<0 [X EX]>0 [X EX]<0 35/73

90 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [X EX]*[Y EY]<0 [X EX]*[Y EY]>0 [X EX]*[Y EY]>0 [X EX]*[Y EY]<0 35/73

91 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [X EX]*[Y EY]<0 [X EX]*[Y EY]>0 [X EX]*[Y EY]>0 [X EX]*[Y EY]<0 Cov(X,Y)= /73

92 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [X EX]*[Y EY]<0 [X EX]*[Y EY]>0 [X EX]*[Y EY]>0 [X EX]*[Y EY]<0 35/73

93 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [X EX]*[Y EY]<0 [X EX]*[Y EY]>0 [X EX]*[Y EY]>0 [X EX]*[Y EY]<0 Cov(X,Y)= /73

94 36/73 Varianz und Korrelation Beispiel: Die empirische Verteilung Sind x 1,..., x n R Daten und entsteht X durch rein zufälliges Ziehen aus diesen Daten, so gilt: EX = x und Var X = 1 n n (x i x) 2 i=1

95 36/73 Varianz und Korrelation Beispiel: Die empirische Verteilung Sind x 1,..., x n R Daten und entsteht X durch rein zufälliges Ziehen aus diesen Daten, so gilt: EX = x und Var X = 1 n n (x i x) 2 i=1 Entsprechend kann man auch für Daten (x i, y i ) die empirischen Kovarianzen und Korrelationen ausrechen, siehe nächste Seite...

96 Varianz und Korrelation σ X = 0.95, σ Y = X Y 37/73

97 Varianz und Korrelation σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = X Y 37/73

98 Varianz und Korrelation σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y 37/73

99 Varianz und Korrelation σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y σ X = 1.13, σ Y = X Y 37/73

100 Varianz und Korrelation σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = X Y 37/73

101 Varianz und Korrelation σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = 1.26 Cor(X, Y ) = X Y 37/73

102 Varianz und Korrelation σ X = 1.14, σ Y = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = 1.26 Cor(X, Y ) = X Y 37/73

103 Varianz und Korrelation σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = 1.26 Cor(X, Y ) = X Y 37/73

104 Varianz und Korrelation σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = 1.26 Cor(X, Y ) = X Y 37/73

105 Varianz und Korrelation σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y σ X = 1.03, σ Y = X Y 37/73

106 Varianz und Korrelation σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = X Y 37/73

107 Varianz und Korrelation σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = 0.32 Cor(X, Y ) = X Y 37/73

108 Varianz und Korrelation σ X = 0.91, σ Y = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = 0.32 Cor(X, Y ) = X Y 37/73

109 Varianz und Korrelation σ X = 0.91, σ Y = 0.88 Cov(X, Y ) = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = 0.32 Cor(X, Y ) = X Y 37/73

110 Varianz und Korrelation σ X = 0.91, σ Y = 0.88 Cov(X, Y ) = 0 Cor(X, Y ) = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = 0.32 Cor(X, Y ) = X Y 37/73

111 38/73 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X)

112 Varianz und Korrelation 38/73 Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2

113 Varianz und Korrelation 38/73 Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) =

114 Varianz und Korrelation 38/73 Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX

115 Varianz und Korrelation 38/73 Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) =

116 Varianz und Korrelation 38/73 Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) = VarX + VarY + 2 Cov(X, Y )

117 38/73 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) = VarX + VarY + 2 Cov(X, Y ) Var ( n i=1 X i) =

118 38/73 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) = VarX + VarY + 2 Cov(X, Y ) ( n Var i=1 X i) = n i=1 Var( ) X i + 2 n j 1 j=1 i=1 Cov(X i, X j )

119 38/73 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) = VarX + VarY + 2 Cov(X, Y ) ( n Var i=1 X i) = n i=1 Var( ) X i + 2 n j 1 j=1 i=1 Cov(X i, X j ) Sind (X, Y ) stochastisch unabhängig, so folgt: Var(X + Y ) = VarX + VarY

120 39/73 Varianz und Korrelation Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!)

121 Varianz und Korrelation 39/73 Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X)

122 Varianz und Korrelation 39/73 Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X) Cov(X, Y ) = E(X Y ) EX EY

123 Varianz und Korrelation 39/73 Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X) Cov(X, Y ) = E(X Y ) EX EY Cov(a X, Y ) = a Cov(X, Y ) = Cov(X, a Y )

124 Varianz und Korrelation 39/73 Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X) Cov(X, Y ) = E(X Y ) EX EY Cov(a X, Y ) = a Cov(X, Y ) = Cov(X, a Y ) Cov(X + Z, Y ) = Cov(X, Y ) + Cov(Z, Y )

125 Varianz und Korrelation 39/73 Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X) Cov(X, Y ) = E(X Y ) EX EY Cov(a X, Y ) = a Cov(X, Y ) = Cov(X, a Y ) Cov(X + Z, Y ) = Cov(X, Y ) + Cov(Z, Y ) Cov(X, Z + Y ) = Cov(X, Z ) + Cov(X, Y )

126 Varianz und Korrelation 39/73 Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X) Cov(X, Y ) = E(X Y ) EX EY Cov(a X, Y ) = a Cov(X, Y ) = Cov(X, a Y ) Cov(X + Z, Y ) = Cov(X, Y ) + Cov(Z, Y ) Cov(X, Z + Y ) = Cov(X, Z ) + Cov(X, Y ) Die letzten drei Regeln beschreiben die Bilinearität der Kovarianz.

127 Varianz und Korrelation 40/73 Rechenregeln für die Korrelation 1 Cor(X, Y ) 1 Cor(X, Y ) = Cor(Y, X) Cor(X, Y ) = Cov(X, Y ) σ X σ Y Cor(X, Y ) = Cov(X/σ X, Y /σ Y ) Cor(X, Y ) = 1 genau dann wenn Y eine wachsende, affin-lineare Funktion von X ist, d.h. falls es a > 0 und b R gibt, so dass Y = a X + b Cor(X, Y ) = 1 genau dann wenn Y eine fallende, affin-lineare Funktion von X ist, d.h. falls es a < 0 und b R gibt, so dass Y = a X + b

128 Varianz und Korrelation 41/73 Mit diesen Rechenregeln können wir nun beweisen: Satz Sind X 1, X 2,... X n unabhängige R-wertige Zufallsgrößen mit Mittelwert µ und Varianz σ 2, so gilt für X = 1 n n i=1 X i: EX = µ und Var X = 1 n σ2, d.h. σ X = σ n

129 Varianz und Korrelation 42/73 Beweis: Linearität des Erwartungswertes impliziert ( 1 EX = E n = 1 n n ) X i = 1 n i=1 n µ = µ. i=1 n E ( ) X i i=1

130 Varianz und Korrelation 42/73 Beweis: Linearität des Erwartungswertes impliziert ( 1 EX = E n = 1 n n ) X i = 1 n i=1 n µ = µ. i=1 n E ( ) X i i=1 Die Unabhängigkeit der X i vereinfacht die Varianz zu ( 1 Var X = Var n = 1 n 2 n i=1 n ) X i = 1 ( n ) n Var X 2 i i=1 Var ( X i ) = 1 n 2 i=1 n σ 2 = 1 n σ2 i=1

131 43/73 Varianz und Korrelation Bernoulli-Verteilung Eine Bernoulli-verteilte Zufallsvariable Y mit Erfolgsws p [0, 1] hat Erwartungswert EY = p und Varianz Var Y = p (1 p)

132 43/73 Varianz und Korrelation Bernoulli-Verteilung Eine Bernoulli-verteilte Zufallsvariable Y mit Erfolgsws p [0, 1] hat Erwartungswert EY = p und Varianz Var Y = p (1 p) Beweis: Aus P(Y = 1) = p und P(Y = 0) = (1 p) folgt EY = 1 p + 0 (1 p) = p.

133 43/73 Varianz und Korrelation Bernoulli-Verteilung Eine Bernoulli-verteilte Zufallsvariable Y mit Erfolgsws p [0, 1] hat Erwartungswert EY = p und Varianz Var Y = p (1 p) Beweis: Aus P(Y = 1) = p und P(Y = 0) = (1 p) folgt EY = 1 p + 0 (1 p) = p. Varianz: Var Y = E ( Y 2) ( EY ) 2 = 1 2 p (1 p) p 2 = p (1 p)

134 44/73 Varianz und Korrelation Binomialverteilung Seien nun Y 1,, Y n unabhängig und Bernoulli-verteilt mit Erfolgsws p. Dann gilt und es folgt: n Y i =: X bin(n, p) i=1 Var X =

135 44/73 Varianz und Korrelation Binomialverteilung Seien nun Y 1,, Y n unabhängig und Bernoulli-verteilt mit Erfolgsws p. Dann gilt und es folgt: n Y i =: X bin(n, p) i=1 ( n ) Var X = Var Y i = i=1

136 44/73 Varianz und Korrelation Binomialverteilung Seien nun Y 1,, Y n unabhängig und Bernoulli-verteilt mit Erfolgsws p. Dann gilt und es folgt: n Y i =: X bin(n, p) i=1 ( n ) Var X = Var Y i = i=1 n Var Y i = i=1

137 44/73 Varianz und Korrelation Binomialverteilung Seien nun Y 1,, Y n unabhängig und Bernoulli-verteilt mit Erfolgsws p. Dann gilt und es folgt: n Y i =: X bin(n, p) i=1 ( n ) Var X = Var Y i = i=1 n Var Y i = n p (1 p) i=1

138 45/73 Varianz und Korrelation Binomialverteilung Satz (Erwartungswert und Varianz der Binomialverteilung) Ist X binomialverteilt mit Parametern (n, p), so gilt: EX = n p und Var X = n p (1 p)

139 46/73 Inhalt Ein Anwendungsbeispiel 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

140 Ein Anwendungsbeispiel 47/73 In einem Genom werde die Aminosäure Prolin mal durch CCT und mal durch CCA codiert.

141 Ein Anwendungsbeispiel 47/73 In einem Genom werde die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird?

142 Ein Anwendungsbeispiel 47/73 In einem Genom werde die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird? Dann wäre die Anzahl X der CCT binomialverteilt mit p = 1 2 und n = =

143 Ein Anwendungsbeispiel 47/73 In einem Genom werde die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird? Dann wäre die Anzahl X der CCT binomialverteilt mit p = 1 2 und n = = EX = n p =

144 Ein Anwendungsbeispiel 47/73 In einem Genom werde die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird? Dann wäre die Anzahl X der CCT binomialverteilt mit p = 1 2 und n = = EX = n p = σ X = n p (1 p) 228

145 Ein Anwendungsbeispiel 47/73 In einem Genom werde die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird? Dann wäre die Anzahl X der CCT binomialverteilt mit p = 1 2 und n = = EX = n p = σ X = n p (1 p) = σ X

146 Ein Anwendungsbeispiel 47/73 In einem Genom werde die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird? Dann wäre die Anzahl X der CCT binomialverteilt mit p = 1 2 und n = = EX = n p = σ X = n p (1 p) = σ X Sieht das nach Zufall aus?

147 Ein Anwendungsbeispiel 48/73 Die Frage ist: Wie groß ist die Wahrscheinlichkeit einer Abweichung vom Erwartungswert von mindestens 9.5 σ X, wenn alles Zufall ist?

148 Ein Anwendungsbeispiel 48/73 Die Frage ist: Wie groß ist die Wahrscheinlichkeit einer Abweichung vom Erwartungswert von mindestens 9.5 σ X, wenn alles Zufall ist? Wir müssen also berechnen. P ( X EX 9.5σ X )

149 Ein Anwendungsbeispiel 48/73 Die Frage ist: Wie groß ist die Wahrscheinlichkeit einer Abweichung vom Erwartungswert von mindestens 9.5 σ X, wenn alles Zufall ist? Wir müssen also berechnen. P ( X EX 9.5σ X ) Das Problem bei der Binomialverteilung ist: ( n k) exakt zu berechnen, ist für große n sehr aufwändig. Deshalb:

150 Ein Anwendungsbeispiel 48/73 Die Frage ist: Wie groß ist die Wahrscheinlichkeit einer Abweichung vom Erwartungswert von mindestens 9.5 σ X, wenn alles Zufall ist? Wir müssen also berechnen. P ( X EX 9.5σ X ) Das Problem bei der Binomialverteilung ist: ( n k) exakt zu berechnen, ist für große n sehr aufwändig. Deshalb: Die Binomialverteilung wird oft durch andere Verteilungen approximiert.

151 49/73 Inhalt Die Normalverteilung 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

152 Die Normalverteilung 50/73 Die Binomialverteilung mit großer Versuchzahl n sieht (nahezu) aus wie die Normalverteilung: dbinom(400:600, 1000, 0.5) :600

153 Die Normalverteilung 50/73 Die Binomialverteilung mit großer Versuchzahl n sieht (nahezu) aus wie die Normalverteilung: dbinom(400:600, 1000, 0.5) :600

154 Die Normalverteilung Dichte der Standardnormalverteilung Eine Zufallsvariable Z mit der Dichte f (x) = 1 2π e x2 2 Gauß-Glocke heißt standardnormalverteilt. 51/73

155 Die Normalverteilung Dichte der Standardnormalverteilung Eine Zufallsvariable Z mit der Dichte f (x) = 1 2π e x2 2 Gauß-Glocke kurz: Z N (0, 1) heißt standardnormalverteilt. 51/73

156 Die Normalverteilung Dichte der Standardnormalverteilung Eine Zufallsvariable Z mit der Dichte f (x) = 1 2π e x2 2 Gauß-Glocke kurz: Z N (0, 1) EZ = 0 Var Z = heißt standardnormalverteilt. 51/73

157 Die Normalverteilung 52/73 Ist Z N (0, 1)-verteilt, so ist X = σ Z + µ normalverteilt mit Mittelwert µ und Varianz σ 2, kurz: X N (µ, σ 2 )

158 Die Normalverteilung 52/73 Ist Z N (0, 1)-verteilt, so ist X = σ Z + µ normalverteilt mit Mittelwert µ und Varianz σ 2, kurz: X N (µ, σ 2 ) X hat dann die Dichte f (x) = 1 2πσ e (x µ)2 2σ 2.

159 Die Normalverteilung 53/73 Merkregeln Ist Z N (µ, σ 2 ), so gilt: P( Z µ > σ) 33%

160 Die Normalverteilung 53/73 Merkregeln Ist Z N (µ, σ 2 ), so gilt: P( Z µ > σ) 33% P( Z µ > 1.96 σ) 5%

161 Die Normalverteilung 53/73 Merkregeln Ist Z N (µ, σ 2 ), so gilt: P( Z µ > σ) 33% P( Z µ > 1.96 σ) 5% P( Z µ > 3 σ) 0.3%

162 Die Normalverteilung 54/73 f (x) = 1 e (x µ)2 2σ 2 2πσ µ σ µ µ + σ

163 55/73 Die Normalverteilung Dichten brauchen Integrale Sei Z eine Zufallsvariable mit Dichte f (x) Dann gilt a b P(Z [a, b]) =

164 55/73 Die Normalverteilung Dichten brauchen Integrale Sei Z eine Zufallsvariable mit Dichte f (x) Dann gilt P(Z [a, b]) = a b b a f (x)dx.

165 Die Normalverteilung Die Standardnormal-Dichte und das Gauß sche Fehlerintegral Φ: f (x) = 1 2π e x 2 /2 Standard Normaldichte a e x2 2 b 2π Sei Z standard-normalverteilt: Φ(a) = a π e x 2 /2 dx, also für a R P(Z a) = Φ(a), und für a < b P(Z [a, b]) = P(Z b) P(Z a) Die Funktion Φ läßt sich nicht durch elementare Integration ausdrücken, sie wird numerisch bestimmt; man entnimmt in der Praxis den Wert einem Computerprogramm oder einer Tabelle. x 56/73

166 Die Normalverteilung 57/73 Sei Z N (µ, σ 2 ). Frage: Wie berechnet man P(Z = 5)?

167 Die Normalverteilung 57/73 Sei Z N (µ, σ 2 ). Frage: Wie berechnet man P(Z = 5)? Antwort: Für jedes x R gilt P(Z = x) = 0

168 Die Normalverteilung 57/73 Sei Z N (µ, σ 2 ). Frage: Wie berechnet man P(Z = 5)? Antwort: Für jedes x R gilt P(Z = x) = 0 Was wird dann aus EZ = a S a P(Z = a)?

169 Die Normalverteilung 57/73 Sei Z N (µ, σ 2 ). Frage: Wie berechnet man P(Z = 5)? Antwort: Für jedes x R gilt P(Z = x) = 0 Was wird dann aus EZ = a S a P(Z = a)? Muss reformiert werden: EZ = x f (x)dx

170 Die Normalverteilung 57/73 Sei Z N (µ, σ 2 ). Frage: Wie berechnet man P(Z = 5)? Antwort: Für jedes x R gilt P(Z = x) = 0 Was wird dann aus EZ = a S a P(Z = a)? Muss reformiert werden: EZ = x f (x)dx Aber zum Glück kennen wir schon das Ergebnis EZ = µ.

171 58/73 Inhalt Normalapproximation 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

172 59/73 Normalapproximation Normalapproximation Für große n und p, die nicht zu nahe bei 0 oder 1 liegen, kann man die Binomialverteilung durch die Normalverteilung mit dem entsprechenden Erwartungswert und der entsprechenden Varianz approximieren:

173 59/73 Normalapproximation Normalapproximation Für große n und p, die nicht zu nahe bei 0 oder 1 liegen, kann man die Binomialverteilung durch die Normalverteilung mit dem entsprechenden Erwartungswert und der entsprechenden Varianz approximieren: Ist X bin(n, p) und Z N (µ, σ 2 ) so gilt P(X [a, b]) P(Z [a, b])

174 59/73 Normalapproximation Normalapproximation Für große n und p, die nicht zu nahe bei 0 oder 1 liegen, kann man die Binomialverteilung durch die Normalverteilung mit dem entsprechenden Erwartungswert und der entsprechenden Varianz approximieren: Ist X bin(n, p) und Z N (µ, σ 2 ) mit µ = n p und σ 2 = n p (1 p) so gilt P(X [a, b]) P(Z [a, b])

175 59/73 Normalapproximation Normalapproximation Für große n und p, die nicht zu nahe bei 0 oder 1 liegen, kann man die Binomialverteilung durch die Normalverteilung mit dem entsprechenden Erwartungswert und der entsprechenden Varianz approximieren: Ist X bin(n, p) und Z N (µ, σ 2 ) mit µ = n p und σ 2 = n p (1 p) so gilt P(X [a, b]) P(Z [a, b]) (eine Faustregel: für den Hausgebrauch meist okay, wenn n p (1 p) 9)

176 Normalapproximation 60/73 n = 1000, p = 0.5, n p (1 p) = 250 dbinom(400:600, 1000, 0.5) :600

177 Normalapproximation 60/73 n = 1000, p = 0.5, n p (1 p) = 250 dbinom(400:600, 1000, 0.5) :600

178 Normalapproximation 60/73 n = 10, p = 0.2, n p (1 p) = 1.6 dbinom(0:10, 10, 0.2) :10

179 Normalapproximation 60/73 n = 10, p = 0.2, n p (1 p) = 1.6 dbinom(0:10, 10, 0.2) :10

180 61/73 Normalapproximation Zentraler Grenzwertsatz Ein anderer Ausdruck für Normalapproximation ist Zentraler Grenzwertsatz.

181 Normalapproximation 61/73 Zentraler Grenzwertsatz Ein anderer Ausdruck für Normalapproximation ist Zentraler Grenzwertsatz. Der zentrale Grenzwertsatz besagt, dass die Verteilung von Summen unabhängiger und identisch verteilter Zufallsvariablen in etwa die Normalverteilung ist.

182 Normalapproximation 62/73 Theorem (Zentraler Grenzwertsatz) Die R-wertigen Zufallsgrößen X 1, X 2,... seien unabhängig und identisch verteilt mit endlicher Varianz 0 < σ 2 = Var X i <. Sei außerdem Z n := X 1 + X X n die Summe der ersten n Variablen.

183 Normalapproximation 62/73 Theorem (Zentraler Grenzwertsatz) Die R-wertigen Zufallsgrößen X 1, X 2,... seien unabhängig und identisch verteilt mit endlicher Varianz 0 < σ 2 = Var X i <. Sei außerdem Z n := X 1 + X X n die Summe der ersten n Variablen. Dann ist die zentrierte und reskalierte Summe im Limes n standardnormalverteilt, d.h. Z n EZ n Var Zn ist ungefähr N (0, 1) für große n.

184 Normalapproximation 62/73 Theorem (Zentraler Grenzwertsatz) Die R-wertigen Zufallsgrößen X 1, X 2,... seien unabhängig und identisch verteilt mit endlicher Varianz 0 < σ 2 = Var X i <. Sei außerdem Z n := X 1 + X X n die Summe der ersten n Variablen. Dann ist die zentrierte und reskalierte Summe im Limes n standardnormalverteilt, d.h. Z n EZ n Var Zn ist ungefähr N (0, 1) für große n. Formal: Es gilt für alle a < b lim P(a Z n b) = P(a Z b), n wobei Z eine standardnormalverteilte Zufallsvariable ist.

185 Normalapproximation 63/73 Anders formuliert: Für große n gilt (approximativ) Z n N ( µ, σ 2) mit µ = EZ n, σ 2 = Var Z n

186 Normalapproximation 63/73 Anders formuliert: Für große n gilt (approximativ) Z n N ( µ, σ 2) mit µ = EZ n, σ 2 = Var Z n Die Voraussetzungen unabhängig und identisch verteilt lassen sich noch deutlich abschwächen.

187 Normalapproximation 63/73 Anders formuliert: Für große n gilt (approximativ) Z n N ( µ, σ 2) mit µ = EZ n, σ 2 = Var Z n Die Voraussetzungen unabhängig und identisch verteilt lassen sich noch deutlich abschwächen. Für den Hausgebrauch:

188 Normalapproximation 63/73 Anders formuliert: Für große n gilt (approximativ) Z n N ( µ, σ 2) mit µ = EZ n, σ 2 = Var Z n Die Voraussetzungen unabhängig und identisch verteilt lassen sich noch deutlich abschwächen. Für den Hausgebrauch: Ist Y das Resultat von vielen kleinen Beiträgen, die großteils unabhängig voneinander sind, so ist Y in etwa normalverteilt, d.h. Y N ( µ, σ 2), mit µ = EY, σ 2 = Var Y

189 64/73 Inhalt Der z-test 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

190 Der z-test 65/73 Zurück zu dem Beispiel mit den Prolin-Codons im Genom-Beispiel

191 Der z-test 65/73 Zurück zu dem Beispiel mit den Prolin-Codons im Genom-Beispiel CCT kommt k = mal vor CCA kommt n k = mal vor

192 Der z-test 65/73 Zurück zu dem Beispiel mit den Prolin-Codons im Genom-Beispiel CCT kommt k = mal vor CCA kommt n k = mal vor Frage: Kann dies Zufall sein?

193 Der z-test 65/73 Zurück zu dem Beispiel mit den Prolin-Codons im Genom-Beispiel CCT kommt k = mal vor CCA kommt n k = mal vor Frage: Kann dies Zufall sein? Wir meinen: Nein.

194 Der z-test 65/73 Zurück zu dem Beispiel mit den Prolin-Codons im Genom-Beispiel CCT kommt k = mal vor CCA kommt n k = mal vor Frage: Kann dies Zufall sein? Wir meinen: Nein. Die Skeptiker sagen: Nur Zufall.

195 Der z-test 66/73 Die Hypothese Reiner Zufall Kein Unterschied

196 Der z-test 66/73 Die Hypothese Reiner Zufall Kein Unterschied nennt man die Nullhypothese.

197 Der z-test 66/73 Die Hypothese Reiner Zufall Kein Unterschied nennt man die Nullhypothese. Um die Skeptiker zu überzeugen, müssen wir die Nullhypothese entkräften

198 Der z-test 66/73 Die Hypothese Reiner Zufall Kein Unterschied nennt man die Nullhypothese. Um die Skeptiker zu überzeugen, müssen wir die Nullhypothese entkräften d.h. zeigen, dass unter der Nullhypothese die Beobachtung sehr unwahrscheinlich ist.

199 Der z-test 67/73 CCT kommt k = mal vor CCA kommt n k = mal vor Unter der Nullhypothese alles nur Zufall ist die Anzahl X der CCT bin(n, p)-verteilt mit n = und p = 0.5.

200 Der z-test 67/73 CCT kommt k = mal vor CCA kommt n k = mal vor Unter der Nullhypothese alles nur Zufall ist die Anzahl X der CCT bin(n, p)-verteilt mit n = und p = 0.5. Normalapproximation: X ist ungefähr N (µ, σ 2 )-verteilt mit µ = n p =

201 Der z-test 67/73 CCT kommt k = mal vor CCA kommt n k = mal vor Unter der Nullhypothese alles nur Zufall ist die Anzahl X der CCT bin(n, p)-verteilt mit n = und p = 0.5. Normalapproximation: X ist ungefähr N (µ, σ 2 )-verteilt mit µ = n p = und σ = n p (1 p) =

202 Der z-test 67/73 CCT kommt k = mal vor CCA kommt n k = mal vor Unter der Nullhypothese alles nur Zufall ist die Anzahl X der CCT bin(n, p)-verteilt mit n = und p = 0.5. Normalapproximation: X ist ungefähr N (µ, σ 2 )-verteilt mit µ = n p = und σ = n p (1 p) =

203 Der z-test 68/73 Frage: Ist es plausibel, dass eine Größe X, die den Wert k = angenommen hat, ungefähr N (104000, )-verteilt ist? k

204 Der z-test 68/73 Frage: Ist es plausibel, dass eine Größe X, die den Wert k = angenommen hat, ungefähr N (104000, )-verteilt ist? k Wenn diese Nullhypothese H 0 gilt, dann folgt P(X = ) =

205 Der z-test 68/73 Frage: Ist es plausibel, dass eine Größe X, die den Wert k = angenommen hat, ungefähr N (104000, )-verteilt ist? k Wenn diese Nullhypothese H 0 gilt, dann folgt P(X = ) = 0

206 Der z-test Frage: Ist es plausibel, dass eine Größe X, die den Wert k = angenommen hat, ungefähr N (104000, )-verteilt ist? k Wenn diese Nullhypothese H 0 gilt, dann folgt P(X = ) = 0 Aber das bedeutet nichts, denn P(X = k) = 0 gilt für jeden Wert k! 68/73

207 Der z-test 69/73 Entscheidend ist die Wahrscheinlichkeit, dass X (unter Annahme der H 0 ) einen mindestens so extremen Wert wie k annimmt: k

208 Der z-test 69/73 Entscheidend ist die Wahrscheinlichkeit, dass X (unter Annahme der H 0 ) einen mindestens so extremen Wert wie k annimmt: k P( X µ k µ )

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler http://www.zi.biologie.uni-muenchen.de/evol/statgen.html 27./29.

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 27./29. April 2010 Inhaltsverzeichnis 1 Deterministische und zufällige

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 11. Mai 2011 Inhaltsverzeichnis 1 Deterministische und zufällige

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Noémie Becker & Dirk Metzler 15. April 2016 Inhaltsverzeichnis 1 Deterministische und zufällige Vorgänge

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Noémie Becker & Dirk Metzler 31. Mai 2016 Inhaltsverzeichnis 1 Binomialverteilung 1 2 Normalverteilung 2 3 T-Verteilung

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Vorlesung 4b. Die Varianz

Vorlesung 4b. Die Varianz Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ Die Varianz von X ist definiert als Var[X] := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Vorlesung 4b. Die Varianz

Vorlesung 4b. Die Varianz Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert als Var X := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen

Mehr

Vorlesung 7a. Der Zentrale Grenzwertsatz

Vorlesung 7a. Der Zentrale Grenzwertsatz Vorlesung 7a Der Zentrale Grenzwertsatz als Erlebnis und Das Schwache Gesetz der Großen Zahlen Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4

Mehr

Mathematik 3 für Informatik

Mathematik 3 für Informatik Gunter Ochs Wintersemester 20/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt 4 Lösungshinweise (ohne Ganantie auf Fehlerfreiheit. Wenn man beim Roulette auf Rot oder Schwarz setzt, erhält

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19 Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert

Mehr

7. Grenzwertsätze. Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012

7. Grenzwertsätze. Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 7. Grenzwertsätze Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Mittelwerte von Zufallsvariablen Wir betrachten die arithmetischen Mittelwerte X n = 1 n (X 1 + X 2 + + X n ) von unabhängigen

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder

Mehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

Wahrscheinlichkeitstheorie. Alea iacta est!

Wahrscheinlichkeitstheorie. Alea iacta est! Wahrscheinlichkeitstheorie Alea iacta est! "Wissenschaftliche Theorien, die auf Eigenschaften einer großen Zahl von Individuen rekurrieren, [...] werden anfällig gegen Fehlinterpretationen, wenn man die

Mehr

Wahrscheinlichkeit und Statistik BSc D-INFK

Wahrscheinlichkeit und Statistik BSc D-INFK Prof. Dr. P. Bühlmann ETH Zürich Winter 2010 Wahrscheinlichkeit und Statistik BSc D-INFK 1. (10 Punkte) Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete

Mehr

5 Binomial- und Poissonverteilung

5 Binomial- und Poissonverteilung 45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments 73 Hypothesentests 73.1 Motivation Bei Hypothesentests will man eine gewisse Annahme über eine Zufallsvariable darauf hin überprüfen, ob sie korrekt ist. Beispiele: ( Ist eine Münze fair p = 1 )? 2 Sind

Mehr

Grundlagen der Wahrscheinlichkeitstheorie

Grundlagen der Wahrscheinlichkeitstheorie Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)

Mehr

Verteilung von Summen

Verteilung von Summen Verteilung von Summen Beispiel: Würfelwurf Frage: Wie verhält sich die Verteilung der Augensumme von -Würfeln bei wachsendem? Zur Beantwortung führen wir ein Simulationseperiment durch. 6 Würfe mit 1 Würfel

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

67 Zufallsvariable, Erwartungswert, Varianz

67 Zufallsvariable, Erwartungswert, Varianz 67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Modelle diskreter Zufallsvariablen

Modelle diskreter Zufallsvariablen Statistik 2 für SoziologInnen Modelle diskreter Zufallsvariablen Univ.Prof. Dr. Marcus Hudec Zufallsvariable Eine Variable (Merkmal) X, deren numerische Werte als Ergebnisse eines Zufallsvorgangs aufgefasst

Mehr

Stetige Verteilungen, Unabhängigkeit & ZGS

Stetige Verteilungen, Unabhängigkeit & ZGS Mathematik II für Biologen Stetige Verteilungen, & ZGS 19. Juni 2015 Stetige Verteilungen, & ZGS Stetige Zufallsvariable Dichte & Verteilungsfunktion Eigenschaften & Kennzahlen Definition Eigenschaften,

Mehr

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5 4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 11. November 2010 1 Erwartungswert und Varianz Erwartungswert Varianz und Streuung Rechenregeln Binomialverteilung

Mehr

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Korollar 116 (Grenzwertsatz von de Moivre)

Korollar 116 (Grenzwertsatz von de Moivre) Ein wichtiger Spezialfall das Zentralen Grenzwertsatzes besteht darin, dass die auftretenden Zufallsgrößen Bernoulli-verteilt sind. Korollar 116 (Grenzwertsatz von de Moivre) X 1,..., X n seien unabhängige

Mehr

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz 1/65 Statistik für Informatiker, SS 2017 1.3 Erwartungswert, Varianz und Kovarianz Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 7.6.2017 / 14.6.2017 2/65 Der Erwartungswert ist eine

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

von x-würfeln bei wachsendem n? Zur Beantwortung führen wir ein Simulationsexperiment durch.

von x-würfeln bei wachsendem n? Zur Beantwortung führen wir ein Simulationsexperiment durch. Zentraler Grenzwertsatz Die Normalverteilung verdankt ihre universelle theoretische und praktische Bedeutung dem zentralen Grenzwertsatz. Unabhängig von der konkreten k Ausgangsverteilung konvergiert die

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Lösungsskizzen zur Präsenzübung 09

Lösungsskizzen zur Präsenzübung 09 Lösungsskizzen zur Präsenzübung 09 Hilfestellung zur Vorlesung Anwendungen der Mathematik im Wintersemester 2015/2016 Fakultät für Mathematik Universität Bielefeld Veröffentlicht am 07. Februar 2016 von:

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc. Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Unabhängigkeit von Zufallsvariablen

Unabhängigkeit von Zufallsvariablen Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Unabhängigkeit Prof. Dr. Achim Klenke http://www.aklenke.de 6. Vorlesung: 02.12.2011 1/30 Inhalt 1 Wahrscheinlichkeit 2 2/30 Wahrscheinlichkeit

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

Zufallsvariable: Verteilungen & Kennzahlen

Zufallsvariable: Verteilungen & Kennzahlen Mathematik II für Biologen 12. Juni 2015 Zufallsvariable Kennzahlen: Erwartungswert Kennzahlen: Varianz Kennzahlen: Erwartungstreue Verteilungsfunktion Beispiel: Exponentialverteilung Kennzahlen: Erwartungswert

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenho Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare

Mehr

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. 2 Zufallsvariable 2.1 Einführung Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. Eine Zufallsvariable X ordnet jedem elementaren Versuchsausgang

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017

Mehr

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) (oder eine Teilmenge davon) ist. Es existiere

Mehr

Auswertung und Lösung

Auswertung und Lösung Dieses Quiz soll Ihnen helfen, Kapitel 4.6 und 4.7 besser zu verstehen. Auswertung und Lösung Abgaben: 59 / 265 Maximal erreichte Punktzahl: 8 Minimal erreichte Punktzahl: 0 Durchschnitt: 4.78 1 Frage

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik . Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009 Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte

Mehr

Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten

Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten Die Funktion f ;Y (x; y) := Pr[ = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen und Y. Aus der gemeinsamen Dichte f ;Y kann man ableiten f (x) = y2w Y f ;Y (x; y) bzw. f Y (y) = Die Funktionen

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung

Mehr

Kapitel 10 VERTEILUNGEN

Kapitel 10 VERTEILUNGEN Kapitel 10 VERTEILUNGEN Fassung vom 18. Januar 2001 130 VERTEILUNGEN Zufallsvariable. 10.1 10.1 Zufallsvariable. HäuÞg wird statt des Ergebnisses ω Ω eines Zufalls-Experiments eine zugeordnete Zahl X(ω)

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

Probeklausur Statistik II

Probeklausur Statistik II Prof. Dr. Chr. Müller PROBE-KLAUSUR 1 1 2 3 4 5 6 7 8 Gesamt: 15 8 16 16 7 8 15 15 100 Probeklausur Statistik II Name: Vorname: Fachrichtung: Matrikel-Nummer: Bitte beachten Sie folgendes: 1) Die Klausur

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

WS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X.

WS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X. Fragenkatalog zur Übung Methoden der empirischen Sozialforschung WS 2014/15 Hier finden Sie die denkbaren Fragen zum ersten Teil der Übung. Das bedeutet, dass Sie zu diesem Teil keine anderen Fragen im

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

Wahrscheinlichkeitstheorie 2

Wahrscheinlichkeitstheorie 2 Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):

Mehr