Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Größe: px
Ab Seite anzeigen:

Download "Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie"

Transkript

1 Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 27./29. April 2010

2 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

3 Inhalt Deterministische und zufällige Vorgänge 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

4 Deterministische und zufällige Vorgänge Was können wir vorhersagen: Freier Fall: Falldauer eines Objektes bei gegebener Fallhöhe läßt sich vorhersagen (falls Luftwiderstand vernachlässigbar) (c) by Michael Maggs

5 Deterministische und zufällige Vorgänge Was können wir vorhersagen: Freier Fall: Falldauer eines Objektes bei gegebener Fallhöhe läßt sich vorhersagen (falls Luftwiderstand vernachlässigbar) Deterministische Vorgänge laufen immer gleich ab. Aus Beobachtungen lassen sich künftige Versuche vorhersagen. (c) by Michael Maggs

6 Deterministische und zufa llige Vorga nge Was ko nnen wir vorhersagen: Wu rfelwurf: Das Ergebnis eines einzelnen Wu rfelwurfes la sst sich nicht vorhersagen. (c) public domain

7 Deterministische und zufa llige Vorga nge Was ko nnen wir vorhersagen: Wu rfelwurf: Das Ergebnis eines einzelnen Wu rfelwurfes la sst sich nicht vorhersagen. (c) public domain Wiederholter Wu rfelwurf: Wu rfelt man 600 mal, so wu rde man gerne darauf wetten, dass die Anzahl an Einsern zwischen 85 und 115 liegt.

8 Deterministische und zufa llige Vorga nge Was ko nnen wir vorhersagen: Wu rfelwurf: Das Ergebnis eines einzelnen Wu rfelwurfes la sst sich nicht vorhersagen. (c) public domain Wiederholter Wu rfelwurf: Wu rfelt man 600 mal, so wu rde man gerne darauf wetten, dass die Anzahl an Einsern zwischen 85 und 115 liegt. Die genaue Anzahl la sst sich wieder nicht vorhersagen.

9 Deterministische und zufa llige Vorga nge Was ko nnen wir vorhersagen: Wu rfelwurf: Das Ergebnis eines einzelnen Wu rfelwurfes la sst sich nicht vorhersagen. (c) public domain Wiederholter Wu rfelwurf: Wu rfelt man 600 mal, so wu rde man gerne darauf wetten, dass die Anzahl an Einsern zwischen 85 und 115 liegt. Die genaue Anzahl la sst sich wieder nicht vorhersagen. Aber: Eine Aussage u ber die Verteilung ist mo glich (die besser ist als reines Raten.)

10 Deterministische und zufällige Vorgänge Empirisch stellt man fest: Bei Wiederholung eines Zufallsexperiments stabilisieren sich die relativen Häufigkeiten der möglichen Ergebnisse.

11 Deterministische und zufällige Vorgänge Empirisch stellt man fest: Bei Wiederholung eines Zufallsexperiments stabilisieren sich die relativen Häufigkeiten der möglichen Ergebnisse. Beispiel: Beim Würfelwurf stabilisiert sich die relative Häufigkeit jeder der Zahlen {1, 2,..., 6} bei 1 6.

12 Deterministische und zufällige Vorgänge Empirisch stellt man fest: Bei Wiederholung eines Zufallsexperiments stabilisieren sich die relativen Häufigkeiten der möglichen Ergebnisse. Beispiel: Fazit: Beim Würfelwurf stabilisiert sich die relative Häufigkeit jeder der Zahlen {1, 2,..., 6} bei 1 6. Das Ergebnis eines einzelnen zufälligen Vorgangs läßt sich nicht vorhersagen. Aber: Eine Aussage über die Verteilung ist möglich (die besser ist als reines Raten).

13 Deterministische und zufällige Vorgänge Abstraktionsschritt: Verwende empirisch ermittelte Verteilung als Verteilung jedes Einzelexperiments!

14 Deterministische und zufällige Vorgänge Abstraktionsschritt: Beispiel: Verwende empirisch ermittelte Verteilung als Verteilung jedes Einzelexperiments! Wir nehmen an, daß bei einem einzelnen Würfelwurf jede der Zahlen {1, 2,..., 6} die Wahrscheinlichkeit 1 6 hat.

15 Inhalt Zufallsvariablen und Verteilung 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

16 Zufallsvariablen und Verteilung Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs.

17 Zufallsvariablen und Verteilung Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs. Der Wertebereich S (engl. state space) einer Zufallsgröße ist die Menge aller möglichen Werte.

18 Zufallsvariablen und Verteilung Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs. Der Wertebereich S (engl. state space) einer Zufallsgröße ist die Menge aller möglichen Werte. Die Verteilung einer Zufallsgröße X weist jeder Menge A S die Wahrscheinlichkeit Pr(X A) zu, dass X einen Wert in A annimmt.

19 Zufallsvariablen und Verteilung Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs. Der Wertebereich S (engl. state space) einer Zufallsgröße ist die Menge aller möglichen Werte. Die Verteilung einer Zufallsgröße X weist jeder Menge A S die Wahrscheinlichkeit Pr(X A) zu, dass X einen Wert in A annimmt. Für Zufallsgrößen werden üblicherweise Großbuchstaben verwendet (z.b. X, Y, Z ), für konkrete Werte Kleinbuchstaben.

20 Zufallsvariablen und Verteilung Beispiel: Würfelwurf W = Augenzahl des nächsten Wurfelwurfs. S = {1, 2,..., 6} Pr(W = 1) = = Pr(W = 6) = 1 6 ( Pr(W = x) = 1 für alle x {1,..., 6} ) 6 Die Verteilung erhält man aus einer Symmetrieüberlegung oder aus einer langen Würfelreihe.

21 Zufallsvariablen und Verteilung Beispiel: Würfelwurf W = Augenzahl des nächsten Wurfelwurfs. S = {1, 2,..., 6} Pr(W = 1) = = Pr(W = 6) = 1 6 ( Pr(W = x) = 1 für alle x {1,..., 6} ) 6 Die Verteilung erhält man aus einer Symmetrieüberlegung oder aus einer langen Würfelreihe. Beispiel: Geschlecht X bei Neugeborenen. S = { männlich, weiblich } Die Verteilung erhält man aus einer langen Beobachtungsreihe.

22 Zufallsvariablen und Verteilung Beispiel: Würfelwurf W = Augenzahl des nächsten Wurfelwurfs. S = {1, 2,..., 6} Pr(W = 1) = = Pr(W = 6) = 1 6 ( Pr(W = x) = 1 für alle x {1,..., 6} ) 6 Die Verteilung erhält man aus einer Symmetrieüberlegung oder aus einer langen Würfelreihe. Beispiel: Geschlecht X bei Neugeborenen. S = { männlich, weiblich } Die Verteilung erhält man aus einer langen Beobachtungsreihe. Beispiel: Körpergrößenverteilung in Deutschland. Die Verteilung erhält man aus einer langen Messreihe.

23 Rechenregeln: Zufallsvariablen und Verteilung Beispiel Würfelwurf W : Pr({W = 2} {W = 3}) = Pr(W {2, 3}) = 2 = = Pr(W = 2) + Pr(W = 3) Vorsicht: Pr(W {1, 2} {3, 4}) = 4 6 = = Pr(W {1, 2}) + Pr(W {3, 4}) Pr(W {2, 3}) + Pr(W {3, 4}) Pr(W {2, 3, 4})

24 Zufallsvariablen und Verteilung Beispiel zweifacher Würfelwurf (W 1, W 2 ): Sei W 1 (bzw W 2 ) die Augenzahl des ersten (bzw zweiten) Würfels. Pr(W 1 {4}, W 2 {2, 3, 4}) = Pr((W 1, W 2 ) {(4, 2), (4, 3), (4, 4)}) = 3 36 = = Pr(W 1 {4}) Pr(W 2 {2, 3, 4})

25 Zufallsvariablen und Verteilung Sei S die Summe der Augenzahlen, d.h. S = W 1 + W 2. Was ist die Wahrscheinlichkeit, daß S = 5 ist, wenn der erste Würfel die Augenzahl W 1 = 2 zeigt? Pr(S = 5 W 1 = 2)! = Pr(W 2 = 3) = 1 6 = 1/36 1/6 = Pr(S = 5, W 1 = 2) Pr(W 1 = 2)

26 Zufallsvariablen und Verteilung Sei S die Summe der Augenzahlen, d.h. S = W 1 + W 2. Was ist die Wahrscheinlichkeit, daß S = 5 ist, wenn der erste Würfel die Augenzahl W 1 = 2 zeigt? Pr(S = 5 W 1 = 2)! = Pr(W 2 = 3) = 1 6 = 1/36 1/6 = Pr(S = 5, W 1 = 2) Pr(W 1 = 2) Was ist die Ws von S {4, 5} unter der Bedingung W 1 {1, 6}? Pr(S {4, 5} W 1 {1, 6})! = Pr(W 2 {3, 4}) = 2 6 = 4/36 2/6 = Pr(W 2 {3, 4}, W 1 {1, 6}) Pr(W 1 {1, 6}) = Pr(S {4, 5}, W 1 {1, 6}) Pr(W 1 {1, 6})

27 Rechenregeln: Zufallsvariablen und Verteilung Seien X, Y Zufallsgrößen mit Wertebereich S. 0 Pr(X A) 1 für jede Teilmenge A S

28 Rechenregeln: Zufallsvariablen und Verteilung Seien X, Y Zufallsgrößen mit Wertebereich S. 0 Pr(X A) 1 für jede Teilmenge A S Pr(X S) = 1

29 Rechenregeln: Zufallsvariablen und Verteilung Seien X, Y Zufallsgrößen mit Wertebereich S. 0 Pr(X A) 1 für jede Teilmenge A S Pr(X S) = 1 Sind A, B S disjunkt, d.h. A B =, Pr(X A B) = Pr(X A) + Pr(X B)

30 Rechenregeln: Zufallsvariablen und Verteilung Seien X, Y Zufallsgrößen mit Wertebereich S. 0 Pr(X A) 1 für jede Teilmenge A S Pr(X S) = 1 Sind A, B S disjunkt, d.h. A B =, Pr(X A B) = Pr(X A) + Pr(X B) Bayes-Formel für die bedingte Wahrscheinlichkeit: Ws des Ereignisses {Y B} unter der Bedingung {X A} Pr(Y B X A) := Pr(Y B, X A) Pr(X A) bedingte Ws von {Y B} gegeben {X A}

31 Rechenregeln: Zufallsvariablen und Verteilung Seien X, Y Zufallsgrößen mit Wertebereich S. 0 Pr(X A) 1 für jede Teilmenge A S Pr(X S) = 1 Sind A, B S disjunkt, d.h. A B =, Pr(X A B) = Pr(X A) + Pr(X B) Bayes-Formel für die bedingte Wahrscheinlichkeit: Ws des Ereignisses {Y B} unter der Bedingung {X A} Pr(Y B X A) := Pr(Y B, X A) Pr(X A) bedingte Ws von {Y B} gegeben {X A} Beachte: Pr(X A, Y B) = Pr(X A) Pr(Y B X A)

32 Zufallsvariablen und Verteilung Wir wollen Pr(X A, Y B) = Pr(X A) Pr(Y B X A) in Worten ausdrücken:

33 Zufallsvariablen und Verteilung Wir wollen Pr(X A, Y B) = Pr(X A) Pr(Y B X A) in Worten ausdrücken: Die Ws des Ereignisses {X A, Y B} läßt sich in zwei Schritten berechnen: Zunächst muss das Ereignis {X A} eintreten. Die Ws hiervon wird multipliziert mit der Ws von {Y B}, wenn man schon weiß, daß {X A} eintritt.

34 Zufallsvariablen und Verteilung Stochastische Unabhängigkeit Definition Zwei Zufallsgrößen X und Y heißen (stochastisch) unabhängig, wenn für alle Ereignisse {X A}, {Y B} gilt Pr(X A, Y B) = Pr(X A) Pr(Y B)

35 Zufallsvariablen und Verteilung Stochastische Unabhängigkeit Definition Zwei Zufallsgrößen X und Y heißen (stochastisch) unabhängig, wenn für alle Ereignisse {X A}, {Y B} gilt Beispiel: Pr(X A, Y B) = Pr(X A) Pr(Y B) Werfen zweier Würfel: X = Augenzahl Würfel 1, Y = Augenzahl Würfel 2. Pr(X = 2, Y = 5) = 1 36 = = Pr(X = 2) Pr(Y = 5)

36 Zufallsvariablen und Verteilung Stochastische Unabhängigkeit In der Praxis wendet man häufig Resultate an, die Unabhängigkeit einer Stichprobe voraussetzen.

37 Zufallsvariablen und Verteilung Stochastische Unabhängigkeit In der Praxis wendet man häufig Resultate an, die Unabhängigkeit einer Stichprobe voraussetzen. Beispiele: Für eine Studie wird eine zufällige Person in München und eine zufällige Person in Hamburg befragt. Die Antworten dürfen als unabhängig voneinander angenommen werden.

38 Zufallsvariablen und Verteilung Stochastische Unabhängigkeit In der Praxis wendet man häufig Resultate an, die Unabhängigkeit einer Stichprobe voraussetzen. Beispiele: Für eine Studie wird eine zufällige Person in München und eine zufällige Person in Hamburg befragt. Die Antworten dürfen als unabhängig voneinander angenommen werden. Befragt man zwei Schwestern oder nahe verwandte (getrennt voneinander), so werden die Antworten nicht unabhängig voneinander sein.

39 Inhalt Die Binomialverteilung 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

40 Die Binomialverteilung Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten.

41 Die Binomialverteilung Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten. Diese werden üblicherweise mit 1 und 0 bezeichnet

42 Die Binomialverteilung Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten. Diese werden üblicherweise mit 1 und 0 bezeichnet, beziehungsweise als Erfolg und Misserfolg.

43 Die Binomialverteilung Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten. Diese werden üblicherweise mit 1 und 0 bezeichnet, beziehungsweise als Erfolg und Misserfolg. Bernoulli-Zufallsgröße X: Zustandsraum S = {0, 1}. Verteilung: Pr(X = 1) = p Pr(X = 0) = 1 p Der Parameter p [0, 1] heißt Erfolgswahrscheinlichkeit.

44 Die Binomialverteilung Bernoulli-Verteilung Beispiele: Münzwurf: mögliche Werte sind Kopf und Zahl.

45 Die Binomialverteilung Bernoulli-Verteilung Beispiele: Münzwurf: mögliche Werte sind Kopf und Zahl. Hat die gesampelte Drosophila eine Mutation, die weiße Augen verursacht? Mögliche Antworten sind Ja und Nein.

46 Die Binomialverteilung Bernoulli-Verteilung Beispiele: Münzwurf: mögliche Werte sind Kopf und Zahl. Hat die gesampelte Drosophila eine Mutation, die weiße Augen verursacht? Mögliche Antworten sind Ja und Nein. Das Geschlecht einer Person hat die möglichen Werte männlich und weiblich.

47 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt.

48 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt?

49 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? p p p p = p n

50 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? 2...immer scheitert? p p p p = p n

51 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? 2...immer scheitert? p p p p = p n (1 p) (1 p) (1 p) = (1 p) n

52 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? 2...immer scheitert? p p p p = p n (1 p) (1 p) (1 p) = (1 p) n 3...erst k mal gelingt und dann n k mal scheitert?

53 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? 2...immer scheitert? p p p p = p n (1 p) (1 p) (1 p) = (1 p) n 3...erst k mal gelingt und dann n k mal scheitert? p k (1 p) n k 4...insgesamt k mal gelingt und n k mal scheitert?

54 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? 2...immer scheitert? p p p p = p n (1 p) (1 p) (1 p) = (1 p) n 3...erst k mal gelingt und dann n k mal scheitert? p k (1 p) n k 4...insgesamt k mal gelingt und n k mal scheitert? ( ) n p k (1 p) n k k

55 Die Binomialverteilung Erläuterung ( n ) k = n! ist die Anzahl der Möglichkeiten, die k Erfolge in k! (n k)! die n Versuche einzusortieren.

56 Die Binomialverteilung Binomialverteilung Sei X die Anzahl der Erfolge bei n unabhängigen Versuchen mit Erfolgswahrscheinlichkeit von jeweils p. Dann gilt für k {0, 1,..., n} ( ) n Pr(X = k) = p k (1 p) n k k und X heißt binomialverteilt, kurz: X bin(n, p).

57 Die Binomialverteilung probabilities of bin(n=10,p=0.2) k

58 Die Binomialverteilung probabilities of bin(n=100,p=0.2) k

59 Inhalt Erwartungswert 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

60 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R.

61 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a Pr(X = a)

62 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a Pr(X = a) Manche schreiben auch µ X statt EX.

63 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a Pr(X = a) Ersetzt man in der Definition die Wahrscheinlichkeit durch relative Häufigkeiten, so erhält man die bekannte Formel Erwartungswert = Summe der Werte Anzahl der Werte :

64 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a Pr(X = a) Ersetzt man in der Definition die Wahrscheinlichkeit durch relative Häufigkeiten, so erhält man die bekannte Formel Summe der Werte Erwartungswert = Anzahl der Werte : Sei k a die Häufigkeit des Wertes a in einer Gesamtheit der Größe n, so schreibt sich der Erwartungswert als a ka n = a a k a = n EX = a Summe der Werte Anzahl der Werte.

65 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a Pr(X = a) Beispiele: (Weitere Beispiele an der Tafel.)

66 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a Pr(X = a) Beispiele: (Weitere Beispiele an der Tafel.) Sei X Bernoulli-verteilt mit Erfolgswahrscheinlichkeit p [0, 1]. Dann gilt EX = 1 Pr(X = 1) + 0 Pr(X = 0) = Pr(X = 1) = p

67 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a Pr(X = a) Beispiele: (Weitere Beispiele an der Tafel.) Sei X Bernoulli-verteilt mit Erfolgswahrscheinlichkeit p [0, 1]. Dann gilt EX = 1 Pr(X = 1) + 0 Pr(X = 0) = Pr(X = 1) = p Sei W die Augenzahl bei einem Würfelwurf. Dann gilt EW = 1 Pr(W = 1) + 2 Pr(W = 2) + 6 Pr(W = 6) = = = 3.5

68 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem Wertebereich S R. Sei f : S R eine Funktion.

69 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem Wertebereich S R. Sei f : S R eine Funktion. Dann ist der Erwartungswert von f (X) definiert durch E[f (X)] = a S f (a) Pr(X = a)

70 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem Wertebereich S R. Sei f : S R eine Funktion. Dann ist der Erwartungswert von f (X) definiert durch E[f (X)] = a S f (a) Pr(X = a) Beispiel: Sei W die Augenzahl bei einem Würfelwurf. Dann gilt E[W 2 ] = 1 2 Pr(W = 1) Pr(W = 2) Pr(W = 6) = = 91 6

71 Erwartungswert Rechnen mit Erwartungswerten Satz (Linearität der Erwartung) Sind X und Y Zufallsvariablen mit Werten in R und ist a R, so gilt: E(a X) = a EX E(X + Y ) = EX + EY

72 Erwartungswert Rechnen mit Erwartungswerten Satz (Linearität der Erwartung) Sind X und Y Zufallsvariablen mit Werten in R und ist a R, so gilt: E(a X) = a EX E(X + Y ) = EX + EY Satz (Nur für Unabhängige!) Sind X und Y stochastisch unabhängige Zufallsvariablen mit Werten in R, so gilt E(X Y ) = EX EY.

73 Erwartungswert Rechnen mit Erwartungswerten Satz (Linearität der Erwartung) Sind X und Y Zufallsvariablen mit Werten in R und ist a R, so gilt: E(a X) = a EX E(X + Y ) = EX + EY Satz (Nur für Unabhängige!) Sind X und Y stochastisch unabhängige Zufallsvariablen mit Werten in R, so gilt E(X Y ) = EX EY. Beweise an der Tafel.

74 Erwartungswert Erwartungswert der Binomialverteilung Seien Y 1, Y 2,..., Y n die Indikatorvariablen der n unabhängigen Versuche d.h. { 1 falls der i te Versuch gelingt Y i = 0 falls der i te Versuch scheitert

75 Erwartungswert Erwartungswert der Binomialverteilung Seien Y 1, Y 2,..., Y n die Indikatorvariablen der n unabhängigen Versuche d.h. { 1 falls der i te Versuch gelingt Y i = 0 falls der i te Versuch scheitert Dann ist X = Y Y n binomialverteilt mit Parametern (n, p), wobei p die Erfolgswahrscheinlichkeit der Versuche ist.

76 Erwartungswert Erwartungswert der Binomialverteilung Seien Y 1, Y 2,..., Y n die Indikatorvariablen der n unabhängigen Versuche d.h. { 1 falls der i te Versuch gelingt Y i = 0 falls der i te Versuch scheitert Dann ist X = Y Y n binomialverteilt mit Parametern (n, p), wobei p die Erfolgswahrscheinlichkeit der Versuche ist. Wegen der Linearität der Erwartung gilt EX = E(Y Y n ) = EY EY n

77 Erwartungswert Erwartungswert der Binomialverteilung Seien Y 1, Y 2,..., Y n die Indikatorvariablen der n unabhängigen Versuche d.h. { 1 falls der i te Versuch gelingt Y i = 0 falls der i te Versuch scheitert Dann ist X = Y Y n binomialverteilt mit Parametern (n, p), wobei p die Erfolgswahrscheinlichkeit der Versuche ist. Wegen der Linearität der Erwartung gilt EX = E(Y Y n ) = EY EY n = p + + p = np

78 Erwartungswert Erwartungswert der Binomialverteilung Wir halten fest: X bin(n, p) EX = n p

79 Inhalt Varianz und Korrelation 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

80 Varianz und Korrelation Definition (Varianz, Kovarianz und Korrelation) Die Varianz einer R-wertigen Zufallsgröße X ist VarX = σ 2 X = E [ (X EX) 2].

81 Varianz und Korrelation Definition (Varianz, Kovarianz und Korrelation) Die Varianz einer R-wertigen Zufallsgröße X ist VarX = σx 2 = E [ (X EX) 2]. σ X = Var X ist die Standardabweichung.

82 Varianz und Korrelation Definition (Varianz, Kovarianz und Korrelation) Die Varianz einer R-wertigen Zufallsgröße X ist VarX = σ 2 X = E [ (X EX) 2]. σ X = Var X ist die Standardabweichung. Ist Y eine weitere reellwertige Zufallsvariable, so ist Cov(X, Y ) = E [(X EX) (Y EY )] die Kovarianz von X und Y.

83 Varianz und Korrelation Definition (Varianz, Kovarianz und Korrelation) Die Varianz einer R-wertigen Zufallsgröße X ist VarX = σ 2 X = E [ (X EX) 2]. σ X = Var X ist die Standardabweichung. Ist Y eine weitere reellwertige Zufallsvariable, so ist Cov(X, Y ) = E [(X EX) (Y EY )] die Kovarianz von X und Y. Die Korrelation von X und Y ist Cor(X, Y ) = Cov(X, Y ) σ X σ Y.

84 Varianz und Korrelation Die Varianz VarX = E [ (X EX) 2] ist die mittlere quadrierte Abweichung vom Mittelwert.

85 Varianz und Korrelation Die Varianz VarX = E [ (X EX) 2] ist die mittlere quadrierte Abweichung vom Mittelwert. Die Korrelation Cor(X, Y ) = Cov(X, Y ) σ X σ Y liegt immer im Intervall [ 1, 1]. Die Variablen X und Y sind positiv korreliert, wenn X und Y tendenziell entweder beide überdurchschnittlich große Werte oder beide unterdurchschnittlich große Werte annehmen. negativ korreliert, wenn X und Y tendenziell auf verschiedenen Seiten ihrer Erwartungswerte liegen.

86 Varianz und Korrelation Die Varianz VarX = E [ (X EX) 2] ist die mittlere quadrierte Abweichung vom Mittelwert. Die Korrelation Cor(X, Y ) = Cov(X, Y ) σ X σ Y liegt immer im Intervall [ 1, 1]. Die Variablen X und Y sind positiv korreliert, wenn X und Y tendenziell entweder beide überdurchschnittlich große Werte oder beide unterdurchschnittlich große Werte annehmen. negativ korreliert, wenn X und Y tendenziell auf verschiedenen Seiten ihrer Erwartungswerte liegen. Sind X und Y unabhängig, so sind sie auch unkorreliert, d.h. Cor(X, Y ) = 0.

87 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y

88 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [X EX]>0 [X EX]<0

89 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [Y EY]>0 [Y EY]<0 [X EX]>0 [X EX]<0

90 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [X EX]*[Y EY]<0 [X EX]*[Y EY]>0 [X EX]*[Y EY]>0 [X EX]*[Y EY]<0

91 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [X EX]*[Y EY]<0 [X EX]*[Y EY]>0 [X EX]*[Y EY]>0 [X EX]*[Y EY]<0 Cov(X,Y)= 1.11

92 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [X EX]*[Y EY]<0 [X EX]*[Y EY]>0 [X EX]*[Y EY]>0 [X EX]*[Y EY]<0

93 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [X EX]*[Y EY]<0 [X EX]*[Y EY]>0 [X EX]*[Y EY]>0 [X EX]*[Y EY]<0 Cov(X,Y)= 0.78

94 Varianz und Korrelation Beispiel: Die empirische Verteilung Sind x 1,..., x n R Daten und entsteht X durch rein zufälliges Ziehen aus diesen Daten, so gilt: EX = x und Var X = 1 n n (x i x) 2 i=1

95 Varianz und Korrelation Beispiel: Die empirische Verteilung Sind x 1,..., x n R Daten und entsteht X durch rein zufälliges Ziehen aus diesen Daten, so gilt: EX = x und Var X = 1 n n (x i x) 2 i=1 Entsprechend kann man auch für Daten (x i, y i ) die empirischen Kovarianzen und Korrelationen ausrechen, siehe nächste Seite...

96 Varianz und Korrelation σ X = 0.95, σ Y = X Y

97 Varianz und Korrelation σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = X Y

98 Varianz und Korrelation σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y

99 Varianz und Korrelation σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y σ X = 1.13, σ Y = X Y

100 Varianz und Korrelation σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = X Y

101 Varianz und Korrelation σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = 1.26 Cor(X, Y ) = X Y

102 Varianz und Korrelation σ X = 1.14, σ Y = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = 1.26 Cor(X, Y ) = X Y

103 Varianz und Korrelation σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = 1.26 Cor(X, Y ) = X Y

104 Varianz und Korrelation σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = 1.26 Cor(X, Y ) = X Y

105 Varianz und Korrelation σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y σ X = 1.03, σ Y = X Y

106 Varianz und Korrelation σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = X Y

107 Varianz und Korrelation σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = 0.32 Cor(X, Y ) = X Y

108 Varianz und Korrelation σ X = 0.91, σ Y = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = 0.32 Cor(X, Y ) = X Y

109 Varianz und Korrelation σ X = 0.91, σ Y = 0.88 Cov(X, Y ) = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = 0.32 Cor(X, Y ) = X Y

110 Varianz und Korrelation σ X = 0.91, σ Y = 0.88 Cov(X, Y ) = 0 Cor(X, Y ) = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = 0.32 Cor(X, Y ) = X Y

111 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X)

112 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2

113 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) =

114 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX

115 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) =

116 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) = VarX + VarY + 2 Cov(X, Y )

117 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) = VarX + VarY + 2 Cov(X, Y ) Var ( n i=1 X i) =

118 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) = VarX + VarY + 2 Cov(X, Y ) ( n Var i=1 X i) = n i=1 Var( ) X i + 2 n j 1 j=1 i=1 Cov(X i, X j )

119 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) = VarX + VarY + 2 Cov(X, Y ) ( n Var i=1 X i) = n i=1 Var( ) X i + 2 n j 1 j=1 i=1 Cov(X i, X j ) Sind (X, Y ) stochastisch unabhängig, so folgt: Var(X + Y ) = VarX + VarY

120 Varianz und Korrelation Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!)

121 Varianz und Korrelation Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X)

122 Varianz und Korrelation Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X) Cov(X, Y ) = E(X Y ) EX EY

123 Varianz und Korrelation Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X) Cov(X, Y ) = E(X Y ) EX EY Cov(a X, Y ) = a Cov(X, Y ) = Cov(X, a Y )

124 Varianz und Korrelation Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X) Cov(X, Y ) = E(X Y ) EX EY Cov(a X, Y ) = a Cov(X, Y ) = Cov(X, a Y ) Cov(X + Z, Y ) = Cov(X, Y ) + Cov(Z, Y )

125 Varianz und Korrelation Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X) Cov(X, Y ) = E(X Y ) EX EY Cov(a X, Y ) = a Cov(X, Y ) = Cov(X, a Y ) Cov(X + Z, Y ) = Cov(X, Y ) + Cov(Z, Y ) Cov(X, Z + Y ) = Cov(X, Z ) + Cov(X, Y )

126 Varianz und Korrelation Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X) Cov(X, Y ) = E(X Y ) EX EY Cov(a X, Y ) = a Cov(X, Y ) = Cov(X, a Y ) Cov(X + Z, Y ) = Cov(X, Y ) + Cov(Z, Y ) Cov(X, Z + Y ) = Cov(X, Z ) + Cov(X, Y ) Die letzten drei Regeln beschreiben die Bilinearität der Kovarianz.

127 Varianz und Korrelation Rechenregeln für die Korrelation 1 Cor(X, Y ) 1 Cor(X, Y ) = Cor(Y, X) Cor(X, Y ) = Cov(X, Y ) σ X σ Y Cor(X, Y ) = Cov(X/σ X, Y /σ Y ) Cor(X, Y ) = 1 genau dann wenn Y eine wachsende, affin-lineare Funktion von X ist, d.h. falls es a > 0 und b R gibt, so dass Y = a X + b Cor(X, Y ) = 1 genau dann wenn Y eine fallende, affin-lineare Funktion von X ist, d.h. falls es a < 0 und b R gibt, so dass Y = a X + b

128 Varianz und Korrelation Mit diesen Rechenregeln können wir nun endlich beweisen: Satz Sind X 1, X 2,... X n unabhängige R-wertige Zufallsgrößen mit Mittelwert µ und Varianz σ 2, so gilt für X = 1 n n i=1 X i: EX = µ und Var X = 1 n σ2, d.h. σ X = σ n

129 Varianz und Korrelation Beweis: Linearität des Erwartungswertes impliziert ( 1 EX = E n = 1 n n ) X i = 1 n i=1 n µ = µ. i=1 n E ( ) X i i=1

130 Varianz und Korrelation Beweis: Linearität des Erwartungswertes impliziert ( 1 EX = E n = 1 n n ) X i = 1 n i=1 n µ = µ. i=1 n E ( ) X i i=1 Die Unabhängigkeit der X i vereinfacht die Varianz zu ( 1 Var X = Var n = 1 n 2 n i=1 n ) X i = 1 ( n ) n Var X 2 i i=1 Var ( X i ) = 1 n 2 i=1 n σ 2 = 1 n σ2 i=1

131 Varianz und Korrelation Bernoulli-Verteilung Eine Bernoulli-verteilte Zufallsvariable Y mit Erfolgsws p [0, 1] hat Erwartungswert EY = p und Varianz Var Y = p (1 p)

132 Varianz und Korrelation Bernoulli-Verteilung Eine Bernoulli-verteilte Zufallsvariable Y mit Erfolgsws p [0, 1] hat Erwartungswert EY = p und Varianz Var Y = p (1 p) Beweis: Aus Pr(Y = 1) = p und Pr(Y = 0) = (1 p) folgt EY = 1 p + 0 (1 p) = p.

133 Varianz und Korrelation Bernoulli-Verteilung Eine Bernoulli-verteilte Zufallsvariable Y mit Erfolgsws p [0, 1] hat Erwartungswert EY = p und Varianz Var Y = p (1 p) Beweis: Aus Pr(Y = 1) = p und Pr(Y = 0) = (1 p) folgt EY = 1 p + 0 (1 p) = p. Varianz: Var Y = E ( Y 2) ( EY ) 2 = 1 2 p (1 p) p 2 = p (1 p)

134 Varianz und Korrelation Binomialverteilung Seien nun Y 1,, Y n unabhängig und Bernoulli-verteilt mit Erfolgsws p. Dann gilt und es folgt: n Y i =: X bin(n, p) i=1 Var X =

135 Varianz und Korrelation Binomialverteilung Seien nun Y 1,, Y n unabhängig und Bernoulli-verteilt mit Erfolgsws p. Dann gilt und es folgt: n Y i =: X bin(n, p) i=1 ( n ) Var X = Var Y i = i=1

136 Varianz und Korrelation Binomialverteilung Seien nun Y 1,, Y n unabhängig und Bernoulli-verteilt mit Erfolgsws p. Dann gilt und es folgt: n Y i =: X bin(n, p) i=1 ( n ) Var X = Var Y i = i=1 n Var Y i = i=1

137 Varianz und Korrelation Binomialverteilung Seien nun Y 1,, Y n unabhängig und Bernoulli-verteilt mit Erfolgsws p. Dann gilt und es folgt: n Y i =: X bin(n, p) i=1 ( n ) Var X = Var Y i = i=1 n Var Y i = n p (1 p) i=1

138 Varianz und Korrelation Binomialverteilung Satz (Erwartungswert und Varianz der Binomialverteilung) Ist X binomialverteilt mit Parametern (n, p), so gilt: EX = n p und Var X = n p (1 p)

139 Inhalt Ein Anwendungsbeispiel 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

140 Ein Anwendungsbeispiel Auf der menschlichen mtdna wird die Aminosäure Prolin mal durch CCT und mal durch CCA codiert.

141 Ein Anwendungsbeispiel Auf der menschlichen mtdna wird die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird?

142 Ein Anwendungsbeispiel Auf der menschlichen mtdna wird die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird? Dann wäre die Anzahl X der CCT binomialverteilt mit p = 1 2 und n = =

143 Ein Anwendungsbeispiel Auf der menschlichen mtdna wird die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird? Dann wäre die Anzahl X der CCT binomialverteilt mit p = 1 2 und n = = EX = n p =

144 Ein Anwendungsbeispiel Auf der menschlichen mtdna wird die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird? Dann wäre die Anzahl X der CCT binomialverteilt mit p = 1 2 und n = = EX = n p = σ X = n p (1 p) 228

145 Ein Anwendungsbeispiel Auf der menschlichen mtdna wird die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird? Dann wäre die Anzahl X der CCT binomialverteilt mit p = 1 2 und n = = EX = n p = σ X = n p (1 p) = σ X

146 Ein Anwendungsbeispiel Auf der menschlichen mtdna wird die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird? Dann wäre die Anzahl X der CCT binomialverteilt mit p = 1 2 und n = = EX = n p = σ X = n p (1 p) = σ X Sieht das nach Zufall aus?

147 Ein Anwendungsbeispiel Die Frage ist: Wie groß ist die Wahrscheinlichkeit einer Abweichung vom Erwartungswert von mindestens 9.5 σ X, wenn alles Zufall ist?

148 Ein Anwendungsbeispiel Die Frage ist: Wie groß ist die Wahrscheinlichkeit einer Abweichung vom Erwartungswert von mindestens 9.5 σ X, wenn alles Zufall ist? Wir müssen also Pr ( X EX 9.5σ X ) berechnen.

149 Ein Anwendungsbeispiel Die Frage ist: Wie groß ist die Wahrscheinlichkeit einer Abweichung vom Erwartungswert von mindestens 9.5 σ X, wenn alles Zufall ist? Wir müssen also Pr ( X EX 9.5σ X ) berechnen. Das Problem bei der Binomialverteilung ist: ( n k) exakt zu berechnen, ist für große n sehr aufwändig. Deshalb:

150 Ein Anwendungsbeispiel Die Frage ist: Wie groß ist die Wahrscheinlichkeit einer Abweichung vom Erwartungswert von mindestens 9.5 σ X, wenn alles Zufall ist? Wir müssen also Pr ( X EX 9.5σ X ) berechnen. Das Problem bei der Binomialverteilung ist: ( n k) exakt zu berechnen, ist für große n sehr aufwändig. Deshalb: Die Binomialverteilung wird oft durch andere Verteilungen approximiert.

151 Inhalt Die Normalverteilung 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

152 Die Normalverteilung Die Binomialverteilung mit großer Versuchzahl n sieht aus wie die Normalverteilung: dbinom(400:600, 1000, 0.5) :600

153 Die Normalverteilung Die Binomialverteilung mit großer Versuchzahl n sieht aus wie die Normalverteilung: dbinom(400:600, 1000, 0.5) :600

154 Die Normalverteilung Dichte der Standardnormalverteilung Eine Zufallsvariable Z mit der Dichte f (x) = 1 2π e x2 2 Gauß-Glocke heißt standardnormalverteilt.

155 Die Normalverteilung Dichte der Standardnormalverteilung Eine Zufallsvariable Z mit der Dichte f (x) = 1 2π e x2 2 Gauß-Glocke kurz: Z N (0, 1) heißt standardnormalverteilt.

156 Die Normalverteilung Dichte der Standardnormalverteilung Eine Zufallsvariable Z mit der Dichte f (x) = 1 2π e x2 2 Gauß-Glocke kurz: Z N (0, 1) EZ = 0 Var Z = heißt standardnormalverteilt.

157 Die Normalverteilung Ist Z N (0, 1)-verteilt, so ist X = σ Z + µ normalverteilt mit Mittelwert µ und Varianz σ 2, kurz: X N (µ, σ 2 )

158 Die Normalverteilung Ist Z N (0, 1)-verteilt, so ist X = σ Z + µ normalverteilt mit Mittelwert µ und Varianz σ 2, kurz: X N (µ, σ 2 ) X hat dann die Dichte f (x) = 1 2πσ e (x µ)2 2σ 2.

159 Die Normalverteilung Merkregeln Ist Z N (µ, σ 2 ), so gilt: Pr( Z µ > σ) 33%

160 Die Normalverteilung Merkregeln Ist Z N (µ, σ 2 ), so gilt: Pr( Z µ > σ) 33% Pr( Z µ > 1.96 σ) 5%

161 Die Normalverteilung Merkregeln Ist Z N (µ, σ 2 ), so gilt: Pr( Z µ > σ) 33% Pr( Z µ > 1.96 σ) 5% Pr( Z µ > 3 σ) 0.3%

162 Die Normalverteilung f (x) = 1 e (x µ)2 2σ 2 2πσ µ σ µ µ + σ

163 Die Normalverteilung Dichten brauchen Integrale Sei Z eine Zufallsvariable mit Dichte f (x) Dann gilt a b Pr(Z [a, b]) =

164 Die Normalverteilung Dichten brauchen Integrale Sei Z eine Zufallsvariable mit Dichte f (x) Dann gilt Pr(Z [a, b]) = a b b a f (x)dx.

165 Die Normalverteilung Die Normalverteilung in R Die Normalverteilung hat in R das Kürzel norm.

166 Die Normalverteilung Die Normalverteilung in R Die Normalverteilung hat in R das Kürzel norm. Es gibt 4 R-Befehle: dnorm(): Dichte der Normalverteilung (density)

167 Die Normalverteilung Die Normalverteilung in R Die Normalverteilung hat in R das Kürzel norm. Es gibt 4 R-Befehle: dnorm(): Dichte der Normalverteilung (density) rnorm(): Ziehen einer Stichprobe (random sample)

168 Die Normalverteilung Die Normalverteilung in R Die Normalverteilung hat in R das Kürzel norm. Es gibt 4 R-Befehle: dnorm(): Dichte der Normalverteilung (density) rnorm(): Ziehen einer Stichprobe (random sample) pnorm(): Verteilungsfunktion der Normalverteilung (probability)

169 Die Normalverteilung Die Normalverteilung in R Die Normalverteilung hat in R das Kürzel norm. Es gibt 4 R-Befehle: dnorm(): Dichte der Normalverteilung (density) rnorm(): Ziehen einer Stichprobe (random sample) pnorm(): Verteilungsfunktion der Normalverteilung (probability) qnorm(): Quantilfunktion der Normalverteilung (quantile)

170 Die Normalverteilung Beispiel: Dichte der Standardnormalverteilung: > dnorm(0) [1]

171 Die Normalverteilung Beispiel: Dichte der Standardnormalverteilung: > dnorm(0) [1] > plot(dnorm,from=-4,to=4)

172 Die Normalverteilung Beispiel: Dichte der Standardnormalverteilung: > dnorm(0) [1] > plot(dnorm,from=-4,to=4) > dnorm(0,mean=1,sd=2)

173 Die Normalverteilung Beispiel: Ziehen einer Stichprobe

174 Die Normalverteilung Beispiel: Ziehen einer Stichprobe Ziehen einer Stichprobe der Länge 6 aus einer Standardnormalverteilung: > rnorm(6) [1]

175 Die Normalverteilung Beispiel: Ziehen einer Stichprobe Ziehen einer Stichprobe der Länge 6 aus einer Standardnormalverteilung: > rnorm(6) [1] Ziehen einer Stichprobe der Länge 7 aus einer Normalverteilung mit Mittelwert 5 und Standardabweichung 3: > rnorm(7,mean=5,sd=3) [1]

176 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 0, σ 2 = 1), also standardnormalverteilt. Pr(Z < a) berechnet man in R mit pnorm(a)

177 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 0, σ 2 = 1), also standardnormalverteilt. Pr(Z < a) berechnet man in R mit pnorm(a) > pnorm(0.5) [1]

178 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 0, σ 2 = 1), also standardnormalverteilt. Pr(Z < a) berechnet man in R mit pnorm(a) > pnorm(0.5) [1] standard normal density

179 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 5, σ 2 = 2.25).

180 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 5, σ 2 = 2.25). Berechnung von Pr(Z [3, 4]):

181 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 5, σ 2 = 2.25). Berechnung von Pr(Z [3, 4]): Pr(Z [3, 4]) = Pr(Z < 4) Pr(Z < 3)

182 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 5, σ 2 = 2.25). Berechnung von Pr(Z [3, 4]): Pr(Z [3, 4]) = Pr(Z < 4) Pr(Z < 3) > pnorm(4,mean=5,sd=1.5)-pnorm(3,mean=5,sd=1.5)

183 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 5, σ 2 = 2.25). Berechnung von Pr(Z [3, 4]): Pr(Z [3, 4]) = Pr(Z < 4) Pr(Z < 3) > pnorm(4,mean=5,sd=1.5)-pnorm(3,mean=5,sd=1.5) [1]

184 Die Normalverteilung Sei Z N (µ, σ 2 ). Frage: Wie berechnet man Pr(Z = 5)?

185 Die Normalverteilung Sei Z N (µ, σ 2 ). Frage: Wie berechnet man Pr(Z = 5)? Antwort: Für jedes x R gilt Pr(Z = x) = 0

186 Die Normalverteilung Sei Z N (µ, σ 2 ). Frage: Wie berechnet man Pr(Z = 5)? Antwort: Für jedes x R gilt Pr(Z = x) = 0 Was wird dann aus EZ = a S a Pr(Z = a)?

187 Die Normalverteilung Sei Z N (µ, σ 2 ). Frage: Wie berechnet man Pr(Z = 5)? Antwort: Für jedes x R gilt Pr(Z = x) = 0 Was wird dann aus EZ = a S a Pr(Z = a)? Muss reformiert werden: EZ = x f (x)dx

188 Die Normalverteilung Sei Z N (µ, σ 2 ). Frage: Wie berechnet man Pr(Z = 5)? Antwort: Für jedes x R gilt Pr(Z = x) = 0 Was wird dann aus EZ = a S a Pr(Z = a)? Muss reformiert werden: EZ = x f (x)dx Aber zum Glück kennen wir schon das Ergebnis EZ = µ.

189 Inhalt Normalapproximation 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

190 Normalapproximation Normalapproximation Für große n und p, die nicht zu nahe bei 0 oder 1 liegen, kann man die Binomialverteilung durch die Normalverteilung mit dem entsprechenden Erwartungswert und der entsprechenden Varianz approximieren:

191 Normalapproximation Normalapproximation Für große n und p, die nicht zu nahe bei 0 oder 1 liegen, kann man die Binomialverteilung durch die Normalverteilung mit dem entsprechenden Erwartungswert und der entsprechenden Varianz approximieren: Ist X bin(n, p) und Z N (µ =, σ 2 = ), so gilt Pr(X [a, b]) Pr(Z [a, b])

192 Normalapproximation Normalapproximation Für große n und p, die nicht zu nahe bei 0 oder 1 liegen, kann man die Binomialverteilung durch die Normalverteilung mit dem entsprechenden Erwartungswert und der entsprechenden Varianz approximieren: Ist X bin(n, p) und Z N (µ = n p, σ 2 = ), so gilt Pr(X [a, b]) Pr(Z [a, b])

193 Normalapproximation Normalapproximation Für große n und p, die nicht zu nahe bei 0 oder 1 liegen, kann man die Binomialverteilung durch die Normalverteilung mit dem entsprechenden Erwartungswert und der entsprechenden Varianz approximieren: Ist X bin(n, p) und Z N (µ = n p, σ 2 = n p (1 p)), so gilt Pr(X [a, b]) Pr(Z [a, b])

194 Normalapproximation Normalapproximation Für große n und p, die nicht zu nahe bei 0 oder 1 liegen, kann man die Binomialverteilung durch die Normalverteilung mit dem entsprechenden Erwartungswert und der entsprechenden Varianz approximieren: Ist X bin(n, p) und Z N (µ = n p, σ 2 = n p (1 p)), so gilt Pr(X [a, b]) Pr(Z [a, b]) (eine Faustregel: für den Hausgebrauch meist okay, wenn n p (1 p) 9)

195 Normalapproximation n = 1000, p = 0.5, n p (1 p) = 250 dbinom(400:600, 1000, 0.5) :600

196 Normalapproximation n = 1000, p = 0.5, n p (1 p) = 250 dbinom(400:600, 1000, 0.5) :600

197 Normalapproximation n = 10, p = 0.2, n p (1 p) = 1.6 dbinom(0:10, 10, 0.2) :10

198 Normalapproximation n = 10, p = 0.2, n p (1 p) = 1.6 dbinom(0:10, 10, 0.2) :10

199 Normalapproximation Zentraler Grenzwertsatz Ein anderer Ausdruck für Normalapproximation ist Zentraler Grenzwertsatz.

200 Normalapproximation Zentraler Grenzwertsatz Ein anderer Ausdruck für Normalapproximation ist Zentraler Grenzwertsatz. Der zentrale Grenzwertsatz besagt, dass die Verteilung von Summen unabhängiger und identisch verteilter Zufallsvariablen in etwa die Normalverteilung ist.

201 Normalapproximation Theorem (Zentraler Grenzwertsatz) Die R-wertigen Zufallsgrößen X 1, X 2,... seien unabhängig und identisch verteilt mit endlicher Varianz 0 < Var X i <. Sei außerdem Z n := X 1 + X X n die Summe der ersten n Variablen.

202 Normalapproximation Theorem (Zentraler Grenzwertsatz) Die R-wertigen Zufallsgrößen X 1, X 2,... seien unabhängig und identisch verteilt mit endlicher Varianz 0 < Var X i <. Sei außerdem Z n := X 1 + X X n die Summe der ersten n Variablen. Dann ist die zentrierte und reskalierte Summe im Limes n standardnormalverteilt, d.h. Z n EZ n Var Zn N (µ = 0, σ 2 = 1) bei n.

203 Normalapproximation Theorem (Zentraler Grenzwertsatz) Die R-wertigen Zufallsgrößen X 1, X 2,... seien unabhängig und identisch verteilt mit endlicher Varianz 0 < Var X i <. Sei außerdem Z n := X 1 + X X n die Summe der ersten n Variablen. Dann ist die zentrierte und reskalierte Summe im Limes n standardnormalverteilt, d.h. Z n EZ n Var Zn N (µ = 0, σ 2 = 1) bei n. Formal: Es gilt für alle a < b lim Pr(a Z n b) = Pr(a Z b), n wobei Z eine standardnormalverteilte Zufallsvariable ist.

204 Normalapproximation Anders formuliert: Für große n gilt Z n N ( µ = EZ n, σ 2 = Var Z n )

205 Normalapproximation Anders formuliert: Für große n gilt Z n N ( µ = EZ n, σ 2 = Var Z n ) Die Voraussetzungen unabhängig und identisch verteilt lassen sich noch deutlich abschwächen.

206 Normalapproximation Anders formuliert: Für große n gilt Z n N ( µ = EZ n, σ 2 = Var Z n ) Die Voraussetzungen unabhängig und identisch verteilt lassen sich noch deutlich abschwächen. Für den Hausgebrauch:

207 Normalapproximation Anders formuliert: Für große n gilt Z n N ( µ = EZ n, σ 2 = Var Z n ) Die Voraussetzungen unabhängig und identisch verteilt lassen sich noch deutlich abschwächen. Für den Hausgebrauch: Ist Y das Resultat von vielen kleinen Beiträgen, die großteils unabhängig voneinander sind, so ist Y in etwa normalverteilt, d.h. Y N ( µ = EY, σ 2 = Var Y )

208 Inhalt Der z-test 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test

209 Der z-test Zurück zu dem Beispiel mit den Prolin-Codons in der menschlichen mtdna.

210 Der z-test Zurück zu dem Beispiel mit den Prolin-Codons in der menschlichen mtdna. CCT kommt k = mal vor CCA kommt n k = mal vor

211 Der z-test Zurück zu dem Beispiel mit den Prolin-Codons in der menschlichen mtdna. CCT kommt k = mal vor CCA kommt n k = mal vor Frage: Kann dies Zufall sein?

212 Der z-test Zurück zu dem Beispiel mit den Prolin-Codons in der menschlichen mtdna. CCT kommt k = mal vor CCA kommt n k = mal vor Frage: Kann dies Zufall sein? Wir meinen: Nein.

213 Der z-test Zurück zu dem Beispiel mit den Prolin-Codons in der menschlichen mtdna. CCT kommt k = mal vor CCA kommt n k = mal vor Frage: Kann dies Zufall sein? Wir meinen: Nein. Die Skeptiker sagen: Nur Zufall.

214 Der z-test Die Hypothese Reiner Zufall Kein Unterschied

215 Der z-test Die Hypothese Reiner Zufall Kein Unterschied nennt man die Nullhypothese.

216 Der z-test Die Hypothese Reiner Zufall Kein Unterschied nennt man die Nullhypothese. Um die Skeptiker zu überzeugen, müssen wir die Nullhypothese entkräften

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 11. Mai 2011 Inhaltsverzeichnis 1 Deterministische und zufällige

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009 Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc. Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Binomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec

Binomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec Binomialverteilung Jakob Bernoulli (1654-1705) Ars Conjectandi Klassisches Verteilungsmodell für die Berechnung der Wahrscheinlichkeit für die Häufigkeit des Eintretens von Ereignissen in bestimmten noch

Mehr

Vorlesung 8a. Kovarianz und Korrelation

Vorlesung 8a. Kovarianz und Korrelation Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere

Mehr

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests

Mehr

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen. Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Stochastik für die Naturwissenschaften

Stochastik für die Naturwissenschaften Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 6. Ausgewählte Verteilungen (Distributions) * diskret: Bernoulli, Binomial, Geometrisch, Poisson * stetig: Uniform, Exponential, Normal, χ 2,

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Institut für Biometrie und klinische Forschung. WiSe 2012/2013 Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive

Mehr

Kapitel 5. Stochastik

Kapitel 5. Stochastik 76 Kapitel 5 Stochastik In diesem Kapitel wollen wir die Grundzüge der Wahrscheinlichkeitstheorie behandeln. Wir beschränken uns dabei auf diskrete Wahrscheinlichkeitsräume Ω. Definition 5.1. Ein diskreter

Mehr

Basiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient 11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen

Mehr

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

8. Stetige Zufallsvariablen

8. Stetige Zufallsvariablen 8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse

Mehr

Ü b u n g s b l a t t 13

Ü b u n g s b l a t t 13 Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben

Mehr

Kenngrößen von Zufallsvariablen

Kenngrößen von Zufallsvariablen Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert

Mehr

1 Dichte- und Verteilungsfunktion

1 Dichte- und Verteilungsfunktion Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die

Mehr

Univariates Datenmaterial

Univariates Datenmaterial Univariates Datenmaterial 1.6.1 Deskriptive Statistik Zufallstichprobe: Umfang n, d.h. Stichprobe von n Zufallsvariablen o Merkmal/Zufallsvariablen: Y = {Y 1, Y 2,..., Y n } o Realisationen/Daten: x =

Mehr

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen 6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher: Diskrete Zufallsvariablen,

Mehr

Spezielle stetige Verteilungen

Spezielle stetige Verteilungen Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für

Mehr

Grundwissen zur Stochastik

Grundwissen zur Stochastik Grundwissen zur Stochastik Inhalt: ABHÄNGIGE EREIGNISSE...2 ABHÄNGIGKEIT UND UNABHÄNGIGKEIT VON ERGEBNISSEN...2 ABHÄNGIGKEIT UND UNABHÄNGIGKEIT VON MERKMALEN IN VIERFELDERTAFELN...2 ABSOLUTE HÄUFIGKEIT...2

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch 6 Stetige Verteilungen 1 Kapitel 6: Stetige Verteilungen A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch dargestellt. 0.2 6

Mehr

Statistik II. Statistische Tests. Statistik II

Statistik II. Statistische Tests. Statistik II Statistik II Statistische Tests Statistik II - 12.5.2006 1 Test auf Anteilswert: Binomialtest Sei eine Stichprobe unabhängig, identisch verteilter ZV (i.i.d.). Teile diese Stichprobe in zwei Teilmengen

Mehr

Ü b u n g s b l a t t 10

Ü b u n g s b l a t t 10 Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel. 6. 2007 Ü b u n g s b l a t t 0 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben

Mehr

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007 Mathematik IV für Maschinenbau und Informatik Stochastik Universität Rostock, Institut für Mathematik Sommersemester 007 Prof. Dr. F. Liese Dipl.-Math. M. Helwich Serie Termin: 9. Juni 007 Aufgabe 3 Punkte

Mehr

Box. Mathematik ZU DEN KERNCURRICULUM-LERNBEREICHEN:

Box. Mathematik ZU DEN KERNCURRICULUM-LERNBEREICHEN: Box Mathematik Schülerarbeitsbuch P (μ o- X μ + o-) 68,3 % s rel. E P (X = k) f g h A t μ o- μ μ + o- k Niedersachsen Wachstumsmodelle und Wahrscheinlichkeitsrechnung ZU DEN KERNCURRICULUM-LERNBEREICHEN:

Mehr

Beispiel: Zweidimensionale Normalverteilung I

Beispiel: Zweidimensionale Normalverteilung I 10 Mehrdimensionale Zufallsvariablen Bedingte Verteilungen 10.6 Beispiel: Zweidimensionale Normalverteilung I Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale (multivariate) Normalverteilung

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p

Mehr

Webinar Induktive Statistik. - Wahrscheinlichkeitsrechnung - Stichprobentheorie

Webinar Induktive Statistik. - Wahrscheinlichkeitsrechnung - Stichprobentheorie Webinar Induktive Statistik - Wahrscheinlichkeitsrechnung - Stichprobentheorie Wahrscheinlichkeitstheorie Aufgabe : Zwei Lieferanten decken den Bedarf eines PKW-Herstellers von 00.000 Einheiten pro Monat.

Mehr

Einführung in die Induktive Statistik: Testen von Hypothesen

Einführung in die Induktive Statistik: Testen von Hypothesen Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte

Mehr

Stochastik und Statistik für Ingenieure Vorlesung 4

Stochastik und Statistik für Ingenieure Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

3.3 Bedingte Wahrscheinlichkeit

3.3 Bedingte Wahrscheinlichkeit 28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit

Mehr

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

Kapitel 2 Wahrscheinlichkeitsrechnung

Kapitel 2 Wahrscheinlichkeitsrechnung Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt

Mehr

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5 Inhaltsverzeichnis Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite 1.0 Erste Begriffsbildungen 1 1.1 Merkmale und Skalen 5 1.2 Von der Urliste zu Häufigkeitsverteilungen 9 1.2.0 Erste Ordnung

Mehr

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 / Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =

Mehr

K8 Stetige Zufallsvariablen Theorie und Praxis

K8 Stetige Zufallsvariablen Theorie und Praxis K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R

Mehr

I. Zahlen, Rechenregeln & Kombinatorik

I. Zahlen, Rechenregeln & Kombinatorik XIV. Wiederholung Seite 1 I. Zahlen, Rechenregeln & Kombinatorik 1 Zahlentypen 2 Rechenregeln Brüche, Wurzeln & Potenzen, Logarithmen 3 Prozentrechnung 4 Kombinatorik Möglichkeiten, k Elemente anzuordnen

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte

Mehr

Das Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern.

Das Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern. 10. Stetige Zufallsvariable, Normalverteilung 55 Die in den folgenden Beispielen dargestellten Verteilungen haben ungefähr Glockenform. Sie können durch die sogenannte Normalverteilung oder Gaussverteilung

Mehr

Diskrete Wahrscheinlichkeitstheorie - Probeklausur

Diskrete Wahrscheinlichkeitstheorie - Probeklausur Diskrete Wahrscheinlichkeitstheorie - robeklausur Sommersemester 2007 - Lösung Name: Vorname: Matrikelnr.: Studiengang: Hinweise Sie sollten insgesamt Blätter erhalten haben. Tragen Sie bitte Ihre Antworten

Mehr

Statistische Tests für unbekannte Parameter

Statistische Tests für unbekannte Parameter Konfidenzintervall Intervall, das den unbekannten Parameter der Verteilung mit vorgegebener Sicherheit überdeckt ('Genauigkeitsaussage' bzw. Zuverlässigkeit einer Punktschätzung) Statistischer Test Ja-Nein-Entscheidung

Mehr

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind: Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die

Mehr

Tabelle 11.2 zeigt die gemeinsame Wahrscheinlichkeitsfunktion und die Randverteilungen

Tabelle 11.2 zeigt die gemeinsame Wahrscheinlichkeitsfunktion und die Randverteilungen Kapitel 11 Stichprobenfunktionen Um eine Aussage über den Wert eines unbekannten Parameters θ zu machen, zieht man eine Zufallsstichprobe vom Umfang n aus der Grundgesamtheit. Das Merkmal wird in diesem

Mehr

Bachelor BEE Statistik Übung: Blatt 1 Ostfalia - Hochschule für angewandte Wissenschaften Fakultät Versorgungstechnik Aufgabe (1.1): Gegeben sei die folgende Messreihe: Nr. ph-werte 1-10 6.4 6.3 6.7 6.5

Mehr

1.6 Der Vorzeichentest

1.6 Der Vorzeichentest .6 Der Vorzeichentest In diesem Kapitel soll der Vorzeichentest bzw. Zeichentest vorgestellt werden, mit dem man Hypothesen bezüglich des Medians der unabhängig und identisch stetig verteilten Zufallsvariablen

Mehr

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3. 2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Testen von Hypothesen

Testen von Hypothesen Elke Warmuth Humboldt-Universität zu Berlin Sommersemster 2010 1 / 46 2 / 46 1 Testen von Hypothesen 3 / 46 Signifikant, signifikant, signifikant,... 4 / 46 Signifikant, signifikant, signifikant,... 5

Mehr

A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen:

A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen: 5 Diskrete Verteilungen 1 Kapitel 5: Diskrete Verteilungen A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen: 5 0.6 x 0.4 5 x (i) P x (x)

Mehr

Wahrscheinlichkeitsrechnung und Quantentheorie

Wahrscheinlichkeitsrechnung und Quantentheorie Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten

Mehr

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,

Mehr

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

2.1 Gemeinsame-, Rand- und bedingte Verteilungen Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die

Mehr

10. Die Normalverteilungsannahme

10. Die Normalverteilungsannahme 10. Die Normalverteilungsannahme Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher haben wir vorausgesetzt, daß die Beobachtungswerte normalverteilt sind. In diesem Fall kann man

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 19. Januar 2011 1 Nichtparametrische Tests Ordinalskalierte Daten 2 Test für ein Merkmal mit nur zwei Ausprägungen

Mehr

Bedingte Wahrscheinlichkeiten und Unabhängigkeit

Bedingte Wahrscheinlichkeiten und Unabhängigkeit Kapitel 5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Mitunter erhält man über das Ergebnis eines zufälligen Versuches Vorinformationen. Dann entsteht die Frage, wie sich für den Betrachter, den man

Mehr

Zweiseitiger Test für den unbekannten Mittelwert µ einer Normalverteilung bei unbekannter Varianz

Zweiseitiger Test für den unbekannten Mittelwert µ einer Normalverteilung bei unbekannter Varianz Grundlage: Zweiseitiger Test für den unbekannten Mittelwert µ einer Normalverteilung bei unbekannter Varianz Die Testvariable T = X µ 0 S/ n genügt der t-verteilung mit n 1 Freiheitsgraden. Auf der Basis

Mehr

Vorwort Zufallsvariable X, Erwartungswert E(X), Varianz V(X) 1.1 Zufallsvariable oder Zufallsgröße Erwartungswert und Varianz...

Vorwort Zufallsvariable X, Erwartungswert E(X), Varianz V(X) 1.1 Zufallsvariable oder Zufallsgröße Erwartungswert und Varianz... Inhaltsverzeichnis Vorwort... 2 Zum Einstieg... 3 1 Zufallsvariable X, Erwartungswert E(X), Varianz V(X) 1.1 Zufallsvariable oder Zufallsgröße... 5 1.2 Erwartungswert und Varianz... 7 2 Wahrscheinlichkeitsverteilungen

Mehr

Basistext - Wahrscheinlichkeitsrechnung

Basistext - Wahrscheinlichkeitsrechnung Basistext - Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitsrechnung beschäftigt sich mit Vorgängen, die in ihrem Ausgang unbestimmt sind. Sie versucht mögliche Ergebnisse der Vorgänge zu quantifizieren.

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler

Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler Martin Hutzenthaler & Dirk Metzler http://www.zi.biologie.uni-muenchen.de/evol/statgen.html 27. April 2010 1 Eine kurze Wiederholung

Mehr

0, t 0,5

0, t 0,5 XIII. Die Normalverteilung ==================================================================. Der lokale Grenzwertsatz --------------------------------------------------------------------------------------------------------------

Mehr

2. Zufallsvariable, Verteilungsfunktion, Erwartungswert,

2. Zufallsvariable, Verteilungsfunktion, Erwartungswert, 2. Zufallsvariable, Verteilungsfunktion, Erwartungswert, momentenerzeugende Funktion Ziel des Kapitels: Mathematische Präzisierung der Konzepte Zufallsvariable Verteilungsfunktion Dichtefunktion Erwartungswerte

Mehr

Übungsblatt 9. f(x) = e x, für 0 x

Übungsblatt 9. f(x) = e x, für 0 x Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable

Mehr

9 Die Normalverteilung

9 Die Normalverteilung 9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,

Mehr

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung

Mehr

Test auf den Erwartungswert

Test auf den Erwartungswert Test auf den Erwartungswert Wir interessieren uns für den Erwartungswert µ einer metrischen Zufallsgröße. Beispiele: Alter, Einkommen, Körpergröße, Scorewert... Wir können einseitige oder zweiseitige Hypothesen

Mehr

Stochastik. Peter Pfaffelhuber

Stochastik. Peter Pfaffelhuber Stochastik Peter Pfaffelhuber 1 Grundlegende Bemerkungen Vorlesung orientiert sich an G. Kersting und A. Wakolbinger. Elementare Stochastik. Birkhäuser, 2008 Übungen Volker Pohl Praktikum Ernst August

Mehr

5. Stochastische Modelle I: Diskrete Zufallsvariablen

5. Stochastische Modelle I: Diskrete Zufallsvariablen 5. Stochastische Modelle I: Diskrete Zufallsvariablen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Zufallsgrößen Eine Zufallsgröße X ist eine Größe, deren Wert wir nicht exakt kennen

Mehr

Diskrete Strukturen WiSe 2012/13 in Trier

Diskrete Strukturen WiSe 2012/13 in Trier Diskrete Strukturen WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 11. Januar 2013 1 Diskrete Strukturen Gesamtübersicht Organisatorisches und Einführung Mengenlehre Relationen

Mehr

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Wahrscheinlichkeitsrechnung Theorie Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem,

Mehr