Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie
|
|
- Hella Michel
- vor 6 Jahren
- Abrufe
Transkript
1 Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 27./29. April 2010
2 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test
3 Inhalt Deterministische und zufällige Vorgänge 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test
4 Deterministische und zufällige Vorgänge Was können wir vorhersagen: Freier Fall: Falldauer eines Objektes bei gegebener Fallhöhe läßt sich vorhersagen (falls Luftwiderstand vernachlässigbar) (c) by Michael Maggs
5 Deterministische und zufällige Vorgänge Was können wir vorhersagen: Freier Fall: Falldauer eines Objektes bei gegebener Fallhöhe läßt sich vorhersagen (falls Luftwiderstand vernachlässigbar) Deterministische Vorgänge laufen immer gleich ab. Aus Beobachtungen lassen sich künftige Versuche vorhersagen. (c) by Michael Maggs
6 Deterministische und zufa llige Vorga nge Was ko nnen wir vorhersagen: Wu rfelwurf: Das Ergebnis eines einzelnen Wu rfelwurfes la sst sich nicht vorhersagen. (c) public domain
7 Deterministische und zufa llige Vorga nge Was ko nnen wir vorhersagen: Wu rfelwurf: Das Ergebnis eines einzelnen Wu rfelwurfes la sst sich nicht vorhersagen. (c) public domain Wiederholter Wu rfelwurf: Wu rfelt man 600 mal, so wu rde man gerne darauf wetten, dass die Anzahl an Einsern zwischen 85 und 115 liegt.
8 Deterministische und zufa llige Vorga nge Was ko nnen wir vorhersagen: Wu rfelwurf: Das Ergebnis eines einzelnen Wu rfelwurfes la sst sich nicht vorhersagen. (c) public domain Wiederholter Wu rfelwurf: Wu rfelt man 600 mal, so wu rde man gerne darauf wetten, dass die Anzahl an Einsern zwischen 85 und 115 liegt. Die genaue Anzahl la sst sich wieder nicht vorhersagen.
9 Deterministische und zufa llige Vorga nge Was ko nnen wir vorhersagen: Wu rfelwurf: Das Ergebnis eines einzelnen Wu rfelwurfes la sst sich nicht vorhersagen. (c) public domain Wiederholter Wu rfelwurf: Wu rfelt man 600 mal, so wu rde man gerne darauf wetten, dass die Anzahl an Einsern zwischen 85 und 115 liegt. Die genaue Anzahl la sst sich wieder nicht vorhersagen. Aber: Eine Aussage u ber die Verteilung ist mo glich (die besser ist als reines Raten.)
10 Deterministische und zufällige Vorgänge Empirisch stellt man fest: Bei Wiederholung eines Zufallsexperiments stabilisieren sich die relativen Häufigkeiten der möglichen Ergebnisse.
11 Deterministische und zufällige Vorgänge Empirisch stellt man fest: Bei Wiederholung eines Zufallsexperiments stabilisieren sich die relativen Häufigkeiten der möglichen Ergebnisse. Beispiel: Beim Würfelwurf stabilisiert sich die relative Häufigkeit jeder der Zahlen {1, 2,..., 6} bei 1 6.
12 Deterministische und zufällige Vorgänge Empirisch stellt man fest: Bei Wiederholung eines Zufallsexperiments stabilisieren sich die relativen Häufigkeiten der möglichen Ergebnisse. Beispiel: Fazit: Beim Würfelwurf stabilisiert sich die relative Häufigkeit jeder der Zahlen {1, 2,..., 6} bei 1 6. Das Ergebnis eines einzelnen zufälligen Vorgangs läßt sich nicht vorhersagen. Aber: Eine Aussage über die Verteilung ist möglich (die besser ist als reines Raten).
13 Deterministische und zufällige Vorgänge Abstraktionsschritt: Verwende empirisch ermittelte Verteilung als Verteilung jedes Einzelexperiments!
14 Deterministische und zufällige Vorgänge Abstraktionsschritt: Beispiel: Verwende empirisch ermittelte Verteilung als Verteilung jedes Einzelexperiments! Wir nehmen an, daß bei einem einzelnen Würfelwurf jede der Zahlen {1, 2,..., 6} die Wahrscheinlichkeit 1 6 hat.
15 Inhalt Zufallsvariablen und Verteilung 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test
16 Zufallsvariablen und Verteilung Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs.
17 Zufallsvariablen und Verteilung Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs. Der Wertebereich S (engl. state space) einer Zufallsgröße ist die Menge aller möglichen Werte.
18 Zufallsvariablen und Verteilung Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs. Der Wertebereich S (engl. state space) einer Zufallsgröße ist die Menge aller möglichen Werte. Die Verteilung einer Zufallsgröße X weist jeder Menge A S die Wahrscheinlichkeit Pr(X A) zu, dass X einen Wert in A annimmt.
19 Zufallsvariablen und Verteilung Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs. Der Wertebereich S (engl. state space) einer Zufallsgröße ist die Menge aller möglichen Werte. Die Verteilung einer Zufallsgröße X weist jeder Menge A S die Wahrscheinlichkeit Pr(X A) zu, dass X einen Wert in A annimmt. Für Zufallsgrößen werden üblicherweise Großbuchstaben verwendet (z.b. X, Y, Z ), für konkrete Werte Kleinbuchstaben.
20 Zufallsvariablen und Verteilung Beispiel: Würfelwurf W = Augenzahl des nächsten Wurfelwurfs. S = {1, 2,..., 6} Pr(W = 1) = = Pr(W = 6) = 1 6 ( Pr(W = x) = 1 für alle x {1,..., 6} ) 6 Die Verteilung erhält man aus einer Symmetrieüberlegung oder aus einer langen Würfelreihe.
21 Zufallsvariablen und Verteilung Beispiel: Würfelwurf W = Augenzahl des nächsten Wurfelwurfs. S = {1, 2,..., 6} Pr(W = 1) = = Pr(W = 6) = 1 6 ( Pr(W = x) = 1 für alle x {1,..., 6} ) 6 Die Verteilung erhält man aus einer Symmetrieüberlegung oder aus einer langen Würfelreihe. Beispiel: Geschlecht X bei Neugeborenen. S = { männlich, weiblich } Die Verteilung erhält man aus einer langen Beobachtungsreihe.
22 Zufallsvariablen und Verteilung Beispiel: Würfelwurf W = Augenzahl des nächsten Wurfelwurfs. S = {1, 2,..., 6} Pr(W = 1) = = Pr(W = 6) = 1 6 ( Pr(W = x) = 1 für alle x {1,..., 6} ) 6 Die Verteilung erhält man aus einer Symmetrieüberlegung oder aus einer langen Würfelreihe. Beispiel: Geschlecht X bei Neugeborenen. S = { männlich, weiblich } Die Verteilung erhält man aus einer langen Beobachtungsreihe. Beispiel: Körpergrößenverteilung in Deutschland. Die Verteilung erhält man aus einer langen Messreihe.
23 Rechenregeln: Zufallsvariablen und Verteilung Beispiel Würfelwurf W : Pr({W = 2} {W = 3}) = Pr(W {2, 3}) = 2 = = Pr(W = 2) + Pr(W = 3) Vorsicht: Pr(W {1, 2} {3, 4}) = 4 6 = = Pr(W {1, 2}) + Pr(W {3, 4}) Pr(W {2, 3}) + Pr(W {3, 4}) Pr(W {2, 3, 4})
24 Zufallsvariablen und Verteilung Beispiel zweifacher Würfelwurf (W 1, W 2 ): Sei W 1 (bzw W 2 ) die Augenzahl des ersten (bzw zweiten) Würfels. Pr(W 1 {4}, W 2 {2, 3, 4}) = Pr((W 1, W 2 ) {(4, 2), (4, 3), (4, 4)}) = 3 36 = = Pr(W 1 {4}) Pr(W 2 {2, 3, 4})
25 Zufallsvariablen und Verteilung Sei S die Summe der Augenzahlen, d.h. S = W 1 + W 2. Was ist die Wahrscheinlichkeit, daß S = 5 ist, wenn der erste Würfel die Augenzahl W 1 = 2 zeigt? Pr(S = 5 W 1 = 2)! = Pr(W 2 = 3) = 1 6 = 1/36 1/6 = Pr(S = 5, W 1 = 2) Pr(W 1 = 2)
26 Zufallsvariablen und Verteilung Sei S die Summe der Augenzahlen, d.h. S = W 1 + W 2. Was ist die Wahrscheinlichkeit, daß S = 5 ist, wenn der erste Würfel die Augenzahl W 1 = 2 zeigt? Pr(S = 5 W 1 = 2)! = Pr(W 2 = 3) = 1 6 = 1/36 1/6 = Pr(S = 5, W 1 = 2) Pr(W 1 = 2) Was ist die Ws von S {4, 5} unter der Bedingung W 1 {1, 6}? Pr(S {4, 5} W 1 {1, 6})! = Pr(W 2 {3, 4}) = 2 6 = 4/36 2/6 = Pr(W 2 {3, 4}, W 1 {1, 6}) Pr(W 1 {1, 6}) = Pr(S {4, 5}, W 1 {1, 6}) Pr(W 1 {1, 6})
27 Rechenregeln: Zufallsvariablen und Verteilung Seien X, Y Zufallsgrößen mit Wertebereich S. 0 Pr(X A) 1 für jede Teilmenge A S
28 Rechenregeln: Zufallsvariablen und Verteilung Seien X, Y Zufallsgrößen mit Wertebereich S. 0 Pr(X A) 1 für jede Teilmenge A S Pr(X S) = 1
29 Rechenregeln: Zufallsvariablen und Verteilung Seien X, Y Zufallsgrößen mit Wertebereich S. 0 Pr(X A) 1 für jede Teilmenge A S Pr(X S) = 1 Sind A, B S disjunkt, d.h. A B =, Pr(X A B) = Pr(X A) + Pr(X B)
30 Rechenregeln: Zufallsvariablen und Verteilung Seien X, Y Zufallsgrößen mit Wertebereich S. 0 Pr(X A) 1 für jede Teilmenge A S Pr(X S) = 1 Sind A, B S disjunkt, d.h. A B =, Pr(X A B) = Pr(X A) + Pr(X B) Bayes-Formel für die bedingte Wahrscheinlichkeit: Ws des Ereignisses {Y B} unter der Bedingung {X A} Pr(Y B X A) := Pr(Y B, X A) Pr(X A) bedingte Ws von {Y B} gegeben {X A}
31 Rechenregeln: Zufallsvariablen und Verteilung Seien X, Y Zufallsgrößen mit Wertebereich S. 0 Pr(X A) 1 für jede Teilmenge A S Pr(X S) = 1 Sind A, B S disjunkt, d.h. A B =, Pr(X A B) = Pr(X A) + Pr(X B) Bayes-Formel für die bedingte Wahrscheinlichkeit: Ws des Ereignisses {Y B} unter der Bedingung {X A} Pr(Y B X A) := Pr(Y B, X A) Pr(X A) bedingte Ws von {Y B} gegeben {X A} Beachte: Pr(X A, Y B) = Pr(X A) Pr(Y B X A)
32 Zufallsvariablen und Verteilung Wir wollen Pr(X A, Y B) = Pr(X A) Pr(Y B X A) in Worten ausdrücken:
33 Zufallsvariablen und Verteilung Wir wollen Pr(X A, Y B) = Pr(X A) Pr(Y B X A) in Worten ausdrücken: Die Ws des Ereignisses {X A, Y B} läßt sich in zwei Schritten berechnen: Zunächst muss das Ereignis {X A} eintreten. Die Ws hiervon wird multipliziert mit der Ws von {Y B}, wenn man schon weiß, daß {X A} eintritt.
34 Zufallsvariablen und Verteilung Stochastische Unabhängigkeit Definition Zwei Zufallsgrößen X und Y heißen (stochastisch) unabhängig, wenn für alle Ereignisse {X A}, {Y B} gilt Pr(X A, Y B) = Pr(X A) Pr(Y B)
35 Zufallsvariablen und Verteilung Stochastische Unabhängigkeit Definition Zwei Zufallsgrößen X und Y heißen (stochastisch) unabhängig, wenn für alle Ereignisse {X A}, {Y B} gilt Beispiel: Pr(X A, Y B) = Pr(X A) Pr(Y B) Werfen zweier Würfel: X = Augenzahl Würfel 1, Y = Augenzahl Würfel 2. Pr(X = 2, Y = 5) = 1 36 = = Pr(X = 2) Pr(Y = 5)
36 Zufallsvariablen und Verteilung Stochastische Unabhängigkeit In der Praxis wendet man häufig Resultate an, die Unabhängigkeit einer Stichprobe voraussetzen.
37 Zufallsvariablen und Verteilung Stochastische Unabhängigkeit In der Praxis wendet man häufig Resultate an, die Unabhängigkeit einer Stichprobe voraussetzen. Beispiele: Für eine Studie wird eine zufällige Person in München und eine zufällige Person in Hamburg befragt. Die Antworten dürfen als unabhängig voneinander angenommen werden.
38 Zufallsvariablen und Verteilung Stochastische Unabhängigkeit In der Praxis wendet man häufig Resultate an, die Unabhängigkeit einer Stichprobe voraussetzen. Beispiele: Für eine Studie wird eine zufällige Person in München und eine zufällige Person in Hamburg befragt. Die Antworten dürfen als unabhängig voneinander angenommen werden. Befragt man zwei Schwestern oder nahe verwandte (getrennt voneinander), so werden die Antworten nicht unabhängig voneinander sein.
39 Inhalt Die Binomialverteilung 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test
40 Die Binomialverteilung Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten.
41 Die Binomialverteilung Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten. Diese werden üblicherweise mit 1 und 0 bezeichnet
42 Die Binomialverteilung Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten. Diese werden üblicherweise mit 1 und 0 bezeichnet, beziehungsweise als Erfolg und Misserfolg.
43 Die Binomialverteilung Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten. Diese werden üblicherweise mit 1 und 0 bezeichnet, beziehungsweise als Erfolg und Misserfolg. Bernoulli-Zufallsgröße X: Zustandsraum S = {0, 1}. Verteilung: Pr(X = 1) = p Pr(X = 0) = 1 p Der Parameter p [0, 1] heißt Erfolgswahrscheinlichkeit.
44 Die Binomialverteilung Bernoulli-Verteilung Beispiele: Münzwurf: mögliche Werte sind Kopf und Zahl.
45 Die Binomialverteilung Bernoulli-Verteilung Beispiele: Münzwurf: mögliche Werte sind Kopf und Zahl. Hat die gesampelte Drosophila eine Mutation, die weiße Augen verursacht? Mögliche Antworten sind Ja und Nein.
46 Die Binomialverteilung Bernoulli-Verteilung Beispiele: Münzwurf: mögliche Werte sind Kopf und Zahl. Hat die gesampelte Drosophila eine Mutation, die weiße Augen verursacht? Mögliche Antworten sind Ja und Nein. Das Geschlecht einer Person hat die möglichen Werte männlich und weiblich.
47 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt.
48 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt?
49 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? p p p p = p n
50 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? 2...immer scheitert? p p p p = p n
51 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? 2...immer scheitert? p p p p = p n (1 p) (1 p) (1 p) = (1 p) n
52 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? 2...immer scheitert? p p p p = p n (1 p) (1 p) (1 p) = (1 p) n 3...erst k mal gelingt und dann n k mal scheitert?
53 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? 2...immer scheitert? p p p p = p n (1 p) (1 p) (1 p) = (1 p) n 3...erst k mal gelingt und dann n k mal scheitert? p k (1 p) n k 4...insgesamt k mal gelingt und n k mal scheitert?
54 Die Binomialverteilung Angenommen, ein Bernoulli-Experiment (z.b. Münzwurf zeigt Kopf) mit Erfolgsws p, wird n mal unabhängig wiederholt. Wie groß ist die Wahrscheinlichkeit, dass es immer gelingt? 2...immer scheitert? p p p p = p n (1 p) (1 p) (1 p) = (1 p) n 3...erst k mal gelingt und dann n k mal scheitert? p k (1 p) n k 4...insgesamt k mal gelingt und n k mal scheitert? ( ) n p k (1 p) n k k
55 Die Binomialverteilung Erläuterung ( n ) k = n! ist die Anzahl der Möglichkeiten, die k Erfolge in k! (n k)! die n Versuche einzusortieren.
56 Die Binomialverteilung Binomialverteilung Sei X die Anzahl der Erfolge bei n unabhängigen Versuchen mit Erfolgswahrscheinlichkeit von jeweils p. Dann gilt für k {0, 1,..., n} ( ) n Pr(X = k) = p k (1 p) n k k und X heißt binomialverteilt, kurz: X bin(n, p).
57 Die Binomialverteilung probabilities of bin(n=10,p=0.2) k
58 Die Binomialverteilung probabilities of bin(n=100,p=0.2) k
59 Inhalt Erwartungswert 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test
60 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R.
61 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a Pr(X = a)
62 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a Pr(X = a) Manche schreiben auch µ X statt EX.
63 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a Pr(X = a) Ersetzt man in der Definition die Wahrscheinlichkeit durch relative Häufigkeiten, so erhält man die bekannte Formel Erwartungswert = Summe der Werte Anzahl der Werte :
64 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a Pr(X = a) Ersetzt man in der Definition die Wahrscheinlichkeit durch relative Häufigkeiten, so erhält man die bekannte Formel Summe der Werte Erwartungswert = Anzahl der Werte : Sei k a die Häufigkeit des Wertes a in einer Gesamtheit der Größe n, so schreibt sich der Erwartungswert als a ka n = a a k a = n EX = a Summe der Werte Anzahl der Werte.
65 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a Pr(X = a) Beispiele: (Weitere Beispiele an der Tafel.)
66 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a Pr(X = a) Beispiele: (Weitere Beispiele an der Tafel.) Sei X Bernoulli-verteilt mit Erfolgswahrscheinlichkeit p [0, 1]. Dann gilt EX = 1 Pr(X = 1) + 0 Pr(X = 0) = Pr(X = 1) = p
67 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a Pr(X = a) Beispiele: (Weitere Beispiele an der Tafel.) Sei X Bernoulli-verteilt mit Erfolgswahrscheinlichkeit p [0, 1]. Dann gilt EX = 1 Pr(X = 1) + 0 Pr(X = 0) = Pr(X = 1) = p Sei W die Augenzahl bei einem Würfelwurf. Dann gilt EW = 1 Pr(W = 1) + 2 Pr(W = 2) + 6 Pr(W = 6) = = = 3.5
68 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem Wertebereich S R. Sei f : S R eine Funktion.
69 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem Wertebereich S R. Sei f : S R eine Funktion. Dann ist der Erwartungswert von f (X) definiert durch E[f (X)] = a S f (a) Pr(X = a)
70 Erwartungswert Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem Wertebereich S R. Sei f : S R eine Funktion. Dann ist der Erwartungswert von f (X) definiert durch E[f (X)] = a S f (a) Pr(X = a) Beispiel: Sei W die Augenzahl bei einem Würfelwurf. Dann gilt E[W 2 ] = 1 2 Pr(W = 1) Pr(W = 2) Pr(W = 6) = = 91 6
71 Erwartungswert Rechnen mit Erwartungswerten Satz (Linearität der Erwartung) Sind X und Y Zufallsvariablen mit Werten in R und ist a R, so gilt: E(a X) = a EX E(X + Y ) = EX + EY
72 Erwartungswert Rechnen mit Erwartungswerten Satz (Linearität der Erwartung) Sind X und Y Zufallsvariablen mit Werten in R und ist a R, so gilt: E(a X) = a EX E(X + Y ) = EX + EY Satz (Nur für Unabhängige!) Sind X und Y stochastisch unabhängige Zufallsvariablen mit Werten in R, so gilt E(X Y ) = EX EY.
73 Erwartungswert Rechnen mit Erwartungswerten Satz (Linearität der Erwartung) Sind X und Y Zufallsvariablen mit Werten in R und ist a R, so gilt: E(a X) = a EX E(X + Y ) = EX + EY Satz (Nur für Unabhängige!) Sind X und Y stochastisch unabhängige Zufallsvariablen mit Werten in R, so gilt E(X Y ) = EX EY. Beweise an der Tafel.
74 Erwartungswert Erwartungswert der Binomialverteilung Seien Y 1, Y 2,..., Y n die Indikatorvariablen der n unabhängigen Versuche d.h. { 1 falls der i te Versuch gelingt Y i = 0 falls der i te Versuch scheitert
75 Erwartungswert Erwartungswert der Binomialverteilung Seien Y 1, Y 2,..., Y n die Indikatorvariablen der n unabhängigen Versuche d.h. { 1 falls der i te Versuch gelingt Y i = 0 falls der i te Versuch scheitert Dann ist X = Y Y n binomialverteilt mit Parametern (n, p), wobei p die Erfolgswahrscheinlichkeit der Versuche ist.
76 Erwartungswert Erwartungswert der Binomialverteilung Seien Y 1, Y 2,..., Y n die Indikatorvariablen der n unabhängigen Versuche d.h. { 1 falls der i te Versuch gelingt Y i = 0 falls der i te Versuch scheitert Dann ist X = Y Y n binomialverteilt mit Parametern (n, p), wobei p die Erfolgswahrscheinlichkeit der Versuche ist. Wegen der Linearität der Erwartung gilt EX = E(Y Y n ) = EY EY n
77 Erwartungswert Erwartungswert der Binomialverteilung Seien Y 1, Y 2,..., Y n die Indikatorvariablen der n unabhängigen Versuche d.h. { 1 falls der i te Versuch gelingt Y i = 0 falls der i te Versuch scheitert Dann ist X = Y Y n binomialverteilt mit Parametern (n, p), wobei p die Erfolgswahrscheinlichkeit der Versuche ist. Wegen der Linearität der Erwartung gilt EX = E(Y Y n ) = EY EY n = p + + p = np
78 Erwartungswert Erwartungswert der Binomialverteilung Wir halten fest: X bin(n, p) EX = n p
79 Inhalt Varianz und Korrelation 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test
80 Varianz und Korrelation Definition (Varianz, Kovarianz und Korrelation) Die Varianz einer R-wertigen Zufallsgröße X ist VarX = σ 2 X = E [ (X EX) 2].
81 Varianz und Korrelation Definition (Varianz, Kovarianz und Korrelation) Die Varianz einer R-wertigen Zufallsgröße X ist VarX = σx 2 = E [ (X EX) 2]. σ X = Var X ist die Standardabweichung.
82 Varianz und Korrelation Definition (Varianz, Kovarianz und Korrelation) Die Varianz einer R-wertigen Zufallsgröße X ist VarX = σ 2 X = E [ (X EX) 2]. σ X = Var X ist die Standardabweichung. Ist Y eine weitere reellwertige Zufallsvariable, so ist Cov(X, Y ) = E [(X EX) (Y EY )] die Kovarianz von X und Y.
83 Varianz und Korrelation Definition (Varianz, Kovarianz und Korrelation) Die Varianz einer R-wertigen Zufallsgröße X ist VarX = σ 2 X = E [ (X EX) 2]. σ X = Var X ist die Standardabweichung. Ist Y eine weitere reellwertige Zufallsvariable, so ist Cov(X, Y ) = E [(X EX) (Y EY )] die Kovarianz von X und Y. Die Korrelation von X und Y ist Cor(X, Y ) = Cov(X, Y ) σ X σ Y.
84 Varianz und Korrelation Die Varianz VarX = E [ (X EX) 2] ist die mittlere quadrierte Abweichung vom Mittelwert.
85 Varianz und Korrelation Die Varianz VarX = E [ (X EX) 2] ist die mittlere quadrierte Abweichung vom Mittelwert. Die Korrelation Cor(X, Y ) = Cov(X, Y ) σ X σ Y liegt immer im Intervall [ 1, 1]. Die Variablen X und Y sind positiv korreliert, wenn X und Y tendenziell entweder beide überdurchschnittlich große Werte oder beide unterdurchschnittlich große Werte annehmen. negativ korreliert, wenn X und Y tendenziell auf verschiedenen Seiten ihrer Erwartungswerte liegen.
86 Varianz und Korrelation Die Varianz VarX = E [ (X EX) 2] ist die mittlere quadrierte Abweichung vom Mittelwert. Die Korrelation Cor(X, Y ) = Cov(X, Y ) σ X σ Y liegt immer im Intervall [ 1, 1]. Die Variablen X und Y sind positiv korreliert, wenn X und Y tendenziell entweder beide überdurchschnittlich große Werte oder beide unterdurchschnittlich große Werte annehmen. negativ korreliert, wenn X und Y tendenziell auf verschiedenen Seiten ihrer Erwartungswerte liegen. Sind X und Y unabhängig, so sind sie auch unkorreliert, d.h. Cor(X, Y ) = 0.
87 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y
88 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [X EX]>0 [X EX]<0
89 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [Y EY]>0 [Y EY]<0 [X EX]>0 [X EX]<0
90 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [X EX]*[Y EY]<0 [X EX]*[Y EY]>0 [X EX]*[Y EY]>0 [X EX]*[Y EY]<0
91 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [X EX]*[Y EY]<0 [X EX]*[Y EY]>0 [X EX]*[Y EY]>0 [X EX]*[Y EY]<0 Cov(X,Y)= 1.11
92 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [X EX]*[Y EY]<0 [X EX]*[Y EY]>0 [X EX]*[Y EY]>0 [X EX]*[Y EY]<0
93 Varianz und Korrelation Wieso Cov(X, Y ) = E([X EX][Y EY ])? Y [X EX]*[Y EY]<0 [X EX]*[Y EY]>0 [X EX]*[Y EY]>0 [X EX]*[Y EY]<0 Cov(X,Y)= 0.78
94 Varianz und Korrelation Beispiel: Die empirische Verteilung Sind x 1,..., x n R Daten und entsteht X durch rein zufälliges Ziehen aus diesen Daten, so gilt: EX = x und Var X = 1 n n (x i x) 2 i=1
95 Varianz und Korrelation Beispiel: Die empirische Verteilung Sind x 1,..., x n R Daten und entsteht X durch rein zufälliges Ziehen aus diesen Daten, so gilt: EX = x und Var X = 1 n n (x i x) 2 i=1 Entsprechend kann man auch für Daten (x i, y i ) die empirischen Kovarianzen und Korrelationen ausrechen, siehe nächste Seite...
96 Varianz und Korrelation σ X = 0.95, σ Y = X Y
97 Varianz und Korrelation σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = X Y
98 Varianz und Korrelation σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y
99 Varianz und Korrelation σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y σ X = 1.13, σ Y = X Y
100 Varianz und Korrelation σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = X Y
101 Varianz und Korrelation σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = 1.26 Cor(X, Y ) = X Y
102 Varianz und Korrelation σ X = 1.14, σ Y = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = 1.26 Cor(X, Y ) = X Y
103 Varianz und Korrelation σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = 1.26 Cor(X, Y ) = X Y
104 Varianz und Korrelation σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = 1.26 Cor(X, Y ) = X Y
105 Varianz und Korrelation σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y σ X = 1.03, σ Y = X Y
106 Varianz und Korrelation σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = X Y
107 Varianz und Korrelation σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = 0.32 Cor(X, Y ) = X Y
108 Varianz und Korrelation σ X = 0.91, σ Y = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = 0.32 Cor(X, Y ) = X Y
109 Varianz und Korrelation σ X = 0.91, σ Y = 0.88 Cov(X, Y ) = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = 0.32 Cor(X, Y ) = X Y
110 Varianz und Korrelation σ X = 0.91, σ Y = 0.88 Cov(X, Y ) = 0 Cor(X, Y ) = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = 0.32 Cor(X, Y ) = X Y
111 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X)
112 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2
113 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) =
114 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX
115 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) =
116 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) = VarX + VarY + 2 Cov(X, Y )
117 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) = VarX + VarY + 2 Cov(X, Y ) Var ( n i=1 X i) =
118 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) = VarX + VarY + 2 Cov(X, Y ) ( n Var i=1 X i) = n i=1 Var( ) X i + 2 n j 1 j=1 i=1 Cov(X i, X j )
119 Varianz und Korrelation Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) = VarX + VarY + 2 Cov(X, Y ) ( n Var i=1 X i) = n i=1 Var( ) X i + 2 n j 1 j=1 i=1 Cov(X i, X j ) Sind (X, Y ) stochastisch unabhängig, so folgt: Var(X + Y ) = VarX + VarY
120 Varianz und Korrelation Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!)
121 Varianz und Korrelation Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X)
122 Varianz und Korrelation Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X) Cov(X, Y ) = E(X Y ) EX EY
123 Varianz und Korrelation Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X) Cov(X, Y ) = E(X Y ) EX EY Cov(a X, Y ) = a Cov(X, Y ) = Cov(X, a Y )
124 Varianz und Korrelation Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X) Cov(X, Y ) = E(X Y ) EX EY Cov(a X, Y ) = a Cov(X, Y ) = Cov(X, a Y ) Cov(X + Z, Y ) = Cov(X, Y ) + Cov(Z, Y )
125 Varianz und Korrelation Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X) Cov(X, Y ) = E(X Y ) EX EY Cov(a X, Y ) = a Cov(X, Y ) = Cov(X, a Y ) Cov(X + Z, Y ) = Cov(X, Y ) + Cov(Z, Y ) Cov(X, Z + Y ) = Cov(X, Z ) + Cov(X, Y )
126 Varianz und Korrelation Rechenregeln für Kovarianzen Cov(X, Y ) = E[(X EX) (Y EY )] Sind X und Y unabhängig, so folgt Cov(X, Y ) = 0 (die Umkehrung gilt nicht!) Cov(X, Y )=Cov(Y, X) Cov(X, Y ) = E(X Y ) EX EY Cov(a X, Y ) = a Cov(X, Y ) = Cov(X, a Y ) Cov(X + Z, Y ) = Cov(X, Y ) + Cov(Z, Y ) Cov(X, Z + Y ) = Cov(X, Z ) + Cov(X, Y ) Die letzten drei Regeln beschreiben die Bilinearität der Kovarianz.
127 Varianz und Korrelation Rechenregeln für die Korrelation 1 Cor(X, Y ) 1 Cor(X, Y ) = Cor(Y, X) Cor(X, Y ) = Cov(X, Y ) σ X σ Y Cor(X, Y ) = Cov(X/σ X, Y /σ Y ) Cor(X, Y ) = 1 genau dann wenn Y eine wachsende, affin-lineare Funktion von X ist, d.h. falls es a > 0 und b R gibt, so dass Y = a X + b Cor(X, Y ) = 1 genau dann wenn Y eine fallende, affin-lineare Funktion von X ist, d.h. falls es a < 0 und b R gibt, so dass Y = a X + b
128 Varianz und Korrelation Mit diesen Rechenregeln können wir nun endlich beweisen: Satz Sind X 1, X 2,... X n unabhängige R-wertige Zufallsgrößen mit Mittelwert µ und Varianz σ 2, so gilt für X = 1 n n i=1 X i: EX = µ und Var X = 1 n σ2, d.h. σ X = σ n
129 Varianz und Korrelation Beweis: Linearität des Erwartungswertes impliziert ( 1 EX = E n = 1 n n ) X i = 1 n i=1 n µ = µ. i=1 n E ( ) X i i=1
130 Varianz und Korrelation Beweis: Linearität des Erwartungswertes impliziert ( 1 EX = E n = 1 n n ) X i = 1 n i=1 n µ = µ. i=1 n E ( ) X i i=1 Die Unabhängigkeit der X i vereinfacht die Varianz zu ( 1 Var X = Var n = 1 n 2 n i=1 n ) X i = 1 ( n ) n Var X 2 i i=1 Var ( X i ) = 1 n 2 i=1 n σ 2 = 1 n σ2 i=1
131 Varianz und Korrelation Bernoulli-Verteilung Eine Bernoulli-verteilte Zufallsvariable Y mit Erfolgsws p [0, 1] hat Erwartungswert EY = p und Varianz Var Y = p (1 p)
132 Varianz und Korrelation Bernoulli-Verteilung Eine Bernoulli-verteilte Zufallsvariable Y mit Erfolgsws p [0, 1] hat Erwartungswert EY = p und Varianz Var Y = p (1 p) Beweis: Aus Pr(Y = 1) = p und Pr(Y = 0) = (1 p) folgt EY = 1 p + 0 (1 p) = p.
133 Varianz und Korrelation Bernoulli-Verteilung Eine Bernoulli-verteilte Zufallsvariable Y mit Erfolgsws p [0, 1] hat Erwartungswert EY = p und Varianz Var Y = p (1 p) Beweis: Aus Pr(Y = 1) = p und Pr(Y = 0) = (1 p) folgt EY = 1 p + 0 (1 p) = p. Varianz: Var Y = E ( Y 2) ( EY ) 2 = 1 2 p (1 p) p 2 = p (1 p)
134 Varianz und Korrelation Binomialverteilung Seien nun Y 1,, Y n unabhängig und Bernoulli-verteilt mit Erfolgsws p. Dann gilt und es folgt: n Y i =: X bin(n, p) i=1 Var X =
135 Varianz und Korrelation Binomialverteilung Seien nun Y 1,, Y n unabhängig und Bernoulli-verteilt mit Erfolgsws p. Dann gilt und es folgt: n Y i =: X bin(n, p) i=1 ( n ) Var X = Var Y i = i=1
136 Varianz und Korrelation Binomialverteilung Seien nun Y 1,, Y n unabhängig und Bernoulli-verteilt mit Erfolgsws p. Dann gilt und es folgt: n Y i =: X bin(n, p) i=1 ( n ) Var X = Var Y i = i=1 n Var Y i = i=1
137 Varianz und Korrelation Binomialverteilung Seien nun Y 1,, Y n unabhängig und Bernoulli-verteilt mit Erfolgsws p. Dann gilt und es folgt: n Y i =: X bin(n, p) i=1 ( n ) Var X = Var Y i = i=1 n Var Y i = n p (1 p) i=1
138 Varianz und Korrelation Binomialverteilung Satz (Erwartungswert und Varianz der Binomialverteilung) Ist X binomialverteilt mit Parametern (n, p), so gilt: EX = n p und Var X = n p (1 p)
139 Inhalt Ein Anwendungsbeispiel 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test
140 Ein Anwendungsbeispiel Auf der menschlichen mtdna wird die Aminosäure Prolin mal durch CCT und mal durch CCA codiert.
141 Ein Anwendungsbeispiel Auf der menschlichen mtdna wird die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird?
142 Ein Anwendungsbeispiel Auf der menschlichen mtdna wird die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird? Dann wäre die Anzahl X der CCT binomialverteilt mit p = 1 2 und n = =
143 Ein Anwendungsbeispiel Auf der menschlichen mtdna wird die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird? Dann wäre die Anzahl X der CCT binomialverteilt mit p = 1 2 und n = = EX = n p =
144 Ein Anwendungsbeispiel Auf der menschlichen mtdna wird die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird? Dann wäre die Anzahl X der CCT binomialverteilt mit p = 1 2 und n = = EX = n p = σ X = n p (1 p) 228
145 Ein Anwendungsbeispiel Auf der menschlichen mtdna wird die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird? Dann wäre die Anzahl X der CCT binomialverteilt mit p = 1 2 und n = = EX = n p = σ X = n p (1 p) = σ X
146 Ein Anwendungsbeispiel Auf der menschlichen mtdna wird die Aminosäure Prolin mal durch CCT und mal durch CCA codiert. Ist es nur vom reinen Zufall abhängig, welches Codon verwendet wird? Dann wäre die Anzahl X der CCT binomialverteilt mit p = 1 2 und n = = EX = n p = σ X = n p (1 p) = σ X Sieht das nach Zufall aus?
147 Ein Anwendungsbeispiel Die Frage ist: Wie groß ist die Wahrscheinlichkeit einer Abweichung vom Erwartungswert von mindestens 9.5 σ X, wenn alles Zufall ist?
148 Ein Anwendungsbeispiel Die Frage ist: Wie groß ist die Wahrscheinlichkeit einer Abweichung vom Erwartungswert von mindestens 9.5 σ X, wenn alles Zufall ist? Wir müssen also Pr ( X EX 9.5σ X ) berechnen.
149 Ein Anwendungsbeispiel Die Frage ist: Wie groß ist die Wahrscheinlichkeit einer Abweichung vom Erwartungswert von mindestens 9.5 σ X, wenn alles Zufall ist? Wir müssen also Pr ( X EX 9.5σ X ) berechnen. Das Problem bei der Binomialverteilung ist: ( n k) exakt zu berechnen, ist für große n sehr aufwändig. Deshalb:
150 Ein Anwendungsbeispiel Die Frage ist: Wie groß ist die Wahrscheinlichkeit einer Abweichung vom Erwartungswert von mindestens 9.5 σ X, wenn alles Zufall ist? Wir müssen also Pr ( X EX 9.5σ X ) berechnen. Das Problem bei der Binomialverteilung ist: ( n k) exakt zu berechnen, ist für große n sehr aufwändig. Deshalb: Die Binomialverteilung wird oft durch andere Verteilungen approximiert.
151 Inhalt Die Normalverteilung 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test
152 Die Normalverteilung Die Binomialverteilung mit großer Versuchzahl n sieht aus wie die Normalverteilung: dbinom(400:600, 1000, 0.5) :600
153 Die Normalverteilung Die Binomialverteilung mit großer Versuchzahl n sieht aus wie die Normalverteilung: dbinom(400:600, 1000, 0.5) :600
154 Die Normalverteilung Dichte der Standardnormalverteilung Eine Zufallsvariable Z mit der Dichte f (x) = 1 2π e x2 2 Gauß-Glocke heißt standardnormalverteilt.
155 Die Normalverteilung Dichte der Standardnormalverteilung Eine Zufallsvariable Z mit der Dichte f (x) = 1 2π e x2 2 Gauß-Glocke kurz: Z N (0, 1) heißt standardnormalverteilt.
156 Die Normalverteilung Dichte der Standardnormalverteilung Eine Zufallsvariable Z mit der Dichte f (x) = 1 2π e x2 2 Gauß-Glocke kurz: Z N (0, 1) EZ = 0 Var Z = heißt standardnormalverteilt.
157 Die Normalverteilung Ist Z N (0, 1)-verteilt, so ist X = σ Z + µ normalverteilt mit Mittelwert µ und Varianz σ 2, kurz: X N (µ, σ 2 )
158 Die Normalverteilung Ist Z N (0, 1)-verteilt, so ist X = σ Z + µ normalverteilt mit Mittelwert µ und Varianz σ 2, kurz: X N (µ, σ 2 ) X hat dann die Dichte f (x) = 1 2πσ e (x µ)2 2σ 2.
159 Die Normalverteilung Merkregeln Ist Z N (µ, σ 2 ), so gilt: Pr( Z µ > σ) 33%
160 Die Normalverteilung Merkregeln Ist Z N (µ, σ 2 ), so gilt: Pr( Z µ > σ) 33% Pr( Z µ > 1.96 σ) 5%
161 Die Normalverteilung Merkregeln Ist Z N (µ, σ 2 ), so gilt: Pr( Z µ > σ) 33% Pr( Z µ > 1.96 σ) 5% Pr( Z µ > 3 σ) 0.3%
162 Die Normalverteilung f (x) = 1 e (x µ)2 2σ 2 2πσ µ σ µ µ + σ
163 Die Normalverteilung Dichten brauchen Integrale Sei Z eine Zufallsvariable mit Dichte f (x) Dann gilt a b Pr(Z [a, b]) =
164 Die Normalverteilung Dichten brauchen Integrale Sei Z eine Zufallsvariable mit Dichte f (x) Dann gilt Pr(Z [a, b]) = a b b a f (x)dx.
165 Die Normalverteilung Die Normalverteilung in R Die Normalverteilung hat in R das Kürzel norm.
166 Die Normalverteilung Die Normalverteilung in R Die Normalverteilung hat in R das Kürzel norm. Es gibt 4 R-Befehle: dnorm(): Dichte der Normalverteilung (density)
167 Die Normalverteilung Die Normalverteilung in R Die Normalverteilung hat in R das Kürzel norm. Es gibt 4 R-Befehle: dnorm(): Dichte der Normalverteilung (density) rnorm(): Ziehen einer Stichprobe (random sample)
168 Die Normalverteilung Die Normalverteilung in R Die Normalverteilung hat in R das Kürzel norm. Es gibt 4 R-Befehle: dnorm(): Dichte der Normalverteilung (density) rnorm(): Ziehen einer Stichprobe (random sample) pnorm(): Verteilungsfunktion der Normalverteilung (probability)
169 Die Normalverteilung Die Normalverteilung in R Die Normalverteilung hat in R das Kürzel norm. Es gibt 4 R-Befehle: dnorm(): Dichte der Normalverteilung (density) rnorm(): Ziehen einer Stichprobe (random sample) pnorm(): Verteilungsfunktion der Normalverteilung (probability) qnorm(): Quantilfunktion der Normalverteilung (quantile)
170 Die Normalverteilung Beispiel: Dichte der Standardnormalverteilung: > dnorm(0) [1]
171 Die Normalverteilung Beispiel: Dichte der Standardnormalverteilung: > dnorm(0) [1] > plot(dnorm,from=-4,to=4)
172 Die Normalverteilung Beispiel: Dichte der Standardnormalverteilung: > dnorm(0) [1] > plot(dnorm,from=-4,to=4) > dnorm(0,mean=1,sd=2)
173 Die Normalverteilung Beispiel: Ziehen einer Stichprobe
174 Die Normalverteilung Beispiel: Ziehen einer Stichprobe Ziehen einer Stichprobe der Länge 6 aus einer Standardnormalverteilung: > rnorm(6) [1]
175 Die Normalverteilung Beispiel: Ziehen einer Stichprobe Ziehen einer Stichprobe der Länge 6 aus einer Standardnormalverteilung: > rnorm(6) [1] Ziehen einer Stichprobe der Länge 7 aus einer Normalverteilung mit Mittelwert 5 und Standardabweichung 3: > rnorm(7,mean=5,sd=3) [1]
176 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 0, σ 2 = 1), also standardnormalverteilt. Pr(Z < a) berechnet man in R mit pnorm(a)
177 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 0, σ 2 = 1), also standardnormalverteilt. Pr(Z < a) berechnet man in R mit pnorm(a) > pnorm(0.5) [1]
178 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 0, σ 2 = 1), also standardnormalverteilt. Pr(Z < a) berechnet man in R mit pnorm(a) > pnorm(0.5) [1] standard normal density
179 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 5, σ 2 = 2.25).
180 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 5, σ 2 = 2.25). Berechnung von Pr(Z [3, 4]):
181 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 5, σ 2 = 2.25). Berechnung von Pr(Z [3, 4]): Pr(Z [3, 4]) = Pr(Z < 4) Pr(Z < 3)
182 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 5, σ 2 = 2.25). Berechnung von Pr(Z [3, 4]): Pr(Z [3, 4]) = Pr(Z < 4) Pr(Z < 3) > pnorm(4,mean=5,sd=1.5)-pnorm(3,mean=5,sd=1.5)
183 Die Normalverteilung Beispiel: Berechnung von Wahrscheinlichkeiten: Sei Z N (µ = 5, σ 2 = 2.25). Berechnung von Pr(Z [3, 4]): Pr(Z [3, 4]) = Pr(Z < 4) Pr(Z < 3) > pnorm(4,mean=5,sd=1.5)-pnorm(3,mean=5,sd=1.5) [1]
184 Die Normalverteilung Sei Z N (µ, σ 2 ). Frage: Wie berechnet man Pr(Z = 5)?
185 Die Normalverteilung Sei Z N (µ, σ 2 ). Frage: Wie berechnet man Pr(Z = 5)? Antwort: Für jedes x R gilt Pr(Z = x) = 0
186 Die Normalverteilung Sei Z N (µ, σ 2 ). Frage: Wie berechnet man Pr(Z = 5)? Antwort: Für jedes x R gilt Pr(Z = x) = 0 Was wird dann aus EZ = a S a Pr(Z = a)?
187 Die Normalverteilung Sei Z N (µ, σ 2 ). Frage: Wie berechnet man Pr(Z = 5)? Antwort: Für jedes x R gilt Pr(Z = x) = 0 Was wird dann aus EZ = a S a Pr(Z = a)? Muss reformiert werden: EZ = x f (x)dx
188 Die Normalverteilung Sei Z N (µ, σ 2 ). Frage: Wie berechnet man Pr(Z = 5)? Antwort: Für jedes x R gilt Pr(Z = x) = 0 Was wird dann aus EZ = a S a Pr(Z = a)? Muss reformiert werden: EZ = x f (x)dx Aber zum Glück kennen wir schon das Ergebnis EZ = µ.
189 Inhalt Normalapproximation 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test
190 Normalapproximation Normalapproximation Für große n und p, die nicht zu nahe bei 0 oder 1 liegen, kann man die Binomialverteilung durch die Normalverteilung mit dem entsprechenden Erwartungswert und der entsprechenden Varianz approximieren:
191 Normalapproximation Normalapproximation Für große n und p, die nicht zu nahe bei 0 oder 1 liegen, kann man die Binomialverteilung durch die Normalverteilung mit dem entsprechenden Erwartungswert und der entsprechenden Varianz approximieren: Ist X bin(n, p) und Z N (µ =, σ 2 = ), so gilt Pr(X [a, b]) Pr(Z [a, b])
192 Normalapproximation Normalapproximation Für große n und p, die nicht zu nahe bei 0 oder 1 liegen, kann man die Binomialverteilung durch die Normalverteilung mit dem entsprechenden Erwartungswert und der entsprechenden Varianz approximieren: Ist X bin(n, p) und Z N (µ = n p, σ 2 = ), so gilt Pr(X [a, b]) Pr(Z [a, b])
193 Normalapproximation Normalapproximation Für große n und p, die nicht zu nahe bei 0 oder 1 liegen, kann man die Binomialverteilung durch die Normalverteilung mit dem entsprechenden Erwartungswert und der entsprechenden Varianz approximieren: Ist X bin(n, p) und Z N (µ = n p, σ 2 = n p (1 p)), so gilt Pr(X [a, b]) Pr(Z [a, b])
194 Normalapproximation Normalapproximation Für große n und p, die nicht zu nahe bei 0 oder 1 liegen, kann man die Binomialverteilung durch die Normalverteilung mit dem entsprechenden Erwartungswert und der entsprechenden Varianz approximieren: Ist X bin(n, p) und Z N (µ = n p, σ 2 = n p (1 p)), so gilt Pr(X [a, b]) Pr(Z [a, b]) (eine Faustregel: für den Hausgebrauch meist okay, wenn n p (1 p) 9)
195 Normalapproximation n = 1000, p = 0.5, n p (1 p) = 250 dbinom(400:600, 1000, 0.5) :600
196 Normalapproximation n = 1000, p = 0.5, n p (1 p) = 250 dbinom(400:600, 1000, 0.5) :600
197 Normalapproximation n = 10, p = 0.2, n p (1 p) = 1.6 dbinom(0:10, 10, 0.2) :10
198 Normalapproximation n = 10, p = 0.2, n p (1 p) = 1.6 dbinom(0:10, 10, 0.2) :10
199 Normalapproximation Zentraler Grenzwertsatz Ein anderer Ausdruck für Normalapproximation ist Zentraler Grenzwertsatz.
200 Normalapproximation Zentraler Grenzwertsatz Ein anderer Ausdruck für Normalapproximation ist Zentraler Grenzwertsatz. Der zentrale Grenzwertsatz besagt, dass die Verteilung von Summen unabhängiger und identisch verteilter Zufallsvariablen in etwa die Normalverteilung ist.
201 Normalapproximation Theorem (Zentraler Grenzwertsatz) Die R-wertigen Zufallsgrößen X 1, X 2,... seien unabhängig und identisch verteilt mit endlicher Varianz 0 < Var X i <. Sei außerdem Z n := X 1 + X X n die Summe der ersten n Variablen.
202 Normalapproximation Theorem (Zentraler Grenzwertsatz) Die R-wertigen Zufallsgrößen X 1, X 2,... seien unabhängig und identisch verteilt mit endlicher Varianz 0 < Var X i <. Sei außerdem Z n := X 1 + X X n die Summe der ersten n Variablen. Dann ist die zentrierte und reskalierte Summe im Limes n standardnormalverteilt, d.h. Z n EZ n Var Zn N (µ = 0, σ 2 = 1) bei n.
203 Normalapproximation Theorem (Zentraler Grenzwertsatz) Die R-wertigen Zufallsgrößen X 1, X 2,... seien unabhängig und identisch verteilt mit endlicher Varianz 0 < Var X i <. Sei außerdem Z n := X 1 + X X n die Summe der ersten n Variablen. Dann ist die zentrierte und reskalierte Summe im Limes n standardnormalverteilt, d.h. Z n EZ n Var Zn N (µ = 0, σ 2 = 1) bei n. Formal: Es gilt für alle a < b lim Pr(a Z n b) = Pr(a Z b), n wobei Z eine standardnormalverteilte Zufallsvariable ist.
204 Normalapproximation Anders formuliert: Für große n gilt Z n N ( µ = EZ n, σ 2 = Var Z n )
205 Normalapproximation Anders formuliert: Für große n gilt Z n N ( µ = EZ n, σ 2 = Var Z n ) Die Voraussetzungen unabhängig und identisch verteilt lassen sich noch deutlich abschwächen.
206 Normalapproximation Anders formuliert: Für große n gilt Z n N ( µ = EZ n, σ 2 = Var Z n ) Die Voraussetzungen unabhängig und identisch verteilt lassen sich noch deutlich abschwächen. Für den Hausgebrauch:
207 Normalapproximation Anders formuliert: Für große n gilt Z n N ( µ = EZ n, σ 2 = Var Z n ) Die Voraussetzungen unabhängig und identisch verteilt lassen sich noch deutlich abschwächen. Für den Hausgebrauch: Ist Y das Resultat von vielen kleinen Beiträgen, die großteils unabhängig voneinander sind, so ist Y in etwa normalverteilt, d.h. Y N ( µ = EY, σ 2 = Var Y )
208 Inhalt Der z-test 1 Deterministische und zufällige Vorgänge 2 Zufallsvariablen und Verteilung 3 Die Binomialverteilung 4 Erwartungswert 5 Varianz und Korrelation 6 Ein Anwendungsbeispiel 7 Die Normalverteilung 8 Normalapproximation 9 Der z-test
209 Der z-test Zurück zu dem Beispiel mit den Prolin-Codons in der menschlichen mtdna.
210 Der z-test Zurück zu dem Beispiel mit den Prolin-Codons in der menschlichen mtdna. CCT kommt k = mal vor CCA kommt n k = mal vor
211 Der z-test Zurück zu dem Beispiel mit den Prolin-Codons in der menschlichen mtdna. CCT kommt k = mal vor CCA kommt n k = mal vor Frage: Kann dies Zufall sein?
212 Der z-test Zurück zu dem Beispiel mit den Prolin-Codons in der menschlichen mtdna. CCT kommt k = mal vor CCA kommt n k = mal vor Frage: Kann dies Zufall sein? Wir meinen: Nein.
213 Der z-test Zurück zu dem Beispiel mit den Prolin-Codons in der menschlichen mtdna. CCT kommt k = mal vor CCA kommt n k = mal vor Frage: Kann dies Zufall sein? Wir meinen: Nein. Die Skeptiker sagen: Nur Zufall.
214 Der z-test Die Hypothese Reiner Zufall Kein Unterschied
215 Der z-test Die Hypothese Reiner Zufall Kein Unterschied nennt man die Nullhypothese.
216 Der z-test Die Hypothese Reiner Zufall Kein Unterschied nennt man die Nullhypothese. Um die Skeptiker zu überzeugen, müssen wir die Nullhypothese entkräften
Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie
Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 11. Mai 2011 Inhaltsverzeichnis 1 Deterministische und zufällige
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
Mehr4 Diskrete Wahrscheinlichkeitsverteilungen
4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder
MehrÜbung zu Empirische Ökonomie für Fortgeschrittene SS 2009
Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte
MehrÜbung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
MehrBeispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen
4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrAbiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.
Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrBinomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec
Binomialverteilung Jakob Bernoulli (1654-1705) Ars Conjectandi Klassisches Verteilungsmodell für die Berechnung der Wahrscheinlichkeit für die Häufigkeit des Eintretens von Ereignissen in bestimmten noch
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
MehrZufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten
Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests
MehrDieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.
Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 6. Ausgewählte Verteilungen (Distributions) * diskret: Bernoulli, Binomial, Geometrisch, Poisson * stetig: Uniform, Exponential, Normal, χ 2,
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
MehrInstitut für Biometrie und klinische Forschung. WiSe 2012/2013
Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive
MehrKapitel 5. Stochastik
76 Kapitel 5 Stochastik In diesem Kapitel wollen wir die Grundzüge der Wahrscheinlichkeitstheorie behandeln. Wir beschränken uns dabei auf diskrete Wahrscheinlichkeitsräume Ω. Definition 5.1. Ein diskreter
MehrBasiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
Mehr11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
MehrRegression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate
Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
Mehr8. Stetige Zufallsvariablen
8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse
MehrÜ b u n g s b l a t t 13
Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrKenngrößen von Zufallsvariablen
Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert
Mehr1 Dichte- und Verteilungsfunktion
Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die
MehrUnivariates Datenmaterial
Univariates Datenmaterial 1.6.1 Deskriptive Statistik Zufallstichprobe: Umfang n, d.h. Stichprobe von n Zufallsvariablen o Merkmal/Zufallsvariablen: Y = {Y 1, Y 2,..., Y n } o Realisationen/Daten: x =
Mehr6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen
6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher: Diskrete Zufallsvariablen,
MehrSpezielle stetige Verteilungen
Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für
MehrGrundwissen zur Stochastik
Grundwissen zur Stochastik Inhalt: ABHÄNGIGE EREIGNISSE...2 ABHÄNGIGKEIT UND UNABHÄNGIGKEIT VON ERGEBNISSEN...2 ABHÄNGIGKEIT UND UNABHÄNGIGKEIT VON MERKMALEN IN VIERFELDERTAFELN...2 ABSOLUTE HÄUFIGKEIT...2
Mehr1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...
Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............
MehrStetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch
6 Stetige Verteilungen 1 Kapitel 6: Stetige Verteilungen A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch dargestellt. 0.2 6
MehrStatistik II. Statistische Tests. Statistik II
Statistik II Statistische Tests Statistik II - 12.5.2006 1 Test auf Anteilswert: Binomialtest Sei eine Stichprobe unabhängig, identisch verteilter ZV (i.i.d.). Teile diese Stichprobe in zwei Teilmengen
MehrÜ b u n g s b l a t t 10
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel. 6. 2007 Ü b u n g s b l a t t 0 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrMathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007
Mathematik IV für Maschinenbau und Informatik Stochastik Universität Rostock, Institut für Mathematik Sommersemester 007 Prof. Dr. F. Liese Dipl.-Math. M. Helwich Serie Termin: 9. Juni 007 Aufgabe 3 Punkte
MehrBox. Mathematik ZU DEN KERNCURRICULUM-LERNBEREICHEN:
Box Mathematik Schülerarbeitsbuch P (μ o- X μ + o-) 68,3 % s rel. E P (X = k) f g h A t μ o- μ μ + o- k Niedersachsen Wachstumsmodelle und Wahrscheinlichkeitsrechnung ZU DEN KERNCURRICULUM-LERNBEREICHEN:
MehrBeispiel: Zweidimensionale Normalverteilung I
10 Mehrdimensionale Zufallsvariablen Bedingte Verteilungen 10.6 Beispiel: Zweidimensionale Normalverteilung I Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale (multivariate) Normalverteilung
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrStatistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de
rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
MehrLösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
Mehrk np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr
Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p
MehrWebinar Induktive Statistik. - Wahrscheinlichkeitsrechnung - Stichprobentheorie
Webinar Induktive Statistik - Wahrscheinlichkeitsrechnung - Stichprobentheorie Wahrscheinlichkeitstheorie Aufgabe : Zwei Lieferanten decken den Bedarf eines PKW-Herstellers von 00.000 Einheiten pro Monat.
MehrEinführung in die Induktive Statistik: Testen von Hypothesen
Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte
MehrStochastik und Statistik für Ingenieure Vorlesung 4
Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
Mehr3.3 Bedingte Wahrscheinlichkeit
28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit
MehrKapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion
Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
MehrKapitel 2 Wahrscheinlichkeitsrechnung
Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt
MehrInhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5
Inhaltsverzeichnis Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite 1.0 Erste Begriffsbildungen 1 1.1 Merkmale und Skalen 5 1.2 Von der Urliste zu Häufigkeitsverteilungen 9 1.2.0 Erste Ordnung
MehrAufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /
Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =
MehrK8 Stetige Zufallsvariablen Theorie und Praxis
K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R
MehrI. Zahlen, Rechenregeln & Kombinatorik
XIV. Wiederholung Seite 1 I. Zahlen, Rechenregeln & Kombinatorik 1 Zahlentypen 2 Rechenregeln Brüche, Wurzeln & Potenzen, Logarithmen 3 Prozentrechnung 4 Kombinatorik Möglichkeiten, k Elemente anzuordnen
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,
Mehr1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte
MehrDas Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern.
10. Stetige Zufallsvariable, Normalverteilung 55 Die in den folgenden Beispielen dargestellten Verteilungen haben ungefähr Glockenform. Sie können durch die sogenannte Normalverteilung oder Gaussverteilung
MehrDiskrete Wahrscheinlichkeitstheorie - Probeklausur
Diskrete Wahrscheinlichkeitstheorie - robeklausur Sommersemester 2007 - Lösung Name: Vorname: Matrikelnr.: Studiengang: Hinweise Sie sollten insgesamt Blätter erhalten haben. Tragen Sie bitte Ihre Antworten
MehrStatistische Tests für unbekannte Parameter
Konfidenzintervall Intervall, das den unbekannten Parameter der Verteilung mit vorgegebener Sicherheit überdeckt ('Genauigkeitsaussage' bzw. Zuverlässigkeit einer Punktschätzung) Statistischer Test Ja-Nein-Entscheidung
MehrStatistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:
Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die
MehrTabelle 11.2 zeigt die gemeinsame Wahrscheinlichkeitsfunktion und die Randverteilungen
Kapitel 11 Stichprobenfunktionen Um eine Aussage über den Wert eines unbekannten Parameters θ zu machen, zieht man eine Zufallsstichprobe vom Umfang n aus der Grundgesamtheit. Das Merkmal wird in diesem
MehrBachelor BEE Statistik Übung: Blatt 1 Ostfalia - Hochschule für angewandte Wissenschaften Fakultät Versorgungstechnik Aufgabe (1.1): Gegeben sei die folgende Messreihe: Nr. ph-werte 1-10 6.4 6.3 6.7 6.5
Mehr1.6 Der Vorzeichentest
.6 Der Vorzeichentest In diesem Kapitel soll der Vorzeichentest bzw. Zeichentest vorgestellt werden, mit dem man Hypothesen bezüglich des Medians der unabhängig und identisch stetig verteilten Zufallsvariablen
MehrP (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.
2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
MehrTesten von Hypothesen
Elke Warmuth Humboldt-Universität zu Berlin Sommersemster 2010 1 / 46 2 / 46 1 Testen von Hypothesen 3 / 46 Signifikant, signifikant, signifikant,... 4 / 46 Signifikant, signifikant, signifikant,... 5
MehrA: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen:
5 Diskrete Verteilungen 1 Kapitel 5: Diskrete Verteilungen A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen: 5 0.6 x 0.4 5 x (i) P x (x)
MehrWahrscheinlichkeitsrechnung und Quantentheorie
Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten
MehrStatistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe
Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,
Mehr2.1 Gemeinsame-, Rand- und bedingte Verteilungen
Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die
Mehr10. Die Normalverteilungsannahme
10. Die Normalverteilungsannahme Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher haben wir vorausgesetzt, daß die Beobachtungswerte normalverteilt sind. In diesem Fall kann man
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrProf. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006
Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 19. Januar 2011 1 Nichtparametrische Tests Ordinalskalierte Daten 2 Test für ein Merkmal mit nur zwei Ausprägungen
MehrBedingte Wahrscheinlichkeiten und Unabhängigkeit
Kapitel 5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Mitunter erhält man über das Ergebnis eines zufälligen Versuches Vorinformationen. Dann entsteht die Frage, wie sich für den Betrachter, den man
MehrZweiseitiger Test für den unbekannten Mittelwert µ einer Normalverteilung bei unbekannter Varianz
Grundlage: Zweiseitiger Test für den unbekannten Mittelwert µ einer Normalverteilung bei unbekannter Varianz Die Testvariable T = X µ 0 S/ n genügt der t-verteilung mit n 1 Freiheitsgraden. Auf der Basis
MehrVorwort Zufallsvariable X, Erwartungswert E(X), Varianz V(X) 1.1 Zufallsvariable oder Zufallsgröße Erwartungswert und Varianz...
Inhaltsverzeichnis Vorwort... 2 Zum Einstieg... 3 1 Zufallsvariable X, Erwartungswert E(X), Varianz V(X) 1.1 Zufallsvariable oder Zufallsgröße... 5 1.2 Erwartungswert und Varianz... 7 2 Wahrscheinlichkeitsverteilungen
MehrBasistext - Wahrscheinlichkeitsrechnung
Basistext - Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitsrechnung beschäftigt sich mit Vorgängen, die in ihrem Ausgang unbestimmt sind. Sie versucht mögliche Ergebnisse der Vorgänge zu quantifizieren.
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler
Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler Martin Hutzenthaler & Dirk Metzler http://www.zi.biologie.uni-muenchen.de/evol/statgen.html 27. April 2010 1 Eine kurze Wiederholung
Mehr0, t 0,5
XIII. Die Normalverteilung ==================================================================. Der lokale Grenzwertsatz --------------------------------------------------------------------------------------------------------------
Mehr2. Zufallsvariable, Verteilungsfunktion, Erwartungswert,
2. Zufallsvariable, Verteilungsfunktion, Erwartungswert, momentenerzeugende Funktion Ziel des Kapitels: Mathematische Präzisierung der Konzepte Zufallsvariable Verteilungsfunktion Dichtefunktion Erwartungswerte
MehrÜbungsblatt 9. f(x) = e x, für 0 x
Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable
Mehr9 Die Normalverteilung
9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,
Mehr4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
MehrEinführung in die Wahrscheinlichkeitsrechnung
Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung
MehrTest auf den Erwartungswert
Test auf den Erwartungswert Wir interessieren uns für den Erwartungswert µ einer metrischen Zufallsgröße. Beispiele: Alter, Einkommen, Körpergröße, Scorewert... Wir können einseitige oder zweiseitige Hypothesen
MehrStochastik. Peter Pfaffelhuber
Stochastik Peter Pfaffelhuber 1 Grundlegende Bemerkungen Vorlesung orientiert sich an G. Kersting und A. Wakolbinger. Elementare Stochastik. Birkhäuser, 2008 Übungen Volker Pohl Praktikum Ernst August
Mehr5. Stochastische Modelle I: Diskrete Zufallsvariablen
5. Stochastische Modelle I: Diskrete Zufallsvariablen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Zufallsgrößen Eine Zufallsgröße X ist eine Größe, deren Wert wir nicht exakt kennen
MehrDiskrete Strukturen WiSe 2012/13 in Trier
Diskrete Strukturen WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 11. Januar 2013 1 Diskrete Strukturen Gesamtübersicht Organisatorisches und Einführung Mengenlehre Relationen
MehrZiegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem
Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Wahrscheinlichkeitsrechnung Theorie Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem,
Mehr