Biostatistik, WS 2017/18 Wiederholung

Größe: px
Ab Seite anzeigen:

Download "Biostatistik, WS 2017/18 Wiederholung"

Transkript

1 1/143 Biostatistik, WS 2017/18 Wiederholung Matthias Birkner

2 2/143 Inhalt Differential- und Integralrechnung 1 Differential- und Integralrechnung 2 Grundlagen aus der Wahrscheinlichkeitstheorie 3 Deskriptive Statistik 4 Standardfehler und t-tests 5 Chi-Quadrat-Tests 6 Konfidenzintervalle 7 Lineare Regression t-test fuer lineare Zusammenhänge 8 Varianzanalyse

3 3/143 Differential- und Integralrechnung Differenzierbarkeit: Definition Eine Funktion f sei auf einem Intervall I definiert, das x enthält. f heißt differenzierbar an der Stelle x, wenn der Grenzwert f (x + h) f (x) lim h 0 h =: f (x) existiert. Anschauung: Existenz einer Tangente im Punkt x.

4 Differential- und Integralrechnung Differenzierbarkeit: Definition Eine Funktion f sei auf einem Intervall I definiert, das x enthält. f heißt differenzierbar an der Stelle x, wenn der Grenzwert f (x + h) f (x) lim h 0 h =: f (x) existiert. Anschauung: Existenz einer Tangente im Punkt x. Erinnerung Das heißt: Für jedes ε > 0 gibt es ein 0 < h 0 (= h 0 (ε, x, f )), so f (x + h) f (x) dass für alle h mit h h 0 gilt f (x) ε. h 3/143

5 Differential- und Integralrechnung 4/143 Beispiel: Exponentielles Wachstum N(t) = Populationsgröße zur Zeit t Wenn sich alle Individuen einer Population (annähernd) unabhängig vermehren, sollte die Zunahme proportional zur aktuellen Größe sein

6 Differential- und Integralrechnung 4/143 Beispiel: Exponentielles Wachstum N(t) = Populationsgröße zur Zeit t Wenn sich alle Individuen einer Population (annähernd) unabhängig vermehren, sollte die Zunahme proportional zur aktuellen Größe sein, d.h. mit einem α R gilt N (t) = αn(t). Dies ist eine (sehr einfache) Differentialgleichung.

7 4/143 Differential- und Integralrechnung Beispiel: Exponentielles Wachstum N(t) = Populationsgröße zur Zeit t Wenn sich alle Individuen einer Population (annähernd) unabhängig vermehren, sollte die Zunahme proportional zur aktuellen Größe sein, d.h. mit einem α R gilt N (t) = αn(t). Dies ist eine (sehr einfache) Differentialgleichung. Wir wissen: Die Lösung ist N(t) = N 0 e αt ( denn d dt N 0e αt d = N 0 dt eαt = N 0 e αt d dt (αt) = αn 0e αt ) Bericht: Eindeutigkeit der Lösung

8 Differential- und Integralrechnung Beispiel: Exponentielles Wachstum N(t) = Populationsgröße zur Zeit t Wenn sich alle Individuen einer Population (annähernd) unabhängig vermehren, sollte die Zunahme proportional zur aktuellen Größe sein, d.h. mit einem α R gilt N (t) = αn(t). Dies ist eine (sehr einfache) Differentialgleichung. Wir wissen: Die Lösung ist N(t) = N 0 e αt ( denn d dt N 0e αt d = N 0 dt eαt = N 0 e αt d dt (αt) = αn 0e αt ) Bericht: Eindeutigkeit der Lösung Exponentielles Wachstum, α heißt Malthusischer Parameter (nach Thomas Malthus, ) oder Wachstumsparameter (α < 0 entspricht einer schrumpfenden Population) 4/143

9 Differential- und Integralrechnung Exponentielles Wachstum als Approximation zufälliger Populationsdynamik Anzahl Individuen Zeit Starte mit 10 Individuen, jedes Ind. verdoppelt sich nach einer zufälligen Zeit (die Mittelwert 1 hat). Blaue Kurve: 10e t 5/143

10 Differential- und Integralrechnung Exponentielles Wachstum als Approximation zufälliger Populationsdynamik, II Anzahl Individuen Zeit Starte mit 100 Individuen, jedes Ind. verdoppelt sich nach einer zufälligen Zeit (die Mittelwert 1 hat). Blaue Kurve: 100e t 6/143

11 7/143 Differential- und Integralrechnung Stammfunktion, unbestimmtes Integral f auf einem Intervall I = [a, b] definiert. F heißt Stammfunktion von f, wenn F auf I differenzierbar ist mit F = f Hauptsatz der Integral- und Differentialrechnung f stetig auf I, so ist F(x) := x f (x) dx eine Stammfunktion (und a jede andere Stammfunktion F unterscheidet sich von dieser nur durch eine additive Konstante: F(x) = F(x) + c für ein c R). Insbesondere: b f (x) dx = F(b) F(a) für jede Stammfunktion a F von f.

12 7/143 Differential- und Integralrechnung Stammfunktion, unbestimmtes Integral f auf einem Intervall I = [a, b] definiert. F heißt Stammfunktion von f, wenn F auf I differenzierbar ist mit F = f Hauptsatz der Integral- und Differentialrechnung f stetig auf I, so ist F(x) := x f (x) dx eine Stammfunktion (und a jede andere Stammfunktion F unterscheidet sich von dieser nur durch eine additive Konstante: F(x) = F(x) + c für ein c R). Insbesondere: b f (x) dx = F(b) F(a) für jede Stammfunktion a F von f. Man schreibt f (x) dx für die (Menge aller) Stammfunktion(en) von f ( unbestimmtes Integral von f ).

13 Differential- und Integralrechnung Beispiel: f (x) = Wegstrecke, die ein Zug nach Zeit x zurückgelegt hat f (x) = Geschwindigkeit zur Zeit x Wir erhalten durch Integrieren der Geschwindigkeit die zurückgelegte Wegstrecke zurück (wenn wir die Zusatzinformation benutzen, dass die Wegstrecke zur Zeit 0 = 0 war): f (x) f (0) = }{{} =0 x 0 f (y) dy 8/143

14 9/143 Inhalt Grundlagen aus der Wahrscheinlichkeitstheorie 1 Differential- und Integralrechnung 2 Grundlagen aus der Wahrscheinlichkeitstheorie 3 Deskriptive Statistik 4 Standardfehler und t-tests 5 Chi-Quadrat-Tests 6 Konfidenzintervalle 7 Lineare Regression t-test fuer lineare Zusammenhänge 8 Varianzanalyse

15 Grundlagen aus der Wahrscheinlichkeitstheorie 10/143 Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs.

16 Grundlagen aus der Wahrscheinlichkeitstheorie 10/143 Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs. Der Wertebereich S (engl. state space) einer Zufallsgröße ist die Menge aller möglichen Werte.

17 Grundlagen aus der Wahrscheinlichkeitstheorie 10/143 Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs. Der Wertebereich S (engl. state space) einer Zufallsgröße ist die Menge aller möglichen Werte. Die Verteilung einer Zufallsgröße X weist jeder Menge A S die Wahrscheinlichkeit P(X A) zu, dass X einen Wert in A annimmt

18 Grundlagen aus der Wahrscheinlichkeitstheorie 10/143 Als Zufallsgröße oder Zufallsvariable bezeichnet man das (Mess-)Ergebnis eines zufälligen Vorgangs. Der Wertebereich S (engl. state space) einer Zufallsgröße ist die Menge aller möglichen Werte. Die Verteilung einer Zufallsgröße X weist jeder Menge A S die Wahrscheinlichkeit P(X A) zu, dass X einen Wert in A annimmt Für Zufallsgrößen werden üblicherweise Großbuchstaben verwendet (z.b. X, Y, Z ), für konkrete Werte Kleinbuchstaben.

19 11/143 Grundlagen aus der Wahrscheinlichkeitstheorie Beispiel: Würfelwurf W = Augenzahl des nächsten Würfelwurfs. S = {1, 2,..., 6} P(W = 1) = = P(W = 6) = 1 6 ( P(W = x) = 1 für alle x {1,..., 6} ) 6 Die Verteilung erhält man aus einer Symmetrieüberlegung oder aus einer langen Würfelreihe.

20 11/143 Grundlagen aus der Wahrscheinlichkeitstheorie Beispiel: Würfelwurf W = Augenzahl des nächsten Würfelwurfs. S = {1, 2,..., 6} P(W = 1) = = P(W = 6) = 1 6 ( P(W = x) = 1 für alle x {1,..., 6} ) 6 Die Verteilung erhält man aus einer Symmetrieüberlegung oder aus einer langen Würfelreihe. Beispiel: Geschlecht X bei Neugeborenen. S = { männlich, weiblich } Die Verteilung erhält man aus einer langen Beobachtungsreihe.

21 11/143 Grundlagen aus der Wahrscheinlichkeitstheorie Beispiel: Würfelwurf W = Augenzahl des nächsten Würfelwurfs. S = {1, 2,..., 6} P(W = 1) = = P(W = 6) = 1 6 ( P(W = x) = 1 für alle x {1,..., 6} ) 6 Die Verteilung erhält man aus einer Symmetrieüberlegung oder aus einer langen Würfelreihe. Beispiel: Geschlecht X bei Neugeborenen. S = { männlich, weiblich } Die Verteilung erhält man aus einer langen Beobachtungsreihe. Beispiel: Körpergrößenverteilung in Deutschland. Die Verteilung erhält man aus einer langen Messreihe.

22 Grundlagen aus der Wahrscheinlichkeitstheorie 12/143 Rechenregeln: Sei X Zufallsgröße mit Wertebereich S. 0 P(X A) 1 für jede Teilmenge A S

23 Grundlagen aus der Wahrscheinlichkeitstheorie 12/143 Rechenregeln: Sei X Zufallsgröße mit Wertebereich S. 0 P(X A) 1 für jede Teilmenge A S P(X S) = 1

24 Grundlagen aus der Wahrscheinlichkeitstheorie 12/143 Rechenregeln: Sei X Zufallsgröße mit Wertebereich S. 0 P(X A) 1 für jede Teilmenge A S P(X S) = 1 Sind A, B S disjunkt, d.h. A B =, P(X A B) = P(X A) + P(X B), insbesondere P(X A c ) = 1 P(X A) mit A c = S \ A

25 Grundlagen aus der Wahrscheinlichkeitstheorie 12/143 Rechenregeln: Sei X Zufallsgröße mit Wertebereich S. 0 P(X A) 1 für jede Teilmenge A S P(X S) = 1 Sind A, B S disjunkt, d.h. A B =, P(X A B) = P(X A) + P(X B), insbesondere P(X A c ) = 1 P(X A) mit A c = S \ A Allgemein gilt P(X A B) = P(X A) + P(X B) P(X A B) ( Einschluss-Ausschluss-Formel )

26 13/143 Grundlagen aus der Wahrscheinlichkeitstheorie Bedingte Wahrscheinlichkeit Ws des Ereignisses {Y B} unter der Bedingung {X A} P(Y B X A) := P(Y B, X A) P(X A) bedingte Ws von {Y B} gegeben {X A}

27 13/143 Grundlagen aus der Wahrscheinlichkeitstheorie Bedingte Wahrscheinlichkeit Ws des Ereignisses {Y B} unter der Bedingung {X A} P(Y B X A) := P(Y B, X A) P(X A) bedingte Ws von {Y B} gegeben {X A} Beachte: P(X A, Y B) = P(X A) P(Y B X A)

28 Grundlagen aus der Wahrscheinlichkeitstheorie Bedingte Wahrscheinlichkeit Ws des Ereignisses {Y B} unter der Bedingung {X A} P(Y B X A) := P(Y B, X A) P(X A) bedingte Ws von {Y B} gegeben {X A} Beachte: ( ) P(X A, Y B) = P(X A) P(Y B X A) ( ) in Worten ausgedrückt: Die Ws des Ereignisses {X A, Y B} läßt sich in zwei Schritten berechnen: Zunächst muss das Ereignis {X A} eintreten. Die Ws hiervon wird multipliziert mit der Ws von {Y B}, wenn man schon weiß, daß {X A} eintritt. 13/143

29 Grundlagen aus der Wahrscheinlichkeitstheorie 14/143 Die Formel von Bayes Seien X, Y Zufallsgrößen mit Wertebereichen S X bzw. S Y, A S X, B S Y, dann gilt P(Y B X A) = P(X A Y B) P(Y B) P(X A Y B) P(Y B) + P(X A Y B c ) P(Y B c )

30 Grundlagen aus der Wahrscheinlichkeitstheorie 14/143 Die Formel von Bayes Seien X, Y Zufallsgrößen mit Wertebereichen S X bzw. S Y, A S X, B S Y, dann gilt P(Y B X A) = P(X A Y B) P(Y B) P(X A Y B) P(Y B) + P(X A Y B c ) P(Y B c ) Denn Zähler = P(X A, Y B) Nenner = P(X A, Y B) + P(X A, Y B c ) = P(X A, Y B B c ) = P(X A)

31 15/143 Grundlagen aus der Wahrscheinlichkeitstheorie Beispiel: Medizinische Reihenuntersuchung Eine Krankheit komme bei 2% der Bevölkerung vor ( Prävalenz 2% ), ein Test schlage bei 95% der Kranken an ( Sensitivität 95% ), aber auch bei 10% der Gesunden ( Spezifität 90% )

32 15/143 Grundlagen aus der Wahrscheinlichkeitstheorie Beispiel: Medizinische Reihenuntersuchung Eine Krankheit komme bei 2% der Bevölkerung vor ( Prävalenz 2% ), ein Test schlage bei 95% der Kranken an ( Sensitivität 95% ), aber auch bei 10% der Gesunden ( Spezifität 90% ) Eine zufällig gewählte Person werde mit positivem Resultat getestet. Wie wahrscheinlich ist es, dass sie tatsächlich krank ist?

33 15/143 Grundlagen aus der Wahrscheinlichkeitstheorie Beispiel: Medizinische Reihenuntersuchung Eine Krankheit komme bei 2% der Bevölkerung vor ( Prävalenz 2% ), ein Test schlage bei 95% der Kranken an ( Sensitivität 95% ), aber auch bei 10% der Gesunden ( Spezifität 90% ) Eine zufällig gewählte Person werde mit positivem Resultat getestet. Wie wahrscheinlich ist es, dass sie tatsächlich krank ist? Modell: X =Testergebnis (S X = {positiv, negativ}), Y =Gesundheitszustand (S Y = {gesund, krank}) der Person Gesucht P(Y = krank X = positiv) =?

34 15/143 Grundlagen aus der Wahrscheinlichkeitstheorie Beispiel: Medizinische Reihenuntersuchung Eine Krankheit komme bei 2% der Bevölkerung vor ( Prävalenz 2% ), ein Test schlage bei 95% der Kranken an ( Sensitivität 95% ), aber auch bei 10% der Gesunden ( Spezifität 90% ) Eine zufällig gewählte Person werde mit positivem Resultat getestet. Wie wahrscheinlich ist es, dass sie tatsächlich krank ist? Modell: X =Testergebnis (S X = {positiv, negativ}), Y =Gesundheitszustand (S Y = {gesund, krank}) der Person Gesucht P(Y = krank X = positiv) =? Wir wissen: P(Y = krank) = 0.02, P(Y = gesund) = 0.98, P(X = positiv Y = krank) = 0.95, P(X = positiv Y = gesund) = 0.1

35 Grundlagen aus der Wahrscheinlichkeitstheorie Beispiel: Medizinische Reihenuntersuchung Eine Krankheit komme bei 2% der Bevölkerung vor ( Prävalenz 2% ), ein Test schlage bei 95% der Kranken an ( Sensitivität 95% ), aber auch bei 10% der Gesunden ( Spezifität 90% ) Eine zufällig gewählte Person werde mit positivem Resultat getestet. Wie wahrscheinlich ist es, dass sie tatsächlich krank ist? Modell: X =Testergebnis (S X = {positiv, negativ}), Y =Gesundheitszustand (S Y = {gesund, krank}) der Person Gesucht P(Y = krank X = positiv) =? Wir wissen: P(Y = krank) = 0.02, P(Y = gesund) = 0.98, P(X = positiv Y = krank) = 0.95, P(X = positiv Y = gesund) = 0.1, also P(Y = krank X = positiv) = = /143

36 16/143 Grundlagen aus der Wahrscheinlichkeitstheorie Stochastische Unabhängigkeit Definition Zwei Zufallsgrößen X und Y heißen (stochastisch) unabhängig, wenn für alle Ereignisse {X A}, {Y B} gilt P(X A, Y B) = P(X A) P(Y B)

37 Grundlagen aus der Wahrscheinlichkeitstheorie 16/143 Stochastische Unabhängigkeit Definition Zwei Zufallsgrößen X und Y heißen (stochastisch) unabhängig, wenn für alle Ereignisse {X A}, {Y B} gilt Beispiel: P(X A, Y B) = P(X A) P(Y B) Werfen zweier Würfel: X = Augenzahl Würfel 1, Y = Augenzahl Würfel 2. P(X = 2, Y = 5) = 1 36 = = P(X = 2) P(Y = 5)

38 17/143 Grundlagen aus der Wahrscheinlichkeitstheorie Stochastische Unabhängigkeit In der Praxis wendet man häufig Resultate an, die Unabhängigkeit einer Stichprobe voraussetzen.

39 Grundlagen aus der Wahrscheinlichkeitstheorie 17/143 Stochastische Unabhängigkeit In der Praxis wendet man häufig Resultate an, die Unabhängigkeit einer Stichprobe voraussetzen. Beispiele: Für eine Studie wird eine zufällige Person in München und eine zufällige Person in Hamburg befragt. Die Antworten dürfen als unabhängig voneinander angenommen werden.

40 Grundlagen aus der Wahrscheinlichkeitstheorie 17/143 Stochastische Unabhängigkeit In der Praxis wendet man häufig Resultate an, die Unabhängigkeit einer Stichprobe voraussetzen. Beispiele: Für eine Studie wird eine zufällige Person in München und eine zufällige Person in Hamburg befragt. Die Antworten dürfen als unabhängig voneinander angenommen werden. Befragt man zwei Schwestern oder nahe verwandte (getrennt voneinander), so werden die Antworten nicht unabhängig voneinander sein.

41 18/143 Grundlagen aus der Wahrscheinlichkeitstheorie Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten.

42 18/143 Grundlagen aus der Wahrscheinlichkeitstheorie Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten. Diese werden üblicherweise mit 1 und 0 bezeichnet

43 18/143 Grundlagen aus der Wahrscheinlichkeitstheorie Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten. Diese werden üblicherweise mit 1 und 0 bezeichnet, beziehungsweise als Erfolg und Misserfolg.

44 18/143 Grundlagen aus der Wahrscheinlichkeitstheorie Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten. Diese werden üblicherweise mit 1 und 0 bezeichnet, beziehungsweise als Erfolg und Misserfolg. Bernoulli-Zufallsgröße X: Zustandsraum S = {0, 1}. Verteilung: P(X = 1) = p, P(X = 0) = 1 p Der Parameter p [0, 1] heißt Erfolgswahrscheinlichkeit.

45 Grundlagen aus der Wahrscheinlichkeitstheorie Bernoulli-Verteilung Als Bernoulli-Experiment bezeichnet man jeden zufälligen Vorgang mit exakt zwei möglichen Werten. Diese werden üblicherweise mit 1 und 0 bezeichnet, beziehungsweise als Erfolg und Misserfolg. Bernoulli-Zufallsgröße X: Zustandsraum S = {0, 1}. Verteilung: P(X = 1) = p, P(X = 0) = 1 p Der Parameter p [0, 1] heißt Erfolgswahrscheinlichkeit. Beispiele: Münzwurf: mögliche Werte sind Kopf und Zahl. Hat die gesampelte Drosophila eine Mutation, die weiße Augen verursacht? Mögliche Antworten sind Ja und Nein. Das Geschlecht einer Person: männlich oder weiblich 18/143

46 19/143 Grundlagen aus der Wahrscheinlichkeitstheorie Binomialverteilung Sei X die Anzahl der Erfolge bei n unabhängigen Versuchen mit Erfolgswahrscheinlichkeit von jeweils p. Dann gilt für k {0, 1,..., n} ( ) n P(X = k) = p k (1 p) n k k und X heißt binomialverteilt, kurz: X bin(n, p).

47 Grundlagen aus der Wahrscheinlichkeitstheorie 20/143 probabilities of bin(n=10,p=0.2) k

48 Grundlagen aus der Wahrscheinlichkeitstheorie 20/143 probabilities of bin(n=100,p=0.2) k

49 Grundlagen aus der Wahrscheinlichkeitstheorie 21/143 Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a P(X = a)

50 Grundlagen aus der Wahrscheinlichkeitstheorie 21/143 Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a P(X = a) Beispiele: Sei X Bernoulli-verteilt mit Erfolgswahrscheinlichkeit p [0, 1]. Dann gilt EX = 1 P(X = 1) + 0 P(X = 0) = P(X = 1) = p

51 Grundlagen aus der Wahrscheinlichkeitstheorie Definition (Erwartungswert) Sei X eine Zufallsvariable mit endlichem oder aufzählbarem Wertebereich S = {a 1, a 2, a 3... } R. Dann ist der Erwartungswert von X definiert durch EX = a S a P(X = a) Beispiele: Sei X Bernoulli-verteilt mit Erfolgswahrscheinlichkeit p [0, 1]. Dann gilt EX = 1 P(X = 1) + 0 P(X = 0) = P(X = 1) = p Sei W die Augenzahl bei einem Würfelwurf. Dann gilt EW = 1 P(W = 1) + 2 P(W = 2) + 6 P(W = 6) = = 21 6 = /143

52 Grundlagen aus der Wahrscheinlichkeitstheorie 22/143 Rechnen mit Erwartungswerten Satz (Linearität der Erwartung) Sind X und Y Zufallsvariablen mit Werten in R und ist a R, so gilt: E(a X) = a EX E(X + Y ) = EX + EY

53 Grundlagen aus der Wahrscheinlichkeitstheorie 22/143 Rechnen mit Erwartungswerten Satz (Linearität der Erwartung) Sind X und Y Zufallsvariablen mit Werten in R und ist a R, so gilt: E(a X) = a EX E(X + Y ) = EX + EY Folgerung: Für X bin(n, p) gilt E(X) = n p

54 Grundlagen aus der Wahrscheinlichkeitstheorie 22/143 Rechnen mit Erwartungswerten Satz (Linearität der Erwartung) Sind X und Y Zufallsvariablen mit Werten in R und ist a R, so gilt: E(a X) = a EX E(X + Y ) = EX + EY Folgerung: Für X bin(n, p) gilt E(X) = n p Satz (Nur für Unabhängige!) Sind X und Y stochastisch unabhängige Zufallsvariablen mit Werten in R, so gilt E(X Y ) = EX EY.

55 Grundlagen aus der Wahrscheinlichkeitstheorie 23/143 Definition (Varianz, Kovarianz und Korrelation) Die Varianz einer R-wertigen Zufallsgröße X ist VarX = σx 2 = E [ (X EX) 2]. σ X = Var X ist die Standardabweichung.

56 Grundlagen aus der Wahrscheinlichkeitstheorie 23/143 Definition (Varianz, Kovarianz und Korrelation) Die Varianz einer R-wertigen Zufallsgröße X ist VarX = σ 2 X = E [ (X EX) 2]. σ X = Var X ist die Standardabweichung. Ist Y eine weitere reellwertige Zufallsvariable, so ist Cov(X, Y ) = E [(X EX) (Y EY )] die Kovarianz von X und Y.

57 Grundlagen aus der Wahrscheinlichkeitstheorie 23/143 Definition (Varianz, Kovarianz und Korrelation) Die Varianz einer R-wertigen Zufallsgröße X ist VarX = σ 2 X = E [ (X EX) 2]. σ X = Var X ist die Standardabweichung. Ist Y eine weitere reellwertige Zufallsvariable, so ist Cov(X, Y ) = E [(X EX) (Y EY )] die Kovarianz von X und Y. Die Korrelation von X und Y ist Cor(X, Y ) = Cov(X, Y ) σ X σ Y.

58 Grundlagen aus der Wahrscheinlichkeitstheorie σ X = 0.95, σ Y = X Y 24/143

59 Grundlagen aus der Wahrscheinlichkeitstheorie σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = X Y 24/143

60 Grundlagen aus der Wahrscheinlichkeitstheorie σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y 24/143

61 Grundlagen aus der Wahrscheinlichkeitstheorie σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y σ X = 1.13, σ Y = X Y 24/143

62 Grundlagen aus der Wahrscheinlichkeitstheorie σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = X Y 24/143

63 Grundlagen aus der Wahrscheinlichkeitstheorie σ X = 0.95, σ Y = 0.92 Cov(X, Y ) = 0.06 Cor(X, Y ) = X Y σ X = 1.13, σ Y = 1.2 Cov(X, Y ) = 1.26 Cor(X, Y ) = X Y 24/143

64 Grundlagen aus der Wahrscheinlichkeitstheorie σ X = 1.14, σ Y = X Y 25/143

65 Grundlagen aus der Wahrscheinlichkeitstheorie σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = X Y 25/143

66 Grundlagen aus der Wahrscheinlichkeitstheorie σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y 25/143

67 Grundlagen aus der Wahrscheinlichkeitstheorie σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y σ X = 1.03, σ Y = X Y 25/143

68 Grundlagen aus der Wahrscheinlichkeitstheorie σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = X Y 25/143

69 Grundlagen aus der Wahrscheinlichkeitstheorie σ X = 1.14, σ Y = 0.78 Cov(X, Y ) = 0.78 Cor(X, Y ) = X Y σ X = 1.03, σ Y = 0.32 Cov(X, Y ) = 0.32 Cor(X, Y ) = X Y 25/143

70 Grundlagen aus der Wahrscheinlichkeitstheorie σ X = 0.91, σ Y = X Y 26/143

71 Grundlagen aus der Wahrscheinlichkeitstheorie σ X = 0.91, σ Y = 0.88 Cov(X, Y ) = X Y 26/143

72 Grundlagen aus der Wahrscheinlichkeitstheorie σ X = 0.91, σ Y = 0.88 Cov(X, Y ) = 0 Cor(X, Y ) = X Y 26/143

73 27/143 Grundlagen aus der Wahrscheinlichkeitstheorie Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) =

74 27/143 Grundlagen aus der Wahrscheinlichkeitstheorie Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) = VarX + VarY + 2 Cov(X, Y ) Sind (X, Y ) stochastisch unabhängig, so folgt: Var(X + Y ) = VarX + VarY

75 Grundlagen aus der Wahrscheinlichkeitstheorie Rechenregeln für Varianzen VarX = E[(X EX) 2 ] VarX = Cov(X, X) VarX = E(X 2 ) (EX) 2 Var(a X) = a 2 VarX Var(X + Y ) = VarX + VarY + 2 Cov(X, Y ) Sind (X, Y ) stochastisch unabhängig, so folgt: Var(X + Y ) = VarX + VarY Insbesondere gilt für X bin(n, p): Var X = n p (1 p). (Denn wir können X = Y 1 + Y Y n schreiben mit Y 1,..., Y n unabhängig, jeweils Bernoulli(p)-verteilt.) 27/143

76 28/143 Inhalt Deskriptive Statistik 1 Differential- und Integralrechnung 2 Grundlagen aus der Wahrscheinlichkeitstheorie 3 Deskriptive Statistik 4 Standardfehler und t-tests 5 Chi-Quadrat-Tests 6 Konfidenzintervalle 7 Lineare Regression t-test fuer lineare Zusammenhänge 8 Varianzanalyse

77 29/143 Histogramme Deskriptive Statistik Nichteiertragende Weibchen am 6. Sept. '88, n=215 Anzahl Carapaxlänge [mm]

78 Histogramme Deskriptive Statistik Nichteiertragende Weibchen am 6. Sept. 88, n=215 Anzahl Wieviele haben Carapaxlänge zwischen 2,0 und 2,2? Carapaxlänge [mm] 29/143

79 Histogramme Deskriptive Statistik Nichteiertragende Weibchen am 6. Sept. 88, n=215 Anzahl Wieviele haben Carapaxlänge zwischen 2,0 und 2,2? Carapaxlänge [mm] 29/143

80 Histogramme Deskriptive Statistik Nichteiertragende Weibchen am 6. Sept. 88, n=215 Anzahl Wieviele haben Carapaxlänge zwischen 2,0 und 2,2? Carapaxlänge [mm] 29/143

81 Deskriptive Statistik 30/143 Histogramme Nichteiertragende Weibchen am 6. Sept. 88, n=215 Dichte Gesamtfläche= Carapaxlänge [mm]

82 Deskriptive Statistik 30/143 Histogramme Nichteiertragende Weibchen am 6. Sept. 88, n=215 Dichte Dichte? 2.0 Gesamtfläche= Carapaxlänge [mm]

83 Deskriptive Statistik 30/143 Histogramme Nichteiertragende Weibchen am 6. Sept. 88, n=215 Dichte Dichte = Anteil des Ganzen pro mm 2.0 Gesamtfläche= Carapaxlänge [mm]

84 Deskriptive Statistik 30/143 Histogramme Nichteiertragende Weibchen am 6. Sept. 88, n=215 Dichte Dichte = Anteil des Ganzen pro mm 2.0 Gesamtfläche=1 Welcher Anteil hatte eine Länge zwischen 2.8 und 3.0 mm? Carapaxlänge [mm]

85 Deskriptive Statistik 30/143 Histogramme Nichteiertragende Weibchen am 6. Sept. 88, n=215 Dichte Dichte = Anteil des Ganzen pro mm Gesamtfläche=1 Welcher Anteil hatte eine Länge zwischen 2.8 und 3.0 mm? Carapaxlänge [mm]

86 Deskriptive Statistik 30/143 Histogramme Nichteiertragende Weibchen am 6. Sept. 88, n=215 Dichte Dichte = Anteil des Ganzen pro mm Gesamtfläche=1 Welcher Anteil hatte eine Länge zwischen 2.8 und 3.0 mm? ( ) 0.5 = Carapaxlänge [mm]

87 Deskriptive Statistik 30/143 Histogramme Nichteiertragende Weibchen am 6. Sept. 88, n=215 Dichte Dichte = Anteil des Ganzen pro mm Gesamtfläche=1 Welcher Anteil hatte eine Länge zwischen 2.8 und 3.0 mm? ( ) 0.5 = % Carapaxlänge [mm]

88 31/143 Deskriptive Statistik Zwei und mehr Dichtepolygone in einem Plot Nichteiertragende Weibchen Anzahl Nov. '88 6. Sept. ' Carapaxlänge [mm]

89 32/143 Der Boxplot Deskriptive Statistik Carapaxlänge [mm]

90 32/143 Der Boxplot Deskriptive Statistik Carapaxlänge [mm]

91 32/143 Der Boxplot Deskriptive Statistik 50 % der Daten 50 % der Daten Carapaxlänge [mm]

92 32/143 Der Boxplot Deskriptive Statistik 50 % der Daten 50 % der Daten Median Carapaxlänge [mm]

93 32/143 Der Boxplot Deskriptive Statistik 25% 25% 25% 25% Min Median Max Carapaxlänge [mm]

94 32/143 Der Boxplot Deskriptive Statistik 25% 25% 25% 25% Min 1. Quartil 3. Quartil Median Max Carapaxlänge [mm]

95 32/143 Der Boxplot Deskriptive Statistik Interquartilbereich Carapaxlänge [mm]

96 32/143 Der Boxplot Deskriptive Statistik Interquartilbereich 1,5*Interquartilbereich 1,5*Interquartilbereich Carapaxlänge [mm]

97 32/143 Der Boxplot Deskriptive Statistik Carapaxlänge [mm]

98 Deskriptive Statistik 33/143 Beispiel: Vergleich von mehreren Gruppen Dichte Dichte Dichte Dichte

99 Deskriptive Statistik 33/143 Beispiel: Vergleich von mehreren Gruppen (ist mit Boxplots oft übersichtlicher)

100 Deskriptive Statistik 34/143 Es ist oft möglich, das Wesentliche an einer Stichprobe mit ein paar Zahlen zusammenzufassen.

101 Deskriptive Statistik 35/143 Wesentlich: 1. Wie groß? 2. Wie variabel?

102 Deskriptive Statistik 35/143 Wesentlich: 1. Wie groß? Lageparameter 2. Wie variabel?

103 Deskriptive Statistik 35/143 Wesentlich: 1. Wie groß? Lageparameter 2. Wie variabel? Streuungsparameter

104 Deskriptive Statistik 36/143 Eine Möglichkeit kennen wir schon aus dem Boxplot:

105 Deskriptive Statistik 37/143 Lageparameter Der Median

106 Deskriptive Statistik 37/143 Lageparameter Der Median Streuungsparameter

107 Deskriptive Statistik 37/143 Lageparameter Der Median Streuungsparameter Der Quartilabstand (Q 3 Q 1 )

108 Deskriptive Statistik 38/143 Der Median: die Hälfte der Beobachtungen sind kleiner, die Hälfte sind größer.

109 Deskriptive Statistik 38/143 Der Median: die Hälfte der Beobachtungen sind kleiner, die Hälfte sind größer. Der Median ist das 50%-Quantil der Daten.

110 39/143 Die Quartile Deskriptive Statistik Das erste Quartil, Q 1 :

111 39/143 Die Quartile Deskriptive Statistik Das erste Quartil, Q 1 : ein Viertel der Beobachtungen sind kleiner, drei Viertel sind größer.

112 39/143 Die Quartile Deskriptive Statistik Das erste Quartil, Q 1 : ein Viertel der Beobachtungen sind kleiner, drei Viertel sind größer. Q 1 ist das 25%-Quantil der Daten.

113 40/143 Die Quartile Deskriptive Statistik Das dritte Quartil, Q 3 :

114 40/143 Die Quartile Deskriptive Statistik Das dritte Quartil, Q 3 : drei Viertel der Beobachtungen sind kleiner, ein Viertel sind größer.

115 40/143 Die Quartile Deskriptive Statistik Das dritte Quartil, Q 3 : drei Viertel der Beobachtungen sind kleiner, ein Viertel sind größer. Q 3 ist das 75%-Quantil der Daten.

116 Deskriptive Statistik 41/143 Am häufigsten werden benutzt: Lageparameter Der Mittelwert x

117 Deskriptive Statistik 41/143 Am häufigsten werden benutzt: Lageparameter Der Mittelwert x Streuungsparameter Die Standardabweichung s

118 Deskriptive Statistik 42/143 Der Mittelwert (engl. mean)

119 Deskriptive Statistik 43/143 NOTATION: Wenn die Beobachtungen x 1, x 2, x 3,..., x n heißen, schreibt man oft x für den Mittelwert.

120 44/143 DEFINITION: Deskriptive Statistik Mittelwert = Summe der Messwerte Anzahl der Messwerte

121 44/143 DEFINITION: Deskriptive Statistik Mittelwert = Summe Anzahl

122 44/143 DEFINITION: Deskriptive Statistik Der Mittelwert von x 1, x 2,..., x n als Formel:

123 44/143 DEFINITION: Deskriptive Statistik Der Mittelwert von x 1, x 2,..., x n als Formel: x = (x 1 + x x n )/n

124 44/143 DEFINITION: Deskriptive Statistik Der Mittelwert von x 1, x 2,..., x n als Formel: x = (x 1 + x x n )/n = 1 n x i n i=1

125 Deskriptive Statistik 45/143 Geometrische Bedeutung des Mittelwerts: Der Schwerpunkt

126 Deskriptive Statistik 46/143 Die Standardabweichung

127 Deskriptive Statistik 46/143 Die Standardabweichung Wie weit weicht eine typische Beobachtung vom Mittelwert ab?

128 Deskriptive Statistik 47/143 Die Standardabweichung σ ( sigma ) ist ein etwas komisches gewichtetes Mittel der Abweichungsbeträge

129 Deskriptive Statistik 47/143 Die Standardabweichung σ ( sigma ) ist ein etwas komisches gewichtetes Mittel der Abweichungsbeträge und zwar σ = Summe(Abweichungen 2 )/n

130 Deskriptive Statistik 48/143 Die Standardabweichung von x 1, x 2,..., x n als Formel:

131 Deskriptive Statistik 48/143 Die Standardabweichung von x 1, x 2,..., x n als Formel: σ = 1 n (x i x) n 2 i=1

132 Deskriptive Statistik 48/143 Die Standardabweichung von x 1, x 2,..., x n als Formel: σ = 1 n (x i x) n 2 i=1 σ 2 = 1 n n i=1 (x i x) 2 heißt Varianz.

133 49/143 Deskriptive Statistik Faustregel für die Standardabweichung Bei ungefähr glockenförmigen (also eingipfligen und symmetrischen) Verteilungen liegen ca. 2/3 der Verteilung zwischen x σ und x + σ. probability density x σ x x + σ

134 50/143 Deskriptive Statistik Standardabweichung der Carapaxlängen nichteiertragender Weibchen vom Nichteiertragende Weibchen Dichte x = Carapaxlänge [mm]

135 50/143 Deskriptive Statistik Standardabweichung der Carapaxlängen nichteiertragender Weibchen vom Nichteiertragende Weibchen Dichte σ = 0.28 σ 2 = x = Carapaxlänge [mm]

136 50/143 Deskriptive Statistik Standardabweichung der Carapaxlängen nichteiertragender Weibchen vom Nichteiertragende Weibchen Dichte σ = 0.28 σ 2 = x = Carapaxlänge [mm] Hier liegt der Anteil zwischen x σ und x + σ bei 72%.

137 51/143 Deskriptive Statistik Varianz der Carapaxlängen nichteiertragender Weibchen vom Alle Carapaxlängen im Meer: X = (X 1, X 2,..., X N ).

138 51/143 Deskriptive Statistik Varianz der Carapaxlängen nichteiertragender Weibchen vom Alle Carapaxlängen im Meer: X = (X 1, X 2,..., X N ). Carapaxlängen in unserer Stichprobe: S = (S 1, S 2,..., S n=215 )

139 51/143 Deskriptive Statistik Varianz der Carapaxlängen nichteiertragender Weibchen vom Alle Carapaxlängen im Meer: X = (X 1, X 2,..., X N ). Carapaxlängen in unserer Stichprobe: S = (S 1, S 2,..., S n=215 ) Stichprobenvarianz: σs 2 = (S i S) 2 0,0768 n i=1

140 51/143 Deskriptive Statistik Varianz der Carapaxlängen nichteiertragender Weibchen vom Alle Carapaxlängen im Meer: X = (X 1, X 2,..., X N ). Carapaxlängen in unserer Stichprobe: S = (S 1, S 2,..., S n=215 ) Stichprobenvarianz: σs 2 = (S i S) 2 0,0768 n i=1 Können wir 0,0768 als Schätzwert für die Varianz σx 2 ganzen Population verwenden? in der

141 51/143 Deskriptive Statistik Varianz der Carapaxlängen nichteiertragender Weibchen vom Alle Carapaxlängen im Meer: X = (X 1, X 2,..., X N ). Carapaxlängen in unserer Stichprobe: S = (S 1, S 2,..., S n=215 ) Stichprobenvarianz: σs 2 = (S i S) 2 0,0768 n i=1 Können wir 0,0768 als Schätzwert für die Varianz σx 2 ganzen Population verwenden? Ja, können wir machen. in der

142 51/143 Deskriptive Statistik Varianz der Carapaxlängen nichteiertragender Weibchen vom Alle Carapaxlängen im Meer: X = (X 1, X 2,..., X N ). Carapaxlängen in unserer Stichprobe: S = (S 1, S 2,..., S n=215 ) Stichprobenvarianz: σs 2 = (S i S) 2 0,0768 n i=1 Können wir 0,0768 als Schätzwert für die Varianz σx 2 in der ganzen Population verwenden? Ja, können wir machen. Allerdings ist σs 2 im Durchschnitt um den Faktor n 1 (= 214/215 0, 995) kleiner als σ 2 n X

143 52/143 Varianzbegriffe Deskriptive Statistik Varianz in der Population: σx 2 = 1 N N i=1 (X i X) 2 Stichprobenvarianz: σs 2 = 1 n n i=1 (S i S) 2

144 52/143 Varianzbegriffe Deskriptive Statistik Varianz in der Population: σ 2 X = 1 N N i=1 (X i X) 2 Stichprobenvarianz: σ 2 S = 1 n n i=1 (S i S) 2 korrigierte Stichprobenvarianz: s 2 = n n 1 σ2 S

145 52/143 Varianzbegriffe Deskriptive Statistik Varianz in der Population: σ 2 X = 1 N N i=1 (X i X) 2 Stichprobenvarianz: σ 2 S = 1 n n i=1 (S i S) 2 korrigierte Stichprobenvarianz: s 2 = = n n 1 σ2 S n n 1 1 n n (S i S) 2 i=1

146 52/143 Varianzbegriffe Deskriptive Statistik Varianz in der Population: σ 2 X = 1 N N i=1 (X i X) 2 Stichprobenvarianz: σ 2 S = 1 n n i=1 (S i S) 2 korrigierte Stichprobenvarianz: s 2 = = = n n 1 σ2 S n n 1 1 n 1 n 1 n (S i S) 2 i=1 n (S i S) 2 i=1 Mit Standardabweichung von S ist meistens das korrigierte s gemeint.

147 53/143 Inhalt Standardfehler und t-tests 1 Differential- und Integralrechnung 2 Grundlagen aus der Wahrscheinlichkeitstheorie 3 Deskriptive Statistik 4 Standardfehler und t-tests 5 Chi-Quadrat-Tests 6 Konfidenzintervalle 7 Lineare Regression t-test fuer lineare Zusammenhänge 8 Varianzanalyse

148 Standardfehler und t-tests Zum Standardfehler 54/ Stichproben vom Umfang 16 und die zugehörigen Stichprobenmittel Transpiration (ml/(tag*cm^2))

149 Standardfehler und t-tests Zum Standardfehler 55/143 Verteilung der Stichprobenmittelwerte (Stichprobenumfang n = 16) Dichte Population Mittelwert=0.117 Standardabw.=0.026 Stichprobenmittel Mittelwert=0.117 Standardabw.= Transpiration (ml/(tag*cm^2))

150 56/143 Standardfehler und t-tests Die allgemeine Regel Zum Standardfehler Die Standardabweichung des Mittelwerts einer Stichprobe vom Umfang n

151 56/143 Standardfehler und t-tests Die allgemeine Regel Zum Standardfehler Die Standardabweichung des Mittelwerts einer Stichprobe vom Umfang n ist 1/ n mal der Standardabweichung der Population.

152 Standardfehler und t-tests Zum Standardfehler 57/143 Die Standardabweichung der Population bezeichnet man mit σ (sigma).

153 Standardfehler und t-tests Zum Standardfehler 57/143 Die Standardabweichung der Population bezeichnet man mit σ (sigma). Die Regel schreibt man häufig so: σ(x) = 1 σ(x) n

154 Standardfehler und t-tests Zum Standardfehler 58/143 In der Praxis ist σ unbekannt.

155 Standardfehler und t-tests Zum Standardfehler 58/143 In der Praxis ist σ unbekannt. Es wird durch die Stichproben-Standardabweichung s geschätzt:

156 Standardfehler und t-tests Zum Standardfehler 58/143 In der Praxis ist σ unbekannt. Es wird durch die Stichproben-Standardabweichung s geschätzt: σ =??

157 Standardfehler und t-tests Zum Standardfehler 58/143 In der Praxis ist σ unbekannt. Es wird durch die Stichproben-Standardabweichung s geschätzt: σ s

158 Standardfehler und t-tests Zum Standardfehler 59/143 s/ n (die geschätzte Standardabweichung von x) nennt man den Standardfehler.

159 Standardfehler und t-tests Zum Standardfehler 59/143 s/ n (die geschätzte Standardabweichung von x) nennt man den Standardfehler. (Englisch: standard error of the mean, standard error, SEM)

160 Standardfehler und t-tests Zum Standardfehler 60/143 Wir haben gesehen: Auch wenn die Verteilung von x mehrgipfelig & asymmetrisch ist

161 Standardfehler und t-tests Zum Standardfehler 61/143 Hypothethische Transpirationsratenverteilung Dichte Transpiration (ml/(tag*cm^2))

162 Standardfehler und t-tests Zum Standardfehler 62/143 ist die Verteilung von x trotzdem (annähernd) eingipfelig & symmetrisch (wenn der Stichprobenumfang n nur groß genug ist)

163 Standardfehler und t-tests Zum Standardfehler 63/143 Hypothethische Transpirationsratenverteilung Dichte Population Transpiration (ml/(tag*cm^2)) Stichprobenmittel (n=16)

164 Standardfehler und t-tests Zum Standardfehler 64/143 Die Verteilung von x hat annähernd eine ganz bestimmte Form: die Normalverteilung.

165 Standardfehler und t-tests Zum Standardfehler 65/143 Dichte der Normalverteilung Normaldichte µ σ µ µ + σ

166 Standardfehler und t-tests Zum Standardfehler 65/143 Dichte der Normalverteilung Normaldichte µ σ µ µ + σ Die Normalverteilungsdichte heisst auch Gauß sche Glockenkurve

167 Standardfehler und t-tests Zum Standardfehler 65/143 Dichte der Normalverteilung Die Normalverteilungsdichte heisst auch Gauß sche Glockenkurve (nach Carl Friedrich Gauß, )

168 66/143 Standardfehler und t-tests Wichtige Folgerung Zum Standardfehler Wir betrachten das Intervall x s/ n x + s/ n x

169 66/143 Standardfehler und t-tests Wichtige Folgerung Zum Standardfehler Mit Wahrscheinlichkeit ca. 2/3 liegt µ innerhalb dieses Intervalls x s/ n x + s/ n x

170 66/143 Standardfehler und t-tests Wichtige Folgerung Zum Standardfehler Mit Wahrscheinlichkeit ca. 2/3 liegt µ innerhalb dieses Intervalls x s/ n x + s/ n x Mit Wahrscheinlichkeit ca. 1/3 liegt µ ausserhalb des Intervalls

171 Standardfehler und t-tests Zum Standardfehler 67/143 Demnach: Es kommt durchaus vor, dass x von µ um mehr als s/ n abweicht.

172 Standardfehler und t-tests Zum Standardfehler 68/143 Nehmen wir an, eine Population hat Mittelwert µ und Standardabweichung σ.

173 Standardfehler und t-tests Zum Standardfehler 68/143 Nehmen wir an, eine Population hat Mittelwert µ und Standardabweichung σ. Aus dieser Population ziehen wir eine Zufallsstichprobe vom Umfang n, mit Stichprobenmittelwert x.

174 Standardfehler und t-tests Zum Standardfehler 68/143 Nehmen wir an, eine Population hat Mittelwert µ und Standardabweichung σ. Aus dieser Population ziehen wir eine Zufallsstichprobe vom Umfang n, mit Stichprobenmittelwert x. x ist eine Zufallsgröße

175 Standardfehler und t-tests Zum Standardfehler 68/143 Nehmen wir an, eine Population hat Mittelwert µ und Standardabweichung σ. Aus dieser Population ziehen wir eine Zufallsstichprobe vom Umfang n, mit Stichprobenmittelwert x. x ist eine Zufallsgröße mit Mittelwert µ und Standardabweichung σ/ n.

176 Standardfehler und t-tests Zum Standardfehler 68/143 Nehmen wir an, eine Population hat Mittelwert µ und Standardabweichung σ. Aus dieser Population ziehen wir eine Zufallsstichprobe vom Umfang n, mit Stichprobenmittelwert x. x ist eine Zufallsgröße mit Mittelwert µ und Standardabweichung σ/ n. Man schätzt die Standardabweichung von x mit s/ n.

177 Standardfehler und t-tests Zum Standardfehler 68/143 Nehmen wir an, eine Population hat Mittelwert µ und Standardabweichung σ. Aus dieser Population ziehen wir eine Zufallsstichprobe vom Umfang n, mit Stichprobenmittelwert x. x ist eine Zufallsgröße mit Mittelwert µ und Standardabweichung σ/ n. Man schätzt die Standardabweichung von x mit s/ n. s/ n nennt man den Standardfehler.

178 Standardfehler und t-tests Zum Standardfehler 68/143 Nehmen wir an, eine Population hat Mittelwert µ und Standardabweichung σ. Aus dieser Population ziehen wir eine Zufallsstichprobe vom Umfang n, mit Stichprobenmittelwert x. x ist eine Zufallsgröße mit Mittelwert µ und Standardabweichung σ/ n. Man schätzt die Standardabweichung von x mit s/ n. s/ n nennt man den Standardfehler. Schwankungen in x von der Größe s/ n kommen häufig vor.

179 Standardfehler und t-tests Zum Standardfehler 68/143 Nehmen wir an, eine Population hat Mittelwert µ und Standardabweichung σ. Aus dieser Population ziehen wir eine Zufallsstichprobe vom Umfang n, mit Stichprobenmittelwert x. x ist eine Zufallsgröße mit Mittelwert µ und Standardabweichung σ/ n. Man schätzt die Standardabweichung von x mit s/ n. s/ n nennt man den Standardfehler. Schwankungen in x von der Größe s/ n kommen häufig vor. Solche Schwankungen sind nicht signifikant : sie könnten Zufall sein.

180 Standardfehler und t-tests Student-Verteilung und t-test 69/143 Allgemein gilt Sind X 1,..., X n unabhängig aus einer Normalverteilung mit Mittelwert µ gezogen und ist s = 1 n (X i X) n 1 2, so ist i=1 T := X µ s/ n t-verteilt mit n 1 Freiheitsgraden (df=degrees of freedom).

181 Standardfehler und t-tests Student-Verteilung und t-test 69/143 Allgemein gilt Sind X 1,..., X n unabhängig aus einer Normalverteilung mit Mittelwert µ gezogen und ist s = 1 n (X i X) n 1 2, so ist i=1 T := X µ s/ n t-verteilt mit n 1 Freiheitsgraden (df=degrees of freedom). Die t-verteilung heißt auch Student-Verteilung, da Gosset sie unter diesem Pseudonym publiziert hat.

182 Standardfehler und t-tests Student-Verteilung und t-test 70/143 Wie (un)wahrscheinlich ist nun eine so große Abweichung wie 2.34 Standardfehler? P(T = 2.34) =

183 Standardfehler und t-tests Student-Verteilung und t-test 70/143 Wie (un)wahrscheinlich ist nun eine so große Abweichung wie 2.34 Standardfehler? P(T = 2.34) = 0

184 Standardfehler und t-tests Student-Verteilung und t-test 70/143 Wie (un)wahrscheinlich ist nun eine mindestens so große Abweichung wie 2.34 Standardfehler? P(T = 2.34) = 0 Das bringt nichts!

185 Standardfehler und t-tests Student-Verteilung und t-test Wie (un)wahrscheinlich ist nun eine so große Abweichung wie 2.34 Standardfehler? P(T = 2.34) = 0 Das bringt nichts! Zu berechnen ist P( T 2.34), der sog. p-wert. density /143

186 Standardfehler und t-tests Student-Verteilung und t-test Wie (un)wahrscheinlich ist nun eine so große Abweichung wie 2.34 Standardfehler? P(T = 2.34) = 0 Das bringt nichts! Zu berechnen ist P( T 2.34), der sog. p-wert. density Also der Gesamtinhalt der magentafarbenen Flächen /143

187 Standardfehler und t-tests Student-Verteilung und t-test 71/143 Wir halten fest: p Wert =

188 Standardfehler und t-tests Student-Verteilung und t-test 71/143 Wir halten fest: p Wert = d.h.: Wenn die Nullhypothese alles nur Zufall, also in diesem Fall die Hypothese µ = 0 gilt, dann ist eine mindestens so große Abweichung sehr unwahrscheinlich.

189 Standardfehler und t-tests Student-Verteilung und t-test 71/143 Wir halten fest: p Wert = d.h.: Wenn die Nullhypothese alles nur Zufall, also in diesem Fall die Hypothese µ = 0 gilt, dann ist eine mindestens so große Abweichung sehr unwahrscheinlich. Wenn wir beschließen, dass wir die Nullhypothese immer verwerfen, wenn der p-wert unterhalb einem Signifikanzniveau von 0.05 liegt, gilt:

190 Standardfehler und t-tests Student-Verteilung und t-test 71/143 Wir halten fest: p Wert = d.h.: Wenn die Nullhypothese alles nur Zufall, also in diesem Fall die Hypothese µ = 0 gilt, dann ist eine mindestens so große Abweichung sehr unwahrscheinlich. Wenn wir beschließen, dass wir die Nullhypothese immer verwerfen, wenn der p-wert unterhalb einem Signifikanzniveau von 0.05 liegt, gilt: Falls die Nullhypothese zutrifft, ist die Wahrscheinlichkeit, dass wir sie zu Unrecht verwerfen, lediglich 0.05.

191 Standardfehler und t-tests Student-Verteilung und t-test 72/143 Wenn wir uns auf ein Signifikanzniveau von α = 0.05 festlegen, verwerfen wir die Nullhypothese also, wenn der t-wert in den roten Bereich fällt: density (hier am Beispiel der t Verteilung mit df= 16 Freiheitsgraden)

192 Standardfehler und t-tests Student-Verteilung und t-test 73/143 Welche t-werte sind auf dem 5%-Niveau signifikant? Anzahl Freiheitsgrade t

193 Standardfehler und t-tests Student-Verteilung und t-test 74/143 Wir möchten belegen, dass eine Abweichung in den Daten vermutlich nicht allein auf Zufallsschwankung beruht.

194 Standardfehler und t-tests Student-Verteilung und t-test 74/143 Wir möchten belegen, dass eine Abweichung in den Daten vermutlich nicht allein auf Zufallsschwankung beruht. Dazu spezifizieren wir zunächst eine Nullhypothese H 0, d.h. wir konkretisieren, was allein auf Zufall beruhen bedeutet.

195 Standardfehler und t-tests Student-Verteilung und t-test 74/143 Wir möchten belegen, dass eine Abweichung in den Daten vermutlich nicht allein auf Zufallsschwankung beruht. Dazu spezifizieren wir zunächst eine Nullhypothese H 0, d.h. wir konkretisieren, was allein auf Zufall beruhen bedeutet. Dann versuchen wir zu zeigen: Wenn H 0 gilt, dann ist eine Abweichung wie, die mindestens so groß sind wie die beobachtete, sehr unwahrscheinlich.

196 Standardfehler und t-tests Student-Verteilung und t-test 74/143 Wir möchten belegen, dass eine Abweichung in den Daten vermutlich nicht allein auf Zufallsschwankung beruht. Dazu spezifizieren wir zunächst eine Nullhypothese H 0, d.h. wir konkretisieren, was allein auf Zufall beruhen bedeutet. Dann versuchen wir zu zeigen: Wenn H 0 gilt, dann ist eine Abweichung wie, die mindestens so groß sind wie die beobachtete, sehr unwahrscheinlich. Wenn uns das gelingt, verwerfen wir H 0.

197 Standardfehler und t-tests Student-Verteilung und t-test 74/143 Wir möchten belegen, dass eine Abweichung in den Daten vermutlich nicht allein auf Zufallsschwankung beruht. Dazu spezifizieren wir zunächst eine Nullhypothese H 0, d.h. wir konkretisieren, was allein auf Zufall beruhen bedeutet. Dann versuchen wir zu zeigen: Wenn H 0 gilt, dann ist eine Abweichung wie, die mindestens so groß sind wie die beobachtete, sehr unwahrscheinlich. Wenn uns das gelingt, verwerfen wir H 0. Was wir als Abweichung auffassen, sollten klar sein, bevor wir die Daten sehen.

198 75/143 Standardfehler und t-tests Student-Verteilung und t-test Zweiseitig oder einseitig testen? Wir beobachten einen Wert x, der deutlich größer als der H 0 -Erwartungswert µ ist. density % 2.5% p-wert=p H0 ( X µ x µ ) density % p-wert=p H0 (X x)

199 76/143 Standardfehler und t-tests Student-Verteilung und t-test Reine Lehre des statistischen Testens Formuliere eine Nullhypothese H 0, z.b. µ = 0.

200 Standardfehler und t-tests Student-Verteilung und t-test 76/143 Reine Lehre des statistischen Testens Formuliere eine Nullhypothese H 0, z.b. µ = 0. Lege ein Signifikanzniveau α fest; üblich ist α = 0.05.

201 Standardfehler und t-tests Student-Verteilung und t-test 76/143 Reine Lehre des statistischen Testens Formuliere eine Nullhypothese H 0, z.b. µ = 0. Lege ein Signifikanzniveau α fest; üblich ist α = Lege ein Ereignis A fest, so dass P H0 (A) = α (oder zumindest P H0 (A) α).

202 Standardfehler und t-tests Student-Verteilung und t-test 76/143 Reine Lehre des statistischen Testens Formuliere eine Nullhypothese H 0, z.b. µ = 0. Lege ein Signifikanzniveau α fest; üblich ist α = Lege ein Ereignis A fest, so dass P H0 (A) = α (oder zumindest P H0 (A) α). z.b. A = {X > q} oder A = { X µ > r}

203 Standardfehler und t-tests Student-Verteilung und t-test 76/143 Reine Lehre des statistischen Testens Formuliere eine Nullhypothese H 0, z.b. µ = 0. Lege ein Signifikanzniveau α fest; üblich ist α = Lege ein Ereignis A fest, so dass P H0 (A) = α (oder zumindest P H0 (A) α). z.b. A = {X > q} oder A = { X µ > r} allgemein: H 0 = {p-wert α}

204 Standardfehler und t-tests Student-Verteilung und t-test 76/143 Reine Lehre des statistischen Testens Formuliere eine Nullhypothese H 0, z.b. µ = 0. Lege ein Signifikanzniveau α fest; üblich ist α = Lege ein Ereignis A fest, so dass P H0 (A) = α (oder zumindest P H0 (A) α). z.b. A = {X > q} oder A = { X µ > r} allgemein: H 0 = {p-wert α} ERST DANN: Betrachte die Daten und überprüfe, ob A eintritt.

205 Standardfehler und t-tests Student-Verteilung und t-test 76/143 Reine Lehre des statistischen Testens Formuliere eine Nullhypothese H 0, z.b. µ = 0. Lege ein Signifikanzniveau α fest; üblich ist α = Lege ein Ereignis A fest, so dass P H0 (A) = α (oder zumindest P H0 (A) α). z.b. A = {X > q} oder A = { X µ > r} allgemein: H 0 = {p-wert α} ERST DANN: Betrachte die Daten und überprüfe, ob A eintritt. Dann ist die Wahrscheinlichkeit, dass H 0 verworfen wird, wenn H 0 eigentlich richtig ist ( Fehler erster Art ), lediglich α.

206 77/143 Standardfehler und t-tests Student-Verteilung und t-test Verstöße gegen die reine Lehre Beim zweiseitigen Testen kam ein p-wert von 0.06 raus. Also hab ich einseitig getestet, da hat s dann funktioniert.

207 77/143 Standardfehler und t-tests Student-Verteilung und t-test Verstöße gegen die reine Lehre Beim zweiseitigen Testen kam ein p-wert von 0.06 raus. Also hab ich einseitig getestet, da hat s dann funktioniert. genauso problematisch:

208 77/143 Standardfehler und t-tests Student-Verteilung und t-test Verstöße gegen die reine Lehre Beim zweiseitigen Testen kam ein p-wert von 0.06 raus. Also hab ich einseitig getestet, da hat s dann funktioniert. genauso problematisch: Beim ersten Blick auf die Daten habe ich sofort gesehen, dass x größer ist als µ H0. Also habe ich gleich einseitig getestet

209 Standardfehler und t-tests Student-Verteilung und t-test 78/143 Wichtig Die Entscheidung ob einseitig oder zweiseitig getestet wird darf nicht von den konkreten Daten, die zum Test verwendet werden, abhängen.

210 Standardfehler und t-tests Student-Verteilung und t-test 78/143 Wichtig Die Entscheidung ob einseitig oder zweiseitig getestet wird darf nicht von den konkreten Daten, die zum Test verwendet werden, abhängen. Allgemeiner: Ist A das Ereignis, dass zum Verwerfen von H 0 führt (falls es eintritt), so muss die Festlegung von H 0 stattfinden bevor man in den Daten herumgeschnüffelt hat.

211 Standardfehler und t-tests Student-Verteilung und t-test 79/143 Die Wahl von A sollte von der Alternative H 1 abhängen, also für das, was wir eigentlich zeigen wollen, indem wir H 0 durch einen Test verwerfen. Es muss gelten: P H0 (A) = α und P H1 (A) = möglichst groß,

212 Standardfehler und t-tests Student-Verteilung und t-test 79/143 Die Wahl von A sollte von der Alternative H 1 abhängen, also für das, was wir eigentlich zeigen wollen, indem wir H 0 durch einen Test verwerfen. Es muss gelten: und P H0 (A) = α P H1 (A) = möglichst groß, damit die W keit eines Fehlers zweiter Art, dass also H 0 nicht verworfen wird, obwohl H 1 zutrifft, möglichst klein.

213 80/143 Beispiele Standardfehler und t-tests Student-Verteilung und t-test Wenn wir von Anfang an unsere Vermutung belegen wollten, dass sich die Trauerschnäpper bei grünem Licht stärker auf eine Richtung konzentrieren als bei blauem, dürfen wir einseitig testen.

214 Standardfehler und t-tests Student-Verteilung und t-test 80/143 Beispiele Wenn wir von Anfang an unsere Vermutung belegen wollten, dass sich die Trauerschnäpper bei grünem Licht stärker auf eine Richtung konzentrieren als bei blauem, dürfen wir einseitig testen. Wenn dann aber noch so deutlich herauskommt, dass die Richtungswahl bei blauem Licht deutlicher war, so ist das dann nicht als signifikant zu betrachten.

215 Standardfehler und t-tests Student-Verteilung und t-test 80/143 Beispiele Wenn wir von Anfang an unsere Vermutung belegen wollten, dass sich die Trauerschnäpper bei grünem Licht stärker auf eine Richtung konzentrieren als bei blauem, dürfen wir einseitig testen. Wenn dann aber noch so deutlich herauskommt, dass die Richtungswahl bei blauem Licht deutlicher war, so ist das dann nicht als signifikant zu betrachten. Wenn wir von Anfang an die Vermutung belegen wollten, dass der Kork an der Nordseite des Baumes dicker war, dürfen wir einseitig testen.

216 Standardfehler und t-tests Student-Verteilung und t-test 80/143 Beispiele Wenn wir von Anfang an unsere Vermutung belegen wollten, dass sich die Trauerschnäpper bei grünem Licht stärker auf eine Richtung konzentrieren als bei blauem, dürfen wir einseitig testen. Wenn dann aber noch so deutlich herauskommt, dass die Richtungswahl bei blauem Licht deutlicher war, so ist das dann nicht als signifikant zu betrachten. Wenn wir von Anfang an die Vermutung belegen wollten, dass der Kork an der Nordseite des Baumes dicker war, dürfen wir einseitig testen. Wenn dann aber noch so deutlich herauskommt, dass der Kork im Westen dicker ist, ist das nicht mehr signifikant.

217 Standardfehler und t-tests Student-Verteilung und t-test 81/143 Angenommen, H 0 wird auf dem 5%-Niveau verworfen. Welche Aussage gilt dann? Die Nullhypothese ist falsch.

218 Standardfehler und t-tests Student-Verteilung und t-test 81/143 Angenommen, H 0 wird auf dem 5%-Niveau verworfen. Welche Aussage gilt dann? Die Nullhypothese ist falsch.

219 Standardfehler und t-tests Student-Verteilung und t-test 81/143 Angenommen, H 0 wird auf dem 5%-Niveau verworfen. Welche Aussage gilt dann? Die Nullhypothese ist falsch. H 0 ist mit 95%-iger Wahrscheinlichkeit falsch.

220 Standardfehler und t-tests Student-Verteilung und t-test 81/143 Angenommen, H 0 wird auf dem 5%-Niveau verworfen. Welche Aussage gilt dann? Die Nullhypothese ist falsch. H 0 ist mit 95%-iger Wahrscheinlichkeit falsch.

221 Standardfehler und t-tests Student-Verteilung und t-test 81/143 Angenommen, H 0 wird auf dem 5%-Niveau verworfen. Welche Aussage gilt dann? Die Nullhypothese ist falsch. H 0 ist mit 95%-iger Wahrscheinlichkeit falsch. Falls die Nullhypothese wahr ist, beobachtet man ein so extremes Ergebnis nur in 5% der Fälle.

222 Standardfehler und t-tests Student-Verteilung und t-test 81/143 Angenommen, H 0 wird auf dem 5%-Niveau verworfen. Welche Aussage gilt dann? Die Nullhypothese ist falsch. H 0 ist mit 95%-iger Wahrscheinlichkeit falsch. Falls die Nullhypothese wahr ist, beobachtet man ein so extremes Ergebnis nur in 5% der Fälle.

223 Standardfehler und t-tests Student-Verteilung und t-test 82/143 Angenommen, H 0 konnte durch den Test nicht verworfen werden. Welche Aussagen sind dann richtig? Wir müssen die Alternative H 1 verwerfen.

224 Standardfehler und t-tests Student-Verteilung und t-test 82/143 Angenommen, H 0 konnte durch den Test nicht verworfen werden. Welche Aussagen sind dann richtig? Wir müssen die Alternative H 1 verwerfen.

225 Standardfehler und t-tests Student-Verteilung und t-test 82/143 Angenommen, H 0 konnte durch den Test nicht verworfen werden. Welche Aussagen sind dann richtig? Wir müssen die Alternative H 1 verwerfen. H 0 ist wahr.

226 Standardfehler und t-tests Student-Verteilung und t-test 82/143 Angenommen, H 0 konnte durch den Test nicht verworfen werden. Welche Aussagen sind dann richtig? Wir müssen die Alternative H 1 verwerfen. H 0 ist wahr.

227 Standardfehler und t-tests Student-Verteilung und t-test 82/143 Angenommen, H 0 konnte durch den Test nicht verworfen werden. Welche Aussagen sind dann richtig? Wir müssen die Alternative H 1 verwerfen. H 0 ist wahr. H 0 ist wahrscheinlich wahr.

228 Standardfehler und t-tests Student-Verteilung und t-test 82/143 Angenommen, H 0 konnte durch den Test nicht verworfen werden. Welche Aussagen sind dann richtig? Wir müssen die Alternative H 1 verwerfen. H 0 ist wahr. H 0 ist wahrscheinlich wahr.

229 Standardfehler und t-tests Student-Verteilung und t-test 82/143 Angenommen, H 0 konnte durch den Test nicht verworfen werden. Welche Aussagen sind dann richtig? Wir müssen die Alternative H 1 verwerfen. H 0 ist wahr. H 0 ist wahrscheinlich wahr. Es ist ungefährlich, davon auzugehen, dass H 0 zutrifft.

230 Standardfehler und t-tests Student-Verteilung und t-test 82/143 Angenommen, H 0 konnte durch den Test nicht verworfen werden. Welche Aussagen sind dann richtig? Wir müssen die Alternative H 1 verwerfen. H 0 ist wahr. H 0 ist wahrscheinlich wahr. Es ist ungefährlich, davon auzugehen, dass H 0 zutrifft.

231 Standardfehler und t-tests Student-Verteilung und t-test 82/143 Angenommen, H 0 konnte durch den Test nicht verworfen werden. Welche Aussagen sind dann richtig? Wir müssen die Alternative H 1 verwerfen. H 0 ist wahr. H 0 ist wahrscheinlich wahr. Es ist ungefährlich, davon auzugehen, dass H 0 zutrifft. Auch wenn H 0 zutrifft, ist es nicht sehr unwahrscheinlich, dass unsere Teststatistik einen so extrem erscheinenden Wert annimmt.

232 Standardfehler und t-tests Student-Verteilung und t-test 82/143 Angenommen, H 0 konnte durch den Test nicht verworfen werden. Welche Aussagen sind dann richtig? Wir müssen die Alternative H 1 verwerfen. H 0 ist wahr. H 0 ist wahrscheinlich wahr. Es ist ungefährlich, davon auzugehen, dass H 0 zutrifft. Auch wenn H 0 zutrifft, ist es nicht sehr unwahrscheinlich, dass unsere Teststatistik einen so extrem erscheinenden Wert annimmt.

233 Standardfehler und t-tests Student-Verteilung und t-test 82/143 Angenommen, H 0 konnte durch den Test nicht verworfen werden. Welche Aussagen sind dann richtig? Wir müssen die Alternative H 1 verwerfen. H 0 ist wahr. H 0 ist wahrscheinlich wahr. Es ist ungefährlich, davon auzugehen, dass H 0 zutrifft. Auch wenn H 0 zutrifft, ist es nicht sehr unwahrscheinlich, dass unsere Teststatistik einen so extrem erscheinenden Wert annimmt. Die Nullhypothese ist in dieser Hinsicht mit den Daten verträglich.

234 Standardfehler und t-tests Student-Verteilung und t-test 82/143 Angenommen, H 0 konnte durch den Test nicht verworfen werden. Welche Aussagen sind dann richtig? Wir müssen die Alternative H 1 verwerfen. H 0 ist wahr. H 0 ist wahrscheinlich wahr. Es ist ungefährlich, davon auzugehen, dass H 0 zutrifft. Auch wenn H 0 zutrifft, ist es nicht sehr unwahrscheinlich, dass unsere Teststatistik einen so extrem erscheinenden Wert annimmt. Die Nullhypothese ist in dieser Hinsicht mit den Daten verträglich.

235 Standardfehler und t-tests Gegeben: Zwei Stichproben: Zum ungepaarten t-test H. libycum H. africanum mediodistale Länge [mm] (Im Beispiel: Mesiodistale Längen fossiler Hipparion-Zähne von zwei verschiedenen Arten) 83/143

236 Standardfehler und t-tests Gegeben: Zwei Stichproben: Zum ungepaarten t-test H. libycum H. africanum x A = 25.9 x L = mediodistale Länge [mm] (Im Beispiel: Mesiodistale Längen fossiler Hipparion-Zähne von zwei verschiedenen Arten) 83/143

237 Standardfehler und t-tests Gegeben: Zwei Stichproben: Zum ungepaarten t-test H. libycum H. africanum x A = 25.9, s A = 2.2 x A s A x A + s A x L = 28.4, s L = 4.3 x L s L x L + s L mediodistale Länge [mm] (Im Beispiel: Mesiodistale Längen fossiler Hipparion-Zähne von zwei verschiedenen Arten) 83/143

238 Standardfehler und t-tests Gegeben: Zwei Stichproben: Zum ungepaarten t-test H. libycum H. africanum x A + Standardfehler x L + Standardfehler mediodistale Länge [mm] (Im Beispiel: Mesiodistale Längen fossiler Hipparion-Zähne von zwei verschiedenen Arten) 83/143

239 Standardfehler und t-tests Zum ungepaarten t-test 84/143 Wir beobachten (n A = 39, n L = 38): x A = 25,9, s A = 2,2 (unser Schätzwert für die Streung von x A ist also f A = s A / n A = 2,2/ n A = 0,36 (Standardfehler))

240 Standardfehler und t-tests Zum ungepaarten t-test 84/143 Wir beobachten (n A = 39, n L = 38): x A = 25,9, s A = 2,2 (unser Schätzwert für die Streung von x A ist also f A = s A / n A = 2,2/ n A = 0,36 (Standardfehler)), x L = 28,4, s L = 4,3 (unser Schätzwert für die Streung von x L ist also f L = s L / n L = 4,3/ n L = 0,70).

241 Standardfehler und t-tests Zum ungepaarten t-test 84/143 Wir beobachten (n A = 39, n L = 38): x A = 25,9, s A = 2,2 (unser Schätzwert für die Streung von x A ist also f A = s A / n A = 2,2/ n A = 0,36 (Standardfehler)), x L = 28,4, s L = 4,3 (unser Schätzwert für die Streung von x L ist also f L = s L / n L = 4,3/ n L = 0,70). Ist die beobachtete Abweichung x L x A = 2,5 mit der Nullhypothese verträglich, dass µ L = µ A?

242 Standardfehler und t-tests Zum ungepaarten t-test 85/143 Ungepaarter t-test (mit Annahme gleicher Varianzen) Die Bilderbuchsituation : Wir haben zwei unabhängige Stichproben x 1,1,..., x 1,n1 und x 2,1,..., x 2,n2. Die x 1,i stammen aus einer Normalverteilung mit (unbekanntem) Mittelwert µ 1 und (unbekannter) Varianz σ 2 > 0, die x 2,i aus einer Normalverteilung mit (unbekanntem) Mittelwert µ 2 und derselben Varianz σ 2.

243 Standardfehler und t-tests Zum ungepaarten t-test Ungepaarter t-test (mit Annahme gleicher Varianzen) Die Bilderbuchsituation : Wir haben zwei unabhängige Stichproben x 1,1,..., x 1,n1 und x 2,1,..., x 2,n2. Die x 1,i stammen aus einer Normalverteilung mit (unbekanntem) Mittelwert µ 1 und (unbekannter) Varianz σ 2 > 0, die x 2,i aus einer Normalverteilung mit (unbekanntem) Mittelwert µ 2 und derselben Varianz σ 2. Seien x 1 = 1 n 1 x 1,i, x 2 = 1 n 2 n 1 n 2 i=1 die jeweiligen Stichprobenmittelwerte, s 2 1 = 1 n 1 1 n 1 i=1 i=1 (x 1,i x 1 ) 2, s 2 2 = 1 n 2 1 x 2,i n 2 i=1 (x 2,i x 2 ) 2, die (korrigierten) Stichprobenvarianzen. 85/143

244 86/143 Standardfehler und t-tests Zum ungepaarten t-test Wir möchten die Hypothese H 0 : µ 1 = µ 2 prüfen.

245 Standardfehler und t-tests Zum ungepaarten t-test Wir möchten die Hypothese H 0 : µ 1 = µ 2 prüfen. Wenn µ 1 = µ 2 gilt, so sollte x 1 = x 2 bis auf Zufallsschwankungen gelten, denn E[x 1 ] = µ 1, E[x 2 ] = µ 2. 86/143

246 Standardfehler und t-tests Zum ungepaarten t-test Wir möchten die Hypothese H 0 : µ 1 = µ 2 prüfen. Wenn µ 1 = µ 2 gilt, so sollte x 1 = x 2 bis auf Zufallsschwankungen gelten, denn E[x 1 ] = µ 1, E[x 2 ] = µ 2. Was ist die Skala der typischen Schwankungen von x 1 x 2? 86/143

247 Standardfehler und t-tests Zum ungepaarten t-test Wir möchten die Hypothese H 0 : µ 1 = µ 2 prüfen. Wenn µ 1 = µ 2 gilt, so sollte x 1 = x 2 bis auf Zufallsschwankungen gelten, denn E[x 1 ] = µ 1, E[x 2 ] = µ 2. Was ist die Skala der typischen Schwankungen von x 1 x 2? Var(x 1 x 2 ) = σ 2( 1 n n 2 ) 86/143

248 Standardfehler und t-tests Zum ungepaarten t-test Wir möchten die Hypothese H 0 : µ 1 = µ 2 prüfen. Wenn µ 1 = µ 2 gilt, so sollte x 1 = x 2 bis auf Zufallsschwankungen gelten, denn E[x 1 ] = µ 1, E[x 2 ] = µ 2. Was ist die Skala der typischen Schwankungen von x 1 x 2? Var(x 1 x 2 ) = σ 2( 1 n n 2 ) Problem (wie bereits im ein-stichproben-fall): Wir kennen σ 2 nicht. 86/143

249 86/143 Standardfehler und t-tests Zum ungepaarten t-test Wir möchten die Hypothese H 0 : µ 1 = µ 2 prüfen. Wenn µ 1 = µ 2 gilt, so sollte x 1 = x 2 bis auf Zufallsschwankungen gelten, denn E[x 1 ] = µ 1, E[x 2 ] = µ 2. Was ist die Skala der typischen Schwankungen von x 1 x 2? Var(x 1 x 2 ) = σ 2( 1 n n 2 ) Problem (wie bereits im ein-stichproben-fall): Wir kennen σ 2 nicht. Wir schätzen es im zwei-stichproben-fall durch die gepoolte Stichprobenvarianz s 2 = (n 1 1)s1 2 + (n ( 2 1)s2 2 ( n1 ) ) n 1 2 = (x n n 1 + n n 2 2 1,i x 1 ) 2 + (x 2,i x 2 ) 2 i=1 i=1 und bilden die Teststatistik t = x 1 x 2. 1 s n n 2

250 Standardfehler und t-tests Zum ungepaarten t-test 87/143 ungepaarter zwei-stichproben t-test (mit der Annahme gleicher Varianzen) Seien X 1,..., X n und Y 1,..., Y m unabhängige normalverteilte Zufallsvariablen mit der selben Varianz σ 2. Als gepoolte Stichprobenvarianz definieren wir s 2 p = (n 1) s2 X + (m 1) s2 Y m + n 2 Unter der Nullhypothese gleicher Erwartungswerte µ X = µ y folgt die Statistik X Y t = 1 s p + 1 n m einer t-verteilung mit n + m 2 mit Freiheitsgraden..

251 Standardfehler und t-tests Zum ungepaarten t-test 88/143 Im Hipparion-Beispiel war x L = 28,4, x A = 25,9, s A = 2,2, s A = 4,3. Wir finden t = 3,2, das 99,5%-Quantil der Student-Vert. mit 75 Freiheitsgraden ist 2,64.

252 Standardfehler und t-tests Zum ungepaarten t-test 88/143 Im Hipparion-Beispiel war x L = 28,4, x A = 25,9, s A = 2,2, s A = 4,3. Wir finden t = 3,2, das 99,5%-Quantil der Student-Vert. mit 75 Freiheitsgraden ist 2,64. Wir können die Nullhypothese die mittlere mesiodistale Länge bei H. lybicum und bei H. africanum sind gleich zum Signifikanzniveau 1% ablehnen.

253 Standardfehler und t-tests Zum ungepaarten t-test 88/143 Im Hipparion-Beispiel war x L = 28,4, x A = 25,9, s A = 2,2, s A = 4,3. Wir finden t = 3,2, das 99,5%-Quantil der Student-Vert. mit 75 Freiheitsgraden ist 2,64. Wir können die Nullhypothese die mittlere mesiodistale Länge bei H. lybicum und bei H. africanum sind gleich zum Signifikanzniveau 1% ablehnen. Mögliche Formulierung: Die mittlere mesiodistale Länge war signifikant größer (28,4 mm) bei H. libycum als bei H. africanum (25,9 mm) (t-test, α = 0,01).

254 Standardfehler und t-tests Zum ungepaarten t-test 89/143 Wann gepaarter t-test und wann ungepaarter t-test?

255 Standardfehler und t-tests Zum ungepaarten t-test 89/143 Wann gepaarter t-test und wann ungepaarter t-test? Wenn die Stichprobenlänge unterschiedlich ist, ergibt gepaart keinen Sinn.

256 Standardfehler und t-tests Zum ungepaarten t-test 89/143 Wann gepaarter t-test und wann ungepaarter t-test? Wenn die Stichprobenlänge unterschiedlich ist, ergibt gepaart keinen Sinn. Wenn die Stichprobenlänge gleich ist: Sind die Stichproben unabhängig voneinander? Falls ja, dann ungepaart testen. Ein gepaarter Test würde sinnlose Abhängigkeiten unterstellen und hätte wegen der geringeren Anzahl Freiheitsgrade auch eine geringere Macht.

257 Standardfehler und t-tests Zum ungepaarten t-test Wann gepaarter t-test und wann ungepaarter t-test? Wenn die Stichprobenlänge unterschiedlich ist, ergibt gepaart keinen Sinn. Wenn die Stichprobenlänge gleich ist: Sind die Stichproben unabhängig voneinander? Falls ja, dann ungepaart testen. Ein gepaarter Test würde sinnlose Abhängigkeiten unterstellen und hätte wegen der geringeren Anzahl Freiheitsgrade auch eine geringere Macht. Sind die Stichproben voneinander abhängig? (z.b. Messungen von denselben Individuen bzw. Objekten) Falls ja, dann ist ein gepaarter Test sinnvoll. Bei starker Abhängigkeitsstruktur hat der gepaarte t-test höhere Macht (da der Test von Variabilität zwischen den Individuen bereinigt ist) 89/143

258 Standardfehler und t-tests Zum ungepaarten t-test Zwei-Stichproben-t-Test ohne Annahme gleicher Varianzen (Welch-Test) mit R > A <- md[art=="africanum"] > L <- md[art=="libycum"] > t.test(l,a) Welch Two Sample t-test data: L and A t = , df = , p-value = alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: sample estimates: mean of x mean of y /143

259 Standardfehler und t-tests Zum ungepaarten t-test 91/143 Formulierung: Die mittlere mesiodistale Länge war signifikant größer (28,4 mm) bei H. libycum als bei H. africanum (25,9 mm) (t-test, p = 0,002).

260 92/143 Standardfehler und t-tests Rangsummentest Idee der Rangsummentests Beobachtungen: X : x 1, x 2,..., x m Y : y 1, y 2,..., y n

261 92/143 Standardfehler und t-tests Rangsummentest Idee der Rangsummentests Beobachtungen: X : x 1, x 2,..., x m Y : y 1, y 2,..., y n Sortiere alle Beobachtungen der Größe nach.

262 92/143 Standardfehler und t-tests Rangsummentest Idee der Rangsummentests Beobachtungen: X : x 1, x 2,..., x m Y : y 1, y 2,..., y n Sortiere alle Beobachtungen der Größe nach. Bestimme die Ränge der m X-Werte unter allen m + n Beobachtungen.

263 92/143 Standardfehler und t-tests Rangsummentest Idee der Rangsummentests Beobachtungen: X : x 1, x 2,..., x m Y : y 1, y 2,..., y n Sortiere alle Beobachtungen der Größe nach. Bestimme die Ränge der m X-Werte unter allen m + n Beobachtungen. Wenn die Nullhypothese zutrifft, sind die m X-Ränge eine rein zufällige Wahl aus {1, 2,..., m + n}.

264 92/143 Standardfehler und t-tests Rangsummentest Idee der Rangsummentests Beobachtungen: X : x 1, x 2,..., x m Y : y 1, y 2,..., y n Sortiere alle Beobachtungen der Größe nach. Bestimme die Ränge der m X-Werte unter allen m + n Beobachtungen. Wenn die Nullhypothese zutrifft, sind die m X-Ränge eine rein zufällige Wahl aus {1, 2,..., m + n}. Berechne die Summe der X-Ränge, prüfe, ob dieser Wert untypisch groß oder klein.

265 Standardfehler und t-tests Rangsummentest Wilcoxons Rangsummenstatistik Beobachtungen: X : x 1, x 2,..., x m Y : y 1, y 2,..., y n U = Summe der X-Ränge ( m) heißt Wilcoxons Rangsummenstatistik (Die Normierung ist so gewählt, dass W Werte zwischen 0 und m n annehmen kann.) 93/143

266 Standardfehler und t-tests Rangsummentest 94/143 Beispiel: Beobachtungen: X : 1,5; 5,6; 35,2 Y : 7,9; 38,1; 41,0; 56,7; 112,1; 197,4; 381,8

267 Standardfehler und t-tests Rangsummentest 94/143 Beispiel: Beobachtungen: X : 1,5; 5,6; 35,2 Y : 7,9; 38,1; 41,0; 56,7; 112,1; 197,4; 381,8 Lege Beobachtungen zusammen und sortiere: 1,5; 5,6; 7,9; 35,2; 38,1; 41,0; 56,7; 112,1; 197,4; 381,8

268 Standardfehler und t-tests Rangsummentest 94/143 Beispiel: Beobachtungen: X : 1,5; 5,6; 35,2 Y : 7,9; 38,1; 41,0; 56,7; 112,1; 197,4; 381,8 Lege Beobachtungen zusammen und sortiere: 1,5; 5,6; 7,9; 35,2; 38,1; 41,0; 56,7; 112,1; 197,4; 381,8 Bestimme Ränge: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10

269 Standardfehler und t-tests Rangsummentest 94/143 Beispiel: Beobachtungen: X : 1,5; 5,6; 35,2 Y : 7,9; 38,1; 41,0; 56,7; 112,1; 197,4; 381,8 Lege Beobachtungen zusammen und sortiere: 1,5; 5,6; 7,9; 35,2; 38,1; 41,0; 56,7; 112,1; 197,4; 381,8 Bestimme Ränge: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 Rangsummenstatistik hier: U = ( ) = 1

270 95/143 Standardfehler und t-tests Rangsummentest Im Beispiel: m = 3 beobachtete X-Werte, n = 7 beobachtete Y -Werte Die Quantiltabelle der Rangsummen-Verteilungen (für m = 3, n = 7) zeigt P(U 3,7 19) = 0,975, d.h. P(U 3,7 > 19) 0,025 und aus Symmetrie (m n = 21, = 2) auch P(U 3,7 < 2) 0,025

271 95/143 Standardfehler und t-tests Rangsummentest Im Beispiel: m = 3 beobachtete X-Werte, n = 7 beobachtete Y -Werte Die Quantiltabelle der Rangsummen-Verteilungen (für m = 3, n = 7) zeigt P(U 3,7 19) = 0,975, d.h. P(U 3,7 > 19) 0,025 und aus Symmetrie (m n = 21, = 2) auch P(U 3,7 < 2) 0,025, somit gilt unter der Nullhypothese die X- und die Y -Wert stammen aus derselben Verteilung P ( U 3,7 {0, 1, 20, 21} ) 0,05.

272 Standardfehler und t-tests Rangsummentest Im Beispiel: m = 3 beobachtete X-Werte, n = 7 beobachtete Y -Werte Die Quantiltabelle der Rangsummen-Verteilungen (für m = 3, n = 7) zeigt P(U 3,7 19) = 0,975, d.h. P(U 3,7 > 19) 0,025 und aus Symmetrie (m n = 21, = 2) auch P(U 3,7 < 2) 0,025, somit gilt unter der Nullhypothese die X- und die Y -Wert stammen aus derselben Verteilung P ( U 3,7 {0, 1, 20, 21} ) 0,05. Wir haben U = 1 gefunden und lehnen demnach die Nullhypothese zum Signifikanzniveau 5% ab (zweiseitiger Rangsummen-Test). 95/143

273 96/143 Standardfehler und t-tests Rangsummentest Wilcoxon-Test: Allgemeines Vorgehen m x-werte und n y-werte beobachtet, der Wert von U m,n = Summe der x-ränge m(m+1) sei u. (Falls Werte mehrfach 2 vorkommen, vergibt man geteilte Ränge.)

274 96/143 Standardfehler und t-tests Rangsummentest Wilcoxon-Test: Allgemeines Vorgehen m x-werte und n y-werte beobachtet, der Wert von U m,n = Summe der x-ränge m(m+1) sei u. (Falls Werte mehrfach 2 vorkommen, vergibt man geteilte Ränge.) Wir lehnen die Nullhypothese H 0 : die x-werte und die y-werte stammen aus derselben Verteilung zum Signifikanzniveau α ab, wenn u > q Um,n,1 α/2 oder u < q Um,n,α/2 gilt (q Um,n,a = a-quantil der (m, n)-wilcoxon-rangsummenverteilung).

275 97/143 Standardfehler und t-tests Rangsummentest Wilcoxon-Test: Allgemeines Vorgehen, 2 m x-werte und n y-werte beobachtet, der Wert von U m,n = Summe der x-ränge m(m+1) sei u. (Falls Werte mehrfach 2 vorkommen, vergibt man geteilte Ränge.)

276 97/143 Standardfehler und t-tests Rangsummentest Wilcoxon-Test: Allgemeines Vorgehen, 2 m x-werte und n y-werte beobachtet, der Wert von U m,n = Summe der x-ränge m(m+1) sei u. (Falls Werte mehrfach 2 vorkommen, vergibt man geteilte Ränge.) Einseitiger Test: Die Nullhypothese H 0 : die x-verteilung ist gegenüber der y-verteilung nach links verschoben lehnen wir zum Signifikanzniveau α ab, wenn der beobachte Wert u > q Wm,n,1 α ist. (analog, wenn wir eine Verschiebung nach rechts prüfen wollen, oder vertausche die Rollen von x und y)

277 98/143 Standardfehler und t-tests Rangsummentest Wilcoxon-Test: Anmerkung Die Quantile von U m,n entnimmt man einer Tabelle oder einem Computerprogramm, beachte: q Um,n,α/2 = n m q Um,n,1 α/2 wegen Symmetrie. (Für kleine m und n kann man die Verteilung auch durch Auszählen per Hand bestimmen, für den allgemeinen Fall gibt es eine Rekursionsformel; es gilt E H0 [U m,n ] = mn 2 und Var H 0 [U m,n ] = mn(m+n+1) 12, für große m und n ist U m,n unter H 0 ungefähr normalverteilt.)

278 99/143 Standardfehler und t-tests Rangsummentest R kennt den Wilcoxon-Test mittels wilcox.test > x [1] > y [1] > wilcox.test(x,y) Wilcoxon rank sum test data: x and y W = 1, p-value = alternative hypothesis: true location shift is not equal to 0

279 100/143 Inhalt Chi-Quadrat-Tests 1 Differential- und Integralrechnung 2 Grundlagen aus der Wahrscheinlichkeitstheorie 3 Deskriptive Statistik 4 Standardfehler und t-tests 5 Chi-Quadrat-Tests 6 Konfidenzintervalle 7 Lineare Regression t-test fuer lineare Zusammenhänge 8 Varianzanalyse

280 Chi-Quadrat-Tests χ 2 -Test für eine feste Verteilung 101/143 Szenario: Ein Experiment habe r mögliche Ausgänge (z.b. r = 6 beim Werfen eines Würfels).

281 Chi-Quadrat-Tests χ 2 -Test für eine feste Verteilung 101/143 Szenario: Ein Experiment habe r mögliche Ausgänge (z.b. r = 6 beim Werfen eines Würfels). Unter der Nullhypothese H 0 habe Ausgang i Wahrscheinlichkeit p i.

282 Chi-Quadrat-Tests χ 2 -Test für eine feste Verteilung 101/143 Szenario: Ein Experiment habe r mögliche Ausgänge (z.b. r = 6 beim Werfen eines Würfels). Unter der Nullhypothese H 0 habe Ausgang i Wahrscheinlichkeit p i. Unter n unabhängigen Wiederholungen des Experiments beobachten wir B i mal Ausgang i.

283 Chi-Quadrat-Tests χ 2 -Test für eine feste Verteilung 101/143 Szenario: Ein Experiment habe r mögliche Ausgänge (z.b. r = 6 beim Werfen eines Würfels). Unter der Nullhypothese H 0 habe Ausgang i Wahrscheinlichkeit p i. Unter n unabhängigen Wiederholungen des Experiments beobachten wir B i mal Ausgang i. Unter H 0 erwarten wir E i := E[B i ] = np i mal Augang i zu beobachten.

284 Chi-Quadrat-Tests χ 2 -Test für eine feste Verteilung 101/143 Szenario: Ein Experiment habe r mögliche Ausgänge (z.b. r = 6 beim Werfen eines Würfels). Unter der Nullhypothese H 0 habe Ausgang i Wahrscheinlichkeit p i. Unter n unabhängigen Wiederholungen des Experiments beobachten wir B i mal Ausgang i. Unter H 0 erwarten wir E i := E[B i ] = np i mal Augang i zu beobachten. Frage: Geben die Beobachtungen Anlass, an der Nullhypothese zu zweifeln?

285 102/143 Chi-Quadrat-Tests χ 2 -Test für eine feste Verteilung Erwarte E i = np i mal Ausgang i, beoachte B i mal. Geben diese Beobachtungen Anlass, an der Nullhypothese zu zweifeln?

286 102/143 Chi-Quadrat-Tests χ 2 -Test für eine feste Verteilung Erwarte E i = np i mal Ausgang i, beoachte B i mal. Geben diese Beobachtungen Anlass, an der Nullhypothese zu zweifeln? Vorgehen: (B i E i ) 2 Berechne X 2 = i E i

287 102/143 Chi-Quadrat-Tests χ 2 -Test für eine feste Verteilung Erwarte E i = np i mal Ausgang i, beoachte B i mal. Geben diese Beobachtungen Anlass, an der Nullhypothese zu zweifeln? Vorgehen: Berechne X 2 = (B i E i ) 2 E i i X 2 ist unter (approximativ, sofern n genügend groß) χ 2 r 1 -verteilt ( Chi-Quadrat-verteilt mit r 1 Freiheitsgraden )

288 Chi-Quadrat-Tests χ 2 -Test für eine feste Verteilung Erwarte E i = np i mal Ausgang i, beoachte B i mal. Geben diese Beobachtungen Anlass, an der Nullhypothese zu zweifeln? Vorgehen: Berechne X 2 = (B i E i ) 2 E i i X 2 ist unter (approximativ, sofern n genügend groß) χ 2 r 1 -verteilt ( Chi-Quadrat-verteilt mit r 1 Freiheitsgraden ) Lehne H 0 zum Signifikanzniveau α ab, wenn X 2 q 1 α, wo q 1 α das (1 α)-quantil der χ 2 -Verteilung mit r 1 Freiheitsgraden ist. 95%-Quantil der χ 2 -Verteilung in Abhängigkeit der Anzahl Freiheitsgrade F.g Quantil /143

289 103/143 Chi-Quadrat-Tests χ 2 -Test für eine feste Verteilung Beispiel: Unter Würfen eines Würfels beobachten wir folgende Häufigkeiten der Augenzahlen: i B i

290 103/143 Chi-Quadrat-Tests χ 2 -Test für eine feste Verteilung Beispiel: Unter Würfen eines Würfels beobachten wir folgende Häufigkeiten der Augenzahlen: i B i Ist der Würfel fair (H 0 : p 1 = = p 6 = 1/6)?

291 103/143 Chi-Quadrat-Tests χ 2 -Test für eine feste Verteilung Beispiel: Unter Würfen eines Würfels beobachten wir folgende Häufigkeiten der Augenzahlen: i B i Ist der Würfel fair (H 0 : p 1 = = p 6 = 1/6)? Es ist E 1 = = E 6 = /6 = 2000, X 2 = ( )2 ( )2 ( ) ( )2 ( )2 ( ) = 4,115.

292 103/143 Chi-Quadrat-Tests χ 2 -Test für eine feste Verteilung Beispiel: Unter Würfen eines Würfels beobachten wir folgende Häufigkeiten der Augenzahlen: i B i Ist der Würfel fair (H 0 : p 1 = = p 6 = 1/6)? Es ist E 1 = = E 6 = /6 = 2000, X 2 = ( )2 ( )2 ( ) ( )2 ( )2 ( ) = 4,115. Das 95%-Quantil der χ 2 -Verteilung mit 5 Freiheitsgraden ist 11,07 > 4,115, wir lehnen H 0 nicht ab (zum Signifikanzniveau 5%). 95%-Quantil der χ 2 -Verteilung in Abh.keit d. Anz. Freiheitsgrade F.g Quantil

293 Chi-Quadrat-Tests χ 2 -Test für eine feste Verteilung Beispiel: Unter Würfen eines Würfels beobachten wir folgende Häufigkeiten der Augenzahlen: i B i Ist der Würfel fair (H 0 : p 1 = = p 6 = 1/6)? Es ist E 1 = = E 6 = /6 = 2000, X 2 = ( )2 ( )2 ( ) ( )2 ( )2 ( ) = 4,115. Das 95%-Quantil der χ 2 -Verteilung mit 5 Freiheitsgraden ist 11,07 > 4,115, wir lehnen H 0 nicht ab (zum Signifikanzniveau 5%). 95%-Quantil der χ 2 -Verteilung in Abh.keit d. Anz. Freiheitsgrade F.g Quantil Bemerkung: χ 2 5 ([4,115, )) = 0,533, d.h. wir finden einen p-wert von 53%, der Test gibt keinen Anlass zu Zweifel an H /143

294 104/143 Chi-Quadrat-Tests χ 2 -Test auf Unabhängigkeit (oder Homogenität) Beispiel: 48 Teilnehmer eines Management-Kurses entscheiden über Beförderung: Weiblich Männlich Summe Befördern Ablegen Summe

295 104/143 Chi-Quadrat-Tests χ 2 -Test auf Unabhängigkeit (oder Homogenität) Beispiel: 48 Teilnehmer eines Management-Kurses entscheiden über Beförderung: Weiblich Männlich Summe Befördern Ablegen Summe Kann das Zufall sein? Testen wir H 0 : Geschlecht und Beförderungsentscheidung sind unabhängig.

296 104/143 Chi-Quadrat-Tests χ 2 -Test auf Unabhängigkeit (oder Homogenität) Beispiel: 48 Teilnehmer eines Management-Kurses entscheiden über Beförderung: Weiblich Männlich Summe Befördern Ablegen Summe Kann das Zufall sein? Testen wir H 0 : Geschlecht und Beförderungsentscheidung sind unabhängig. Anteil Weiblich=24/48=0.5, Anteil befördert=35/48=0.73, also erwartete Zahlen unter H 0 :

297 104/143 Chi-Quadrat-Tests χ 2 -Test auf Unabhängigkeit (oder Homogenität) Beispiel: 48 Teilnehmer eines Management-Kurses entscheiden über Beförderung: Weiblich Männlich Summe Befördern Ablegen Summe Kann das Zufall sein? Testen wir H 0 : Geschlecht und Beförderungsentscheidung sind unabhängig. Anteil Weiblich=24/48=0.5, Anteil befördert=35/48=0.73, also erwartete Zahlen unter H 0 : Weiblich Männlich Summe Befördern 17.5 (= ) 17.5 (= ) 35 Ablegen 6.5 (= ) 6.5 (= ) 13 Summe

298 105/143 Chi-Quadrat-Tests χ 2 -Test auf Unabhängigkeit (oder Homogenität) H 0 : Geschlecht und Beförderungsentscheidung sind unabhängig Beobachtete Anzahlen: Unter H 0 erwartete Anzahlen: Weiblich Männlich Summe Weiblich Männlich Summe Befördern Befördern Ablegen Ablegen Summe Summe

299 105/143 Chi-Quadrat-Tests χ 2 -Test auf Unabhängigkeit (oder Homogenität) H 0 : Geschlecht und Beförderungsentscheidung sind unabhängig Beobachtete Anzahlen: Unter H 0 erwartete Anzahlen: Weiblich Männlich Summe Weiblich Männlich Summe Befördern Befördern Ablegen Ablegen Summe Summe Die X 2 -Statistik ist X 2 = ( ) ( ) (10 6.5) (3 6.5)2 6.5 = 5.17.

300 105/143 Chi-Quadrat-Tests χ 2 -Test auf Unabhängigkeit (oder Homogenität) H 0 : Geschlecht und Beförderungsentscheidung sind unabhängig Beobachtete Anzahlen: Unter H 0 erwartete Anzahlen: Weiblich Männlich Summe Weiblich Männlich Summe Befördern Befördern Ablegen Ablegen Summe Summe Die X 2 -Statistik ist X 2 = ( ) ( ) (10 6.5) (3 6.5)2 6.5 = Unter H 0 ist X 2 (approximativ) χ 2 -verteilt mit einem Freiheitsgrad (1 = = (2 1) (2 1): 4 Zellen, ein Freiheitsgrad geht für die feste Gesamtsumme, einer für das (prinzipiell) unbekannte Geschlechterverhältnis und einer für die (prinzipiell) unbekannte Beförderungswahrscheinlichkeit verloren. 95%-Quantil der χ 2 -Verteilung in Abh.keit d. Anz. Freiheitsgrade F.g Quantil Wir können H 0 zum Signifikanzniveau 5% ablehnen.

301 Chi-Quadrat-Tests χ 2 -Test auf Unabhängigkeit (oder Homogenität) H 0 : Geschlecht und Beförderungsentscheidung sind unabhängig Beobachtete Anzahlen: Unter H 0 erwartete Anzahlen: Weiblich Männlich Summe Weiblich Männlich Summe Befördern Befördern Ablegen Ablegen Summe Summe Die X 2 -Statistik ist X 2 = ( ) ( ) (10 6.5) (3 6.5)2 6.5 = Unter H 0 ist X 2 (approximativ) χ 2 -verteilt mit einem Freiheitsgrad (1 = = (2 1) (2 1): 4 Zellen, ein Freiheitsgrad geht für die feste Gesamtsumme, einer für das (prinzipiell) unbekannte Geschlechterverhältnis und einer für die (prinzipiell) unbekannte Beförderungswahrscheinlichkeit verloren. 95%-Quantil der χ 2 -Verteilung in Abh.keit d. Anz. Freiheitsgrade F.g Quantil Wir können H 0 zum Signifikanzniveau 5% ablehnen. (Es ist χ 2 1 ([5.17, )) = 0.023, d.h. wir finden einen p-wert von ca. 2%.) 105/143

302 Chi-Quadrat-Tests χ 2 -Test auf Unabhängigkeit (oder Homogenität) 106/143 Chi-Quadrat-Test auf Unabhängigkeit, allgemeine Situation: 2 Merkmale mit r bzw. s Ausprägungen (r s-kontingenztafel), n Beobachtungen Bestimme erwartete Anzahlen unter H 0 als Produkt der (normierten) Zeilen- und Spaltensummen X 2 ist unter H 0 (approximativ) χ 2 -verteilt mit rs 1 (r 1) (s 1) = (r 1)(s 1) Freiheitsgraden.

303 107/143 Inhalt Konfidenzintervalle 1 Differential- und Integralrechnung 2 Grundlagen aus der Wahrscheinlichkeitstheorie 3 Deskriptive Statistik 4 Standardfehler und t-tests 5 Chi-Quadrat-Tests 6 Konfidenzintervalle 7 Lineare Regression t-test fuer lineare Zusammenhänge 8 Varianzanalyse

304 108/143 Konfidenzintervalle Student-Konfidenzintervall für den Mittelwert Student-Konfidenzintervall für den Mittelwert Sei α (0, 1) (oft α = 0.05), t n 1,1 α/2 das (1 α/2)-quantil der Student-Verteilung mit n 1 Freiheitsgraden (d.h. für Student-(n 1)-verteiltes T n 1 gilt P(T n 1 t n 1,1 α/2 ) = 1 α/2).

305 108/143 Konfidenzintervalle Student-Konfidenzintervall für den Mittelwert Student-Konfidenzintervall für den Mittelwert Sei α (0, 1) (oft α = 0.05), t n 1,1 α/2 das (1 α/2)-quantil der Student-Verteilung mit n 1 Freiheitsgraden (d.h. für Student-(n 1)-verteiltes T n 1 gilt P(T n 1 t n 1,1 α/2 ) = 1 α/2). Dann ist die Wahrscheinlichkeit, dass der wahre Mittelwert µ von dem Intervall I := [ s s ] x t n 1,1 α/2 n, x + t n 1,1 α/2 n überdeckt wird, (approximativ ) 1 α. I heißt ein Konfidenzintervall für µ zum Niveau 1 α oder kurz ein (1 α)-konfidenzintervall.

306 108/143 Konfidenzintervalle Student-Konfidenzintervall für den Mittelwert Student-Konfidenzintervall für den Mittelwert Sei α (0, 1) (oft α = 0.05), t n 1,1 α/2 das (1 α/2)-quantil der Student-Verteilung mit n 1 Freiheitsgraden (d.h. für Student-(n 1)-verteiltes T n 1 gilt P(T n 1 t n 1,1 α/2 ) = 1 α/2). Dann ist die Wahrscheinlichkeit, dass der wahre Mittelwert µ von dem Intervall I := [ s s ] x t n 1,1 α/2 n, x + t n 1,1 α/2 n überdeckt wird, (approximativ ) 1 α. I heißt ein Konfidenzintervall für µ zum Niveau 1 α oder kurz ein (1 α)-konfidenzintervall. Die Aussage ist wörtlich korrekt, wenn die Daten als normalverteilt angenommen werden dürfen, die Näherung ist sehr gut und für die Praxis ausreichend, wenn die Daten ungefähr symmetrisch und glockenförmig verteilt sind oder n genügend groß.

307 Konfidenzintervalle Student-Konfidenzintervall für den Mittelwert 109/143 Dualität von Konfidenzintervallen und zweiseitigen Tests Beispiel: Stichprobe der Größe n = 29, in der wir Stichprobenmittelwert x = 3.23 und Stichprobenstreuung s = 0.9 beobachtet haben. Konfidenzintervall für den wahren Mittelwert µ zum Irrtumsniveau 5% (t 28,0.975 = 2.048) [ s s ] [ ] x tn 1,0.975 n, x + t n 1,0.975 n = 2.88, 3.58

308 Konfidenzintervalle Student-Konfidenzintervall für den Mittelwert 109/143 Dualität von Konfidenzintervallen und zweiseitigen Tests Beispiel: Stichprobe der Größe n = 29, in der wir Stichprobenmittelwert x = 3.23 und Stichprobenstreuung s = 0.9 beobachtet haben. Konfidenzintervall für den wahren Mittelwert µ zum Irrtumsniveau 5% (t 28,0.975 = 2.048) [ s s ] [ ] x tn 1,0.975 n, x + t n 1,0.975 n = 2.88, 3.58 Nehmen wir an, wir wollten (anhand derselben Beobachtungen) die Nullhypothese µ = 3.2 zum Signifikanzniveau 5% testen:

309 Konfidenzintervalle Student-Konfidenzintervall für den Mittelwert 109/143 Dualität von Konfidenzintervallen und zweiseitigen Tests Beispiel: Stichprobe der Größe n = 29, in der wir Stichprobenmittelwert x = 3.23 und Stichprobenstreuung s = 0.9 beobachtet haben. Konfidenzintervall für den wahren Mittelwert µ zum Irrtumsniveau 5% (t 28,0.975 = 2.048) [ s s ] [ ] x tn 1,0.975 n, x + t n 1,0.975 n = 2.88, 3.58 Nehmen wir an, wir wollten (anhand derselben Beobachtungen) die Nullhypothese µ = 3.2 zum Signifikanzniveau 5% testen: Verwende den t-test: t = x µ s/ n = 0.18

310 Konfidenzintervalle Student-Konfidenzintervall für den Mittelwert Dualität von Konfidenzintervallen und zweiseitigen Tests Beispiel: Stichprobe der Größe n = 29, in der wir Stichprobenmittelwert x = 3.23 und Stichprobenstreuung s = 0.9 beobachtet haben. Konfidenzintervall für den wahren Mittelwert µ zum Irrtumsniveau 5% (t 28,0.975 = 2.048) [ s s ] [ ] x tn 1,0.975 n, x + t n 1,0.975 n = 2.88, 3.58 Nehmen wir an, wir wollten (anhand derselben Beobachtungen) die Nullhypothese µ = 3.2 zum Signifikanzniveau 5% testen: Verwende den t-test: t = x µ s/ n = 0.18, t = 0.18 t 28,0.975 = 2.048, d.h. wir würden die Nullhypothese nicht verwerfen (der p-wert ist 0.86 (= P µ=3.2 ( t 0.18))). 109/143

311 110/143 Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) Anteilsschätzung: Szenario (Beispiel) Wir beobachten X Männchen in einer Stichprobe der Größe n und möchten den (unbekannten) Männchenanteil p in der Gesamtpopulation schätzen.

312 110/143 Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) Anteilsschätzung: Szenario (Beispiel) Wir beobachten X Männchen in einer Stichprobe der Größe n und möchten den (unbekannten) Männchenanteil p in der Gesamtpopulation schätzen. Der offensichtliche Schätzer ist die relative Häufigkeit p := X n in der Stichprobe.

313 Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) Anteilsschätzung: Szenario (Beispiel) Wir beobachten X Männchen in einer Stichprobe der Größe n und möchten den (unbekannten) Männchenanteil p in der Gesamtpopulation schätzen. Der offensichtliche Schätzer ist die relative Häufigkeit p := X n in der Stichprobe. Gewünscht: Ein in Abhängigkeit von den Beobachtungen konstruiertes (und möglichst kurzes) (1 α)-konfidenzintervall [ p u, p o ], d.h. es soll gelten ) P p ([ p u, p o ] überdeckt p 1 α für jede Wahl von p. 110/143

314 Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) 111/143 Für gegebenes p ist X Binomial(n,p)-verteilt, E[X] = np, Var[X] = np(1 p).

315 Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) 111/143 Für gegebenes p ist X Binomial(n,p)-verteilt, E[X] = np, Var[X] = np(1 p). Für (genügend) großes n ist X ungefähr normalverteilt mit Mittelwert np und Varianz np(1 p) (zentraler Grenzwertsatz): Gewichte/Dichte Binomialgewichte (n=40, p=0.6) und Normalapproximation (rot) x

316 Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) Für gegebenes p ist X Binomial(n,p)-verteilt, E[X] = np, Var[X] = np(1 p). Für (genügend) großes n ist X ungefähr normalverteilt mit Mittelwert np und Varianz np(1 p) (zentraler Grenzwertsatz): Gewichte/Dichte Binomialgewichte (n=40, p=0.6) und Normalapproximation (rot) Also ist p = X n x (ungefähr) normalverteilt mit Mittelwert p und Varianz 1 n p(1 p). 111/143

317 Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) 112/143 p = X ist (ungefähr) normalverteilt n mit Mittelwert p und Varianz 1 p(1 p): n ) p p P p (a b P(a Z b) 1 p(1 p) n (mit standard-normalverteiltem Z ) Dichte der Standard-Normalverteilung: a b

318 Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) 113/143 Man schätzt die (unbekannte) Streuung von p 1 durch p(1 p): n

319 Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) 113/143 Man schätzt die (unbekannte) Streuung von p 1 durch p(1 p): n Wähle z 1 α/2 so dass P( z 1 α/2 Z z 1 α/2 ) = 1 α, dann ist [ p(1 p) p(1 p) ] p z 1 α/2, p + z 1 α/2 n n ein (approximatives) Konfidenzintervall für p zum Niveau 1 α.

320 Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) 113/143 Man schätzt die (unbekannte) Streuung von p 1 durch p(1 p): n Wähle z 1 α/2 so dass P( z 1 α/2 Z z 1 α/2 ) = 1 α, dann ist [ p(1 p) p(1 p) ] p z 1 α/2, p + z 1 α/2 n n ein (approximatives) Konfidenzintervall für p zum Niveau 1 α. z 1 α/2 ist das (1 α/2)-quantil der Standardnormalverteilung, für die Praxis wichtig sind die Werte z 0,975 = 1,96 (für α = 0,05) und z 0,995 = 2,58 (für α = 0,01).

321 Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) 114/143 Im Porzellankrebs-Beispiel war n = 53, p = = 0,57

322 Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) 114/143 Im Porzellankrebs-Beispiel war n = 53, p = 30 = 0,57, 53 also ist [ 30 1, , , ] = [0,43, 0,70] ein 95%-Konfidenzintervall für den Männchenanteil in dieser Population.

323 Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) 115/143 Anmerkungen ] p(1 p) [ p ± z 1 α/2 n ist ein (approximatives) Konfidenzintervall für p zum Niveau 1 α.

324 115/143 Anmerkungen Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) ] p(1 p) [ p ± z 1 α/2 n ist ein (approximatives) Konfidenzintervall für p zum Niveau 1 α. Für die Gültigkeit der Approximation muss n genügend groß und p nicht zu nahe an 0 oder 1 sein. (Eine häufig zitierte Faustregel ist np 9, n(1 p) 9.)

325 115/143 Anmerkungen Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) ] p(1 p) [ p ± z 1 α/2 n ist ein (approximatives) Konfidenzintervall für p zum Niveau 1 α. Für die Gültigkeit der Approximation muss n genügend groß und p nicht zu nahe an 0 oder 1 sein. (Eine häufig zitierte Faustregel ist np 9, n(1 p) 9.) Die Philosophie der Konfidenzintervalle entstammt der frequentistischen Interpretation der Statistik: Für jede Wahl des Parameters p würden wir bei häufiger Wiederholung des Experiments finden, dass in (ca.) (1 α) 100% der Fälle das (zufällige) Konfidenzintervall den wahren (festen) Parameter p überdeckt.

326 115/143 Anmerkungen Konfidenzintervalle Konfidenzintervalle für Wahrscheinlichkeiten (Anteilsschätzung) ] p(1 p) [ p ± z 1 α/2 n ist ein (approximatives) Konfidenzintervall für p zum Niveau 1 α. Für die Gültigkeit der Approximation muss n genügend groß und p nicht zu nahe an 0 oder 1 sein. (Eine häufig zitierte Faustregel ist np 9, n(1 p) 9.) Die Philosophie der Konfidenzintervalle entstammt der frequentistischen Interpretation der Statistik: Für jede Wahl des Parameters p würden wir bei häufiger Wiederholung des Experiments finden, dass in (ca.) (1 α) 100% der Fälle das (zufällige) Konfidenzintervall den wahren (festen) Parameter p überdeckt. Formulierungen, die sich auf eine Wahrscheinlichkeitsverteilung des Parameters p beziehen (beispielsweise: Wie wahrscheinlich ist es, dass p 0,3? ), sind in der frequentistischen Interpretation sinnlos. (Bericht: Dies ist in anders in der Bayesschen Interpretation.)

327 116/143 Inhalt Lineare Regression 1 Differential- und Integralrechnung 2 Grundlagen aus der Wahrscheinlichkeitstheorie 3 Deskriptive Statistik 4 Standardfehler und t-tests 5 Chi-Quadrat-Tests 6 Konfidenzintervalle 7 Lineare Regression t-test fuer lineare Zusammenhänge 8 Varianzanalyse

328 117/143 Lineare Regression Lineare Zusammenhänge Erst mal ohne Zufallsschwankungen Gefahrene Strecke bei 100km/h Fahrstrecke in km Gemessene Fahrtstrecke bei exakt 100 km/h Fahrzeit in Stunden

329 117/143 Lineare Regression Lineare Zusammenhänge Erst mal ohne Zufallsschwankungen Gefahrene Strecke bei 100km/h Fahrstrecke in km Gemessene Fahrtstrecke bei exakt 100 km/h Zusammenhang: Strecke s in km, Zeit t in Stunden s = 100 km h t Fahrzeit in Stunden

330 Lineare Regression Lineare Zusammenhänge 118/143 Problem und Lösung: Problem: Strecke ist schwer zu messen.

331 Lineare Regression Lineare Zusammenhänge 118/143 Problem und Lösung: Problem: Strecke ist schwer zu messen. Beobachtung: Zeit ist leicht zu messen (Blick auf Uhr)

332 Lineare Regression Lineare Zusammenhänge 118/143 Problem und Lösung: Problem: Strecke ist schwer zu messen. Beobachtung: Zeit ist leicht zu messen (Blick auf Uhr) Lösung: Linearer Zusammenhang zwischen Strecke und Zeit ermöglicht leichte Berechnung der Strecke ( Problem gelöst)

333 Lineare Regression Lineare Zusammenha nge Englisch: Griffon Vulture Gypus fulvus Ga nsegeier photo (c) by Jo rg Hempel 119/143

Biostatistik, WS 2010/2011 Grundlagen aus der Wahrscheinlichkeitstheorie

Biostatistik, WS 2010/2011 Grundlagen aus der Wahrscheinlichkeitstheorie 1/73 Biostatistik, WS 2010/2011 Grundlagen aus der Wahrscheinlichkeitstheorie Matthias Birkner http://www.mathematik.uni-mainz.de/~birkner/biostatistik1011/ 3.12.2010 2/73 1 Deterministische und zufällige

Mehr

Biostatistik, WS 2017/18 Der Standardfehler

Biostatistik, WS 2017/18 Der Standardfehler 1/70 Biostatistik, WS 2017/18 Matthias Birkner http://www.staff.uni-mainz.de/birkner/biostatistik1718/ 24.11.2017 3/70 Ein Versuch Hirse Bild: Panicum miliaceum 4/70 Ein Versuch Ein Versuch Versuchsaufbau:

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler

Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler Noémie Becker & Dirk Metzler 15. April 2016 Inhaltsverzeichnis 1 Der Standardfehler 1 1.1 Ein Versuch............................................

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler

Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler Martin Hutzenthaler & Dirk Metzler http://www.zi.biologie.uni-muenchen.de/evol/statgen.html 27. April 2010 1 Eine kurze Wiederholung

Mehr

Biostatistik, SS 2016 Grundlagen aus der Wahrscheinlichkeitstheorie

Biostatistik, SS 2016 Grundlagen aus der Wahrscheinlichkeitstheorie 1/84 Biostatistik, SS 2016 Grundlagen aus der Wahrscheinlichkeitstheorie Matthias Birkner und Frederik Klement http://www.staff.uni-mainz.de/birkner/biostatistik16/ 27.5.2016 2/84 1 Deterministische und

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler

Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler Martin Hutzenthaler & Dirk Metzler 27. April 2010 Inhaltsverzeichnis 1 Eine kurze Wiederholung zur deskriptiven Statistik 2

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler http://www.zi.biologie.uni-muenchen.de/evol/statgen.html 27./29.

Mehr

Biostatistik, WS 2017/18 Wiederholung

Biostatistik, WS 2017/18 Wiederholung 1/143 Biostatistik, WS 2017/18 Wiederholung Matthias Birkner http://www.staff.uni-mainz.de/birkner/biostatistik1718/ 9.2.2018 Differential- und Integralrechnung Differenzierbarkeit: Definition 40 50 60

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 27./29. April 2010 Inhaltsverzeichnis 1 Deterministische und zufällige

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler http://evol.bio.lmu.de/_statgen 2. Mai 2012 1 Deterministische

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 11. Mai 2011 Inhaltsverzeichnis 1 Deterministische und zufällige

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Noémie Becker & Dirk Metzler 31. Mai 2016 Inhaltsverzeichnis 1 Binomialverteilung 1 2 Normalverteilung 2 3 T-Verteilung

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 4. Der t-test

Wahrscheinlichkeitsrechnung und Statistik für Biologen 4. Der t-test Wahrscheinlichkeitsrechnung und Statistik für Biologen 4. Der t-test Matthias Birkner & Dirk Metzler http://www.zi.biologie.uni-muenchen.de/evol/statgen.html 12. Mai 2009 1 t-test für gepaarte Stichproben

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Einführung: Deskriptive Statistik

Wahrscheinlichkeitsrechnung und Statistik für Biologen Einführung: Deskriptive Statistik 1 / 120 Wahrscheinlichkeitsrechnung und Statistik für Biologen Einführung: Deskriptive Statistik Martin Hutzenthaler & Dirk Metzler http://evol.bio.lmu.de/_statgen.html 18. April 2012 1 Einführung Konzept

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)

Mehr

IDEE DER STATISTIK: Variabilität (Erscheinung der Natur) durch. Zufall (mathematische Abstraktion) modellieren.

IDEE DER STATISTIK: Variabilität (Erscheinung der Natur) durch. Zufall (mathematische Abstraktion) modellieren. IDEE DER STATISTIK: Variabilität (Erscheinung der Natur) durch Zufall (mathematische Abstraktion) modellieren. Statistik = Datenanalyse mit Hilfe stochastischer Modelle Theoretische Statistik ist ein Teil

Mehr

Biostatistik, WS 2013/2014 Konfidenzintervalle

Biostatistik, WS 2013/2014 Konfidenzintervalle 1/41 Biostatistik, WS 2013/2014 Konfidenzintervalle Matthias Birkner http://www.mathematik.uni-mainz.de/~birkner/biostatistik1314/ 17.1.2014 Beispiel: Carapaxlänge des Springkrebses 4/41 Beispiel: Springkrebs

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 4. Der t-test

Wahrscheinlichkeitsrechnung und Statistik für Biologen 4. Der t-test Wahrscheinlichkeitsrechnung und Statistik für Biologen 4. Der t-test Matthias Birkner & Dirk Metzler 12. Mai 2009 Inhaltsverzeichnis 1 t-test für gepaarte Stichproben 1 1.1 Beispiel: Orientierung bei Trauerschnäppern..........................

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Noémie Becker & Dirk Metzler 15. April 2016 Inhaltsverzeichnis 1 Deterministische und zufällige Vorgänge

Mehr

Biostatistik, WS 2010/2011 Differential- und Integralrechnung

Biostatistik, WS 2010/2011 Differential- und Integralrechnung 1/35 Biostatistik, WS 2010/2011 Differential- und Integralrechnung Matthias Birkner http://www.mathematik.uni-mainz.de/~birkner/biostatistik1011/ 12.11.2010 2/35 Inhalt Ableitung 1 Ableitung Änderung und

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr

Biostatistik, WS 2015/2016 Der t-test

Biostatistik, WS 2015/2016 Der t-test 1/62 Biostatistik, WS 2015/2016 Der t-test (Zwei gepaarte Stichproben bzw. eine Stichprobe) Matthias Birkner http://www.staff.uni-mainz.de/birkner/biostatistik1516/ 4.12.2015 Beispiel: Orientierung bei

Mehr

Biostatistik, WS 2013/2014 Differential- und Integralrechnung

Biostatistik, WS 2013/2014 Differential- und Integralrechnung 1/30 Biostatistik, WS 2013/2014 Differential- und Integralrechnung Matthias Birkner http://www.mathematik.uni-mainz.de/~birkner/biostatistik1314/ 15.11.2013 Ableitung 2/30 Isaac Newton (1643-1727) Gottfried

Mehr

Biostatistik, SS 2016 Der t-test

Biostatistik, SS 2016 Der t-test 1/62 Biostatistik, SS 2016 Der t-test (Zwei gepaarte Stichproben bzw. eine Stichprobe) Frederik Klement und Matthias Birkner http://www.staff.uni-mainz.de/birkner/biostatistik16/ 3.6.2016 Beispiel: Orientierung

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Biostatistik, SS 2016 Differential- und Integralrechnung

Biostatistik, SS 2016 Differential- und Integralrechnung 1/43 Biostatistik, SS 2016 Differential- und Integralrechnung Matthias Birkner http://www.staff.uni-mainz.de/birkner/biostatistik16/ 6.5.2016 Ableitung 3/43 Isaac Newton (1643-1727) Gottfried Wilhelm Leibniz

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Einführung: Deskriptive Statistik

Wahrscheinlichkeitsrechnung und Statistik für Biologen Einführung: Deskriptive Statistik Wahrscheinlichkeitsrechnung und Statistik für Biologen Einführung: Deskriptive Statistik Martin Hutzenthaler & Dirk Metzler http://evol.bio.lmu.de/statgen.html 20. und 23. April 2010 1 Einführung Konzept

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

Statistisches Testen

Statistisches Testen Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

Prüfung. Wahrscheinlichkeit und Statistik. ETH Zürich HS 2015 Prof. Dr. P. Embrechts Januar Nachname. Vorname. Legi Nummer

Prüfung. Wahrscheinlichkeit und Statistik. ETH Zürich HS 2015 Prof. Dr. P. Embrechts Januar Nachname. Vorname. Legi Nummer ETH Zürich HS 25 Prof. Dr. P. Embrechts Januar 26 Prüfung Wahrscheinlichkeit und Statistik BSc INFK Nachname Vorname Legi Nummer Das Folgende bitte nicht ausfüllen! Aufgabe Max. Punkte Summe Kontrolle

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Biostatistik, WS 2017/18 Der zwei-stichproben-t-test

Biostatistik, WS 2017/18 Der zwei-stichproben-t-test 1/28 Biostatistik, WS 2017/18 Der zwei-stichproben-t-test (t-test für ungepaarte Stichproben) Matthias Birkner http://www.staff.uni-mainz.de/birkner/biostatistik1718/ 15.12.2017 und 22.12.2017 2/28 Inhalt

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes

Mehr

Übung zur Vorlesung Statistik I WS Übungsblatt 12

Übung zur Vorlesung Statistik I WS Übungsblatt 12 Übung zur Vorlesung Statistik I WS 2013-2014 Übungsblatt 12 20. Januar 2014 Die folgenden ufgaben sind aus ehemaligen Klausuren! ufgabe 38.1 (1 Punkt: In einer Studie werden 10 Patienten therapiert. Die

Mehr

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente... Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,

Mehr

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003 Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003. Eine seltene Krankheit trete mit Wahrscheinlichkeit : 0000 auf. Die bedingte Wahrscheinlichkeit, dass ein bei einem Erkrankten durchgeführter

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation

Mehr

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9. 7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Biostatistik, WS 2017/18 Der t-test

Biostatistik, WS 2017/18 Der t-test 1/65 Biostatistik, WS 2017/18 Der t-test (Zwei gepaarte Stichproben bzw. eine Stichprobe) Matthias Birkner http://www.staff.uni-mainz.de/birkner/biostatistik1718/ 8.12.2017 und 15.12.2017 Beispiel: Orientierung

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Wahrscheinlichkeit und Statistik BSc D-INFK

Wahrscheinlichkeit und Statistik BSc D-INFK Prof. Dr. P. Bühlmann ETH Zürich Sommer 2010 Wahrscheinlichkeit und Statistik BSc D-INFK 1. (10 Punkte) Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

BSc Bioinformatik Wintersemester 2013/2014 Nachklausur zur Statistik I Freie Universität Berlin

BSc Bioinformatik Wintersemester 2013/2014 Nachklausur zur Statistik I Freie Universität Berlin Sc ioinformatik Wintersemester 013/014 Nachklausur zur Statistik I Freie Universität erlin 4. pril 014 Matrikelnummer Nachname Vorname Unterschrift ufgabe 1 (4 Punkte): Zu einem Wahrscheinlichkeitsraum

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 4. Der t-test

Wahrscheinlichkeitsrechnung und Statistik für Biologen 4. Der t-test Wahrscheinlichkeitsrechnung und Statistik für Biologen 4. Der t-test Martin Hutzenthaler & Dirk Metzler 6./18. Mai 2010 Inhaltsverzeichnis 1 t-test für gepaarte Stichproben 1 1.1 Beispiel: Orientierung

Mehr

Auswertung und Lösung

Auswertung und Lösung Dieses Quiz soll Ihnen helfen, Kapitel 4.6 und 4.7 besser zu verstehen. Auswertung und Lösung Abgaben: 59 / 265 Maximal erreichte Punktzahl: 8 Minimal erreichte Punktzahl: 0 Durchschnitt: 4.78 1 Frage

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Institut für Biometrie und klinische Forschung. WiSe 2012/2013 Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive

Mehr

Zusammenfassung PVK Statistik

Zusammenfassung PVK Statistik Zusammenfassung PVK Statistik (Diese Zusammenfassung wurde von Carlos Mora erstellt. Die Richtigkeit der Formeln ist ohne Gewähr.) Verteilungen von diskreten Zufallsvariablen Beschreibung Binomialverteilung

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 4. Der t-test

Wahrscheinlichkeitsrechnung und Statistik für Biologen 4. Der t-test Wahrscheinlichkeitsrechnung und Statistik für Biologen 4. Der t-test Martin Hutzenthaler & Dirk Metzler Inhaltsverzeichnis 1 t-test für gepaarte Stichproben 1 1.1 Beispiel: Orientierung bei Trauerschnäppern..........................

Mehr

von x-würfeln bei wachsendem n? Zur Beantwortung führen wir ein Simulationsexperiment durch.

von x-würfeln bei wachsendem n? Zur Beantwortung führen wir ein Simulationsexperiment durch. Zentraler Grenzwertsatz Die Normalverteilung verdankt ihre universelle theoretische und praktische Bedeutung dem zentralen Grenzwertsatz. Unabhängig von der konkreten k Ausgangsverteilung konvergiert die

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Sprechstunde zur Klausurvorbereitung

Sprechstunde zur Klausurvorbereitung htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)

Mehr

Aufgaben. d) Seien X und Y Poissonverteilt mit Parameter µ, X, Y P(µ). 2. Dann ist die Summe auch Poissonverteilt mit (X + Y ) P(2µ).

Aufgaben. d) Seien X und Y Poissonverteilt mit Parameter µ, X, Y P(µ). 2. Dann ist die Summe auch Poissonverteilt mit (X + Y ) P(2µ). Aufgaben 1. Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete Frage 1 Punkt und pro falsche Antwort 1/2 Punkt Abzug. Minimal erhält man für die gesamte

Mehr

Mathematik für Naturwissenschaften, Teil 2

Mathematik für Naturwissenschaften, Teil 2 Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die

Mehr

Serie 9, Musterlösung

Serie 9, Musterlösung WST www.adams-science.org Serie 9, Musterlösung Klasse: 4U, 4Mb, 4Eb Datum: FS 18 1. Mädchen vs. Knaben 442187 Unter 3000 in einer Klinik neugeborenen Kindern befanden sich 1578 Knaben. Testen Sie mit

Mehr

Vorlesung 5a. Die Varianz

Vorlesung 5a. Die Varianz Vorlesung 5a Die Varianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert

Mehr

Biostatistik, WS 2017/18 Differential- und Integralrechnung

Biostatistik, WS 2017/18 Differential- und Integralrechnung 1/48 Biostatistik, WS 2017/18 Differential- und Integralrechnung Matthias Birkner http://www.staff.uni-mainz.de/birkner/biostatistik1718/ 3. und 10.11.2017 Ableitung 3/48 Isaac Newton (1643-1727) Gottfried

Mehr

Bereiche der Statistik

Bereiche der Statistik Bereiche der Statistik Deskriptive / Exploratorische Statistik Schließende Statistik Schließende Statistik Inferenz-Statistik (analytische, schließende oder konfirmatorische Statistik) baut auf der beschreibenden

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Hypothesentests. 5 Regression

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Hypothesentests. 5 Regression 0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests 5 Regression Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung

Mehr

Vorlesung 5a. Varianz und Kovarianz

Vorlesung 5a. Varianz und Kovarianz Vorlesung 5a Varianz und Kovarianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist

Mehr

Stichproben Parameterschätzung Konfidenzintervalle:

Stichproben Parameterschätzung Konfidenzintervalle: Stichproben Parameterschätzung Konfidenzintervalle: Beispiel Wahlprognose: Die Grundgesamtheit hat einen Prozentsatz p der Partei A wählt. Wenn dieser Prozentsatz bekannt ist, dann kann man z.b. ausrechnen,

Mehr

Empirische Wirtschaftsforschung

Empirische Wirtschaftsforschung Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 1 4. Basiskonzepte der induktiven

Mehr

WS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X.

WS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X. Fragenkatalog zur Übung Methoden der empirischen Sozialforschung WS 2014/15 Hier finden Sie die denkbaren Fragen zum ersten Teil der Übung. Das bedeutet, dass Sie zu diesem Teil keine anderen Fragen im

Mehr

4.1. Nullhypothese, Gegenhypothese und Entscheidung

4.1. Nullhypothese, Gegenhypothese und Entscheidung rof. Dr. Roland Füss Statistik II SS 8 4. Testtheorie 4.. Nullhypothese, Gegenhypothese und Entscheidung ypothesen Annahmen über die Verteilung oder über einzelne arameter der Verteilung eines Merkmals

Mehr

Tests für Erwartungswert & Median

Tests für Erwartungswert & Median Mathematik II für Biologen 26. Juni 2015 Prolog Varianz des Mittelwerts Beispiel: Waage z-test t-test Vorzeichentest Wilcoxon-Rangsummentest Varianz des Mittelwerts Beispiel: Waage Zufallsvariable X 1,...,X

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

Biomathematik für Mediziner

Biomathematik für Mediziner Institut für Medizinische Biometrie, Informatik und Epidemiologie der Universität Bonn (Direktor: Prof. Dr. Max P. Baur) Biomathematik für Mediziner Klausur SS 2002 Aufgabe 1: Franz Beckenbauer will, dass

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Statistik für NichtStatistiker

Statistik für NichtStatistiker Statistik für NichtStatistiker Zufall und Wahrscheinlichkeit von Prof. Dr. Karl Bosch 5., verbesserte Auflage R. Oldenbourg Verlag München Wien Inhaltsverzeichnis 1. ZufalLsexperimente und zufällige Ereignisse

Mehr