22. Oktober Ruhr-Universität Bochum. Methodenlehre II, SS Prof. Dr. Holger Dette

Größe: px
Ab Seite anzeigen:

Download "22. Oktober Ruhr-Universität Bochum. Methodenlehre II, SS Prof. Dr. Holger Dette"

Transkript

1 Ruhr-Universität Bochum 22. Oktober / 374

2 Methodenlehre II NA 3/73 Telefon: Internet: Vorlesung: Montag, Uhr, HGA 10 Thema: Das allgemeine und seine Anwendungen in der Psychologie 2 / 374

3 Statistik-Team Übung: Dienstag, Uhr, HGA 30 Tobias Kley: Tutorium: SPSS Lars Kuchinke: GAFO 04/615 Mo Uhr GAFO 04/615 Mo Uhr Marco Grabemann: GA 1/128 Mo Uhr GAFO 04/271 Fr Uhr Cäcilia Werschmann: cilly GAFO 04/615 Fr Uhr Igor Ivanov: 3 / 374

4 Das allgemeine : Ein mathematisches Modell - viele statistische Verfahren Inhaltsverzeichnis am Beispiel des t-tests 2. Das lineare Regressionsmodell, multiple Korrelation 3. Das allgemeine 4 / 374

5 Literatur A. Aron, E.N. Aron, E.J. Coups, Statistics for Psychology, 5th Edition, Pearson Prentice Hall J. Bortz, Statistik, 6. Auflage, Springer M. Rudolf, J. Müller, Multivariate Verfahren, Hogrefe P. Zöfel, Statistik für Psychologen, Pearson Studium 5 / 374

6 schließenden Statistik 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.4 Einfaktorielle 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 6 / 374

7 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.1 Schätzer und Konfidenzintervalle 1.4 Einfaktorielle 7 / 374

8 1.1 Beispiel: Intelligenzquotient Fragestellung: Haben (15-jährige) Kinder aus Bochum einen höheren Intelligenzquotienten als 100? 10 Kinder (zufällig ausgewählt) machen einen IQ-Test Daten: y 1,..., y 10 Stichprobe i y i i y i Hypothese (IQ der Kinder ist niedriger als 100): 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle H 0 : µ 100 Alternative (IQ ist höher als 100): H 1 : µ > 100 Dabei ist µ der (unbekannte) Erwartungswert der Gesamtpopulation der (15-jährigen) Kinder aus Bochum 8 / 374

9 Prinzip der Auf Grund der Stichprobe y 1,..., y 10 sollen Aussagen über das Merkmal der Grundgesamtheit getroffen werden. Zum Beispiel Wie groß ist µ (Schätzung)? Kann man ein Intervall bestimmen, in dem µ liegt (Konfidenzintervall)? Gilt H 0 : µ 100 (IQ ist nicht höher) 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle oder gilt H 1 : µ > 100 (IQ ist höher)? (statistischer Test) 9 / 374

10 Grundlegende Schwierigkeit: µ ist der Erwartungswert der Population der 15-jährigen Kinder Auf Basis der Stichprobe soll auf die Grundgesamtheit geschlossen werden Fehler, Unsicherheiten sind möglich! Beispiel: zufällig wählen wir 5 hochbegabte Kinder (IQ 130) für die Stichprobe aus. Vermutlich wird dadurch µ überschätzt! Ziel der : Quantifizierung der Unsicherheit, z. B. mit welcher Wahrscheinlichkeit macht ein statistischer Test einen Fehler, falls (aufgrund von Daten) für H 1 (IQ ist höher als 100) entschieden wird, obwohl in Wirklichkeit H 0 gilt? 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Notwendig für diese Quantifizierung: Mathematische Modellannahmen 10 / 374

11 Zusätzliche Modellannahme: Normalverteilung Allgemein gängige Annahme: Intelligenz in einer bestimmten Altersgruppe der Bevölkerung ist normalverteilt ( 1 ϕ(x) = exp 1 2πσ 2 2 (x µ ) σ )2 µ : Erwartungswert σ 2 : Varianz Deutung: Ist Y der IQ eines zufällig aus der Population ausgewählten Individuums, so gilt 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle P(a Y b) = b a ϕ(x)dx Diese Modellannahme sollte man stets rechtfertigen (wie man das machen kann, sehen wir später) 11 / 374

12 Interpretation der Wahrscheinlichkeiten: 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle a b Die Wahrscheinlichkeit, dass eine Beobachtung zwischen den Werten a und b liegt, entspricht der Fläche unter der Kurve im Intervall [a, b]. In Formeln: P(a Y b) = b a ϕ(x)dx 12 / 374

13 Verschiedene Normalverteilungen N(µ, σ 2 ) Dichten der Normalverteilung mit verschiedenen Parametern N(0,0.707) N(0,1) N(1,1.25) N(2,2) 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle µ: Erwartungswert σ 2 : Varianz Beachte: unter jeder Kurve ist die Fläche genau 1 13 / 374

14 Motivation der Modellannahme der Normalverteilung 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 14 / 374

15 Zusätzliche Modellannahme: Normalverteilung Mathematisches Modell (hier n = 10): y 1,..., y n sind Realisierungen von Zufallsvariablen Y i = µ + ε i, i = 1,..., m yi: IQ-Messung für i-tes Kind (Realisation der Zufallsvariablen Y i) µ: (unbekannter) Erwartungswert der Population (hier der 15-jährigen Kinder aus Bochum) ε1,..., ε n: unabhängige Zufallsvariable, normalverteilt mit Erwartungswert 0 und Varianz σ 2. Interpretation: Messfehler, genetische Variabilität, Tagesform... Mathematische Statistik z. B. Maximum Likelihood (in diesem Beispiel auch der gesunde Menschenverstand) liefert Schätzer für µ: ˆµ = y = 1 n y i = n Wie genau ist diese Schätzung? Wie sehr streut diese Schätzung? i=1 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 15 / 374

16 Zusätzliche Modellannahme: Normalverteilung Maß für die Genauigkeit: Varianz (je kleiner die Varianz, desto genauer die Schätzung) Mathematische Statistik (Methodenlehre I): die Varianz des Schätzers ˆµ ist: Beachte: Var(ˆµ) = σ2 n Je größer der Stichprobenumfang n, desto kleiner die Varianz von ˆµ. D.h. desto genauer ist die Schätzung. Für die Beurteilung der Genauigkeit muss man die Varianz σ 2 der Population kennen. Mathematische Statistik: Schätzung für den Parameter σ Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle ˆσ 2 = 1 n 1 n (y i y ) 2 = i=1 ˆσ 2 µ = ˆσ2 n = / 374

17 Zusätzliche Modellannahme: Normalverteilung Oft wird der Schätzer zusammen mit dem Standardfehler angegeben ˆµ = ˆµ + ˆσ µ = ˆµ ˆσ µ = ˆσ µ = ˆσ ˆσ n = 2 n = ist der Standardfehler des Schätzers ˆµ (Schätzung für Streuung des arithmetischen Mittels) ˆσ = ist die aus den Daten geschätzte Standardabweichung (Schätzung für die Streuung einer einzelnen Beobachtung) Deutung: Vor der Datenerhebung ist ˆµ zufällig. Falls die Normalverteilungsannahme korrekt ist, ist auch ˆµ normalverteilt mit: 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle - Erwartungswert µ - Varianz σ2 n 17 / 374

18 Dichte Verschiedene Normalverteilungen Y1 ~ N(104.1, 28.32) (Y1 + Y2) 2 ~ N(104.1, 28.32/2) 10 ( Yi) 10 ~ N(104.1, 2.832) i=1 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle x 18 / 374

19 1.2 Schätzverfahren (Erwartungswert einer Population unter Normalverteilungsannahme) Daten y 1,..., y n (Stichprobe) mit Erwartungswert µ Rechtfertigung der Unabhängigkeits- und Normalverteilungsannahme ˆµ = 1 n n i=1 y i Schätzung für den Erwartungswert µ der Population ˆσ 2 = 1 n 1 n i=1 (y i y ) 2 Schätzung für die Varianz der Population (ˆσ Schätzung für die Standardabweichung) 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle ˆσ 2 µ = ˆσ2 n Schätzung für die Varianz von ˆµ Schätzung für den Standardfehler von ˆµ : ˆσ µ = ˆσ 2 n = ˆσ n 19 / 374

20 SPSS-Output: die Schätzer für die Daten aus Beispiel 1.1 (Intelligenzquotient) Deskriptive Statistik 1.1 Schätzer und Konfidenzintervalle N Mittelwert Standardabweichung Varianz 1.2 t-test für eine Stichprobe Intelligenzquotient Gültige Werte (Listenweise) Statistik Statistik Standardfehler Statistik Statistik 104,10 1,683 5,322 28, Zweistichprobenprobleme 1.4 Einfaktorielle ˆµ = 104.1(Mittelwert) ˆσ µ = 1.683(Standardfehler) ˆσ 2 = (empirische Varianz) ˆσ = 5.322(Standardabweichung) 20 / 374

21 Beachte: ˆµ = 1 n n i=1 y i ; ˆσ 2 = 1 n 1 n ˆσ (y i y ) 2 2 ; ˆσ µ = n i=1 hängen von den Daten y 1,..., y n ab (sind also vor Datenerhebung zufällig) (ˆµ a ˆσ µ, ˆµ + a ˆσ µ ) ist (vor der Datenerhebung) ein zufälliges Intervall, das mit einer bestimmten Wahrscheinlichkeit den Erwartungswert µ enthält 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle a 0 = Wahrscheinlichkeit 0 a = Wahrscheinlichkeit 1 Gesucht: zufälliges Intervall, das den unbekannten Erwartungswert mit einer vorgegebenen Wahrscheinlichkeit enthält: Konfidenzintervall 21 / 374

22 Das Konfidenzintervall Gebe eine Wahrscheinlichkeit 1 α vor (z. B. 1 α = 95%) Bestimme a so, dass das zufällige Intervall (ˆµ a ˆσ µ, ˆµ + a ˆσ µ ) den Parameter µ mit Wahrscheinlichkeit 1 α enthält. Mathematische Statistik liefert a = t n 1,1 α 2 (1 α 2 )-Quantil der t-verteilung mit n 1 Freiheitsgraden 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Diese Werte sind tabelliert oder durch Software verfügbar. Das Intervall I = ( ˆµ t n 1,1 α 2 ˆσ µ, ˆµ + t n 1,1 α 2 ˆσ µ ) heißt (1 α) Konfidenzintervall für µ. 22 / 374

23 Verschiedene t-verteilungen Dichten der t Verteilung mit verschiedenen Freiheitsgraden t 100 t 4 t Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle f n (t) = 1 πn Γ((n + 1)/2) Γ(n/2) ) (n+1)/2 (1 + t2 n 23 / 374

24 Das Quantil der t-verteilung mit n Freiheitsgraden Dichte der t4 -Verteilung 1.1 Schätzer und Konfidenzintervalle t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle t 4, 0.95 = P(T 4 t 4,0.95 ) = t4,0.95 f 4 (t)dt = / 374

25 Beispiel 1.3 (Fortsetzung von Beispiel 1.1) Berechnung eines 90% Konfidenzintervalls für µ n = 10, ˆµ = 104.1, ˆσ 2 = α = 10% (aus Tabelle bzw. Software) t9,0.95 = % Konfidenzintervall für µ = (101.02, ) Beachte: Ein (1 α)-konfidenzintervall ist ein zufälliges Intervall, das den (unbekannten) Erwartungswert mit Wahrscheinlichkeit 1 α enthält. Die Aussage das Intervall (101.02, ) enthält den unbekannten Erwartungswert der Population mit Wahrscheinlichkeit 90% hat keinen Sinn! 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 25 / 374

26 Erklärung des Begriffs zufälliges Intervall durch ein fiktives Experiment Annahme: das Experiment (Untersuchung des IQ von 10 Kindern) kann N mal (unabhängig) wiederholt werden (z. B mal) jeweils 10 Daten liefern ein (1 α)-konfidenzintervall (z. B. 95 % Konfidenzintervall) Datensatz 1 Konfidenzintervall I 1 Datensatz 2 Konfidenzintervall I Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle. Datensatz N Konfidenzintervall I N ca. (1 α) N (z. B. 95% 1000 = 950) Intervalle enthalten den (unbekannten) Erwartungswert µ der Population 26 / 374

27 1.4 Konfidenzbereich für den Erwartungswert einer Population unter Normalverteilungsannahme Daten y 1,..., y n (Stichprobe) mit Erwartungswert µ Rechtfertigung der Unabhängigkeits- und Normalverteilungsannahme Bestimme das t n 1,1 α 2 Quantil der t-verteilung mit n 1 Freiheitsgraden (aus Tabelle oder Software) Das Intervall (ˆµ t n 1,1 α 2 ˆσ µ, ˆµ + t n 1,1 α 2 ˆσ µ) 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle ist ein (1 α) Konfidenzintervall für µ In vielen Softwarepaketen erhält man direkt das Konfidenzintervall als Ausgabe (z. B. in SPSS) 27 / 374

28 SPSS-Output: Konfidenzintervall für die Daten aus Beispiel 1.1 (Intelligenzquotient) T df Sig. (2-seitig) Mittlere Differenz Untere Obere Intelligenzquotient 2,436 9,038 4,100 1,02 7,18 Beachte: Test bei einer Sichprobe Testwert = % Konfidenzintervall der Differenz 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle SPSS liefert nur ein Konfidenzintervall für die Differenz µ 100 = 90% Konfidenzintervall für den Erwartungswert µ (101.02, ) 28 / 374

29 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.2 t-test für eine Stichprobe 1.4 Einfaktorielle 29 / 374

30 Beispiel 1.5 (Fortsetzung von Beispiel 1.1) Frage: Ist der IQ der Kinder aus Bochum höher als 100? H 0 : µ 100 H 1 : µ > 100 H 0 nennt man Nullhypothese und H 1 heißt Alternative. Intuitiv würde man für H 1 entscheiden, falls der Mittelwert der Stichprobe ˆµ = 1 10 y i 10 groß ist Beachte: ˆµ ändert sich, falls man die Daten anders skaliert! i=1 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Besser: entscheide für H 1, falls ˆµ groß im Verhältnis zu dem Standardfehler ˆσ µ ist (Invarianz bzgl. unterschiedlicher Skalierungen) 30 / 374

31 Die Nullhypothese H 0 : µ 100 wird abgelehnt falls Fragen: T = ˆµ 100 ˆσ µ > c Wie legt man den kritischen Wert c fest? Bei dem Verfahren können 2 Fehler auftreten Fehler erster Art: Die Nullhypothese H0 wird abgelehnt, obwohl H 0 in Wirklichkeit stimmt (d. h. der IQ ist nicht höher als 100) 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Fehler zweiter Art: Die Nullhypothese H0 wird nicht abgelehnt, obwohl in Wirklichkeit die Alternative H 1 zutrifft (d. h. der IQ ist höher als 100) Ziel: kleine Wahrscheinlichkeiten für Fehler erster und zweiter Art 31 / 374

32 Grundlegendes Prinzip der Testtheorie Der kritische Wert c wird festgelegt, indem man eine maximal tolerierbare Wahrscheinlichkeit α für einen Fehler erster Art vorgibt (α-fehler)! Diese Wahrscheinlichkeit heißt Niveau des Tests. Damit hat man keine Kontrolle über die Wahrscheinlichkeit eines Fehlers zweiter Art (β-fehler) Z. B. soll die Wahrscheinlichkeit für Fehler erster Art maximal α = 5% = 0.05 sein. = (mathematische Statistik, Tabelle, Software) 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle n = 10, c = t n 1,1 α = t 9,0.95 = T = ˆµ = = > ˆσ µ D. h. die Nullhypothese H 0 : µ 100 wird zum Niveau α = 5% zu Gunsten der Alternative H 1 : µ > 100 verworfen (signifikantes Ergebnis zum Niveau 5 %) 32 / 374

33 Erklärung des Begriffs Niveau durch ein fiktives Experiment Annahme: Das Experiment (Untersuchung des IQ von 10 Kindern) kann N mal (unabhängig) wiederholt werden (z. B mal) jeweils 10 Daten liefern ein Ergebnis für den Test zum Niveau α (z.b. Niveau 5 %) Datensatz 1 Testergebnis 1 Datensatz 2 Testergebnis 2. Datensatz N Testergebnis N 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Falls die Nullhypothese H 0 : µ 100 wahr ist, so wird maximal in ca. αn (z. B. 5% 1000 = 50) Fällen für die Alternative H 1 : µ > 100 entschieden. 33 / 374

34 Fehler erster und zweiter Art Beachte: in der Population gilt H 0 H 1 Entscheidung auf- richtige β-fehler grund der Stich- H 0 Entscheidung probe zugunsten richtige von: H 1 α-fehler Entscheidung Die Wahrscheinlichkeiten für α-fehler und β-fehler verändern sich gegenläufig. Bei festem Niveau (Wahrscheinlichkeit für α-fehler) kann die Wahrscheinlichkeit für einen β-fehler durch Vergrößerung des Stichprobenumfangs verkleinert werden. Bei festem Stichprobenumfang wird nur der Fehler erster Art kontrolliert. 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 34 / 374

35 Die Verteilung von T falls µ = 100 ist Dichte der t9 -Verteilung p Wert α = 5 % t 9, 0.95 = T n = Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Kritischer Wert: t n 1,0.95 = (H 0 wird verworfen, falls T größer als der kritische Wert ist) Blaue Fläche: Niveau (α) Rote Fläche: p-wert: Wahrscheinlichkeit einen Wert größer als zu beobachten: P(T > 2.436) = Beachte: Ist der p-wert < α (wie in diesem Beispiel) dann wird H 0 abgelehnt (signifikantes Ergebnis) 35 / 374

36 Testverfahren für den Erwartungswert einer Stichprobe unter Normalverteilungsannahme 1.6 Einstichproben t-test für rechtsseitige Hypothesen Hypothesen: H 0 : µ µ 0 ; Hypothese) H 1 : µ > µ 0 (rechtsseitige Daten y 1,..., y n (Stichprobe) mit Erwartungswert µ Rechtfertigung der Unabhängigkeits- und Normalverteilungsannahme H 0 wird zum Niveau α verworfen, falls 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle T = ˆµ µ 0 ˆσ µ > t n 1,1 α gilt, bzw. falls der p-wert < α ist. ˆµ: Schätzer für µ; ˆσ µ : Schätzer für den Standardfehler von ˆµ 36 / 374

37 Vertauschen der Hypothesen 1.7 Einstichproben t-test für linksseitige Hypothesen Hypothesen: H 0 : µ µ 0 ; Hypothese) H 1 : µ < µ 0 (linksseitige Daten y 1,..., y n (Stichprobe) mit Erwartungswert µ Rechtfertigung der Unabhängigkeits- und Normalverteilungsannahme H 0 wird zum Niveau α verworfen, falls 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle T = ˆµ µ 0 ˆσ µ < t n 1,1 α = t n 1,α gilt, bzw. falls der p-wert < α ist. ˆµ: Schätzer für µ; ˆσ µ : Schätzer für den Standardfehler von ˆµ 37 / 374

38 Tests für zweiseitige Hypothesen 1.8 Einstichproben t-test für zweiseitige Hypothesen Hypothesen: H 0 : µ = µ 0 ; Hypothese) H 1 : µ µ 0 (zweiseitige Daten y 1,..., y n (Stichprobe) mit Erwartungswert µ Rechtfertigung der Unabhängigkeits- und Normalverteilungsannahme H 0 wird zum Niveau α verworfen, falls 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle T = ˆµ µ 0 > t n 1,1 α/2 ˆσ µ gilt, bzw. falls der p-wert kleiner als α ist. ˆµ: Schätzer für µ; ˆσ µ : Schätzer für den Standardfehler von ˆµ 38 / 374

39 Die Verteilung von T, falls µ = 100 ist p Wert α = 2,5 % Dichte der t9 -Verteilung α = 2,5 % p Wert 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle -T n = t 9, = t 9, = T n = Blaue Fläche: Niveau α; Rote Fläche: p-wert (Wahrscheinlichkeit einen Wert zu beobachten, dessen Betrag größer als ist P( T > 2.436) = Beachte: Ist der p-wert < α (wie in diesem Beispiel), dann wird H 0 abgelehnt! 39 / 374

40 SPSS-Output bei Anwendung des t-tests auf die Daten aus Beispiel 1.1 (Intelligenzquotient) T df Sig. (2-seitig) Mittlere Differenz Untere Obere Intelligenzquotient 2,436 9,038 4,100 1,02 7,18 Beachte: Test bei einer Sichprobe Testwert = % Konfidenzintervall der Differenz 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle SPSS liefert nur den p-wert für den zweiseitigen t-test aus Beispiel 1.8! Den p-wert für den einseitigen Test erhält man als 0.038/2 = / 374

41 Beispiel: t-test für den Vergleich von zwei verbundenen Stichproben Eine der wichtigsten Anwendungen der in 1.6, 1.7 und 1.8 vorgestellten Verfahren besteht in dem Vergleich von verbundenen Stichproben (vorher - nachher Untersuchungen) Beispiel: Untersuchung der Einstellungen von 9 Jungen gegenüber neutralen Personen vor und nach einem Frustrationserlebnis (Sündenbockfunktion). 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle VPn Einstell- vorher ung nachher / 374

42 Prinzip: Differenzenbildung Prinzip: Falls kein Unterschied zwischen den Einstellungen vor und nach dem Frustrationserlebnis besteht sollten die Differenzen (nachher - vorher) klein sein. Durch Differenzenbildung (nachher - vorher) erhält man die Daten 1,..., 9 Rechtfertigung der Voraussetzungen für den t-test aus 1.8 für diese Daten. Wende den t-test für eine Stichprobe auf die Daten 1,..., 9 an und teste die Hypothesen H 0 : µ = 0, H 1 : µ Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Wegen T = = 3.27 > 2.31 = t 8,0.975 besteht zum Niveau α = 0.05 ein signifikanter Unterschied. 42 / 374

43 SPSS Output: t-test für gepaarte Stichproben Paaren 1 vorher nachher Statistik bei gepaarten Stichproben Mittelwert 33,44 30,78 N 9 9 3,358 3,346 Korrelationen bei gepaarten Stichproben N Korrelation Signifikanz Paaren 1 vorher & nachher 9,733,025 Test bei gepaarten Stichproben Mittelwert 1.3 Zweistichprobenprobleme Standardabweichung Standardabweichung Standardfehler des Mittelwertes 1,119 1,115 Gepaarte Differenzen Standardfehler des Mittelwertes 95% Konfidenzintervall der Differenz Untere Obere Paaren 1 vorher - nachher 2,667 2,449,816,784 4, Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.4 Einfaktorielle Test bei gepaarten Stichproben Sig. T df (2-seitig) Paaren 1 vorher - nachher 3,266 8, / 374

44 1.9 Bemerkungen (zu den statistischen Verfahren 1.2, 1.4, 1.6, 1.7, 1.8) Mathematische Statistik unter der Normalverteilungsannahme sind alle hier vorgestellten Verfahren optimal Die Normalverteilungsannahme kann (und sollte) man rechtfertigen. Mögliche Verfahren sind: statistische Tests für die Hypothese In SPSS üblich sind H 0 : Y 1,..., Y n - Kolmogorov-Smirnov-Test - Shapiro-Wilk Test normalverteilt Explorative Verfahren. In SPSS üblich: QQ-Plot 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Besteht die Normalverteilungsannahme diese Überprüfung nicht, so sind z. B. nichtparametrische Verfahren anzuwenden. 44 / 374

45 SPSS Output: QQ-Plot für die Daten aus Beispiel Q-Q-Diagramm von Normal von Intelligenzquotient 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme Erwarteter Wert von Normal Einfaktorielle Beobachteter Wert 45 / 374

46 Der QQ-Plot Unter der Modellannahme gilt: die Größen Y i sind normalverteilt mit Erwartungswert µ und Varianz σ 2 Der QQ-Plot vergleicht grafisch die empirischen Quantile der Daten y 1,..., y n mit den Quantilen der Normalverteilung mit Erwartungswert ˆµ und Varianz ˆσ 2. (1) 1/n-Quantil der Stichprobe y 1,... y n = kleinste der Beobachtungen y (1) (in Beispiel 1.1 ist y (1) = 97) (1 1/2)/n-Quantil der Normalverteilung mit Erwartungswert ˆµ und Varianz ˆσ 2 = (im Beispiel 1.1 ist z (1) = = 95.37) (2) 2/n-Quantil der Stichprobe y 1,..., y n = zweitkleinste der Beobachtungen y (2) (in Beispiel 1.1 ist y (2) = 98) (2 1/2)/n-Quantil der Normalverteilung mit Erwartungswert ˆµ und Varianz ˆσ 2 = (in Beispiel 1.1 ist z (2) = = 98.57) (3) usw. Der QQ-Plot ist das Streudiagramm der Daten 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle (y (1), z (1) ),..., (y (n), z (n) ) In in vielen Fällen enthält dieses Diagramm noch die Winkelhalbierende des entsprechenden Quadranten. 46 / 374

47 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 47 / 374

48 1.10 Beispiel: Erkennen von Zahlenreihen Studierende der Fachrichtungen Mathematik (M) und Psychologie (P) machen einen Zahlengedächtnistest 1.1 Schätzer und Konfidenzintervalle Wie viele Ziffern können sich maximal gemerkt werden Wiedergabe in Original und umgekehrter Reihenfolge 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Daten (P. Zöfel: Statistik für Psychologen) M P M P Frage: Haben Studierende der Mathematik ein besseres Zahlengedächtnis als Studierende der Psychologie? 48 / 374

49 Mathematisches Modell (n 1 = 14, n 2 = 8) Y ij := µ i + ε ij ; j = 1,..., n i ; i = 1, 2 Y ij : Ergebnis der j-ten Versuchsperson in Gruppe i (Mathematik: i = 1, Psychologie i = 2) µ i : unbekannter Erwartungswert in der Population i (Mathematik: i = 1, Psychologie: i = 2) ε ij : Messfehler, Tagesform... n i : Stichprobenumfang in Gruppe i 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Normalverteilungs- und Unabhängigkeitsannahme in jeder Gruppe (i = 1, 2) liegt eine Normalverteilung mit Erwartungswert µ i und Varianz σi 2 vor in jeder Gruppe sind die Beobachtungen unabhängig unabhängige Stichproben 49 / 374

50 Schätzer Schätzer werden wie in 1.2 für jede Gruppe durchgeführt Mathematiker (i = 1): ˆµ 1 = y 1 = 1 n1 n 1 j=1 y 1j = ˆσ 2 1 = 1 n 1 1 n 1 j=1 (y 1j y 1 ) 2 = 3.94 ˆσ µ1 = Psychologen (i = 2): ˆµ 2 = y 2 = 1 n 2 n 2 y 2j = ˆσ 2 2 = 1 n 2 1 n 2 j=1 j=1 (y 2j y 2 ) 2 = 4.79 ˆσ µ2 = ˆσ 2 1 n 1 = 0.53 ˆσ 2 2 n 2 = 0.77 Auch Konfidenzbereiche werden gruppenweise bestimmt z. B. ist unter Normalverteilungsannahme (ˆµ1 t n1 1,1 α 2 ˆσ µ 1, ˆµ 1 + t n1 1,1 α 2 ˆσ µ 1 ) 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle ein 90% Konfidenzintervall für µ 1. Für das spezielle Datenbeispiel ergibt sich [n 1 = 14, α = 10%, t 13,0.95 = 1.77 (aus Tabelle)] (13.70, 15.58) als 90% Konfidenzintervall für µ 1 50 / 374

51 SPSS-Output für die Daten aus Beispiel 1.10 Schätzer für die Parameter in den einzelnen Gruppen Beachte: Gemerkte Zahlen Studienfach Mittelwert Varianz Mathematik 14,64 3,940 Psychologie 13,75 4,786 Insgesamt 14,32 4,227 SPSS liefert hier die Schätzer für Erwartungswert und Varianz der einzelnen Gruppen SPSS liefert außerdem Schätzer für Erwartungswert und Varianz der gesamten Stichprobe 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 51 / 374

52 Tests zum Vergleich der Erwartungswerte Nullhypothese: Zahlengedächtnis der Psychologiestudenten ist nicht schlechter als das der Mathematikstudenten H 0 : µ 1 µ Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme Alternative: Zahlengedächtnis der Mathematikstudenten ist besser als das der Psychologiestudenten H 1 : µ 1 > µ Einfaktorielle Rezept: Verwerfe die Nullhypothese H 0 zu Gunsten der Alternative H 1, falls die Differenz y 1 y 2 der Schätzer für die Erwartungswerte groß ist. 52 / 374

53 Rezept im Fall von Varianzhomogenität, d. h. (σ 2 1 = σ 2 2) Verwerfe H 0 zu Gunsten von H 1, falls y 1 y 2 groß ist. Normiere diese Größe mit einem Schätzer für die Standardfehler der Mittelwertdifferenz: ˆσµ1 µ 2 = ( 1 n n 2 )ˆσ 2 ˆσ 2 1 = n 1 +n 2 2 {(n1 1)ˆσ2 1 + (n 2 1)ˆσ 2}: 2 Schätzer für Varianz (die in beiden Gruppen dieselbe ist) Entscheide für die Alternative H 1 : µ 1 > µ 2, falls 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle T n1,n 2 = y 1 y 2 ˆσ µ1 µ 2 > t n1+n 2 2,1 α gilt. Dabei ist t n1+n 2 2,1 α das (1 α)-quantil der t-verteilung mit n 1 + n 2 2 Freiheitsgraden Im Beispiel ergibt sich für einen Test zum Niveau α = 5% ˆσ 2 = 4.24, t 20,0.95 = = T 14,8 = d. h. die Hypothese H 0 kann nicht verworfen werden. 53 / 374

54 Testverfahren für die Erwartungswerte von zwei Stichproben unter Normalverteilungsannahme 1.11(a) Einseitiger t-test für zwei unabhängige Stichproben (rechtsseitige Hypothese) Daten y 11,..., y 1n1 (Gruppe 1; Erwartungswert µ 1 ; Varianz σ1 2) y 21,..., y 2n2 (Gruppe 2; Erwartungswert µ 2 ; Varianz σ2 2) Rechtfertigung der Voraussetzungen Unabhängigkeit in und zwischen den Gruppen Normalverteilungsannahme (in beiden Gruppen) Varianzhomogenität, d. h. σ 2 1 = σ 2 2 Die Hypothese H 0 : µ 1 µ 2 wird zu Gunsten der Alternative H 1 : µ 1 > µ 2 verworfen, falls 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle T n1,n 2 = y 1 y 2 > t n1+n ˆσ 2 2,1 α µ1 µ 2 gilt, bzw. der p-wert < α ist. ˆσ µ1 µ 2 = ( 1 n n 2 )ˆσ 2 ist der Schätzer für den Standardfehler der Mittelwertdifferenz. 54 / 374

55 1.11(b) Einseitiger t-test für zwei unabhängige Stichproben (linksseitige Hypothese) Daten y 11,..., y 1n1 (Gruppe 1; Erwartungswert µ 1 ; Varianz σ1 2) y 21,..., y 2n2 (Gruppe 2; Erwartungswert µ 2 ; Varianz σ2 2) Rechtfertigung der Voraussetzungen Unabhängigkeit in und zwischen den Gruppen Normalverteilungsannahme (in beiden Gruppen) Varianzhomogenität, d. h. σ 2 1 = σ 2 2 Die Hypothese H 0 : µ 1 µ 2 wird zu Gunsten der Alternative H 1 : µ 1 < µ 2 verworfen, falls 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle T n1,n 2 = y 1 y 2 < t n1+n ˆσ 2 2,1 α = t n1+n 2 2,α µ1 µ 2 gilt, bzw. der p-wert < α ist. ˆσ µ1 µ 2 = ( 1 n n 2 )ˆσ 2 ist der Schätzer für den Standardfehler der Mittelwertdifferenz. 55 / 374

56 1.11(c) t-test für zwei unabhängige Stichproben (zweiseitige Hypothesen) Daten y 11,..., y 1n1 (Gruppe 1; Erwartungswert µ 1 ; Varianz σ1 2) y 21,..., y 2n2 (Gruppe 2; Erwartungswert µ 2 ; Varianz σ2 2) Rechtfertigung der Voraussetzungen Unabhängigkeit in und zwischen den Gruppen Normalverteilungsannahme (in beiden Gruppen) Varianzhomogenität, d. h. σ 2 1 = σ 2 2 Die Nullhypothese H 0 : µ 1 = µ 2 (kein Unterschied der Erwartungswerte in beiden Gruppen) wird zu Gunsten der Alternative H 1 : µ 1 µ 2 verworfen, falls 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle T n1,n 2 = y 1 y 2 ˆσ µ1 µ 2 > t n1+n 2 2,1 α 2 gilt, bzw. der p-wert < α ist. ˆσ µ1 µ 2 = ( 1 n n 2 )ˆσ 2 ist der Schätzer für den Standardfehler der Mittelwertdifferenz. 56 / 374

57 Bemerkung zur Varianzhomogenität Ist die Annahme der Varianzhomogenität nicht erfüllt, so σ 2 1 = σ 2 2 wird die vorgegebene Wahrscheinlichkeit für einen α-fehler nicht eingehalten (der Test hält sein Niveau nicht) ist die Wahrscheinlichkeit für einen β-fehler größer 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle von Interesse ist daher auch ein Test für die Hypothesen H 0 : σ 2 1 = σ 2 2 H 1 : σ 2 1 σ 2 2 und ein Verfahren, das ohne die Annahme der Varianzhomogenität auskommt. 57 / 374

58 Rezept (für Test auf Varianzhomogenität) Die Nullhypothese H 0 : σ1 2 = σ2 2 gilt genau dann, wenn F = σ2 1 σ 2 2 = 1 Schätze den Quotienten der beiden Varianzen, durch F n1 1,n 2 1 = ˆσ2 1 ˆσ 2 2 = 1 n1 n n 2 1 j=1 (y 1j y 1 ) 2 n2 j=1 (y 2j y 2 ) 2 Die Nullhypothese H 0 wird zu Gunsten der Alternative H 1 : σ1 2 σ2 2 verworfen, falls 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle gilt F n1 1,n 2 1 > c 2 oder F n1 1,n 2 1 < c 1 Die kritischen Werte c 1 und c 2 werden so festgelegt, dass die Wahrscheinlichkeit für einen Fehler erster Art maximal α ist! 58 / 374

59 1.12 F -Max-Test für den Vergleich von zwei Stichprobenvarianzen Teststatistik Die Nullhypothese F n1 1,n 2 1 = ˆσ2 1 ˆσ 2 H 0 : σ 2 1 = σ 2 2 (die Varianzen sind gleich) wird zu Gunsten der Alternative H 1 : σ 2 1 σ 2 2 verworfen, falls mindestens eine der Ungleichungen 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle F n1 1,n 2 1 < F n1 1,n 2 1, α 2 erfüllt ist F n1 1,n 2 1 > F n1 1,n 2 1,1 α 2 F n1 1,n 2 1,β bezeichnet das β-quantil der F -Verteilung mit (n 1 1, n 2 1) Freiheitsgraden 59 / 374

60 Verschiedene F -Verteilungen Dichten der F Verteilung mit verschiedenen Freiheitsgraden F 2, 10 F 4, 4 F 10, 1 F 20, Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle f m,n (x) = m+n Γ( 2 ) ( m ) m 2 x m 2 1 Γ( m 2 )Γ( n 2 ) 2 (1 + m m+n n x) 2 (x 0) 60 / 374

61 Das Quantil der F -Verteilung mit (n 1, n 2 ) Freiheitsgraden Dichte der F4, 4 -Verteilung 1.1 Schätzer und Konfidenzintervalle t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle F 4, 4; 0.9 = P(F 4,4, F 4,4,0.9 ) = F4,4,0.9 f m,n (x) dx = / 374

62 Der F -Test auf Varianzhomogenität für die Daten aus Beispiel 1.10 (n 1 = 14, n 2 = 8) ˆσ 2 1 = 3.94 ˆσ2 2 = 4.79 F 13,7 = Für das Niveau α = 10% erhält man F 13,7,0.05 = F 13,7,0.95 = und damit kann die Nullhypothese zum Niveau 10% nicht verworfen werden Beachte: Oft wird der Test 1.12 verwendet, um die Voraussetzungen für den t-test zu überprüfen 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle In diesem Fall wählt man oft ein größeres Niveau ( kleinere Wahrscheinlichkeit für β-fehler) Der Gesamttest (erst F -Test, falls H0 nicht verworfen wird, dann t-test) hat nicht das Niveau α. Was macht man, falls F -Test H 0 verwirft? 62 / 374

63 1.13(a) t-test für zwei unabhängige Stichproben mit nicht notwendig gleichen Varianzen (Welch-Test) Daten y 11,..., y 1n1 (Gruppe 1; Erwartungswert µ 1 ; Varianz σ1 2) y 21,..., y 2n2 (Gruppe 2; Erwartungswert µ 2 ; Varianz σ2 2) Rechtfertigung der Voraussetzungen Unabhängigkeit in und zwischen den Gruppen Normalverteilungsannahme (in beiden Gruppen) Varianzen in den Gruppen sind nicht notwendig gleich Teststatistik Dabei ist T W n 1,n 2 = y 1 y 2 ˆτ ˆτ = ˆτ 2 = ˆσ 2 1 n 1 + ˆσ2 2 n Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle die Schätzung für den Standardfehler von y 1 y 2 63 / 374

64 1.13(b) t-test für zwei unabhängige Stichproben mit nicht notwendig gleichen Varianzen (Welch-Test) Die Nullhypothese H 0 : µ 1 µ 2 (Erwartungswert der ersten Population nicht größer als der der Zweiten) wird zu Gunsten der Alternative 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme falls H 1 : µ 1 > µ 2 Tn W 1,n 2 > tˆf,1 α 1.4 Einfaktorielle gilt, bzw. der p-wert < α ist. Dabei bezeichnet ˆf = (ˆσ2 µ 1 + ˆσ 2 µ 2 ) 2 ˆσ 4 µ 1 n ˆσ4 µ 2 n 2 1 die geschätzten Freiheitsgrade der t-verteilung. 64 / 374

65 1.13(c) t-test für zwei unabhängige Stichproben mit nicht notwendig gleichen Varianzen (Welch-Test) Die Nullhypothese H 0 : µ 1 µ 2 (Erwartungswert der ersten Population nicht kleiner als der der Zweiten) wird zu Gunsten der Alternative verworfen, falls T W n 1,n 2 H 1 : µ 1 < µ 2 < tˆf,α = tˆf,1 α 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle gilt, bzw. der p-wert < α ist. Dabei bezeichnet ˆf = (ˆσ2 µ 1 + ˆσ 2 µ 2 ) 2 ˆσ 4 µ 1 n ˆσ4 µ 2 n 2 1 die geschätzten Freiheitsgrade der t-verteilung. 65 / 374

66 1.13(d) t-test für zwei unabhängige Stichproben mit nicht notwendig gleichen Varianzen (Welch-Test) Die Nullhypothese H 0 : µ 1 = µ 2 (kein Unterschied der Erwartungswerte in beiden Gruppen) wird zu Gunsten der Alternative H 1 : µ 1 µ 2 (es besteht ein Unterschied) verworfen, falls T W n 1,n 2 > tˆf,1 α Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle gilt, bzw. der p-wert < α ist. Dabei bezeichnet ˆf = (ˆσ2 µ 1 + ˆσ 2 µ 2 ) 2 ˆσ 4 µ 1 n ˆσ4 µ 2 n 2 1 die geschätzten Freiheitsgrade der t-verteilung. 66 / 374

67 Bemerkung: t-test oder Welch-Test? Sind die Voraussetzungen für den t-test erfüllt (Normalverteilung, Unabhängigkeit, Varianzhomogenität), so ist dieses Verfahren optimal, d. h. dieser Test minimiert unter allen Tests zum Niveau α die Wahrscheinlichkeit für einen β-fehler. Ist die Voraussetzungen der Varianzhomogenität beim t-test nicht erfüllt, so wird die vorgegebene Wahrscheinlichkeit für einen α-fehler nicht eingehalten. 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Der Welch-Test ist eine Näherungslösung, d. h. die Wahrscheinlichkeit für einen α-fehler ist nur näherungsweise α. Der Welch-Test hat im Fall der Varianzhomogenität eine größere Wahrscheinlichkeit für einen β-fehler als der t-test. 67 / 374

68 SPSS-Output für die Daten aus Beispiel 1.10 Gemerkte Zahlen Varianzen sind gleich Varianzen sind nicht gleich Test bei unabhängigen Stichproben Levene-Test der Varianzgleichheit F,103 Signifikanz,752 T-Test für die Mittelwertgleichheit T,979,952 df 20 13,523 Sig. (2-seitig),339, Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe Gemerkte Zahlen Varianzen sind gleich Varianzen sind nicht gleich Test bei unabhängigen Stichproben Mittlere Differenz,893,893 T-Test für die Mittelwertgleichheit 95% Konfidenzintervall der Differenz Standardfehler der Differenz,912,938 Untere -1,010-1,125 Obere 2,796 2, Zweistichprobenprobleme 1.4 Einfaktorielle Beachte: SPSS liefert nicht den in 1.12 dargestellten F -Max Test auf Varianzhomogenität sondern ein robustes Verfahren (Levene-Test) SPSS liefert nur einen p-wert für den zweiseitigen t-test aus Beispiel 1.11(c) bzw. zweiseitigen Welch-Test aus Beispiel 1.13(d) SPSS liefert ein Konfidenzintervall für die Differenz µ 1 µ 2 = 95% Konfidenzintervall für die Differenz der Erwartungswerte (unter der Annahme gleicher Varianzen) ( 1.01, 2.796) 68 / 374

69 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 1.4 Einfaktorielle 69 / 374

70 1.14 Beispiel: Fortsetzung von Beispiel 1.10 An dem Zahlengedächtnistest (vgl. Beispiel 1.10) nehmen auch noch 7 Studierende der Geisteswissenschaften (G) teil. M P G M P G Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Frage: Existieren Unterschiede hinsichtlich des Zahlengedächtnisses zwischen dem Studierenden der Psychologie, Mathematik und Geisteswissenschaften? 70 / 374

71 Mathematisches Modell (n 1 = 14, n 2 = 8, n 3 = 7) Y ij := µ i + ε ij ; j = 1,..., n i ; i = 1, 2, 3 Y ij : Ergebnis der j-ten Versuchsperson in Gruppe i (Mathematik: i = 1, Psychologie: i = 2, Geisteswissenschaften: i = 3) µ i : unbekannter Erwartungswert in der Population i (Mathematik: i = 1, Psychologie: i = 2, Geisteswissenschaften: i = 3) ε ij : Störgrößen (Erwartungswert 0 und Varianz σ 2 ) Normalverteilungs und Unabhängigkeitsannahme in jeder Gruppe (i = 1, 2, 3) liegt eine Normalverteilung mit Erwartungswert µ i vor in jeder Gruppe sind die Beobachtungen unabhängig unabhängige Stichproben Nullhypothese H 0 : µ 1 = µ 2 = µ Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 71 / 374

72 Schätzer und Konfidenzbereiche Schätzer für Erwartungswert und Varianz werden in den einzelnen Gruppen durchgeführt Beispiel: y i ˆσ i 2 ˆσ µi n i Mathematik (i = 1) Psychologie (i = 2) Geisteswissenschaften (i = 3) ˆµ 1 = ist Schätzer für den Erwartungswert der Mathematiker Beachte: t 6,0.95 = 1.943, ˆµ 3 + ˆσ µ3 t 6,0.95 = ˆµ 3 ˆσ µ3 t 6,0.95 = 11.25, also ist das Intervall 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle [11.25, 13.03] ein 90% Konfidenzintervall für den Erwartungswert der Geisteswissenschaftler 72 / 374

73 SPSS Output Gemerkte Zahlen Studienfach Mittelwert Varianz Standardfehler des Mittelwertes N Mathematik 14,64 3,940, Psychologie 13,75 4,786,773 8 Geisteswissenschaften 12,14 1,476,459 7 Insgesamt 13,79 4,384, Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 73 / 374

74 Prinzip der Ziel: Test für die Hypothese es bestehen keine Unterschiede zwischen den Gruppen H 0 : µ 1 = µ 2 = µ 3 Idee: Bestimme die Streuung der Daten: Mittelwert aus allen Daten: y = 1 n n 3 i wobei n = n 1 + n 2 + n 3 = 29 die Gesamtzahl der Beobachtungen bezeichnet. Varianz (n = n1 + n 2 + n 3) i=1 j=1 y ij 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 1 n 1 n 3 i (y ij y ) 2 i=1 und versuche Unterschiede in der Merkfähigkeit aufgrund der Gruppenzugehörigkeit durch eine Zerlegung der Streuung bzgl. der Gruppen zu erklären! j=1 74 / 374

75 Prinzip der Zerlegung der Summe der Quadrate Häufig verwendete Abkürzungen: SS Sum of squares; SAQ Summe der Abweichungsquadrate Summe der Quadrate innerhalb der Gruppen (within groups) und SS R = n 3 i (y ij y i ) 2 i=1 y i = 1 n i j=1 n i y ij den Mittelwert aus den Beobachtungen der Grupe i bezeichnet. Summe der Quadrate zwischen den Gruppen (between groups) j=1 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle SS M = 3 n i(y i y ) 2 i=1 75 / 374

76 Prinzip der Zerlege die Summe der Quadrate in eine durch das Modell erklärte Summe (Varianz zwischen den Gruppen) und eine Summe von Quadraten der nicht erklärten Varianz (Varianz innerhalb der Gruppen) SS T = = 3 n i (y ij y ) 2 i=1 j=1 }{{} Gesamtvarianz (Total) 3 n i i=1 j=1 (y ij y i ) 2 }{{} Gesamtvarianz innerhalb der Gruppen + k n i (y i y ) 2 i=1 }{{} Varianz zwischen den Gruppen 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 76 / 374

77 F -Test für die Hypothese H 0 : µ 1 = µ 2 = µ 3 (gleiche Erwartungswerte in den drei Gruppen) Vergleiche die Varianz zwischen den Gruppen mit der Varianz innerhalb der Gruppen F = i=1 3 i=1 n i(y i y ) 2 ni j=1 (y ij y i ) 2 Falls F groß ist, wird die Nullhypothese H 0 abgelehnt. Mathematische Statistik Test zum Niveau α verwirft die Nullhypothese H 0, falls 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle F > F 2,26,1 α gilt (Vergleich mit dem (1 α)-quantil der F -Verteilung mit (2, 26) Freiheitsgraden), bzw. falls der zugehörige p-wert des Tests kleiner als α ist. 77 / 374

78 Beispiel 1.15 (Fortsetzung von Beispiel 1.14) Frage: besteht ein Unterschied zwischen den Studierenden der Fächer Psychologie, Mathematik und Geisteswissenschaften bzgl. des Zahlengedächtnisses Genauer: Besteht ein Unterschied zwischen den Erwartungswerten der drei Gruppen: H 0 : µ 1 = µ 2 = µ 3 n 1 = 14, n 2 = 8, n 3 = 7; α = 5% F 2,26,0.95 = 3.37 ˆF = SS M/2 SS R /26 = 14.6 = 4.06 > D. h. die Hypothese: H 0 : µ 1 = µ 2 = µ 3 wird zum Niveau 5% abgelehnt. 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle In anderen Worten: zwischen den Studierenden der verschiedenen Fächer besteht ein Unterschied Beachte: In vielen Fällen ist man an der Frage interessiert, zwischen welchen Gruppen ein Unterschied besteht. Diese Frage beantwortet der F -Test nicht! 78 / 374

79 F -Verteilung Dichte Dichte der F 2,26 Verteilung F 2,26,0.95 = 3.37 F^ = Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle x 79 / 374

80 F -Verteilung Dichte der F 2,26 Verteilung (Zoom) Dichte α = 5% p Wert 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle F 2,26,0.95 = 3.37 F^ = x Blaue Fläche: Niveau des Tests Rote Fläche: p-wert (Wahrscheinlichkeit, dass ein Wert größer als ˆF = 4.06 beobachtet wird) 80 / 374

81 tabelle (k bezeichnet die Anzahl der Gruppen) Variabilität Sum of Squares df SS/df F zwischen SS M k 1 SS M /(k 1) innerhalb SS R n k SS R /(n k) gesamt SS T n 1 SS T /(n 1) Beispiel (Zahlengedächtnis) SS M k 1 / SS R n k 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Variabilität Sum of Squares df SS/df F zwischen innerhalb gesamt / 374

82 SPSS Output 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe Gemerkte Zahlen Quadratsumme df Zwischen den Gruppen Innerhalb der Gruppen Gesamt 29,187 93, , Mittel der Quadrate 14,594 3,599 F 4,055 Signifikanz, Zweistichprobenprobleme 1.4 Einfaktorielle 82 / 374

83 Beispiel 1.16 (Fortsetzung von Beispiel 1.15) Bei signifikantem Ergebnis der (d. h. die Hypothese gleicher Erwartungswerte wird abgelehnt) stellt sich die Frage: Welche Gruppe ist maßgeblich für die Signifikanz verantwortlich? Lösungsvorschlag: paarweise Vergleiche! Gruppe 1 - Gruppe 2; H 12 : µ 1 = µ 2 Gruppe 1 - Gruppe 3; H 13 : µ 1 = µ 3 Gruppe 2 - Gruppe 3; H 23 : µ 2 = µ 3 Jeder Vergleich wird mit dem Zwei-Stichproben-t-Test (vgl. 1.11(b)) durchgeführt. Dabei ist zu beachten, dass das Gesamtverfahren: Verwerfe die Hypothese H 0 : µ 1 = µ 2 = µ 3, falls mindestens ein Paarvergleich signifikant ist das Niveau α einhält. Die t-tests für die paarweisen Vergleiche sind mit Niveau α/3 durchzuführen. Man dividiert durch 3, da 3 paarweise Vergleiche durchgeführt werden (Bonferroni-Methode) 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 83 / 374

84 Paarweise Vergleiche mit Zwei-Stichproben t-tests (α = 5%): Test-Statistik für den Vergleich von Gruppe i mit Gruppe j: T i,j = Y i Y j ˆσ ij ( 1 ˆσ ij 2 = + 1 )( 1 ) n i n j n i + n j 2 {(n i 1)ˆσ i 2 + (n j 1)ˆσ j 2 } i j T i,j n i n j t ni +n j 2,1 α /2 p-wert signifikant nein ja nein Beachte: Die paarweisen Vergleiche werden zum Niveau α/3 = 5%/3 = durchgeführt ( 3 Vergleiche). Mit dieser Methode kann man zum Niveau 5% einen signifikanten Unterschied zwischen den Gruppen feststellen. Bonferroni-Methode ist konservativ (d. h. das wirkliche Niveau des Verfahrens wird unterschätzt). Ist die Anzahl der Paarvergleiche groß, so ist dieses Verfahren nicht zu empfehlen. 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 84 / 374

85 Post-Hoc-Test Bonferroni in SPSS Verwendet andere Schätzung für den Standardfehler der Differenz der Mittelwerte aus Gruppe i und j: ( 1 σ ij 2 = + 1 ) ( ) 1 3 (n k 1)ˆσ k 2 n i n j n 3 An Stelle der Quantile der t-verteilung mit n i + n j 2 Freiheitsgraden müssen dann die Quantile der t-verteilung mit n 3 Freiheitsgraden verwendet werden (n = n 1 + n 2 + n 3 ) k=1 Das Niveau für die Paarvergleiche muss dann wieder durch die Anzahl der Vergleiche dividiert werden (im Beispiel α/3) Adjustierung der p-werte erfolgt durch Multiplikation der p-werte aus den Paarvergleichen mit der Anzahl der Vergleiche. Z. B = 3 P( T 12 > 0.893/0.841) Dabei berechnet sich die Wahrscheinlichkeit mit einer t-verteilung mit 26 = 29 3 Freiheitsgraden. 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 85 / 374

86 SPSS Output paarweise Vergleiche mit der Bonferroni-Methode Mehrfachvergleiche Gemerkte Zahlen Bonferroni 95%-Konfidenzintervall (I) Studienfach (J) Studienfach Mittlere Differenz (I-J) Standardfehler Signifikanz Untergrenze Obergrenze Mathematik Psychologie,893,841,894-1,26 3,04 Geisteswissenschaften 2,500 *,878,026,25 4,75 Psychologie Mathematik -,893,841,894-3,04 1,26 Geisteswissenschaften 1,607,982,341 -,91 4,12 Geisteswissenschaften Mathematik -2,500 *,878,026-4,75 -,25 Psychologie -1,607,982,341-4,12,91 *. Die Differenz der Mittelwerte ist auf dem Niveau 0.05 signifikant. 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 86 / 374

87 Scheffé-Methode (α = 5%) Für den Vergleich der Gruppe i mit j betrachte: 3 1 d s (i, j) = 29 3 SS R F 2,26,0.95 ( ) n i n j 2 = ( ) = n i n j n i n j und vergleiche diese Größe mit Mittelwertdifferenz y i y j Ergebnis 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle i j y i y j d s (i, j) Ergebnis kein sign. Unterschied y 1 sign. größer als y kein sign. Unterschied 87 / 374

88 Einige Bemerkungen zur Scheffé-Methode: Die Scheffé-Methode garantiert, dass die Wahrscheinlichkeit eines α-fehlers für jeden beliebigen a-posteriori durchgeführten Einzelvergleichstests nicht größer ist als der α-fehler des F -Tests Kurz: Die Signifikanzaussagen gelten simultan für ALLE Paarvergleiche mit dem Gesamtniveau α 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Die Scheffé-Methode ist ein konservatives Verfahren Die Wahrscheinlichkeit eines α-fehlers ist eher kleiner als das vorgegebene Niveau Man entscheidet tendenziell eher zu oft für H0 88 / 374

89 SPSS Output paarweise Vergleiche mit der Scheffé-Methode Mehrfachvergleiche Gemerkte Zahlen Scheffé-Prozedur 95%-Konfidenzintervall (I) Studienfach (J) Studienfach Mittlere Differenz (I-J) Standardfehler Signifikanz Untergrenze Obergrenze Mathematik Psychologie,893,841,576-1,29 3,08 Geisteswissenschaften 2,500 *,878,029,22 4,78 Psychologie Mathematik -,893,841,576-3,08 1,29 Geisteswissenschaften 1,607,982,279 -,94 4,16 Geisteswissenschaften Mathematik -2,500 *,878,029-4,78 -,22 Psychologie -1,607,982,279-4,16,94 *. Die Differenz der Mittelwerte ist auf dem Niveau 0.05 signifikant. 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle 89 / 374

90 1.17 Einfaktorielle (zum Vergleich von k unabhängigen Stichproben) Modellannahmen und Hypothese Daten (n = k i=1 n i) y 11,..., y 1n1 (Gruppe 1, Erwartungswert µ 1 ; Varianz σ 2 1 )... y k1,..., y knk (Gruppe k, Erwartungswert µ k ; Varianz σk 2) Nullhypothese: es besteht kein Unterschied zwischen den Erwartungswerten der einzelnen Gruppen: 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle H 0 : µ 1 = µ 2 =... = µ k Rechtfertigung der Voraussetzungen Unabhängigkeit zwischen den Gruppen Unabhängigkeit innerhalb der Gruppen Normalverteilungsannahme Varianzhomogenität: σ 2 1 = σ 2 2 =... = σ 2 k 90 / 374

91 F-Test für die einfaktorielle (zum Vergleich von k unabhängigen Stichproben) Die Hypothese H 0 : µ 1 = µ 2 =... = µ k gleicher Erwartungswert in allen Gruppen wird verworfen, falls Dabei ist: F = 1 k 1 SS M 1 n k SS R SS M = > F k 1,n k,1 α k n i (y i y ) 2 i=1 (sum of squares between groups) 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle SS R = k n i (y ij y i ) 2 i=1 j=1 (sum of squares within groups) und F k 1,n k,1 α das (1 α)-quantil der F -Verteilung mit (k 1, n k) Freiheitsgraden 91 / 374

92 1.18 Paarweise Vergleich mit der Scheffé-Methode (Notation wie in 1.15) Wird die Nullhypothese H 0 : µ 1 = µ 2 =... = µ k abgelehnt, so kann mit der Scheffé-Methode festgestellt werden welche Gruppen für die Signifikanz verantwortlich sind! dazu bestimmt man die Größen (n = k i=1 n i) k 1 d s (i, j) = n k SS R F k 1,n k,1 α ( ) n i n j Ist y i y j größer (bzw. kleiner) als d s (i, j) (bzw. als d s (i, j)) so ist y i signifikant größer (bzw. kleiner) als y j Beachte: insgesamt k(k 1) Vergleiche 2 die Scheffé-Methode hält simultan das Niveau α es ist möglich, das F -Test H0 ablehnt, aber keiner der paarweisen Vergleiche signifikant ist! 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Andere Verfahren (z. B. in SPSS implementiert): Tukey-Methode, Duncan Test 92 / 374

93 1.19 Levene-Test auf Varianzhomogenität von k unabhängigen Stichproben Modellannahmen und Hypothese Daten (n = k i=1 n i) y 11,..., y 1n1 (Gruppe 1, Erwartungswert µ 1 ; Varianz σ 2 1 )... y k1,..., y knk (Gruppe k, Erwartungswert µ k ; Varianz σk 2) Nullhypothese: es liegt Varianzhomogenität vor, d. h. 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle H 0 : σ1 2 = σ2 2 =... = σk 2 Rechtfertigung der Voraussetzungen Unabhängigkeit zwischen den Gruppen Unabhängigkeit innerhalb der Gruppen Normalverteilungsannahme 93 / 374

94 Levene-Test auf Varianzhomogenität von k unabhängigen Stichproben Die Hypothese der Varianzhomogenität wird verworfen, falls F = 1 k 1 1 k n k i=1 H 0 : σ 2 1 = σ 2 2 =... = σ 2 k k i=1 n i(x i x ) 2 ni j=1 (x ij x i ) 2 > F k 1,n k,1 α Dabei ist: n = n n k der Gesamtstichprobenumfang x i = 1 ni xij, x n i j=1 = 1 k ni n i=1 j=1 xij xij = y ij y i Fk 1,n k,1 α das (1 α)-quantil der F -Verteilung mit (k 1, n k) Freiheitsgraden. Beachte: Der Test ist robust bzgl. der Normalverteilungsannahme. Der Test hält nur näherungsweise das Niveau α. 1.1 Schätzer und Konfidenzintervalle 1.2 t-test für eine Stichprobe 1.3 Zweistichprobenprobleme 1.4 Einfaktorielle Alternativer Test: Bartlett Test 94 / 374

95 SPSS Output Test der Homogenität der Varianzen 1.1 Schätzer und Konfidenzintervalle Gemerkte Zahlen 1.3 Zweistichprobenprobleme Levene- Statistik 1,214 df1 2 df2 26 Signifikanz, t-test für eine Stichprobe 1.4 Einfaktorielle ONEWAY ANOVA Gemerkte Zahlen Quadratsumme df Zwischen den Gruppen Innerhalb der Gruppen Gesamt 29,187 93, , Mittel der Quadrate 14,594 3,599 F 4,055 Signifikanz, / 374

96 multiple Regression 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 96 / 374

97 2.1 Korrelation 2.2 Lineare Regression 2.1 Korrelation 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 97 / 374

98 2.1 Beispiel: Arbeitsmotivation Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden zufällig ausgewählt und verschiedene Variablen gemessen. y: Motivation (Einschätzung durch Experten) x: Leistungsstreben (Fragebogen) Frage: Besteht ein Zusammenhang zwischen der Variablen Motivation und der Variablen Leistungsstreben Beachte: Es werden auch noch weitere Variablen gemessen (Ehrgeiz, Kreativität, Hierarchie, Lohn, Arbeitsbedingungen, Lernpotential, Vielfalt, Anspruch) 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 98 / 374

99 Daten x y x y x y Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 99 / 374

100 2.2 Der Korrelationskoeffizient von Pearson Daten (x 1, y 1 ),..., (x n, y n ) Maß für die (lineare) Abhängigkeit zwischen x und y: Korrelationskoeffizient von Pearson n r = r X,Y = s2 x,y i=1 = (x i x )(y i y ) s x,x s n y,y i=1 (x i x ) 2 n i=1 (y i y ) 2 Dabei ist: x = 1 n xi : Mittelwert der Daten xi n i=1 y = 1 n yi : Mittelwert der Daten yi n i=1 s 2 x,x = 1 n n i=1 (xi x )2 : Varianz der Daten x i 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation s 2 y,y = 1 n n i=1 (yi y )2 : Varianz der Daten y i s 2 x,y = 1 n n i=1 (xi x )(yi y ) : Kovarianz zwischen den Daten x i, y i 100 / 374

101 2.3 Eigenschaften des Korrelationskoeffizienten (1) 1 r 1 (2) r = 1 genau dann, wenn ein exakter linearer Zusammenhang y i = b 0 + b 1 x i mit b 1 > 0 besteht (ohne Störgrößen). (3) r = 1 genau dann, wenn ein exakter linearer Zusammenhang y i = b 0 + b 1 x i mit b 1 < 0 besteht (ohne Störgrößen). (4) Der Korrelationskoeffizient ist invariant bzgl. linearer Transformationen, d. h. } x i = a 0 + a 1 x i i = 1,..., n r ỹ i = c 0 + c 1 y i i = 1,..., n X,Ỹ = r X,Y 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation (5) Der Korrelationskoeffizient von Pearson ist ein deskriptives Maß für den linearen Zusammenhang in der Stichprobe (x 1, y 1 ),..., (x n, y n ) 101 / 374

102 2.4 Beispiel: Korrelationskoeffizient für die Daten aus Beispiel 2.1 Variablen x: Leistungsstreben y: Motivation Korrelationskoeffizient von Pearson r = Fragen: Wie genau ist diese Schätzung? Ist die Korrelation von 0 verschieden (Unkorreliertheit zwischen den Merkmalen Leistungsstreben und Motivation)? 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 102 / 374

103 2.5 Signifikanztest für Korrelation (x 1, y 1 ),..., (x n, y n ) ist eine Stichprobe (unabhängige Beobachtungen) aus einer (bivariat) normalverteilten Grundgesamtheit ρ bezeichne die Korrelation des Merkmals X mit dem Merkmal Y einer Population; fünfter Modellparameter neben µ x, µ y, σ 2 x und σ 2 y. Ein Test zum Niveau α für die Hypothese die Merkmale sind unkorreliert H 0 : ρ = 0 lehnt die Nullhypothese zu Gunsten der Alternative H 1 : ρ 0 ab, falls n 2r 1 r 2 > t n 2,1 α Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation gilt. 103 / 374

104 2.6(a) Beispiel: Arbeitsmotivation (Fortsetzung von Beispiel 2.1) n = 25; r = ; t 23,0.975 = n 2 r 1 r 2 = > Die Nullhypothese H 0 : ρ = 0 (keine Korrelation zwischen den Merkmalen) wird zum Niveau 5% verworfen. 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation p-wert: / 374

105 SPSS Output für Korrelationskoeffizient Motivation Leistungsstreben Korrelation nach Pearson Signifikanz (2-seitig) N Korrelation nach Pearson Signifikanz (2-seitig) N Motivation Korrelationen 1,000,004 **. Die Korrelation ist auf dem Niveau von 0,01 (2-seitig) signifikant. 25 Leistungsstreben,559 **, ,559 ** 1, Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 105 / 374

106 2.7 Konfidenzintervall für Korrelation ρ: Korrelation zwischen Merkmal x und Merkmal y einer Population (x 1, y 1 ),..., (x n, y n ): Stichprobe (unabhängige Beobachtungen) aus einer (bivariat) normalverteilten Grundgesamtheit Mathematische Statistik: r ist näherungsweise (d. h. bei großem Stichprobenumfang) normalverteilt mit Erwartungswert ρ und Varianz γ 2 = Var(r) (1 ρ2 ) 2 (1 α)-konfidenzintervall für den Korrelationskoeffizienten ( r ˆγz1 α, r + ˆγz ) 2 1 α 2 n 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Hier bezeichnet ˆγ = (1 r 2 ) n einen Schätzer für die Standardabweichung von r und z 1 α das (1 α 2 2 ) Quantil der Standardnormalverteilung (Tabelle, Software) 106 / 374

107 2.6(b) Beispiel: Arbeitsmotivation (Fortsetzung von Beispiel 2.1) n = 25; r = z 0.95 = , ˆγ = % Konfidenzintervall für den Korrelationskoeffizient [0.2739, ] 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 107 / 374

108 2.8 Hinweise zur Interpretation von Korrelationen Annahme: Man hat eine signifikante Korrelation zwischen den Variablen x und y gefunden Folgende Interpretationen sind möglich (1) x beeinflusst y kausal (2) y beeinflusst x kausal (3) x und y werden von weiteren Variablen kausal beeinflusst (4) x und y beeinflussen sich wechselseitig kausal Die Korrelation zwischen zwei Variablen ist eine notwendige aber keine hinreichende Voraussetzung für einen kausalen Zusammenhang Der Korrelationskoeffizient gibt keine Information, welche der vier Interpretationen zutrifft (in vielen Fällen wird das der Typ (3) sein) Korrelationen sollten ohne Zusatzinformation nicht interpretiert werden! 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 108 / 374

109 Beispiel Annahme: Man hat eine signifikante Korrelation zwischen den Merkmalen Ehrlichkeit und Häufigkeit des Kirchgangs gefunden Folgende Interpretationen sind möglich Die in der Kirche vermittelten Werte haben einen positiven Einfluss auf das Merkmal Ehrlichkeit. Ehrliche Menschen fühlen sich durch die in der Kirche vermittelten Inhalte eher angesprochen und gehen aus diesem Grund häufiger zur Kirche. Die allgemeine familiäre und außerfamiliäre Sozialisation beeinflusst beide Merkmale. 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 109 / 374

110 2.1 Korrelation 2.2 Lineare Regression 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 110 / 374

111 2.9 Beispiel: Fortsetzung von Beispiel 2.1 Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden zufällig ausgewählt und verschiedene Variablen gemessen. y: Motivation (Einschätzung durch Experten) x: Leistungsstreben (Fragebogen) Kann man y aus x vorhersagen? 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 111 / 374

112 Streudiagramm für die Daten aus Beispiel Korrelation 2.2 Lineare Regression Motivation Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Leistungsstreben 112 / 374

113 2.9 Beispiel: Fortsetzung von Beispiel 2.1 Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden zufällig ausgewählt und verschiedene Variablen gemessen. y: Motivation (Einschätzung durch Experten) x: Leistungsstreben (Fragebogen) Frage: Besteht ein funktionaler Zusammenhang zwischen der Variablen Motivation und der Prädiktorvariablen Leistungsstreben (Kann man y aus x vorhersagen?) Genauer: Gesucht ist Funktion f, die aus der Prädiktorvariablen Leistungsstreben (x) eine Vorhersage für die abhängige Variable (y) Motivation liefert: Motivation = f(leistungsbereitschaft) 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Beachte: Es werden auch noch weitere Variablen gemessen (Ehrgeiz, Kreativität, Hierarchie, Lohn, Arbeitsbedingungen, Lernpotential, Vielfalt, Anspruch) 113 / 374

114 Regression Ausgangslage: Von Interesse ist der Zusammenhang zwischen verschiedenen Variablen. Im einfachsten Fall betrachtet man, wie im Beispiel der Arbeitsmotivation, den Zusammenhang zwischen zwei Variablen. Daten: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ) Annahme: Es existiert ein kausaler Zusammenhang der Form y = f (x) zwischen der abhängigen Variablen y und der Prädiktorvariablen x. Weitere Annahme: Die Funktion f hat eine bestimmte Form. Beispiele: Lineare Regression (der Zusammenhang ist also durch eine Gerade beschreibbar): y = b 0 + b 1x Quadratische Regression (der Zusammenhang ist also durch eine Parabel beschreibbar): y = b 0 + b 1x + b 2x 2 usw. Beachte: Der Zusammenhang ist in der Regel nicht exakt zu beobachten. Mathematisches Modell Y = b 0 + b 1 x + ε 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Dabei bezeichnet ε eine zufällige Störgröße. Diese Modell bezeichnet man als Lineare Regression. 114 / 374

115 2.10 Das Modell der linearen Regression Daten (x 1, y 1 ),..., (x n, y n ) y i ist Realisation einer Zufallsvariablen Y i (unter der Bedingung x i ). Für den Zusammenhang zwischen den Variablen Y i und x i gilt: Y i = b 0 + b 1 x i + ε i i = 1,..., n ε i bezeichnet hier eine zufällige Störung und es wird angenommen, dass die Störungen unabhängig und normalverteilt sind mit Erwartungswert 0 und Varianz σ 2 > Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Deutung: Es wird ein linearer Zusammenhang zwischen x und y postuliert, der noch zufälligen Störungen unterliegt. 115 / 374

116 Idee der Schätzung bei (linearer) Regression Daten (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ) Annahme: Es existiert ein linearer Zusammenhang Y = b 0 + b 1 x + ε Gesucht: Diejenige Gerade, die den Zusammenhang zwischen Y und x am besten beschreibt. Idee: Bestimme die Gerade so, dass die Summe der quadratischen (vertikalen) Abstände zwischen den y-koordinaten der Datenpunkte und den entsprechenden Punkten auf der geschätzten Geraden minimal wird Methode der kleinsten Quadrate 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 116 / 374

117 y y Beispiel: Verschiedene Geraden mit senkrechten Abständen zu den Daten 2.1 Korrelation y=0.2x y=0.5x Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation x x 117 / 374

118 Beispiel: Verschiedene Geraden mit senkrechten Abständen zu den Daten: die Lösung durch die Methode der kleinsten Quadrate 2.1 Korrelation y y=0.292x Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation x 118 / 374

119 2.11 Die Methode der kleinsten Quadrate Bestimme die Gerade so, dass die Summe der quadrierten senkrechten Abstände zwischen Gerade und Daten minimal wird Datum an der Stelle xi : y i Wert der Geraden an der Stelle xi : b 0 + b 1x i Differenz: yi (b 0 + b 1x i) Minimiere h(b 0, b 1 ) = n ( i=1 yi (b 0 + b 1 x i ) ) 2 bzgl. der Wahl der Parameter b 0 und b 1. Lösung dieses Extremwertproblems liefert Schätzer für Achsenabschnitt und Steigung der Geraden: 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation ˆb 1 = n i=1 (x i x )(y i y ) n i=1 (x i x ) 2, ˆb0 = y ˆb 1 x x = 1 n xi: Mittelwert der Prädiktorvariablen n i=1 y = 1 n yi: Mittelwert der abhängigen Variablen n i=1 119 / 374

120 Beispiel Arbeitsmotivation: Streudiagramm und Regressionsgerade für die Daten aus Beispiel 2.1 Motivation Leistungsstreben Schätzer: ˆb 0 = 13.82, ˆb 1 = 0.29 Fragen: R-Quadrat linear = 0, Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Wie genau sind diese Schätzungen? Besteht ein (signifikanter) Einfluss des Leistungsstrebens auf die Motivation H 0 : b 1 = 0 Wie gut beschreibt das lineare Regressionsmodell die Situation? 120 / 374

121 Die Genauigkeit der Schätzer für die Parameter Beachte: Vor der Datenerhebung sind ˆb 0 und ˆb 1 zufällig. Mathematische Statistik (allgemeines lineares Modell) liefert Schätzer für die Varianzen von ˆb 0 und ˆb 1 Schätzer für die Varianz von ˆb 0 : ŝ 2 b 0 Schätzer für die Varianz von ˆb 1 : ŝ 2 b 1 Dabei bezeichnet S 2 y x = 1 n 2 = S2 y x n = S2 y x n n i=1 x 2 i n i=1 (x i x ) 2 1 n n (y i (ˆb 0 + ˆb 1 x i )) 2. i=1 1 n i=1 (x i x ) Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation die Residualvarianz (Schätzer für die Varianz der Störgrößen) Je größer der Stichprobenumfang n, desto genauer sind die Schätzungen! 121 / 374

122 Fortsetzung von Beispiel 2.1: Schätzer für die Daten der Arbeitsmotivation Schätzer für die Parameter ˆb 0 = ˆb 1 = S 2 y x = Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression Schätzer für die Varianz von ˆb 0 und ˆb 1 ŝ 2 b 0 = ŝ 2 b 1 = Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Standardfehler von ˆb 0 und ˆb 1 ŝ b0 = = ŝ b1 = = / 374

123 SPSS Output: Schätzer und Standardabweichungen bei linearer Regression in Beispiel Korrelation 2.2 Lineare Regression Modell 1 (Konstante) Leistungsstreben a. Abhängige Variable: Motivation Koeffizienten a Standardisierte Nicht standardisierte Koeffizienten Koeffizienten B Standardfehler Beta T Signifikanz 13,816 2,125 6,501,000,292,090,559 3,235, Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 123 / 374

124 2.12 Konfidenzintervalle bei linearer Regression Modellannahme: lineare Regression Y i = b 0 + b 1 x i + ε i (i = 1,..., n) Rechtfertigung der Normalverteilungs- und Unabhängigkeitsannahme für ε 1,..., ε n Bestimmung der Schätzer ŝ 2 b 0 und ŝ 2 b 1 für die Varianzen von ˆb 0 und ˆb 1. Damit ist dann = (ˆb 0 t n 2,1 α 2 ŝb 0, ˆb 0 + t n 2,1 α 2 ŝb 0 ) ein (1 α)-konfidenzintervall für b 0 und = (ˆb 1 t n 2,1 α 2 ŝb 1, ˆb 1 + t n 2,1 α 2 ŝb 1 ) ein (1 α)-konfidenzintervall für b 1. Hier ist t n 2,1 α das (1 α 2 2 )-Quantil der t-verteilung mit n 2 Freiheitsgraden (tabelliert oder mit Software verfügbar) 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 124 / 374

125 2.13 Beispiel: Konfidenzbereiche im Beispiel 2.1 (Arbeitsmotivation) n = 25, t 23,0.975 = Für das Beispiel der Arbeitsmotivation (vgl. Beispiel 2.1) ergibt sich als 95% Konfidenzintervall für b 0 :[9.420, ] b 1 :[0.105, 0.479] Frage: Besteht ein (signifikanter) Einfluss der Prädiktorvariablen x auf die abhängige Variable Y? Mathematische Formulierung: H 0 : b 1 = Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 125 / 374

126 SPSS Output: Konfidenzintervalle bei linearer Regression in Beispiel 2.1 Modell 1 (Konstante) Leistungsstreben a. Abhängige Variable: Motivation Nicht standardisierte Koeffizienten Standardisierte Koeffizienten B Standardfehler Beta T Signifikanz 13,816 2,125 6,501,000,292,090 Koeffizienten a,559 3,235,004 95%-Konfidenzintervall für B Untergrenze Obergrenze 9,420 18,212,105, Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 126 / 374

127 2.14 F -Test für die Hypothese H 0 : b 1 = 0 Modellannahme: lineare Regression Y i = b 0 + b 1 x i + ε i (i = 1,..., n) Rechtfertigung der Normalverteilungs- und Unabhängigkeitsannahme für ε 1,..., ε n Hypothesen H 0 : b 1 = 0, H 1 : b 1 = 0 Die Nullhypothese H 0 : b 1 = 0 wird zu Gunsten der Alternative H 1 : b 1 0 verworfen, falls F n = S2 reg S 2 y x = n 2 n i=1 (y (ˆb 0 + ˆb 1 x i )) 2 n i=1 (y i (ˆb 0 + ˆb 1 x i )) 2 > F 1;n 2,1 α 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation gilt F 1;n 2,1 α bezeichnet das (1 α)-quantil der F -Verteilung mit (1, n 2) Freiheitsgraden 127 / 374

128 Motivation des F -Tests: Zerlegung der Varianz n (y i y ) 2 = i=1 } {{ } Gesamtvarianz Bezeichnungen: n (y i (ˆb 0 + ˆbx i )) 2 + i=1 } {{ } Residualvarianz S 2 reg = 1 1 n (y (ˆb 0 + ˆb 1 x i )) 2 i=1 n (y (ˆb 0 + ˆb 1 x i )) 2 i=1 } {{ } Varianz der Regression heißt Varianz der Regression (diese hat 1 Freiheitsgrad) und S 2 y x = 1 n 2 n (y i (ˆb 0 + ˆb 1 x i )) 2. i=1 ist die Residualvarianz (diese hat n 2 Freiheitsgrade). Andere Interpretationen: - Schätzung für die Varianz der Größen ε i - durch das lineare Regressionsmodell nicht erklärbare Varianz 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 128 / 374

129 Motivation des F -Tests: Zerlegung der Varianz n (y i y ) 2 = i=1 } {{ } Gesamtvarianz Beachte: n (y i (ˆb 0 + ˆbx i )) 2 + i=1 } {{ } Residualvarianz = (n 2) S 2 y x + S2 reg n (y (ˆb 0 + ˆb 1 x i )) 2 i=1 } {{ } Varianz der Regression Bei dem F -Test für die Hypothese H 0 : b 1 = 0 bildet man den Quotienten aus der Varianz der der Residualvarianz Man untersucht also das Verhältnis zwischen erklärbarer und nicht erklärbarer Varianz. 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 129 / 374

130 2.15 (ANOVA; analysis of variance) Art der Freiheits- Quadrat- F -Quotient Abweichung grade (df ) summe schätzer Regression 1 n i=1 (y ŷ i ) 2 F n = S 2 reg/s 2 y x 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte Fehler n 2 Total n 1 n i=1 (y i ŷ i ) 2 n i=1 (y i y ) Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Bezeichnung: ŷ i = ˆb 0 + ˆb 1 x i Vorhersage an der Stelle x i 130 / 374

131 SPSS Output: F -Test bei linearer Regression in Beispiel 2.1 Modell 1 Regression Residuen Gesamt Quadratsumme 238, , ,960 a. Einflußvariablen : (Konstante), Leistungsstreben b. Abhängige Variable: Motivation Beachte: F 25 = , F 1,23,0.95 = df Mittel der Quadrate 238,015 22,737 F 10,468 ANOVA b Signifikanz,004 a Da F 25 = > wird die Nullhypothese H 0 : b 1 = 0 zu Gunsten der Alternative H 1 : b 1 0 zum Niveau 5% verworfen (p-wert: 0.004) 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 131 / 374

132 Modellgüte: wie geeignet ist das Modell für die Beschreibung der Daten Maß für Modellanpassung: Residualvarianz (Summe der quadrierte Abstände von der Regressionsgerade): Beachte: S 2 y x S 2 y x = 1 n 2 n i=1 ( ) 2 y i (ˆb 0 + ˆb 1 x i ) ist ein Schätzer für die Varianz der Messfehler Je kleiner Sy x 2, desto besser ist das (lineare) Regressionsmodell Streuung der Daten ohne die Information, dass ein lineares Modell vorliegt: n (y i y ) 2 i=1 Man untersucht welchen Anteil der Streuung n i=1 (y i y ) 2 man durch das erklären kann. 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 132 / 374

133 Varianzzerlegung: ein extremes Beispiel y Abhängige Variable Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression Multikollinearität und Suppressionseffekte 2.5 Variablenselektion Nichtlineare Zusammenhänge Unabhängige Variable x 2.7 Partielle und Semipartielle Korrelation Beachte: Die Grafik zeigt eine extreme Situation. Die Streuung der Daten ist durch das lineare Regressionsmodell zu 100% erklärbar! n i=1 (y i y ) 2 = n i=1 (y (ˆb 0 + ˆb 1 x i )) 2 Residualvarianz (durch das lineare Regressionsmodell nicht erklärbare Varianz) = / 374

134 2.16 Beispiel: Arbeitsmotivation (Fortsetzung von Beispiel 2.1): 25 i=1 25 i=1 R 2 = (y i y ) 2 = (y (ˆb 0 + ˆb 1 x i )) 2 = i=1 (y (ˆb 0 + ˆb 1 x i )) 2 25 i=1 (y i y ) 2 = d. h. 31.3% der Varianz der Variablen Motivation können durch die Prädiktorvariable Leistungsstreben erklärt werden. 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 134 / 374

135 2.17 Modellgüte: das Bestimmtheitsmaß Die Größe n R 2 i=1 = 1 (y i (ˆb 0 + ˆb 1 x i )) 2 n i=1 n i=1 (y = (y (ˆb 0 + ˆb 1 x i )) 2 i y ) 2 n i=1 (y y i ) 2 ist ein Maß für die Güte der heißt Bestimmtheitsmaß. Beachte: Man kann zeigen, dass R 2 genau das Quadrat der Korrelation ist. Je besser das Modell ist, desto kleiner ist die Residualvarianz, bzw. desto größer R 2! Das Bestimmtheitsmaß R 2 liegt immer zwischen 0 und Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 135 / 374

136 Zusammenhang zwischen Bestimmtheitsmaß und F -Test Ist F n die Statistik für den F -Test aus 2.14 und R 2 das Bestimmtheitsmaß, dann gilt: R 2 = 1 n 2 F n n 2 F n In anderen Worten: die Statistik F n des F -Test aus 2.5 kann aus dem Bestimmtheitsmaß berechnet werden (und umgekehrt) Im Beispiel des Zusammenhangs zwischen Motivation und Leistungsstreben ist 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation F n = = R 2 = = Ca. 31.3% der Variation der Variablen Motivation können durch die Variable Leistungsstreben erklärt werden. 136 / 374

137 Vorhersagen: es gibt zwei unterschiedliche 2.18 Vorhersage für den Wert der Geraden an einer Stelle x Schätzung für den Wert der Geraden y(x) = b 0 + b 1 x an der Stelle x: ŷ(x) = ˆb 0 + ˆb 1 x (1 α)-konfidenzintervall für y(x) wobei (ŷ(x) t n 2; α 2 ŝ y(x), ŷ(x) + t n 2; α 2 ŝ y(x)) ŝ 2 y(x) = S2 y x ( 1 n + (x x ) 2 n i=1 (x i x ) 2 ) 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation den Schätzer für die Varianz von Ŷ (x) bezeichnet 137 / 374

138 Vorhersagen: es gibt zwei unterschiedliche 2.19 Vorhersage für eine neue Beobachtung an einer Stelle x Schätzer für eine neue Beobachtung Ỹ (x) = b 0 + b 1 x + ε an der Stelle x: ŷ(x) = ˆb 0 + ˆb 1 x (1 α)-konfidenzintervall für y(x) (ŷ(x) t n 2; α 2 s y(x), ŷ(x) + t n 2; α 2 s y(x)) 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge wobei s 2 y(x) = S2 y x (1 + 1 n + (x x ) 2 n i=1 (x i x ) 2 ) 2.7 Partielle und Semipartielle Korrelation den Schätzer für die Varianz von ŷ(x) + ε bezeichnet. Beachte: Diese Varianz wird bei wachsendem Stichprobenumfang nicht beliebig klein! 138 / 374

139 2.20 Beispiel: Fortsetzung von Beispiel 2.1 (1) Gesucht ist ein 90% Konfidenzintervall für den Wert der Geraden an der Stelle x = 16 t23,0.95 = 1.714, S 2 y x = , ŝ2 y(x) = 1.116, ŷ(16) = ˆb ˆb 1 = Das 90% Konfidenzintervall für den Wert der Geraden an der Stelle 16 ist gegeben durch [16.677, ] (2) Gesucht ist ein 90% Konfidenzintervall für eine neue Beobachtung der Stelle x = 16 t23,0.95 = 1.714, S 2 y x = , ŝ2 ỹ(x) = 23.85, ŷ(16) = ˆb ˆb 1 = Das 90% Konfidenzintervall für eine neue Beobachtung an der Stelle 16 ist gegeben durch 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation [10.118, ] 139 / 374

140 SPSS Output: Vorhersagen bei linearer Regression in Beispiel 2.1 (schwierig) 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 140 / 374

141 SPSS Output: Konfidenzintervalle für Vorhersagen bei linearer Regression in Beispiel Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion Motivation Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Leistungsstreben 141 / 374

142 2.21 Residuenanalyse Unter der Modellannahme des linearen Regressionsmodells gilt: die Größen ε i = Y i b 0 b 1 x i sind unabhängig und normalverteilt mit Erwartungswert 0 und Varianz σ 2 > 0. Das bedeutet, dass diese Eigenschaften auch näherungsweise für die Residuen ˆε i = y i ˆb 0 ˆb 1 x i erfüllt sein sollte, falls die Modellannahme zutrifft. Residuenanalyse ist ein deskriptives Verfahren für die Überprüfung der Annahmen an ε 1,..., ε n mit 4 Teilschritten (oft werden auch nicht alle gemacht): A: Das Streudiagramm der Daten mit der Regressionslinie B: Ein Streudiagramm der Residuen gegen die vorhergesagten Werte C: Normalverteilungs-QQ-Plot der Residuen D: Histogramm der Residuen mit angepasster Normalverteilungsdichte 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 142 / 374

143 Residuenanalyse bei erfüllten Voraussetzungen Abhängige Variable Empirische Quantile A Unabhängige Variable C Residuum f(residuum) B Vorhergesagter Wert D Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Theoretische Quantile der Standardnormalvert Residuum 143 / 374

144 Residuenanalyse bei Abweichungen von der Normalverteilung (Ausreißer) Abhängige Variable Empirische Quantile A Unabhängige Variable C Theoretische Quantile der Standardnormalvert. Residuum f(residuum) B Vorhergesagter Wert D Residuum 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 144 / 374

145 Residuenanalyse bei Stratifizierung Beachte: verschiedene Untergruppen (Strata) können ebenfalls zu Abweichungen von den Modellannahmen führen. Für die Strata können dann unterschiedliche Regressionsgleichungen gelten. Abhängige Variable Empirische Quantile A Unabhängige Variable C Residuum f(residuum) B Vorhergesagter Wert D 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Theoretische Quantile der Standardnormalvert Residuum 145 / 374

146 Residuenanalyse bei falscher Modellannahme Abhängige Variable Empirische Quantile A Unabhängige Variable C Theoretische Quantile der Standardnormalvert. Residuum f(residuum) B Vorhergesagter Wert D Residuum 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Statt des linearen Modells wäre ein Polynom 3. Grades die bessere Annahme für die Beschreibung des funktionalen Zusammenhangs! 146 / 374

147 Residuenanalyse bei ungleichen Varianzen (Heteroskedastizität) Abhängige Variable Empirische Quantile A Unabhängige Variable C Theoretische Quantile der Standardnormalvert. Residuum f(residuum) B Vorhergesagter Wert D Residuum 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 147 / 374

148 SPSS Output: Residuenanalyse in Beispiel Korrelation 2.2 Lineare Regression Motivation Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 10 R-Quadrat linear = 0, Leistungsstreben Streudiagramm und geschätzte Regressionsgerade im Beispiel der Arbeitsmotivation 148 / 374

149 SPSS Output: Residuenanalyse in Beispiel 2.1 3, ,00000 Standardized Residual 1,00000, , Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation -2, , ,00000, , ,00000 Standardized Predicted Value Streudiagramm der Residuen gegen die vorhergesagten Werte im Beispiel der Arbeitsmotivation 149 / 374

150 SPSS Output für Residuenanalyse 2 Q-Q-Diagramm von Normal von Standardized Residual Erwarteter Wert von Normal Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Beobachteter Wert QQ-Plot im Beispiel der Arbeitsmotivation 150 / 374

151 Korrelation und lineare Regression Es besteht ein enger Zusammenhang zwischen linearer Regression und Korrelation Ist ˆb 1 die Schätzung im linearen Regressionsmodell und r der Korrelationskoeffizient von Pearson, dann gilt: n i=1 r = (x i x ) 2 n i=1 (y i y ˆb ) 2 1 Ist R 2 das Bestimmtheitsmaß und r der Korrelationskoeffizient von Pearson, dann gilt: r 2 = R Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 151 / 374

152 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 152 / 374

153 2.22 Beispiel: Arbeitsmotivation mit mehreren Prädiktoren y: Motivation (Einschätzung der Arbeitsmotivation durch Experten) Prädiktoren: Eigenschaften x 1 : Ehrgeiz (Fragebogen) x 2 : Kreativität (Fragebogen) x 3 : Leistungsstreben (Fragebogen) Prädiktoren: Rahmenbedingungen x 4 : Hierarchie (Position in der Hierarchie des Unternehmens) x 5 : Lohn (Bruttolohn pro Monat) x 6 : Arbeitsbedingungen (Zeitsouveränität, Kommunikationsstruktur usw.) 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Prädiktoren: Inhalte der Tätigkeit x 7 : Lernpotential (Lernpotential der Tätigkeit) x 8 : Vielfalt (Vielfalt an Teiltätigkeiten) x 9 : Anspruch (Komplexität der Tätigkeit) 153 / 374

154 Daten i y x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 154 / 374

155 Daten i y x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 155 / 374

156 2.23 Das Modell der multiplen linearen Regression Daten (x 1, y 1 ),..., (x n, y n ) Es gibt k unabhängige Variablen: x i = (x 1i,..., x ki ) y i ist Realisation einer Zufallsvariablen Y i (unter der Bedingung x i ). Für den Zusammenhang zwischen der Variablen Y i und dem Vektor x i gilt (im Beispiel ist k = 9): Y i = b 0 + b 1 x 1i + b 2 x 2i b k x ki + ε i k = b 0 + b j x ji + ε i. j=1 ε i bezeichnet hier eine zufällige Störung und es wird angenommen, dass die Störungen ε 1,..., ε n unabhängig und normalverteilt sind mit Erwartungswert 0 und Varianz σ 2 > 0. Deutung: Es wird ein linearer Zusammenhang zwischen x und Y postuliert, der noch zufälligen Störungen unterliegt. 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 156 / 374

157 2.24 Schätzung bei multipler linearer Regression Methode der kleinsten Quadrate: Minimiere n (y i b 0 b 1 x 1i... b k x ki ) 2 i=1 bzgl. der Wahl von b 0,..., b k Mathematische Statistik (allgemeines lineares Modell) liefert Schätzer ˆb 0, ˆb 1,..., ˆb k für die Parameter b 0,..., b k (Formeln sind kompliziert) Schätzer für die Varianz der Messfehler 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation S 2 y x = 1 n k 1 n (y i ˆb 0 ˆb 1 x 1i... ˆb k x ki ) 2 i=1 157 / 374

158 Streudiagramm bei multipler linearer Regression (k = 2) Regressionsfläche: ŷ(x) = x x 2. Y Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation X 1 X / 374

159 Fortsetzung von Beispiel 2.22: Schätzer im multiplen linearen Regressionsmodell Ergebnisse für die Schätzer im multiplen linearen Regressionsmodell ˆb 0 = ˆb1 = ˆb 2 = ˆb3 = ˆb 4 = ˆb 5 = ˆb 6 = ˆb 7 = ˆb 8 = ˆb9 = Fragen: Wie genau sind diese Schätzungen? Besteht ein (signifikanter) Einfluss der unabhängigen Merkmale auf die Motivation H 0 : b 1 = 0 H 0 : b 2 = 0 Wie gut beschreibt das multiple lineare Regressionsmodell die Situation?. 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 159 / 374

160 Genauigkeit der Schätzung bei multipler linearer Regression Schätzer ŝ b0,..., ŝ bk für die Standardfehler von ˆb 0,..., ˆb k sind verfügbar (Allgemeines lineares Modell Formeln kompliziert) Anmerkung: Für wachsenden Stichprobenumfang konvergieren die Schätzer ŝ bj gegen 0 je größer der Stichprobenumfang, desto genauer die Schätzungen Damit erhält man Konfidenzintervalle für b 0,..., b k, z. B. (ˆb 0 t n k 1,1 α 2 ŝ b0, ˆb 0 + t n k 1,1 α 2 ŝ b0 ) 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation ist (1 α)-konfidenzintervall für b / 374

161 Fortsetzung von Beispiel 2.22: Schätzer für den Standardfehler der Schätzer im multiplen linearen Regressionsmodell Ergebnisse für den Standardfehler der Schätzer im multiplen linearen Regressionsmodell Wegen t 15,0.975 = ist ŝ b0 = ŝ b1 = ŝ b2 = ŝ b3 = ŝ b4 = ŝ b5 = ŝ b6 = ŝ b7 = ŝ b8 = ŝ b9 = Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation [ 0.089, 0.188] ein 95%-Konfidenzintervall für den Parameter b 3. Man beachte: ) n = 25; k = 9 n k 1 = / 374

162 2.25 Konfidenzintervalle für multiple lineare Regression Modellannahme: multiple lineare Regression Y i = b 0 + k b j x ji + ε i (i = 1,..., n) j=1 Rechtfertigung der Normalverteilungs- und Unabhängigkeitsannahme Schätzer ŝ bj für den Standardfehler von ˆb j = (ˆb j t n k 1,1 α 2 ŝb j, ˆb j + t n k 1,1 α 2 ŝb j ) ist ein (1 α)-konfidenzintervall für b j (j = 0,..., k) ; (1 α 2 2 )-Quantil der t-verteilung mit n k 1 Freiheitsgraden (Tabelle oder Software) t n k 1,1 α Anmerkung: Für wachsenden Stichprobenumfang konvergieren die Schätzer ŝ bj gegen 0 je größer der Stichprobenumfang, desto kleiner die Konfidenzintervalle 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 162 / 374

163 2.26 Beispiel: Konfidenzintervalle für die Parameter in Beispiel 2.22 (Arbeitsmotivation) ˆb j Merkmal Schätzung ŝ bj Konfidenzintervall ˆb [ , 6.926] ˆb 1 Ehrgeiz [0.020, 0.365] ˆb 2 Kreativität [0.049, 0.258] ˆb 3 Leistungsstreben [-0.089, 0.188] ˆb 4 Hierarchie [-0.069, 0.561] ˆb 5 Lohn [-0.004, 0.002] ˆb 6 Arbeitsbdg [-0.147, 0.085] ˆb 7 Lernpotential [-0.044, 0.373] ˆb 8 Vielfalt [0.095, 0.316] ˆb 9 Anspruch [-0.070, 0.177] 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 163 / 374

164 SPSS Output: Schätzer, Standardabweichung und Konfidenzintervalle im Beispiel 2.22 (Arbeitsmotivation mit mehreren Prädiktoren) Koeffizienten a 2.1 Korrelation Modell 1 (Konstante) x1 x2 x3 x4 x5 x6 x7 x8 x9 a. Abhängige Variable: Y Nicht standardisierte Koeffizienten B -3,842,193,153,049,246,000 -,031,165,206,053 Standard fehler 5,052,081,049,065,148,001,054,098,052,058 Standardisierte Koeffizienten Beta,337,234,095,235 -,077 -,045,199,354,124 T -,760 2,381 3,127,761 1,664 -,589 -,576 1,683 3,973,920 Signifi kanz,459,031,007,458,117,564,573,113,001,372 95%-Konfidenzintervall für B Untergrenze -14,609,020,049 -,089 -,069 -,004 -,147 -,044,095 -,070 Obergrenze 6,926,365,258,188,561,002,085,373,316, Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 164 / 374

165 2.27 Vorhersage der multiplen linearen Regression Modellannahme: multiple lineare Regression Y i = b 0 + k b j x ji + ε i (i = 1,..., n) j=1 Rechtfertigung der Normalverteilungs- und Unabhängigkeitsannahme Vorhersage für den Wert der multiplen Regression an der Stelle x = (x 1,..., x k ) (im Beispiel ist k = 9) ŷ(x) = ˆb 0 + k j=1 ˆb j x j In Beispiel 2.22 ergibt sich z. B. als Vorhersage der multiplen linearen Regression an der Stelle 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation x 1 = 21, x 2 = 30, x 3 = 15, x 4 = 11, x 5 = 2900, x 6 = 41, x 7 = 25, x 8 = 55, x 9 = 54 der Wert ŷ(x) = / 374

166 Vorhersage der multiplen linearen Regression Beachte: Wie in Abschnitt 2.18 und 2.19 gibt es zwei Vorhersagen: Vorhersage für den Wert der multiplen Regression an der Stelle x = (x 1,..., x k ) (im Beispiel ist k = 9) Vorhersage für den Wert einer neuen Beobachtung an der Stelle x = (x 1,..., x k ) (im Beispiel ist k = 9) Für beide Vorhersagen kann man den Standardfehler bestimmen (Formeln kompliziert) und Konfidenzbereiche angeben (vgl. Abschnitt 2.18 und 2.19 für den Fall k = 1 ) 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation 166 / 374

167 SPSS Output: Vorhersage bei der multiplen linearen Regression (schwierig) 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Beispiel: Schätzung für den Wert der Ebene an der Stelle x = (18, 23, 13, 11, 2800, 42, 18, 31, 43) : Schätzung für eine weitere Beobachtung an der Stelle x = (18, 23, 13, 11, 2800, 42, 18, 31, 43) : / 374

168 SPSS Output: Konfidenzintervalle für Vorhersagen bei multipler linearer Regression 2.1 Korrelation 2.2 Lineare Regression 2.3 Multiple lineare Regression 2.4 Multikollinearität und Suppressionseffekte 2.5 Variablenselektion 2.6 Nichtlineare Zusammenhänge 2.7 Partielle und Semipartielle Korrelation Konfidenzintervall für den Wert der Ebene an der Stelle x = (18, 23, 13, 11, 2800, 42, 18, 31, 43) : [12.399, ] Konfidenzintervall für eine weitere Beobachtung an der Stelle x = (18, 23, 13, 11, 2800, 42, 18, 31, 43) : [9.870, ] 168 / 374

7. Mai 2010. Ruhr-Universität Bochum. Methodenlehre II, SS 2009. Prof. Dr. Holger Dette

7. Mai 2010. Ruhr-Universität Bochum. Methodenlehre II, SS 2009. Prof. Dr. Holger Dette Ruhr-Universität Bochum 7. Mai 2010 1 / 95 Methodenlehre II NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag, 8.30-10.00

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 9. Dezember 2010 1 Konfidenzintervalle Idee Schätzung eines Konfidenzintervalls mit der 3-sigma-Regel Grundlagen

Mehr

Jost Reinecke. 7. Juni 2005

Jost Reinecke. 7. Juni 2005 Universität Bielefeld 7. Juni 2005 Testtheorie Test für unabhängige Stichproben Test für abhängige Stichproben Testtheorie Die Testtheorie beinhaltet eine Reihe von Testverfahren, die sich mit der Überprüfung

Mehr

SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben

SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben ÜBERSICHT: Testverfahren bei abhängigen (verbundenen) Stichproben parametrisch nicht-parametrisch 2 Gruppen t-test bei verbundenen

Mehr

Aufgabenblock 4. Da Körpergröße normalverteilt ist, erhalten wir aus der Tabelle der t-verteilung bei df = 19 und α = 0.05 den Wert t 19,97.

Aufgabenblock 4. Da Körpergröße normalverteilt ist, erhalten wir aus der Tabelle der t-verteilung bei df = 19 und α = 0.05 den Wert t 19,97. Aufgabenblock 4 Aufgabe ) Da s = 8. cm nur eine Schätzung für die Streuung der Population ist, müssen wir den geschätzten Standardfehler verwenden. Dieser berechnet sich als n s s 8. ˆ = = =.88. ( n )

Mehr

Wiederholung Hypothesentests Zusammenfassung. Hypothesentests. Statistik I. Sommersemester Statistik I Hypothesentests I (1/36)

Wiederholung Hypothesentests Zusammenfassung. Hypothesentests. Statistik I. Sommersemester Statistik I Hypothesentests I (1/36) Statistik I Sommersemester 2009 Statistik I I (1/36) Wiederholung Grenzwertsatz Konfidenzintervalle Logik des 0.0 0.1 0.2 0.3 0.4 4 2 0 2 4 Statistik I I (2/36) Zum Nachlesen Agresti/Finlay: Kapitel 6+7

Mehr

Lösungen zu den Übungsaufgaben in Kapitel 10

Lösungen zu den Übungsaufgaben in Kapitel 10 Lösungen zu den Übungsaufgaben in Kapitel 10 (1) In einer Stichprobe mit n = 10 Personen werden für X folgende Werte beobachtet: {9; 96; 96; 106; 11; 114; 114; 118; 13; 14}. Sie gehen davon aus, dass Mittelwert

Mehr

2. Korrelation, lineare Regression und multiple Regression

2. Korrelation, lineare Regression und multiple Regression multiple 2.2 Lineare 2.2 Lineare 1 / 130 2.2 Lineare 2 / 130 2.1 Beispiel: Arbeitsmotivation Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden durch Arbeitsplatz zufällig

Mehr

Hypothesenprüfung. Darüber hinaus existieren zahlreiche andere Testverfahren, die alle auf der gleichen Logik basieren

Hypothesenprüfung. Darüber hinaus existieren zahlreiche andere Testverfahren, die alle auf der gleichen Logik basieren Hypothesenprüfung Teil der Inferenzstatistik Befaßt sich mit der Frage, wie Hypothesen über eine (in der Regel unbekannte) Grundgesamtheit an einer Stichprobe überprüft werden können Behandelt werden drei

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Statistik & Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte

Mehr

Übungsaufgaben zu Statistik II

Übungsaufgaben zu Statistik II Übungsaufgaben zu Statistik II Prof. Dr. Irene Prof. Dr. Albrecht Ungerer Die Kapitel beziehen sich auf das Buch: /Ungerer (2016): Statistik für Wirtschaftswissenschaftler Springer Gabler 4 Übungsaufgaben

Mehr

Hypothesentests mit SPSS. Beispiel für einen t-test

Hypothesentests mit SPSS. Beispiel für einen t-test Beispiel für einen t-test Daten: museum-f-v04.sav Hypothese: Als Gründe, in ein Museum zu gehen, geben mehr Frauen als Männer die Erweiterung der Bildung für Kinder an. Dies hängt mit der Geschlechtsrolle

Mehr

Chi-Quadrat Verfahren

Chi-Quadrat Verfahren Chi-Quadrat Verfahren Chi-Quadrat Verfahren werden bei nominalskalierten Daten verwendet. Die einzige Information, die wir bei Nominalskalenniveau zur Verfügung haben, sind Häufigkeiten. Die Quintessenz

Mehr

SPSS III Mittelwerte vergleichen

SPSS III Mittelwerte vergleichen SPSS III Mittelwerte vergleichen A Zwei Gruppen ------------ Zwei-Stichproben t-test Beispieldatei: Seegräser Fragestellung: Unterscheidet sich die Anzahl der Seegräser in Gebieten mit und ohne Seeigelvorkommen

Mehr

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne

Mehr

8. Konfidenzintervalle und Hypothesentests

8. Konfidenzintervalle und Hypothesentests 8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Mittelwertvergleiche Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

Kapitel 5: Einfaktorielle Varianzanalyse

Kapitel 5: Einfaktorielle Varianzanalyse Kapitel 5: Einfaktorielle Varianzanalyse Durchführung einer einfaktoriellen Varianzanalyse ohne Messwiederholung Dieser Abschnitt zeigt die Durchführung der in Kapitel 5 vorgestellten einfaktoriellen Varianzanalyse

Mehr

11 Tests zur Überprüfung von Mittelwertsunterschieden

11 Tests zur Überprüfung von Mittelwertsunterschieden 11 Tests zur Überprüfung von Mittelwertsunterschieden 11.1 Der z Test (t Test) für verbundene Stichproben 11.2 Der z Test (t Test) für unabhängige Stichproben 11.3 Fehler 1. Art und 2. Art 11.4 Typische

Mehr

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Inhaltsverzeichnis. Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden

Inhaltsverzeichnis. Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden Inhaltsverzeichnis Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden 1 Statistik ist Spaß 3 Warum Statistik? 3 Checkpoints 4 Daten 4 Checkpoints 7 Skalen - lebenslang wichtig bei der Datenanalyse

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

Prüfgröße: Ist die durch eine Schätzfunktion zugeordnete reelle Zahl (etwa Mittelwert 7 C).

Prüfgröße: Ist die durch eine Schätzfunktion zugeordnete reelle Zahl (etwa Mittelwert 7 C). Statistik Grundlagen Charakterisierung von Verteilungen Einführung Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsverteilungen Schätzen und Testen Korrelation Regression Einführung Aus praktischen Gründen

Mehr

Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1

Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1 Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1 Aufgabe 1 (10 Punkte). 10 Schüler der zehnten Klasse unterziehen sich zur Vorbereitung auf die Abschlussprüfung einem Mathematiktrainingsprogramm.

Mehr

Klausur Statistik I. Dr. Andreas Voß Wintersemester 2005/06

Klausur Statistik I. Dr. Andreas Voß Wintersemester 2005/06 Klausur Statistik I Dr. Andreas Voß Wintersemester 2005/06 Hiermit versichere ich, dass ich an der Universität Freiburg mit dem Hauptfach Psychologie eingeschrieben bin. Name: Mat.Nr.: Unterschrift: Bearbeitungshinweise:

Mehr

Statistik II. Statistische Tests. Statistik II

Statistik II. Statistische Tests. Statistik II Statistik II Statistische Tests Statistik II - 12.5.2006 1 Test auf Anteilswert: Binomialtest Sei eine Stichprobe unabhängig, identisch verteilter ZV (i.i.d.). Teile diese Stichprobe in zwei Teilmengen

Mehr

Dipl.-Volksw. Markus Pullen Wintersemester 2012/13

Dipl.-Volksw. Markus Pullen Wintersemester 2012/13 Statistische Auswertungen mit R Universität Kassel, FB 07 Wirtschaftswissenschaften Dipl.-Volksw. Markus Pullen Wintersemester 2012/13 Beispiele 8. Sitzung Konfidenzintervalle, Hypothesentests > # Anwendungsbeispiel

Mehr

Beurteilende Statistik

Beurteilende Statistik Beurteilende Statistik Wahrscheinlichkeitsrechnung und Beurteilende Statistik was ist der Unterschied zwischen den beiden Bereichen? In der Wahrscheinlichkeitstheorie werden aus gegebenen Wahrscheinlichkeiten

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 19. Januar 2011 1 Nichtparametrische Tests Ordinalskalierte Daten 2 Test für ein Merkmal mit nur zwei Ausprägungen

Mehr

I. Deskriptive Statistik 1

I. Deskriptive Statistik 1 I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................

Mehr

Aussagen hierzu sind mit einer unvermeidbaren Unsicherheit behaftet, die statistisch über eine Irrtumswahrscheinlichkeit bewertet wird.

Aussagen hierzu sind mit einer unvermeidbaren Unsicherheit behaftet, die statistisch über eine Irrtumswahrscheinlichkeit bewertet wird. Stichprobenumfang Für die Fragestellung auf Gleichheit von ein oder zwei Stichproben wird auf Basis von Hypothesentests der notwendige Stichprobenumfang bestimmt. Deshalb werden zunächst die Grundlagen

Mehr

Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav

Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Hypothese: Die Beschäftigung mit Kunst ist vom Bildungsgrad abhängig. 1. Annahmen Messniveau: Modell: Die Skala zur Erfassung der

Mehr

Mögliche Fehler beim Testen

Mögliche Fehler beim Testen Mögliche Fehler beim Testen Fehler. Art (Irrtumswahrscheinlichkeit α), Zusammenfassung: Die Nullhypothese wird verworfen, obwohl sie zutrifft. Wir haben uns blamiert, weil wir etwas Wahres abgelehnt haben.

Mehr

Biostatistik Erne Einfuhrung fur Biowissenschaftler

Biostatistik Erne Einfuhrung fur Biowissenschaftler Matthias Rudolf Wiltrud Kuhlisch Biostatistik Erne Einfuhrung fur Biowissenschaftler PEARSON Studium Inhaltsverzeichnis Vorwort xi Kapitel 1 Einfiihrung 1 1.1 Biostatistik als Bestandteil biowissenschafllicher

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

Statistik. Jan Müller

Statistik. Jan Müller Statistik Jan Müller Skalenniveau Nominalskala: Diese Skala basiert auf einem Satz von qualitativen Attributen. Es existiert kein Kriterium, nach dem die Punkte einer nominal skalierten Variablen anzuordnen

Mehr

Grundlegende Eigenschaften von Punktschätzern

Grundlegende Eigenschaften von Punktschätzern Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur

Mehr

Statistik für SozialwissenschaftlerInnen II p.85

Statistik für SozialwissenschaftlerInnen II p.85 Schätzverfahren Statistik für SozialwissenschaftlerInnen II p.85 Schätzverfahren Ziel von Schätzverfahren: Ausgehend von Stichproben Aussagen über Populationskennwerte machen Kenntnis der Abweichung des

Mehr

Literatur: Glantz, S.A. (2002). Primer of Biostatistics. New York: McGraw-Hill.

Literatur: Glantz, S.A. (2002). Primer of Biostatistics. New York: McGraw-Hill. Statistik Literatur: Glantz, S.A. (2002). Primer of Biostatistics. New York: McGraw-Hill. Maxwell, S.E. & Delaney, H.D. (2000). Designing Experiments and Analyzing Data. Mahwah, NJ: Erlbaum. Das Grundproblem

Mehr

Varianzanalyse ANOVA

Varianzanalyse ANOVA Varianzanalyse ANOVA Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/23 Einfaktorielle Varianzanalyse (ANOVA) Bisher war man lediglich in der Lage, mit dem t-test einen Mittelwertsvergleich für

Mehr

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester 2009, Statistik mit SPSS

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester 2009, Statistik mit SPSS Sommersemester 2009, Statistik mit SPSS 26. August 2009 26. August 2009 Statistik Dozentin: mit Anja SPSS Mays 1 Bivariate Datenanalyse, Überblick bis Freitag heute heute Donnerstag Donnerstag Freitag

Mehr

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung

Mehr

Angewandte Statistik 3. Semester

Angewandte Statistik 3. Semester Angewandte Statistik 3. Semester Übung 5 Grundlagen der Statistik Übersicht Semester 1 Einführung ins SPSS Auswertung im SPSS anhand eines Beispieles Häufigkeitsauswertungen Grafiken Statistische Grundlagen

Mehr

1.3 Das Testen von Hypothesen am Beispiel des Einstichproben t-tests

1.3 Das Testen von Hypothesen am Beispiel des Einstichproben t-tests 1.3 Das Testen von Hypothesen am Beispiel des Einstichproben t-tests Statistische Tests dienen dem Testen von Vermutungen, so genannten Hypothesen, über Eigenschaften der Gesamtheit aller Daten ( Grundgesamtheit

Mehr

b) Bestimmen Sie die Varianz der beiden Schätzer. c) Ist ein oder sind beide Schätzer konsistent? Begründen Sie!

b) Bestimmen Sie die Varianz der beiden Schätzer. c) Ist ein oder sind beide Schätzer konsistent? Begründen Sie! Aufgabe 1 (3 + 3 + 2 Punkte) Ein Landwirt möchte das durchschnittliche Gewicht von einjährigen Ferkeln bestimmen lassen. Dies möchte er aus seinem diesjährigen Bestand an n Tieren schätzen. Er kann dies

Mehr

Aufgaben zu Kapitel 7:

Aufgaben zu Kapitel 7: Aufgaben zu Kapitel 7: Aufgabe 1: In einer Klinik sollen zwei verschiedene Therapiemethoden miteinander verglichen werden. Zur Messung des Therapieerfolges werden die vorhandenen Symptome einmal vor Beginn

Mehr

INFERENZSTATISTISCHE AUSSAGEN FÜR LAGEMAßE UND STREUUNGSMAßE. Inferenzstatistik für Lagemaße Inferenzstatistik für Streuungsmaße

INFERENZSTATISTISCHE AUSSAGEN FÜR LAGEMAßE UND STREUUNGSMAßE. Inferenzstatistik für Lagemaße Inferenzstatistik für Streuungsmaße DAS THEMA: INFERENZSTATISTIK III INFERENZSTATISTISCHE AUSSAGEN FÜR LAGEMAßE UND STREUUNGSMAßE Inferenzstatistik für Lagemaße Inferenzstatistik für Streuungsmaße Inferenzstatistik für Lagemaße Standardfehler

Mehr

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik Universität Karlsruhe (TH) Institut für Stochastik Dr. Bernhard Klar Dipl.-Math. oec. Volker Baumstark Name Vorname Matr.-Nr.: Scheinklausur Stochastik für Studierende des Lehramts und der Diplom-Pädagogik

Mehr

K8 Stetige Zufallsvariablen Theorie und Praxis

K8 Stetige Zufallsvariablen Theorie und Praxis K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R

Mehr

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- olafs@physik.uzh.ch 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und

Mehr

2.4 Hypothesentests Grundprinzipien statistischer Hypothesentests. Hypothese:

2.4 Hypothesentests Grundprinzipien statistischer Hypothesentests. Hypothese: 2.4.1 Grundprinzipien statistischer Hypothesentests Hypothese: Behauptung einer Tatsache, deren Überprüfung noch aussteht (Leutner in: Endruweit, Trommsdorff: Wörterbuch der Soziologie, 1989). Statistischer

Mehr

Zusammenhangsanalyse mit SPSS. Messung der Intensität und/oder der Richtung des Zusammenhangs zwischen 2 oder mehr Variablen

Zusammenhangsanalyse mit SPSS. Messung der Intensität und/oder der Richtung des Zusammenhangs zwischen 2 oder mehr Variablen - nominal, ordinal, metrisch In SPSS: - Einfache -> Mittelwerte vergleichen -> Einfaktorielle - Mehrfaktorielle -> Allgemeines lineares Modell -> Univariat In SPSS: -> Nichtparametrische Tests -> K unabhängige

Mehr

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Einfaktorielle Versuchspläne 27/40 Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Abweichung Einfach Differenz Helmert Wiederholt Vergleich Jede Gruppe mit Gesamtmittelwert

Mehr

KATA LOGO Mathematik Statistik Roadmap: Von der Hypothese zum p-wert

KATA LOGO Mathematik Statistik Roadmap: Von der Hypothese zum p-wert KATA LOGO Mathematik Statistik Roadmap: Von der Hypothese zum p-wert 0. Das eigentliche Forschungsziel ist: Beweis der eigenen Hypothese H 1 Dafür muss Nullhypothese H 0 falsifiziert werden können Achtung!

Mehr

Biomathematik für Mediziner, Klausur SS 2001 Seite 1

Biomathematik für Mediziner, Klausur SS 2001 Seite 1 Biomathematik für Mediziner, Klausur SS 2001 Seite 1 Aufgabe 1: Von den Patienten einer Klinik geben 70% an, Masern gehabt zu haben, und 60% erinnerten sich an eine Windpockeninfektion. An mindestens einer

Mehr

Test auf Varianzgleichheit (F-Test) (einseitiger Test!!)

Test auf Varianzgleichheit (F-Test) (einseitiger Test!!) T-Tests in Excel T-Tests in Excel Test auf Varianzgleichheit (F-Test) (einseitiger Test!!)! Annahmen:! Unabhängige Stichproben! Normalverteilte Grundgesamtheiten H0 : σx = σ y; H0 : σx > σ y Sx σ x F =

Mehr

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC Referenten: Linda Gräfe & Konstantin Falk 1 Agenda Schätzverfahren ML REML Beispiel in SPSS Modellbeurteilung Devianz AIC BIC

Mehr

Im Modell der Varianzanalyse (mit festen Effekten) ist das. aus dem Durchschnittsmesswert für y plus dem Effekt des.

Im Modell der Varianzanalyse (mit festen Effekten) ist das. aus dem Durchschnittsmesswert für y plus dem Effekt des. Einfatorielle Varianzanalyse Varianzanalyse untersucht den Einfluss verschiedener Bedingungen ( = nominalsalierte(r) Variable(r)) auf eine metrische Variable. Die Bedingungen heißen auch atoren und ihre

Mehr

2. Korrelation, lineare Regression und multiple Regression

2. Korrelation, lineare Regression und multiple Regression 2., Linear 2., lineare multiple 2., lineare 2.1 2.2 Lineare 2.1 2.2 Lineare 2.7 Partielle 2.7 Partielle 1 / 149 2., Linear 2., lineare 2.1 2.2 Lineare 2.1 2.7 Partielle 2 / 149 2.1 Beispiel: Arbeitsmotivation

Mehr

Kapitel 5: Einfaktorielle Varianzanalyse

Kapitel 5: Einfaktorielle Varianzanalyse Rasch, Friese, Hofmann & Naumann (006). Quantitative Methoden. Band (. Auflage). Heidelberg: Springer. Kapitel 5: Einfaktorielle Varianzanalyse Berechnen der Teststärke a priori bzw. Stichprobenumfangsplanung

Mehr

Biostatistik 7. Zweistichproben-t-Test, F-Test

Biostatistik 7. Zweistichproben-t-Test, F-Test Biostatistik 7. Zweistichproben-t-Test, F-Test Zweistichproben-t-Test Vergleich von zwei unabhängigen Stichproben Versuchssituation: dieselbe Variable wird bei zwei unabhängigen Stichproben geprüft Kontrollgruppe,

Mehr

Standardab er des. Testwert = 145.5 95% Konfidenzintervall. T df Sig. (2-seitig) Differenz Untere Obere -2.011 698.045-5.82-11.50 -.14.

Standardab er des. Testwert = 145.5 95% Konfidenzintervall. T df Sig. (2-seitig) Differenz Untere Obere -2.011 698.045-5.82-11.50 -.14. Aufgabe : einfacher T-Test Statistik bei einer Stichprobe Standardfehl Standardab er des Mittelwert weichung Mittelwertes 699 39.68 76.59 2.894 Test bei einer Sichprobe Testwert = 45.5 95% Konfidenzintervall

Mehr

Hypothesentest, ein einfacher Zugang mit Würfeln

Hypothesentest, ein einfacher Zugang mit Würfeln R. Brinkmann http://brinkmann-du.de Seite 4..4 ypothesentest, ein einfacher Zugang mit Würfeln Von einem Laplace- Würfel ist bekannt, dass bei einmaligem Wurf jede einzelne der Zahlen mit der Wahrscheinlichkeit

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

Prof. Dr. Christoph Kleinn Institut für Waldinventur und Waldwachstum Arbeitsbereich Waldinventur und Fernerkundung

Prof. Dr. Christoph Kleinn Institut für Waldinventur und Waldwachstum Arbeitsbereich Waldinventur und Fernerkundung Systematische Stichprobe Rel. große Gruppe von Stichprobenverfahren. Allgemeines Merkmal: es existiert ein festes, systematisches Muster bei der Auswahl. Wie passt das zur allgemeinen Forderung nach Randomisierung

Mehr

Signifikanztests zur Prüfung von Unterschieden in der zentralen Tendenz -Teil 1-

Signifikanztests zur Prüfung von Unterschieden in der zentralen Tendenz -Teil 1- SPSSinteraktiv Signifikanztests (Teil ) - - Signifikanztests zur Prüfung von Unterschieden in der zentralen Tendenz -Teil - t-test bei einer Stichprobe - SPSS-Output Der t-test bei einer Stichprobe wird

Mehr

Statistik. Datenanalyse mit EXCEL und SPSS. Prof. Dr. Karlheinz Zwerenz. R.Oldenbourg Verlag München Wien. Von

Statistik. Datenanalyse mit EXCEL und SPSS. Prof. Dr. Karlheinz Zwerenz. R.Oldenbourg Verlag München Wien. Von Statistik Datenanalyse mit EXCEL und SPSS Von Prof. Dr. Karlheinz Zwerenz R.Oldenbourg Verlag München Wien Inhalt Vorwort Hinweise zu EXCEL und SPSS Hinweise zum Master-Projekt XI XII XII TEIL I GRUNDLAGEN

Mehr

STATISTIK II. Hans-Otfried Müller Institut für Mathematische Stochastik.

STATISTIK II. Hans-Otfried Müller Institut für Mathematische Stochastik. STATISTIK II Hans-Otfried Müller Institut für Mathematische Stochastik http://www.math.tu-dresden.de/sto/mueller 1 Ausgewählte Verfahren der multivariaten Datenanalyse und Statistik Werden bei einer Analyse

Mehr

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche Ruhr-Universität Bochum 25. Januar 2010 1 / 75 2 / 75 4.1 Beispiel: Vergleich von verschiedenen Unterrichtsmethoden Zwei Zufallsstichproben (A und B) mit je 10 Schülern und 8 Schülern Gruppe A wird nach

Mehr

Korrelation - Regression. Berghold, IMI

Korrelation - Regression. Berghold, IMI Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Test auf einen Anteilswert (Binomialtest) Vergleich zweier Mittelwerte (t-test)

Test auf einen Anteilswert (Binomialtest) Vergleich zweier Mittelwerte (t-test) Spezielle Tests Test auf einen Anteilswert (Binomialtest) Vergleich zweier Anteilswerte Test auf einen Mittelwert (Ein-Stichproben Gauss bzw. t-test) Vergleich zweier Mittelwerte (t-test) Test auf einen

Mehr

Anhang A: Fragebögen und sonstige Unterlagen

Anhang A: Fragebögen und sonstige Unterlagen Anhang Anhang A: Fragebögen und sonstige Unterlagen A.: Flyer zur Probandenrekrutierung 46 A.: Fragebogen zur Meditationserfahrung 47 48 A.3: Fragebogen Angaben zur Person 49 5 5 A.4: Termin- und Einladungsschreiben

Mehr

If something has a 50% chance of happening, then 9 times out of 10 it will. Yogi Berra

If something has a 50% chance of happening, then 9 times out of 10 it will. Yogi Berra If something has a 50% chance of happening, then 9 times out of 10 it will. Yogi Berra If you torture your data long enough, they will tell you whatever you want to hear. James L. Mills Warum Biostatistik?

Mehr

Online-Aufgaben Statistik (BIOL, CHAB) Auswertung und Lösung

Online-Aufgaben Statistik (BIOL, CHAB) Auswertung und Lösung Online-Aufgaben Statistik (BIOL, CHAB) Auswertung und Lösung Abgaben: 92 / 234 Maximal erreichte Punktzahl: 7 Minimal erreichte Punktzahl: 1 Durchschnitt: 4 Frage 1 (Diese Frage haben ca. 0% nicht beantwortet.)

Mehr

Mittelwertvergleiche, Teil I: Zwei Gruppen

Mittelwertvergleiche, Teil I: Zwei Gruppen FB W. Ludwig-Mayerhofer Statistik II Mittelwertvergleiche Herzlich willkommen zur Vorlesung Mittelwertvergleiche, Teil I: Zwei Gruppen FB W. Ludwig-Mayerhofer Statistik II Mittelwertvergleiche Mittelwertvergleiche:

Mehr

Bivariate Kreuztabellen

Bivariate Kreuztabellen Bivariate Kreuztabellen Kühnel, Krebs 2001 S. 307-342 Gabriele Doblhammer: Empirische Sozialforschung Teil II, SS 2004 1/33 Häufigkeit in Zelle y 1 x 1 Kreuztabellen Randverteilung x 1... x j... x J Σ

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

e) Beim klassischen Signifikanztest muß die Verteilung der Prüfgröße unter der Nullhypothese

e) Beim klassischen Signifikanztest muß die Verteilung der Prüfgröße unter der Nullhypothese 9 Hypothesentests 1 Kapitel 9: Hypothesentests A: Übungsaufgaben: [ 1 ] Bei Entscheidungen über das Ablehnen oder Nichtablehnen von Hypothesen kann es zu Irrtümern kommen. Mit α bezeichnet man dabei die

Mehr

Lösung Aufgabe 1 (Regression) Es wurden in einer Befragung zwei metrische Merkmale X und Y erhoben. Betrachten Sie dazu die

Lösung Aufgabe 1 (Regression) Es wurden in einer Befragung zwei metrische Merkmale X und Y erhoben. Betrachten Sie dazu die Statistik für Kommunikationswissenschaftler Wintersemester 2010/2011 Vorlesung Prof. Dr. Nicole Krämer Übung Nicole Krämer, Cornelia Oberhauser, Monia Mahling Lösung Thema 9 Homepage zur Veranstaltung:

Mehr

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS Sommersemester 2009 Statistik mit SPSS 09. Mai 2009 09. Mai 2009 Statistik Dozentin: mit Esther SPSSOchoa Fernández 1 Arbeitsschritte bei der Datenanalyse Datenmanagement (Einlesen von Daten, Teilen von

Mehr

9 Die Normalverteilung

9 Die Normalverteilung 9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,

Mehr

Einfache statistische Testverfahren

Einfache statistische Testverfahren Einfache statistische Testverfahren Johannes Hain Lehrstuhl für Mathematik VIII (Statistik) 1/29 Hypothesentesten: Allgemeine Situation Im Folgenden wird die statistische Vorgehensweise zur Durchführung

Mehr

ANalysis Of VAriance (ANOVA) 1/2

ANalysis Of VAriance (ANOVA) 1/2 ANalysis Of VAriance (ANOVA) 1/2 Markus Kalisch 16.10.2014 1 ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich)?

Mehr

Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen. 0 sonst.

Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen. 0 sonst. Aufgabe 1 (2 + 4 + 2 + 1 Punkte) Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen X und Y : { 2x + 2y für 0.5 x 0.5, 1 y 2 f(x, y) = 3 0 sonst. a) Berechnen

Mehr

SPSS IV Gruppenvergleiche (>2 Gruppen) A priori & post hoc-tests. H0: Die mittlere Anzahl der Seegräser (µ) hängt nicht von der Seeigel menge ab.

SPSS IV Gruppenvergleiche (>2 Gruppen) A priori & post hoc-tests. H0: Die mittlere Anzahl der Seegräser (µ) hängt nicht von der Seeigel menge ab. SPSS IV Gruppenvergleiche (>2 Gruppen) A priori & post hoc-tests A parametrisch -- ANOVA Beispieldatei: Seegräser_ANOVA H0: Die mittlere Anzahl der Seegräser (µ) hängt nicht von der Seeigel menge ab. µ

Mehr

Vorlesung Wirtschaftsstatistik 2 (FK ) Wiederholungen deskriptive Statistik und Einleitung Normalverteilungsverfahren. Dipl.-Ing.

Vorlesung Wirtschaftsstatistik 2 (FK ) Wiederholungen deskriptive Statistik und Einleitung Normalverteilungsverfahren. Dipl.-Ing. Vorlesung Wirtschaftsstatistik 2 (FK 040637) Wiederholungen deskriptive Statistik und Einleitung Normalverteilungsverfahren Dipl.-Ing. Robin Ristl Wintersemester 2012/13 1 Vorlesungsinhalte Wiederholung:

Mehr

Eine Einführung in R: Statistische Tests

Eine Einführung in R: Statistische Tests Eine Einführung in R: Statistische Tests Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.uni-leipzig.de/ zuber/teaching/ws12/r-kurs/

Mehr

Versuchsplanung. Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling

Versuchsplanung. Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling Versuchsplanung Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling Gliederung Grundlagen der Varianzanalyse Streuungszerlegung und Modellschätzer Modellannahmen und Transformationen

Mehr

3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate

3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate 31 und 31 und (), Methode der 33 Das allgemeine (), Methode der kleinsten Quadrate 37 Modelle mit Messwiederholungen 1 / 113 Eine grundsätzliche Bemerkung zu Beginn Es bestehen viele Ähnlichkeiten zwischen

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 2 Multivariate Verfahren Musterlösung Aufgabe 1 (28 Punkte) Der Marketing-Leiter einer Lebensmittelherstellers möchte herausfinden, mit welchem Richtpreis eine neue Joghurt-Marke auf

Mehr

Konfidenzintervall für den Anteilswert θ. Konfidenzintervalle. Jost Reinecke. Universität Bielefeld. 13. Juni 2005

Konfidenzintervall für den Anteilswert θ. Konfidenzintervalle. Jost Reinecke. Universität Bielefeld. 13. Juni 2005 Universität Bielefeld 13. Juni 2005 Einführung Einführung Wie kann die Kenntnis der Wahrscheinlichkeitsverteilung der Parameter einer Stichprobe dazu verhelfen auf die wahren Werte der Grundgesamtheit

Mehr

6. Übung Statistische Tests Teil 1 (t-tests)

6. Übung Statistische Tests Teil 1 (t-tests) Querschnittsbereich 1: Epidemiologie, Medizinische iometrie und Medizinische Informatik - Übungsmaterial - Erstellt von Mitarbeitern des IMISE und des ZKS Leipzig 6. Übung Statistische Tests Teil 1 (t-tests)

Mehr

STATISTISCHE MUSTERANALYSE - DARSTELLUNGSVORSCHLAG

STATISTISCHE MUSTERANALYSE - DARSTELLUNGSVORSCHLAG STATISTISCHE MUSTERANALYSE - DARSTELLUNGSVORSCHLAG Statistische Methoden In der vorliegenden fiktiven Musterstudie wurden X Patienten mit XY Syndrom (im folgenden: Gruppe XY) mit Y Patienten eines unauffälligem

Mehr