Einführung in Quantitative Methoden

Ähnliche Dokumente
Hypothesenprüfung. Darüber hinaus existieren zahlreiche andere Testverfahren, die alle auf der gleichen Logik basieren

Lösungen zu den Übungsaufgaben in Kapitel 10

Wiederholung Hypothesentests Zusammenfassung. Hypothesentests. Statistik I. Sommersemester Statistik I Hypothesentests I (1/36)

Jost Reinecke. 7. Juni 2005

Hypothesentests mit SPSS. Beispiel für einen t-test

Aufgabenblock 4. Da Körpergröße normalverteilt ist, erhalten wir aus der Tabelle der t-verteilung bei df = 19 und α = 0.05 den Wert t 19,97.

Statistik II. Statistische Tests. Statistik II

Mathematische und statistische Methoden II

Chi-Quadrat Verfahren

Mathematik für Biologen

Prüfgröße: Ist die durch eine Schätzfunktion zugeordnete reelle Zahl (etwa Mittelwert 7 C).

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel

Computergestützte Methoden. Master of Science Prof. Dr. G. H. Franke WS 07/08

VS PLUS

KATA LOGO Mathematik Statistik Roadmap: Von der Hypothese zum p-wert

Forschungsmethodik II Mag.rer.nat. M. Kickmeier-Rust Karl-Franzens-Universität Graz. Lisza Gaiswinkler, Daniela Gusel, Tanja Schlosser

Angewandte Statistik 3. Semester

Literatur: Glantz, S.A. (2002). Primer of Biostatistics. New York: McGraw-Hill.

Inhaltsverzeichnis. Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell

11 Tests zur Überprüfung von Mittelwertsunterschieden

INFERENZSTATISTISCHE AUSSAGEN FÜR LAGEMAßE UND STREUUNGSMAßE. Inferenzstatistik für Lagemaße Inferenzstatistik für Streuungsmaße

Analytische Statistik II

Willkommen zur Vorlesung Statistik (Master)

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Grundlegende Eigenschaften von Punktschätzern

8. Konfidenzintervalle und Hypothesentests

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Statistik II für Betriebswirte Vorlesung 3

Business Value Launch 2006

Varianzanalyse ANOVA

Forschungsstatistik I

Online-Aufgaben Statistik (BIOL, CHAB) Auswertung und Lösung

Test auf Varianzgleichheit (F-Test) (einseitiger Test!!)

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav

1.4 Der Binomialtest. Die Hypothesen: H 0 : p p 0 gegen. gegen H 1 : p p 0. gegen H 1 : p > p 0

3. Der t-test. Der t-test

Überblick über die Verfahren für Ordinaldaten

SPSS III Mittelwerte vergleichen

1.3 Das Testen von Hypothesen am Beispiel des Einstichproben t-tests

Aufgaben zu Kapitel 9

Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester 2009, Statistik mit SPSS

e) Beim klassischen Signifikanztest muß die Verteilung der Prüfgröße unter der Nullhypothese

I. Deskriptive Statistik 1

7.3 Chi-Quadrat-Streuungstest und F-Test

Vorlesung Wirtschaftsstatistik 2 (FK ) Wiederholungen deskriptive Statistik und Einleitung Normalverteilungsverfahren. Dipl.-Ing.

Mathematik für Biologen

Kategoriale Daten. Johannes Hain. Lehrstuhl für Mathematik VIII Statistik 1/17

Aufgaben zu Kapitel 7:

Die Varianz (Streuung) Definition

Bivariate Kreuztabellen

3 Häufigkeitsverteilungen

Wahrscheinlichkeits - rechnung und Statistik

methodenlehre ll Grenzen des Signifikanztests methodenlehre ll Grenzen des Signifikanztests

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk

1 Gemischte Lineare Modelle

Statistik. Jan Müller

Deskriptive Statistik 1 behaftet.

Klausur Statistik I. Dr. Andreas Voß Wintersemester 2005/06

Lage- und Streuungsparameter

Biomathematik für Mediziner, Klausur SS 2001 Seite 1

Bivariater Zusammenhang in der Mehrfeldertafel PEΣO

Statistik für SozialwissenschaftlerInnen II p.85

Psychologische Methodenlehre und Statistik II

Kapitel 38 Verteilungsdiagramme

Grenzen für x -s-regelkarten

2.4 Hypothesentests Grundprinzipien statistischer Hypothesentests. Hypothese:

Mittelwertvergleiche, Teil II: Varianzanalyse

Mathematische und statistische Methoden II

Institut für Soziologie Werner Fröhlich. Methoden 2. Kontingenztabellen Chi-Quadrat-Unabhängigkeitstest

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

t-test für abhängige Stichproben

7 Kategoriale Daten. 7.1 Eine kategoriale Variable Der χ 2 -Anpassungstest

Lösungen zur Biomathe-Klausur Gruppe A Montag, den 16. Juli 2001

Übungsaufgaben zu Statistik II

SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben

Biostatistik Erne Einfuhrung fur Biowissenschaftler

Einige Statistische Tests für den Ein- Zwei- und k-stichprobenfall (Nach Sachs, Stat. Meth.)

Prüfen von Mittelwertsunterschieden: t-test

Statistik. Datenanalyse mit EXCEL und SPSS. Prof. Dr. Karlheinz Zwerenz. R.Oldenbourg Verlag München Wien. Von

3. Der t-test. Der t-test

Tutorial: Vergleich von Anteilen

Kapitel 5: Einfaktorielle Varianzanalyse

Chi Quadrat-Unabhängigkeitstest

Statistik-Übungsaufgaben

Test auf einen Anteilswert (Binomialtest) Vergleich zweier Mittelwerte (t-test)

Aussagen hierzu sind mit einer unvermeidbaren Unsicherheit behaftet, die statistisch über eine Irrtumswahrscheinlichkeit bewertet wird.

METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER

Beurteilende Statistik

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Transkript:

Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Juni 2014 Waldherr / Christodoulides Einführung in Quantitative Methoden 1/46

Anpassungstests allgemein Gegeben: Häufigkeitsverteilung der Variable X in einer Stichprobe aus bestimmter Population (empirische Verteilung) Unbekannt: Verteilungsfunktion der Variable X, F (x), in der Population Nullhypothese spezifiziert theoretische (erwartete) Verteilung F 0 (x) (z.b. Gleichverteilung, Normalverteilung) H 0 : F (x) = F 0 (x) gegen H 1 : F (x) F 0 (x) Anpassungstest prüft, ob Stichprobe aus Population stammt, in welcher X die Verteilung F 0 (x) aufweist Abweichung empirische - theoretische Verteilung, d.h. Vergleich der empirisch beobachteten Häufigkeiten der Ausprägungen von X mit theoretisch erwarteten Häufigkeiten, wenn H 0 gilt Waldherr / Christodoulides Einführung in Quantitative Methoden 2/46

χ 2 -Anpassungstest Variable X mit j = 1,..., k Ausprägungen f j = beobachtete Häufigkeiten in der Stichprobe, e j = erwartete Häufigkeiten unter H 0 k (f j e j ) 2 j=1 e j asympt. χ 2 verteilt mit df = k 1 Empirische und theoretische Verteilung ident χ 2 0 Abweichungen groß χ 2 H 0 verworfen, wenn χ 2 im Verwerfungsbereich: χ 2 > χ 2 (df ;1 α) Waldherr / Christodoulides Einführung in Quantitative Methoden 3/46

Erklärung Freiheitsgrade: Summe der Häufigkeiten muss mit Stichprobenumfang identisch sein. Bei k Ausprägungen dürfen nur bei k 1 Ausprägungen die Häufigkeiten frei variieren. Waldherr / Christodoulides Einführung in Quantitative Methoden 4/46

Beispiel 1: Gleichverteilung Ist erstmaliges Auftreten von Depressionen gleich verteilt auf die vier Jahreszeiten? H 0 : Gleichverteilung; H 1 : keine Gleichverteilung; α = 0.05 n = 100 Personen mit Depression Erwartete Häufigkeiten: e j = n k = 100 4 = 25 Waldherr / Christodoulides Einführung in Quantitative Methoden 5/46

Beispiel 1: Gleichverteilung Frühling Sommer Herbst Winter f j 21 19 27 33 100 e j 25 25 25 25 100 χ 2 = k j=1 (f j e j ) 2 (21 25)2 = + e j 25 (19 25)2 + 25 (27 25)2 (33 25)2 + + = 25 25 = 0.64 + 1.44 + 0.16 + 2.56 = 4.8 df = 3, χ 2 (3;0.95) = 7.82 (Tab. 3) 4.8 < 7.82 χ 2 = 4.8 gehört nicht zu den 5% der extremsten Fälle unter H 0 H 0 beibehalten. Waldherr / Christodoulides Einführung in Quantitative Methoden 6/46

χ 2 -Anpassungstest Beispiel 1 (Gleichverteilung) mit SPSS Menü Analysieren Nichtparametrische Tests Eine Stichprobe Ziel: Analyse anpassen Felder: Variable auswählen Waldherr / Christodoulides Einführung in Quantitative Methoden 7/46

χ 2 -Anpassungstest Beispiel 1 (Gleichverteilung) mit SPSS Einstellungen: Testoptionen: gewünschtes α wählen (Voreinstellung: 0.05) Tests auswählen: Waldherr / Christodoulides Einführung in Quantitative Methoden 8/46

χ 2 -Anpassungstest Beispiel 1 (Gleichverteilung) mit SPSS Schaltfläche Optionen: Waldherr / Christodoulides Einführung in Quantitative Methoden 9/46

χ 2 -Anpassungstest Beispiel 1 (Gleichverteilung) mit SPSS Output: Waldherr / Christodoulides Einführung in Quantitative Methoden 10/46

Voraussetzungen für χ 2 -Test Jede Person muss eindeutig einer Merkmalsausprägung zuordenbar sein Beobachtungen müssen voneinander unabhängig sein Eintragungen müssen absolute Häufigkeiten sein Approximation der Prüfgröße an χ 2 -Verteilung ausreichend, wenn mind. 80% der e j 5 und kein e j kleiner 1. Für alle Verteilungen geeignet Bei stetigen Verteilungen müssen Merkmalsausprägungen zu Klassen zusammengefasst werden Waldherr / Christodoulides Einführung in Quantitative Methoden 11/46

Beispiel 2: beliebige Verteilung Laut Statistik der Wiener Gebietskrankenkasse aus dem Jahr 2009 verteilten sich vier bestimmte psychiatrische Diagnosen A,B,C,D folgendermaßen: A:B:C:D = 40% : 30% : 20% : 10%. Eine Diplomandin erhebt im Jahr 2014 eine Stichprobe von 320 Personen, die wegen einer dieser vier psychiatrischen Erkrankungen in Behandlung sind. Die vier Diagnosen verteilen sich in ihrer Stichprobe prozentmäßig folgendermaßen: Diagnose A: 45% Diagnose B: 25% Diagnose C: 15% Diagnose D: 15% Ist die Verteilung der vier Diagnosen im Jahr 2014 anders als im Jahr 2009? Waldherr / Christodoulides Einführung in Quantitative Methoden 12/46

Beispiel 2 Fortsetzung H 0 : F (x) = F 0 (x) = 40% : 30% : 20% : 10%; H 1 : F (x) F 0 (x) Erwartete Häufigkeiten: Diagnose A: 40% von 320 = 128 Diagnose B: 30% von 320 = 96 Diagnose C: 20% von 320 = 64 Diagnose D: 10% von 320 = 32 Beobachtete Häufigkeiten: Diagnose A: 45% von 320 = 144 Diagnose B: 25% von 320 = 80 Diagnose C: 15% von 320 = 48 Diagnose D: 15% von 320 = 48 Waldherr / Christodoulides Einführung in Quantitative Methoden 13/46

Beispiel 2 Fortsetzung Erwartete und beobachtete Häufigkeiten Diagnose A Diagnose B Diagnose C Diagnose D e j 128 96 64 32 320 f j 144 80 48 48 320 χ 2 = (144 128)2 128 (80 96)2 (48 64)2 (48 32)2 + + + 96 64 32 = 16.67 = df = 3, χ 2 3;0.95 = 7.82 Nullhypothese verwerfen Waldherr / Christodoulides Einführung in Quantitative Methoden 14/46

χ 2 -Anpassungstest Beispiel 2 (beliebige Verteilung) mit SPSS Vorgehen wie bei Beispiel 1 Schaltfläche Optionen: Waldherr / Christodoulides Einführung in Quantitative Methoden 15/46

χ 2 -Anpassungstest Beispiel 2 (beliebige Verteilung) mit SPSS Output: Waldherr / Christodoulides Einführung in Quantitative Methoden 16/46

χ 2 -Anpassungstest Beispiel 2 (beliebige Verteilung) mit SPSS Doppelklick auf Tabelle mit Ergebnis liefert Detailinformationen Waldherr / Christodoulides Einführung in Quantitative Methoden 17/46

Kolmogorov-Smirnov-Test (K-S-Test) Theoretische Verteilung stetig; bei diskreten Verteilungen anwendbar, jedoch weniger Macht Standardverfahren zur Prüfung auf NV Für kleine Stichproben besser geeignet als χ 2 -Test, da dieser approximativ und K-S exakt Basiert auf maximalem Abstand zwischen empirischer Verteilungsfunktion (kumulierte Häufigkeitsverteilung) und erwarteter Verteilungsfunktion F 0 (x) (z.b. Normalverteilung) Waldherr / Christodoulides Einführung in Quantitative Methoden 18/46

Konzeption K-S-Test Waldherr / Christodoulides Einführung in Quantitative Methoden 19/46

K-S-Test in SPSS Menü Analysieren Deskriptive Statistiken... Explorative Datenanalyse... Schaltfläche Diagramme Waldherr / Christodoulides Einführung in Quantitative Methoden 20/46

SPSS-Output K-S-Test Waldherr / Christodoulides Einführung in Quantitative Methoden 21/46

Ein-Stichproben-t-Test Hypothesen über µ einer normalverteilten Variable, wobei σ 2 unbekannt Mögliche Hypothesen: H 0 : µ = µ 0 ; H 1 : µ µ 0 H 0 : µ µ 0 ; H 1 : µ > µ 0 H0 : µ µ 0 ; H 1 : µ < µ 0 Prüft anhand des Mittelwerts einer Stichprobe ob der Erwartungswert in der entsprechenden Grundgesamtheit gleich einem vorgegebenen Wert ist (dem unter H 0 erwarteten µ 0 ). Vergleich eines Stichprobenmittelwertes mit einem hypothetischen Populationsparameter µ 0. Waldherr / Christodoulides Einführung in Quantitative Methoden 22/46

Ein-Stichproben-t-Test: Beispiel 1 Weicht der Mittelwert einer Zufallsstichprobe aus dem Iran, x I, in einem in Österreich entwickelten sprachfreien Intelligenztest signifikant vom Populationsparameter in Österreich, µ A = 100, ab? n = 108, Testpunkte normalverteilt, x I = 99.32, s I = 4.03, H 0 : µ I = 100; H 1 : µ I 100; α = 0.05 Teststatistik: T = X µ ˆσ n t (n 1) t = 99.32 100 = 1.75 4.03 108 df = 107, t 120;0.975 = 1.98, 1.75 < 1.98 H 0 beibehalten Waldherr / Christodoulides Einführung in Quantitative Methoden 23/46

Ein-Stichproben-t-Test mit SPSS Menü Analysieren Mittelwerte vergleichen T-Test bei einer Stichprobe... Waldherr / Christodoulides Einführung in Quantitative Methoden 24/46

SPSS-Output Ein-Stichproben-t-Test Waldherr / Christodoulides Einführung in Quantitative Methoden 25/46

Ein-Stichproben-t-Test: Beispiel 2 Stichprobe von n = 36 Schülern mit Unterricht in Darstellender Geometrie (DG) Raumvorstellungstest normiert in Population auf µ = 100 Es soll die Hypothese geprüft werden, dass Erwartungswert bei Schülern mit DG-Unterricht höher. H 0 : µ DG µ; H 1 : µ DG > µ; α = 0.05 x DG = 101.32, s DG = 4.15 NV gegeben Ein-Stichproben-t Test t = 101.32 100 = 1.91 4.15 36 df = 35, t 30;0.95 = 1.70, t 40;0.95 = 1.68 Richtung stimmt: unter H 1 positiver t-wert erwartet; 1.91 > 1.69 H 0 verworfen: Schüler mit DG-Unterricht haben überdurchschnittliche Testleistungen. Waldherr / Christodoulides Einführung in Quantitative Methoden 26/46

SPSS-Output Waldherr / Christodoulides Einführung in Quantitative Methoden 27/46

Ein-Stichproben-Verfahren im Überblick Test Prüfbare Hypothesen / Voraussetzungen χ 2 -Anpassungstest alle Verteilungen prüfbar absolute Häufigkeiten Kolmogorov-Smirnov-Test insbesondere stetige Verteilungen (NV) Ein-Stichproben-t-Test Vergleich eines x mit µ einer NV (µ, σ 2 ) σ 2 unbekannt, NV Binomialtest exakt Hypothesen über p einer B(n, p) NV-Approximation nicht möglich Binomialtest NV-App. Hypothesen über p einer B(n, p) NV-App. möglich (np und n(1 p) 5) Waldherr / Christodoulides Einführung in Quantitative Methoden 28/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Unabhängige vs. abhängige Stichproben Abhängige Stichproben: die Elemente der zwei Stichproben können einander paarweise zugeordnet werden, weil beispielsweise die gleichen Personen zwei Mal befragt wurden (Messwiederholungen), es sich um Paare handelt (Geschwisterpaare, Ehepaare,..), oder die Personen aufgrund eines oder mehrerer Variablen parallelisiert wurden (z.b. aufgrund eines Vortests werden je zwei Personen mit gleicher Punktezahl zu Paaren zusammengefasst). Unabhängige Stichproben: es besteht kein Zusammenhang (keine Beziehung) zwischen den Elementen der Stichproben. Werte in der einen Stichprobe erlauben keine Vorhersage über Werte in der anderen Stichprobe (unkorreliert). Z.B.: zufällige Zuteilung von Personen in VG und KG; Zufallsstichproben aus zwei unterschiedlichen Populationen, z.b. Frauen und Männer (wobei es sich nicht um Paare handeln darf). Waldherr / Christodoulides Einführung in Quantitative Methoden 29/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Vergleich zweier unabhängiger Varianzen: F -Test Unterscheiden sich die Varianzen zweier unabhängiger Stichproben aus normalverteilten Grundgesamtheiten? H 0,1 : σ 2 1 = σ2 2 ; H 1,1: σ 2 1 σ2 2 H 0,2 : σ 2 1 σ2 2 ; H 1,2: σ 2 1 > σ2 2 H 0,3 : σ 2 1 σ2 2 ; H 1,3: σ 2 1 < σ2 2 Prüfgröße: F = ˆσ2 1 ˆσ 2 2 df 1 = n 1 1, df 2 = n 2 1 Voraussetzungen: NV in jeder Population Achtung! Größere Varianz muss im Zähler stehen! H 0,1 : σ1 2 = σ2 2 wird verworfen, wenn F > F (df 1,df 2,1 α/2) H 0,2 und H 0,3 werden verworfen, wenn F > F (df1,df 2,1 α) Waldherr / Christodoulides Einführung in Quantitative Methoden 30/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 F -Test - Beispiel Im Rahmen eines Experimentes hört die Versuchsgruppe während der Bearbeitung eines Gedächtnistests Hintergrundmusik, die Kontrollgruppe bearbeitet den Test ohne Hintergrundmusik. Streuen die Testleistungen der beiden Bedingungen unterschiedlich stark? H 0 : σ 2 VG = σ2 KG ; H 1: σ 2 VG σ2 KG ; α = 0.05 s 2 VG = 8.5, s2 KG = 4.7, n VG = n KG = 50, NV der Daten in jeder Gruppe F = 8.5 4.7 = 1.81 df 1 = 49, df 2 = 49 Tabelle 4b: F 50;50;0.975 = 1.75 < 1.81 H 0 wird verworfen Die Varianzen sind unterschiedlich. Waldherr / Christodoulides Einführung in Quantitative Methoden 31/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 t-test für unabhängige Stichproben mit gleichen Varianzen Unterscheiden sich die Mittelwerte zweier unabhängiger Stichproben aus normalverteilten Grundgesamtheiten signifikant voneinander? Stammen die beiden Stichproben aus zwei Populationen, in denen das Merkmal X identisch normalverteilt ist? Ungerichtete Hypothese: H 0 : µ 1 = µ 2 bzw. µ 1 µ 2 = 0 und σ 1 = σ 2 = σ H1 : µ 1 µ 2 bzw. µ 1 µ 2 0 und σ 1 = σ 2 = σ Gerichtete Hypothese z.b.: H 0 : µ 1 µ 2 bzw. µ 1 µ 2 0 und σ 1 = σ 2 = σ H 1 : µ 1 > µ 2 bzw. µ 1 µ 2 > 0 und σ 1 = σ 2 = σ Waldherr / Christodoulides Einführung in Quantitative Methoden 32/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 t-test für unabhängige Stichproben, Annahme gleicher Varianzen Zieht man aus 2 normalverteilten Populationen, N(µ 1, σ1 2) und N(µ 2, σ2 2 ), immer wieder zwei voneinander unabhängige Stichproben Verteilung der Differenzen der Stichprobenmittelwerte = Normalverteilung N(µ ( X1 X 2 ), σ2 ( X 1 X 2 ) ) = N(µ 1 µ 2, σ2 1 n 1 + σ2 2 n 2 ) Wegen Reproduktionseigenschaft der NV X 1 X 2 = X 1 + ( X 2 ) µ ( X1 X 2 ) = µ 1 + ( µ 2 ) = µ 1 µ 2 (Erwartungswert einer Differenz = Differenz der Erwartungswerte) Ist µ 1 = µ 2, sind die Differenzen normalverteilt mit µ ( X 1 X 2 ) = 0 σ 2 (X 1 X 2 ) = σ 2 (X 1 ) + σ 2 ( X 2 ) = σ 2 (X 1 ) + σ 2 (X 2 ) Waldherr / Christodoulides Einführung in Quantitative Methoden 33/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Streuung der Mittelwertsdifferenz σ ( x1 x 2 ) Standardfehler des Mittelwertes σ 2 σ x = Standardfehler der Mittelwertsdifferenz σ1 2 σ ( x1 x 2 ) = + σ2 2 n 1 n 2 n Bei σ 2 1 = σ2 2 = σ2 σ ( x1 x 2 ) = σ 2 ( 1n1 + 1n2 ) Waldherr / Christodoulides Einführung in Quantitative Methoden 34/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 t-test für unabhängige Stichproben bei gleichen Varianzen Abweichung ( x 1 x 2 ) (µ 1 µ 2 ) in Relation zur Streuung der Mittelwertsdifferenz (= Standardfehler der Mittelwertsdifferenz) ( x 1 x 2 ) (µ 1 µ 2 ) σ ( x1 x 2 ) N(0, 1) Unter H 0 : µ 1 µ 2 = 0 x 1 x 2 σ ( x1 x 2 ) N(0, 1) Waldherr / Christodoulides Einführung in Quantitative Methoden 35/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Varianzschätzung innerhalb Populationsvarianz nicht bekannt Schätzung aus Stichproben Beste Schätzung: gewichtete mittlere Varianzschätzung Varianzschätzung innerhalb (der Stichproben) ˆσ 2 = (n 1 1)ˆσ 2 1 + (n 2 1)ˆσ 2 2 (n 1 1) + (n 2 1) Waldherr / Christodoulides Einführung in Quantitative Methoden 36/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Warum Varianzschätzung innerhalb? Unter H 1 beide Stichproben normalverteilt mit gleichem σ, aber unterschiedlichen Mittelwerten Würde man die Stichproben zu einer einzigen zusammenfassen und die Varianz berechnen, entstünde eine zweigipfelige Verteilung und man erhielte eine größere Varianz Waldherr / Christodoulides Einführung in Quantitative Methoden 37/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Standardfehler der Mittelwertsdifferenz Standardfehler der Mittelwertsdifferenz bei σ 2 1 = σ2 2 = σ2 σ ( x1 x 2 ) = σ 2 ( 1n1 + 1n2 ) Schätzung des Standardfehlers der Mittelwertsdifferenz (n 1 1)ˆσ 1 2 ˆσ ( x1 x 2 ) = + (n 2 1)ˆσ 2 2 ( 1 + 1 ) (n 1 1) + (n 2 1) n 1 n 2 Waldherr / Christodoulides Einführung in Quantitative Methoden 38/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Prüfgröße t, unabhängige Stichproben, homogene Varianzen t = x 1 x 2 (n 1 1)ˆσ 2 1 +(n 2 1)ˆσ 2 2 (n 1 1)+(n 2 1) ( 1 n1 + 1 n2 ) df = n 1 + n 2 2 Zweiseitige H 0 wird verworfen, wenn t > t (df ;1 α/2) Einseitige H 0 wird verworfen, wenn Abweichung in die erwartete Richtung und t > t (df ;1 α) Waldherr / Christodoulides Einführung in Quantitative Methoden 39/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 t-test für unabhängige Stichproben und gleiche Varianzen - Voraussetzungen Unabhängige Stichproben Metrische Variable Normalverteilung in beiden Populationen Homogene Varianzen F -Test Sind Voraussetzungen für t-test erfüllt, ist er der mächtigste Test zum Vergleich zweier unabhängiger Stichproben Ist eine (oder mehrere) der Voraussetzungen nicht erfüllt, liegt keine t-verteilung vor, das reale α entspricht nicht dem vorgegebenen α und es kommt zu Fehlentscheidungen Waldherr / Christodoulides Einführung in Quantitative Methoden 40/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Beispiel: t-test für unabhängige Stichproben und gleiche Varianzen Es soll überprüft werden, ob zusätzliches autogenes Training einen positiven Effekt bei der Behandlung von Depressionen hat. Klassischer Zwei-Gruppen-Versuchsplan: eine Gruppe von Patientinnen erhält nur die konventionelle Therapie (KG), eine zweite Gruppe erhält zusätzlich autogenes Training (VG). Operationalisierung des Effekts der Therapien: Scoredifferenz (vorher minus nachher) in einem Depressionsfragebogen. H 0 : µ VG µ KG, σ 2 VG = σ2 KG H 1 : µ VG > µ KG, σvg 2 = σ2 KG VG: x VG = 7.22, svg 2 = 6.12, n = 53 KG: x KG = 4.91, skg 2 = 6.54, n = 51 NV gegeben, α = 0.05 Waldherr / Christodoulides Einführung in Quantitative Methoden 41/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Fortsetzung Beispiel Homogenität der Varianzen: H 0 : σ 2 1 = σ2 2, H 1: σ 2 1 σ2 2 F = 6.54 6.12 = 1.07 df 1 = 50, df 2 = 52 Tabelle 4b: F 50;50;0.975 = 1.75 > 1.07 H 0 wird beibehalten, Varianzen sind homogen t = 7.22 4.91 52 6.12+50 6.54 52+50 ( 1 52 + 1 50 ) = 4.64, df = 102 Tabelle 3: t 102;0.95 = 1.66 < 4.64 H 0 verworfen, Ergebnis spricht dafür, dass autogenes Training zusätzlichen Effekt hat Waldherr / Christodoulides Einführung in Quantitative Methoden 42/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Welch s t-test 2 unabhängige Stichproben aus normalverteilten Populationen Varianzen nicht gleich Prüfgröße t mit gepoolten Varianzen nicht anwendbar Näherungslösung: Prüfgröße t nach Welch t Welch = x 1 x 2 s 2 1 n 1 + s2 2 n 2 mit Korrektur der Freiheitsgrade ( ) s 2 2 1 n 1 + s2 2 n 2 df = ( s 2 1 n 1 ) 2 n 1 1 + ( s 2 2 n 2 ) 2 n 2 1 df abrunden auf die nächste ganze Zahl, krit. Wert aus t-tabelle Waldherr / Christodoulides Einführung in Quantitative Methoden 43/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 t-test für unabhängige Stichproben mit SPSS Es soll überprüft werden, ob sich die beiden Gruppen (mit vs. ohne autogenes Training) bezüglich Alter unterscheiden. H 0 : µ 1 = µ 2, σ 1 = σ 2 ; H 1 : µ 1 µ 2, σ 1 = σ 2 ; α = 0.05 Waldherr / Christodoulides Einführung in Quantitative Methoden 44/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 t-test für unabhängige Stichproben mit SPSS Menü Analysieren Mittelwerte vergleichen T-Test bei unabhängigen Stichproben... Waldherr / Christodoulides Einführung in Quantitative Methoden 45/46

Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 t-test für unabhängige Stichproben mit SPSS Waldherr / Christodoulides Einführung in Quantitative Methoden 46/46