Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Juni 2014 Waldherr / Christodoulides Einführung in Quantitative Methoden 1/46
Anpassungstests allgemein Gegeben: Häufigkeitsverteilung der Variable X in einer Stichprobe aus bestimmter Population (empirische Verteilung) Unbekannt: Verteilungsfunktion der Variable X, F (x), in der Population Nullhypothese spezifiziert theoretische (erwartete) Verteilung F 0 (x) (z.b. Gleichverteilung, Normalverteilung) H 0 : F (x) = F 0 (x) gegen H 1 : F (x) F 0 (x) Anpassungstest prüft, ob Stichprobe aus Population stammt, in welcher X die Verteilung F 0 (x) aufweist Abweichung empirische - theoretische Verteilung, d.h. Vergleich der empirisch beobachteten Häufigkeiten der Ausprägungen von X mit theoretisch erwarteten Häufigkeiten, wenn H 0 gilt Waldherr / Christodoulides Einführung in Quantitative Methoden 2/46
χ 2 -Anpassungstest Variable X mit j = 1,..., k Ausprägungen f j = beobachtete Häufigkeiten in der Stichprobe, e j = erwartete Häufigkeiten unter H 0 k (f j e j ) 2 j=1 e j asympt. χ 2 verteilt mit df = k 1 Empirische und theoretische Verteilung ident χ 2 0 Abweichungen groß χ 2 H 0 verworfen, wenn χ 2 im Verwerfungsbereich: χ 2 > χ 2 (df ;1 α) Waldherr / Christodoulides Einführung in Quantitative Methoden 3/46
Erklärung Freiheitsgrade: Summe der Häufigkeiten muss mit Stichprobenumfang identisch sein. Bei k Ausprägungen dürfen nur bei k 1 Ausprägungen die Häufigkeiten frei variieren. Waldherr / Christodoulides Einführung in Quantitative Methoden 4/46
Beispiel 1: Gleichverteilung Ist erstmaliges Auftreten von Depressionen gleich verteilt auf die vier Jahreszeiten? H 0 : Gleichverteilung; H 1 : keine Gleichverteilung; α = 0.05 n = 100 Personen mit Depression Erwartete Häufigkeiten: e j = n k = 100 4 = 25 Waldherr / Christodoulides Einführung in Quantitative Methoden 5/46
Beispiel 1: Gleichverteilung Frühling Sommer Herbst Winter f j 21 19 27 33 100 e j 25 25 25 25 100 χ 2 = k j=1 (f j e j ) 2 (21 25)2 = + e j 25 (19 25)2 + 25 (27 25)2 (33 25)2 + + = 25 25 = 0.64 + 1.44 + 0.16 + 2.56 = 4.8 df = 3, χ 2 (3;0.95) = 7.82 (Tab. 3) 4.8 < 7.82 χ 2 = 4.8 gehört nicht zu den 5% der extremsten Fälle unter H 0 H 0 beibehalten. Waldherr / Christodoulides Einführung in Quantitative Methoden 6/46
χ 2 -Anpassungstest Beispiel 1 (Gleichverteilung) mit SPSS Menü Analysieren Nichtparametrische Tests Eine Stichprobe Ziel: Analyse anpassen Felder: Variable auswählen Waldherr / Christodoulides Einführung in Quantitative Methoden 7/46
χ 2 -Anpassungstest Beispiel 1 (Gleichverteilung) mit SPSS Einstellungen: Testoptionen: gewünschtes α wählen (Voreinstellung: 0.05) Tests auswählen: Waldherr / Christodoulides Einführung in Quantitative Methoden 8/46
χ 2 -Anpassungstest Beispiel 1 (Gleichverteilung) mit SPSS Schaltfläche Optionen: Waldherr / Christodoulides Einführung in Quantitative Methoden 9/46
χ 2 -Anpassungstest Beispiel 1 (Gleichverteilung) mit SPSS Output: Waldherr / Christodoulides Einführung in Quantitative Methoden 10/46
Voraussetzungen für χ 2 -Test Jede Person muss eindeutig einer Merkmalsausprägung zuordenbar sein Beobachtungen müssen voneinander unabhängig sein Eintragungen müssen absolute Häufigkeiten sein Approximation der Prüfgröße an χ 2 -Verteilung ausreichend, wenn mind. 80% der e j 5 und kein e j kleiner 1. Für alle Verteilungen geeignet Bei stetigen Verteilungen müssen Merkmalsausprägungen zu Klassen zusammengefasst werden Waldherr / Christodoulides Einführung in Quantitative Methoden 11/46
Beispiel 2: beliebige Verteilung Laut Statistik der Wiener Gebietskrankenkasse aus dem Jahr 2009 verteilten sich vier bestimmte psychiatrische Diagnosen A,B,C,D folgendermaßen: A:B:C:D = 40% : 30% : 20% : 10%. Eine Diplomandin erhebt im Jahr 2014 eine Stichprobe von 320 Personen, die wegen einer dieser vier psychiatrischen Erkrankungen in Behandlung sind. Die vier Diagnosen verteilen sich in ihrer Stichprobe prozentmäßig folgendermaßen: Diagnose A: 45% Diagnose B: 25% Diagnose C: 15% Diagnose D: 15% Ist die Verteilung der vier Diagnosen im Jahr 2014 anders als im Jahr 2009? Waldherr / Christodoulides Einführung in Quantitative Methoden 12/46
Beispiel 2 Fortsetzung H 0 : F (x) = F 0 (x) = 40% : 30% : 20% : 10%; H 1 : F (x) F 0 (x) Erwartete Häufigkeiten: Diagnose A: 40% von 320 = 128 Diagnose B: 30% von 320 = 96 Diagnose C: 20% von 320 = 64 Diagnose D: 10% von 320 = 32 Beobachtete Häufigkeiten: Diagnose A: 45% von 320 = 144 Diagnose B: 25% von 320 = 80 Diagnose C: 15% von 320 = 48 Diagnose D: 15% von 320 = 48 Waldherr / Christodoulides Einführung in Quantitative Methoden 13/46
Beispiel 2 Fortsetzung Erwartete und beobachtete Häufigkeiten Diagnose A Diagnose B Diagnose C Diagnose D e j 128 96 64 32 320 f j 144 80 48 48 320 χ 2 = (144 128)2 128 (80 96)2 (48 64)2 (48 32)2 + + + 96 64 32 = 16.67 = df = 3, χ 2 3;0.95 = 7.82 Nullhypothese verwerfen Waldherr / Christodoulides Einführung in Quantitative Methoden 14/46
χ 2 -Anpassungstest Beispiel 2 (beliebige Verteilung) mit SPSS Vorgehen wie bei Beispiel 1 Schaltfläche Optionen: Waldherr / Christodoulides Einführung in Quantitative Methoden 15/46
χ 2 -Anpassungstest Beispiel 2 (beliebige Verteilung) mit SPSS Output: Waldherr / Christodoulides Einführung in Quantitative Methoden 16/46
χ 2 -Anpassungstest Beispiel 2 (beliebige Verteilung) mit SPSS Doppelklick auf Tabelle mit Ergebnis liefert Detailinformationen Waldherr / Christodoulides Einführung in Quantitative Methoden 17/46
Kolmogorov-Smirnov-Test (K-S-Test) Theoretische Verteilung stetig; bei diskreten Verteilungen anwendbar, jedoch weniger Macht Standardverfahren zur Prüfung auf NV Für kleine Stichproben besser geeignet als χ 2 -Test, da dieser approximativ und K-S exakt Basiert auf maximalem Abstand zwischen empirischer Verteilungsfunktion (kumulierte Häufigkeitsverteilung) und erwarteter Verteilungsfunktion F 0 (x) (z.b. Normalverteilung) Waldherr / Christodoulides Einführung in Quantitative Methoden 18/46
Konzeption K-S-Test Waldherr / Christodoulides Einführung in Quantitative Methoden 19/46
K-S-Test in SPSS Menü Analysieren Deskriptive Statistiken... Explorative Datenanalyse... Schaltfläche Diagramme Waldherr / Christodoulides Einführung in Quantitative Methoden 20/46
SPSS-Output K-S-Test Waldherr / Christodoulides Einführung in Quantitative Methoden 21/46
Ein-Stichproben-t-Test Hypothesen über µ einer normalverteilten Variable, wobei σ 2 unbekannt Mögliche Hypothesen: H 0 : µ = µ 0 ; H 1 : µ µ 0 H 0 : µ µ 0 ; H 1 : µ > µ 0 H0 : µ µ 0 ; H 1 : µ < µ 0 Prüft anhand des Mittelwerts einer Stichprobe ob der Erwartungswert in der entsprechenden Grundgesamtheit gleich einem vorgegebenen Wert ist (dem unter H 0 erwarteten µ 0 ). Vergleich eines Stichprobenmittelwertes mit einem hypothetischen Populationsparameter µ 0. Waldherr / Christodoulides Einführung in Quantitative Methoden 22/46
Ein-Stichproben-t-Test: Beispiel 1 Weicht der Mittelwert einer Zufallsstichprobe aus dem Iran, x I, in einem in Österreich entwickelten sprachfreien Intelligenztest signifikant vom Populationsparameter in Österreich, µ A = 100, ab? n = 108, Testpunkte normalverteilt, x I = 99.32, s I = 4.03, H 0 : µ I = 100; H 1 : µ I 100; α = 0.05 Teststatistik: T = X µ ˆσ n t (n 1) t = 99.32 100 = 1.75 4.03 108 df = 107, t 120;0.975 = 1.98, 1.75 < 1.98 H 0 beibehalten Waldherr / Christodoulides Einführung in Quantitative Methoden 23/46
Ein-Stichproben-t-Test mit SPSS Menü Analysieren Mittelwerte vergleichen T-Test bei einer Stichprobe... Waldherr / Christodoulides Einführung in Quantitative Methoden 24/46
SPSS-Output Ein-Stichproben-t-Test Waldherr / Christodoulides Einführung in Quantitative Methoden 25/46
Ein-Stichproben-t-Test: Beispiel 2 Stichprobe von n = 36 Schülern mit Unterricht in Darstellender Geometrie (DG) Raumvorstellungstest normiert in Population auf µ = 100 Es soll die Hypothese geprüft werden, dass Erwartungswert bei Schülern mit DG-Unterricht höher. H 0 : µ DG µ; H 1 : µ DG > µ; α = 0.05 x DG = 101.32, s DG = 4.15 NV gegeben Ein-Stichproben-t Test t = 101.32 100 = 1.91 4.15 36 df = 35, t 30;0.95 = 1.70, t 40;0.95 = 1.68 Richtung stimmt: unter H 1 positiver t-wert erwartet; 1.91 > 1.69 H 0 verworfen: Schüler mit DG-Unterricht haben überdurchschnittliche Testleistungen. Waldherr / Christodoulides Einführung in Quantitative Methoden 26/46
SPSS-Output Waldherr / Christodoulides Einführung in Quantitative Methoden 27/46
Ein-Stichproben-Verfahren im Überblick Test Prüfbare Hypothesen / Voraussetzungen χ 2 -Anpassungstest alle Verteilungen prüfbar absolute Häufigkeiten Kolmogorov-Smirnov-Test insbesondere stetige Verteilungen (NV) Ein-Stichproben-t-Test Vergleich eines x mit µ einer NV (µ, σ 2 ) σ 2 unbekannt, NV Binomialtest exakt Hypothesen über p einer B(n, p) NV-Approximation nicht möglich Binomialtest NV-App. Hypothesen über p einer B(n, p) NV-App. möglich (np und n(1 p) 5) Waldherr / Christodoulides Einführung in Quantitative Methoden 28/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Unabhängige vs. abhängige Stichproben Abhängige Stichproben: die Elemente der zwei Stichproben können einander paarweise zugeordnet werden, weil beispielsweise die gleichen Personen zwei Mal befragt wurden (Messwiederholungen), es sich um Paare handelt (Geschwisterpaare, Ehepaare,..), oder die Personen aufgrund eines oder mehrerer Variablen parallelisiert wurden (z.b. aufgrund eines Vortests werden je zwei Personen mit gleicher Punktezahl zu Paaren zusammengefasst). Unabhängige Stichproben: es besteht kein Zusammenhang (keine Beziehung) zwischen den Elementen der Stichproben. Werte in der einen Stichprobe erlauben keine Vorhersage über Werte in der anderen Stichprobe (unkorreliert). Z.B.: zufällige Zuteilung von Personen in VG und KG; Zufallsstichproben aus zwei unterschiedlichen Populationen, z.b. Frauen und Männer (wobei es sich nicht um Paare handeln darf). Waldherr / Christodoulides Einführung in Quantitative Methoden 29/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Vergleich zweier unabhängiger Varianzen: F -Test Unterscheiden sich die Varianzen zweier unabhängiger Stichproben aus normalverteilten Grundgesamtheiten? H 0,1 : σ 2 1 = σ2 2 ; H 1,1: σ 2 1 σ2 2 H 0,2 : σ 2 1 σ2 2 ; H 1,2: σ 2 1 > σ2 2 H 0,3 : σ 2 1 σ2 2 ; H 1,3: σ 2 1 < σ2 2 Prüfgröße: F = ˆσ2 1 ˆσ 2 2 df 1 = n 1 1, df 2 = n 2 1 Voraussetzungen: NV in jeder Population Achtung! Größere Varianz muss im Zähler stehen! H 0,1 : σ1 2 = σ2 2 wird verworfen, wenn F > F (df 1,df 2,1 α/2) H 0,2 und H 0,3 werden verworfen, wenn F > F (df1,df 2,1 α) Waldherr / Christodoulides Einführung in Quantitative Methoden 30/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 F -Test - Beispiel Im Rahmen eines Experimentes hört die Versuchsgruppe während der Bearbeitung eines Gedächtnistests Hintergrundmusik, die Kontrollgruppe bearbeitet den Test ohne Hintergrundmusik. Streuen die Testleistungen der beiden Bedingungen unterschiedlich stark? H 0 : σ 2 VG = σ2 KG ; H 1: σ 2 VG σ2 KG ; α = 0.05 s 2 VG = 8.5, s2 KG = 4.7, n VG = n KG = 50, NV der Daten in jeder Gruppe F = 8.5 4.7 = 1.81 df 1 = 49, df 2 = 49 Tabelle 4b: F 50;50;0.975 = 1.75 < 1.81 H 0 wird verworfen Die Varianzen sind unterschiedlich. Waldherr / Christodoulides Einführung in Quantitative Methoden 31/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 t-test für unabhängige Stichproben mit gleichen Varianzen Unterscheiden sich die Mittelwerte zweier unabhängiger Stichproben aus normalverteilten Grundgesamtheiten signifikant voneinander? Stammen die beiden Stichproben aus zwei Populationen, in denen das Merkmal X identisch normalverteilt ist? Ungerichtete Hypothese: H 0 : µ 1 = µ 2 bzw. µ 1 µ 2 = 0 und σ 1 = σ 2 = σ H1 : µ 1 µ 2 bzw. µ 1 µ 2 0 und σ 1 = σ 2 = σ Gerichtete Hypothese z.b.: H 0 : µ 1 µ 2 bzw. µ 1 µ 2 0 und σ 1 = σ 2 = σ H 1 : µ 1 > µ 2 bzw. µ 1 µ 2 > 0 und σ 1 = σ 2 = σ Waldherr / Christodoulides Einführung in Quantitative Methoden 32/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 t-test für unabhängige Stichproben, Annahme gleicher Varianzen Zieht man aus 2 normalverteilten Populationen, N(µ 1, σ1 2) und N(µ 2, σ2 2 ), immer wieder zwei voneinander unabhängige Stichproben Verteilung der Differenzen der Stichprobenmittelwerte = Normalverteilung N(µ ( X1 X 2 ), σ2 ( X 1 X 2 ) ) = N(µ 1 µ 2, σ2 1 n 1 + σ2 2 n 2 ) Wegen Reproduktionseigenschaft der NV X 1 X 2 = X 1 + ( X 2 ) µ ( X1 X 2 ) = µ 1 + ( µ 2 ) = µ 1 µ 2 (Erwartungswert einer Differenz = Differenz der Erwartungswerte) Ist µ 1 = µ 2, sind die Differenzen normalverteilt mit µ ( X 1 X 2 ) = 0 σ 2 (X 1 X 2 ) = σ 2 (X 1 ) + σ 2 ( X 2 ) = σ 2 (X 1 ) + σ 2 (X 2 ) Waldherr / Christodoulides Einführung in Quantitative Methoden 33/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Streuung der Mittelwertsdifferenz σ ( x1 x 2 ) Standardfehler des Mittelwertes σ 2 σ x = Standardfehler der Mittelwertsdifferenz σ1 2 σ ( x1 x 2 ) = + σ2 2 n 1 n 2 n Bei σ 2 1 = σ2 2 = σ2 σ ( x1 x 2 ) = σ 2 ( 1n1 + 1n2 ) Waldherr / Christodoulides Einführung in Quantitative Methoden 34/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 t-test für unabhängige Stichproben bei gleichen Varianzen Abweichung ( x 1 x 2 ) (µ 1 µ 2 ) in Relation zur Streuung der Mittelwertsdifferenz (= Standardfehler der Mittelwertsdifferenz) ( x 1 x 2 ) (µ 1 µ 2 ) σ ( x1 x 2 ) N(0, 1) Unter H 0 : µ 1 µ 2 = 0 x 1 x 2 σ ( x1 x 2 ) N(0, 1) Waldherr / Christodoulides Einführung in Quantitative Methoden 35/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Varianzschätzung innerhalb Populationsvarianz nicht bekannt Schätzung aus Stichproben Beste Schätzung: gewichtete mittlere Varianzschätzung Varianzschätzung innerhalb (der Stichproben) ˆσ 2 = (n 1 1)ˆσ 2 1 + (n 2 1)ˆσ 2 2 (n 1 1) + (n 2 1) Waldherr / Christodoulides Einführung in Quantitative Methoden 36/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Warum Varianzschätzung innerhalb? Unter H 1 beide Stichproben normalverteilt mit gleichem σ, aber unterschiedlichen Mittelwerten Würde man die Stichproben zu einer einzigen zusammenfassen und die Varianz berechnen, entstünde eine zweigipfelige Verteilung und man erhielte eine größere Varianz Waldherr / Christodoulides Einführung in Quantitative Methoden 37/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Standardfehler der Mittelwertsdifferenz Standardfehler der Mittelwertsdifferenz bei σ 2 1 = σ2 2 = σ2 σ ( x1 x 2 ) = σ 2 ( 1n1 + 1n2 ) Schätzung des Standardfehlers der Mittelwertsdifferenz (n 1 1)ˆσ 1 2 ˆσ ( x1 x 2 ) = + (n 2 1)ˆσ 2 2 ( 1 + 1 ) (n 1 1) + (n 2 1) n 1 n 2 Waldherr / Christodoulides Einführung in Quantitative Methoden 38/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Prüfgröße t, unabhängige Stichproben, homogene Varianzen t = x 1 x 2 (n 1 1)ˆσ 2 1 +(n 2 1)ˆσ 2 2 (n 1 1)+(n 2 1) ( 1 n1 + 1 n2 ) df = n 1 + n 2 2 Zweiseitige H 0 wird verworfen, wenn t > t (df ;1 α/2) Einseitige H 0 wird verworfen, wenn Abweichung in die erwartete Richtung und t > t (df ;1 α) Waldherr / Christodoulides Einführung in Quantitative Methoden 39/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 t-test für unabhängige Stichproben und gleiche Varianzen - Voraussetzungen Unabhängige Stichproben Metrische Variable Normalverteilung in beiden Populationen Homogene Varianzen F -Test Sind Voraussetzungen für t-test erfüllt, ist er der mächtigste Test zum Vergleich zweier unabhängiger Stichproben Ist eine (oder mehrere) der Voraussetzungen nicht erfüllt, liegt keine t-verteilung vor, das reale α entspricht nicht dem vorgegebenen α und es kommt zu Fehlentscheidungen Waldherr / Christodoulides Einführung in Quantitative Methoden 40/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Beispiel: t-test für unabhängige Stichproben und gleiche Varianzen Es soll überprüft werden, ob zusätzliches autogenes Training einen positiven Effekt bei der Behandlung von Depressionen hat. Klassischer Zwei-Gruppen-Versuchsplan: eine Gruppe von Patientinnen erhält nur die konventionelle Therapie (KG), eine zweite Gruppe erhält zusätzlich autogenes Training (VG). Operationalisierung des Effekts der Therapien: Scoredifferenz (vorher minus nachher) in einem Depressionsfragebogen. H 0 : µ VG µ KG, σ 2 VG = σ2 KG H 1 : µ VG > µ KG, σvg 2 = σ2 KG VG: x VG = 7.22, svg 2 = 6.12, n = 53 KG: x KG = 4.91, skg 2 = 6.54, n = 51 NV gegeben, α = 0.05 Waldherr / Christodoulides Einführung in Quantitative Methoden 41/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Fortsetzung Beispiel Homogenität der Varianzen: H 0 : σ 2 1 = σ2 2, H 1: σ 2 1 σ2 2 F = 6.54 6.12 = 1.07 df 1 = 50, df 2 = 52 Tabelle 4b: F 50;50;0.975 = 1.75 > 1.07 H 0 wird beibehalten, Varianzen sind homogen t = 7.22 4.91 52 6.12+50 6.54 52+50 ( 1 52 + 1 50 ) = 4.64, df = 102 Tabelle 3: t 102;0.95 = 1.66 < 4.64 H 0 verworfen, Ergebnis spricht dafür, dass autogenes Training zusätzlichen Effekt hat Waldherr / Christodoulides Einführung in Quantitative Methoden 42/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 Welch s t-test 2 unabhängige Stichproben aus normalverteilten Populationen Varianzen nicht gleich Prüfgröße t mit gepoolten Varianzen nicht anwendbar Näherungslösung: Prüfgröße t nach Welch t Welch = x 1 x 2 s 2 1 n 1 + s2 2 n 2 mit Korrektur der Freiheitsgrade ( ) s 2 2 1 n 1 + s2 2 n 2 df = ( s 2 1 n 1 ) 2 n 1 1 + ( s 2 2 n 2 ) 2 n 2 1 df abrunden auf die nächste ganze Zahl, krit. Wert aus t-tabelle Waldherr / Christodoulides Einführung in Quantitative Methoden 43/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 t-test für unabhängige Stichproben mit SPSS Es soll überprüft werden, ob sich die beiden Gruppen (mit vs. ohne autogenes Training) bezüglich Alter unterscheiden. H 0 : µ 1 = µ 2, σ 1 = σ 2 ; H 1 : µ 1 µ 2, σ 1 = σ 2 ; α = 0.05 Waldherr / Christodoulides Einführung in Quantitative Methoden 44/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 t-test für unabhängige Stichproben mit SPSS Menü Analysieren Mittelwerte vergleichen T-Test bei unabhängigen Stichproben... Waldherr / Christodoulides Einführung in Quantitative Methoden 45/46
Vergleich zweier unabhängiger Varianzen Vergleich zweier unabhängiger x bei gleichen σ 2 Vergleich zweier unabhängiger x bei ungleichen σ 2 t-test für unabhängige Stichproben mit SPSS Waldherr / Christodoulides Einführung in Quantitative Methoden 46/46