Messwiederholungen und abhängige Messungen t Tests und Varianzanalysen für Messwiederholungen Kovarianzanalyse Thomas Schäfer SS 009 1 Messwiederholungen und abhängige Messungen Bei einer Messwiederholung (repeated mesurement) handelt es sich um ein Untersuchungsdesign, das eine Stichprobe verwendet, bei der wiederholt die gleiche abhängige gg Variable gemessen wird. Dieselben Personen durchlaufen dabei alle Untersuchungsbedingungen. Eine solche Untersuchungsform wird auch als Innersubjekt Design (between subjects) bezeichnet. Bei einem Design mit gepaarten Stichproben (matched samples) wird jeder Untersuchungsteilnehmer der einen Stichprobe einem Teilnehmer der anderen Stichprobe anhand eines Merkmals zugeordnet. Aus den Prozess des Matching resultiert immer ein Paar von Versuchspersonen, die hinsichtlich eines spezifischen Merkmals äquivalent sind. (nach Pospeschill, 006) Thomas Schäfer SS 009 1
Messwiederholungen und abhängige Messungen Beispiele für Matching: Alter, IQ, Geschlecht Ziel des Matching: sich dem Design einer Messwiederholung so gut wie möglich anzunähern Messwiederholungsdesigns sind perfekt gematcht (parallelisiert) Messwiederholungsdesigns und gepaarte Stichproben liefern immer abhängige (verbundene) Messungen Vorteile abhängiger Stichproben: weniger Versuchspersonen nötig Veränderungen über die Zeit besser messbar (z.b. bei Wirksamkeitsstudien) Fehlervarianz (hier: die Varianz zwischen den Personen) wird reduziert Nachteile: Sequenz und Lerneffekte Thomas Schäfer SS 009 3 t Test für abhängige Stichproben Messwert 36 35 34 33 3 31 30 9 8 7 6 5 4 3 1 0 Messung A Messung B für jedes Messwertepaar geht nur die Differenz der Werte in die Berechnung ein, nicht die Rohwerte! Die unterschiedlichen Niveaus der Personen werden nicht berücksichtigt Minimierung der Fehlerstreuung der Durchschnitt aller Differenzen wird gegen 0 getestet (wie beim Einstichprobenfall) n entspricht daher nur der Anzahl der Messwertpaare, nicht der Anzahl der Messwerte! Thomas Schäfer SS 009 4
t Test für abhängige Stichproben Messwert 36 35 34 33 3 31 30 9 8 7 6 5 4 3 Messung A Messung B 35 3 3 35 31 4 33 30 3 3 9 3 30 5 5 7 4 3 Differenz X diff 3,5 Varianz der Differenzen 1 0 Messung A Messung B t AS X ˆ diff X diff X ˆ diff diff n ˆ diff n i 1 ( diff ) diff i n 1 Thomas Schäfer SS 009 5 t Test für abhängige Stichproben Durch die Reduzierung der Fehlervarianz wird der t Wert für abhängige Stichproben immer größer als der t Wert für unabhängige Stichproben Effektgrößen Aus Rohwerten: g X diff ˆ diff Aus dem t Wert: g t AS oder r n t² t² + df Thomas Schäfer SS 009 6 3
t Tests im Vergleich Empirischer vs. theoretischer Mittelwert (Einstichprobenfall) Zwei empirische Mittelwerte (unabhängige Messungen) Abhängige Messungen t X μ X t X X A B X A X B diff t diff X n X A X B X A (bei n A n B ) + X B diff diff n Thomas Schäfer SS 009 7 Varianzanalyse mit Messwiederholung (Repeated measures ANOVA) 36 35 34 33 3 31 Messwert 30 9 8 7 6 (aus Pospeschill, 006) 5 4 3 1 0 Messung A Messung B Messung C Thomas Schäfer SS 009 8 4
Varianzanalyse mit Messwiederholung Varianz über (k) abhängige Messungen; statt steht oft treat F ˆ ˆ residual df df res res Varianz, die nicht durch Treatment oder Personen erklärt wird df k 1 df res (k 1)(n 1) ( gesamt zwischen Personen + + res ) : Quadratsumme n: Anzahl der wiederholt gemessenen Merkmalsträger (Personen) Thomas Schäfer SS 009 9 Varianzanalyse mit Messwiederholung gesamt Pers ( X ij X ) k n X k [ n ] ( X ) X i i 1 i 1 j 1 n k X j 1 ( X ) res gesamt Pers j i: Laufvariable fürspalten (Messwiederholungen) j: Laufvariable für Merkmalsträger (Personen) k: Anzahl der Messungen n: Anzahl der wiederholt gemessenen Merkmalsträger X : Gesamtmittelwert Thomas Schäfer SS 009 10 5
Beispiel: Lordoseverhalten bei Hamstern Thomas Schäfer SS 009 11 Beispiel: Lordoseverhalten bei Hamstern Männchen A Männchen B Männchen C Hamster 1 30 14 4 16 Mittel Hamster 8 16 6 16,7 Hamster 3 7 16 5 16 Hamster 4 34 18 9 0,3 die unterschiedlichen Niveaus der Merkmalsträger sind wieder nicht von Bedeutung Mittel 30 16 6 17,3 entscheidend ist, wie die Mittelwerte über die Messwiederholungen hinweg variieren diese Variation spiegelt den Effekt der Messwiederholung wieder Thomas Schäfer SS 009 1 6
Effektgrößen und Power Populations Effektgröße (partielles Eta Quadrat): η P + res zur Poweranalyse: Vorgehen analog zur ANOVA bei unabhängigen Stichproben Effektgrößen generell größer als bei unabhängigen Gruppen! will man Effektgrößen aus ANOVAs mit abhängigen und unabhängigen Stichproben direkt vergleichen, kann man eine korrigierte Variante der Effektgröße berechnen: η + Pers + res Thomas Schäfer SS 009 13 Poweranalyse mit G Power Test auswählen Design auswählen Art der Analyse auswählen (a priori, post hoc) Effektgröße eintragen (hier ausrechnen) Alpha eintragen Power eintragen Anzahl der Messwiederholungen bzw. Versuchsgruppen Thomas Schäfer SS 009 14 7
Poweranalyse mit G Power Ergebnis Ergebnis: erforderliches N Plot anzeigen lassen für N gegen Power Thomas Schäfer SS 009 15 Post hoc Tests (Einzelvergleiche) zur Analyse der Differenzen einzelner Faktorstufen: Vorgehen analog zur ANOVA bei unabhängigen Stichproben also z.b. Scheffé Test, hffé Bonferroni Test usw. Männchen A Männchen B Männchen C Hamster 1 30 14 4 16 Mittel Hamster 8 16 6 16,7 Hamster 3 7 16 5 16 Hamster 4 34 18 9 0,3 Mittel 30 16 6 17,3 Thomas Schäfer SS 009 16 8
Gemischte Designs (mixed models) bei faktoriellen Designs können gleichzeitig abhängige und unabhängige Messungen vorkommen in SPSS: abhängige Messungen Innersubjektfaktoren, k unabhängige Messungen Zwischensubjektfaktoren Faktor A: Messwiederholung in 3 Stufen Sitzung A Sitzung B Sitzung C Faktor B: unabhängige Gruppen Patienten ohne Medikament Patienten mit Medikament Thomas Schäfer SS 009 17 Gemischte Designs Beispiele aus Gerrig & Zimbardo, 008 Thomas Schäfer SS 009 18 9
Kovarianzanalyse (Analysis of Covariance, ANCOVA) Problemstellung: was passiert, wenn sich Versuchsgruppen (Faktorstufen) nicht nur durch das Treatment unterscheiden, sondern außerdem durch den Einfluss von Störvariablen? (häufig: Alter, Geschlecht, Intelligenz ) die eigentliche Lösung: Ausschalten der Störvariablen durch experimentelle Kontrolle wenn das nicht möglich ist (z.b. unvorhersehbare Störungen, Quasiexperimente), müssen die Störvariablen statistisch kontrolliert werden dafür müssen die Störvariablen in jedem Fall dokumentiert werden! Placebo Einfache D. Doppelte D. 18 17 5 18 9 4 0 16 16 Thomas Schäfer SS 009 19 Kovarianzanalyse die Störvariable erhöht die Fehlervarianz bei der ANOVA, weil ihr Einfluss nicht durch die erklärt werden kann damit sinkt die Power der berechneten Tests Wie kann man den Effekt der Störvariablen ausschalten? Statistische Kontrolle einer Störvariablen, die möglicherweise die Daten der Untersuchung beeinflusst haben könnte: Frage: Wie sähen die Ergebnisse aus, wenn man den Einfluss dieser Variablen konstant gehalten hätte? Vorgehen: 1. Die Störvariable wird zusätzlich erhoben. Ihr Einfluss wird mit einer Kovarianzanalyse neutralisiert (herausgerechnet) Thomas Schäfer SS 009 0 10
Kovarianzanalyse Vorgehen Die Regressionsanalyse entfernt die auf das Kovariat zurückgehende Varianz aus der abhängigen Variablen (AV) dies geschieht, h in dem eine Regression der AV auf die Kovariate berechnet wird die Regressionsresiduen beschreiben den Anteil der AV, der nicht durch die Kovariate erklärt werden kann diese Residuen werden als neue AV in eine Varianzanalyse gegeben es wird versucht, die nach der Regressionsanalyse verbleibende (nicht erklärbare) Varianz mit der Hilfe einer ANOVA zu erklären Thomas Schäfer SS 009 1 Kovarianzanalyse Vorgehen Placebo Einfache D. Doppelte D. 18 17 5 18 9 4 0 16 16 möglicherweise ruft ein Unterschied im Alter zwischen den Gruppen Varianz in der Befindlichkeit der Patienten hervor, die nichts mit der zu tun hat AV zunächst Regression von Befindlichkeit auf Alter Alter Thomas Schäfer SS 009 11
Kovarianzanalyse Vorgehen Residuen die verbleibenden Residuen sind nun um den Einfluss des Kovariates bereinigt sie werden als neue AV in die ANOVA gegeben liefert die ANOVA nun immer noch einen Unterschied zwischen den Gruppen, so kann dieser nicht mehr durch das Kovariat bedingt sein Thomas Schäfer SS 009 3 Kovarianzanalyse Vorgehen die Kovariate müssen intervallskaliert sein nominalskalierte Störvariablen werden einfach als Faktoren mit in die ANOVA aufgenommen ihr Einfluss wird dann von der Gesamtquadratsumme abgezogen sie erhalten einen eigenen F Wert Output Tabellen von Kovarianzanalysen sehen so aus wie die von ANOVAs, aber jedes Kovariat erhält eine eigene Zeile, in der der Effekt angegeben ist Fazit: Kovarianzanalyse als Alternative zur ANOVA, wenn Störvariablen statistisch kontrolliert werden sollen Thomas Schäfer SS 009 4 1