Messwiederholungen und abhängige Messungen

Ähnliche Dokumente
Aufgaben zu Kapitel 7:

SozialwissenschaftlerInnen II

SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben

Parametrische vs. Non-Parametrische Testverfahren

Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse

Unsystematische Störvariablen

Aufgaben zu Kapitel 5:

Hypothesentests mit SPSS

Kapitel 6: Zweifaktorielle Varianzanalyse

Kontrastanalyse Kontrastanalyse

Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben

Anwendungsaufgaben. Effektgröße bei df Zähler = df A = 1 und N = 40 (zu berechnen aus df Nenner ): Der aufgedeckte Effekt beträgt also etwa 23 %.

Kapitel 7: Varianzanalyse mit Messwiederholung

8. G*Power. power3/ 8. Stichprobenumfang, Effekt- und Teststärke

Kapitel 5: Einfaktorielle Varianzanalyse

Formelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade

VS PLUS

Methodenlehre. Vorlesung 5. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Varianzanalytische Methoden Zweifaktorielle Versuchspläne 4/13. Durchführung in SPSS (File Trait Angst.sav)

Jun. Prof. Dr. Sarah Lukas Prof. Dr. Stefan König. Interventionsstudien. Workshop am Tag der Zentren (PH Weingarten am

Vorlesung: Multivariate Statistik für Psychologen

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 7 a)

Kapitel 5: Einfaktorielle Varianzanalyse

Die Varianzanalyse ohne Messwiederholung. Jonathan Harrington. Bi8e noch einmal datasets.zip laden

ANalysis Of VAriance (ANOVA) 2/2

Im Modell der Varianzanalyse (mit festen Effekten) ist das. aus dem Durchschnittsmesswert für y plus dem Effekt des.

Mittelwertvergleiche, Teil II: Varianzanalyse

Varianzanalyse. Seminar: Multivariate Verfahren Dr. Thomas Schäfer. Datum: 25. Mai 2010

Einführung in die Varianzanalyse mit SPSS

Varianzanalyse * (1) Varianzanalyse (2)

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell

1 Varianzanalyse (ANOVA)

Webergänzung zu Kapitel 10

Kapitel 5: Einfaktorielle Varianzanalyse

Inhaltsverzeichnis. Vorwort

Vergleich von Gruppen I

Methodik für Linguisten

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav

Tab. 4.1: Altersverteilung der Gesamtstichprobe BASG SASG BAS SAS UDS SCH AVP Mittelwert Median Standardabweichung 44,36 43,00 11,84

Ziel: Vorhersage eines Kriteriums/Regressand Y durch einen Prädiktor/Regressor X.

ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II

Einfache Varianzanalyse für unabhängige Stichproben

Varianzanalyse mit Messwiederholungen (Repeated- measures (ANOVA) BiFe noch einmal datasets.zip laden

Varianzanalyse (ANOVA: analysis of variance)

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien

V A R I A N Z A N A L Y S E

Pflichtlektüre: Kapitel 12 - Signifikanztest Wie funktioniert ein Signifikanztest? Vorgehensweise nach R. A. Fisher.

Die ungeliebten Verwandten: nicht-parametrische Alternativen

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Forschungsmethoden: Definition

Aufgaben zu Kapitel 9

1. Es sind einfach zu viele! Varianzanalytische Verfahren.

Lösungen zu den Übungsaufgaben in Kapitel 10

Standardab er des. Testwert = % Konfidenzintervall. T df Sig. (2-seitig) Differenz Untere Obere

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003

Statistik. Jan Müller

Anhang A: Fragebögen und sonstige Unterlagen

Seminar: Multivariate Analysemethoden. Dozent: Dr. Thomas Schäfer. Referentinnen: Tina Schönleiter, Sarah Heilmann, Nicole Lorenz

Testplanung zur statistischen Prüfung psychologischer Hypothesen

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011

5. Untersuchungsdesigns

Willkommen zur Vorlesung Statistik

Drittvariablenkontrolle in der linearen Regression: Trivariate Regression

Aufgaben zu Kapitel 8

Klassifikation von Signifikanztests

in der Psychologie Experimentelle Hypothesenprüfung und Verlag für Psychologie von

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk

Mathematische und statistische Methoden I

Kapitel 8: Verfahren für Rangdaten

1.1. Vergleich von Mittelwerten

Korrelation - Regression. Berghold, IMI

Willkommen zur Vorlesung Statistik (Master)

Hypothesentests mit SPSS. Beispiel für einen t-test

Formulierung und Transformation von Hypothesen Prüfung am Beispiel des Artikels von Bailer, Takats, & Westermeier, 2001)

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Etwas positive Tendenz ist beim Wechsel der Temperatur von 120 auf 170 zu erkennen.

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

SFB 833 Bedeutungskonstitution. Kompaktkurs. Datenanalyse. Projekt Z2 Tübingen, Mittwoch, 18. und 20. März 2015

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

Aufgabenblock 4. Da Körpergröße normalverteilt ist, erhalten wir aus der Tabelle der t-verteilung bei df = 19 und α = 0.05 den Wert t 19,97.

UE Angewandte Statistik Termin 4 Gruppenvergleichstests

Statistik II Übung 1: Einfache lineare Regression

fh management, communication & it Constantin von Craushaar fh-management, communication & it Statistik Angewandte Statistik

Einfache Varianzanalyse für abhängige

Die Varianzanalyse. Analysis of Variance (ANOVA) Jonathan Harrington

Teil: lineare Regression

Psycholinguistik. Definition: Psycholinguistik (synonym: Sprachpsychologie) erforscht das kognitive (mentale) System, das den Sprachgebrauch erlaubt.

Übungen (HS-2010): Urteilsfehler. Autor: Siegfried Macho

Einführung in die Kovarianzanalyse (ANCOVA)

Nichtparametrische statistische Verfahren

Transkript:

Messwiederholungen und abhängige Messungen t Tests und Varianzanalysen für Messwiederholungen Kovarianzanalyse Thomas Schäfer SS 009 1 Messwiederholungen und abhängige Messungen Bei einer Messwiederholung (repeated mesurement) handelt es sich um ein Untersuchungsdesign, das eine Stichprobe verwendet, bei der wiederholt die gleiche abhängige gg Variable gemessen wird. Dieselben Personen durchlaufen dabei alle Untersuchungsbedingungen. Eine solche Untersuchungsform wird auch als Innersubjekt Design (between subjects) bezeichnet. Bei einem Design mit gepaarten Stichproben (matched samples) wird jeder Untersuchungsteilnehmer der einen Stichprobe einem Teilnehmer der anderen Stichprobe anhand eines Merkmals zugeordnet. Aus den Prozess des Matching resultiert immer ein Paar von Versuchspersonen, die hinsichtlich eines spezifischen Merkmals äquivalent sind. (nach Pospeschill, 006) Thomas Schäfer SS 009 1

Messwiederholungen und abhängige Messungen Beispiele für Matching: Alter, IQ, Geschlecht Ziel des Matching: sich dem Design einer Messwiederholung so gut wie möglich anzunähern Messwiederholungsdesigns sind perfekt gematcht (parallelisiert) Messwiederholungsdesigns und gepaarte Stichproben liefern immer abhängige (verbundene) Messungen Vorteile abhängiger Stichproben: weniger Versuchspersonen nötig Veränderungen über die Zeit besser messbar (z.b. bei Wirksamkeitsstudien) Fehlervarianz (hier: die Varianz zwischen den Personen) wird reduziert Nachteile: Sequenz und Lerneffekte Thomas Schäfer SS 009 3 t Test für abhängige Stichproben Messwert 36 35 34 33 3 31 30 9 8 7 6 5 4 3 1 0 Messung A Messung B für jedes Messwertepaar geht nur die Differenz der Werte in die Berechnung ein, nicht die Rohwerte! Die unterschiedlichen Niveaus der Personen werden nicht berücksichtigt Minimierung der Fehlerstreuung der Durchschnitt aller Differenzen wird gegen 0 getestet (wie beim Einstichprobenfall) n entspricht daher nur der Anzahl der Messwertpaare, nicht der Anzahl der Messwerte! Thomas Schäfer SS 009 4

t Test für abhängige Stichproben Messwert 36 35 34 33 3 31 30 9 8 7 6 5 4 3 Messung A Messung B 35 3 3 35 31 4 33 30 3 3 9 3 30 5 5 7 4 3 Differenz X diff 3,5 Varianz der Differenzen 1 0 Messung A Messung B t AS X ˆ diff X diff X ˆ diff diff n ˆ diff n i 1 ( diff ) diff i n 1 Thomas Schäfer SS 009 5 t Test für abhängige Stichproben Durch die Reduzierung der Fehlervarianz wird der t Wert für abhängige Stichproben immer größer als der t Wert für unabhängige Stichproben Effektgrößen Aus Rohwerten: g X diff ˆ diff Aus dem t Wert: g t AS oder r n t² t² + df Thomas Schäfer SS 009 6 3

t Tests im Vergleich Empirischer vs. theoretischer Mittelwert (Einstichprobenfall) Zwei empirische Mittelwerte (unabhängige Messungen) Abhängige Messungen t X μ X t X X A B X A X B diff t diff X n X A X B X A (bei n A n B ) + X B diff diff n Thomas Schäfer SS 009 7 Varianzanalyse mit Messwiederholung (Repeated measures ANOVA) 36 35 34 33 3 31 Messwert 30 9 8 7 6 (aus Pospeschill, 006) 5 4 3 1 0 Messung A Messung B Messung C Thomas Schäfer SS 009 8 4

Varianzanalyse mit Messwiederholung Varianz über (k) abhängige Messungen; statt steht oft treat F ˆ ˆ residual df df res res Varianz, die nicht durch Treatment oder Personen erklärt wird df k 1 df res (k 1)(n 1) ( gesamt zwischen Personen + + res ) : Quadratsumme n: Anzahl der wiederholt gemessenen Merkmalsträger (Personen) Thomas Schäfer SS 009 9 Varianzanalyse mit Messwiederholung gesamt Pers ( X ij X ) k n X k [ n ] ( X ) X i i 1 i 1 j 1 n k X j 1 ( X ) res gesamt Pers j i: Laufvariable fürspalten (Messwiederholungen) j: Laufvariable für Merkmalsträger (Personen) k: Anzahl der Messungen n: Anzahl der wiederholt gemessenen Merkmalsträger X : Gesamtmittelwert Thomas Schäfer SS 009 10 5

Beispiel: Lordoseverhalten bei Hamstern Thomas Schäfer SS 009 11 Beispiel: Lordoseverhalten bei Hamstern Männchen A Männchen B Männchen C Hamster 1 30 14 4 16 Mittel Hamster 8 16 6 16,7 Hamster 3 7 16 5 16 Hamster 4 34 18 9 0,3 die unterschiedlichen Niveaus der Merkmalsträger sind wieder nicht von Bedeutung Mittel 30 16 6 17,3 entscheidend ist, wie die Mittelwerte über die Messwiederholungen hinweg variieren diese Variation spiegelt den Effekt der Messwiederholung wieder Thomas Schäfer SS 009 1 6

Effektgrößen und Power Populations Effektgröße (partielles Eta Quadrat): η P + res zur Poweranalyse: Vorgehen analog zur ANOVA bei unabhängigen Stichproben Effektgrößen generell größer als bei unabhängigen Gruppen! will man Effektgrößen aus ANOVAs mit abhängigen und unabhängigen Stichproben direkt vergleichen, kann man eine korrigierte Variante der Effektgröße berechnen: η + Pers + res Thomas Schäfer SS 009 13 Poweranalyse mit G Power Test auswählen Design auswählen Art der Analyse auswählen (a priori, post hoc) Effektgröße eintragen (hier ausrechnen) Alpha eintragen Power eintragen Anzahl der Messwiederholungen bzw. Versuchsgruppen Thomas Schäfer SS 009 14 7

Poweranalyse mit G Power Ergebnis Ergebnis: erforderliches N Plot anzeigen lassen für N gegen Power Thomas Schäfer SS 009 15 Post hoc Tests (Einzelvergleiche) zur Analyse der Differenzen einzelner Faktorstufen: Vorgehen analog zur ANOVA bei unabhängigen Stichproben also z.b. Scheffé Test, hffé Bonferroni Test usw. Männchen A Männchen B Männchen C Hamster 1 30 14 4 16 Mittel Hamster 8 16 6 16,7 Hamster 3 7 16 5 16 Hamster 4 34 18 9 0,3 Mittel 30 16 6 17,3 Thomas Schäfer SS 009 16 8

Gemischte Designs (mixed models) bei faktoriellen Designs können gleichzeitig abhängige und unabhängige Messungen vorkommen in SPSS: abhängige Messungen Innersubjektfaktoren, k unabhängige Messungen Zwischensubjektfaktoren Faktor A: Messwiederholung in 3 Stufen Sitzung A Sitzung B Sitzung C Faktor B: unabhängige Gruppen Patienten ohne Medikament Patienten mit Medikament Thomas Schäfer SS 009 17 Gemischte Designs Beispiele aus Gerrig & Zimbardo, 008 Thomas Schäfer SS 009 18 9

Kovarianzanalyse (Analysis of Covariance, ANCOVA) Problemstellung: was passiert, wenn sich Versuchsgruppen (Faktorstufen) nicht nur durch das Treatment unterscheiden, sondern außerdem durch den Einfluss von Störvariablen? (häufig: Alter, Geschlecht, Intelligenz ) die eigentliche Lösung: Ausschalten der Störvariablen durch experimentelle Kontrolle wenn das nicht möglich ist (z.b. unvorhersehbare Störungen, Quasiexperimente), müssen die Störvariablen statistisch kontrolliert werden dafür müssen die Störvariablen in jedem Fall dokumentiert werden! Placebo Einfache D. Doppelte D. 18 17 5 18 9 4 0 16 16 Thomas Schäfer SS 009 19 Kovarianzanalyse die Störvariable erhöht die Fehlervarianz bei der ANOVA, weil ihr Einfluss nicht durch die erklärt werden kann damit sinkt die Power der berechneten Tests Wie kann man den Effekt der Störvariablen ausschalten? Statistische Kontrolle einer Störvariablen, die möglicherweise die Daten der Untersuchung beeinflusst haben könnte: Frage: Wie sähen die Ergebnisse aus, wenn man den Einfluss dieser Variablen konstant gehalten hätte? Vorgehen: 1. Die Störvariable wird zusätzlich erhoben. Ihr Einfluss wird mit einer Kovarianzanalyse neutralisiert (herausgerechnet) Thomas Schäfer SS 009 0 10

Kovarianzanalyse Vorgehen Die Regressionsanalyse entfernt die auf das Kovariat zurückgehende Varianz aus der abhängigen Variablen (AV) dies geschieht, h in dem eine Regression der AV auf die Kovariate berechnet wird die Regressionsresiduen beschreiben den Anteil der AV, der nicht durch die Kovariate erklärt werden kann diese Residuen werden als neue AV in eine Varianzanalyse gegeben es wird versucht, die nach der Regressionsanalyse verbleibende (nicht erklärbare) Varianz mit der Hilfe einer ANOVA zu erklären Thomas Schäfer SS 009 1 Kovarianzanalyse Vorgehen Placebo Einfache D. Doppelte D. 18 17 5 18 9 4 0 16 16 möglicherweise ruft ein Unterschied im Alter zwischen den Gruppen Varianz in der Befindlichkeit der Patienten hervor, die nichts mit der zu tun hat AV zunächst Regression von Befindlichkeit auf Alter Alter Thomas Schäfer SS 009 11

Kovarianzanalyse Vorgehen Residuen die verbleibenden Residuen sind nun um den Einfluss des Kovariates bereinigt sie werden als neue AV in die ANOVA gegeben liefert die ANOVA nun immer noch einen Unterschied zwischen den Gruppen, so kann dieser nicht mehr durch das Kovariat bedingt sein Thomas Schäfer SS 009 3 Kovarianzanalyse Vorgehen die Kovariate müssen intervallskaliert sein nominalskalierte Störvariablen werden einfach als Faktoren mit in die ANOVA aufgenommen ihr Einfluss wird dann von der Gesamtquadratsumme abgezogen sie erhalten einen eigenen F Wert Output Tabellen von Kovarianzanalysen sehen so aus wie die von ANOVAs, aber jedes Kovariat erhält eine eigene Zeile, in der der Effekt angegeben ist Fazit: Kovarianzanalyse als Alternative zur ANOVA, wenn Störvariablen statistisch kontrolliert werden sollen Thomas Schäfer SS 009 4 1