Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten 5.1. Einführung Einfaktorielle Varianzanalyse Überprüft die Auswirkung einer gestuften (s), unabhängigen Variable X, auch Faktor genannt, auf eine abhängige Variable y. Eine abhängige Variable bezeichnen wir dasjenige Merkmal, welches untersucht wird. Einfaktoriell einfache Klassifikation eines Faktor mit seinen jeweiligen Ausprägungen/ Stufen Beispiel: a) Faktor X: Antidepressivum Stufen: s verschiedene Dosierungen des Antidepressivums Effekte: Ausmaß der Stimmungsaufhellung in Abhängigkeit von den Dosierungen b) Faktor X: Lernmethode Stufen: s verschiedene Lernmethoden Effekte: Lernerfolg gemessen in einem Test Faktor Grundidee Randomisierte Stichprobe Variablen werden klassifiziert bzw. nach bestimmten Kriterien in Gruppen eingeteilt Bei mehr als ein Faktor, spricht man von zwei- oder mehrfaktoriellen Designs Die Größe der Mittelwertunterschiede zwischen den Gruppen in Relation zu setzen und zur Variation innerhalb der Gruppe Üblicherweise benötigt man zum Vergleich mindestens 3 Gruppen/Bedingungen - Auch experimentelle Untersuchungen - Durch zufällige Zuordnung zu den Faktorstufen, entsteht in diesen diese Art Stichprobe Treatment - Auch Treatmentfaktor, Behandlungen oder nur Faktor - innerhalb einer randomisierten Stichprobe werden Faktoren unterschiedlich behandelt, aber auch wenn Versuchspersonen sich durch Merkmale unterscheiden Anforderungen - das Vorliegen von Normalverteilungen der Residuen - Am Skalenniveau der abhängigen Variable Alternativ, wenn Anforderungen Nicht erfüllt sind, dann: Auswertungsverfahren auf der Basis der in den Daten enthaltenen Ranginformationen einzusetzen, sofern es einfaktoriell ist Modelle 1. Mit festen Effekten (geplante Experimente) Dient dem Vergleich mehrerer Mittelwerte quantitativer normalverteilter Merkmale, die in fest gewählten Stufen eines Faktors beobachtet werden 2. Mit zufälligen Effekten (Stichproben) Dient der Zerlegung der durch den Einfluss mehrerer Faktoren erzeugten Gesamtvariabilität (Varianz) in Komponenten, die den Einfluss jedes Faktors wiederspiegeln und in eine Komponente, die nicht durch die Faktoren erklärt wird (Restvarianz)
5.2. Einfaktorielle Varianzanalyse - Zufallsstichprobe - Varianzen sind unbekannt, aber in allen Grundgesamtheiten gleich (Homoskedastizität) Balancierter Versuchsplan - Erheben von gleicher Anzahl an n i Beobachtungen pro Faktorstufe s s n i = n i=1 Summe der Beobachtungen je Stichprobe Mittelwert aller Werte einer Stichprobe s erster Index: Faktorstufe j zweiter Index: die Person/Testobjekt s A i = y sj i=1 A i = A i n i Gesamtmittelwert G = G y.., identisch mit: y.. = n n G alle Messwerte aus jeder Stichprobe n Gesamtzahl aller Beobachtungen (n i*s = n) Beispiel 5.1. Faktorstufen (s) Y 1 Y 2 Y 3 1 3 4 6 2 7 5 8 3 10 12 14 Gesamtsumme A 1= 20 A 2 = 21 A 3= 28 G = 69 Stichprobenmittelwert A 1 = 6 2/3 A 2 = 7 Mittelwert aller G G =7 2/3 A 3 = 9,3333
Lineare Modell für yij Zerlegung der Quadratsummen SQ Total SQ Regression (innerhalb) SQ Residual (zwischen) df Total = n 1 df Regression = n s df Residual = s 1 SQ Total Totale Quadratsumme Ergibt sich als die Summe der quadrierten Abweichungen aller Messwerte vom Gesamtmittelwert, erfasst die Variabilität aller Messwerte SQ Regression Fehlerquadratsumme Restlicher Quadratsummenanteil, der vom Treatment unabhängig ist und der auf andere beeinflussende Variablen (Störvariablen) zurückzuführen ist SQ Residual Treatmentquadratsumme Gemessen wird nun derjenige Anteil der Unterschiedlichkeit aller Messwerte, der auf die Faktorenstufen zurückzuführen ist df Freiheitsgeraden Weiter am Beispiel 5.1. Ergebnisse für die Quadratsummen und für die Freiheitsgeraden 110 97 1/3 12 2/3 df Total = 8 df Regression = 6 df Residual = 2
Prüfen des Modells Teststatistik - die zu berechnende Prüfgröße geht von den mittleren Quadraten aus (MQ) - relativieren die Quadratsumme eines Effekts an seinen Freiheitsgeraden - F- Test prüft die Nullhypothese - Nullhypothese wird abgelehnt, wenn MQ zwischen = SQ zwischen s 1 MQ innerhalb = SQ innerhalb n s - Erwartet wird ein F-Wert bei 1,0, wenn der Wert bedeutend größer ist als 1,0 gilt die Alternativhypothese - Wenn MQ innerhalb größer ist als MQ zwischen, dann erübrigt sich der F-Test, weil in diesem Fall der F-Wert kleiner als 1,0 ist und somit Treatmentstufenunterschiede, verglichen mit den Fehlereffekten, unbedeutend sind
Weiter am Beispiel 5.1. MQ zwischen = SQ zwischen = 12 2 3 s 1 2 = 6 1 3 MQ innerhalb = SQ innerhalb n s = 97 1 3 6 = 16 2 9 Weil MQ innerhalb größer ist als MQ zwischen erübrigt sich alles weitere, weil F < 1,0 F ~ 0,39 Überblick 5.3. Effektstärke Bestimmtheitsmaß auch Effektgröße η² R 2 = SQ Zwischen SQ Total 5.4. Vergleich von einzelnen Mittelwerten - Gibt an, in welchem Umfang die unabhängige Variable, also hier der Faktor, die Varianz der abhängigen Variable aufklärt - Erleichtert den Vergleich von Ergebnissen verschiedener Studien Mittelwertsvergleich die Prüfung von der Nullhypothese gegen die Alternativhypothese hat zwei mögliche Ergebnisse Beibehaltung von H 0 (kein Behandlungseffekt) und Ablehnung von H 0 (Behandlungseffekt) Ablehnung: man möchte herausfinden, welcher Treatment der diesen Overall- Effekt verursacht, deshalb folgen Vergleiche von Paaren oder von Linearkombinationen von Mittelwerten.
Linearer Kontrast Ein Kontrast ergibt sich aus der Formel: Der Kontrast gilt nur dann, wenn diese Bedingungen erfüllt sind, wenn nicht handelt es sich um eine Linearkombination der Treatmentmittelwerte Durch Kontraste auch Einzelvergleiche finden wir heraus, zwischen welchen einzelnen Treatmentstufen signifikante Unterschiede bestehen. Wie erhalte ich Kontrastkoeffizienten c? Erklärung aus moodle: Geg. drei Gruppen: c 1= Kontrollgruppe, c 2= stationär, c 3= ambulant Bedingung: die Summe der Kontrastkoeffizienten immer null ergeben 1. Kontrollgruppe unterscheidet sich von den anderen beiden Gruppen Dann gilt: : c 1= -2, c 2= 1, c 3= 1 2. stationär behandelte Gruppe unterscheidet sich von den anderen beiden Gruppen Dann gilt: c 1= 1, c 2= -2, c 3= 1 3. KG unterscheidet sich von der stationär behandelten Gruppe, aber nicht von der ambulanten Gruppe. Dann gilt: c 1= 1, c 2= -1, c 3= 0 4. ambulante Gruppe unterscheidet sich von den anderen beiden Gruppen Dann gilt: c 1= 1, c 2= 1, c 3= -2 Vergleich von s Populationen bezüglicher ihrer µ Linearer Kontrast: WICHTIG: µ Vektor, ist nicht der Gesamtmittelwert µ aus der linearen Modell (5.7.) Teststatistik für H0 falls X² Verteilungen des Zählers und des Nenners unabhängig sind äquivalent man kann k (außer mit 0) multiplizieren
Standardisierung - um Vieldeutigkeit des Teststatistk auszuschließen! linearer Kontrast ist normiert c c = 1 Orthogonale Kontraste Orthonormalsystem Dann gilt: c 1 c 2 = 0 orthogonal (rechtswinklig) prüfen auf Signifiganz und überprüfen Forschungshypothesen Es gilt: Multiple Vergleiche Ursache der Ablehnung für H 0 c ic j = δ ij Hilfsmittel, um die Zahl der möglichen Paarvergleiche auf die Maximalzahl unabhängiger Hypothesen zu reduzieren Prüfbarkeit sichern 1. Alle drei µ sind verschieden Nachweisen durch den zwei Zwei-Stichproben t-tests 2. Zwei µ sind gleich, aber vom dritten verschieden Verschiedene Verfahren: Vergleich aller möglichen Paare von Mittelwerten (bei s Stufen von A also s(s 1)/2 verschiedene Paare) Vergleich aller s 1 Mittelwerte mit einer vorher festgelegten Kontrollgruppe Vergleich aller Paare von Behandlungen, die vorher ausgewählt wurden Vergleich von beliebigen Linearkombinationen der Mittelwerte. Diese Verfahren unterscheiden sich vor allem in der Art und Weise, wie sie den Fehler 1.Art kontrollieren. Im einen Fall wird der Fehler auf einer per comparison Basis (d.h. auf den jeweiligen Vergleich bezogen) kontrolliert, im anderen Fall erfolgt eine Kontrolle simultan für alle Vergleiche. Per comparison - Gruppenvergleiche werden vor Beginn des Experiments fest geplant Simultan gleichzeitig - Multiple Testprozedur, die die Fehlerrate auf einer per experiment basis (experimetenweise Basis) kontrolliert - Von Dunnet: Vergleich von s 1 Gruppen mit einer Kontrollgruppe - Von Tukey: paarweise Vergleich für alle s(s-1)/2 = ( s 2 ) - Von Scheffé: Vergleiche für beliebige Linearkombinationen
5.5. Einfaktorielle Modelle mit zufälligen Effekten Modell Neue Bedeutung von α: zufällige Effekte der i-ten Behandlung, deren Verteilung wir spezifizieren müssen Voraussetzung: Forderung:, dann gilt: Darstellung durch - Schätzung von Varianzkomponenten Behandlungseffekt Zusammenhänge - In einer i-ten Stichprobe haben einen Zusammenhang - Verschiedener Stichproben haben weiterhin keinen Zusammenhang Schätzung von σ² - MQ Residual ist eine erwartungstreue Schätzung von σ² Die Summe von diesen beiden Varianzkomponenten ergibt die Schätzung der gesamten Varianz in y.
Teststatistik - Ist dieselbe wie im Modell mit festen Effekten 5.6. Rangvarianzanalyse Kruskal- Wallis- Test - Response entweder stetig und nicht normalverteilt oder ordinal - Einfaktoriell Vollständige randomisierte Versuchsplanung Zweifach indiziert als y ij mit i= 1,,s und j=1,,n (Laufindex innerhalb von der i-ten Gruppe) Beobachtungen alle unabhängig Modell K beliebige stetige Verteilung mit Erwartungswert 0 und Varianz σ² Ziel Vergleich mehrerer Stichprobe, ob sich mindestens zwei von Ihnen in der Größe ihrer Messwerte signifikant unterscheiden Vergleich von Rangsummen der Gruppen
Rangsummen Rangmittelwerte Teststatistik H - Gruppenunterschiede ermitteln mit: H ist ein Maß für die Varianz der Stichproben Rangmittelwerte Falls: n i 5 existieren Tabellen für den kritischen Wert 2 n i 5 H ist approximativ(annähern) X s 1 - verteilt Korrigierte Teststatistik - Treten gleiche Responsewerte y ij auf, denen dann mittlere Ränge zugewiesen werden, so folgt: