Mathematische und statistische Methoden I

Größe: px
Ab Seite anzeigen:

Download "Mathematische und statistische Methoden I"

Transkript

1 Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de WS 010/011 Fachbereich Sozialwissenschaften Psychologisches Institut Johannes Gutenberg Universität Mainz Folie 1

2 Einfaktorielle ANOVA Einfaktorielle ANOVA (ANalysis Of VAriance) Ziel: Analyse des Einflusses unabhängiger Variablen (UVn) auf eine abhängige Variable (AV) Während bei der Regression der Fokus eher auf der Vorhersage einer AV liegt, soll die ANOVA gemessene Unterschiede in der AV erklären. Beispiele: Wie gut wirken unterschiedliche Therapieformen bei spezifischen Phobien bei verschiedenen Geschlechtern? Wie verändert sich die Schulleistung von Kindern über mehrere Nachhilfesitzungen hinweg? Generell versucht die ANOVA immer, Unterschiede zwischen Gruppen in der Höhe der AV aufzuzeigen. Folie

3 Einfaktorielle ANOVA Einfaktorielle ANOVA (ANalysis Of VAriance) Die AV muss dabei stetig sein (intervallskaliert) die UVn sind i.d.r nominal- oder ordinalskaliert Die UVn werden im Rahmen der ANOVA auch als Treatments oder Faktoren bezeichnet, die Ausprägungen eines Treatments als Treatmentstufen oder Faktorstufen Nach der Anzahl der Treatments unterscheidet man die einfaktorielle, zweifaktorielle oder allgemein mehrfaktorielle ANOVA Folie 3

4 Einfaktorielle ANOVA Einfaktorielle ANOVA (ANalysis Of VAriance) Beispiel: Experiment mit einem 3stufigen Treatment A Man habe an 3 Personengruppen (definiert durch die Treatmentstufen A 1 bis A 3 ) die Werte einer AV erhoben. Vp-Nr. A 1 A A n Folie 4

5 Einfaktorielle ANOVA Einfaktorielle ANOVA (ANalysis Of VAriance) Die abhängige Variable sei X genannt. Mit der korrekten Indizierung lässt sich die Tabelle dann schreiben als Vp-Nr. A 1 A A 3 1 x 1,1 = 9 x 1, = 6 x 1,3 = 10 x,1 = 18 x, = 8 x,3 = 11 3 x 3,1 = 1 x 3, = 13 x 3,3 = 7 n x n,1 = 14 x n, = 11 x n,3 = 1 Folie 5

6 Einfaktorielle ANOVA Einfaktorielle ANOVA (ANalysis Of VAriance) Die ANOVA geht nun davon aus, dass am Zustandekommen jedes Messwertes x i,j (i = 1 n, j=1 p mit p=3) drei wesentliche Komponenten beteiligt sind: 1. Ein von allen Personen geteilter Wert, der sogenannte Populationswert Dieser ist für alle Personen konstant. Effekt der Treatmentstufe j des Treatments A Dieser ist für jede Person in Gruppe A j konstant 3. Zufallsfehler, der die Unterschiede zwischen den Personen erklärt, die nicht auf den Effekt von A zurückgehen Dieser ist individuell für jede Person Folie 6

7 Einfaktorielle ANOVA Wie die Regression geht die ANOVA von einem einfachen linearen Modell aus. Sie nimmt an, dass der Messwert einer Person auf einer beliebigen AV additiv aus systematischen Komponenten und einer Fehlerkomponente besteht n= x = μ = Streuung von μ Von allen geteilter Populationswert x = μ + e plus Fehler = Fehlerstreuung x= μ + a+ e = Treatment -streuung plus systematischer Effekt Folie 7

8 Einfaktorielle ANOVA Einfaktorielle ANOVA (ANalysis Of VAriance) Der einfaktoriellen liegt also formal ein sehr einfaches lineares Modell zugrunde x = Messwert der Person i ( i = 1... n) unter Treatmentstufe j ( j = 1... p) ij μ = Populationswert aller n p = N Personen a = Effekt der Treatmentstufe j j e = Fehler der Person i unter Treatmentstufe j ij x = μ + a + e ij j ij Merke: Der Messwert einer beliebigen aller N Person setzt sich zusammen aus einem Populationswert, dem Effekt der Treatmentstufe und einem individuellen Messfehler. Folie 8

9 Einfaktorielle ANOVA Einfaktorielle ANOVA - Annahmen Die Beobachtungen müssen unabhängig sein, d.h. sie müssen von verschiedenen Merkmalsträgern stammen Die Fehler in jeder Treatmentstufe sollten e normalverteilt sein mit einem erwarteten j = 0 Mittelwert von 0. Die Fehlervarianzen in jeder der p Treatmentstufen sollen erwartet (nicht numerisch) gleich sein (Homoskedastizität). s = s = = s e1 e e p Folie 9 Treatmenteffekt und Fehler müssen additiv sein, d.h. die Fehler dürfen nicht mit den Erwartungswerten der Treatmentstufen korrelieren.

10 Einfaktorielle ANOVA Einfaktorielle ANOVA Prüfung der Annahmen Die Unabhängigkeit der Beobachtungen wird i.d.r. begründet angenommen (educated guess). Zur Prüfung der Normalverteilungsannahme der Fehler (i.e. Zellresiduen) wird der Kolmogoroff-Smirnov Test verwendet Zur Prüfung der Homogenität der Fehlervarianzen wird zumeist der Bartlett Test, seltener der Levene Test bzw. der F-Test verwendet. Die Unabhängigkeit der Treatmenteffekte und Messfehler kann über einen Korrelationstest von Zellmittelwerten und Varianzen geprüft werden (selten praktiziert) Folie 10

11 Einfaktorielle ANOVA Einfaktorielle ANOVA (ANalysis Of VAriance) Der beobachtete Messwert jeder Person ist also in drei Komponenten zerlegt Damit lässt sich die Tabelle schreiben als Vp-Nr. A 1 A A 3 1 μ + a 1 + e 11 μ + a + e 1 μ + a 3 + e 13 μ + a 1 + e 1 μ + a + e μ + a 3 + e 3 3 μ + a 1 + e 31 μ + a + e 3 μ + a 3 + e 33 n μ + a 1 + e n1 μ + a + e n μ + a 3 + e n3 Folie 11

12 Einfaktorielle ANOVA Einfaktorielle ANOVA (ANalysis Of VAriance) Die zentrale Forschungsfrage, die von der ANOVA beantwortet werden soll, lautet nun: Gilt a i = a j oder a i a j für alle für mindestens eine der paarweisen Kombinationen von i und j. In Worten: Gibt es mindestens eine Treatmentstufe, die auf den Messwert der Versuchspersonen anders wirkt als die übrigen Treatmentstufen? Folie 1

13 Einfaktorielle ANOVA Einfaktorielle ANOVA (ANalysis Of VAriance) Problem: Sowohl die einzelnen a j als auch μ sind unbekannt. Man kann aber aus den Daten andere, inhaltlich ähnliche Kennzahlen berechnen. Folie 13 Vp-Nr. A 1 A A 3 1 μ + a 1 + e 11 μ + a + e 1 μ + a 3 + e 13 μ + a 1 + e 1 μ + a + e μ + a 3 + e 3 3 μ + a 1 + e 31 μ + a + e 3 μ + a 3 + e 33 n μ + a 1 + e n1 μ + a + e n μ + a 3 + e n3 1 A Mittelwert: A 3 A Gesamtmittel x oder G

14 Einfaktorielle ANOVA Einfaktorielle ANOVA (ANalysis Of VAriance) Wegen der Annahme des Fehlermittelwertes von Null kann man unmittelbar ableiten, dass für den Mittelwert der n Personen aus einer Treatmentstufe gelten muss: A j = μ + a j Und damit für den Gesamtmittelwert aller Personen: x = G = μ + a j Folie 14

15 Einfaktorielle ANOVA Einfaktorielle ANOVA (ANalysis Of VAriance) Mit diesen Definitionen kann man die Ausgangsgleichung x = μ + a + e ij j ij anders schreiben, und zwar als xij = Aj + eij Die Streuung der Daten, ausgedrückt als Quadratsumme (anstatt als Varianz) lautet nun einfach Folie 15 n p n p ( ) ( ) QS = x x = A + e G x ij j ij i= 1 j= 1 i= 1 j= 1

16 Einfaktorielle ANOVA Einfaktorielle ANOVA (ANalysis Of VAriance) Daraus lässt sich die Quadratsummenzerlegung in der ableiten: QS = QS + QS Tot Treat Fehler n p n p p n ( x ) ( ) ( ) ij G = Aj G + xij Aj i= 1 j= 1 i= 1 j= 1 i= 1 j= 1 n p p ( ) ( ) n p ( ) xij G = n Aj G + xij Aj i= 1 j= 1 j= 1 i= 1 j= 1 Die QS Treat wird auch als QS between, die QS Fehler auch als QS within bezeichnet. Folie 16

17 Einfaktorielle ANOVA Annahmen Einfaktorielle ANOVA (ANalysis Of VAriance) Aus den Quadratsummen lassen sich nun spezielle Varianzen bestimmen, die Populationsvarianzen Die Berechnung der Populationsvarianzen erfordert statt des bei der Varianzberechnung üblichen Terms 1 / n andere Nenner. Statt des n werden die so genannten Freiheitsgrade (df, degrees of freedom) eingesetzt. σˆ Dabei gilt: df df Tot Treat = p n 1 = p 1 df = p ( n 1) Fehler Folie 17

18 Einfaktorielle ANOVA Einfaktorielle ANOVA (ANalysis Of VAriance) Annahmen Folie 18 Damit werden die Populationsvarianzen berechnet als ˆ σ ˆ σ ˆ σ Tot Treat Error QS df Tot = = QS df Tot Treat = = Treat n ( x ) ij G i= 1 j= 1 n p 1 ( ) j j= 1 p 1 ( x ) ij Aj QSFehler i= 1 j= 1 = = df p ( n 1) Fehler n p p n A G p

19 Einfaktorielle ANOVA Annahmen Einfaktorielle ANOVA (ANalysis Of VAriance) Hat der Treatment keinen Effekt, so sind Unterschiede zwischen Mittelwerten der Treatmentstufen rein zufällig Die Streuung der Stufenmittelwerte kann dann nur aus der Fehlerstreuung entstehen. Es muss gelten: ˆ σ ˆ σ Treat Fehler Daraus konstruiert man die Prüfgröße F = ˆ σ ˆ σ Treat Fehler Sie ist F-verteilt mit df Treat = p 1 Zählerfreiheitsgraden und df Fehler = p (n-1) Nennerfreiheitsgraden. Aus der F-Verteilung kann die Wahrscheinlichkeit p(f) für das Auftreten dieser Prüfgröße ermittelt werden Folie 19

20 Einfaktorielle ANOVA Annahmen Einfaktorielle ANOVA (ANalysis Of VAriance) Man berechnet also zunächst die Prüfgröße F Die F-Verteilung gibt nun an, welche Wahrscheinlichkeit p(f) das Auftreten der Prüfgröße hat unter der Annahme, dass Treatmentvarianz und Fehlervarianz gleich sind. Ist diese Wahrscheinlichkeit zu klein, so muss es Einflüsse auf die Treatmentstreuung geben, die nicht auf die Fehlerstreuung zurückzuführen sind. Diese Einflüsse können nur durch das Treatment hervorgerufen werden, es hat also eine Wirkung. Folie 0 Das bedeutet gleichzeitig, dass die Mittelwerte der Treatmentstufen systematisch unterschiedlich sind (dieser Unterschied erzeugt gerade die Treatmentstreuung).

21 Einfaktorielle ANOVA Einfaktorielle ANOVA (ANalysis Of VAriance) Annahmen Ist die berechnete Wahrscheinlichkeit p(f) also zu klein, gibt es Unterschiede in den Stufenmittelwerten. Problem: Wie klein ist zu unwahrscheinlich? Es gibt hier Konventionen, die so genannten Signifikanzniveaus: α 0.05 statistisch nicht signifikant α < 0.05 statistisch signifikant α < 0.01 statistisch hochsignifikant Folie 1

22 Einfaktorielle ANOVA Prinzip des Testens Annahmen Beobachtung im Experiment: ˆ σ Treat und σˆ Fehler Frage: Sind die Varianzen in Wahrheit gleich? Geht die Streuung der Mittelwerte der Treatmentstufen nur auf die Fehlerstreuung zurück? (1) Festlegung eines Signifikanzniveaus α () Berechnung der Prüfgröße: F deren Häufigkeitsverteilung theoretisch bekannt ist (F-Verteilung) (3) Berechnung der Wahrscheinlichkeit für diese Prüfgröße: p(f) Folie (4) Rückschluss: ( ˆ ˆ ) pf ( ) = pσtreat = σfehler (5) Vergleich von p mit α und Treffen der Signifikanzaussage Aber: Bei dieser Aussage irrt man sich mit einer Wahrscheinlichkeit von α 100%

23 Einfaktorielle ANOVA Ergebnistabelle Annahmen Folie 3 Man erstellt folgende Ergebnistabelle Treatment QS df Var F p A Fehler Total Zusätzlich ist zu empfehlen, die Varianzaufklärung η² (eta²) für das Modell zu bestimmen. Diese wird anhand der Quadratsummen, nicht der Varianzen berechnet QS bzw. QS η = Fehler η Fehler = QS Treat Treat QSTot Tot

24 Einfaktorielle ANOVA A-Priori Kontraste Scheffé Test Einfaktorielle ANOVA Mittelwertevergleiche Problem: Ein signifikantes Ergebnis in der ANOVA zeigt nicht an, zwischen welchen Treatmentstufen der Effekt besteht. Für die Prüfung der Mittelwerte einzelner Faktorstufen gibt es zwei unterschiedliche Verfahrensweisen 1. A-Priori Tests zur Prüfung von Hypothesen, die bereits vor der Untersuchung formuliert worden sind.. A-Posteriori Tests (Post-hoc Tests) zur Prüfung von Hypothesen, die nach Ansehen der Daten gebildet wurden. Folie

25 Einfaktorielle ANOVA A-Priori Kontraste Scheffé Test Einfaktorielle ANOVA Mittelwertevergleiche Bei den Mittelwertevergleichen im Rahmen der ANOVA können einzelne und Kombinationen von Mittelwerten verglichen werden. Es können Fragen beantwortet werden wie z.b. 1. Sind die Mittelwerte zweier Faktorstufen unterschiedlich?. Ist eine Faktorstufe unterschiedlich zum Mittelwert aller vorhergehenden Faktorstufen? 3. Sind die letzten beiden Faktorstufen unterschiedlich zu den ersten beiden? Folie 3

26 Einfaktorielle ANOVA A-Priori Kontraste Scheffé Test Folie 4 Einfaktorielle ANOVA Mittelwertevergleiche Sind die Mittelwerte zweier Faktorstufen unterschiedlich? D= A A j Ist eine Faktorstufe unterschiedlich zum Mittelwert aller vorhergehenden Faktorstufen? 1 D= A ( ) p A1+ A Ap 1 0 p 1 Sind die letzten beiden Faktorstufen unterschiedlich zu den ersten beiden? 1 1 D= ( A ) ( ) 1+ A Ap 1+ Ap 0 k 0

27 Einfaktorielle ANOVA A-Priori Kontraste Scheffé Test Einfaktorielle ANOVA Mittelwertevergleiche Frage: Wann ist ein so berechnetes D verschieden genug von Null, damit der Mittelwerteunterschied als statistisch signifikant bewertet wird? Lösung: Aus dem D muss eine Prüfgröße mit bekannter Häufigkeitsverteilung konstruiert werden, um die Auftretenswahrscheinlichkeit des gemessenen D zu ermitteln, wenn in Wahrheit kein Unterschied besteht. Zur Berechnung einer F-verteilten Prüfgröße wird die (theoretische) Varianz des D benötigt, die man erhielte, wenn man dasselbe Experiment sehr oft mit immer neuen Stichproben durchführte Folie 5 Die Berechnung der Varianz ist dabei von der Art des Mittelwertevergleichs abhängig.

28 Einfaktorielle ANOVA Prinzip des Testens A-Priori Kontraste Scheffé Test Beobachtung im Experiment: Mehrere Stufenmittelwerte Frage: Sind (zwei) Mittelwerte in Wahrheit gleich? Ist ihre Differenz D=0? (1) Festlegung eines Signifikanzniveaus α () Berechnung der Prüfgröße: F deren Häufigkeitsverteilung theoretisch bekannt ist (F-Verteilung) (3) Berechnung der Wahrscheinlichkeit für diese Prüfgröße: p(f) A j Folie 6 (4) Rückschluss: ( ) pf ( ) = p D= 0 (5) Vergleich von p mit α und Treffen der Signifikanzaussage Aber: Bei dieser Aussage irrt man sich mit einer Wahrscheinlichkeit von α 100%

29 Einfaktorielle ANOVA A-Priori Kontraste Scheffé Test Einfaktorielle ANOVA A-Priori Kontraste Oft sollen in einer rmanova Mittelwerte von Messzeitpunkten auf Unterschiedlichkeit geprüft werden. Hat a-priori eine Hypothesenbildung stattgefunden, kann dies über Kontraste erreicht werden A 1 A A 3 A1 A A3 verschieden? Folie 7

30 Einfaktorielle ANOVA A-Priori Kontraste Scheffé Test Einfaktorielle ANOVA A-Priori Kontraste Die Populationsvarianz einer paarweisen Mittelwertedifferenz D für Kontraste in der ANOVA ist immer: Var D ˆ n ( ) = σd = σfehler ˆ Es wird also die in der ANOVA bereits berechnete Fehlervarianz zugrunde gelegt. Hinweis: Ein Mittelwert hat natürlich keine Varianz. σˆd ist die theoretisch zu erwartende Streuung bei vielen Wiederholungen der ANOVA mit neuen Stichproben. Folie 8

31 Einfaktorielle ANOVA A-Priori Kontraste Scheffé Test Einfaktorielle ANOVA A-Priori Kontraste Zur statistischen Prüfung der Mittelwertsdifferenz lässt sich nun eine F-verteilte Prüfgröße konstruieren F = D σ ˆ D mit df df Zähler Nenner = 1 = df Fehler Aus der F-Verteilung lässt sich nun die Wahrscheinlichkeit p(f) ermitteln, mit der der beobachtete Wert der Prüfgröße auftritt, unter der Annahme, dass es in Wahrheit keinen Unterschied zwischen den Stufenmittelwerten gibt (D=0). Folie 9 Ist p(f) zu klein, liegt ein statistisch signifikanter Unterschied zwischen den verglichenen Mittelwerten vor, die Treatmentstufen haben verschieden große Effekte.

32 Einfaktorielle ANOVA A-Priori Kontraste Scheffé Test Einfaktorielle ANOVA A-Posteriori Tests Gerade bei umfangreicheren Versuchsdesigns und unklaren Hypothesen werden während der Auswertung Effekte entdeckt, für die zuvor keine Hypothesen bestanden. In solchen Fällen ist es trotzdem sinnvoll zu prüfen, ob sich Signifikanzen ergeben, um gezielt Fragestellungen für weitere Untersuchungen zu entwickeln Achtung: Eine im Nachhinein aufgestellte Hypothese mit einem a-posteriori Test zu prüfen und zu belegen, hat faktisch keine Aussagekraft (ist jedoch in der empirischen Forschung durchaus verbreitet) Folie 10

33 Einfaktorielle ANOVA A-Priori Kontraste Scheffé Test Einfaktorielle ANOVA A-Posteriori Scheffé Test Oft sollen in einer rmanova Mittelwerte von Messzeitpunkten auf Unterschiedlichkeit geprüft werden. Hat die Hypothesenbildung erst nach dem Experiment (a-posteriori) stattgefunden, kann der Scheffé Test verwendet werden A 1 A A 3 A1 A A3 verschieden? Folie 11

34 Einfaktorielle ANOVA A-Priori Kontraste Scheffé Test Einfaktorielle ANOVA A-Posteriori Scheffé Test Ziel: Prüfung von paarweisen Mittelwerteunterschieden in einer einfaktoriellen ANOVA mit p Treatmentstufen ohne Kumulierung der Irrtumswahrscheinlichkeit α. Scheffé konnte zeigen, dass durch eine Korrektur der F-Prüfgröße und ihrer Freiheitsgrade eine beliebige Anzahl von Mittelwertevergleichen durchgeführt werden können, ohne dass α-fehler Kumulierung entsteht. F corr 1 = F df Zähler Folie 1 F corr hat nicht mehr 1, sondern df Zähler = p 1 Zählerfreiheitsgrade.

35 Einfaktorielle ANOVA A-Priori Kontraste Einfaktorielle ANOVA A-Posteriori Scheffé Test Die Prüfgröße für paarweise a-posteriori Mittelwertsunterschiede verändert sich damit also nur um den Faktor 1 / (p-1) im Vergleich zum a-priori Kontrast Scheffé Test F corr 1 1 D = F = df df σˆ Zähler Zähler D wieder mit σˆ = σˆ n D Fehler Folie 13 Für die Prüfgröße F corr gilt: df df Zähler Nenner = p 1 = df Fehler

36 Einfaktorielle ANOVA A-Priori Kontraste Scheffé Test Einfaktorielle ANOVA Weitere A-Posteriori Tests Der Scheffé Test ist der konservativste unter den üblichen a-posteriori Tests, d.h. er kommt erst bei größeren Mittelwertsunterschiede zu einer signifikanten Entscheidung. Er ist zudem robust gegenüber Verletzungen der Voraussetzungen der ANOVA Andere, progressivere Tests sind der Duncan-Test, der Newman-Keuls Test oder der Tukey Test Folie 14

37 Einfaktorielle ANOVA Zusammenfassung Ziel der ANOVA ist die Beantwortung der Frage, ob die Stufen eines Treatments keinen (bzw. denselben) Effekt oder verschiedene Effekte auf eine AV haben Die ANOVA geht zunächst von der Gesamtstreuung der Daten ungeachtet der Treatmentgruppen aus Diese wird zerlegt in die Streuung aufgrund der Treatmentwirkung und die Fehlerstreuung (= unerklärbare Unterschiede zwischen Personen) N= Mittelwert G Datenstreuung Alle Daten Ungeachtet der Treatmentgruppen n 1 =n =n 3 = Folie 15 G A 1 A A 3 Streuung zwischen den Treatmentgruppen Streuung innerhalb der Treatmentgruppen Gruppierte Daten Aufgeteilt nach Treatmentgruppen

38 Einfaktorielle ANOVA Zusammenfassung Grundfrage: Ist die Streuung der Mittelwerte zwischen Treatmentstufen hoch genug, damit statistisch behauptet werden kann, das sie nicht mehr auf zufälligen Unterschieden aufgrund der Stichprobenziehung beruhen kann? Dazu muss bekannt sein, in welchem Bereich die Streuung der Mittelwerte zwischen Treatmentstufen typischerweise läge, wenn in Wahrheit keine Treatmentwirkung besteht. Die Statistik beantwortet dies typischerweise mithilfe einer Prüfgröße. n 1 =n =n 3 = Folie 16 G A 1 A A 3 Streuung zwischen den Treatmentgruppen Streuung innerhalb der Treatmentgruppen Gruppierte Daten Aufgeteilt nach Treatmentgruppen

39 Einfaktorielle ANOVA Zusammenfassung Grundfrage: Ist die Streuung der Mittelwerte zwischen Treatmentstufen hoch genug, damit statistisch behauptet werden kann, das sie nicht mehr auf zufälligen Unterschieden aufgrund der Stichprobenziehung beruhen kann? Dazu muss bekannt sein, in welchem Bereich die Streuung der Mittelwerte zwischen Treatmentstufen typischerweise läge, wenn in Wahrheit keine Treatmentwirkung besteht. Die Statistik beantwortet dies typischerweise mithilfe einer Prüfgröße. Aus Treatment- und Fehlerstreuung wird eine solche Prüfgröße F errechnet, deren zufällige Schwankungen bekannt sind, weil sie der F-Verteilung folgen. Ein zu unwahrscheinlicher F-Wert belegt Unterschiede zwischen Treatmentstufen f(f Wert) Beobachtete F Werte bei sehr vielen Stichprobenziehungen F Verteilung Folie 17 F Wert

40 Einfaktorielle rmanova Einfaktorielle rmanova (repeated measurements) Annahmen Ziel: Analyse des Einflusses einer unabhängigen Variablen (UVn) auf eine abhängige Variable (AV) Die AV muss dabei stetig sein (intervallskaliert) die UVn sind i.d.r nominal- oder ordinalskaliert Anders als bei der einfaktoriellen ANOVA werden in der rmanova dieselben Merkmalsträger in allen Treatmentstufen beobachtet ( Messwiederholung ) Folie 18

41 Einfaktorielle rmanova Annahmen Einfaktorielle rmanova (repeated measurements) Vorteil: Die Fehlervarianz wird i.d.r. kleiner, da sich die Unterschiedlichkeit zwischen den Versuchspersonen auf alle Stufenmittelwerte gleich auswirkt schärfere Testung Es braucht also nicht auf Varianzhomogenität zwischen den Versuchspersonen geachtet zu werden. Nachteil: Die rmanova ist durch anspruchsvollere Voraussetzungen gekennzeichnet als die ANOVA Zudem wirkt sich der Ausfall eines Merkmalsträgers auf alle Stufen aus. Folie 19 Wenn anwendbar, ist die rmanova trotzdem zumeist das wünschenswertere Design.

42 Einfaktorielle rmanova Einfaktorielle rmanova (repeated measurements) Annahmen Folie 0 Die Beobachtungen müssen abhängig sein Die Fehler innerhalb einer Person sollen normalverteilt sein mit einem Erwartungswert von 0. Die Varianzen der Differenzen zwischen den Treatmentstufen müssen gleich sein Sphärizitätsannahme Vp A 1 A A p ΔA 5.4 ΔA 5.8 n identische Varianzen

43 Einfaktorielle rmanova Annahmen Einfaktorielle rmanova (repeated measurements) Die Sphärizitätsannahme ist eine wichtige Voraussetzung Verletzungen führen zu progressiveren Entscheidungen bei der der F-Prüfgröße, d.h. es stellen sich schneller Signifikanzen ein (unerwünscht) Die Sphärizitätsannahme wird mit dem Mauchly Test auf Sphärizität geprüft Ist die Sphärizität verletzt, so ist eine Korrektur der Freiheitsgrade vorzunehmen (aber: es empfiehlt sich, die Freiheitsgradkorrektur immer durchzuführen). Korrekturmethoden sind die Greenhouse-Geisser Korrektur sowie die Huynh-Feldt Korrektur Folie 1

44 Einfaktorielle rmanova Annahmen Einfaktorielle rmanova (repeated measurements) Der einfaktoriellen rmanova liegt ein einfaches lineares Modell zugrunde x = μ + a + e + a e ij j i j i Treatment Fehler I (Zwischen- Person Schwankung) Fehler II (Innerhalb- Person Schwankung) x = Messwert von Person i ( i = 1... n) in Treatmentstufe j ( j = 1... p) ij μ = Populationswert aller n Personen aj = Effekt der Treatmentstufe j e = Fehler (oder auch "Effekt") der Person i i Folie

45 Einfaktorielle rmanova Annahmen Einfaktorielle rmanova (repeated measurements) QS Total QS Zwischen QS Innerhalb QS Treat QS Residual/A e Folie 3 QS Zwischen = Streuung zwischen Personen (uninteressant) QS Innerhalb = Streuung innerhalb von Personen QS Treat = Wirkung der Faktorstufen (interessant) QS Residual = Streuung innerhalb einer Person (Prüfstreuung)

46 Einfaktorielle rmanova Annahmen Folie 4 Einfaktorielle rmanova (repeated measurements) Daraus lässt sich nun die Quadratsummenzerlegung in der ableiten: QS = QS + QS Tot Zwischen Innerhalb n p n p p n ( x ) ( ) ( ) ij G = xi G + xij xi i= 1 j= 1 i= 1 j= 1 i= 1 j= 1 Die QS Innerhalb zerfällt in QS = QS + QS Innerhalb Treat Residual / A e n p n p n p ( xij xi ) = ( Aj G) + ( xij Aj xi + G) i= 1 j= 1 i= 1 j= 1 i= 1 j= 1 Mittelwert der Person i über alle j Faktorstufen von A

47 Einfaktorielle rmanova Annahmen Einfaktorielle rmanova (repeated measurements) Aus den Quadratsummen lassen sich nun spezielle Varianzen bestimmen, die Populationsvarianzen Dazu werden wieder die Freiheitsgrade (df, degrees of freedom) benötigt. σˆ Folie 5 In der rmanova gilt: df df Tot = n p 1 Zwischen Innerhalb Treat Residual / A e = n 1 = p 1 ( 1) df = n p df ( ) df = ( n 1) p 1

48 Einfaktorielle rmanova Einfaktorielle rmanova (repeated measurements) Annahmen Folie 6 Damit werden die Populationsvarianzen berechnet als ˆ σ ˆ σ ˆ σ Tot Zwischen Innerhalb QS Tot = = df QS tot n Zwischen = = df Zwischen ( x ) ij G i= 1 j= 1 ( x ) i G i= 1 j= 1 n 1 ( x ) ij xi QSInnerhalb i= 1 j= 1 = = df n ( p 1) Innerhalb p n p 1 n n p p

49 Einfaktorielle rmanova Annahmen Einfaktorielle rmanova (repeated measurements) Damit werden die Populationsvarianzen berechnet als ˆ σ ˆ σ Treat Residual/ A e QS Treat = = df QS Treat Res/ A e = = Res/ A e n p ( A ) j G i= 1 j= 1 n ( x ) ij Aj xi + G i= 1 j= 1 p 1 p ( 1) ( 1) df n p Folie 7

50 Einfaktorielle rmanova Annahmen Einfaktorielle rmanova (repeated measurements) Hat das Treatment keinen Effekt, so sind Unterschiede zwischen Mittelwerten der Treatmentstufen rein zufällig Die Streuung der Stufenmittelwerte kann dann nur aus der Residualstreuung entstehen. Es muss gelten: ˆ σ ˆ σ Treat Res / A e Daraus konstruiert man die Prüfgröße F = ˆ σ ˆ Treat σ Res / A e Sie ist F-verteilt mit df Treat = p 1 Zählerfreiheitsgraden und df Residual = (n-1) (p-1) Nennerfreiheitsgraden. Aus der F-Verteilung kann die Wahrscheinlichkeit p(f) für das Auftreten dieser Prüfgröße ermittelt werden Folie 8

51 Einfaktorielle rmanova Annahmen Einfaktorielle rmanova (repeated measurements) Man berechnet also zunächst die Prüfgröße F Die F-Verteilung gibt nun an, welche Wahrscheinlichkeit p(f) das Auftreten der Prüfgröße hat unter der Annahme, dass Treatmentvarianz nur aus der Fehlervarianz entsteht. Ist diese Wahrscheinlichkeit zu klein, so muss es Einflüsse auf die Treatmentstreuung geben, die nicht auf die Fehlerstreuung zurückzuführen sind. Diese Einflüsse können nur durch das Treatment hervorgerufen werden, es hat also eine Wirkung. Folie 9 Das bedeutet gleichzeitig, dass die Mittelwerte der Treatmentstufen systematisch unterschiedlich sind (dieser Unterschied erzeugt gerade die Treatmentstreuung).

52 Einfaktorielle rmanova Einfaktorielle rmanova (repeated measurements) Annahmen Ist die berechnete Wahrscheinlichkeit p(f) also zu klein, gibt es Unterschiede in den Stufenmittelwerten. Problem: Wie klein ist zu unwahrscheinlich? Es gelten wieder die bereits bekannten Signifikanzniveaus: α 0.05 statistisch nicht signifikant α < 0.05 statistisch signifikant α < 0.01 statistisch hochsignifikant Folie 30

53 Einfaktorielle rmanova Annahmen Einfaktorielle rmanova (repeated measurements) Beobachtung im Experiment: ˆ σ Treat und σˆ Residual Frage: Sind die Varianzen in Wahrheit gleich? Geht die Streuung der Mittelwerte der Treatmentstufen nur auf die Fehlerstreuung zurück? (1) Festlegung eines Signifikanzniveaus α () Berechnung der Prüfgröße: F deren Häufigkeitsverteilung theoretisch bekannt ist (F-Verteilung) (3) Berechnung der Wahrscheinlichkeit für diese Prüfgröße: p(f) Folie 31 ( ) (4) Rückschluss: pf ( ) = pσˆ ˆ Treat = σ sidual Re (5) Vergleich von p mit α und Treffen der Signifikanzaussage Aber: Bei dieser Aussage irrt man sich mit einer Wahrscheinlichkeit von α 100%

54 Einfaktorielle rmanova Einfaktorielle rmanova (repeated measurements) Annahmen Man erstellt folgende Ergebnistabelle Faktor QS df Var F p Zwischen Innerhalb A Residual/A e Total Dabei wird die zweite Zeile (QS Innerhalb ) manchmal auch weggelassen, v.a. von Statistikprogrammen. Folie 3

55 Einfaktorielle rmanova Annahmen Folie 33 Einfaktorielle rmanova (repeated measurements) Zusätzlich ist zu empfehlen, die Varianzaufklärung η² (eta²) für das Model zu bestimmen. Die Varianzaufklärung für QS Zwischen und QS Innerhalb verläuft analog zur ANOVA für unabhängige Daten. QS bzw. QS Innerhalb η = η Innerhalb = QS Zwischen Zwischen QSTot Für den Messwiederholungsfaktor wird jedoch die QS Innerhalb als Referenz gewählt. η = QS Treat Treat QSInnerhalb bzw. QS Tot Res/ A e η Res / A e = QSInnerhalb

56 Einfaktorielle rmanova Annahmen Folie 34 Einfaktorielle rmanova (repeated measurements) Verwendet man als Messwerte die Abweichungen vom Personmittelwert (ipsative Werte), ergibt die ANOVA für unabhängige Stichproben über diese Werte dasselbe Resultat wie die rmanova der Originalwerte. Sind die Daten zwischen den Messzeitpunkten perfekt unkorreliert, ergibt sich ein ähnliches (knapp weniger signifikantes) Ergebnis wie für die ANOVA für unabhängige Stichproben. Sind die Daten zwischen den Messzeitpunkten hochkorreliert, ergibt sich extreme Teststärke der rmanova (frühe Signifikanzen). Sind die Daten negativ korreliert, ergibt sich schwächere Teststärke als für die ANOVA für unabhängige Stichproben (späte Signifikanzen)

57 Einfaktorielle rmanova A-Priori Kontraste Scheffé Test Einfaktorielle rmanova Mittelwertevergleiche Prinzip: Die Mittelwertevergleiche in der rmanova folgen demselben Prinzip wie in der unabhängigen ANOVA Frage: Wann ist ein Mittelwertsunterschied zwischen Messzeitpunkten verschieden genug von Null, damit das berechnete D als statistisch signifikant bewertet wird? Berechnung: Es gelten praktisch dieselben Berechnungsformeln wie in er einfaktoriellen ANOVA. Wie auch dort existieren zwei verschiedene Testvarianten: 1. A-Priori Tests zur Prüfung von Hypothesen, die vor der Untersuchung formuliert wurden. Folie. A-Posteriori Tests (Post-hoc Tests) zur Prüfung von Hypothesen, die nach Ansehen der Daten gebildet wurden.

58 Einfaktorielle rmanova Prinzip des Testens A-Priori Kontraste Scheffé Test Beobachtung im Experiment: Mehrere Stufenmittelwerte Frage: Sind (zwei) Mittelwerte in Wahrheit gleich? Ist ihre Differenz D=0? (1) Festlegung eines Signifikanzniveaus α () Berechnung der Prüfgröße: F deren Häufigkeitsverteilung theoretisch bekannt ist (F-Verteilung) (3) Berechnung der Wahrscheinlichkeit für diese Prüfgröße: p(f) A j Folie 3 (4) Rückschluss: ( ) pf ( ) = p D= 0 (5) Vergleich von p mit α und Treffen der Signifikanzaussage Aber: Bei dieser Aussage irrt man sich mit einer Wahrscheinlichkeit von α 100%

59 Einfaktorielle rmanova A-Priori Kontraste Scheffé Test Einfaktorielle rmanova A-Priori Kontraste Oft sollen in einer rmanova Mittelwerte von Messzeitpunkten auf Unterschiedlichkeit geprüft werden. Hat a-priori eine Hypothesenbildung stattgefunden, kann dies über Kontraste erreicht werden A 1 A A 3 A1 A A3 verschieden? Folie 4

60 Einfaktorielle rmanova A-Priori Kontraste Einfaktorielle rmanova A-Priori Kontraste Der einzige Unterschied zu Kontrasten in der unabhängigen ANOVA ist die Verwendung der Residualvarianz als Prüfvarianz Scheffé Test Die Prüfgröße ist F = D ˆ D σ mit σˆ = σˆ n D Re sidual Folie 5 Für die Prüfgröße F gilt: df df Zähler Nenner = 1 = df Re sidual

61 Einfaktorielle rmanova A-Priori Kontraste Scheffé Test Einfaktorielle rmanova A-Posteriori Scheffé Test Oft sollen in einer rmanova Mittelwerte von Messzeitpunkten auf Unterschiedlichkeit geprüft werden. Hat die Hypothesenbildung erst nach dem Experiment (a-posteriori) stattgefunden, kann der Scheffé Test verwendet werden A 1 A A 3 A1 A A3 verschieden? Folie 6

62 Einfaktorielle rmanova A-Priori Kontraste Einfaktorielle rmanova A-Posteriori Scheffé Test Die Prüfgröße für paarweise a-posteriori Mittelwertsunterschiede verändert sich wieder nur um den Faktor 1 / (p-1) im Vergleich zum a-priori Kontrast Scheffé Test F corr 1 1 D = F = df df σˆ Zähler Zähler D wieder mit σˆ = σˆ n D Re sidual Folie 7 Für die Prüfgröße F corr gilt: df df Zähler Nenner = p 1 = df Re sidual

63 Zweifaktorielle ANOVA Ziel: Analyse des Einflusses von zwei Treatments (UVn) auf eine AV Annahme: der Messwert einer Person auf einer beliebigen AV besteht additiv aus systematischen Komponenten und einer Fehlerkomponente Zusätzlich berücksichtigt die zweifaktorielle ANOVA, dass es spezifische Effekte für bestimmte Kombinationen aus Treatmentstufen geben kann (Interaktionen) x= μ + a+ e = QS A x= μ + a+ b+ e = QS B Folie 8 x= μ + a+ b+ a b+ e = QS A B

64 Zweifaktorielle ANOVA Zweifaktorielle ANOVA Plots Ansatz: Das bereits für die einfaktorielle ANOVA entwickelte lineare Modell wird lediglich um den zweiten Treatmentfaktor erweitert. Das Modell lautet: μ = Erwartungswert der Population aller n p q Personen a = Effekt der Treatmentstufe j des Faktors A ( j = 1... p) j bk = Effekt der Treatmentstufe k des Faktors B ( k = 1... q) x = Messwert der Person i ( i=1... n) unter den Faktorstufen a und ijk x = μ + a + b + a b + e ijk j k j k ijk e = Fehler der Person i unter den Faktorstufen a und b ijk j k j b k Folie 9

65 Zweifaktorielle ANOVA Zweifaktorielle ANOVA Plots Der Treatmenteffekt a b wird als Interaktionseffekt bezeichnet Ein Interaktionseffekt besteht dann, wenn die beiden Faktoren nicht einfach additiv auf den Messwert der Person wirken Eine bestimmte Treatmentstufe eines Faktors wirkt dann differentiell in Abhängigkeit davon, mit welcher Stufe eines anderen Faktors sie kombiniert wird. Beispiele: Männer werden mit steigendem Alkoholpegel immer gesprächiger, Frauen zunächst gesprächiger, dann aber weniger gesprächig. Angstgestörte profitieren stärker von massierter Konfrontation, Zwangsgestörte stärker von gradueller Konfrontation. Folie 10

66 Zweifaktorielle ANOVA Zweifaktorielle ANOVA Plots Es gelten dieselben Voraussetzungen wie bei der einfaktoriellen ANOVA 1. Normalverteilung der Fehler (i.e.) Zellresiduen. Homogenität der Fehlervarianzen 3. Unabhängigkeit von Treatmenteffekt und Messfehlern 4. Unabhängigkeit der Beobachtungen Folie 11

67 Zweifaktorielle ANOVA Zweifaktorielle ANOVA Die Quadratsummenzerlegung ist analog zur einfaktoriellen ANOVA: QS = QS + QS + QS + QS Tot TreatA TreatB TreatA B Fehler Direkt analog zur einfaktoriellen ANOVA sind die Formeln: Plots Gesamte QS: QS Treatment A: (q = Treat.stufen von B) Tot n p q ( ) ijk QS = x G TreatA i= 1 j= 1 k= 1 n p q ( ) j QS = A G i= 1 j= 1 k= 1 Folie 1 QS Treatment B: (p = Treat.stufen von A) TreatB p q n ( ) k QS = B G i= 1 j= 1 k= 1

68 Zweifaktorielle ANOVA Zweifaktorielle ANOVA Plots Die Fehlerquadratsumme errechnet sich wieder aus der Abweichung jedes Personenmesswert von seinem Gruppenmittelwert (bei p q Gruppen). mit Fehler n p q i= 1 j= 1 k= 1 ( ) ijk jk QS = x AB n 1 AB jk = xijk für jede Kombination j, k n i = 1 Die so berechneten p q Mittelwerte bezeichnet man in der ANOVA auch als Zellmittelwerte. Folie 13

69 Zweifaktorielle ANOVA Zweifaktorielle ANOVA Plots Folie 14 Gäbe es keine Interaktion, so sollte man annehmen, dass die beiden Faktoren additiv zusammenwirken. Dann sollte gelten: AB' jk = A j + B k G Der Grand Mean muss einmal subtrahiert werden, da er in beiden Stufenmittelwerten enthalten ist Die Differenz dieser beiden Terme ist dann die Interaktionswirkung (i.e. der nicht-additive Teil des gemeinsamen Effektes von A und B. A B n p q i= 1 j= 1 k= 1 ( ' ) jk jk QS = AB AB mit AB' jk = A j + B k G

70 Zweifaktorielle ANOVA Zweifaktorielle ANOVA Aus den Quadratsummen lassen sich nun wieder die Populationsvarianzen bestimmen σˆ Zu ihrer Berechnung werden die Freiheitsgrade (df) der einzelnen Quadratsummen benötigt. Plots Es gilt: df df df Tot TreatA TreatB = n p q 1 TreatA B = p 1 = q 1 ( 1) ( 1) df = p q df = p q ( n 1) Fehler Folie 15

71 Zweifaktorielle ANOVA Zweifaktorielle ANOVA Damit werden die Populationsvarianzen berechnet als Plots Folie 16 ˆ σ ˆ σ ˆ σ Tot TreatA TreatB QS df Tot = = QS df tot TreatA = = QS df TreatA TreatB = = TreatB n p q ( x ) ijk G i= 1 j= 1 k= 1 n n p q 1 p q ( A ) j G i= 1 j= 1 k= 1 n p ( B ) k G i= 1 j= 1 k= 1 p 1 q q 1

72 Zweifaktorielle ANOVA Zweifaktorielle ANOVA Plots Damit werden die Populationsvarianzen berechnet als ˆ σ ˆ σ A B Fehler n p ( AB ' ) jk AB jk QS A B i= 1 j= 1 k= 1 = = df ( p 1) ( q 1) A B n ( x ) ijk AB jk QSFehler i= 1 j= 1 k= 1 = = df p q ( n 1) Fehler p q q Folie 17

73 Zweifaktorielle ANOVA Zweifaktorielle ANOVA Hat das Treatment keinen Effekt, so sollte wieder gelten: ˆ σ = ˆ σ Treat Fehler Plots Daraus konstruiert man die Prüfgröße ˆ σ ˆ σ Treat Fehler Sie ist F-verteilt mit df Treat = k 1 Zählerfreiheitsgraden und df Error = p q (n-1) Nennerfreiheitsgraden. F = (k = Stufenanzahl des jeweiligen Faktors; also entweder p oder q) Aus der F-Verteilung kann die Wahrscheinlichkeit p(f) für das Auftreten dieser Prüfgröße ermittelt werden. Folie 18

74 Zweifaktorielle ANOVA Prinzip des Testens Beobachtung im Experiment: ˆ σ Treat und σˆ Fehler Frage: Sind die Varianzen in Wahrheit gleich? Geht die Streuung der Mittelwerte der Treatmentstufen nur auf die Fehlerstreuung zurück? (1) Festlegung eines Signifikanzniveaus α Plots () Berechnung der Prüfgröße für jeden Faktor: F A,F B,F A B deren Häufigkeitsverteilung theoretisch bekannt ist (F-Verteilung) (3) Berechnung der Wahrscheinlichkeit für diese Prüfgröße: p(f A ), p(f B ), p(f A B ) Folie 19 (4) Rückschluss: ( ˆ ˆ ) pf ( ) = pσtreat = σfehler (5) Vergleich von p mit α und Treffen der Signifikanzaussage Aber: Bei dieser Aussage irrt man sich mit einer Wahrscheinlichkeit von α 100%

75 Zweifaktorielle ANOVA Zweifaktorielle ANOVA Plots Man erstellt folgende Ergebnistabelle Faktor QS df Var F p A B A B Fehler Total Zusätzlich werden wieder die Varianzaufklärungen η² (eta²) für das Model bestimmt, und zwar wie bei der einfaktoriellen ANOVA mit der QS Fehler im Nenner. Folie 0

76 Zweifaktorielle ANOVA Plots Folie Zur Veranschaulichung der Effekte bei der mehrfaktoriellen ANOVA werden Interaktionsplots verwendet. Sie enthalten die Informationen der Zellmittelwerte für zwei Faktoren Für solche Plots existieren immer zwei mögliche Darstellungen Zellmittelwert Zweifaktorielle ANOVA Interaktionsplots A1 A A3 B1 B Zellmittelwert B1 B A1 A A3

77 Zweifaktorielle ANOVA Zweifaktorielle ANOVA typische Effekte 1 1 Plots Zellmittelwert AV A1 A B1 B Zellmittelwert AV B1 B A1 A Effekt auf Faktor A, kein Effekt auf Faktor B, keine Interaktion zwischen A und B. Folie 3

78 Zweifaktorielle ANOVA Zweifaktorielle ANOVA typische Effekte 1 1 Plots Zellmittelwert AV A1 A B1 B Zellmittelwert AV B1 B A1 A Effekt auf Faktor A, Effekt auf Faktor B, keine Interaktion zwischen A und B. Folie 4

79 Zweifaktorielle ANOVA Zweifaktorielle ANOVA typische Effekte 1 1 Plots Zellmittelwert AV A1 A B1 B Zellmittelwert AV B1 B A1 A Effekt auf Faktor A, Effekt auf Faktor B, Interaktion zwischen A und B ordinal, da sich die Geraden auch im Gegenplot nicht schneiden. Folie 5

80 Zweifaktorielle ANOVA Zweifaktorielle ANOVA typische Effekte 1 1 Plots Zellmittelwert AV A1 A B1 B Zellmittelwert AV B1 B A1 A Kein Effekt auf Faktor A, kein Effekt auf Faktor B, Interaktion zwischen A und B disordinal, da sich die Geraden auch im Gegenplot schneiden. Folie 6

81 Zweifaktorielle ANOVA Zweifaktorielle ANOVA typische Effekte 1 1 Plots Zellmittelwert AV A1 A B1 B Zellmittelwert AV B1 B A1 A Kein Effekt auf Faktor A, großer Effekt auf Faktor B, Interaktion hybrid, da sich die Geraden im Gegenplot schneiden. Folie 7

82 Zweifaktorielle ANOVA A-Priori Kontraste Scheffé Test Zweifaktorielle ANOVA Mittelwertevergleiche Problem: Signifikante Ergebnisse in der mehrfaktoriellen ANOVA zeigen zwar an, auf welchen Treatments ein Effekt besteht, allerdings nicht auf welchen Stufen. Erneut können für die Prüfung der Mittelwerte einzelner Faktorstufen eines Faktors zwei unterschiedliche Verfahrensweisen gewählt werden 1. A-Priori Tests zur Prüfung von Hypothesen, die bereits vor der Untersuchung formuliert worden sind.. A-Posteriori Tests (Post-hoc Tests) zur Prüfung von Hypothesen, die nach Ansehen der Daten gebildet wurden. Folie 8

83 Zweifaktorielle ANOVA Prinzip des Testens A-Priori Kontraste Scheffé Test Beobachtung im Experiment: Stufen- oder Zellmittelwerte Frage: Sind die Mittelwerte in Wahrheit gleich? Ist ihre Differenz D=0? (1) Festlegung eines Signifikanzniveaus α () Berechnung der Prüfgröße: F deren Häufigkeitsverteilung theoretisch bekannt ist (F-Verteilung) (3) Berechnung der Wahrscheinlichkeit für diese Prüfgröße: p(f) Folie 9 (4) Rückschluss: ( ) pf ( ) = p D= 0 (5) Vergleich von p mit α und Treffen der Signifikanzaussage Aber: Bei dieser Aussage irrt man sich mit einer Wahrscheinlichkeit von α 100%

84 Zweifaktorielle ANOVA A-Priori Tests Kontraste I A-Priori Kontraste Scheffé Test Kontraste können verwendet werden, um beliebige Zellen innerhalb der Mittelwertetabelle, jedoch keine Stufenmittelwerte zu vergleichen Es muss a-priori eine Hypothesenbildung stattgefunden haben. A 1 A A 3 B 1 A1B 1 AB 1 A3B 1 B A1B AB A3B Folie 10 verschieden?

85 Zweifaktorielle ANOVA A-Priori Tests Kontraste I A-Priori Kontraste Die Berechnung verläuft exakt analog zur Prüfung von Stufenmittelwerten in der einfaktoriellen ANOVA Achtung: Für den Vergleich von Stufenmittelwerten in der zweifaktoriellen ANOVA muss eine leicht andere Varianz σ verwendet werden (siehe später) ˆ D Scheffé Test Die Prüfgröße ist F = D ˆ D σ mit σˆ = σˆ n D Fehler Folie 11 Für die Prüfgröße F gilt: df df Zähler Nenner = 1 = df Fehler

86 Zweifaktorielle ANOVA A-Priori Tests Kontraste II A-Priori Kontraste Scheffé Test Oft sollen in einer zweifaktoriellen ANOVA Mittelwerte von Treatmentstufen ohne Beachtung des anderen Faktors geprüft werden. Hat a-priori eine Hypothesenbildung stattgefunden, kann auch dies über Kontraste erreicht werden A 1 A A 3 B 1 A B B 1 1 A B 1 AB 1 AB A3B 1 A3B A1 A A3 B 1 B verschieden? Folie 1 verschieden?

87 Zweifaktorielle ANOVA A-Priori Tests Kontraste II A-Priori Kontraste Scheffé Test Im Rahmen der einfaktoriellen ANOVA galt immer σˆ = σˆ n D Fehler ˆ D σ Im Nenner der Varianz steht also die Anzahl der Merkmalsträger, die in einer Zelle des ANOVA Designs enthalten waren, d.h. n Wird ein Kontrast für Randmittelwerte in der zweifaktoriellen ANOVA berechnet, bleibt diese Logik erhalten Folie 13 Im Nenner der Varianz muss die Anzahl der Merkmalsträger aus allen Zellen stehen, die in die Differenz eingehen

88 Zweifaktorielle ANOVA A-Priori Tests Kontraste II A-Priori Kontraste Sei k die Anzahl der Stufen im anderen Faktor (d.h. der Faktor, für den der Kontrast nicht berechnet wird) Scheffé Test Die Prüfgröße ist wie üblich F = D ˆ D σ mit σˆ = σˆ k n D Fehler Folie 14 Für die Prüfgröße F gilt: df df Zähler Nenner = 1 = df Fehler

89 Zweifaktorielle ANOVA A-Posteriori Tests Scheffé Test A-Priori Kontraste Scheffé Test Mit dem Scheffé Test können beliebige Zellen miteinander verglichen werden. Dieser Test ist ein a-posteriori Test und kommt eher spät (i.e. bei größeren Unterschieden) zu einer Signifikanzaussage. A 1 A A 3 B 1 A1B 1 AB 1 A3B 1 B A1B AB A3B Folie 15 verschieden?

90 Zweifaktorielle ANOVA A-Posteriori Tests Scheffé Test A-Priori Kontraste Für a-posteriori Vergleiche beliebiger Zellen (aber nicht der Randmittelwerte) einer ANOVA mit p q Zellen gilt im Scheffé Test Scheffé Test F corr 1 1 D = F = df df σˆ Zähler Zähler D wieder mit: σˆ 1 = σˆ n D Fehler Folie 16 Für die Prüfgröße F corr gilt df df Zähler Nenner = p q 1 = df Fehler

91 ANOVA Ausblick Weitere wichtige Typen von n Es können in abhängigen und unabhängigen ANOVA Designs beliebig viele Faktoren mit beliebig vielen Stufen miteinander kombiniert werden Auch die Kombination von abhängigen und unabhängigen Faktoren ist möglich Beispiel: Therapiestudie mit einem Messwiederholungsfaktor, einem Geschlechtsfaktor und einem Faktor Therapieart Messwiederholungsdesigns mit Gruppenfaktoren Folie 17

92 ANOVA Ausblick Weitere wichtige Typen von n Die Anzahl von Zellen in der ANOVA wird bei multiplen Faktoren mit vielen Stufen sehr schnell sehr groß (kombinatorische Explosion) Wenn der Experimentator nur an den Haupteffekten interessiert ist, kann der Versuchsplan drastisch reduziert werden, indem nur bestimmte Kombinationen von Stufen der Faktoren realisiert werden a1 a a3 b1 c1 c c3 b c c3 c1 b3 c3 c1 c Folie 18 Lateinische Quadrate

93 ANOVA Ausblick Weitere wichtige Typen von n In einigen Untersuchungsdesigns wird ein zweiter Faktor nur für bestimmte Stufen eines anderen Faktors realisiert Beispiel: Therapiestudie mit Placebogruppe, Medikamentengruppe und VT-Gruppe. Die Medikamentengruppe zerfällt in drei Untergruppen (kleine, mittlere, starke Dosis) Hierarchische ANOVA Designs Folie 19

94 ANOVA Ausblick Weitere wichtige Typen von n Bei vielen Fragestellungen ist es sinnvoll, verschiedene Treatments an denselben Merkmalsträgern zu testen. Beispiel: Strahlungsstärken in der Krebstherapie, Reizstärken bei Tests auf Schmerzempfindlichkeit, Effektivität verschiedener Düngemittel. Problem: Die einer Treatmentstufe ausgesetzte Stelle ist kontaminiert und für weitere Stufen unbrauchbar. Lösung: Man teilt den Merkmalsträger auf in verschiedene, als eigenschaftsgleich definierte Stücke ( Plots ) und appliziert hier die verschiedenen Stufen des Treatments. Folie 0 Split Plot Designs

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt Statistik & Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 6-6) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de

Mehr

Forschungsstatistik II

Forschungsstatistik II Psychologie Prof. r. G. Meinhardt 6. Stock, Taubertsberg R. 06-06 (Persike) R. 06-3 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung orschungsstatistik II r. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Mehrfaktorielle Varianzanalyse

Mehrfaktorielle Varianzanalyse Professur E-Learning und Neue Medien Institut für Medienforschung Philosophische Fakultät Einführung in die Statistik Mehrfaktorielle Varianzanalyse Überblick Einführung Empirische F-Werte zu einer zweifaktoriellen

Mehr

Forschungsstatistik I

Forschungsstatistik I Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R. 06-206 (Persike) R. 06-321 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Aufgaben zu Kapitel 7:

Aufgaben zu Kapitel 7: Aufgaben zu Kapitel 7: Aufgabe 1: In einer Klinik sollen zwei verschiedene Therapiemethoden miteinander verglichen werden. Zur Messung des Therapieerfolges werden die vorhandenen Symptome einmal vor Beginn

Mehr

Messwiederholungen und abhängige Messungen

Messwiederholungen und abhängige Messungen Messwiederholungen und abhängige Messungen t Tests und Varianzanalysen für Messwiederholungen Kovarianzanalyse Thomas Schäfer SS 009 1 Messwiederholungen und abhängige Messungen Bei einer Messwiederholung

Mehr

Anwendungsaufgaben. Effektgröße bei df Zähler = df A = 1 und N = 40 (zu berechnen aus df Nenner ): Der aufgedeckte Effekt beträgt also etwa 23 %.

Anwendungsaufgaben. Effektgröße bei df Zähler = df A = 1 und N = 40 (zu berechnen aus df Nenner ): Der aufgedeckte Effekt beträgt also etwa 23 %. Anhang A: Lösungen der Aufgaben 39 beiden Kombinationen sehr hoch ist. (Dieses Ergebnis wäre aber in diesem Beispiel nicht plausibel.) 5. Der Faktor A und die Wechselwirkung werden signifikant: Lärm hat

Mehr

Aufgaben zu Kapitel 7:

Aufgaben zu Kapitel 7: Aufgaben zu Kapitel 7: Aufgabe 1: In einer Klinik sollen zwei verschiedene Therapiemethoden miteinander verglichen werden. Zur Messung des Therapieerfolges werden die vorhandenen Symptome einmal vor Beginn

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg 2 R. 06-206 (Persike) R. 06-214 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Prüfungsliteratur: Rudolf & Müller S

Prüfungsliteratur: Rudolf & Müller S 1 Beispiele zur univariaten Varianzanalyse Einfaktorielle Varianzanalyse (Wiederholung!) 3 Allgemeines lineares Modell 4 Zweifaktorielle Varianzanalyse 5 Multivariate Varianzanalyse 6 Varianzanalyse mit

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Statistik & Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte

Mehr

Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten

Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten 5.1. Einführung Einfaktorielle Varianzanalyse Überprüft die Auswirkung einer gestuften (s), unabhängigen Variable X, auch Faktor

Mehr

Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten

Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten 5.1. Einführung Einfaktorielle Varianzanalyse Überprüft die Auswirkung einer gestuften (s), unabhängigen Variable X, auch Faktor

Mehr

Parametrische vs. Non-Parametrische Testverfahren

Parametrische vs. Non-Parametrische Testverfahren Parametrische vs. Non-Parametrische Testverfahren Parametrische Verfahren haben die Besonderheit, dass sie auf Annahmen zur Verteilung der Messwerte in der Population beruhen: die Messwerte sollten einer

Mehr

Einfaktorielle Varianzanalyse

Einfaktorielle Varianzanalyse Professur Psychologie digitaler Lernmedien Institut für Medienforschung Philosophische Fakultät Einführung in die Statistik Einfaktorielle Varianzanalyse Überblick Einführung Alphafehler-Kumulierung Grundprinzip

Mehr

Forschungsstatistik II

Forschungsstatistik II Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg R. 06-06 (Persike) R. 06-3 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik II Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Hypothesentests mit SPSS

Hypothesentests mit SPSS Beispiel für eine zweifaktorielle Varianzanalyse mit Messwiederholung auf einem Faktor (univariate Lösung) Daten: POKIII_AG4_V06.SAV Hypothese: Die physische Attraktivität der Bildperson und das Geschlecht

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt Statistik & Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Dr. Malte Persike persike@uni-mainz.de

Mehr

Webergänzung zu Kapitel 10

Webergänzung zu Kapitel 10 10.1.5 Varianzanalyse (ANOVA: analysis of variance ) Im Kapitel 10 haben wir uns hauptsächlich mit Forschungsbeispielen beschäftigt, die nur zwei Ergebnissätze hatten (entweder werden zwei unterschiedliche

Mehr

SozialwissenschaftlerInnen II

SozialwissenschaftlerInnen II Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Varianzanalyse Statistik

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg 2 R. 06-206 (Persike) R. 06-214 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Kapitel 6: Zweifaktorielle Varianzanalyse

Kapitel 6: Zweifaktorielle Varianzanalyse Kapitel 6: Zweifaktorielle Varianzanalyse Berechnen der Teststärke a priori bzw. Stichprobenumfangsplanung 1 Teststärkebestimmung a posteriori 4 Berechnen der Effektgröße f² aus empirischen Daten und Bestimmung

Mehr

1 Varianzanalyse (ANOVA)

1 Varianzanalyse (ANOVA) 1 Varianzanalyse (ANOVA) Ziele: Erklärung einer Meßgröße durch ein additves Modell. Abschätzung der Wirkungsweise von Einflußfaktoren, ihres Zusammenwirkens und ihres anteiligen Beitrages an der Variation

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg R. 06-06 (Persike) R. 06-31 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 12 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre II Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 18.2.15 Psychologie als Wissenschaft

Mehr

Einfache Varianzanalyse für unabhängige Stichproben

Einfache Varianzanalyse für unabhängige Stichproben Einfache Varianzanalyse für unabhängige Stichproben VARIANZANALYSE Die Varianzanalyse ist das dem t-test entsprechende Mittel zum Vergleich mehrerer (k 2) Stichprobenmittelwerte. Sie wird hier mit VA abgekürzt,

Mehr

Informationen zur KLAUSUR am

Informationen zur KLAUSUR am Wiederholung und Fragen 1 Informationen zur KLAUSUR am 24.07.2009 Raum: 032, Zeit : 8:00 9:30 Uhr Bitte Lichtbildausweis mitbringen! (wird vor der Klausur kontrolliert) Erlaubte Hilfsmittel: Alle Unterlagen,

Mehr

Skript zur Vorlesung Statistik 2

Skript zur Vorlesung Statistik 2 Weder die Autorin noch der Fachschaftsrat Psychologie übernimmt Irgendwelche Verantwortung für dieses Skript. Das Skript soll nicht die Lektüre der Prüfungsliteratur ersetzen. Verbesserungen und Korrekturen

Mehr

Stichprobenumfangsplanung

Stichprobenumfangsplanung Professur E-Learning und Neue Medien Institut für Medienforschung Philosophische Fakultät Einführung in die Statistik Stichprobenumfangsplanung Überblick Einführung Signifikanzniveau Teststärke Effektgröße

Mehr

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Einfaktorielle Versuchspläne 27/40 Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Abweichung Einfach Differenz Helmert Wiederholt Vergleich Jede Gruppe mit Gesamtmittelwert

Mehr

methodenlehre ll ALM und Mehrfaktorielle ANOVA Mehrfaktorielle ANOVA methodenlehre ll ALM und Mehrfaktorielle ANOVA

methodenlehre ll ALM und Mehrfaktorielle ANOVA Mehrfaktorielle ANOVA methodenlehre ll ALM und Mehrfaktorielle ANOVA 15.04.009 Das Allgemeine lineare Modell Post hoc Tests bei der ANOVA Mehrfatorielle ANOVA Thomas Schäfer SS 009 1 Das Allgemeine lineare Modell (ALM) Varianz als Schlüsselonzept "The main technical function

Mehr

Methodenlehre. Vorlesung 11. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 11. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 11 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 03.12.13 Methodenlehre I Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 25.9.13 Psychologie

Mehr

ANalysis Of VAriance (ANOVA) 2/2

ANalysis Of VAriance (ANOVA) 2/2 ANalysis Of VAriance (ANOVA) 2/2 Markus Kalisch 22.10.2014 1 Wdh: ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor X). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich

Mehr

Statistische Methoden in den Umweltwissenschaften

Statistische Methoden in den Umweltwissenschaften Statistische Methoden in den Umweltwissenschaften t-test Varianzanalyse (ANOVA) Übersicht Vergleich von Mittelwerten 2 Gruppen: t-test einfaktorielle ANOVA > 2 Gruppen: einfaktorielle ANOVA Seeigel und

Mehr

Aufgaben zu Kapitel 5:

Aufgaben zu Kapitel 5: Aufgaben zu Kapitel 5: Aufgabe 1: Ein Wissenschaftler untersucht, in wie weit die Reaktionszeit auf bestimmte Stimuli durch finanzielle Belohnung zu steigern ist. Er möchte vier Bedingungen vergleichen:

Mehr

Kapitel 5: Einfaktorielle Varianzanalyse

Kapitel 5: Einfaktorielle Varianzanalyse Rasch, Friese, Hofmann & Naumann (010). Quantitative Methoden. Band (3. Auflage). Heidelberg: Springer. Kapitel 5: Einfaktorielle Varianzanalyse Berechnen der Teststärke a priori bzw. Stichprobenumfangsplanung

Mehr

Signifikanzprüfung. Peter Wilhelm Herbstsemester 2014

Signifikanzprüfung. Peter Wilhelm Herbstsemester 2014 Signifikanzprüfung Peter Wilhelm Herbstsemester 2014 1.) Auswahl des passenden Tests 2.) Begründete Festlegung des Alpha- Fehlers nach Abschätzung der Power 3.) Überprüfung der Voraussetzungen 4.) Durchführung

Mehr

Varianzanalyse * (1) Varianzanalyse (2)

Varianzanalyse * (1) Varianzanalyse (2) Varianzanalyse * (1) Einfaktorielle Varianzanalyse (I) Die Varianzanalyse (ANOVA = ANalysis Of VAriance) wird benutzt, um Unterschiede zwischen Mittelwerten von drei oder mehr Stichproben auf Signifikanz

Mehr

Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben

Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben Es wurden die Körpergrößen von 3 Versuchspersonen, sowie Alter und Geschlecht erhoben. (Jeweils Größen pro Faktorstufenkombination). (a)

Mehr

Zweifache Varianzanalyse

Zweifache Varianzanalyse Zweifache Varianzanalyse Man kann mittels VA auch den (gleichzeitigen) Einfluss mehrerer Faktoren (unabhängige Variablen) auf ein bestimmtes Merkmal (abhängige Variable) analysieren. Die Wirkungen werden

Mehr

Formelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade

Formelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade Version 2015 Formelsammlung für das Modul Statistik 2 Bachelor Sven Garbade Prof. Dr. phil. Dipl.-Psych. Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg R. 06-06 (Persike) R. 06-31 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Einführung in die Varianzanalyse mit SPSS

Einführung in die Varianzanalyse mit SPSS Einführung in die Varianzanalyse mit SPSS SPSS-Benutzertreffen am URZ Carina Ortseifen 6. Mai 00 Inhalt. Varianzanalyse. Prozedur ONEWAY. Vergleich von k Gruppen 4. Multiple Vergleiche 5. Modellvoraussetzungen

Mehr

Statistische Methoden in den Umweltwissenschaften

Statistische Methoden in den Umweltwissenschaften Statistische Methoden in den Umweltwissenschaften Post Hoc Tests A priori Tests (Kontraste) Nicht-parametrischer Vergleich von Mittelwerten 50 Ergebnis der ANOVA Sprossdichte der Seegräser 40 30 20 10

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

Statistisches Testen

Statistisches Testen Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003 Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003. Eine seltene Krankheit trete mit Wahrscheinlichkeit : 0000 auf. Die bedingte Wahrscheinlichkeit, dass ein bei einem Erkrankten durchgeführter

Mehr

Kapitel 5: Einfaktorielle Varianzanalyse

Kapitel 5: Einfaktorielle Varianzanalyse Rasch, Friese, Hofmann & Naumann (006). Quantitative Methoden. Band (. Auflage). Heidelberg: Springer. Kapitel 5: Einfaktorielle Varianzanalyse Berechnen der Teststärke a priori bzw. Stichprobenumfangsplanung

Mehr

Kapitel 7: Varianzanalyse mit Messwiederholung

Kapitel 7: Varianzanalyse mit Messwiederholung Kapitel 7: Varianzanalyse mit Messwiederholung 7.1 Einfaktorielle Varianzanalyse mit Messwiederholung 1 Berechnen der Teststärke a priori bzw. Stichprobenumfangsplanung 2 Teststärkebestimmung a posteriori

Mehr

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 12 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre I Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 25.9.13 Psychologie als Wissenschaft

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 10 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre I Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 25.9.13 Psychologie als Wissenschaft

Mehr

Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse

Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse Univariate Varianz- und Kovarianzanlyse, Multivariate Varianzanalyse und Varianzanalyse mit Messwiederholung finden sich unter

Mehr

Aufgaben zu Kapitel 3

Aufgaben zu Kapitel 3 Aufgaben zu Kapitel 3 Aufgabe 1 a) Berechnen Sie einen t-test für unabhängige Stichproben für den Vergleich der beiden Verarbeitungsgruppen strukturell und emotional für die abhängige Variable neutrale

Mehr

5. Lektion: Einfache Signifikanztests

5. Lektion: Einfache Signifikanztests Seite 1 von 7 5. Lektion: Einfache Signifikanztests Ziel dieser Lektion: Du ordnest Deinen Fragestellungen und Hypothesen die passenden einfachen Signifikanztests zu. Inhalt: 5.1 Zwei kategoriale Variablen

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psmet03.sowi.uni-mainz.de/

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt. Stock, Taubertsberg R. 0-0 (Persike) R. 0-1 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet0.sowi.uni-mainz.de/

Mehr

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse Einleitung Statistik Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Der Begriff Varianzanalyse (analysis of variance, ANOVA) taucht an vielen Stellen in der Statistik mit unterschiedlichen

Mehr

VS PLUS

VS PLUS VS PLUS Zusatzinformationen zu Medien des VS Verlags Statistik II Inferenzstatistik 2010 Übungsaufgaben und Lösungen Inferenzstatistik 2 [Übungsaufgaben und Lösungenn - Inferenzstatistik 2] ÜBUNGSAUFGABEN

Mehr

Inhaltsverzeichnis Einführung und deskriptive Statistik Grundlagen der Inferenzstatistik 1: Zufallsvariablen

Inhaltsverzeichnis Einführung und deskriptive Statistik Grundlagen der Inferenzstatistik 1: Zufallsvariablen Inhaltsverzeichnis 1 Einführung und deskriptive Statistik... 1 1.1 Wichtige mathematische Schreibweisen... 1 1.1.1 Das Summenzeichen... 1 1.1.2 Mengentheoretische Schreibweisen... 3 1.1.3 Variablentransformationen...

Mehr

Multivariate Analysemethoden und Multivariates Testen

Multivariate Analysemethoden und Multivariates Testen Multivariate Analysemethoden und Multivariates Testen 1.05.008 Günter Meinhardt Johannes Gutenberg Universität Mainz Multivariates Testen Multivariate Varianzanalyse () Ziele Voraussetzung Mehrgruppen

Mehr

Kapitel 4: Merkmalszusammenhänge

Kapitel 4: Merkmalszusammenhänge Kapitel 4: Merkmalszusammenhänge Korrelationen 1 Lineare Regression 3 Literatur 5 Korrelationen Mit Hilfe von G*Power lässt sich analog zum Vorgehen beim t-test (Kapitel 3, Band I) vor einer Untersuchung

Mehr

Lösungen zu den Übungsaufgaben in Kapitel 10

Lösungen zu den Übungsaufgaben in Kapitel 10 Lösungen zu den Übungsaufgaben in Kapitel 10 (1) In einer Stichprobe mit n = 10 Personen werden für X folgende Werte beobachtet: {9; 96; 96; 106; 11; 114; 114; 118; 13; 14}. Sie gehen davon aus, dass Mittelwert

Mehr

Hypothesenprüfung. Darüber hinaus existieren zahlreiche andere Testverfahren, die alle auf der gleichen Logik basieren

Hypothesenprüfung. Darüber hinaus existieren zahlreiche andere Testverfahren, die alle auf der gleichen Logik basieren Hypothesenprüfung Teil der Inferenzstatistik Befaßt sich mit der Frage, wie Hypothesen über eine (in der Regel unbekannte) Grundgesamtheit an einer Stichprobe überprüft werden können Behandelt werden drei

Mehr

Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie

Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie 1 Einleitung 3 2 Modell mit 0-1 kodierten nominalen Prädiktoren X 1

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Juni 2014 Waldherr / Christodoulides Einführung in Quantitative Methoden 1/46 Anpassungstests allgemein Gegeben: Häufigkeitsverteilung

Mehr

Methodenlehre. Vorlesung 5. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 5. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 5 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre I Woche Datum Thema 1 FQ 20.2.13 Einführung, Verteilung der Termine 1 25.9.13 Psychologie

Mehr

Mittelwertvergleiche, Teil II: Varianzanalyse

Mittelwertvergleiche, Teil II: Varianzanalyse FB 1 W. Ludwig-Mayerhofer Statistik II 1 Herzlich willkommen zur Vorlesung Mittelwertvergleiche, Teil II: FB 1 W. Ludwig-Mayerhofer Statistik II 2 : Wichtigste Eigenschaften Anwendbar auch bei mehr als

Mehr

Weitere Varianzanalysen

Weitere Varianzanalysen Professur E-Learning und Neue Medien Institut für Medienforschung Philosophische Fakultät Einführung in die Statistik Weitere Varianzanalysen Überblick Varianzanalyse mit Messwiederholung Kovarianzanalyse

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

Einfaktorielle Varianzanalyse

Einfaktorielle Varianzanalyse Kapitel 16 Einfaktorielle Varianzanalyse Im Zweistichprobenproblem vergleichen wir zwei Verfahren miteinander. Nun wollen wir mehr als zwei Verfahren betrachten, wobei wir unverbunden vorgehen. Beispiel

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 22 Übersicht Weitere Hypothesentests in der Statistik 1-Stichproben-Mittelwert-Tests 1-Stichproben-Varianz-Tests 2-Stichproben-Tests Kolmogorov-Smirnov-Test

Mehr

Auswertung und Lösung

Auswertung und Lösung Dieses Quiz soll Ihnen helfen, Kapitel 4.6 und 4.7 besser zu verstehen. Auswertung und Lösung Abgaben: 59 / 265 Maximal erreichte Punktzahl: 8 Minimal erreichte Punktzahl: 0 Durchschnitt: 4.78 1 Frage

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Mittelwertvergleiche Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

ANOVA und Transformationen. Statistik II

ANOVA und Transformationen. Statistik II und Statistik II Wiederholung Literatur Statistik II und (1/28) Literatur Zum Nachlesen Agresti ch. 12 (nur bis Seite 381) Agresti ch. 13 (nur bis Seite 428) Statistik II und (2/28) Literatur für nächste

Mehr

Wörterbuch zur Statistik III. Um den Einfluss der Kovariablen bereinigte Mittelwerte Man schaut die Zentroide an und bildet den Mittelwert aller Vpn.

Wörterbuch zur Statistik III. Um den Einfluss der Kovariablen bereinigte Mittelwerte Man schaut die Zentroide an und bildet den Mittelwert aller Vpn. Adjustierte Mittelwerte Wörterbuch zur Statistik III. Um den Einfluss der Kovariablen bereinigte Mittelwerte Man schaut die Zentroide an und bildet den Mittelwert aller Vpn. ŷ ŷ X - x X Gemeinsamer Mittelwert

Mehr

Grundlagen sportwissenschaftlicher Forschung Inferenzstatistik 2

Grundlagen sportwissenschaftlicher Forschung Inferenzstatistik 2 Grundlagen sportwissenschaftlicher Forschung Inferenzstatistik 2 Dr. Jan-Peter Brückner jpbrueckner@email.uni-kiel.de R.216 Tel. 880 4717 Statistischer Schluss Voraussetzungen z.b. bzgl. Skalenniveau und

Mehr

Forschungsstatistik II, SS2009

Forschungsstatistik II, SS2009 Forschungsstatistik II, SS29 Abschlussklausur Inferenzstatistik Name: Matrikel-Nr.: Bonuspunkte: ja nein Forschungsstatistik II SS29 Abschlussklausur Aufgabe 1: (6 Punkte 1%) Welche dieser Matrizen können

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt Methodenlehre Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen

Mehr

Hypothesentests mit SPSS. Beispiel für einen t-test

Hypothesentests mit SPSS. Beispiel für einen t-test Beispiel für einen t-test Daten: museum-f-v04.sav Hypothese: Als Gründe, in ein Museum zu gehen, geben mehr Frauen als Männer die Erweiterung der Bildung für Kinder an. Dies hängt mit der Geschlechtsrolle

Mehr

Kapitel 5: Einfaktorielle Varianzanalyse

Kapitel 5: Einfaktorielle Varianzanalyse Kapitel 5: Einfaktorielle Varianzanalyse Durchführung einer einfaktoriellen Varianzanalyse ohne Messwiederholung Dieser Abschnitt zeigt die Durchführung der in Kapitel 5 vorgestellten einfaktoriellen Varianzanalyse

Mehr

Aufgaben zu Kapitel 8

Aufgaben zu Kapitel 8 Aufgaben zu Kapitel 8 Aufgabe 1 a) Berechnen Sie einen U-Test für das in Kapitel 8.1 besprochene Beispiel mit verbundenen Rängen. Die entsprechende Testvariable punkte2 finden Sie im Datensatz Rangdaten.sav.

Mehr

SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben

SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben ÜBERSICHT: Testverfahren bei abhängigen (verbundenen) Stichproben parametrisch nicht-parametrisch 2 Gruppen t-test bei verbundenen

Mehr

Inhaltsverzeichnis. Vorwort

Inhaltsverzeichnis. Vorwort V Vorwort XI 1 Zum Gebrauch dieses Buches 1 1.1 Einführung 1 1.2 Der Text in den Kapiteln 1 1.3 Was Sie bei auftretenden Problemen tun sollten 2 1.4 Wichtig zu wissen 3 1.5 Zahlenbeispiele im Text 3 1.6

Mehr

Kipp/Opitz UdS 2007/08. Experimentalmethodik

Kipp/Opitz UdS 2007/08. Experimentalmethodik Experimentalmethodik Alltagspsychologie & Wissenschaftliche Psychologie nicht systematisch trennend zw. Richtigem und Falschem nicht methodisch kontrolliert geeignete Werkzeuge nicht kritische Überprüfung

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Statistische Messdatenauswertung

Statistische Messdatenauswertung Roland Looser Statistische Messdatenauswertung Praktische Einführung in die Auswertung von Messdaten mit Excel und spezifischer Statistik-Software für naturwissenschaftlich und technisch orientierte Anwender

Mehr

4.1. Nullhypothese, Gegenhypothese und Entscheidung

4.1. Nullhypothese, Gegenhypothese und Entscheidung rof. Dr. Roland Füss Statistik II SS 8 4. Testtheorie 4.. Nullhypothese, Gegenhypothese und Entscheidung ypothesen Annahmen über die Verteilung oder über einzelne arameter der Verteilung eines Merkmals

Mehr

Die Familie der χ 2 (n)-verteilungen

Die Familie der χ 2 (n)-verteilungen Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +

Mehr

5. Seminar Statistik

5. Seminar Statistik Sandra Schlick Seite 1 5. Seminar 5. Seminar Statistik 30 Kurztest 4 45 Testen von Hypothesen inkl. Übungen 45 Test- und Prüfverfahren inkl. Übungen 45 Repetitorium und Prüfungsvorbereitung 15 Kursevaluation

Mehr