Statistik-Team. Tobias Kley: Übung: Freitag, Uhr, HGA 10 Tutorium (SPSS) - ab
|
|
- Thomas Weiner
- vor 6 Jahren
- Abrufe
Transkript
1 Statistik-Team Tobias Kley: Übung: Freitag, Uhr, HGA 10 Tutorium (SPSS) - ab Koordination: Dr. Helge Thiemann Helge.Thiemann-i5m@ruhr-uni-bochum.de 0234/ Gafo Montag (GAFO 04/271) Linda Engelbrecht Linda.Engelbrecht@web.de Montag (GAFO 03/901); Montag (GAFO 03/901); Freitag (GAFO 03/974 ) Max Willenberg max.willenberg@gmx.de 1 / 51
2 3.1 Matrizen und Vektoren, Kodierung 3.2 Addition und Multiplikation von Matrizen 3.3 Das allgemeine (ALM), Methode der kleinsten Quadrate 3.4 Der F -test im ALM 3.5 Zweifaktorielle Varianzanalyse Messwiederholungen 2 / 51
3 3 / 51
4 Beispiel 3.19: Therapieerfolg bei Verhaltensstörungen Wie wirkt sich eine psychotherapeutische Behandlung auf verschiedene Verhaltensstörungen aus Es werden 3 Gruppen untersucht Konzentrationsstörung (5 Patienten) Schlafstörung (5 Patienten) Hysterische Verhaltungsstörung (5 Patienten) Gemessen wird der Therapieerfolg y (durch Expertenteam eingestuft) 4 / 51
5 Daten K: Konzentrationsstörung (i = 1) S: Schlafstörung (i = 2) H: Hysterische Verhaltsstörung (i = 3) j K S H Beachte: Es liegt hier das Modell der einfaktoriellen Varianzanalyse vor (vgl. Methodenlehre II, Beispiel 3.8(a)). Es gibt zwei Darstellungen des Modells Y ij = µ i + ε ij = µ + α i + ε ij i = 1, 2, 3; j = 1, 2,..., 5 5 / 51
6 SPSS-Output (einfaktorielle Varianzanalyse für Beispiel 3.19 ohne Berücksichtigung von Kovariablen) Tests der Zwischensubjekteffekte Abhängige Variable:Therapieerfolg Quadratsumme Quelle vom Typ III Korrigiertes Modell 36,400 a Konstanter Term 153,600 GRUPPE 36,400 Fehler 14,000 Gesamt 204,000 Korrigierte 50,400 Gesamtvariation df 2 a. R-Quadrat =,722 (korrigiertes R-Quadrat =,676) Mittel der Quadrate 18, ,600 18,200 1,167 F 15, ,657 15,600 Sig.,000,000,000 Man beachte: Die drei behandelten Gruppen unterscheiden sich signifikant Die Ergebnisse lassen vermuten, dass die Therapie bei Konzentrationsstörungen zum größten Erfolg führt (y 1 = 5.2; y 2 = 3; y 3 = 1.4) 6 / 51
7 Vermutung: Therapieerfolg hängt auch von der Verbalisationsfähigkeit (verbale Intelligenz x) der Patienten ab. Diese Eigenschaft wird aus diesem Grund mit gemessen K S H j x y x y x y Frage: Ändert sich das Ergebnis der Varianzanalyse, falls die verbale Intelligenz in die Untersuchungen mit einbezogen wird? 7 / 51
8 Streudiagramm und lineare Regressionsgeraden 6,00 Verhaltensstörung Konzentrationsstörung Schlafstörung Hysterische Verhaltsstörung Anpassungslinie für Gesamtsumme 5,00 Therapieerfolg 4,00 3,00 2,00 Konzentrationsstörung: R 2 Linear = 0,754 Schlafstörung: R 2 Linear = 0,837 Hysterische Verhaltsstörung: R 2 Linear = 0,892 R 2 Linear = 0,078 1,00 4,00 6,00 8,00 10,00 12,00 14,00 Verbale Intelligenz Beachte: Die Korrelation in der Gesamtgruppe ist negativ, aber in den einzelnen Gruppen positiv! 8 / 51
9 3.20 Das Modell der einfaktoriellen Kovarianzanalyse Wie bei der einfaktoriellen Varianzanalyse gibt es zwei Darstellungen: Y ij = µ + α i + γx ij + ε ij = µ i + γx ij + ε ij i = 1,..., k ; j = 1,..., n i (µ i = µ + α i, α α k = 0) y ij : Testergebnis des j-ten Patienten in der i-ten Gruppe (im Beispiel ist k = 3; n 1 = n 2 = n 3 = 5) µ i : Einfluss der Verhaltensstörung auf Therapieerfolg x ij : Kovariable (Verbalisationsfähigkeit) des j-ten Patienten der Gruppe i. γx ij ist dann der Einfluss der Kovariablen (Verbalisationsfähigkeit) des Patienten j in Gruppe i auf den Therapieerfolg 9 / 51
10 3.20 Das Modell der einfaktoriellen Kovarianzanalyse Zwei Darstellungen: Y ij = µ + α i + γx ij + ε ij = µ i + γx ij + ε ij i = 1,..., k ; j = 1,..., n i (µ i = µ + α i, α α k = 0) Der Parameter γ bemisst den Einfluss der Kovariablen (Verbalisationsfähigkeit) auf den Therapieerfolg. γ = 0 bedeutet: die Kovariable (Verbalisationsfähigkeit) hat keinen Einfluss auf den Therapieerfolg. Beachte: der Faktor γ ist für jede Gruppe derselbe - d.h. er hängt nicht von dem Index i ab (Homogenität der Regressionskoeffizienten) 10 / 51
11 Beachte: Dieses Modell ist ein Spezialfall des ALM Wobei b = X = ( µ1 µ 2 µ 3 γ Y = Xb + ε ) ε = ε 11.. ε 35 Y = / 51
12 3.21 Das Modell der einfaktoriellen Kovarianzanalyse im ALM Y = XB + ε Daten- und Fehlervektor Y = y 11. y 1n1. y k1. y knk ; ε = Parametervektor und Designmatrix b = µ 1. µ k γ X = ε 11. ε 1n1. ε k1. ε knk x x 1n x x 2n x k x knk 12 / 51
13 3.22(A) Schätzer für γ (Methode der kleinsten Quadrate) k ni i=1 j=1 ˆγ = (y ij y i )(x ij x i ) k ni i=1 j=1 (x ij x i ) 2 Beachte: ˆγ ist ein gewichtetes Mittel der Schätzer für die Steigungen der Regressionsgeraden in den einzelen Gruppen. D.h. Schätzer für die Steigung in Gruppe i (vgl. Methodenlehre II, 2.11): ni j=1 ˆγ i = (y ij y i )(x ij x i ) ni j=1 (x ij x i ) 2 Anteil der Varianz der Kovariablen in Gruppe i an der Gesamtvarianz ni j=1 α i = (x ij x i ) 2 k ni i=1 j=1 (x ij x i ) 2 Es gilt (α α k = 1): ˆγ = k α i ˆγ i i=1 13 / 51
14 Schätzung von γ für die Daten aus Beispiel 3.19 Schätzung der Steigung der Regressionsgeraden in den einzelnen Gruppen ˆγ 1 = ; ˆγ 2 = ; ˆγ 3 = Varianz der Kovariablen in den einzelnen Gruppen Gruppe 1: Gruppe 2: Gruppe 3: n1 j=1 (x 1j x 1 ) 2 =2.56 n2 j=1 (x 2j x 2 ) 2 =3.44 n3 j=1 (x 3j x 3 ) 2 =2.16 Gewichte: α 1 = Schätzer für γ = ; α 2 = ; α 3 = ˆγ = = / 51
15 3.22(B) Schätzer für µ i (Methode der kleinsten Quadrate) Beachte: als Schätzer für die Parameter µ i verwendet man die Gruppenmittelwerte, wobei die Daten vorher um den Einfluss der Kovariablen korrigiert werden ˆµ i = 1 n i n j=1 (y ij ˆγx ij ) = y i ˆγx i Schätzer für die Varianz der zufälligen Fehler (Residualvarianz) ŝ 2 y x = 1 n k 1 k n i (y ij ˆµ i ˆγx ij ) 2 i=1 j=1 (dabei bezeichnet n = n n k den Gesamtstichprobenumfang) 15 / 51
16 Schätzung von µ 1, µ 2, µ 3 für die Daten aus Beispiel 3.19 Schätzung der Mittelwerte (y) einzelnen Gruppen y 1 = 5.2; y 2 = 3; y 3 = 1.4 Schätzung der Mittelwerte (x) einzelnen Gruppen x 1 = 6.8; x 2 = 9.4; x 3 = 10.8 Schätzung der korrigierten Mittelwerte einzelnen Gruppen ˆµ 1 = = 1.767; ˆµ 2 = 1.746; ˆµ 3 = / 51
17 Mathematische Formulierung der Hypothesen (im Beispiel 3.19): kein Einfluss der Kovariable Die Kovariable hat keinen Einfluss auf den Therapieerfolg: H 0 : γ = 0 Mit der Matrix K = (0, 0, 0, 1) und dem Parametervektor b = (µ 1, µ 2, µ 3, γ) T kann man diese Nullhypothese schreiben als H 0 : Kb = (0, 0, 0, 1) µ 1 µ 2 µ 3 γ = γ = 0 17 / 51
18 Mathematische Formulierung der Hypothesen (im Beispiel 3.19): kein Unterschied zwischen den Gruppen Zwischen den verschiedenen Verhaltensstörungen besteht kein Unterschied hinsichtlich des Therapieerfolgs: H 0 : µ 1 = µ 2 = µ 3 Mit der Matrix K = ( ) und dem Parametervektor b = (µ 1, µ 2, µ 3, γ) T kann man diese Hypothese schreiben als ( ) µ 1 ( ) ( H 0 : Kb = µ µ 3 = µ1 µ 2 0 = µ 2 µ 3 0 γ ) 18 / 51
19 3.23(A) F -Test auf Signifikanz des Regressionskoeffizienten Man beachte: Alle Hypothesen können mit dem F -Test im ALM (vgl. Methodenlehre II; 3.12) getestet werden. Die Anwendung der allgemeinen Theorie liefert: Die Hypothese H 0 : γ = 0 (Kovariable hat keinen Einfluss) wird zum Niveau α abgelehnt, falls F γ = 1 1 ˆγ2 ns 2 xx s 2 y x > F 1,n k 1,1 α gilt (oder der p-wert < α ist). Dabei ist F 1,n k 1,1 α das (1 α) Quantil der F -Verteilung und s 2 xx = 1 n k n i (x ij x ) 2 i=1 j=1 die Summe der quadrierten Abweichungen der Kovariablen von ihrem Mittelwert 19 / 51
20 Alternative Interpretation der Teststatistik aus 3.23(A): Differenz von Summen aus quadrierten Residuen (vgl. Methodenlehre II, Kapitel 3.4) Trifft die Hypothese H 0 : γ = 0 (die Kovariable hat keinen Einfluss auf den Therapieerfolg) zu, so liegt das Modell der einfaktoriellen Varianzanalyse vor: Bezeichnet y ij = µ i + ε ij ; i = 1,..., k; j = 1,..., n i y i = 1 n n i y ij j=1 i = 1,..., k den Mittelwert in Gruppe i (nicht bzgl. der Kovariablen korrigiert), dann ist ŝ 2 H 0 = 1 n k k (y ij y i ) 2 die Residualvarianz der einfaktoriellen Varianzanalyse (Varianz unter der Nullhypothese) i=1 20 / 51
21 Allgemeines Prinzip: Differenz von Summen aus quadrierten Residuen Nach 3.22(B) ist ŝ 2 y x = 1 n k 1 k n i (y ij ˆµ i ˆγx ij ) 2 i=1 j=1 die Residualvarianz im Modell der einfaktoriellen Kovarianzanalyse (Varianz unter der Alternative) Die Statistik des F -Tests hat die Darstellung F γ = (n k) ŝ2 H 0 (n k 1) ŝ 2 y x ŝ 2 y x = 1 1 (RSS γ H 0 RSS) 1 n k 1 RSS Man vergleicht also die Summen der quadrierten Residuen in dem Modell der einfaktoriellen Varianzanalyse [RSS γ H 0 = (n k)ŝ 2 H 0 ] und unter der Einbeziehung der Kovariablen [RSS = (n k 1)ŝ 2 y x ] Kurz: Differenz der Summe der quadrierten Residuen unter Nullhypothese und Alternative dividiert durch die Summe der quadrierten Residuen unter Alternative 21 / 51
22 Beispiel: Test auf Einfluss der Kovariablen für die Daten aus Beispiel 3.19 RSS γ H 0 = (n k) ŝ 2 H 0 = 14.0 RSS = (n k 1) ŝ 2 y x = 3.6 F γ = = = Für α = 5% ist F 1,11,0.95 = 4.844, also wird die Nullhypothese H 0 : γ = 0 (kein Einfluss der Kovariablen) zum Niveau 5% verworfen (P-Wert: ) 22 / 51
23 3.23(B) F -Test auf Unterschiede zwischen den Gruppen Die Hypothese H 0 : µ 1 = = µ k wird zum Niveau α abgelehnt, falls F µ = gilt. Dabei ist 1 k 1 1 k n k 1 i=1 k i=1 n i(y i y ) 2 ni j=1 (y ij y i ) 2 > F k 1,n k 1,1 α Fk 1,n k 1,1 α das (1 α)-quantil der F -Verteilung mit (k 1, n k 1) Freiheitsgraden y ij = y ij ˆγx ij (die um den Einfluss der Kovariablen bereinigten Daten) y i = 1 ni n i j=1 y ij der Gruppemmittelwert in Gruppe i y = 1 k n1 n i=1 j=1 y ij der Gesamtmittelwert Beachte: es wird eine einfaktorielle Varianzanalyse mit den korrigierten Daten yij = y ij ˆγx ij durchgeführt 23 / 51
24 Alternative Interpretation der Teststatistik aus 3.23(A): Differenz von Summen aus quadrierten Residuen F µ = 1 k 1 (RSS µ H 0 RSS) 1 n k 1 RSS Residuensumme unter der Nullhypothese H 0 : µ 1 = = µ k RSS µ H 0 = k n i (yij y ) 2 i=1 j=1 Residensumme im Modell der Kovarianzanalyse (ˆµ i = 1 ni n i j=1 (y ij ˆγx ij ) = y i beachten!) RSS = k n i (y ij ˆµ i ˆγx ij ) 2 = i=1 j=1 k n i (yij y i ) 2 i=1 j=1 24 / 51
25 Beispiel: Test auf Gruppenunterschiede für die Daten aus Beispiel 3.19 RSS µ H 0 = RSS = 3.6 F µ = 1 2 ( ) 1 = = Für α = 5% ist F 2,11,0.95 = 3.982, also wird die Nullhypothese (keine Gruppenunterschiede) H 0 : µ 1 = µ 2 = µ 3 zum Niveau 5% verworfen (P-Wert: ) 25 / 51
26 SPSS-Output: einfaktorielle Kovarianzanalyse Tests der Zwischensubjekteffekte Abhängige Variable:Therapieerfolg Quadratsumme Quelle vom Typ III Korrigiertes Modell 46,801 a Konstanter Term,880 GRUPPE 42,850 VERBALE_INTELLIGENZ 10,401 Fehler 3,599 Gesamt 204,000 Korrigierte 50,400 Gesamtvariation df Mittel der Quadrate 15,600,880 21,425 10,401,327 F 47,681 2,691 65,483 31,789 Sig.,000,129,000,000 a. R-Quadrat =,929 (korrigiertes R-Quadrat =,909) Man Beachte: Durch Einbeziehung der Kovarariablen verkleinert sich die Summe der quadrierten Residuen von (im Modell der einfaktoriellen Varianzanalyse) auf 3.6 (im Modell der einfaktoriellen Kovarianzanalyse). D.h. statt 72.22% werden 92.86% der Varianz erklärt! 26 / 51
27 3.24 Voraussetzungen für die Kovarianzanalyse Modell der einfaktoriellen Kovarianzanalyse y ij = µ i + γx ij + ε ij = µ + α i + γx ij + ε ij i = 1,..., k; j = 1,..., n i µ i repräsentiert den Einfluss der Gruppe i auf die abhängige Variable y ij γx ij repräsentiert den Einfluss der Kovariablen x ij auf die abhängige Variable y ij Die zufälligen Fehler ε ij sind unabhängig und normalverteilt mit Erwartungswert 0 und Varianz σ 2 (diese Annahme ist in Beispiel 3.19 mindestens diskussionswürdig) Der Faktor γ is unabhängig von der Gruppe (d.h. hängt nicht von i ab): Homogenität der Regressionskoeffizienten 27 / 51
28 3.25 Überprüfung der Annahme der Homogenität der Regressionskoeffizienten Modell y ij = µ i + γ i x ij + ε ij ; i = 1,..., k; j = 1,..., n i Nullhypothese: Der Einfluss der Kovariablen ändert sich nicht mit der Gruppenzugehörigkeit H 0 : γ 1 = γ 2 = = γ k Beachte: - In diesem Modell betrachtet für jede Gruppe eine Regressionsgerade und die Nullhypothese sagt aus, dass dieser k Geraden parallel sind - Das Modell hat 2k Parameter µ 1,..., µ k, γ 1,..., γ k (im Beispiel 6) - Das Modell der einfaktoriellen Kovarianzanalyse hat k + 1 Parameter µ 1,..., µ k, γ (im Beispiel 4) 28 / 51
29 Design- und Hypothesenmatrix für Beispiel 3.19 b = µ 1 µ 2 µ 3 γ 1 γ 2 γ 3 X = K = Kb = ( ( ) γ1 γ 2 γ 2 γ 3 ) 29 / 51
30 3.26 F -Test für die Hypothese der Homogenität der Regressionskoeffizienten Die Hypothese H 0 : γ 1 = = γ k wird zum Niveau α abgelehnt, falls Dabei sind F γ = 1 k 1 (RSS H 0 RSS) 1 n 2k RSS > F k 1,n 2k,1 α ni j=1 (y ij ˆµ i ˆγx ij ) 2 die Summe der quadrierten RSSH0 = k i=1 Residuen unter der Nullyhpothese ˆµi, ˆγ die kleinsten Quadrate Schätzer unter der Annahme der Homogenität der Regressionskoeffizienten (vgl. Bemerkung 3.22) RSS = k ni i=1 j=1 (y ij µ i γ i x ij ) 2 die Summe der quadrierten Residuen, unter der Annahme, dass keine Homogenität der Regressionskoeffizienten vorliegt ( µi, γ i ) die kleinsten Quadrate Schätzungen, unter der Annahme, dass keine Homogenität der Regressionskoeffizienten vorliegt 30 / 51
31 Beispiel: F -Test für die Hypothese der Homogenität der Regressionskoeffizienten für die Daten aus Beispiel 3.19 RSS H0 = 3.6 RSS = F γ = 1 2 ( ) 1 = = Für α = 5% ist F 2,9,0.95 = 4.256, also wird die Nullhypothese der Homogenität der Regressionskoeffizienten H 0 : γ 1 = γ 2 = γ 3 zum Niveau 5% nicht verworfen (P-Wert: 0.824) 31 / 51
32 SPSS Output: Überprüfung der Annahme der Homogenität in der einfaktoriellen Kovarianzanalyse Tests der Zwischensubjekteffekte Abhängige Variable:Therapieerfolg Quelle Korrigiertes Modell Konstanter Term GRUPPE VERBALE_INTELLIGENZ GRUPPE * VERBALE_INTELLIGENZ Fehler Gesamt Korrigierte Gesamtvariation Quadratsumme vom Typ III 47,955 a,483 4,213 8,795 1,154 2, ,000 50,400 df Mittel der Quadrate 9,591,483 2,107 8,795,577,272 F 35,304 1,779 7,754 32,374 2,124 Sig.,000,215,011,000,176 a. R-Quadrat =,951 (korrigiertes R-Quadrat =,925) 32 / 51
33 3.27 Bemerkungen zur Kovarianzanalyse Mit der Kovarianzanalyse überprüft man, wie bedeutsam der Einfluss der Kovariablen ist Der Einfluss der Kovariablen wird durch die Kovarianzanalyse neutralisiert Durch die Beachtung der Kovariablen wird im Modell der Varianzanalyse die Residualvarianz reduziert. Beachte: liegt keine Homogenität der Regessionskoeffizienten vor, so ist eine Durchführung der Kovarianzanalyse wie in 3.23(A) und 3.23(B) beschrieben nicht sinnvoll. 33 / 51
34 3.27 Bemerkungen zur Kovarianzanalyse Eine Kovarianzanalyse ist eine Varianzanalyse bereinigt um den Einfluss der Kovariablen. D.h. Eine Kovarianzanalyse ist eine Varianzanalyse der Regressionsresiduen y ij = y ij ˆγx ij Durch die Kovarianzanalyse wird die Verzerrung durch die Gruppenunterschiede in der gewöhnlichen linearen Regression korrigiert Das Modell der Kovarianzanalyse kann in verschiedene Reichtungen erweitert werden: Mehrere Faktoren. Z.B. Zweifaktorielle Kovarainzanalyse y ijk = µ + α i + β j + αβ ij + γx ijk + ε ijk Modelle mit Messwiederholungen (vgl. Kapitel 3.7) Mehrdimensionale Kovariablen 34 / 51
35 35 / 51
36 3.28 Beispiel: Tagesschwankungen des Hautwiderstands Bei 10 Versuchspersonen wird morgens, mittags und abends der Hautwiderstand gemessen Es soll überprüft werden, ob der Hautwiderstand Tagesschwankungen unterliegt (α = 0.01) oder zu den drei Zeiten im Mittel gleich ist Beachte: Die Versuchspersonen werden unter den 3 Faktorstufen wiederholt untersucht. Problem: In solchen Versuchsanordnungen ist in der Regel die Unabhängigkeitsannahme, die für die einfaktorielle Varianzanalyse benötigt wird (vgl. Methodenlehre II, 1.4), nicht mehr erfüllt 36 / 51
37 Daten im Beispiel 3.28 Vpn morgens mittags abends / 51
38 Lineares Modell für Beispiel 3.28 Man modelliert hier einen personenindividuellen Mittelwert und einen Mittelwert für die Tageszeit: Y ij = µ i + p j + ε ij i = 1, 2, 3 j = 1,..., 10 Beachte: Das ist das Modell der zweifaktoriellen Varianzanalyse (vgl. Methodenlehre II, Kapitel 3.5) mit einer Beobachtung pro Faktorkombination, wobei - keine Wechselwirkung angenommen wird (da man diese mit einer Beobachtung pro Faktorkombination nicht schätzen kann) - Die zufälligen Fehler ε ij in der Regel nicht als unabhängig angenommen werden können - Das Modell hat 13 Parameter µ 1, µ 2, µ 3; p 1,..., p 10 - Oft werden die Personeneffekte als zufällig angenommen ( ALM mit zufälligen Faktoren). Diese Thematik wird in dieser Vorlesung nicht besprochen. 38 / 51
39 Man modelliert hier einen personenindividuellen Mittelwert und einen Mittelwert für die Tageszeit: Y ij = µ i + p j + ε ij i = 1, 2, 3 j = 1,..., 10 Parameter im ALM Y = Xb + ε b = (µ 1, µ 2, µ 3, p 1,..., p 10 ) T Die zu prüfende Hypothese keine Tagesschwankungen kann dann formuliert werden als: ( ) ( ) ( µ1 µ H 0 : Kb = b = 2 0 = µ 2 µ 3 0 Würde man die Abhängigkeit der Fehler ε ij ingnorieren, dann wäre der F -Test aus Kapitel 3.4 anwendbar! ) 39 / 51
40 SPSS-Output: Varianzanalyse für die Daten aus Bsp Tests der Zwischensubjekteffekte Abhängige Variable:HAUTWIDERSTAND Quadratsumme Quelle vom Typ III df Modell VPN TAGESZEIT Fehler Gesamt 1353,333 a 11,633 21,667 23, , Mittel der Quadrate 112,778 1,293 10,833 1,315 a. R-Quadrat =,983 (korrigiertes R-Quadrat =,971) F 85,775,983 8,239 Sig.,000,486,003 Beachte: Die Hypothese, dass sich der Hautwiderstand im Tagesverlauf nicht ändert wird zum Niveau α = 0.01 verworfen (p-wert: 0.003) Die Berechnung der p-werte erfolgt unter der Annahme, dass die Größen ε ij unabhängig sind (diese Annahme ist hier nicht zu rechtfertigen) 40 / 51
41 Problem: abhängige Daten Bei der Berechnung der p-werte in dem vorigen Beispiel wird verwendet dass die Teststatistik eine F -Verteilung mit (2, 18) Freiheitsgraden besitzt. Diese Vorgehensweise ist korrekt, falls die Größen ε ij unabhängig sind (diese Annahme ist hier nicht zu rechtfertigen) Häufig sind die Fehler bei Untersuchungen mit Messwiederholungen abhängig! Für beliebige Abhängigkeitsstrukturen ist die Teststatistik in der Regel dann nicht F -verteilt ( p-werte nicht korrekt) Frage: Gibt es andere Abhängigkeitsstrukturen (als die Unabhängigkeit), unter denen die Teststatistik doch F -verteilt ist? 41 / 51
42 Die Zirkularitätsannahme Die bei der Varianzanalyse im Modell Y ij = µ i + p j + ε ij i = 1,..., p; j = 1,..., n verwendete Teststatistik (F -Test aus ALM) besitzt genau dann eine F p 1,(p 1)(n 1) -Verteilung (im Beispiel ist p = 3 und n = 10), falls die Varianzen zwischen den Treatmenteffekten konstant ist, d.h. gilt Var(Y ij Y kj ) = konstant falls i k Diese Bedingung wird als Zirkularitätsannahme (ZA) bezeichnet Beachte: Die Zirkularitätsannahme ist erfüllt falls die Varianzen und Kovarianzen homogen sind, d.h. Var(Y ij ) = konstant1, Cov(Y ij, Y kj ) = konstant2 In diesem Fall spricht man von Homogenität der Korrelationen. Sind die Korrelationen außerdem 0 wird von Sphärizität gesprochen. 42 / 51
43 3.29 Modell der einfaktoriellen Varianzanalyse mit Messwiederholungen Untersuche den Einfluss eines Faktors (z.b. Tageszeit ) auf die abhängige Variable (z.b. Hautwiderstand ) in dem Fall, wenn die abhängige Variable für jeweils alle Faktorstufen an denselben Versuchspersonen beobachtet werden Mathematisches Modell Y ij = µ i + p j + ε ij i = 1,..., n j = 1,..., p mit µi : Mittelwert der i-ten Faktorstufe pj : individuelle Abweichung von Person j εij : Störgröße (für die Messung von Faktorstufe i bei Person j). 43 / 51
44 F -Test bei einfaktoriellen Varianzanalyse mit Messwiederholungen Modellannahmen Störgrößen unabhängig zwischen den Versuchspersonen, normalverteilt mit derselben Varianz keine Wechselwirkungen zwischen dem Faktor und den Personen die Zirkularitätsannahme: konstante Varianzen zwischen den Treatmenteffekten In diesem Fall ist der F -Test aus Kapitel 3.4 (Methodenlehre II) anwendbar und die Nullhypothese H 0 : µ 1 = µ 2 =... µ p wird zum Niveau α verworfen, falls die Statistik des F -Tests größer ist als das (1 α)- Quantil der F -Verteliung mit (p 1, (p 1)(n 1)) Freiheitsgraden Fragen: Was macht man, wenn die Zirkularitätsannahme nicht erfüllt ist? Wie überprüft man die Zirkularitätsannahme? 44 / 51
45 3.30 Verletzung der Zirkularitätsannahme Beachte: Ist die Zirkularitätsannahme nicht erfüllt, so erhält man progressive Tests, d.h. H 1 wird häufiger begünstigt, als durch das Niveau α vorgesehen Idee: Ist die Zirkularitätsannahme nicht gerechtfertigt, so führt man eine Korrektur der Freiheitsgrade durch, so dass die Teststatistik näherungsweise F -verteilt ist Korrektur der Freiheitsgrade verhindert progressives Testen Die korrigierte F-Verteilung hat (p 1)ε und (p 1)(n 1)ε 1 Freiheitsgrade, wobei ε 1 p 1 Der Korrekturfaktor ε kann aus den Daten (genauer den Varianzen und Kovarianzen) geschätzt werden Es gibt unterschiedliche Vorschläge, wie man diesen Korrekturfaktor berechnen soll In SPSS implementiert: (A) Greenhouse/Geisser (B) Huynh/Feldt (C) die Untergrenze von 1 p 1 45 / 51
46 SPSS-Output: Prüfung der Zirkularitätsannahme Maß:MASS_1 Mauchly-Test auf Sphärizität b a Epsilon a Approximiertes Greenhouse- Innersubjekteffekt Mauchly-W Chi-Quadrat df Sig. Geisser Huynh-Feldt Untergrenze Tageszeit,952,392 2,822,954 1,000,500 Prüft die Nullhypothese, daß sich die Fehlerkovarianz-Matrix der orthonormalisierten transformierten abhängigen Variablen proportional zur Einheitsmatrix verhält. a. Kann zum Korrigieren der Freiheitsgrade für die gemittelten Signifikanztests verwendet werden. In der Tabelle mit den Tests der Effekte innerhalb der Subjekte werden korrigierte Tests angezeigt. b. Design: Konstanter Term Innersubjektdesign: Tageszeit Beachte: SPSS liefert keinen Test für die Hypothese dass die Zirkularitätsannahme erfüllt ist, sondern einen Test für die Hypothese der Sphärizität Die Hypothese, dass Sphärizität vorliegt, kann in Beispiel 3.28 nicht verworfen werden Die beiden Schätzungen des Korrekturfaktors ε liegen nahe bei 1 Die Anwendung der einfaktoriellen Varianzanalyse wie in 3.29 beschrieben ist gerechtfertigt 46 / 51
47 Die Zerlegung der Quadratsumme in zwei Stufen p i=1 j=1 n (y ij y ) 2 = p } {{ } QS tot n (y j y ) 2 + j=1 } {{ } QS zwvpn p i=1 j=1 n (y ij y j ) 2 } {{ } QS invpn p i=1 j=1 n (y ij y j ) 2 = n } {{ } QS invpn p (y i y ) 2 i=1 } {{ } QS treat p n + (y ij y j y i + y ) 2 i=1 j=1 } {{ } QS res 47 / 51
48 Schematische Darstellung der zweistufigen Zerlegung der Quadratsumme Total (QS tot ) Zwischen den Vpn (QS zw Vpn ) Innerhalb der Vpn (QS in Vpn ) Zwischen den Faktorstufen (QS treat ) Residual (QS res ) 48 / 51
49 SPSS-Output: in zwei Teilen Teil 1: Analyse der Varianz zwischen den Versuchspersonen Zerlegung der Quadratsumme n n p y 2 j = p (y j y ) 2 + pny 2 j=1 j=1 Im Prinzip testet man in der einfaktoriellen Varianzanalyse ob der Erwartungswert der gemittelten Daten y j gleich 0 ist Da man über die Faktorstufen mittelt, liegen hier keine Abhängigkeiten vor Tests der Zwischensubjekteffekte Maß:MASS_1 Transformierte Variable:Mittel Quelle Quadratsumme vom Typ III df Mittel der Quadrate Konstanter Term Fehler 1320,033 11, ,033 1,293 F 1021,229 Sig., / 51
50 SPSS-Output Teil 2: Analyse der Varianz innerhalb der Versuchspersonen Zerlegung der Quadratsumme QS invpn = QS treat + QS res Hier testet man ob die Erwartungswerte µ 1, µ 2 und µ 3 der verschiedenen Treatmentgruppen gleich sind Da Unterschiede zwischen den Faktorstufen betrachtet werden, liegen hier Abhängigkeiten vor. In diesem Fall muss man die Zikularitätsannahme prüfen und gfs. die Freiheitsgrade korrigieren Tests der Innersubjekteffekte Maß:MASS_1 Quelle Tageszeit Fehler(Tageszeit) Sphärizität angenommen Greenhouse-Geisser Huynh-Feldt Untergrenze Sphärizität angenommen Greenhouse-Geisser Huynh-Feldt Untergrenze Quadratsumme vom Typ III 21,667 21,667 21,667 21,667 23,667 23,667 23,667 23,667 df 2 1,909 2,000 1, ,179 18,000 9,000 Mittel der Quadrate 10,833 11,351 10,833 21,667 1,315 1,378 1,315 2,630 F 8,239 8,239 8,239 8,239 Sig.,003,003,003,018 Die ermittelten p-werte weichen praktisch nicht voneinander ab. 50 / 51
51 Abschließende Bemerkungen Aus Zeitgründen wird nur die einfaktorielle Varianzanalyse mit Messwiederholungen besprochen Bein anderen Versuchsplänen geht man ähnlich vor. Z.B. zweifaktorielle Varianzanalyse mit Messwiederholungen Kovarianzanalyse mit Messwiederholungen etc. 51 / 51
3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate
31 und 33 Das allgemeine (), Methode der kleinsten Quadrate 31 und (), Methode der Messwiederholungen 1 / 131 Eine grundsätzliche Bemerkung zu Beginn Es bestehen viele Ähnlichkeiten zwischen den bisher
Mehr3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate
31 und 31 und (), Methode der 33 Das allgemeine (), Methode der kleinsten Quadrate 36 Kovarianzanalyse 37 Modelle mit Messwiederholungen 1 / 85 Eine grundsätzliche Bemerkung zu Beginn Es bestehen viele
MehrHypothesentests mit SPSS
Beispiel für eine zweifaktorielle Varianzanalyse mit Messwiederholung auf einem Faktor (univariate Lösung) Daten: POKIII_AG4_V06.SAV Hypothese: Die physische Attraktivität der Bildperson und das Geschlecht
MehrSPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben
SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben ÜBERSICHT: Testverfahren bei abhängigen (verbundenen) Stichproben parametrisch nicht-parametrisch 2 Gruppen t-test bei verbundenen
MehrAnwendungsaufgaben. Effektgröße bei df Zähler = df A = 1 und N = 40 (zu berechnen aus df Nenner ): Der aufgedeckte Effekt beträgt also etwa 23 %.
Anhang A: Lösungen der Aufgaben 39 beiden Kombinationen sehr hoch ist. (Dieses Ergebnis wäre aber in diesem Beispiel nicht plausibel.) 5. Der Faktor A und die Wechselwirkung werden signifikant: Lärm hat
MehrAufgaben zu Kapitel 7:
Aufgaben zu Kapitel 7: Aufgabe 1: In einer Klinik sollen zwei verschiedene Therapiemethoden miteinander verglichen werden. Zur Messung des Therapieerfolges werden die vorhandenen Symptome einmal vor Beginn
MehrHolger Dette. 16. Oktober 2017
Ruhr-Universität Bochum 16 Oktober 2017 1 / 72 Methodenlehre III Prof Dr NA 3 /73 (zunächst) Telefon: 0234 32 28284 Email: holgerdette@rubde Internet: wwwruhr-uni-bochumde/mathematik3/indexhtml Vorlesung:
Mehr3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate
31 und 31 und (), Methode der 33 Das allgemeine (), Methode der kleinsten Quadrate 37 Modelle mit Messwiederholungen 1 / 113 Eine grundsätzliche Bemerkung zu Beginn Es bestehen viele Ähnlichkeiten zwischen
MehrEinfaktorielle Varianzanalyse Vergleich mehrerer Mittelwerte
Einfaktorielle Varianzanalyse Vergleich mehrerer Mittelwerte Es wurden die anorganischen Phosphatwerte im Serum (mg/dl) eine Stunde nach einem Glukosetoleranztest bei übergewichtigen Personen mit Hyperinsulinämie,
Mehr30. März Ruhr-Universität Bochum. Methodenlehre II, SS Prof. Dr. Holger Dette
Ruhr-Universität Bochum 30. März 2011 1 / 46 Methodenlehre II NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag, 8.30 10.00
MehrSozialwissenschaftlerInnen II
Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Varianzanalyse Statistik
MehrAufgaben zu Kapitel 7:
Aufgaben zu Kapitel 7: Aufgabe 1: In einer Klinik sollen zwei verschiedene Therapiemethoden miteinander verglichen werden. Zur Messung des Therapieerfolges werden die vorhandenen Symptome einmal vor Beginn
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
MehrKapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten
Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten 5.1. Einführung Einfaktorielle Varianzanalyse Überprüft die Auswirkung einer gestuften (s), unabhängigen Variable X, auch Faktor
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrEinführung in die Varianzanalyse mit SPSS
Einführung in die Varianzanalyse mit SPSS SPSS-Benutzertreffen am URZ Carina Ortseifen 6. Mai 00 Inhalt. Varianzanalyse. Prozedur ONEWAY. Vergleich von k Gruppen 4. Multiple Vergleiche 5. Modellvoraussetzungen
MehrKapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten
Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten 5.1. Einführung Einfaktorielle Varianzanalyse Überprüft die Auswirkung einer gestuften (s), unabhängigen Variable X, auch Faktor
MehrPrüfungsliteratur: Rudolf & Müller S
1 Beispiele zur univariaten Varianzanalyse Einfaktorielle Varianzanalyse (Wiederholung!) 3 Allgemeines lineares Modell 4 Zweifaktorielle Varianzanalyse 5 Multivariate Varianzanalyse 6 Varianzanalyse mit
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.
0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
MehrPrüfungsliteratur: Rudolf & Müller S
1 Beispiele zur univariaten Varianzanalyse 2 Einfaktorielle Varianzanalyse (Wiederholung!) 3 Allgemeines lineares Modell 4 Kovarianzanalyse 5 Multivariate Varianzanalyse 6 Zweifaktorielle Varianzanalyse
Mehr4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
MehrEinfaktorielle Varianzanalyse
Kapitel 16 Einfaktorielle Varianzanalyse Im Zweistichprobenproblem vergleichen wir zwei Verfahren miteinander. Nun wollen wir mehr als zwei Verfahren betrachten, wobei wir unverbunden vorgehen. Beispiel
MehrStatistisches Testen
Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall
MehrZweifache Varianzanalyse
Zweifache Varianzanalyse Man kann mittels VA auch den (gleichzeitigen) Einfluss mehrerer Faktoren (unabhängige Variablen) auf ein bestimmtes Merkmal (abhängige Variable) analysieren. Die Wirkungen werden
Mehr22. Oktober Ruhr-Universität Bochum. Methodenlehre II, SS Prof. Dr. Holger Dette
Ruhr-Universität Bochum 22. Oktober 2011 1 / 374 Methodenlehre II NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag, 8.30
MehrDeskriptive Beschreibung linearer Zusammenhänge
9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,
MehrFormelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade
Version 2015 Formelsammlung für das Modul Statistik 2 Bachelor Sven Garbade Prof. Dr. phil. Dipl.-Psych. Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de
MehrVarianzanalyse. SeKo. Heute. Vivien Röder, M.Sc.Psych. Professur für Forschungsmethodik & Evaluation
ÜbungMethodenlehreII, SeKo VivienRöder,M.Sc.Psych. ProfessurfürForschungsmethodik&Evaluation Einführung wieso,weshalb,warum?, Inferenzstatistik wirwollenanhandeinerstatistik SchlussaufdiePopulationziehen
Mehr23. Mai Ruhr-Universität Bochum. Methodenlehre II, SS Prof. Dr. Holger Dette
Ruhr-Universität Bochum 23. Mai 2011 1 / 178 Methodenlehre II NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag, 8.30 10.00
MehrLösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
MehrStochastik Praktikum Lineare Modelle
Stochastik Praktikum Lineare Modelle Thorsten Dickhaus Humboldt-Universität zu Berlin 06.10.2010 Übersicht 1 Einfache lineare Regression 2 Multiple lineare Regression 3 Varianzanalyse 4 Verallgemeinerte
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
MehrBeispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben
Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben Es wurden die Körpergrößen von 3 Versuchspersonen, sowie Alter und Geschlecht erhoben. (Jeweils Größen pro Faktorstufenkombination). (a)
MehrEinleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse
Einleitung Statistik Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Der Begriff Varianzanalyse (analysis of variance, ANOVA) taucht an vielen Stellen in der Statistik mit unterschiedlichen
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
MehrMesswiederholungen und abhängige Messungen
Messwiederholungen und abhängige Messungen t Tests und Varianzanalysen für Messwiederholungen Kovarianzanalyse Thomas Schäfer SS 009 1 Messwiederholungen und abhängige Messungen Bei einer Messwiederholung
MehrInstrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen.
Gliederung Grundidee Einfaches lineares Modell KQ-Methode (Suche nach der besten Geraden) Einfluss von Ausreißern Güte des Modells (Bestimmtheitsmaß R²) Multiple Regression Noch Fragen? Lineare Regression
MehrANalysis Of VAriance (ANOVA) 2/2
ANalysis Of VAriance (ANOVA) 2/2 Markus Kalisch 22.10.2014 1 Wdh: ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor X). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich
Mehr2.5 Lineare Regressionsmodelle
2.5.1 Wiederholung aus Statistik I Gegeben Datenpunkte (Y i, X i ) schätze die beste Gerade Y i = β 0 + β 1 X i, i = 1,..., n. 2 Induktive Statistik 409 Bsp. 2.30. [Kaffeeverkauf auf drei Flohmärkten]
MehrVarianzvergleiche bei normalverteilten Zufallsvariablen
9 Mittelwert- und Varianzvergleiche Varianzvergleiche bei zwei unabhängigen Stichproben 9.3 Varianzvergleiche bei normalverteilten Zufallsvariablen Nächste Anwendung: Vergleich der Varianzen σa 2 und σ2
MehrKlassifikation von Signifikanztests
Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen
MehrEinführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
MehrSchätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung
MehrStatistische Tests (Signifikanztests)
Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)
MehrMethodenlehre II, SoSe 2015
Ruhr-Universität Bochum 2. April 2015 1 / 96 Methodenlehre II Prof. Dr. NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: http://www.ruhr-uni-bochum.de/mathematik3/ http://www.ruhr-uni-bochum.de/mathematik3/dette.html
MehrMultiple Regression III
Multiple Regression III Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Überprüfung der Modellannahmen Residuen-Plot Normal-Q-Q-Plot Cook s Distanz-Plot Maßnahmen bei Abweichungen von Modellannahmen
MehrA.1 Fragebogen der Untersuchung von Burisch (2002)
A.1 Fragebogen der Untersuchung von Burisch (2002) Anhang Seite A-1 Anhang Seite A-2 Anhang Seite A-3 Anhang Seite A-4 Anhang Seite A-5 Anhang Seite A-6 Anhang Seite A-7 A.2 LISREL Referenzblatt (Universität
MehrBiometrieübung 10 Lineare Regression. 2. Abhängigkeit der Körpergröße von der Schuhgröße bei Männern
Biometrieübung 10 (lineare Regression) - Aufgabe Biometrieübung 10 Lineare Regression Aufgabe 1. Düngungsversuch In einem Düngeversuch mit k=9 Düngungsstufen x i erhielt man Erträge y i. Im (X, Y)- Koordinatensystem
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt Statistik & Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de
MehrEinfache Varianzanalyse für unabhängige Stichproben
Einfache Varianzanalyse für unabhängige Stichproben VARIANZANALYSE Die Varianzanalyse ist das dem t-test entsprechende Mittel zum Vergleich mehrerer (k 2) Stichprobenmittelwerte. Sie wird hier mit VA abgekürzt,
MehrBachelorprüfung: Statistik (1 Stunde)
Prof. H.R. Künsch D-BIOL, D-CHAB Winter 2010 Bachelorprüfung: Statistik (1 Stunde) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt. Natels sind auszuschalten!
MehrMethodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg
Methodenlehre Vorlesung 12 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre II Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 18.2.15 Psychologie als Wissenschaft
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrAuswertung und Lösung
Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen
Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung
MehrLean Body Mass [kg] Estimate Std. Error t value Pr(> t ) (Intercept) ??? lbm <2e-16 ***
Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden
MehrStatistik II (Sozialwissenschaften)
Dr. Hans-Otfried Müller Institut für Mathematische Stochastik Fachrichtung Mathematik Technische Universität Dresden http://www.math.tu-dresden.de/sto/mueller/ Statistik II (Sozialwissenschaften) 2. Konsultationsübung,
MehrInhaltsverzeichnis Einführung und deskriptive Statistik Grundlagen der Inferenzstatistik 1: Zufallsvariablen
Inhaltsverzeichnis 1 Einführung und deskriptive Statistik... 1 1.1 Wichtige mathematische Schreibweisen... 1 1.1.1 Das Summenzeichen... 1 1.1.2 Mengentheoretische Schreibweisen... 3 1.1.3 Variablentransformationen...
MehrPrüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003
Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003. Eine seltene Krankheit trete mit Wahrscheinlichkeit : 0000 auf. Die bedingte Wahrscheinlichkeit, dass ein bei einem Erkrankten durchgeführter
MehrML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.
Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die
MehrTests einzelner linearer Hypothesen I
4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen
MehrKapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen.
Kapitel 3 Schließende lineare Regression 3.1. Einführung induktiv Fragestellungen Modell Statistisch bewerten, der vorher beschriebenen Zusammenhänge auf der Basis vorliegender Daten, ob die ermittelte
MehrMathematische und statistische Methoden II
Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike
MehrMethodenlehre. Vorlesung 11. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg
Methodenlehre Vorlesung 11 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 03.12.13 Methodenlehre I Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 25.9.13 Psychologie
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
Mehr5. Lektion: Einfache Signifikanztests
Seite 1 von 7 5. Lektion: Einfache Signifikanztests Ziel dieser Lektion: Du ordnest Deinen Fragestellungen und Hypothesen die passenden einfachen Signifikanztests zu. Inhalt: 5.1 Zwei kategoriale Variablen
MehrInferenz im multiplen Regressionsmodell
1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen
Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Noémie Becker & Dirk Metzler 31. Mai 2016 Inhaltsverzeichnis 1 Binomialverteilung 1 2 Normalverteilung 2 3 T-Verteilung
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 22 Übersicht Weitere Hypothesentests in der Statistik 1-Stichproben-Mittelwert-Tests 1-Stichproben-Varianz-Tests 2-Stichproben-Tests Kolmogorov-Smirnov-Test
MehrMethodenlehre II, SoSe 2015
Ruhr-Universität Bochum 4. Juni 2015 1 / 282 Methodenlehre II Prof. Dr. NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: http://www.ruhr-uni-bochum.de/mathematik3/ http://www.ruhr-uni-bochum.de/mathematik3/dette.html
MehrStatistik II für Betriebswirte Vorlesung 1
Statistik II für Betriebswirte Vorlesung 1 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. Oktober 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 1 Version:
MehrRegression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
MehrKapitel 5: Einfaktorielle Varianzanalyse
Kapitel 5: Einfaktorielle Varianzanalyse Durchführung einer einfaktoriellen Varianzanalyse ohne Messwiederholung Dieser Abschnitt zeigt die Durchführung der in Kapitel 5 vorgestellten einfaktoriellen Varianzanalyse
MehrInferenzstatistik verstehen
Markus Janczyk Roland Pfister Inferenzstatistik verstehen Von A wie Signifikanztest bis Z wie Konfidenzintervall ^ Springer Spektrum vii 1 Einführung und deskriptive Statistik 1 1.1 Wichtige mathematische
MehrPVK Statistik Tag Carlos Mora
PVK Statistik Tag 2 11.1.2012 Block 4 Block 3 Übersicht 11.1.2012 09:00 6. Zwei-Stichproben-Tests für stetige Verteilungen (2.Teil) Übung 2C 1h inkl. Pause 7. Lineare Regression 12:00 Übung 3 Mittag 13:00
MehrTeil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller
Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit
MehrStatistik II Übung 3: Hypothesentests
Statistik II Übung 3: Hypothesentests Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier Stichproben). Verwenden
MehrEmpirische Wirtschaftsforschung
Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 6.. Herleitung des OLS-Schätzers
MehrVarianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Faktorielle Varianzanalyse
Wahrscheinlichkeitsrechnung und Statistik für Biologen Faktorielle Varianzanalyse Dirk Metzler & Martin Hutzenthaler 15. Juni 2010 Inhaltsverzeichnis 1 Die einfaktorielle Varianzanalyse und der F -Test
Mehr11. Übungsblatt zur Vorlesung Ökonometrie SS 2014
Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer
MehrVorlesung: Multivariate Statistik für Psychologen
Vorlesung: Multivariate Statistik für Psychologen 10. Vorlesung: 1.0.2003 Agenda 3. Multivariate Varianzanalyse i. Einführung in die multivariate Variananalyse Grundidee und Ziele der MANOVA Beispiele
MehrSo berechnen Sie einen Schätzer für einen Punkt
htw saar 1 EINFÜHRUNG IN DIE STATISTIK: SCHÄTZEN UND TESTEN htw saar 2 Schätzen: Einführung Ziel der Statistik ist es, aus den Beobachtungen eines Merkmales in einer Stichprobe Rückschlüsse über die Verteilung
MehrStatistik II für Betriebswirte Vorlesung 5
Statistik II für Betriebswirte Vorlesung 5 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. November 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 5 Version:
MehrLiegen 2 Beobachtungen an n Objekten vor, spricht man von einer gebundenen Stichprobe Typische Struktur bei "stimulus-response" Versuchen
Mittelwertsvergleich bei gebundenen Stichproben Liegen Beobachtungen an n Objekten vor, spricht man von einer gebundenen Stichprobe Typische Struktur bei "stimulus-response" Versuchen Obj.1 Obj.... Obj.n
MehrMultivariate Lineare Modelle SS Varianzanalyse. 1. T -Statistiken. 2. ANOVA einfaktoriell. 3. ANOVA zweifaktoriell 4. MANOVA 5.
Multivariate Lineare Modelle SS 2010 3 Varianzanalyse 1. T -Statistiken 2. ANOVA einfaktoriell 3. ANOVA zweifaktoriell 4. MANOVA 5. ANCOVA 1 3.1 T -Statistiken Varianzanalyse kategorielle erklärende Variablen
MehrAufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte)
Aufgabe 3 (6 + 4 + 8 + 4 + 10 + 4 + 9 + 4 + 8 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe eines multiplen linearen Regressionsmodells soll auf
MehrMehrfaktorielle Varianzanalyse
Professur E-Learning und Neue Medien Institut für Medienforschung Philosophische Fakultät Einführung in die Statistik Mehrfaktorielle Varianzanalyse Überblick Einführung Empirische F-Werte zu einer zweifaktoriellen
MehrVergleich von Gruppen I
Vergleich von Gruppen I t-test und einfache Varianzanalyse (One Way ANOVA) Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Der unverbundene t-test mit homogener Varianz Beispiel Modell Teststatistik
MehrStatistik II Übung 3: Hypothesentests Aktualisiert am
Statistik II Übung 3: Hypothesentests Aktualisiert am 12.04.2017 Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier
Mehr6.4 Der Kruskal-Wallis Test
6.4 Der Kruskal-Wallis Test Der Test von Kruskal und Wallis, auch H-Test genannt, ist ein Test, mit dem man die Verteilungen von Teilstichproben auf Unterschiede untersuchen kann. Bei diesem Test geht
MehrStatistikpraktikum. Carsten Rezny. Sommersemester Institut für angewandte Mathematik Universität Bonn
Statistikpraktikum Carsten Rezny Institut für angewandte Mathematik Universität Bonn Sommersemester 2014 Mehrdimensionale Datensätze: Multivariate Statistik Multivariate Statistik Mehrdimensionale Datensätze:
Mehr