Statistik-Team. Tobias Kley: Übung: Freitag, Uhr, HGA 10 Tutorium (SPSS) - ab

Größe: px
Ab Seite anzeigen:

Download "Statistik-Team. Tobias Kley: Übung: Freitag, Uhr, HGA 10 Tutorium (SPSS) - ab"

Transkript

1 Statistik-Team Tobias Kley: Übung: Freitag, Uhr, HGA 10 Tutorium (SPSS) - ab Koordination: Dr. Helge Thiemann Helge.Thiemann-i5m@ruhr-uni-bochum.de 0234/ Gafo Montag (GAFO 04/271) Linda Engelbrecht Linda.Engelbrecht@web.de Montag (GAFO 03/901); Montag (GAFO 03/901); Freitag (GAFO 03/974 ) Max Willenberg max.willenberg@gmx.de 1 / 51

2 3.1 Matrizen und Vektoren, Kodierung 3.2 Addition und Multiplikation von Matrizen 3.3 Das allgemeine (ALM), Methode der kleinsten Quadrate 3.4 Der F -test im ALM 3.5 Zweifaktorielle Varianzanalyse Messwiederholungen 2 / 51

3 3 / 51

4 Beispiel 3.19: Therapieerfolg bei Verhaltensstörungen Wie wirkt sich eine psychotherapeutische Behandlung auf verschiedene Verhaltensstörungen aus Es werden 3 Gruppen untersucht Konzentrationsstörung (5 Patienten) Schlafstörung (5 Patienten) Hysterische Verhaltungsstörung (5 Patienten) Gemessen wird der Therapieerfolg y (durch Expertenteam eingestuft) 4 / 51

5 Daten K: Konzentrationsstörung (i = 1) S: Schlafstörung (i = 2) H: Hysterische Verhaltsstörung (i = 3) j K S H Beachte: Es liegt hier das Modell der einfaktoriellen Varianzanalyse vor (vgl. Methodenlehre II, Beispiel 3.8(a)). Es gibt zwei Darstellungen des Modells Y ij = µ i + ε ij = µ + α i + ε ij i = 1, 2, 3; j = 1, 2,..., 5 5 / 51

6 SPSS-Output (einfaktorielle Varianzanalyse für Beispiel 3.19 ohne Berücksichtigung von Kovariablen) Tests der Zwischensubjekteffekte Abhängige Variable:Therapieerfolg Quadratsumme Quelle vom Typ III Korrigiertes Modell 36,400 a Konstanter Term 153,600 GRUPPE 36,400 Fehler 14,000 Gesamt 204,000 Korrigierte 50,400 Gesamtvariation df 2 a. R-Quadrat =,722 (korrigiertes R-Quadrat =,676) Mittel der Quadrate 18, ,600 18,200 1,167 F 15, ,657 15,600 Sig.,000,000,000 Man beachte: Die drei behandelten Gruppen unterscheiden sich signifikant Die Ergebnisse lassen vermuten, dass die Therapie bei Konzentrationsstörungen zum größten Erfolg führt (y 1 = 5.2; y 2 = 3; y 3 = 1.4) 6 / 51

7 Vermutung: Therapieerfolg hängt auch von der Verbalisationsfähigkeit (verbale Intelligenz x) der Patienten ab. Diese Eigenschaft wird aus diesem Grund mit gemessen K S H j x y x y x y Frage: Ändert sich das Ergebnis der Varianzanalyse, falls die verbale Intelligenz in die Untersuchungen mit einbezogen wird? 7 / 51

8 Streudiagramm und lineare Regressionsgeraden 6,00 Verhaltensstörung Konzentrationsstörung Schlafstörung Hysterische Verhaltsstörung Anpassungslinie für Gesamtsumme 5,00 Therapieerfolg 4,00 3,00 2,00 Konzentrationsstörung: R 2 Linear = 0,754 Schlafstörung: R 2 Linear = 0,837 Hysterische Verhaltsstörung: R 2 Linear = 0,892 R 2 Linear = 0,078 1,00 4,00 6,00 8,00 10,00 12,00 14,00 Verbale Intelligenz Beachte: Die Korrelation in der Gesamtgruppe ist negativ, aber in den einzelnen Gruppen positiv! 8 / 51

9 3.20 Das Modell der einfaktoriellen Kovarianzanalyse Wie bei der einfaktoriellen Varianzanalyse gibt es zwei Darstellungen: Y ij = µ + α i + γx ij + ε ij = µ i + γx ij + ε ij i = 1,..., k ; j = 1,..., n i (µ i = µ + α i, α α k = 0) y ij : Testergebnis des j-ten Patienten in der i-ten Gruppe (im Beispiel ist k = 3; n 1 = n 2 = n 3 = 5) µ i : Einfluss der Verhaltensstörung auf Therapieerfolg x ij : Kovariable (Verbalisationsfähigkeit) des j-ten Patienten der Gruppe i. γx ij ist dann der Einfluss der Kovariablen (Verbalisationsfähigkeit) des Patienten j in Gruppe i auf den Therapieerfolg 9 / 51

10 3.20 Das Modell der einfaktoriellen Kovarianzanalyse Zwei Darstellungen: Y ij = µ + α i + γx ij + ε ij = µ i + γx ij + ε ij i = 1,..., k ; j = 1,..., n i (µ i = µ + α i, α α k = 0) Der Parameter γ bemisst den Einfluss der Kovariablen (Verbalisationsfähigkeit) auf den Therapieerfolg. γ = 0 bedeutet: die Kovariable (Verbalisationsfähigkeit) hat keinen Einfluss auf den Therapieerfolg. Beachte: der Faktor γ ist für jede Gruppe derselbe - d.h. er hängt nicht von dem Index i ab (Homogenität der Regressionskoeffizienten) 10 / 51

11 Beachte: Dieses Modell ist ein Spezialfall des ALM Wobei b = X = ( µ1 µ 2 µ 3 γ Y = Xb + ε ) ε = ε 11.. ε 35 Y = / 51

12 3.21 Das Modell der einfaktoriellen Kovarianzanalyse im ALM Y = XB + ε Daten- und Fehlervektor Y = y 11. y 1n1. y k1. y knk ; ε = Parametervektor und Designmatrix b = µ 1. µ k γ X = ε 11. ε 1n1. ε k1. ε knk x x 1n x x 2n x k x knk 12 / 51

13 3.22(A) Schätzer für γ (Methode der kleinsten Quadrate) k ni i=1 j=1 ˆγ = (y ij y i )(x ij x i ) k ni i=1 j=1 (x ij x i ) 2 Beachte: ˆγ ist ein gewichtetes Mittel der Schätzer für die Steigungen der Regressionsgeraden in den einzelen Gruppen. D.h. Schätzer für die Steigung in Gruppe i (vgl. Methodenlehre II, 2.11): ni j=1 ˆγ i = (y ij y i )(x ij x i ) ni j=1 (x ij x i ) 2 Anteil der Varianz der Kovariablen in Gruppe i an der Gesamtvarianz ni j=1 α i = (x ij x i ) 2 k ni i=1 j=1 (x ij x i ) 2 Es gilt (α α k = 1): ˆγ = k α i ˆγ i i=1 13 / 51

14 Schätzung von γ für die Daten aus Beispiel 3.19 Schätzung der Steigung der Regressionsgeraden in den einzelnen Gruppen ˆγ 1 = ; ˆγ 2 = ; ˆγ 3 = Varianz der Kovariablen in den einzelnen Gruppen Gruppe 1: Gruppe 2: Gruppe 3: n1 j=1 (x 1j x 1 ) 2 =2.56 n2 j=1 (x 2j x 2 ) 2 =3.44 n3 j=1 (x 3j x 3 ) 2 =2.16 Gewichte: α 1 = Schätzer für γ = ; α 2 = ; α 3 = ˆγ = = / 51

15 3.22(B) Schätzer für µ i (Methode der kleinsten Quadrate) Beachte: als Schätzer für die Parameter µ i verwendet man die Gruppenmittelwerte, wobei die Daten vorher um den Einfluss der Kovariablen korrigiert werden ˆµ i = 1 n i n j=1 (y ij ˆγx ij ) = y i ˆγx i Schätzer für die Varianz der zufälligen Fehler (Residualvarianz) ŝ 2 y x = 1 n k 1 k n i (y ij ˆµ i ˆγx ij ) 2 i=1 j=1 (dabei bezeichnet n = n n k den Gesamtstichprobenumfang) 15 / 51

16 Schätzung von µ 1, µ 2, µ 3 für die Daten aus Beispiel 3.19 Schätzung der Mittelwerte (y) einzelnen Gruppen y 1 = 5.2; y 2 = 3; y 3 = 1.4 Schätzung der Mittelwerte (x) einzelnen Gruppen x 1 = 6.8; x 2 = 9.4; x 3 = 10.8 Schätzung der korrigierten Mittelwerte einzelnen Gruppen ˆµ 1 = = 1.767; ˆµ 2 = 1.746; ˆµ 3 = / 51

17 Mathematische Formulierung der Hypothesen (im Beispiel 3.19): kein Einfluss der Kovariable Die Kovariable hat keinen Einfluss auf den Therapieerfolg: H 0 : γ = 0 Mit der Matrix K = (0, 0, 0, 1) und dem Parametervektor b = (µ 1, µ 2, µ 3, γ) T kann man diese Nullhypothese schreiben als H 0 : Kb = (0, 0, 0, 1) µ 1 µ 2 µ 3 γ = γ = 0 17 / 51

18 Mathematische Formulierung der Hypothesen (im Beispiel 3.19): kein Unterschied zwischen den Gruppen Zwischen den verschiedenen Verhaltensstörungen besteht kein Unterschied hinsichtlich des Therapieerfolgs: H 0 : µ 1 = µ 2 = µ 3 Mit der Matrix K = ( ) und dem Parametervektor b = (µ 1, µ 2, µ 3, γ) T kann man diese Hypothese schreiben als ( ) µ 1 ( ) ( H 0 : Kb = µ µ 3 = µ1 µ 2 0 = µ 2 µ 3 0 γ ) 18 / 51

19 3.23(A) F -Test auf Signifikanz des Regressionskoeffizienten Man beachte: Alle Hypothesen können mit dem F -Test im ALM (vgl. Methodenlehre II; 3.12) getestet werden. Die Anwendung der allgemeinen Theorie liefert: Die Hypothese H 0 : γ = 0 (Kovariable hat keinen Einfluss) wird zum Niveau α abgelehnt, falls F γ = 1 1 ˆγ2 ns 2 xx s 2 y x > F 1,n k 1,1 α gilt (oder der p-wert < α ist). Dabei ist F 1,n k 1,1 α das (1 α) Quantil der F -Verteilung und s 2 xx = 1 n k n i (x ij x ) 2 i=1 j=1 die Summe der quadrierten Abweichungen der Kovariablen von ihrem Mittelwert 19 / 51

20 Alternative Interpretation der Teststatistik aus 3.23(A): Differenz von Summen aus quadrierten Residuen (vgl. Methodenlehre II, Kapitel 3.4) Trifft die Hypothese H 0 : γ = 0 (die Kovariable hat keinen Einfluss auf den Therapieerfolg) zu, so liegt das Modell der einfaktoriellen Varianzanalyse vor: Bezeichnet y ij = µ i + ε ij ; i = 1,..., k; j = 1,..., n i y i = 1 n n i y ij j=1 i = 1,..., k den Mittelwert in Gruppe i (nicht bzgl. der Kovariablen korrigiert), dann ist ŝ 2 H 0 = 1 n k k (y ij y i ) 2 die Residualvarianz der einfaktoriellen Varianzanalyse (Varianz unter der Nullhypothese) i=1 20 / 51

21 Allgemeines Prinzip: Differenz von Summen aus quadrierten Residuen Nach 3.22(B) ist ŝ 2 y x = 1 n k 1 k n i (y ij ˆµ i ˆγx ij ) 2 i=1 j=1 die Residualvarianz im Modell der einfaktoriellen Kovarianzanalyse (Varianz unter der Alternative) Die Statistik des F -Tests hat die Darstellung F γ = (n k) ŝ2 H 0 (n k 1) ŝ 2 y x ŝ 2 y x = 1 1 (RSS γ H 0 RSS) 1 n k 1 RSS Man vergleicht also die Summen der quadrierten Residuen in dem Modell der einfaktoriellen Varianzanalyse [RSS γ H 0 = (n k)ŝ 2 H 0 ] und unter der Einbeziehung der Kovariablen [RSS = (n k 1)ŝ 2 y x ] Kurz: Differenz der Summe der quadrierten Residuen unter Nullhypothese und Alternative dividiert durch die Summe der quadrierten Residuen unter Alternative 21 / 51

22 Beispiel: Test auf Einfluss der Kovariablen für die Daten aus Beispiel 3.19 RSS γ H 0 = (n k) ŝ 2 H 0 = 14.0 RSS = (n k 1) ŝ 2 y x = 3.6 F γ = = = Für α = 5% ist F 1,11,0.95 = 4.844, also wird die Nullhypothese H 0 : γ = 0 (kein Einfluss der Kovariablen) zum Niveau 5% verworfen (P-Wert: ) 22 / 51

23 3.23(B) F -Test auf Unterschiede zwischen den Gruppen Die Hypothese H 0 : µ 1 = = µ k wird zum Niveau α abgelehnt, falls F µ = gilt. Dabei ist 1 k 1 1 k n k 1 i=1 k i=1 n i(y i y ) 2 ni j=1 (y ij y i ) 2 > F k 1,n k 1,1 α Fk 1,n k 1,1 α das (1 α)-quantil der F -Verteilung mit (k 1, n k 1) Freiheitsgraden y ij = y ij ˆγx ij (die um den Einfluss der Kovariablen bereinigten Daten) y i = 1 ni n i j=1 y ij der Gruppemmittelwert in Gruppe i y = 1 k n1 n i=1 j=1 y ij der Gesamtmittelwert Beachte: es wird eine einfaktorielle Varianzanalyse mit den korrigierten Daten yij = y ij ˆγx ij durchgeführt 23 / 51

24 Alternative Interpretation der Teststatistik aus 3.23(A): Differenz von Summen aus quadrierten Residuen F µ = 1 k 1 (RSS µ H 0 RSS) 1 n k 1 RSS Residuensumme unter der Nullhypothese H 0 : µ 1 = = µ k RSS µ H 0 = k n i (yij y ) 2 i=1 j=1 Residensumme im Modell der Kovarianzanalyse (ˆµ i = 1 ni n i j=1 (y ij ˆγx ij ) = y i beachten!) RSS = k n i (y ij ˆµ i ˆγx ij ) 2 = i=1 j=1 k n i (yij y i ) 2 i=1 j=1 24 / 51

25 Beispiel: Test auf Gruppenunterschiede für die Daten aus Beispiel 3.19 RSS µ H 0 = RSS = 3.6 F µ = 1 2 ( ) 1 = = Für α = 5% ist F 2,11,0.95 = 3.982, also wird die Nullhypothese (keine Gruppenunterschiede) H 0 : µ 1 = µ 2 = µ 3 zum Niveau 5% verworfen (P-Wert: ) 25 / 51

26 SPSS-Output: einfaktorielle Kovarianzanalyse Tests der Zwischensubjekteffekte Abhängige Variable:Therapieerfolg Quadratsumme Quelle vom Typ III Korrigiertes Modell 46,801 a Konstanter Term,880 GRUPPE 42,850 VERBALE_INTELLIGENZ 10,401 Fehler 3,599 Gesamt 204,000 Korrigierte 50,400 Gesamtvariation df Mittel der Quadrate 15,600,880 21,425 10,401,327 F 47,681 2,691 65,483 31,789 Sig.,000,129,000,000 a. R-Quadrat =,929 (korrigiertes R-Quadrat =,909) Man Beachte: Durch Einbeziehung der Kovarariablen verkleinert sich die Summe der quadrierten Residuen von (im Modell der einfaktoriellen Varianzanalyse) auf 3.6 (im Modell der einfaktoriellen Kovarianzanalyse). D.h. statt 72.22% werden 92.86% der Varianz erklärt! 26 / 51

27 3.24 Voraussetzungen für die Kovarianzanalyse Modell der einfaktoriellen Kovarianzanalyse y ij = µ i + γx ij + ε ij = µ + α i + γx ij + ε ij i = 1,..., k; j = 1,..., n i µ i repräsentiert den Einfluss der Gruppe i auf die abhängige Variable y ij γx ij repräsentiert den Einfluss der Kovariablen x ij auf die abhängige Variable y ij Die zufälligen Fehler ε ij sind unabhängig und normalverteilt mit Erwartungswert 0 und Varianz σ 2 (diese Annahme ist in Beispiel 3.19 mindestens diskussionswürdig) Der Faktor γ is unabhängig von der Gruppe (d.h. hängt nicht von i ab): Homogenität der Regressionskoeffizienten 27 / 51

28 3.25 Überprüfung der Annahme der Homogenität der Regressionskoeffizienten Modell y ij = µ i + γ i x ij + ε ij ; i = 1,..., k; j = 1,..., n i Nullhypothese: Der Einfluss der Kovariablen ändert sich nicht mit der Gruppenzugehörigkeit H 0 : γ 1 = γ 2 = = γ k Beachte: - In diesem Modell betrachtet für jede Gruppe eine Regressionsgerade und die Nullhypothese sagt aus, dass dieser k Geraden parallel sind - Das Modell hat 2k Parameter µ 1,..., µ k, γ 1,..., γ k (im Beispiel 6) - Das Modell der einfaktoriellen Kovarianzanalyse hat k + 1 Parameter µ 1,..., µ k, γ (im Beispiel 4) 28 / 51

29 Design- und Hypothesenmatrix für Beispiel 3.19 b = µ 1 µ 2 µ 3 γ 1 γ 2 γ 3 X = K = Kb = ( ( ) γ1 γ 2 γ 2 γ 3 ) 29 / 51

30 3.26 F -Test für die Hypothese der Homogenität der Regressionskoeffizienten Die Hypothese H 0 : γ 1 = = γ k wird zum Niveau α abgelehnt, falls Dabei sind F γ = 1 k 1 (RSS H 0 RSS) 1 n 2k RSS > F k 1,n 2k,1 α ni j=1 (y ij ˆµ i ˆγx ij ) 2 die Summe der quadrierten RSSH0 = k i=1 Residuen unter der Nullyhpothese ˆµi, ˆγ die kleinsten Quadrate Schätzer unter der Annahme der Homogenität der Regressionskoeffizienten (vgl. Bemerkung 3.22) RSS = k ni i=1 j=1 (y ij µ i γ i x ij ) 2 die Summe der quadrierten Residuen, unter der Annahme, dass keine Homogenität der Regressionskoeffizienten vorliegt ( µi, γ i ) die kleinsten Quadrate Schätzungen, unter der Annahme, dass keine Homogenität der Regressionskoeffizienten vorliegt 30 / 51

31 Beispiel: F -Test für die Hypothese der Homogenität der Regressionskoeffizienten für die Daten aus Beispiel 3.19 RSS H0 = 3.6 RSS = F γ = 1 2 ( ) 1 = = Für α = 5% ist F 2,9,0.95 = 4.256, also wird die Nullhypothese der Homogenität der Regressionskoeffizienten H 0 : γ 1 = γ 2 = γ 3 zum Niveau 5% nicht verworfen (P-Wert: 0.824) 31 / 51

32 SPSS Output: Überprüfung der Annahme der Homogenität in der einfaktoriellen Kovarianzanalyse Tests der Zwischensubjekteffekte Abhängige Variable:Therapieerfolg Quelle Korrigiertes Modell Konstanter Term GRUPPE VERBALE_INTELLIGENZ GRUPPE * VERBALE_INTELLIGENZ Fehler Gesamt Korrigierte Gesamtvariation Quadratsumme vom Typ III 47,955 a,483 4,213 8,795 1,154 2, ,000 50,400 df Mittel der Quadrate 9,591,483 2,107 8,795,577,272 F 35,304 1,779 7,754 32,374 2,124 Sig.,000,215,011,000,176 a. R-Quadrat =,951 (korrigiertes R-Quadrat =,925) 32 / 51

33 3.27 Bemerkungen zur Kovarianzanalyse Mit der Kovarianzanalyse überprüft man, wie bedeutsam der Einfluss der Kovariablen ist Der Einfluss der Kovariablen wird durch die Kovarianzanalyse neutralisiert Durch die Beachtung der Kovariablen wird im Modell der Varianzanalyse die Residualvarianz reduziert. Beachte: liegt keine Homogenität der Regessionskoeffizienten vor, so ist eine Durchführung der Kovarianzanalyse wie in 3.23(A) und 3.23(B) beschrieben nicht sinnvoll. 33 / 51

34 3.27 Bemerkungen zur Kovarianzanalyse Eine Kovarianzanalyse ist eine Varianzanalyse bereinigt um den Einfluss der Kovariablen. D.h. Eine Kovarianzanalyse ist eine Varianzanalyse der Regressionsresiduen y ij = y ij ˆγx ij Durch die Kovarianzanalyse wird die Verzerrung durch die Gruppenunterschiede in der gewöhnlichen linearen Regression korrigiert Das Modell der Kovarianzanalyse kann in verschiedene Reichtungen erweitert werden: Mehrere Faktoren. Z.B. Zweifaktorielle Kovarainzanalyse y ijk = µ + α i + β j + αβ ij + γx ijk + ε ijk Modelle mit Messwiederholungen (vgl. Kapitel 3.7) Mehrdimensionale Kovariablen 34 / 51

35 35 / 51

36 3.28 Beispiel: Tagesschwankungen des Hautwiderstands Bei 10 Versuchspersonen wird morgens, mittags und abends der Hautwiderstand gemessen Es soll überprüft werden, ob der Hautwiderstand Tagesschwankungen unterliegt (α = 0.01) oder zu den drei Zeiten im Mittel gleich ist Beachte: Die Versuchspersonen werden unter den 3 Faktorstufen wiederholt untersucht. Problem: In solchen Versuchsanordnungen ist in der Regel die Unabhängigkeitsannahme, die für die einfaktorielle Varianzanalyse benötigt wird (vgl. Methodenlehre II, 1.4), nicht mehr erfüllt 36 / 51

37 Daten im Beispiel 3.28 Vpn morgens mittags abends / 51

38 Lineares Modell für Beispiel 3.28 Man modelliert hier einen personenindividuellen Mittelwert und einen Mittelwert für die Tageszeit: Y ij = µ i + p j + ε ij i = 1, 2, 3 j = 1,..., 10 Beachte: Das ist das Modell der zweifaktoriellen Varianzanalyse (vgl. Methodenlehre II, Kapitel 3.5) mit einer Beobachtung pro Faktorkombination, wobei - keine Wechselwirkung angenommen wird (da man diese mit einer Beobachtung pro Faktorkombination nicht schätzen kann) - Die zufälligen Fehler ε ij in der Regel nicht als unabhängig angenommen werden können - Das Modell hat 13 Parameter µ 1, µ 2, µ 3; p 1,..., p 10 - Oft werden die Personeneffekte als zufällig angenommen ( ALM mit zufälligen Faktoren). Diese Thematik wird in dieser Vorlesung nicht besprochen. 38 / 51

39 Man modelliert hier einen personenindividuellen Mittelwert und einen Mittelwert für die Tageszeit: Y ij = µ i + p j + ε ij i = 1, 2, 3 j = 1,..., 10 Parameter im ALM Y = Xb + ε b = (µ 1, µ 2, µ 3, p 1,..., p 10 ) T Die zu prüfende Hypothese keine Tagesschwankungen kann dann formuliert werden als: ( ) ( ) ( µ1 µ H 0 : Kb = b = 2 0 = µ 2 µ 3 0 Würde man die Abhängigkeit der Fehler ε ij ingnorieren, dann wäre der F -Test aus Kapitel 3.4 anwendbar! ) 39 / 51

40 SPSS-Output: Varianzanalyse für die Daten aus Bsp Tests der Zwischensubjekteffekte Abhängige Variable:HAUTWIDERSTAND Quadratsumme Quelle vom Typ III df Modell VPN TAGESZEIT Fehler Gesamt 1353,333 a 11,633 21,667 23, , Mittel der Quadrate 112,778 1,293 10,833 1,315 a. R-Quadrat =,983 (korrigiertes R-Quadrat =,971) F 85,775,983 8,239 Sig.,000,486,003 Beachte: Die Hypothese, dass sich der Hautwiderstand im Tagesverlauf nicht ändert wird zum Niveau α = 0.01 verworfen (p-wert: 0.003) Die Berechnung der p-werte erfolgt unter der Annahme, dass die Größen ε ij unabhängig sind (diese Annahme ist hier nicht zu rechtfertigen) 40 / 51

41 Problem: abhängige Daten Bei der Berechnung der p-werte in dem vorigen Beispiel wird verwendet dass die Teststatistik eine F -Verteilung mit (2, 18) Freiheitsgraden besitzt. Diese Vorgehensweise ist korrekt, falls die Größen ε ij unabhängig sind (diese Annahme ist hier nicht zu rechtfertigen) Häufig sind die Fehler bei Untersuchungen mit Messwiederholungen abhängig! Für beliebige Abhängigkeitsstrukturen ist die Teststatistik in der Regel dann nicht F -verteilt ( p-werte nicht korrekt) Frage: Gibt es andere Abhängigkeitsstrukturen (als die Unabhängigkeit), unter denen die Teststatistik doch F -verteilt ist? 41 / 51

42 Die Zirkularitätsannahme Die bei der Varianzanalyse im Modell Y ij = µ i + p j + ε ij i = 1,..., p; j = 1,..., n verwendete Teststatistik (F -Test aus ALM) besitzt genau dann eine F p 1,(p 1)(n 1) -Verteilung (im Beispiel ist p = 3 und n = 10), falls die Varianzen zwischen den Treatmenteffekten konstant ist, d.h. gilt Var(Y ij Y kj ) = konstant falls i k Diese Bedingung wird als Zirkularitätsannahme (ZA) bezeichnet Beachte: Die Zirkularitätsannahme ist erfüllt falls die Varianzen und Kovarianzen homogen sind, d.h. Var(Y ij ) = konstant1, Cov(Y ij, Y kj ) = konstant2 In diesem Fall spricht man von Homogenität der Korrelationen. Sind die Korrelationen außerdem 0 wird von Sphärizität gesprochen. 42 / 51

43 3.29 Modell der einfaktoriellen Varianzanalyse mit Messwiederholungen Untersuche den Einfluss eines Faktors (z.b. Tageszeit ) auf die abhängige Variable (z.b. Hautwiderstand ) in dem Fall, wenn die abhängige Variable für jeweils alle Faktorstufen an denselben Versuchspersonen beobachtet werden Mathematisches Modell Y ij = µ i + p j + ε ij i = 1,..., n j = 1,..., p mit µi : Mittelwert der i-ten Faktorstufe pj : individuelle Abweichung von Person j εij : Störgröße (für die Messung von Faktorstufe i bei Person j). 43 / 51

44 F -Test bei einfaktoriellen Varianzanalyse mit Messwiederholungen Modellannahmen Störgrößen unabhängig zwischen den Versuchspersonen, normalverteilt mit derselben Varianz keine Wechselwirkungen zwischen dem Faktor und den Personen die Zirkularitätsannahme: konstante Varianzen zwischen den Treatmenteffekten In diesem Fall ist der F -Test aus Kapitel 3.4 (Methodenlehre II) anwendbar und die Nullhypothese H 0 : µ 1 = µ 2 =... µ p wird zum Niveau α verworfen, falls die Statistik des F -Tests größer ist als das (1 α)- Quantil der F -Verteliung mit (p 1, (p 1)(n 1)) Freiheitsgraden Fragen: Was macht man, wenn die Zirkularitätsannahme nicht erfüllt ist? Wie überprüft man die Zirkularitätsannahme? 44 / 51

45 3.30 Verletzung der Zirkularitätsannahme Beachte: Ist die Zirkularitätsannahme nicht erfüllt, so erhält man progressive Tests, d.h. H 1 wird häufiger begünstigt, als durch das Niveau α vorgesehen Idee: Ist die Zirkularitätsannahme nicht gerechtfertigt, so führt man eine Korrektur der Freiheitsgrade durch, so dass die Teststatistik näherungsweise F -verteilt ist Korrektur der Freiheitsgrade verhindert progressives Testen Die korrigierte F-Verteilung hat (p 1)ε und (p 1)(n 1)ε 1 Freiheitsgrade, wobei ε 1 p 1 Der Korrekturfaktor ε kann aus den Daten (genauer den Varianzen und Kovarianzen) geschätzt werden Es gibt unterschiedliche Vorschläge, wie man diesen Korrekturfaktor berechnen soll In SPSS implementiert: (A) Greenhouse/Geisser (B) Huynh/Feldt (C) die Untergrenze von 1 p 1 45 / 51

46 SPSS-Output: Prüfung der Zirkularitätsannahme Maß:MASS_1 Mauchly-Test auf Sphärizität b a Epsilon a Approximiertes Greenhouse- Innersubjekteffekt Mauchly-W Chi-Quadrat df Sig. Geisser Huynh-Feldt Untergrenze Tageszeit,952,392 2,822,954 1,000,500 Prüft die Nullhypothese, daß sich die Fehlerkovarianz-Matrix der orthonormalisierten transformierten abhängigen Variablen proportional zur Einheitsmatrix verhält. a. Kann zum Korrigieren der Freiheitsgrade für die gemittelten Signifikanztests verwendet werden. In der Tabelle mit den Tests der Effekte innerhalb der Subjekte werden korrigierte Tests angezeigt. b. Design: Konstanter Term Innersubjektdesign: Tageszeit Beachte: SPSS liefert keinen Test für die Hypothese dass die Zirkularitätsannahme erfüllt ist, sondern einen Test für die Hypothese der Sphärizität Die Hypothese, dass Sphärizität vorliegt, kann in Beispiel 3.28 nicht verworfen werden Die beiden Schätzungen des Korrekturfaktors ε liegen nahe bei 1 Die Anwendung der einfaktoriellen Varianzanalyse wie in 3.29 beschrieben ist gerechtfertigt 46 / 51

47 Die Zerlegung der Quadratsumme in zwei Stufen p i=1 j=1 n (y ij y ) 2 = p } {{ } QS tot n (y j y ) 2 + j=1 } {{ } QS zwvpn p i=1 j=1 n (y ij y j ) 2 } {{ } QS invpn p i=1 j=1 n (y ij y j ) 2 = n } {{ } QS invpn p (y i y ) 2 i=1 } {{ } QS treat p n + (y ij y j y i + y ) 2 i=1 j=1 } {{ } QS res 47 / 51

48 Schematische Darstellung der zweistufigen Zerlegung der Quadratsumme Total (QS tot ) Zwischen den Vpn (QS zw Vpn ) Innerhalb der Vpn (QS in Vpn ) Zwischen den Faktorstufen (QS treat ) Residual (QS res ) 48 / 51

49 SPSS-Output: in zwei Teilen Teil 1: Analyse der Varianz zwischen den Versuchspersonen Zerlegung der Quadratsumme n n p y 2 j = p (y j y ) 2 + pny 2 j=1 j=1 Im Prinzip testet man in der einfaktoriellen Varianzanalyse ob der Erwartungswert der gemittelten Daten y j gleich 0 ist Da man über die Faktorstufen mittelt, liegen hier keine Abhängigkeiten vor Tests der Zwischensubjekteffekte Maß:MASS_1 Transformierte Variable:Mittel Quelle Quadratsumme vom Typ III df Mittel der Quadrate Konstanter Term Fehler 1320,033 11, ,033 1,293 F 1021,229 Sig., / 51

50 SPSS-Output Teil 2: Analyse der Varianz innerhalb der Versuchspersonen Zerlegung der Quadratsumme QS invpn = QS treat + QS res Hier testet man ob die Erwartungswerte µ 1, µ 2 und µ 3 der verschiedenen Treatmentgruppen gleich sind Da Unterschiede zwischen den Faktorstufen betrachtet werden, liegen hier Abhängigkeiten vor. In diesem Fall muss man die Zikularitätsannahme prüfen und gfs. die Freiheitsgrade korrigieren Tests der Innersubjekteffekte Maß:MASS_1 Quelle Tageszeit Fehler(Tageszeit) Sphärizität angenommen Greenhouse-Geisser Huynh-Feldt Untergrenze Sphärizität angenommen Greenhouse-Geisser Huynh-Feldt Untergrenze Quadratsumme vom Typ III 21,667 21,667 21,667 21,667 23,667 23,667 23,667 23,667 df 2 1,909 2,000 1, ,179 18,000 9,000 Mittel der Quadrate 10,833 11,351 10,833 21,667 1,315 1,378 1,315 2,630 F 8,239 8,239 8,239 8,239 Sig.,003,003,003,018 Die ermittelten p-werte weichen praktisch nicht voneinander ab. 50 / 51

51 Abschließende Bemerkungen Aus Zeitgründen wird nur die einfaktorielle Varianzanalyse mit Messwiederholungen besprochen Bein anderen Versuchsplänen geht man ähnlich vor. Z.B. zweifaktorielle Varianzanalyse mit Messwiederholungen Kovarianzanalyse mit Messwiederholungen etc. 51 / 51

3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate

3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate 31 und 33 Das allgemeine (), Methode der kleinsten Quadrate 31 und (), Methode der Messwiederholungen 1 / 131 Eine grundsätzliche Bemerkung zu Beginn Es bestehen viele Ähnlichkeiten zwischen den bisher

Mehr

3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate

3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate 31 und 31 und (), Methode der 33 Das allgemeine (), Methode der kleinsten Quadrate 36 Kovarianzanalyse 37 Modelle mit Messwiederholungen 1 / 85 Eine grundsätzliche Bemerkung zu Beginn Es bestehen viele

Mehr

Hypothesentests mit SPSS

Hypothesentests mit SPSS Beispiel für eine zweifaktorielle Varianzanalyse mit Messwiederholung auf einem Faktor (univariate Lösung) Daten: POKIII_AG4_V06.SAV Hypothese: Die physische Attraktivität der Bildperson und das Geschlecht

Mehr

SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben

SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben ÜBERSICHT: Testverfahren bei abhängigen (verbundenen) Stichproben parametrisch nicht-parametrisch 2 Gruppen t-test bei verbundenen

Mehr

Anwendungsaufgaben. Effektgröße bei df Zähler = df A = 1 und N = 40 (zu berechnen aus df Nenner ): Der aufgedeckte Effekt beträgt also etwa 23 %.

Anwendungsaufgaben. Effektgröße bei df Zähler = df A = 1 und N = 40 (zu berechnen aus df Nenner ): Der aufgedeckte Effekt beträgt also etwa 23 %. Anhang A: Lösungen der Aufgaben 39 beiden Kombinationen sehr hoch ist. (Dieses Ergebnis wäre aber in diesem Beispiel nicht plausibel.) 5. Der Faktor A und die Wechselwirkung werden signifikant: Lärm hat

Mehr

Aufgaben zu Kapitel 7:

Aufgaben zu Kapitel 7: Aufgaben zu Kapitel 7: Aufgabe 1: In einer Klinik sollen zwei verschiedene Therapiemethoden miteinander verglichen werden. Zur Messung des Therapieerfolges werden die vorhandenen Symptome einmal vor Beginn

Mehr

Holger Dette. 16. Oktober 2017

Holger Dette. 16. Oktober 2017 Ruhr-Universität Bochum 16 Oktober 2017 1 / 72 Methodenlehre III Prof Dr NA 3 /73 (zunächst) Telefon: 0234 32 28284 Email: holgerdette@rubde Internet: wwwruhr-uni-bochumde/mathematik3/indexhtml Vorlesung:

Mehr

3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate

3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate 31 und 31 und (), Methode der 33 Das allgemeine (), Methode der kleinsten Quadrate 37 Modelle mit Messwiederholungen 1 / 113 Eine grundsätzliche Bemerkung zu Beginn Es bestehen viele Ähnlichkeiten zwischen

Mehr

Einfaktorielle Varianzanalyse Vergleich mehrerer Mittelwerte

Einfaktorielle Varianzanalyse Vergleich mehrerer Mittelwerte Einfaktorielle Varianzanalyse Vergleich mehrerer Mittelwerte Es wurden die anorganischen Phosphatwerte im Serum (mg/dl) eine Stunde nach einem Glukosetoleranztest bei übergewichtigen Personen mit Hyperinsulinämie,

Mehr

30. März Ruhr-Universität Bochum. Methodenlehre II, SS Prof. Dr. Holger Dette

30. März Ruhr-Universität Bochum. Methodenlehre II, SS Prof. Dr. Holger Dette Ruhr-Universität Bochum 30. März 2011 1 / 46 Methodenlehre II NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag, 8.30 10.00

Mehr

SozialwissenschaftlerInnen II

SozialwissenschaftlerInnen II Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Varianzanalyse Statistik

Mehr

Aufgaben zu Kapitel 7:

Aufgaben zu Kapitel 7: Aufgaben zu Kapitel 7: Aufgabe 1: In einer Klinik sollen zwei verschiedene Therapiemethoden miteinander verglichen werden. Zur Messung des Therapieerfolges werden die vorhandenen Symptome einmal vor Beginn

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn

Mehr

Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten

Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten 5.1. Einführung Einfaktorielle Varianzanalyse Überprüft die Auswirkung einer gestuften (s), unabhängigen Variable X, auch Faktor

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Einführung in die Varianzanalyse mit SPSS

Einführung in die Varianzanalyse mit SPSS Einführung in die Varianzanalyse mit SPSS SPSS-Benutzertreffen am URZ Carina Ortseifen 6. Mai 00 Inhalt. Varianzanalyse. Prozedur ONEWAY. Vergleich von k Gruppen 4. Multiple Vergleiche 5. Modellvoraussetzungen

Mehr

Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten

Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten 5.1. Einführung Einfaktorielle Varianzanalyse Überprüft die Auswirkung einer gestuften (s), unabhängigen Variable X, auch Faktor

Mehr

Prüfungsliteratur: Rudolf & Müller S

Prüfungsliteratur: Rudolf & Müller S 1 Beispiele zur univariaten Varianzanalyse Einfaktorielle Varianzanalyse (Wiederholung!) 3 Allgemeines lineares Modell 4 Zweifaktorielle Varianzanalyse 5 Multivariate Varianzanalyse 6 Varianzanalyse mit

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests. 0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie

Mehr

Prüfungsliteratur: Rudolf & Müller S

Prüfungsliteratur: Rudolf & Müller S 1 Beispiele zur univariaten Varianzanalyse 2 Einfaktorielle Varianzanalyse (Wiederholung!) 3 Allgemeines lineares Modell 4 Kovarianzanalyse 5 Multivariate Varianzanalyse 6 Zweifaktorielle Varianzanalyse

Mehr

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers 4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis

Mehr

Einfaktorielle Varianzanalyse

Einfaktorielle Varianzanalyse Kapitel 16 Einfaktorielle Varianzanalyse Im Zweistichprobenproblem vergleichen wir zwei Verfahren miteinander. Nun wollen wir mehr als zwei Verfahren betrachten, wobei wir unverbunden vorgehen. Beispiel

Mehr

Statistisches Testen

Statistisches Testen Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall

Mehr

Zweifache Varianzanalyse

Zweifache Varianzanalyse Zweifache Varianzanalyse Man kann mittels VA auch den (gleichzeitigen) Einfluss mehrerer Faktoren (unabhängige Variablen) auf ein bestimmtes Merkmal (abhängige Variable) analysieren. Die Wirkungen werden

Mehr

22. Oktober Ruhr-Universität Bochum. Methodenlehre II, SS Prof. Dr. Holger Dette

22. Oktober Ruhr-Universität Bochum. Methodenlehre II, SS Prof. Dr. Holger Dette Ruhr-Universität Bochum 22. Oktober 2011 1 / 374 Methodenlehre II NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag, 8.30

Mehr

Deskriptive Beschreibung linearer Zusammenhänge

Deskriptive Beschreibung linearer Zusammenhänge 9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,

Mehr

Formelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade

Formelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade Version 2015 Formelsammlung für das Modul Statistik 2 Bachelor Sven Garbade Prof. Dr. phil. Dipl.-Psych. Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de

Mehr

Varianzanalyse. SeKo. Heute. Vivien Röder, M.Sc.Psych. Professur für Forschungsmethodik & Evaluation

Varianzanalyse. SeKo. Heute. Vivien Röder, M.Sc.Psych. Professur für Forschungsmethodik & Evaluation ÜbungMethodenlehreII, SeKo VivienRöder,M.Sc.Psych. ProfessurfürForschungsmethodik&Evaluation Einführung wieso,weshalb,warum?, Inferenzstatistik wirwollenanhandeinerstatistik SchlussaufdiePopulationziehen

Mehr

23. Mai Ruhr-Universität Bochum. Methodenlehre II, SS Prof. Dr. Holger Dette

23. Mai Ruhr-Universität Bochum. Methodenlehre II, SS Prof. Dr. Holger Dette Ruhr-Universität Bochum 23. Mai 2011 1 / 178 Methodenlehre II NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag, 8.30 10.00

Mehr

Lösung Übungsblatt 5

Lösung Übungsblatt 5 Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von

Mehr

Stochastik Praktikum Lineare Modelle

Stochastik Praktikum Lineare Modelle Stochastik Praktikum Lineare Modelle Thorsten Dickhaus Humboldt-Universität zu Berlin 06.10.2010 Übersicht 1 Einfache lineare Regression 2 Multiple lineare Regression 3 Varianzanalyse 4 Verallgemeinerte

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben

Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben Es wurden die Körpergrößen von 3 Versuchspersonen, sowie Alter und Geschlecht erhoben. (Jeweils Größen pro Faktorstufenkombination). (a)

Mehr

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse Einleitung Statistik Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Der Begriff Varianzanalyse (analysis of variance, ANOVA) taucht an vielen Stellen in der Statistik mit unterschiedlichen

Mehr

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem

Mehr

Messwiederholungen und abhängige Messungen

Messwiederholungen und abhängige Messungen Messwiederholungen und abhängige Messungen t Tests und Varianzanalysen für Messwiederholungen Kovarianzanalyse Thomas Schäfer SS 009 1 Messwiederholungen und abhängige Messungen Bei einer Messwiederholung

Mehr

Instrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen.

Instrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen. Gliederung Grundidee Einfaches lineares Modell KQ-Methode (Suche nach der besten Geraden) Einfluss von Ausreißern Güte des Modells (Bestimmtheitsmaß R²) Multiple Regression Noch Fragen? Lineare Regression

Mehr

ANalysis Of VAriance (ANOVA) 2/2

ANalysis Of VAriance (ANOVA) 2/2 ANalysis Of VAriance (ANOVA) 2/2 Markus Kalisch 22.10.2014 1 Wdh: ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor X). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich

Mehr

2.5 Lineare Regressionsmodelle

2.5 Lineare Regressionsmodelle 2.5.1 Wiederholung aus Statistik I Gegeben Datenpunkte (Y i, X i ) schätze die beste Gerade Y i = β 0 + β 1 X i, i = 1,..., n. 2 Induktive Statistik 409 Bsp. 2.30. [Kaffeeverkauf auf drei Flohmärkten]

Mehr

Varianzvergleiche bei normalverteilten Zufallsvariablen

Varianzvergleiche bei normalverteilten Zufallsvariablen 9 Mittelwert- und Varianzvergleiche Varianzvergleiche bei zwei unabhängigen Stichproben 9.3 Varianzvergleiche bei normalverteilten Zufallsvariablen Nächste Anwendung: Vergleich der Varianzen σa 2 und σ2

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen

Mehr

Einführung in die Induktive Statistik: Regressionsanalyse

Einführung in die Induktive Statistik: Regressionsanalyse Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse

Mehr

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

Methodenlehre II, SoSe 2015

Methodenlehre II, SoSe 2015 Ruhr-Universität Bochum 2. April 2015 1 / 96 Methodenlehre II Prof. Dr. NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: http://www.ruhr-uni-bochum.de/mathematik3/ http://www.ruhr-uni-bochum.de/mathematik3/dette.html

Mehr

Multiple Regression III

Multiple Regression III Multiple Regression III Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Überprüfung der Modellannahmen Residuen-Plot Normal-Q-Q-Plot Cook s Distanz-Plot Maßnahmen bei Abweichungen von Modellannahmen

Mehr

A.1 Fragebogen der Untersuchung von Burisch (2002)

A.1 Fragebogen der Untersuchung von Burisch (2002) A.1 Fragebogen der Untersuchung von Burisch (2002) Anhang Seite A-1 Anhang Seite A-2 Anhang Seite A-3 Anhang Seite A-4 Anhang Seite A-5 Anhang Seite A-6 Anhang Seite A-7 A.2 LISREL Referenzblatt (Universität

Mehr

Biometrieübung 10 Lineare Regression. 2. Abhängigkeit der Körpergröße von der Schuhgröße bei Männern

Biometrieübung 10 Lineare Regression. 2. Abhängigkeit der Körpergröße von der Schuhgröße bei Männern Biometrieübung 10 (lineare Regression) - Aufgabe Biometrieübung 10 Lineare Regression Aufgabe 1. Düngungsversuch In einem Düngeversuch mit k=9 Düngungsstufen x i erhielt man Erträge y i. Im (X, Y)- Koordinatensystem

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt Statistik & Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de

Mehr

Einfache Varianzanalyse für unabhängige Stichproben

Einfache Varianzanalyse für unabhängige Stichproben Einfache Varianzanalyse für unabhängige Stichproben VARIANZANALYSE Die Varianzanalyse ist das dem t-test entsprechende Mittel zum Vergleich mehrerer (k 2) Stichprobenmittelwerte. Sie wird hier mit VA abgekürzt,

Mehr

Bachelorprüfung: Statistik (1 Stunde)

Bachelorprüfung: Statistik (1 Stunde) Prof. H.R. Künsch D-BIOL, D-CHAB Winter 2010 Bachelorprüfung: Statistik (1 Stunde) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt. Natels sind auszuschalten!

Mehr

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 12 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre II Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 18.2.15 Psychologie als Wissenschaft

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Auswertung und Lösung

Auswertung und Lösung Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung

Mehr

Lean Body Mass [kg] Estimate Std. Error t value Pr(> t ) (Intercept) ??? lbm <2e-16 ***

Lean Body Mass [kg] Estimate Std. Error t value Pr(> t ) (Intercept) ??? lbm <2e-16 *** Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden

Mehr

Statistik II (Sozialwissenschaften)

Statistik II (Sozialwissenschaften) Dr. Hans-Otfried Müller Institut für Mathematische Stochastik Fachrichtung Mathematik Technische Universität Dresden http://www.math.tu-dresden.de/sto/mueller/ Statistik II (Sozialwissenschaften) 2. Konsultationsübung,

Mehr

Inhaltsverzeichnis Einführung und deskriptive Statistik Grundlagen der Inferenzstatistik 1: Zufallsvariablen

Inhaltsverzeichnis Einführung und deskriptive Statistik Grundlagen der Inferenzstatistik 1: Zufallsvariablen Inhaltsverzeichnis 1 Einführung und deskriptive Statistik... 1 1.1 Wichtige mathematische Schreibweisen... 1 1.1.1 Das Summenzeichen... 1 1.1.2 Mengentheoretische Schreibweisen... 3 1.1.3 Variablentransformationen...

Mehr

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003 Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003. Eine seltene Krankheit trete mit Wahrscheinlichkeit : 0000 auf. Die bedingte Wahrscheinlichkeit, dass ein bei einem Erkrankten durchgeführter

Mehr

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3. Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen.

Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen. Kapitel 3 Schließende lineare Regression 3.1. Einführung induktiv Fragestellungen Modell Statistisch bewerten, der vorher beschriebenen Zusammenhänge auf der Basis vorliegender Daten, ob die ermittelte

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Methodenlehre. Vorlesung 11. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 11. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 11 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 03.12.13 Methodenlehre I Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 25.9.13 Psychologie

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

5. Lektion: Einfache Signifikanztests

5. Lektion: Einfache Signifikanztests Seite 1 von 7 5. Lektion: Einfache Signifikanztests Ziel dieser Lektion: Du ordnest Deinen Fragestellungen und Hypothesen die passenden einfachen Signifikanztests zu. Inhalt: 5.1 Zwei kategoriale Variablen

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Noémie Becker & Dirk Metzler 31. Mai 2016 Inhaltsverzeichnis 1 Binomialverteilung 1 2 Normalverteilung 2 3 T-Verteilung

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 22 Übersicht Weitere Hypothesentests in der Statistik 1-Stichproben-Mittelwert-Tests 1-Stichproben-Varianz-Tests 2-Stichproben-Tests Kolmogorov-Smirnov-Test

Mehr

Methodenlehre II, SoSe 2015

Methodenlehre II, SoSe 2015 Ruhr-Universität Bochum 4. Juni 2015 1 / 282 Methodenlehre II Prof. Dr. NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: http://www.ruhr-uni-bochum.de/mathematik3/ http://www.ruhr-uni-bochum.de/mathematik3/dette.html

Mehr

Statistik II für Betriebswirte Vorlesung 1

Statistik II für Betriebswirte Vorlesung 1 Statistik II für Betriebswirte Vorlesung 1 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. Oktober 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 1 Version:

Mehr

Regression und Korrelation

Regression und Korrelation Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen

Mehr

Kapitel 5: Einfaktorielle Varianzanalyse

Kapitel 5: Einfaktorielle Varianzanalyse Kapitel 5: Einfaktorielle Varianzanalyse Durchführung einer einfaktoriellen Varianzanalyse ohne Messwiederholung Dieser Abschnitt zeigt die Durchführung der in Kapitel 5 vorgestellten einfaktoriellen Varianzanalyse

Mehr

Inferenzstatistik verstehen

Inferenzstatistik verstehen Markus Janczyk Roland Pfister Inferenzstatistik verstehen Von A wie Signifikanztest bis Z wie Konfidenzintervall ^ Springer Spektrum vii 1 Einführung und deskriptive Statistik 1 1.1 Wichtige mathematische

Mehr

PVK Statistik Tag Carlos Mora

PVK Statistik Tag Carlos Mora PVK Statistik Tag 2 11.1.2012 Block 4 Block 3 Übersicht 11.1.2012 09:00 6. Zwei-Stichproben-Tests für stetige Verteilungen (2.Teil) Übung 2C 1h inkl. Pause 7. Lineare Regression 12:00 Übung 3 Mittag 13:00

Mehr

Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller

Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit

Mehr

Statistik II Übung 3: Hypothesentests

Statistik II Übung 3: Hypothesentests Statistik II Übung 3: Hypothesentests Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier Stichproben). Verwenden

Mehr

Empirische Wirtschaftsforschung

Empirische Wirtschaftsforschung Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 6.. Herleitung des OLS-Schätzers

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Faktorielle Varianzanalyse

Wahrscheinlichkeitsrechnung und Statistik für Biologen Faktorielle Varianzanalyse Wahrscheinlichkeitsrechnung und Statistik für Biologen Faktorielle Varianzanalyse Dirk Metzler & Martin Hutzenthaler 15. Juni 2010 Inhaltsverzeichnis 1 Die einfaktorielle Varianzanalyse und der F -Test

Mehr

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer

Mehr

Vorlesung: Multivariate Statistik für Psychologen

Vorlesung: Multivariate Statistik für Psychologen Vorlesung: Multivariate Statistik für Psychologen 10. Vorlesung: 1.0.2003 Agenda 3. Multivariate Varianzanalyse i. Einführung in die multivariate Variananalyse Grundidee und Ziele der MANOVA Beispiele

Mehr

So berechnen Sie einen Schätzer für einen Punkt

So berechnen Sie einen Schätzer für einen Punkt htw saar 1 EINFÜHRUNG IN DIE STATISTIK: SCHÄTZEN UND TESTEN htw saar 2 Schätzen: Einführung Ziel der Statistik ist es, aus den Beobachtungen eines Merkmales in einer Stichprobe Rückschlüsse über die Verteilung

Mehr

Statistik II für Betriebswirte Vorlesung 5

Statistik II für Betriebswirte Vorlesung 5 Statistik II für Betriebswirte Vorlesung 5 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. November 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 5 Version:

Mehr

Liegen 2 Beobachtungen an n Objekten vor, spricht man von einer gebundenen Stichprobe Typische Struktur bei "stimulus-response" Versuchen

Liegen 2 Beobachtungen an n Objekten vor, spricht man von einer gebundenen Stichprobe Typische Struktur bei stimulus-response Versuchen Mittelwertsvergleich bei gebundenen Stichproben Liegen Beobachtungen an n Objekten vor, spricht man von einer gebundenen Stichprobe Typische Struktur bei "stimulus-response" Versuchen Obj.1 Obj.... Obj.n

Mehr

Multivariate Lineare Modelle SS Varianzanalyse. 1. T -Statistiken. 2. ANOVA einfaktoriell. 3. ANOVA zweifaktoriell 4. MANOVA 5.

Multivariate Lineare Modelle SS Varianzanalyse. 1. T -Statistiken. 2. ANOVA einfaktoriell. 3. ANOVA zweifaktoriell 4. MANOVA 5. Multivariate Lineare Modelle SS 2010 3 Varianzanalyse 1. T -Statistiken 2. ANOVA einfaktoriell 3. ANOVA zweifaktoriell 4. MANOVA 5. ANCOVA 1 3.1 T -Statistiken Varianzanalyse kategorielle erklärende Variablen

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte)

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte) Aufgabe 3 (6 + 4 + 8 + 4 + 10 + 4 + 9 + 4 + 8 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe eines multiplen linearen Regressionsmodells soll auf

Mehr

Mehrfaktorielle Varianzanalyse

Mehrfaktorielle Varianzanalyse Professur E-Learning und Neue Medien Institut für Medienforschung Philosophische Fakultät Einführung in die Statistik Mehrfaktorielle Varianzanalyse Überblick Einführung Empirische F-Werte zu einer zweifaktoriellen

Mehr

Vergleich von Gruppen I

Vergleich von Gruppen I Vergleich von Gruppen I t-test und einfache Varianzanalyse (One Way ANOVA) Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Der unverbundene t-test mit homogener Varianz Beispiel Modell Teststatistik

Mehr

Statistik II Übung 3: Hypothesentests Aktualisiert am

Statistik II Übung 3: Hypothesentests Aktualisiert am Statistik II Übung 3: Hypothesentests Aktualisiert am 12.04.2017 Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier

Mehr

6.4 Der Kruskal-Wallis Test

6.4 Der Kruskal-Wallis Test 6.4 Der Kruskal-Wallis Test Der Test von Kruskal und Wallis, auch H-Test genannt, ist ein Test, mit dem man die Verteilungen von Teilstichproben auf Unterschiede untersuchen kann. Bei diesem Test geht

Mehr

Statistikpraktikum. Carsten Rezny. Sommersemester Institut für angewandte Mathematik Universität Bonn

Statistikpraktikum. Carsten Rezny. Sommersemester Institut für angewandte Mathematik Universität Bonn Statistikpraktikum Carsten Rezny Institut für angewandte Mathematik Universität Bonn Sommersemester 2014 Mehrdimensionale Datensätze: Multivariate Statistik Multivariate Statistik Mehrdimensionale Datensätze:

Mehr