Nichtparametrische Varianzanalysen - praktische Anwendung

Größe: px
Ab Seite anzeigen:

Download "Nichtparametrische Varianzanalysen - praktische Anwendung"

Transkript

1 Nichtparametrische Varianzanalysen - praktische Anwendung Nichtparametrische Varianzanalysen sind primär anzuwenden, wenn die abhängige Variable entweder metrisch ist und die Voraussetzungen Normalverteilung der Residuen sowie Varianzhomogenität nicht gegeben sind, oder aber wenn die abhängige Variable ordinales Skalenniveau hat. Die hier besprochenen Verfahren des Kruskal-Wallis- H-Test und der Friedman-Varianzanalyse bzw. der Verallgemeinerungen von Puri & Sen (vgl. dazu Shirley, E.A. : A distribution-free method for analysis of covariance based on ranked data, 1981, J. of Applied Statistics 30: , Bennett, B.M. Rank-order tests of linear hypotheses, 1968, J. of Stat. Society B 30: und Winer, B.J. et.al.: Statistical Principles in Experimental Design, 1991, S ff) sowie Bredenkamp (vgl. dazu G.A.Lienert: Verteilungsfreie Methoden in der Biostatistik - Band 2, 1987, S ff) setzen zwar metrisches Skalenniveau voraus, sind aber in allen gängigen Statistikprogrammen, insbesondere SPSS, so implementiert, dass Bindungen (gleiche Werte der abhängigen Variablen) berücksichtigt werden und damit auf ordinale Variablen anwendbar sind. Zum Teil sind allerdings zusätzliche kleine Rechnungen mit dem Taschenrechner erfordrelich. Darüber hinaus gibt es noch Methoden für nominale, insbesondere dichotome abhängige Variablen. Letztere werden weiter unten behandelt. Varianzanalytische Fragestellungen mit einer polychotomen abhängigen Variablen werden über Kontingenztabellenanalyse, insbesondere mittels der Analyse loglinearer Modelle gelöst. 1. Unabhängige Stichproben: 1-faktoriell Getestet wird - wie bei der klassischen Varianzanalyse - die Hypothese gleicher Gruppenmittelwerte: 1 = 2 = = k Dies erfolgt über den Kruskal-Wallis-H-Test, einer Verallgemeinerung des Mann-Whitney-U- Tests von 2 auf beliebig viele Gruppen. Für den Test wird ein Wert H errechnet, der 2 -verteilt ist mit (k-1) Freiheitsgraden. Derselbe Test lässt sich auch über eine einfaktorielle klassische Varianzanalyse durchführen. Dies wird in Abschnitt 2.3 ausführlich beschrieben. 2. Unabhängige Stichproben: 2-faktoriell Hier muss unterschieden werden zwischen balancierten und nichtbalancierten Versuchsplänen bzw. Zellenbesetzungszahlen. Bei balancierten Versuchsplänen sind die Zellenbestzungszahlen zeilenweise oder spaltenweise proportional zueinander, z.b. bei einem Versuchsplan mit den Faktoren A (4 Stufen) und B (3 Stufen) B 1 B 2 B 3 A A A A In diesem Beispiel sind die Zellenbesetzungszahlen der 2. bzw. 3. Spalte das 1,2-fache bzw 1,6-

2 fache der 1. Spalte. Umgekehrt kann man auch erkennen, dass die Zellenbesetzungszahlen der 2. bzw. 3. Zeile das 1,5-fache bzw. das 2-fache der ersten Zeile sind. Versuchspläne mit gleichen Zellenbesetzungszahlen sind natürlich immer balanciert. 2.1 Anmerkungen zur 2-faktoriellen Varianzanalyse Soll der Einfluss zweier Einflussfaktoren A und B auf eine abhängige Variable x untersucht werden, so bringen zwei 1-faktorielle Varianzanalysen der Faktoren A und B nur die halbe Wahrheit hervor, mitunter sogar irreführende Ergebnisse. Neben den sog. Haupteffekten der Faktoren A und B gibt es einen sog. Interaktionseffekt A*B. Dieser zeigt an, ob der Einfluss von A von B abhängig ist, und umgekehrt, ob der Einfluss von B von A abhängig ist. So kann es durchaus vorkommen, dass die Haupteffekte A und B nicht signifikant sind, dafür aber A*B. Dies besagt, dass ein Einfluss von A vorhanden ist, der je nach Gruppe (Stufe) des Faktors B unterschiedlich ausfällt, und umgekehrt, dass ein Einfluss von B vorhanden ist, der je nach Gruppe (Stufe) des Faktors A unterschiedlich ausfällt. Dies lässt sich grafisch durch einen sog. Interaktionsplot (in SPSS Profilplot genannt) veranschaulichen, in SPSS erhältlich über die parametrische Varianzanalyse (Analysieren -> Allg. lineare Modell -> univariat -> Diagramme). Dort werden Mittelwertlinien des Faktors A getrennt für die Stufen des Faktors B gezeichnet. Ein nicht paralleler Verlauf der Kurven deutet auf eine signifikante Interaktion hin. Dies kann zum einen sein: Der Einfluss von A ist unterschiedlich stark für die Gruppen von B, oder der Einfluss von A ist für die Gruppen von B gegensätzlich. Interaktionsplot für den Datensatz von S. 425 aus dem Buch von B.J.Winer

3 2.2 Verfahren bei balancierten Versuchsplänen: Nach Bredenkamp wird zum Test der beiden Haupteffekte (A und B mit k bzw. l Stufen) jeweils der Kruskal-Wallis-H-Test durchgeführt (Ergebnisse: 2 A und 2 B ). Zum Test der Interaktion A*B wird ein H-Test zum Vergleich aller Zellen durchgeführt (Ergebnis: 2 AB ), von dem erhaltenen 2 -Wert dann die 2 -Werte der Haupteffekte abgezogen und schließlich der Restwert anhand der Tabelle der 2 -Verteilung auf Signifikanz überprüft:- H-Testwerte ( 2 -Werte) Freiheitsgrade 2 AB - 2 A - 2 B 2 AB - 2 A - 2 B kl-1 k-1 l-1 (k-1)(l-1) 2.3 Verfahren bei beliebigen, insbesondere nichtbalancierten Versuchsplänen: Allgemein kann die nichtparametrische Varianzanalyse auf die klassische parametrische Varianzanalyse zurückgeführt werden, indem die abhängige Variable zuvor in Ränge transformiert wird, für diese dann die Varianzanalyse durchgeführt wird und anschließend anstatt der F-Tests 2 -Tests durchgeführt werden (vgl. die o.a. Quellen: Winer, B.J. et.al. sowie Shirley, E.A.). Dabei werden die 2 -Werte errechnet als 2 = SS Effekt MS total wobei SS Effekt die Streuungsquadratsumme (Sum of Squares) des zu testenden Effektes (A, B oder A*B) und MS total die Gesamtvarianz, in SPSS korrigierte Gesamtvariation, (Mean Square) ist, die beide aus der Anova-Tabelle abgelesen werden können. (Im balancierten Fall sind diese 2 -Werte identisch mit denen, die über die o.a. erste Methode errechnet werden können.) Die 2 -Werte sind dann in den Tafeln für den 2 -Test auf Signifikanz zu überprüfen, wobei die Freiheitsgrade die Zählerfreiheitsgrade des entsprechenden F-Tests sind. 2.4 Beispielrechnung für den Datensatz von S. 425 aus dem Buch von B.J.Winer: Verfahren von Bredenkamp: (Durchnummerierung der Zellen:= (Patients - 1)*#Drugs + Drugs ) 2 Patients 2 Drugs 2 Zellen 2 Interaktion = 0,872 (1 Fg.) = 2,326 (2 Fg.) = 11,755 (5 Fg.) = 11,755-0,872-2,326 = 8,557 (2 Fg.) (Der kritische 2 -Wert für 2 Fg. und =0.05 beträgt 6.) Verfahren von Puri & Sen bzw. Winer: Die Varianzanalysetabelle für die rangtransformierten Daten

4 Daraus ergeben sich: MS total = 477,5 / 17 = 28,09 2 Patients = 24,50 / 28,09 = 0,872 2 Drugs = 65,33 / 28,09 =2,326 2 Interaktion = 240,33 / 28,09 = 8, Unabhängige Stichproben: mehrfaktoriell Die beiden o.a. Verfahren lasssen sich trivialerweise auch auf Versuchspläne mit mehr als zwei Faktoren anwenden. 4. Abhängige Stichproben: 1-faktoriell Auch hier wird - wie bei der klassischen Varianzanalyse - die Hypothese gleicher Gruppenmittelwerte getestet: 1 = 2 = = k Dies erfolgt bei abhängigen Stichproben, also Messwiederholungen, über den Friedman-Test, einer Verallgemeinerung des Wilcoxon-Tests von 2 auf beliebig viele Messwiederholungen. Für den Test wird ein Wert errechnet, der 2 -verteilt ist mit (k-1) Freiheitsgraden. Derselbe Test lässt sich auch über eine einfaktorielle klassische Varianzanalyse durchführen. Dies wird in Abschnitt 5.2 ausführlich beschrieben. 5. Abhängige Stichproben: Messwiederholungen auf 2 Faktoren Ausgangsbasis sind Messwiederholungen einer Variablen, die hinsichtlich zweier Faktoren strukturiert sind, z.b. Stressempfinden vor einem Trainingsprogramm, nach einem und nach 3 Monaten, sowie jeweils morgens und abends. Da zu allen Zeitpunkten an denselben Personen bzw. Erhebungseinheiten die Werte ermittelt wurden, entfällt hier eine Unterscheidung hinsichtlich balancierter Versuchspläne. 5.1 Verfahren von Bredenkamp Tests der Zwischensubjekteffekte Quadratsumme Mittel der Quelle vom Typ III df Quadrate F Sig. Korrigiertes Modell 330, ,033 5,378,008 Konstanter Term 1624, , ,312,000 patients 24, ,500 1,995,183 drug 65, ,667 2,661,111 patients * drug 240, ,167 9,787,003 Fehler 147, ,278 Gesamt 2102, Korrigierte Gesamtvariation 477, Nach der Methode von Bredenkamp wird zum Test der beiden Haupteffekte (A und B mit k bzw. l Stufen) jeweils ein Friedman-Test durchgeführt. Und zwar werden beim Test für A jeweils alle Werte zu A 1, alle Werte zu A 2 usw summiert und auf die Summen der Friedman- Test angewandt. Analog beim Test für B (Ergebnisse: 2 A und 2 B ). Zum Test der Interaktion

5 A*B wird ein Friedman-Test über alle Messwiederholungen durchgeführt (Ergebnis: 2 AB ), von dem erhaltenen 2 -Wert dann die 2 -Werte der Haupteffekte abgezogen und schließlich der Restwert anhand der Tabelle der 2 -Verteilung auf Signifikanz überprüft. Dieses Verfahren verläuft also analog dem oben besprochenen für unabhängige Stichproben. Leider hat sich gezeigt, dass die Berechnung der Interaktion auf diese Weise nicht korrekt ist, so dass davon abgeraten werden muss. 5.2 Verfahren von Winer und Shirley Besser lassen sich die Ergebnisse über eine Rangtransformation, anschließende klassische Varianzanalyse und Konstruktion von 2 -Tests erzielen (vgl. dazu o.a. Quelle: Winer, B.J. et.al.). Hierzu müssen die Variablen der Messwiederholungen in Ränge transformiert werden. Da SPSS keine fallweise Rangberechnung über mehrere Variablen erlaubt, sind einige Schritte dazu erforderlich (die in einem separaten Skript ausführlich beschrieben sind): 1. Über Daten -> Umstrukturieren -> Transponieren müssen die gewünschten Variablen in Fälle gewandelt werden. 2. Die aus den Fällen neu entstandenen Variablen werden über Transponieren -> Rangfolge bilden in Ränge umgerechnet. 3. Die neu entstandenen Rangvariablen müssen wieder wie oben transponiert werden. Auf diese Weise hat man die Variablen der Messwiederholungen in Ränge transformiert. Darauf wird nun die klassische Varianzanalyse mit Messwiederholungen angewandt. Die 2 -Tests für die Haupteffekte und die Interaktion werden wie folgt errechnet: 2 = SS Effekt SS Effekt + SS Fehler df Effekt + df Fehler wobei SS Effekt die Streuungsquadratsumme (Sum of Squares) des zu testenden Effektes (A, B oder A*B), SS Fehler die Streuungsquadratsumme des zum Effekt gehörenden Fehlers ist sowie df die entsprechenden Freiheitsgrade. Die 2 -Werte sind dann in den Tafeln für den 2 -Test auf Signifikanz zu überprüfen, wobei die Freiheitsgrade die Zählerfreiheitsgrade (df Effekt ) des entsprechenden F-Tests sind. 5.3 Beispielrechnung für den Datensatz von S. 537 aus dem Buch von B.J.Winer: Verfahren von Bredenkamp: Berechnung der Summen: compute time1=mean(v1,v2,v3). compute time2=mean(v4,v5,v6). compute time3=mean(v7,v8,v9). compute dial1=mean(v1,v4,v7). compute dial2=mean(v2,v5,v8). compute dial3=mean(v3,v6,v9). 2 time = 12,0 (2 Fg.) 2 dials 2 Zellen = 12,0 (2 Fg.) = 43,76 (8 Fg.) 2 Interaktion = 43,76-12,0-12,0 = 19,76 (4 Fg.) (Der kritische 2 -Wert für 4 Fg. und =0.05 beträgt 9,5.) Verfahren von Winer: Die Varianzanalysetabelle für die rangtransformierten Daten

6 Daraus ergeben sich: SS Time = 185 (2 Fg.) Fehler Time = 9,97 (10 Gf.) SS Dials = 139 (2Fg.) Fehler Dials = 13 (10Fg.) SS Interaktion = 3,22 (4 Fg.) Fehler Interaktion = 8,8 (20 Fg.) 2 Time 2 Dials 2 Interaktion = 185 / ( ,97)/(2 + 10) = 11,39 = 139 / ( )/(2 + 10) = 10,97 = 3,22 / (3,22 + 8,8)/(4 + 20) = 6,44 6. Abhängige Stichproben: Messwiederholungen auf 1 Faktor Hier wird ausgegangen von einem 2-faktoriellen Versuchsplan: ein Gruppierungsfaktor A (unabhängige Stichproben) und einem Messwiederholungsfaktor B (abhängige Stichproben). 6.1 Verfahren von Bredenkamp Tests der Innersubjekteffekte Quadratsumme Mittel der Quelle vom Typ III df Quadrate F Sig. Time Sphärizität angenommen 185, ,514 92,772,000 Greenhouse-Geisser 185,028 1,936 95,564 92,772,000 Huynh-Feldt 185,028 2,000 92,514 92,772,000 Untergrenze 185,028 1, ,028 92,772,000 Fehler(Time) Sphärizität angenommen 9,972 10,997 Greenhouse-Geisser 9,972 9,681 1,030 Huynh-Feldt 9,972 10,000,997 Untergrenze 9,972 5,000 1,994 Dials Sphärizität angenommen 139, ,500 53,462,000 Greenhouse-Geisser 139,000 1, ,948 53,462,000 Huynh-Feldt 139,000 1,672 83,151 53,462,000 Untergrenze 139,000 1, ,000 53,462,001 Fehler(Dials) Sphärizität angenommen 13, ,300 Greenhouse-Geisser 13,000 6,751 1,926 Huynh-Feldt 13,000 8,358 1,555 Untergrenze 13,000 5,000 2,600 Time * Dials Sphärizität angenommen 3,222 4,806 1,835,162 Greenhouse-Geisser 3,222 2,446 1,317 1,835,198 Huynh-Feldt 3,222 4,000,806 1,835,162 Untergrenze 3,222 1,000 3,222 1,835,233 Fehler(T*D) Sphärizität angenommen 8,778 20,439 Greenhouse-Geisser 8,778 12,232,718 Huynh-Feldt 8,778 20,000,439 Untergrenze 8,778 5,000 1,756 Nach dem Verfahren von Bredenkamp wird zum Test des Haupteffekts A pro Erhebungseinheit (z.b. Versuchsperson) die Summe aller Messwiederholungen errechnet. Hierauf wird dann der o.a. Kruskal-Wallis-H-Test angewandt. Zum Test des Haupteffekts B wird ein Friedman-Test über die Messwiederholungen durchgeführt, wobei die Gruppeneinteilung durch den Faktor A ignoriert wird. Für die Interaktion wird für jede Stufe des Faktors A ein Friedman-Test errechnet, die resultierende 2 -Werte aufsummiert, davon der 2 -Wert des Friedman-Tests des Haupteffekts B abgezogen und schließlich der Restwert anhand der Tabelle der 2 -Verteilung

7 auf Signifikanz überprüft.- 2 -Testwerte Freiheitsgrade 2 B (A 1 ) 2 B (A 2 ) B (A k ) - 2 B Summe( 2 B (A i )) - 2 B l-1 l-1 l-1 l-1 (k-1)(l-1) 6.2 Verfahren von Winer und Shirley Auch hier lassen sich die Ergebnisse über eine Rangtransformation, anschließende klassische Varianzanalyse und Konstruktion von 2 -Tests erzielen. Allerdings ist die Umrechnung der Rohwerte in Ränge etwas komplizierter. Die Schritte im Einzelnen: pro Erhebungseinheit (z.b. Versuchsperson) die Summe S aller Messwiederholungen errechnen; S in Ränge R S umrechnen; in SPSS müssen an dieser Stelle die Daten wie in 5. umstrukturiert werden, was in einem separaten Skript ausführlich beschrieben ist; pro Erhebungseinheit (z.b. Versuchsperson) die Rohwerte x i in Ränge R i umrechnen; die endgültigen Ränge errechnen sich als (R S -1)*l + R i, wobei l die Anzahl der Messwiederholungen ist. In SPSS müssen zum Schluss wieder die Daten umstrukturiert werden, um die ursprüngliche, normale Form der Datenmatrix zu erhalten. Zur Berechnung der Tests: Der Test des Gruppierungsfaktors A errechnet sich ähnlich wie in 2.3: 2 = SS Effekt MS zwischen Hier muss MS zwischen anstatt MS total ermittelt werden. Dazu werden die Streuungen von A und Fehler addiert und durch die Summe der entsprechenden Freiheitsgrade dividiert. Der Test des Messwiederholungsfaktors B erfolgt ähnlich wie in 5.2 beschrieben: 2 SS Effekt = MS innerhalb Für MS innerhalb werden die Streuungen von B, AB und Fehler addiert und durch die Summe der entsprechenden Freiheitsgrade dividiert.

8 6.3 Beispielrechnung für den Datensatz von S. 518 aus dem Buch von B.J.Winer: Verfahren von Bredenkamp: 2 A = 0,099 (1 Fg.) 2 B = 9,556 (2 Fg.) 2 B (A 1 ) = 9,333 (2 Fg.) 2 B (A 2 ) = 8,444 (2 Fg.) 2 Interaktion = 9, ,444-9,556 = 8,221 (2 Fg.) (Der kritische 2 -Wert für 2 Fg. und =0.05 beträgt 6.) Verfahren von Puri & Sen bzw. Winer: Zunächst die Rohdaten, Summe, Rangsumme und Rangwerte: Die Varianzanalysetabelle für Faktor A für die rangtransformierten Daten Tests der Zwischensubjekteffekte Quadratsumme Mittel der Quelle vom Typ III df Quadrate F Sig. Konstanter Term 7207, ,500 26,496,001 A 24, ,300,089,773 Fehler 2176, ,025 Die Varianzanalysetabelle für Faktor B für die rangtransformierten Daten Tests der Innersubjekteffekte Quelle Quadratsumme vom Typ III df Mittel der Quadrate F Sig. B Sphärizität angenommen 8, ,300 34,400,000 Greenhouse-Geisser 8,600 1,460 5,891 34,400,000 Huynh-Feldt 8,600 1,926 4,464 34,400,000 Untergrenze 8,600 1,000 8,600 34,400,000 B * A Sphärizität angenommen 7, ,700 29,600,000 Greenhouse-Geisser 7,400 1,460 5,069 29,600,000 Huynh-Feldt 7,400 1,926 3,841 29,600,000 Untergrenze 7,400 1,000 7,400 29,600,001 Fehler(B) Sphärizität angenommen 2,000 16,125 Greenhouse-Geisser 2,000 11,679,171 Huynh-Feldt 2,000 15,411,130 Untergrenze 2,000 8,000,250

9 SS A = 24,3 MS zwischen = (24, ,2)/(1 + 8) = 244,5 SS B = 8,6 SS Interaktion = 7,4 MS innerhalb = (8,6 + 7,4 + 2)/(2+2+16) = 0,9 2 (A) = 24,3/244,5 = 0,099 (1 Fg.) 2 (B) = 8,6/0,9 = 9,5 (2 Fg.) 2 Interaktion = 7,4/0,9 = 8,2 (2 Fg.) (Der kritische 2 -Wert für 2 Fg. und =0.05 beträgt 6.) 7. Multiple Mittelwertvergleiche Insbesondere im Falle signifikanter Haupteffekte, falls der Faktor drei oder mehr Stufen hat, interessiert, zwischen welchen Stufen Unterschiede bestehen. Hierzu werden üblicherweise sog. post-hoc-tests herangezogen. Allerdings gibt im Falle nichtparametrischer Analysen hierfür keine speziellen Verfahren, wie es z.b. die Tests von Tukey, Newman-Keuls, Scheffe oder Duncan im parametrischen Fall sind. Dennoch gibt es zwei Notbehelfe : Paarvergleiche mit einer -Korrektur: Z.B. nach der Methode von Bonferroni. Diese besagt, dass bei m durchgeführten Paarvergleichen die p-werte nicht mit sondern mit /m auf Signifikanz zu vergleichen sind. Oder alternativ die p-werte mit m zu multiplizieren sind. Diese multiplen Vergleiche mit einer - Korrektur können im Zusammenhang mit dem Kruskal-Wallis-H-Test oder dem Friedman- Test in SPSS angefordert werden. Oder nach der Methode von Holm. Bei dieser wird von m durchgeführten Paarvergleichen der kleinste p-wert mit /m auf Signifikanz überprüft. Bei einem signifikanten Ergebnis darf der nächst kleinere p-wert mit /(m-1) auf Signifikanz überprüft werden usw.. Anwendung der o.a. parametrischen multiplen Mittelwertvergleiche (wie z.b. Newman- Keuls-Test) auf die in Ränge transformierten Daten. Man nennt diese Methode rank transform tests. Bei Conover, W. J. & Iman, R. L. (Rank transformations as a bridge between parametric and nonparametric statistics, 1981, American Statistician 35 (3): ) ist nachzulesen, dass dies zu brauchbaren Ergebnissen führt, obwohl für diese Tests allgemein eine strikte Einhaltung der Voraussetzungen (Varianzhomogenität und Normalverteilung) empfohlen wird. 8. Varianzanalysen für dichotome Variablen 8.1. Unabhängige Stichproben Für den Vergleich von k unabhängige Gruppen oder mehrfaktorielle Analysen bei einer dichotomen abhängigen Variablen gibt es die folgenden Methoden: Kontingenztabellenanalyse Logistische Begression Klassische Varianzanalyse (bei großer Fallzahl) (Faustregeln: Ist p > 0.2 sollte der Fehlerterm mindestens 20 Fg haben, ist p < 0.2 sollte er mindestens 40 Fg haben.) nichtparametrische Varianzanalyse (vgl. 1. und 2.)

10 Allerdings lassen sich die o.a. Verfahren nicht so ohne weiteres für sog. Einzelvergleiche (sog. posthoc-tests) anwenden. Immer möglich sind paarweise Vergleiche, bei denen die Irrtumswahrscheinlichkeit bzgl. der Anzahl der Vergleiche korrigiert wird, z.b. über die (leider sehr konservative) Bonferroni-Adjustierung ( <- /m, wenn m die Anzahl der Vergleiche ist). Bei der Kontingenztabellenanalyse gibt es die Möglichkeit Untertabellen zu vergleichen, was entsprechende Hypothesen voraussetzt und in etwa der Methode der linearen Kontraste bei metrischen Variablen entspricht Abhängige Stichproben Für den Vergleich von k abhängigen Stichproben gibt es Cochran s Q-Test (identisch mit dem Friedman-Test bei ordinalen Merkmalen) Klassische Varianzanalyse (bei großer Fallzahl) Bei mehrfaktoriellen Varianzanalysen mit abhängigen Stichproben bei einer dichotomen abhängigen Variablen gibt es letztlich dieselben Möglichkeiten: entweder Handhabung wie eine ordinale Variable und Anwendung der o.a. nichtparametrischen Analysen (vgl. 4. bis 6.) oder bei großer Fallzahl Durchführung einer klassischen Varianzanalyse. Haiko Lüpsen Regionales Rechenzentrum der Universität zu Köln

Nichtparametrische statistische Verfahren

Nichtparametrische statistische Verfahren Nichtparametrische statistische Verfahren (im Wesentlichen Analyse von Abhängigkeiten) Kategorien von nichtparametrischen Methoden Beispiel für Rangsummentests: Wilcoxon-Test / U-Test Varianzanalysen 1-faktorielle

Mehr

5. Lektion: Einfache Signifikanztests

5. Lektion: Einfache Signifikanztests Seite 1 von 7 5. Lektion: Einfache Signifikanztests Ziel dieser Lektion: Du ordnest Deinen Fragestellungen und Hypothesen die passenden einfachen Signifikanztests zu. Inhalt: 5.1 Zwei kategoriale Variablen

Mehr

Hypothesentests mit SPSS

Hypothesentests mit SPSS Beispiel für eine zweifaktorielle Varianzanalyse mit Messwiederholung auf einem Faktor (univariate Lösung) Daten: POKIII_AG4_V06.SAV Hypothese: Die physische Attraktivität der Bildperson und das Geschlecht

Mehr

Einführung in die Varianzanalyse mit SPSS

Einführung in die Varianzanalyse mit SPSS Einführung in die Varianzanalyse mit SPSS SPSS-Benutzertreffen am URZ Carina Ortseifen 6. Mai 00 Inhalt. Varianzanalyse. Prozedur ONEWAY. Vergleich von k Gruppen 4. Multiple Vergleiche 5. Modellvoraussetzungen

Mehr

SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben

SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben ÜBERSICHT: Testverfahren bei abhängigen (verbundenen) Stichproben parametrisch nicht-parametrisch 2 Gruppen t-test bei verbundenen

Mehr

Kontingentabellenanalyse

Kontingentabellenanalyse Kontingentabellenanalyse 1. Elementares Ausgangsbasis ist zunächst eine 2-dimensionale Kontingenztabelle mit den Häufigkeiten b 1 b j b l Summe a 1 n 11 n1j... n 1l n1* a i n i1 n ij n il n i* a k n k1

Mehr

Aufgaben zu Kapitel 7:

Aufgaben zu Kapitel 7: Aufgaben zu Kapitel 7: Aufgabe 1: In einer Klinik sollen zwei verschiedene Therapiemethoden miteinander verglichen werden. Zur Messung des Therapieerfolges werden die vorhandenen Symptome einmal vor Beginn

Mehr

Statistische Methoden in den Umweltwissenschaften

Statistische Methoden in den Umweltwissenschaften Statistische Methoden in den Umweltwissenschaften Post Hoc Tests A priori Tests (Kontraste) Nicht-parametrischer Vergleich von Mittelwerten 50 Ergebnis der ANOVA Sprossdichte der Seegräser 40 30 20 10

Mehr

Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse

Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse Univariate Varianz- und Kovarianzanlyse, Multivariate Varianzanalyse und Varianzanalyse mit Messwiederholung finden sich unter

Mehr

Online Statistik-Coaching

Online Statistik-Coaching Online Statistik-Coaching Modul 3 Statistisches Testen - Auswahl der passenden Methode - Durchführung mit SPSS - Interpretation und Darstellung Dipl.-Math. Daniela Keller www.statistik-und-beratung.de

Mehr

Kapitel 6: Zweifaktorielle Varianzanalyse

Kapitel 6: Zweifaktorielle Varianzanalyse Kapitel 6: Zweifaktorielle Varianzanalyse Berechnen der Teststärke a priori bzw. Stichprobenumfangsplanung 1 Teststärkebestimmung a posteriori 4 Berechnen der Effektgröße f² aus empirischen Daten und Bestimmung

Mehr

SozialwissenschaftlerInnen II

SozialwissenschaftlerInnen II Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Varianzanalyse Statistik

Mehr

Anwendungsaufgaben. Effektgröße bei df Zähler = df A = 1 und N = 40 (zu berechnen aus df Nenner ): Der aufgedeckte Effekt beträgt also etwa 23 %.

Anwendungsaufgaben. Effektgröße bei df Zähler = df A = 1 und N = 40 (zu berechnen aus df Nenner ): Der aufgedeckte Effekt beträgt also etwa 23 %. Anhang A: Lösungen der Aufgaben 39 beiden Kombinationen sehr hoch ist. (Dieses Ergebnis wäre aber in diesem Beispiel nicht plausibel.) 5. Der Faktor A und die Wechselwirkung werden signifikant: Lärm hat

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt Statistik & Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de

Mehr

Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten

Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten 5.1. Einführung Einfaktorielle Varianzanalyse Überprüft die Auswirkung einer gestuften (s), unabhängigen Variable X, auch Faktor

Mehr

Mehrfaktorielle Varianzanalyse

Mehrfaktorielle Varianzanalyse Professur E-Learning und Neue Medien Institut für Medienforschung Philosophische Fakultät Einführung in die Statistik Mehrfaktorielle Varianzanalyse Überblick Einführung Empirische F-Werte zu einer zweifaktoriellen

Mehr

SigmaStat Nina Becker, Christoph. Rothenwöhrer. Copyright 2004 Systat Software, Inc.

SigmaStat Nina Becker, Christoph. Rothenwöhrer. Copyright 2004 Systat Software, Inc. SigmaStat 3.11 Copyright 2004 Systat Software, Inc. http://www.systat.com Nina Becker, Christoph Rothenwöhrer Die Aufgabe der Statistik ist die Zusammenfassung von Daten, deren Darstellung, Analyse und

Mehr

Varianzanalysen - Prüfen der Voraussetzungen und nichtparametrische Methoden sowie praktische Anwendungen mit R und SPSS

Varianzanalysen - Prüfen der Voraussetzungen und nichtparametrische Methoden sowie praktische Anwendungen mit R und SPSS Varianzanalysen - Prüfen der Voraussetzungen und nichtparametrische Methoden sowie praktische Anwendungen mit R und SPSS Version 1.1 (2.3.2015) Haiko Lüpsen Regionales Rechenzentrum (RRZK) Kontakt: Luepsen@Uni-Koeln.de

Mehr

Lernziele Experimentelles Praktikum

Lernziele Experimentelles Praktikum Lernziele Experimentelles Praktikum Inhaltsverzeichnis 1. Theoretischer Hintergrund des Artikels 2. Grundlagen des Experimentierens 3. Schritte der allgemeinen Versuchsplanung 4. Unabhängige Variablen

Mehr

Prüfungsliteratur: Rudolf & Müller S

Prüfungsliteratur: Rudolf & Müller S 1 Beispiele zur univariaten Varianzanalyse Einfaktorielle Varianzanalyse (Wiederholung!) 3 Allgemeines lineares Modell 4 Zweifaktorielle Varianzanalyse 5 Multivariate Varianzanalyse 6 Varianzanalyse mit

Mehr

Webergänzung zu Kapitel 10

Webergänzung zu Kapitel 10 10.1.5 Varianzanalyse (ANOVA: analysis of variance ) Im Kapitel 10 haben wir uns hauptsächlich mit Forschungsbeispielen beschäftigt, die nur zwei Ergebnissätze hatten (entweder werden zwei unterschiedliche

Mehr

Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten

Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten 5.1. Einführung Einfaktorielle Varianzanalyse Überprüft die Auswirkung einer gestuften (s), unabhängigen Variable X, auch Faktor

Mehr

Varianzanalysen - Prüfen der Voraussetzungen und nichtparametrische Methoden sowie praktische Anwendungen mit R und SPSS

Varianzanalysen - Prüfen der Voraussetzungen und nichtparametrische Methoden sowie praktische Anwendungen mit R und SPSS Varianzanalysen - Prüfen der Voraussetzungen und nichtparametrische Methoden sowie praktische Anwendungen mit R und SPSS Version 2.4 (20.7.2017) Haiko Lüpsen Regionales Rechenzentrum (RRZK) Kontakt: Luepsen@Uni-Koeln.de

Mehr

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Einfaktorielle Versuchspläne 27/40 Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Abweichung Einfach Differenz Helmert Wiederholt Vergleich Jede Gruppe mit Gesamtmittelwert

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Faktorielle Varianzanalyse

Wahrscheinlichkeitsrechnung und Statistik für Biologen Faktorielle Varianzanalyse Wahrscheinlichkeitsrechnung und Statistik für Biologen Faktorielle Varianzanalyse Dirk Metzler & Martin Hutzenthaler 15. Juni 2010 Inhaltsverzeichnis 1 Die einfaktorielle Varianzanalyse und der F -Test

Mehr

Aufgaben zu Kapitel 7:

Aufgaben zu Kapitel 7: Aufgaben zu Kapitel 7: Aufgabe 1: In einer Klinik sollen zwei verschiedene Therapiemethoden miteinander verglichen werden. Zur Messung des Therapieerfolges werden die vorhandenen Symptome einmal vor Beginn

Mehr

Aufgaben zu Kapitel 8

Aufgaben zu Kapitel 8 Aufgaben zu Kapitel 8 Aufgabe 1 a) Berechnen Sie einen U-Test für das in Kapitel 8.1 besprochene Beispiel mit verbundenen Rängen. Die entsprechende Testvariable punkte2 finden Sie im Datensatz Rangdaten.sav.

Mehr

Kapitel 5: Einfaktorielle Varianzanalyse

Kapitel 5: Einfaktorielle Varianzanalyse Kapitel 5: Einfaktorielle Varianzanalyse Durchführung einer einfaktoriellen Varianzanalyse ohne Messwiederholung Dieser Abschnitt zeigt die Durchführung der in Kapitel 5 vorgestellten einfaktoriellen Varianzanalyse

Mehr

Messwiederholungen und abhängige Messungen

Messwiederholungen und abhängige Messungen Messwiederholungen und abhängige Messungen t Tests und Varianzanalysen für Messwiederholungen Kovarianzanalyse Thomas Schäfer SS 009 1 Messwiederholungen und abhängige Messungen Bei einer Messwiederholung

Mehr

Skript zur Vorlesung Statistik 2

Skript zur Vorlesung Statistik 2 Weder die Autorin noch der Fachschaftsrat Psychologie übernimmt Irgendwelche Verantwortung für dieses Skript. Das Skript soll nicht die Lektüre der Prüfungsliteratur ersetzen. Verbesserungen und Korrekturen

Mehr

Prüfen von Unterschiedshypothesen für ordinale Variablen: Mann-Whitney Test und Ko

Prüfen von Unterschiedshypothesen für ordinale Variablen: Mann-Whitney Test und Ko Prüfen von Unterschiedshypothesen für ordinale Variablen: Mann-Whitney Test und Ko Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik

Mehr

Aufgaben zu Kapitel 8

Aufgaben zu Kapitel 8 Aufgaben zu Kapitel 8 Aufgabe 1 a) Berechnen Sie einen U-Test für das in Kapitel 8.1 besprochene Beispiel mit verbundenen n. Die entsprechende Testvariable punkte2 finden Sie im Datensatz Rangdaten.sav.

Mehr

Inferenzstatistik Vergleich mehrerer Stichproben - Varianzanalyse

Inferenzstatistik Vergleich mehrerer Stichproben - Varianzanalyse Vergleich mehrerer Stichproben - Varianzanalyse Zweifache VA mit hierarchischen Faktoren Voraussetzungen zwei unabhängige Variablen (Faktoren), die unabhängige Gruppen definiert zweite Faktor ist innerhalb

Mehr

Parametrische vs. Non-Parametrische Testverfahren

Parametrische vs. Non-Parametrische Testverfahren Parametrische vs. Non-Parametrische Testverfahren Parametrische Verfahren haben die Besonderheit, dass sie auf Annahmen zur Verteilung der Messwerte in der Population beruhen: die Messwerte sollten einer

Mehr

UE Angewandte Statistik Termin 4 Gruppenvergleichstests

UE Angewandte Statistik Termin 4 Gruppenvergleichstests UE Angewandte Statistik Termin 4 Gruppenvergleichstests Martina Koller Institut für Pflegewissenschaft SoSe 2015 INHALT 1 Allgemeiner Überblick... 1 2 Normalverteilung... 2 2.1 Explorative Datenanalyse...

Mehr

Psychologische Methodenlehre Statistik

Psychologische Methodenlehre Statistik RAINER LEONHART Psychologische Methodenlehre Statistik Mit 21 Abbildungen und 40 Tabellen Mit 64 Ubungsfragen Ernst Reinhardt Verlag Miinchen Basel Inhalt Vorwort 9 1 Einfuhrung in die Forschungsmethoden

Mehr

Inhaltsverzeichnis. Über die Autoren Einleitung... 21

Inhaltsverzeichnis. Über die Autoren Einleitung... 21 Inhaltsverzeichnis Über die Autoren.... 7 Einleitung... 21 Über dieses Buch... 21 Was Sie nicht lesen müssen... 22 Törichte Annahmen über den Leser... 22 Wie dieses Buch aufgebaut ist... 23 Symbole, die

Mehr

1. Es sind einfach zu viele! Varianzanalytische Verfahren.

1. Es sind einfach zu viele! Varianzanalytische Verfahren. 1. Es sind einfach zu viele! Varianzanalytische Verfahren. In diesem Kapitel behandeln wir die Varianzanalyse (ANOVA). Varianzanalysen kommen in sehr sehr vielen verschiedenen Gestalten einher. Das Ziel

Mehr

Zweifache Varianzanalyse

Zweifache Varianzanalyse Zweifache Varianzanalyse Man kann mittels VA auch den (gleichzeitigen) Einfluss mehrerer Faktoren (unabhängige Variablen) auf ein bestimmtes Merkmal (abhängige Variable) analysieren. Die Wirkungen werden

Mehr

Kapitel 8: Verfahren für Rangdaten

Kapitel 8: Verfahren für Rangdaten Kapitel 8: Verfahren für Rangdaten Anmerkung 1 Mann-Whitney U-Test 1 Wilcoxon-Test 3 Kruskal-Wallis H-Test 3 Literatur 6 Anmerkung In Kapitel 8 der Bücher wird erwähnt, dass für nichtparametrische Daten

Mehr

Abb. 7: Body-Mass-Index der 71 untersuchten Patienten unterteilt nach Geschlecht.

Abb. 7: Body-Mass-Index der 71 untersuchten Patienten unterteilt nach Geschlecht. 4 ERGEBNISSE 4.1 Body-Mass-Index (BMI) Von den 71 untersuchten Patienten, 55 Männern und 16 Frauen, wurde der Body-Mass- Index bestimmt. Untergewicht besaßen 18% der Männer. 36% waren normalgewichtig und

Mehr

Inhaltsverzeichnis Einführung und deskriptive Statistik Grundlagen der Inferenzstatistik 1: Zufallsvariablen

Inhaltsverzeichnis Einführung und deskriptive Statistik Grundlagen der Inferenzstatistik 1: Zufallsvariablen Inhaltsverzeichnis 1 Einführung und deskriptive Statistik... 1 1.1 Wichtige mathematische Schreibweisen... 1 1.1.1 Das Summenzeichen... 1 1.1.2 Mengentheoretische Schreibweisen... 3 1.1.3 Variablentransformationen...

Mehr

Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben

Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben Es wurden die Körpergrößen von 3 Versuchspersonen, sowie Alter und Geschlecht erhoben. (Jeweils Größen pro Faktorstufenkombination). (a)

Mehr

Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav

Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Hypothese: Die Beschäftigung mit Kunst ist vom Bildungsgrad abhängig. 1. Annahmen Messniveau: Modell: Die Skala zur Erfassung der

Mehr

Ergebnisse VitA und VitVM

Ergebnisse VitA und VitVM Ergebnisse VitA und VitVM 1 Basisparameter... 2 1.1 n... 2 1.2 Alter... 2 1.3 Geschlecht... 5 1.4 Beobachtungszeitraum (von 1. Datum bis letzte in situ)... 9 2 Extraktion... 11 3 Extraktionsgründe... 15

Mehr

12 Rangtests zum Vergleich zentraler Tendenzen

12 Rangtests zum Vergleich zentraler Tendenzen 12 Rangtests zum Vergleich zentraler Tendenzen 12.1 Allgemeine Bemerkungen 12.2 Gepaarte Stichproben: Der Wilcoxon Vorzeichen- Rangtest 12.3 Unabhängige Stichproben: Der Wilcoxon Rangsummentest und der

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 6-6) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de

Mehr

Computergestützte Methoden. Master of Science Prof. Dr. G. H. Franke WS 07/08

Computergestützte Methoden. Master of Science Prof. Dr. G. H. Franke WS 07/08 Computergestützte Methoden Master of Science Prof. Dr. G. H. Franke WS 07/08 1 Seminarübersicht 1. Einführung 2. Recherchen mit Datenbanken 3. Erstellung eines Datenfeldes 4. Skalenniveau und Skalierung

Mehr

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse Einleitung Statistik Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Der Begriff Varianzanalyse (analysis of variance, ANOVA) taucht an vielen Stellen in der Statistik mit unterschiedlichen

Mehr

Einfache Varianzanalyse für unabhängige Stichproben

Einfache Varianzanalyse für unabhängige Stichproben Einfache Varianzanalyse für unabhängige Stichproben VARIANZANALYSE Die Varianzanalyse ist das dem t-test entsprechende Mittel zum Vergleich mehrerer (k 2) Stichprobenmittelwerte. Sie wird hier mit VA abgekürzt,

Mehr

Statistik II Übung 3: Hypothesentests

Statistik II Übung 3: Hypothesentests Statistik II Übung 3: Hypothesentests Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier Stichproben). Verwenden

Mehr

Signifikanzprüfung. Peter Wilhelm Herbstsemester 2014

Signifikanzprüfung. Peter Wilhelm Herbstsemester 2014 Signifikanzprüfung Peter Wilhelm Herbstsemester 2014 1.) Auswahl des passenden Tests 2.) Begründete Festlegung des Alpha- Fehlers nach Abschätzung der Power 3.) Überprüfung der Voraussetzungen 4.) Durchführung

Mehr

fh management, communication & it Constantin von Craushaar fh-management, communication & it Statistik Angewandte Statistik

fh management, communication & it Constantin von Craushaar fh-management, communication & it Statistik Angewandte Statistik fh management, communication & it Folie 1 Überblick Grundlagen (Testvoraussetzungen) Mittelwertvergleiche (t-test,..) Nichtparametrische Tests Korrelationen Regressionsanalyse... Folie 2 Überblick... Varianzanalyse

Mehr

Einfaktorielle Varianzanalyse

Einfaktorielle Varianzanalyse Kapitel 16 Einfaktorielle Varianzanalyse Im Zweistichprobenproblem vergleichen wir zwei Verfahren miteinander. Nun wollen wir mehr als zwei Verfahren betrachten, wobei wir unverbunden vorgehen. Beispiel

Mehr

Statistik II Übung 3: Hypothesentests Aktualisiert am

Statistik II Übung 3: Hypothesentests Aktualisiert am Statistik II Übung 3: Hypothesentests Aktualisiert am 12.04.2017 Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier

Mehr

Einfaktorielle Varianzanalyse

Einfaktorielle Varianzanalyse Professur Psychologie digitaler Lernmedien Institut für Medienforschung Philosophische Fakultät Einführung in die Statistik Einfaktorielle Varianzanalyse Überblick Einführung Alphafehler-Kumulierung Grundprinzip

Mehr

Im Modell der Varianzanalyse (mit festen Effekten) ist das. aus dem Durchschnittsmesswert für y plus dem Effekt des.

Im Modell der Varianzanalyse (mit festen Effekten) ist das. aus dem Durchschnittsmesswert für y plus dem Effekt des. Einfatorielle Varianzanalyse Varianzanalyse untersucht den Einfluss verschiedener Bedingungen ( = nominalsalierte(r) Variable(r)) auf eine metrische Variable. Die Bedingungen heißen auch atoren und ihre

Mehr

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 7 a)

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 7 a) LÖSUNG 7 a) Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 Aufrufen der Varianzanalyse: "Analysieren", "Mittelwerte vergleichen", "Einfaktorielle ANOVA ", "Abhängige Variablen:" TVHOURS;

Mehr

Test-Finder. Inhalt. Orientierung im Test-Chaos Dipl.-Psych. Dr. Guido Strunk

Test-Finder. Inhalt. Orientierung im Test-Chaos Dipl.-Psych. Dr. Guido Strunk Test-Finder 1 Test-Finder Orientierung im Test-Chaos Dipl.-Psych. Dr. Guido Strunk Inhalt 1 Grundlagen... 2 2 Maße der zentralen Tendenz vergleichen Zwei Gruppen... 3 2.1 T-Test für unabhängige Daten...

Mehr

Unterschiedshypothesen für maximal 2 Gruppen, wenn die Voraussetzungen für parametrische Verfahren nicht erfüllt sind

Unterschiedshypothesen für maximal 2 Gruppen, wenn die Voraussetzungen für parametrische Verfahren nicht erfüllt sind Schäfer A & Schöttker-Königer T, Statistik und quantitative Methoden für (2015) Arbeitsblatt 1 SPSS Kapitel 6 Seite 1 Unterschiedshypothesen für maximal 2 Gruppen, wenn die Voraussetzungen für parametrische

Mehr

methodenlehre ll ALM und Mehrfaktorielle ANOVA Mehrfaktorielle ANOVA methodenlehre ll ALM und Mehrfaktorielle ANOVA

methodenlehre ll ALM und Mehrfaktorielle ANOVA Mehrfaktorielle ANOVA methodenlehre ll ALM und Mehrfaktorielle ANOVA 15.04.009 Das Allgemeine lineare Modell Post hoc Tests bei der ANOVA Mehrfatorielle ANOVA Thomas Schäfer SS 009 1 Das Allgemeine lineare Modell (ALM) Varianz als Schlüsselonzept "The main technical function

Mehr

Statistik-Team. Tobias Kley: Übung: Freitag, Uhr, HGA 10 Tutorium (SPSS) - ab

Statistik-Team. Tobias Kley: Übung: Freitag, Uhr, HGA 10 Tutorium (SPSS) - ab Statistik-Team Tobias Kley: tobikley@uni-muenster.de Übung: Freitag, 9.00-10.00 Uhr, HGA 10 Tutorium (SPSS) - ab 26.10.2009 Koordination: Dr. Helge Thiemann Helge.Thiemann-i5m@ruhr-uni-bochum.de 0234/

Mehr

Informationen zur KLAUSUR am

Informationen zur KLAUSUR am Wiederholung und Fragen 1 Informationen zur KLAUSUR am 24.07.2009 Raum: 032, Zeit : 8:00 9:30 Uhr Bitte Lichtbildausweis mitbringen! (wird vor der Klausur kontrolliert) Erlaubte Hilfsmittel: Alle Unterlagen,

Mehr

PROC NPAR1WAY. zum Durchführen des U-Tests für zwei unverbundene Stichproben (für quantitative nicht-normalverteilte Merkmale)

PROC NPAR1WAY. zum Durchführen des U-Tests für zwei unverbundene Stichproben (für quantitative nicht-normalverteilte Merkmale) PROC NPAR1WAY zum Durchführen des U-Tests für zwei unverbundene Stichproben (für quantitative nicht-normalverteilte Merkmale) Allgemeine Form: PROC NPAR1WAY DATA=name Optionen ; VAR variablenliste ; CLASS

Mehr

Überblick über die Verfahren für Ordinaldaten

Überblick über die Verfahren für Ordinaldaten Verfahren zur Analyse ordinalskalierten Daten 1 Überblick über die Verfahren für Ordinaldaten Unterschiede bei unabhängigen Stichproben Test U Test nach Mann & Whitney H Test nach Kruskal & Wallis parametrische

Mehr

Varianzanalyse * (1) Varianzanalyse (2)

Varianzanalyse * (1) Varianzanalyse (2) Varianzanalyse * (1) Einfaktorielle Varianzanalyse (I) Die Varianzanalyse (ANOVA = ANalysis Of VAriance) wird benutzt, um Unterschiede zwischen Mittelwerten von drei oder mehr Stichproben auf Signifikanz

Mehr

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011 Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011 Es können von den Antworten alle, mehrere oder keine Antwort(en) richtig sein. Nur bei einer korrekten Antwort (ohne Auslassungen

Mehr

Die ungeliebten Verwandten: nicht-parametrische Alternativen

Die ungeliebten Verwandten: nicht-parametrische Alternativen 1.1.1. Die ungeliebten Verwandten: nicht-parametrische Alternativen 1.1.1.1. Was zur Hölle? Ted richtet seine Waffe auf Dr. Bob Kelso: Nein, Bob! Das werde ich nicht tun! Nicht nach all dem, was ich durchmachen

Mehr

Varianzanalytische Methoden Zweifaktorielle Versuchspläne 4/13. Durchführung in SPSS (File Trait Angst.sav)

Varianzanalytische Methoden Zweifaktorielle Versuchspläne 4/13. Durchführung in SPSS (File Trait Angst.sav) Zweifaktorielle Versuchspläne 4/13 Durchführung in SPSS (File Trait Angst.sav) Analysieren > Allgemeines Lineares Modell > Univariat Zweifaktorielle Versuchspläne 5/13 Haupteffekte Geschlecht und Gruppe

Mehr

Statistik-Quiz Sommersemester

Statistik-Quiz Sommersemester Statistik-Quiz Sommersemester Seite 1 von 8 Statistik-Quiz Sommersemester Die richtigen Lösungen sind mit gekennzeichnet. 1 In einer Gruppe von 337 Probandinnen und Probanden wurden verschiedene Merkmale

Mehr

Aufgaben zu Kapitel 9

Aufgaben zu Kapitel 9 Aufgaben zu Kapitel 9 Aufgabe 1 Für diese Aufgabe benötigen Sie den Datensatz Nominaldaten.sav. a) Sie arbeiten für eine Marktforschungsfirma und sollen überprüfen ob die in diesem Datensatz untersuchte

Mehr

ANalysis Of VAriance (ANOVA) 1/2

ANalysis Of VAriance (ANOVA) 1/2 ANalysis Of VAriance (ANOVA) 1/2 Markus Kalisch 16.10.2014 1 ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich)?

Mehr

Statistik. Jan Müller

Statistik. Jan Müller Statistik Jan Müller Skalenniveau Nominalskala: Diese Skala basiert auf einem Satz von qualitativen Attributen. Es existiert kein Kriterium, nach dem die Punkte einer nominal skalierten Variablen anzuordnen

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Nicht-parametrische Verfahren k > 2 unabhängige Stichproben: Kruskal-Wallis-Test 1/12

Nicht-parametrische Verfahren k > 2 unabhängige Stichproben: Kruskal-Wallis-Test 1/12 k > 2 unabhängige Stichproben: Kruskal-Wallis-Test 1/12 Kruskal-Wallis-Test (H-Test; Kruskal & Wallis, 1952)ist Verallgemeinerung der Prinzipien des U-Test für k> 2 Stichproben klassisches Pendant der

Mehr

# Befehl für den Lilliefors-Test

# Befehl für den Lilliefors-Test 1/5 Matthias Rudolf & Diana Vogel R-Kurs Graduiertenakademie September 2017 Loesungsskript: Tests 1a library(nortest) 1b lillie.test Befehl für den Lilliefors-Test 2a, Datensatz "Schachbeispiel einlesen"

Mehr

Varianzanalyse (ANOVA: analysis of variance)

Varianzanalyse (ANOVA: analysis of variance) Varianzanalyse (AOVA: analysis of variance) Einfaktorielle VA Auf der Basis von zwei Stichproben wird bezüglich der Gleichheit der Mittelwerte getestet. Variablen müssen Variablen nur nominalskaliert sein.

Mehr

Angewandte Statistik 3. Semester

Angewandte Statistik 3. Semester Angewandte Statistik 3. Semester Übung 5 Grundlagen der Statistik Übersicht Semester 1 Einführung ins SPSS Auswertung im SPSS anhand eines Beispieles Häufigkeitsauswertungen Grafiken Statistische Grundlagen

Mehr

Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie

Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie 1 Einleitung 3 2 Modell mit 0-1 kodierten nominalen Prädiktoren X 1

Mehr

Statistische Methoden in den Umweltwissenschaften

Statistische Methoden in den Umweltwissenschaften Statistische Methoden in den Umweltwissenschaften t-test Varianzanalyse (ANOVA) Übersicht Vergleich von Mittelwerten 2 Gruppen: t-test einfaktorielle ANOVA > 2 Gruppen: einfaktorielle ANOVA Seeigel und

Mehr

1. Inhaltsverzeichnis. 2. Abbildungsverzeichnis

1. Inhaltsverzeichnis. 2. Abbildungsverzeichnis 1. Inhaltsverzeichnis 1. Inhaltsverzeichnis... 1 2. Abbildungsverzeichnis... 1 3. Einleitung... 2 4. Beschreibung der Datenquelle...2 5. Allgemeine Auswertungen...3 6. Detaillierte Auswertungen... 7 Zusammenhang

Mehr

Statistik II: Signifikanztests /1

Statistik II: Signifikanztests /1 Medien Institut : Signifikanztests /1 Dr. Andreas Vlašić Medien Institut (0621) 52 67 44 vlasic@medien-institut.de Gliederung 1. Noch einmal: Grundlagen des Signifikanztests 2. Der chi 2 -Test 3. Der t-test

Mehr

Statistik-Klausur A WS 2009/10

Statistik-Klausur A WS 2009/10 Statistik-Klausur A WS 2009/10 Name: Vorname: Immatrikulationsnummer: Studiengang: Hiermit erkläre ich meine Prüfungsfähigkeit vor Beginn der Prüfung. Unterschrift: Dauer der Klausur: Erlaubte Hilfsmittel:

Mehr

ANalysis Of VAriance (ANOVA) 2/2

ANalysis Of VAriance (ANOVA) 2/2 ANalysis Of VAriance (ANOVA) 2/2 Markus Kalisch 22.10.2014 1 Wdh: ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor X). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich

Mehr

ANOVA und Transformationen. Statistik II

ANOVA und Transformationen. Statistik II und Statistik II Wiederholung Literatur Statistik II und (1/28) Literatur Zum Nachlesen Agresti ch. 12 (nur bis Seite 381) Agresti ch. 13 (nur bis Seite 428) Statistik II und (2/28) Literatur für nächste

Mehr

Quantitative Methoden (Vertretung für Prof. Th. Pechmann)

Quantitative Methoden (Vertretung für Prof. Th. Pechmann) Quantitative Methoden (Vertretung für Prof. Th. Pechmann) Inferenzstatistik III: Varianzanalyse (ANOVA) Andreas Opitz Universität Leipzig Institut für Linguistik Fragen, die Sie nach der letzten Sitzung

Mehr

VS PLUS

VS PLUS VS PLUS Zusatzinformationen zu Medien des VS Verlags Statistik II Inferenzstatistik 2010 Übungsaufgaben und Lösungen Inferenzstatistik 2 [Übungsaufgaben und Lösungenn - Inferenzstatistik 2] ÜBUNGSAUFGABEN

Mehr

Eigene MC-Fragen SPSS. 1. Zutreffend auf die Datenerfassung und Datenaufbereitung in SPSS ist

Eigene MC-Fragen SPSS. 1. Zutreffend auf die Datenerfassung und Datenaufbereitung in SPSS ist Eigene MC-Fragen SPSS 1. Zutreffend auf die Datenerfassung und Datenaufbereitung in SPSS ist [a] In der Variablenansicht werden für die betrachteten Merkmale SPSS Variablen definiert. [b] Das Daten-Editor-Fenster

Mehr

Grundlagen sportwissenschaftlicher Forschung Inferenzstatistik 2

Grundlagen sportwissenschaftlicher Forschung Inferenzstatistik 2 Grundlagen sportwissenschaftlicher Forschung Inferenzstatistik 2 Dr. Jan-Peter Brückner jpbrueckner@email.uni-kiel.de R.216 Tel. 880 4717 Statistischer Schluss Voraussetzungen z.b. bzgl. Skalenniveau und

Mehr

Inhaltsverzeichnis. Vorwort

Inhaltsverzeichnis. Vorwort V Vorwort XI 1 Zum Gebrauch dieses Buches 1 1.1 Einführung 1 1.2 Der Text in den Kapiteln 1 1.3 Was Sie bei auftretenden Problemen tun sollten 2 1.4 Wichtig zu wissen 3 1.5 Zahlenbeispiele im Text 3 1.6

Mehr

Etwas positive Tendenz ist beim Wechsel der Temperatur von 120 auf 170 zu erkennen.

Etwas positive Tendenz ist beim Wechsel der Temperatur von 120 auf 170 zu erkennen. Explorative Datenanalyse Erstmal die Grafiken: Aufreisskraft und Temperatur 3 1-1 N = 1 15 17 Temperatur Diagramm 3 1 95% CI -1 N = 1 15 17 Temperatur Etwas positive Tendenz ist beim Wechsel der Temperatur

Mehr

Hypothesentests mit SPSS

Hypothesentests mit SPSS Beispiel für eine einfache Regressionsanalyse (mit Überprüfung der Voraussetzungen) Daten: bedrohfb_v07.sav Hypothese: Die Skalenwerte auf der ATB-Skala (Skala zur Erfassung der Angst vor terroristischen

Mehr

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden

Mehr