Nichtparametrische Varianzanalysen - praktische Anwendung
|
|
- Adrian Tiedeman
- vor 7 Jahren
- Abrufe
Transkript
1 Nichtparametrische Varianzanalysen - praktische Anwendung Nichtparametrische Varianzanalysen sind primär anzuwenden, wenn die abhängige Variable entweder metrisch ist und die Voraussetzungen Normalverteilung der Residuen sowie Varianzhomogenität nicht gegeben sind, oder aber wenn die abhängige Variable ordinales Skalenniveau hat. Die hier besprochenen Verfahren des Kruskal-Wallis- H-Test und der Friedman-Varianzanalyse bzw. der Verallgemeinerungen von Puri & Sen (vgl. dazu Shirley, E.A. : A distribution-free method for analysis of covariance based on ranked data, 1981, J. of Applied Statistics 30: , Bennett, B.M. Rank-order tests of linear hypotheses, 1968, J. of Stat. Society B 30: und Winer, B.J. et.al.: Statistical Principles in Experimental Design, 1991, S ff) sowie Bredenkamp (vgl. dazu G.A.Lienert: Verteilungsfreie Methoden in der Biostatistik - Band 2, 1987, S ff) setzen zwar metrisches Skalenniveau voraus, sind aber in allen gängigen Statistikprogrammen, insbesondere SPSS, so implementiert, dass Bindungen (gleiche Werte der abhängigen Variablen) berücksichtigt werden und damit auf ordinale Variablen anwendbar sind. Zum Teil sind allerdings zusätzliche kleine Rechnungen mit dem Taschenrechner erfordrelich. Darüber hinaus gibt es noch Methoden für nominale, insbesondere dichotome abhängige Variablen. Letztere werden weiter unten behandelt. Varianzanalytische Fragestellungen mit einer polychotomen abhängigen Variablen werden über Kontingenztabellenanalyse, insbesondere mittels der Analyse loglinearer Modelle gelöst. 1. Unabhängige Stichproben: 1-faktoriell Getestet wird - wie bei der klassischen Varianzanalyse - die Hypothese gleicher Gruppenmittelwerte: 1 = 2 = = k Dies erfolgt über den Kruskal-Wallis-H-Test, einer Verallgemeinerung des Mann-Whitney-U- Tests von 2 auf beliebig viele Gruppen. Für den Test wird ein Wert H errechnet, der 2 -verteilt ist mit (k-1) Freiheitsgraden. Derselbe Test lässt sich auch über eine einfaktorielle klassische Varianzanalyse durchführen. Dies wird in Abschnitt 2.3 ausführlich beschrieben. 2. Unabhängige Stichproben: 2-faktoriell Hier muss unterschieden werden zwischen balancierten und nichtbalancierten Versuchsplänen bzw. Zellenbesetzungszahlen. Bei balancierten Versuchsplänen sind die Zellenbestzungszahlen zeilenweise oder spaltenweise proportional zueinander, z.b. bei einem Versuchsplan mit den Faktoren A (4 Stufen) und B (3 Stufen) B 1 B 2 B 3 A A A A In diesem Beispiel sind die Zellenbesetzungszahlen der 2. bzw. 3. Spalte das 1,2-fache bzw 1,6-
2 fache der 1. Spalte. Umgekehrt kann man auch erkennen, dass die Zellenbesetzungszahlen der 2. bzw. 3. Zeile das 1,5-fache bzw. das 2-fache der ersten Zeile sind. Versuchspläne mit gleichen Zellenbesetzungszahlen sind natürlich immer balanciert. 2.1 Anmerkungen zur 2-faktoriellen Varianzanalyse Soll der Einfluss zweier Einflussfaktoren A und B auf eine abhängige Variable x untersucht werden, so bringen zwei 1-faktorielle Varianzanalysen der Faktoren A und B nur die halbe Wahrheit hervor, mitunter sogar irreführende Ergebnisse. Neben den sog. Haupteffekten der Faktoren A und B gibt es einen sog. Interaktionseffekt A*B. Dieser zeigt an, ob der Einfluss von A von B abhängig ist, und umgekehrt, ob der Einfluss von B von A abhängig ist. So kann es durchaus vorkommen, dass die Haupteffekte A und B nicht signifikant sind, dafür aber A*B. Dies besagt, dass ein Einfluss von A vorhanden ist, der je nach Gruppe (Stufe) des Faktors B unterschiedlich ausfällt, und umgekehrt, dass ein Einfluss von B vorhanden ist, der je nach Gruppe (Stufe) des Faktors A unterschiedlich ausfällt. Dies lässt sich grafisch durch einen sog. Interaktionsplot (in SPSS Profilplot genannt) veranschaulichen, in SPSS erhältlich über die parametrische Varianzanalyse (Analysieren -> Allg. lineare Modell -> univariat -> Diagramme). Dort werden Mittelwertlinien des Faktors A getrennt für die Stufen des Faktors B gezeichnet. Ein nicht paralleler Verlauf der Kurven deutet auf eine signifikante Interaktion hin. Dies kann zum einen sein: Der Einfluss von A ist unterschiedlich stark für die Gruppen von B, oder der Einfluss von A ist für die Gruppen von B gegensätzlich. Interaktionsplot für den Datensatz von S. 425 aus dem Buch von B.J.Winer
3 2.2 Verfahren bei balancierten Versuchsplänen: Nach Bredenkamp wird zum Test der beiden Haupteffekte (A und B mit k bzw. l Stufen) jeweils der Kruskal-Wallis-H-Test durchgeführt (Ergebnisse: 2 A und 2 B ). Zum Test der Interaktion A*B wird ein H-Test zum Vergleich aller Zellen durchgeführt (Ergebnis: 2 AB ), von dem erhaltenen 2 -Wert dann die 2 -Werte der Haupteffekte abgezogen und schließlich der Restwert anhand der Tabelle der 2 -Verteilung auf Signifikanz überprüft:- H-Testwerte ( 2 -Werte) Freiheitsgrade 2 AB - 2 A - 2 B 2 AB - 2 A - 2 B kl-1 k-1 l-1 (k-1)(l-1) 2.3 Verfahren bei beliebigen, insbesondere nichtbalancierten Versuchsplänen: Allgemein kann die nichtparametrische Varianzanalyse auf die klassische parametrische Varianzanalyse zurückgeführt werden, indem die abhängige Variable zuvor in Ränge transformiert wird, für diese dann die Varianzanalyse durchgeführt wird und anschließend anstatt der F-Tests 2 -Tests durchgeführt werden (vgl. die o.a. Quellen: Winer, B.J. et.al. sowie Shirley, E.A.). Dabei werden die 2 -Werte errechnet als 2 = SS Effekt MS total wobei SS Effekt die Streuungsquadratsumme (Sum of Squares) des zu testenden Effektes (A, B oder A*B) und MS total die Gesamtvarianz, in SPSS korrigierte Gesamtvariation, (Mean Square) ist, die beide aus der Anova-Tabelle abgelesen werden können. (Im balancierten Fall sind diese 2 -Werte identisch mit denen, die über die o.a. erste Methode errechnet werden können.) Die 2 -Werte sind dann in den Tafeln für den 2 -Test auf Signifikanz zu überprüfen, wobei die Freiheitsgrade die Zählerfreiheitsgrade des entsprechenden F-Tests sind. 2.4 Beispielrechnung für den Datensatz von S. 425 aus dem Buch von B.J.Winer: Verfahren von Bredenkamp: (Durchnummerierung der Zellen:= (Patients - 1)*#Drugs + Drugs ) 2 Patients 2 Drugs 2 Zellen 2 Interaktion = 0,872 (1 Fg.) = 2,326 (2 Fg.) = 11,755 (5 Fg.) = 11,755-0,872-2,326 = 8,557 (2 Fg.) (Der kritische 2 -Wert für 2 Fg. und =0.05 beträgt 6.) Verfahren von Puri & Sen bzw. Winer: Die Varianzanalysetabelle für die rangtransformierten Daten
4 Daraus ergeben sich: MS total = 477,5 / 17 = 28,09 2 Patients = 24,50 / 28,09 = 0,872 2 Drugs = 65,33 / 28,09 =2,326 2 Interaktion = 240,33 / 28,09 = 8, Unabhängige Stichproben: mehrfaktoriell Die beiden o.a. Verfahren lasssen sich trivialerweise auch auf Versuchspläne mit mehr als zwei Faktoren anwenden. 4. Abhängige Stichproben: 1-faktoriell Auch hier wird - wie bei der klassischen Varianzanalyse - die Hypothese gleicher Gruppenmittelwerte getestet: 1 = 2 = = k Dies erfolgt bei abhängigen Stichproben, also Messwiederholungen, über den Friedman-Test, einer Verallgemeinerung des Wilcoxon-Tests von 2 auf beliebig viele Messwiederholungen. Für den Test wird ein Wert errechnet, der 2 -verteilt ist mit (k-1) Freiheitsgraden. Derselbe Test lässt sich auch über eine einfaktorielle klassische Varianzanalyse durchführen. Dies wird in Abschnitt 5.2 ausführlich beschrieben. 5. Abhängige Stichproben: Messwiederholungen auf 2 Faktoren Ausgangsbasis sind Messwiederholungen einer Variablen, die hinsichtlich zweier Faktoren strukturiert sind, z.b. Stressempfinden vor einem Trainingsprogramm, nach einem und nach 3 Monaten, sowie jeweils morgens und abends. Da zu allen Zeitpunkten an denselben Personen bzw. Erhebungseinheiten die Werte ermittelt wurden, entfällt hier eine Unterscheidung hinsichtlich balancierter Versuchspläne. 5.1 Verfahren von Bredenkamp Tests der Zwischensubjekteffekte Quadratsumme Mittel der Quelle vom Typ III df Quadrate F Sig. Korrigiertes Modell 330, ,033 5,378,008 Konstanter Term 1624, , ,312,000 patients 24, ,500 1,995,183 drug 65, ,667 2,661,111 patients * drug 240, ,167 9,787,003 Fehler 147, ,278 Gesamt 2102, Korrigierte Gesamtvariation 477, Nach der Methode von Bredenkamp wird zum Test der beiden Haupteffekte (A und B mit k bzw. l Stufen) jeweils ein Friedman-Test durchgeführt. Und zwar werden beim Test für A jeweils alle Werte zu A 1, alle Werte zu A 2 usw summiert und auf die Summen der Friedman- Test angewandt. Analog beim Test für B (Ergebnisse: 2 A und 2 B ). Zum Test der Interaktion
5 A*B wird ein Friedman-Test über alle Messwiederholungen durchgeführt (Ergebnis: 2 AB ), von dem erhaltenen 2 -Wert dann die 2 -Werte der Haupteffekte abgezogen und schließlich der Restwert anhand der Tabelle der 2 -Verteilung auf Signifikanz überprüft. Dieses Verfahren verläuft also analog dem oben besprochenen für unabhängige Stichproben. Leider hat sich gezeigt, dass die Berechnung der Interaktion auf diese Weise nicht korrekt ist, so dass davon abgeraten werden muss. 5.2 Verfahren von Winer und Shirley Besser lassen sich die Ergebnisse über eine Rangtransformation, anschließende klassische Varianzanalyse und Konstruktion von 2 -Tests erzielen (vgl. dazu o.a. Quelle: Winer, B.J. et.al.). Hierzu müssen die Variablen der Messwiederholungen in Ränge transformiert werden. Da SPSS keine fallweise Rangberechnung über mehrere Variablen erlaubt, sind einige Schritte dazu erforderlich (die in einem separaten Skript ausführlich beschrieben sind): 1. Über Daten -> Umstrukturieren -> Transponieren müssen die gewünschten Variablen in Fälle gewandelt werden. 2. Die aus den Fällen neu entstandenen Variablen werden über Transponieren -> Rangfolge bilden in Ränge umgerechnet. 3. Die neu entstandenen Rangvariablen müssen wieder wie oben transponiert werden. Auf diese Weise hat man die Variablen der Messwiederholungen in Ränge transformiert. Darauf wird nun die klassische Varianzanalyse mit Messwiederholungen angewandt. Die 2 -Tests für die Haupteffekte und die Interaktion werden wie folgt errechnet: 2 = SS Effekt SS Effekt + SS Fehler df Effekt + df Fehler wobei SS Effekt die Streuungsquadratsumme (Sum of Squares) des zu testenden Effektes (A, B oder A*B), SS Fehler die Streuungsquadratsumme des zum Effekt gehörenden Fehlers ist sowie df die entsprechenden Freiheitsgrade. Die 2 -Werte sind dann in den Tafeln für den 2 -Test auf Signifikanz zu überprüfen, wobei die Freiheitsgrade die Zählerfreiheitsgrade (df Effekt ) des entsprechenden F-Tests sind. 5.3 Beispielrechnung für den Datensatz von S. 537 aus dem Buch von B.J.Winer: Verfahren von Bredenkamp: Berechnung der Summen: compute time1=mean(v1,v2,v3). compute time2=mean(v4,v5,v6). compute time3=mean(v7,v8,v9). compute dial1=mean(v1,v4,v7). compute dial2=mean(v2,v5,v8). compute dial3=mean(v3,v6,v9). 2 time = 12,0 (2 Fg.) 2 dials 2 Zellen = 12,0 (2 Fg.) = 43,76 (8 Fg.) 2 Interaktion = 43,76-12,0-12,0 = 19,76 (4 Fg.) (Der kritische 2 -Wert für 4 Fg. und =0.05 beträgt 9,5.) Verfahren von Winer: Die Varianzanalysetabelle für die rangtransformierten Daten
6 Daraus ergeben sich: SS Time = 185 (2 Fg.) Fehler Time = 9,97 (10 Gf.) SS Dials = 139 (2Fg.) Fehler Dials = 13 (10Fg.) SS Interaktion = 3,22 (4 Fg.) Fehler Interaktion = 8,8 (20 Fg.) 2 Time 2 Dials 2 Interaktion = 185 / ( ,97)/(2 + 10) = 11,39 = 139 / ( )/(2 + 10) = 10,97 = 3,22 / (3,22 + 8,8)/(4 + 20) = 6,44 6. Abhängige Stichproben: Messwiederholungen auf 1 Faktor Hier wird ausgegangen von einem 2-faktoriellen Versuchsplan: ein Gruppierungsfaktor A (unabhängige Stichproben) und einem Messwiederholungsfaktor B (abhängige Stichproben). 6.1 Verfahren von Bredenkamp Tests der Innersubjekteffekte Quadratsumme Mittel der Quelle vom Typ III df Quadrate F Sig. Time Sphärizität angenommen 185, ,514 92,772,000 Greenhouse-Geisser 185,028 1,936 95,564 92,772,000 Huynh-Feldt 185,028 2,000 92,514 92,772,000 Untergrenze 185,028 1, ,028 92,772,000 Fehler(Time) Sphärizität angenommen 9,972 10,997 Greenhouse-Geisser 9,972 9,681 1,030 Huynh-Feldt 9,972 10,000,997 Untergrenze 9,972 5,000 1,994 Dials Sphärizität angenommen 139, ,500 53,462,000 Greenhouse-Geisser 139,000 1, ,948 53,462,000 Huynh-Feldt 139,000 1,672 83,151 53,462,000 Untergrenze 139,000 1, ,000 53,462,001 Fehler(Dials) Sphärizität angenommen 13, ,300 Greenhouse-Geisser 13,000 6,751 1,926 Huynh-Feldt 13,000 8,358 1,555 Untergrenze 13,000 5,000 2,600 Time * Dials Sphärizität angenommen 3,222 4,806 1,835,162 Greenhouse-Geisser 3,222 2,446 1,317 1,835,198 Huynh-Feldt 3,222 4,000,806 1,835,162 Untergrenze 3,222 1,000 3,222 1,835,233 Fehler(T*D) Sphärizität angenommen 8,778 20,439 Greenhouse-Geisser 8,778 12,232,718 Huynh-Feldt 8,778 20,000,439 Untergrenze 8,778 5,000 1,756 Nach dem Verfahren von Bredenkamp wird zum Test des Haupteffekts A pro Erhebungseinheit (z.b. Versuchsperson) die Summe aller Messwiederholungen errechnet. Hierauf wird dann der o.a. Kruskal-Wallis-H-Test angewandt. Zum Test des Haupteffekts B wird ein Friedman-Test über die Messwiederholungen durchgeführt, wobei die Gruppeneinteilung durch den Faktor A ignoriert wird. Für die Interaktion wird für jede Stufe des Faktors A ein Friedman-Test errechnet, die resultierende 2 -Werte aufsummiert, davon der 2 -Wert des Friedman-Tests des Haupteffekts B abgezogen und schließlich der Restwert anhand der Tabelle der 2 -Verteilung
7 auf Signifikanz überprüft.- 2 -Testwerte Freiheitsgrade 2 B (A 1 ) 2 B (A 2 ) B (A k ) - 2 B Summe( 2 B (A i )) - 2 B l-1 l-1 l-1 l-1 (k-1)(l-1) 6.2 Verfahren von Winer und Shirley Auch hier lassen sich die Ergebnisse über eine Rangtransformation, anschließende klassische Varianzanalyse und Konstruktion von 2 -Tests erzielen. Allerdings ist die Umrechnung der Rohwerte in Ränge etwas komplizierter. Die Schritte im Einzelnen: pro Erhebungseinheit (z.b. Versuchsperson) die Summe S aller Messwiederholungen errechnen; S in Ränge R S umrechnen; in SPSS müssen an dieser Stelle die Daten wie in 5. umstrukturiert werden, was in einem separaten Skript ausführlich beschrieben ist; pro Erhebungseinheit (z.b. Versuchsperson) die Rohwerte x i in Ränge R i umrechnen; die endgültigen Ränge errechnen sich als (R S -1)*l + R i, wobei l die Anzahl der Messwiederholungen ist. In SPSS müssen zum Schluss wieder die Daten umstrukturiert werden, um die ursprüngliche, normale Form der Datenmatrix zu erhalten. Zur Berechnung der Tests: Der Test des Gruppierungsfaktors A errechnet sich ähnlich wie in 2.3: 2 = SS Effekt MS zwischen Hier muss MS zwischen anstatt MS total ermittelt werden. Dazu werden die Streuungen von A und Fehler addiert und durch die Summe der entsprechenden Freiheitsgrade dividiert. Der Test des Messwiederholungsfaktors B erfolgt ähnlich wie in 5.2 beschrieben: 2 SS Effekt = MS innerhalb Für MS innerhalb werden die Streuungen von B, AB und Fehler addiert und durch die Summe der entsprechenden Freiheitsgrade dividiert.
8 6.3 Beispielrechnung für den Datensatz von S. 518 aus dem Buch von B.J.Winer: Verfahren von Bredenkamp: 2 A = 0,099 (1 Fg.) 2 B = 9,556 (2 Fg.) 2 B (A 1 ) = 9,333 (2 Fg.) 2 B (A 2 ) = 8,444 (2 Fg.) 2 Interaktion = 9, ,444-9,556 = 8,221 (2 Fg.) (Der kritische 2 -Wert für 2 Fg. und =0.05 beträgt 6.) Verfahren von Puri & Sen bzw. Winer: Zunächst die Rohdaten, Summe, Rangsumme und Rangwerte: Die Varianzanalysetabelle für Faktor A für die rangtransformierten Daten Tests der Zwischensubjekteffekte Quadratsumme Mittel der Quelle vom Typ III df Quadrate F Sig. Konstanter Term 7207, ,500 26,496,001 A 24, ,300,089,773 Fehler 2176, ,025 Die Varianzanalysetabelle für Faktor B für die rangtransformierten Daten Tests der Innersubjekteffekte Quelle Quadratsumme vom Typ III df Mittel der Quadrate F Sig. B Sphärizität angenommen 8, ,300 34,400,000 Greenhouse-Geisser 8,600 1,460 5,891 34,400,000 Huynh-Feldt 8,600 1,926 4,464 34,400,000 Untergrenze 8,600 1,000 8,600 34,400,000 B * A Sphärizität angenommen 7, ,700 29,600,000 Greenhouse-Geisser 7,400 1,460 5,069 29,600,000 Huynh-Feldt 7,400 1,926 3,841 29,600,000 Untergrenze 7,400 1,000 7,400 29,600,001 Fehler(B) Sphärizität angenommen 2,000 16,125 Greenhouse-Geisser 2,000 11,679,171 Huynh-Feldt 2,000 15,411,130 Untergrenze 2,000 8,000,250
9 SS A = 24,3 MS zwischen = (24, ,2)/(1 + 8) = 244,5 SS B = 8,6 SS Interaktion = 7,4 MS innerhalb = (8,6 + 7,4 + 2)/(2+2+16) = 0,9 2 (A) = 24,3/244,5 = 0,099 (1 Fg.) 2 (B) = 8,6/0,9 = 9,5 (2 Fg.) 2 Interaktion = 7,4/0,9 = 8,2 (2 Fg.) (Der kritische 2 -Wert für 2 Fg. und =0.05 beträgt 6.) 7. Multiple Mittelwertvergleiche Insbesondere im Falle signifikanter Haupteffekte, falls der Faktor drei oder mehr Stufen hat, interessiert, zwischen welchen Stufen Unterschiede bestehen. Hierzu werden üblicherweise sog. post-hoc-tests herangezogen. Allerdings gibt im Falle nichtparametrischer Analysen hierfür keine speziellen Verfahren, wie es z.b. die Tests von Tukey, Newman-Keuls, Scheffe oder Duncan im parametrischen Fall sind. Dennoch gibt es zwei Notbehelfe : Paarvergleiche mit einer -Korrektur: Z.B. nach der Methode von Bonferroni. Diese besagt, dass bei m durchgeführten Paarvergleichen die p-werte nicht mit sondern mit /m auf Signifikanz zu vergleichen sind. Oder alternativ die p-werte mit m zu multiplizieren sind. Diese multiplen Vergleiche mit einer - Korrektur können im Zusammenhang mit dem Kruskal-Wallis-H-Test oder dem Friedman- Test in SPSS angefordert werden. Oder nach der Methode von Holm. Bei dieser wird von m durchgeführten Paarvergleichen der kleinste p-wert mit /m auf Signifikanz überprüft. Bei einem signifikanten Ergebnis darf der nächst kleinere p-wert mit /(m-1) auf Signifikanz überprüft werden usw.. Anwendung der o.a. parametrischen multiplen Mittelwertvergleiche (wie z.b. Newman- Keuls-Test) auf die in Ränge transformierten Daten. Man nennt diese Methode rank transform tests. Bei Conover, W. J. & Iman, R. L. (Rank transformations as a bridge between parametric and nonparametric statistics, 1981, American Statistician 35 (3): ) ist nachzulesen, dass dies zu brauchbaren Ergebnissen führt, obwohl für diese Tests allgemein eine strikte Einhaltung der Voraussetzungen (Varianzhomogenität und Normalverteilung) empfohlen wird. 8. Varianzanalysen für dichotome Variablen 8.1. Unabhängige Stichproben Für den Vergleich von k unabhängige Gruppen oder mehrfaktorielle Analysen bei einer dichotomen abhängigen Variablen gibt es die folgenden Methoden: Kontingenztabellenanalyse Logistische Begression Klassische Varianzanalyse (bei großer Fallzahl) (Faustregeln: Ist p > 0.2 sollte der Fehlerterm mindestens 20 Fg haben, ist p < 0.2 sollte er mindestens 40 Fg haben.) nichtparametrische Varianzanalyse (vgl. 1. und 2.)
10 Allerdings lassen sich die o.a. Verfahren nicht so ohne weiteres für sog. Einzelvergleiche (sog. posthoc-tests) anwenden. Immer möglich sind paarweise Vergleiche, bei denen die Irrtumswahrscheinlichkeit bzgl. der Anzahl der Vergleiche korrigiert wird, z.b. über die (leider sehr konservative) Bonferroni-Adjustierung ( <- /m, wenn m die Anzahl der Vergleiche ist). Bei der Kontingenztabellenanalyse gibt es die Möglichkeit Untertabellen zu vergleichen, was entsprechende Hypothesen voraussetzt und in etwa der Methode der linearen Kontraste bei metrischen Variablen entspricht Abhängige Stichproben Für den Vergleich von k abhängigen Stichproben gibt es Cochran s Q-Test (identisch mit dem Friedman-Test bei ordinalen Merkmalen) Klassische Varianzanalyse (bei großer Fallzahl) Bei mehrfaktoriellen Varianzanalysen mit abhängigen Stichproben bei einer dichotomen abhängigen Variablen gibt es letztlich dieselben Möglichkeiten: entweder Handhabung wie eine ordinale Variable und Anwendung der o.a. nichtparametrischen Analysen (vgl. 4. bis 6.) oder bei großer Fallzahl Durchführung einer klassischen Varianzanalyse. Haiko Lüpsen Regionales Rechenzentrum der Universität zu Köln
Nichtparametrische statistische Verfahren
Nichtparametrische statistische Verfahren (im Wesentlichen Analyse von Abhängigkeiten) Kategorien von nichtparametrischen Methoden Beispiel für Rangsummentests: Wilcoxon-Test / U-Test Varianzanalysen 1-faktorielle
Mehr5. Lektion: Einfache Signifikanztests
Seite 1 von 7 5. Lektion: Einfache Signifikanztests Ziel dieser Lektion: Du ordnest Deinen Fragestellungen und Hypothesen die passenden einfachen Signifikanztests zu. Inhalt: 5.1 Zwei kategoriale Variablen
MehrHypothesentests mit SPSS
Beispiel für eine zweifaktorielle Varianzanalyse mit Messwiederholung auf einem Faktor (univariate Lösung) Daten: POKIII_AG4_V06.SAV Hypothese: Die physische Attraktivität der Bildperson und das Geschlecht
MehrEinführung in die Varianzanalyse mit SPSS
Einführung in die Varianzanalyse mit SPSS SPSS-Benutzertreffen am URZ Carina Ortseifen 6. Mai 00 Inhalt. Varianzanalyse. Prozedur ONEWAY. Vergleich von k Gruppen 4. Multiple Vergleiche 5. Modellvoraussetzungen
MehrSPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben
SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben ÜBERSICHT: Testverfahren bei abhängigen (verbundenen) Stichproben parametrisch nicht-parametrisch 2 Gruppen t-test bei verbundenen
MehrKontingentabellenanalyse
Kontingentabellenanalyse 1. Elementares Ausgangsbasis ist zunächst eine 2-dimensionale Kontingenztabelle mit den Häufigkeiten b 1 b j b l Summe a 1 n 11 n1j... n 1l n1* a i n i1 n ij n il n i* a k n k1
MehrAufgaben zu Kapitel 7:
Aufgaben zu Kapitel 7: Aufgabe 1: In einer Klinik sollen zwei verschiedene Therapiemethoden miteinander verglichen werden. Zur Messung des Therapieerfolges werden die vorhandenen Symptome einmal vor Beginn
MehrStatistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften Post Hoc Tests A priori Tests (Kontraste) Nicht-parametrischer Vergleich von Mittelwerten 50 Ergebnis der ANOVA Sprossdichte der Seegräser 40 30 20 10
MehrAllgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse
Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse Univariate Varianz- und Kovarianzanlyse, Multivariate Varianzanalyse und Varianzanalyse mit Messwiederholung finden sich unter
MehrOnline Statistik-Coaching
Online Statistik-Coaching Modul 3 Statistisches Testen - Auswahl der passenden Methode - Durchführung mit SPSS - Interpretation und Darstellung Dipl.-Math. Daniela Keller www.statistik-und-beratung.de
MehrKapitel 6: Zweifaktorielle Varianzanalyse
Kapitel 6: Zweifaktorielle Varianzanalyse Berechnen der Teststärke a priori bzw. Stichprobenumfangsplanung 1 Teststärkebestimmung a posteriori 4 Berechnen der Effektgröße f² aus empirischen Daten und Bestimmung
MehrSozialwissenschaftlerInnen II
Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Varianzanalyse Statistik
MehrAnwendungsaufgaben. Effektgröße bei df Zähler = df A = 1 und N = 40 (zu berechnen aus df Nenner ): Der aufgedeckte Effekt beträgt also etwa 23 %.
Anhang A: Lösungen der Aufgaben 39 beiden Kombinationen sehr hoch ist. (Dieses Ergebnis wäre aber in diesem Beispiel nicht plausibel.) 5. Der Faktor A und die Wechselwirkung werden signifikant: Lärm hat
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt Statistik & Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de
MehrKapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten
Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten 5.1. Einführung Einfaktorielle Varianzanalyse Überprüft die Auswirkung einer gestuften (s), unabhängigen Variable X, auch Faktor
MehrMehrfaktorielle Varianzanalyse
Professur E-Learning und Neue Medien Institut für Medienforschung Philosophische Fakultät Einführung in die Statistik Mehrfaktorielle Varianzanalyse Überblick Einführung Empirische F-Werte zu einer zweifaktoriellen
MehrSigmaStat Nina Becker, Christoph. Rothenwöhrer. Copyright 2004 Systat Software, Inc.
SigmaStat 3.11 Copyright 2004 Systat Software, Inc. http://www.systat.com Nina Becker, Christoph Rothenwöhrer Die Aufgabe der Statistik ist die Zusammenfassung von Daten, deren Darstellung, Analyse und
MehrVarianzanalysen - Prüfen der Voraussetzungen und nichtparametrische Methoden sowie praktische Anwendungen mit R und SPSS
Varianzanalysen - Prüfen der Voraussetzungen und nichtparametrische Methoden sowie praktische Anwendungen mit R und SPSS Version 1.1 (2.3.2015) Haiko Lüpsen Regionales Rechenzentrum (RRZK) Kontakt: Luepsen@Uni-Koeln.de
MehrLernziele Experimentelles Praktikum
Lernziele Experimentelles Praktikum Inhaltsverzeichnis 1. Theoretischer Hintergrund des Artikels 2. Grundlagen des Experimentierens 3. Schritte der allgemeinen Versuchsplanung 4. Unabhängige Variablen
MehrPrüfungsliteratur: Rudolf & Müller S
1 Beispiele zur univariaten Varianzanalyse Einfaktorielle Varianzanalyse (Wiederholung!) 3 Allgemeines lineares Modell 4 Zweifaktorielle Varianzanalyse 5 Multivariate Varianzanalyse 6 Varianzanalyse mit
MehrWebergänzung zu Kapitel 10
10.1.5 Varianzanalyse (ANOVA: analysis of variance ) Im Kapitel 10 haben wir uns hauptsächlich mit Forschungsbeispielen beschäftigt, die nur zwei Ergebnissätze hatten (entweder werden zwei unterschiedliche
MehrKapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten
Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten 5.1. Einführung Einfaktorielle Varianzanalyse Überprüft die Auswirkung einer gestuften (s), unabhängigen Variable X, auch Faktor
MehrVarianzanalysen - Prüfen der Voraussetzungen und nichtparametrische Methoden sowie praktische Anwendungen mit R und SPSS
Varianzanalysen - Prüfen der Voraussetzungen und nichtparametrische Methoden sowie praktische Anwendungen mit R und SPSS Version 2.4 (20.7.2017) Haiko Lüpsen Regionales Rechenzentrum (RRZK) Kontakt: Luepsen@Uni-Koeln.de
MehrWeitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell
Einfaktorielle Versuchspläne 27/40 Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Abweichung Einfach Differenz Helmert Wiederholt Vergleich Jede Gruppe mit Gesamtmittelwert
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Faktorielle Varianzanalyse
Wahrscheinlichkeitsrechnung und Statistik für Biologen Faktorielle Varianzanalyse Dirk Metzler & Martin Hutzenthaler 15. Juni 2010 Inhaltsverzeichnis 1 Die einfaktorielle Varianzanalyse und der F -Test
MehrAufgaben zu Kapitel 7:
Aufgaben zu Kapitel 7: Aufgabe 1: In einer Klinik sollen zwei verschiedene Therapiemethoden miteinander verglichen werden. Zur Messung des Therapieerfolges werden die vorhandenen Symptome einmal vor Beginn
MehrAufgaben zu Kapitel 8
Aufgaben zu Kapitel 8 Aufgabe 1 a) Berechnen Sie einen U-Test für das in Kapitel 8.1 besprochene Beispiel mit verbundenen Rängen. Die entsprechende Testvariable punkte2 finden Sie im Datensatz Rangdaten.sav.
MehrKapitel 5: Einfaktorielle Varianzanalyse
Kapitel 5: Einfaktorielle Varianzanalyse Durchführung einer einfaktoriellen Varianzanalyse ohne Messwiederholung Dieser Abschnitt zeigt die Durchführung der in Kapitel 5 vorgestellten einfaktoriellen Varianzanalyse
MehrMesswiederholungen und abhängige Messungen
Messwiederholungen und abhängige Messungen t Tests und Varianzanalysen für Messwiederholungen Kovarianzanalyse Thomas Schäfer SS 009 1 Messwiederholungen und abhängige Messungen Bei einer Messwiederholung
MehrSkript zur Vorlesung Statistik 2
Weder die Autorin noch der Fachschaftsrat Psychologie übernimmt Irgendwelche Verantwortung für dieses Skript. Das Skript soll nicht die Lektüre der Prüfungsliteratur ersetzen. Verbesserungen und Korrekturen
MehrPrüfen von Unterschiedshypothesen für ordinale Variablen: Mann-Whitney Test und Ko
Prüfen von Unterschiedshypothesen für ordinale Variablen: Mann-Whitney Test und Ko Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik
MehrAufgaben zu Kapitel 8
Aufgaben zu Kapitel 8 Aufgabe 1 a) Berechnen Sie einen U-Test für das in Kapitel 8.1 besprochene Beispiel mit verbundenen n. Die entsprechende Testvariable punkte2 finden Sie im Datensatz Rangdaten.sav.
MehrInferenzstatistik Vergleich mehrerer Stichproben - Varianzanalyse
Vergleich mehrerer Stichproben - Varianzanalyse Zweifache VA mit hierarchischen Faktoren Voraussetzungen zwei unabhängige Variablen (Faktoren), die unabhängige Gruppen definiert zweite Faktor ist innerhalb
MehrParametrische vs. Non-Parametrische Testverfahren
Parametrische vs. Non-Parametrische Testverfahren Parametrische Verfahren haben die Besonderheit, dass sie auf Annahmen zur Verteilung der Messwerte in der Population beruhen: die Messwerte sollten einer
MehrUE Angewandte Statistik Termin 4 Gruppenvergleichstests
UE Angewandte Statistik Termin 4 Gruppenvergleichstests Martina Koller Institut für Pflegewissenschaft SoSe 2015 INHALT 1 Allgemeiner Überblick... 1 2 Normalverteilung... 2 2.1 Explorative Datenanalyse...
MehrPsychologische Methodenlehre Statistik
RAINER LEONHART Psychologische Methodenlehre Statistik Mit 21 Abbildungen und 40 Tabellen Mit 64 Ubungsfragen Ernst Reinhardt Verlag Miinchen Basel Inhalt Vorwort 9 1 Einfuhrung in die Forschungsmethoden
MehrInhaltsverzeichnis. Über die Autoren Einleitung... 21
Inhaltsverzeichnis Über die Autoren.... 7 Einleitung... 21 Über dieses Buch... 21 Was Sie nicht lesen müssen... 22 Törichte Annahmen über den Leser... 22 Wie dieses Buch aufgebaut ist... 23 Symbole, die
Mehr1. Es sind einfach zu viele! Varianzanalytische Verfahren.
1. Es sind einfach zu viele! Varianzanalytische Verfahren. In diesem Kapitel behandeln wir die Varianzanalyse (ANOVA). Varianzanalysen kommen in sehr sehr vielen verschiedenen Gestalten einher. Das Ziel
MehrZweifache Varianzanalyse
Zweifache Varianzanalyse Man kann mittels VA auch den (gleichzeitigen) Einfluss mehrerer Faktoren (unabhängige Variablen) auf ein bestimmtes Merkmal (abhängige Variable) analysieren. Die Wirkungen werden
MehrKapitel 8: Verfahren für Rangdaten
Kapitel 8: Verfahren für Rangdaten Anmerkung 1 Mann-Whitney U-Test 1 Wilcoxon-Test 3 Kruskal-Wallis H-Test 3 Literatur 6 Anmerkung In Kapitel 8 der Bücher wird erwähnt, dass für nichtparametrische Daten
MehrAbb. 7: Body-Mass-Index der 71 untersuchten Patienten unterteilt nach Geschlecht.
4 ERGEBNISSE 4.1 Body-Mass-Index (BMI) Von den 71 untersuchten Patienten, 55 Männern und 16 Frauen, wurde der Body-Mass- Index bestimmt. Untergewicht besaßen 18% der Männer. 36% waren normalgewichtig und
MehrInhaltsverzeichnis Einführung und deskriptive Statistik Grundlagen der Inferenzstatistik 1: Zufallsvariablen
Inhaltsverzeichnis 1 Einführung und deskriptive Statistik... 1 1.1 Wichtige mathematische Schreibweisen... 1 1.1.1 Das Summenzeichen... 1 1.1.2 Mengentheoretische Schreibweisen... 3 1.1.3 Variablentransformationen...
MehrBeispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben
Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben Es wurden die Körpergrößen von 3 Versuchspersonen, sowie Alter und Geschlecht erhoben. (Jeweils Größen pro Faktorstufenkombination). (a)
MehrHypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav
Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Hypothese: Die Beschäftigung mit Kunst ist vom Bildungsgrad abhängig. 1. Annahmen Messniveau: Modell: Die Skala zur Erfassung der
MehrErgebnisse VitA und VitVM
Ergebnisse VitA und VitVM 1 Basisparameter... 2 1.1 n... 2 1.2 Alter... 2 1.3 Geschlecht... 5 1.4 Beobachtungszeitraum (von 1. Datum bis letzte in situ)... 9 2 Extraktion... 11 3 Extraktionsgründe... 15
Mehr12 Rangtests zum Vergleich zentraler Tendenzen
12 Rangtests zum Vergleich zentraler Tendenzen 12.1 Allgemeine Bemerkungen 12.2 Gepaarte Stichproben: Der Wilcoxon Vorzeichen- Rangtest 12.3 Unabhängige Stichproben: Der Wilcoxon Rangsummentest und der
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 6-6) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de
MehrComputergestützte Methoden. Master of Science Prof. Dr. G. H. Franke WS 07/08
Computergestützte Methoden Master of Science Prof. Dr. G. H. Franke WS 07/08 1 Seminarübersicht 1. Einführung 2. Recherchen mit Datenbanken 3. Erstellung eines Datenfeldes 4. Skalenniveau und Skalierung
MehrEinleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse
Einleitung Statistik Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Der Begriff Varianzanalyse (analysis of variance, ANOVA) taucht an vielen Stellen in der Statistik mit unterschiedlichen
MehrEinfache Varianzanalyse für unabhängige Stichproben
Einfache Varianzanalyse für unabhängige Stichproben VARIANZANALYSE Die Varianzanalyse ist das dem t-test entsprechende Mittel zum Vergleich mehrerer (k 2) Stichprobenmittelwerte. Sie wird hier mit VA abgekürzt,
MehrStatistik II Übung 3: Hypothesentests
Statistik II Übung 3: Hypothesentests Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier Stichproben). Verwenden
MehrSignifikanzprüfung. Peter Wilhelm Herbstsemester 2014
Signifikanzprüfung Peter Wilhelm Herbstsemester 2014 1.) Auswahl des passenden Tests 2.) Begründete Festlegung des Alpha- Fehlers nach Abschätzung der Power 3.) Überprüfung der Voraussetzungen 4.) Durchführung
Mehrfh management, communication & it Constantin von Craushaar fh-management, communication & it Statistik Angewandte Statistik
fh management, communication & it Folie 1 Überblick Grundlagen (Testvoraussetzungen) Mittelwertvergleiche (t-test,..) Nichtparametrische Tests Korrelationen Regressionsanalyse... Folie 2 Überblick... Varianzanalyse
MehrEinfaktorielle Varianzanalyse
Kapitel 16 Einfaktorielle Varianzanalyse Im Zweistichprobenproblem vergleichen wir zwei Verfahren miteinander. Nun wollen wir mehr als zwei Verfahren betrachten, wobei wir unverbunden vorgehen. Beispiel
MehrStatistik II Übung 3: Hypothesentests Aktualisiert am
Statistik II Übung 3: Hypothesentests Aktualisiert am 12.04.2017 Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier
MehrEinfaktorielle Varianzanalyse
Professur Psychologie digitaler Lernmedien Institut für Medienforschung Philosophische Fakultät Einführung in die Statistik Einfaktorielle Varianzanalyse Überblick Einführung Alphafehler-Kumulierung Grundprinzip
MehrIm Modell der Varianzanalyse (mit festen Effekten) ist das. aus dem Durchschnittsmesswert für y plus dem Effekt des.
Einfatorielle Varianzanalyse Varianzanalyse untersucht den Einfluss verschiedener Bedingungen ( = nominalsalierte(r) Variable(r)) auf eine metrische Variable. Die Bedingungen heißen auch atoren und ihre
MehrLösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 7 a)
LÖSUNG 7 a) Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 Aufrufen der Varianzanalyse: "Analysieren", "Mittelwerte vergleichen", "Einfaktorielle ANOVA ", "Abhängige Variablen:" TVHOURS;
MehrTest-Finder. Inhalt. Orientierung im Test-Chaos Dipl.-Psych. Dr. Guido Strunk
Test-Finder 1 Test-Finder Orientierung im Test-Chaos Dipl.-Psych. Dr. Guido Strunk Inhalt 1 Grundlagen... 2 2 Maße der zentralen Tendenz vergleichen Zwei Gruppen... 3 2.1 T-Test für unabhängige Daten...
MehrUnterschiedshypothesen für maximal 2 Gruppen, wenn die Voraussetzungen für parametrische Verfahren nicht erfüllt sind
Schäfer A & Schöttker-Königer T, Statistik und quantitative Methoden für (2015) Arbeitsblatt 1 SPSS Kapitel 6 Seite 1 Unterschiedshypothesen für maximal 2 Gruppen, wenn die Voraussetzungen für parametrische
Mehrmethodenlehre ll ALM und Mehrfaktorielle ANOVA Mehrfaktorielle ANOVA methodenlehre ll ALM und Mehrfaktorielle ANOVA
15.04.009 Das Allgemeine lineare Modell Post hoc Tests bei der ANOVA Mehrfatorielle ANOVA Thomas Schäfer SS 009 1 Das Allgemeine lineare Modell (ALM) Varianz als Schlüsselonzept "The main technical function
MehrStatistik-Team. Tobias Kley: Übung: Freitag, Uhr, HGA 10 Tutorium (SPSS) - ab
Statistik-Team Tobias Kley: tobikley@uni-muenster.de Übung: Freitag, 9.00-10.00 Uhr, HGA 10 Tutorium (SPSS) - ab 26.10.2009 Koordination: Dr. Helge Thiemann Helge.Thiemann-i5m@ruhr-uni-bochum.de 0234/
MehrInformationen zur KLAUSUR am
Wiederholung und Fragen 1 Informationen zur KLAUSUR am 24.07.2009 Raum: 032, Zeit : 8:00 9:30 Uhr Bitte Lichtbildausweis mitbringen! (wird vor der Klausur kontrolliert) Erlaubte Hilfsmittel: Alle Unterlagen,
MehrPROC NPAR1WAY. zum Durchführen des U-Tests für zwei unverbundene Stichproben (für quantitative nicht-normalverteilte Merkmale)
PROC NPAR1WAY zum Durchführen des U-Tests für zwei unverbundene Stichproben (für quantitative nicht-normalverteilte Merkmale) Allgemeine Form: PROC NPAR1WAY DATA=name Optionen ; VAR variablenliste ; CLASS
MehrÜberblick über die Verfahren für Ordinaldaten
Verfahren zur Analyse ordinalskalierten Daten 1 Überblick über die Verfahren für Ordinaldaten Unterschiede bei unabhängigen Stichproben Test U Test nach Mann & Whitney H Test nach Kruskal & Wallis parametrische
MehrVarianzanalyse * (1) Varianzanalyse (2)
Varianzanalyse * (1) Einfaktorielle Varianzanalyse (I) Die Varianzanalyse (ANOVA = ANalysis Of VAriance) wird benutzt, um Unterschiede zwischen Mittelwerten von drei oder mehr Stichproben auf Signifikanz
MehrEinführung in die Statistik für Politikwissenschaftler Sommersemester 2011
Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011 Es können von den Antworten alle, mehrere oder keine Antwort(en) richtig sein. Nur bei einer korrekten Antwort (ohne Auslassungen
MehrDie ungeliebten Verwandten: nicht-parametrische Alternativen
1.1.1. Die ungeliebten Verwandten: nicht-parametrische Alternativen 1.1.1.1. Was zur Hölle? Ted richtet seine Waffe auf Dr. Bob Kelso: Nein, Bob! Das werde ich nicht tun! Nicht nach all dem, was ich durchmachen
MehrVarianzanalytische Methoden Zweifaktorielle Versuchspläne 4/13. Durchführung in SPSS (File Trait Angst.sav)
Zweifaktorielle Versuchspläne 4/13 Durchführung in SPSS (File Trait Angst.sav) Analysieren > Allgemeines Lineares Modell > Univariat Zweifaktorielle Versuchspläne 5/13 Haupteffekte Geschlecht und Gruppe
MehrStatistik-Quiz Sommersemester
Statistik-Quiz Sommersemester Seite 1 von 8 Statistik-Quiz Sommersemester Die richtigen Lösungen sind mit gekennzeichnet. 1 In einer Gruppe von 337 Probandinnen und Probanden wurden verschiedene Merkmale
MehrAufgaben zu Kapitel 9
Aufgaben zu Kapitel 9 Aufgabe 1 Für diese Aufgabe benötigen Sie den Datensatz Nominaldaten.sav. a) Sie arbeiten für eine Marktforschungsfirma und sollen überprüfen ob die in diesem Datensatz untersuchte
MehrANalysis Of VAriance (ANOVA) 1/2
ANalysis Of VAriance (ANOVA) 1/2 Markus Kalisch 16.10.2014 1 ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich)?
MehrStatistik. Jan Müller
Statistik Jan Müller Skalenniveau Nominalskala: Diese Skala basiert auf einem Satz von qualitativen Attributen. Es existiert kein Kriterium, nach dem die Punkte einer nominal skalierten Variablen anzuordnen
MehrMathematische und statistische Methoden II
Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike
MehrNicht-parametrische Verfahren k > 2 unabhängige Stichproben: Kruskal-Wallis-Test 1/12
k > 2 unabhängige Stichproben: Kruskal-Wallis-Test 1/12 Kruskal-Wallis-Test (H-Test; Kruskal & Wallis, 1952)ist Verallgemeinerung der Prinzipien des U-Test für k> 2 Stichproben klassisches Pendant der
Mehr# Befehl für den Lilliefors-Test
1/5 Matthias Rudolf & Diana Vogel R-Kurs Graduiertenakademie September 2017 Loesungsskript: Tests 1a library(nortest) 1b lillie.test Befehl für den Lilliefors-Test 2a, Datensatz "Schachbeispiel einlesen"
MehrVarianzanalyse (ANOVA: analysis of variance)
Varianzanalyse (AOVA: analysis of variance) Einfaktorielle VA Auf der Basis von zwei Stichproben wird bezüglich der Gleichheit der Mittelwerte getestet. Variablen müssen Variablen nur nominalskaliert sein.
MehrAngewandte Statistik 3. Semester
Angewandte Statistik 3. Semester Übung 5 Grundlagen der Statistik Übersicht Semester 1 Einführung ins SPSS Auswertung im SPSS anhand eines Beispieles Häufigkeitsauswertungen Grafiken Statistische Grundlagen
MehrInteraktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie
Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie 1 Einleitung 3 2 Modell mit 0-1 kodierten nominalen Prädiktoren X 1
MehrStatistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften t-test Varianzanalyse (ANOVA) Übersicht Vergleich von Mittelwerten 2 Gruppen: t-test einfaktorielle ANOVA > 2 Gruppen: einfaktorielle ANOVA Seeigel und
Mehr1. Inhaltsverzeichnis. 2. Abbildungsverzeichnis
1. Inhaltsverzeichnis 1. Inhaltsverzeichnis... 1 2. Abbildungsverzeichnis... 1 3. Einleitung... 2 4. Beschreibung der Datenquelle...2 5. Allgemeine Auswertungen...3 6. Detaillierte Auswertungen... 7 Zusammenhang
MehrStatistik II: Signifikanztests /1
Medien Institut : Signifikanztests /1 Dr. Andreas Vlašić Medien Institut (0621) 52 67 44 vlasic@medien-institut.de Gliederung 1. Noch einmal: Grundlagen des Signifikanztests 2. Der chi 2 -Test 3. Der t-test
MehrStatistik-Klausur A WS 2009/10
Statistik-Klausur A WS 2009/10 Name: Vorname: Immatrikulationsnummer: Studiengang: Hiermit erkläre ich meine Prüfungsfähigkeit vor Beginn der Prüfung. Unterschrift: Dauer der Klausur: Erlaubte Hilfsmittel:
MehrANalysis Of VAriance (ANOVA) 2/2
ANalysis Of VAriance (ANOVA) 2/2 Markus Kalisch 22.10.2014 1 Wdh: ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor X). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich
MehrANOVA und Transformationen. Statistik II
und Statistik II Wiederholung Literatur Statistik II und (1/28) Literatur Zum Nachlesen Agresti ch. 12 (nur bis Seite 381) Agresti ch. 13 (nur bis Seite 428) Statistik II und (2/28) Literatur für nächste
MehrQuantitative Methoden (Vertretung für Prof. Th. Pechmann)
Quantitative Methoden (Vertretung für Prof. Th. Pechmann) Inferenzstatistik III: Varianzanalyse (ANOVA) Andreas Opitz Universität Leipzig Institut für Linguistik Fragen, die Sie nach der letzten Sitzung
MehrVS PLUS
VS PLUS Zusatzinformationen zu Medien des VS Verlags Statistik II Inferenzstatistik 2010 Übungsaufgaben und Lösungen Inferenzstatistik 2 [Übungsaufgaben und Lösungenn - Inferenzstatistik 2] ÜBUNGSAUFGABEN
MehrEigene MC-Fragen SPSS. 1. Zutreffend auf die Datenerfassung und Datenaufbereitung in SPSS ist
Eigene MC-Fragen SPSS 1. Zutreffend auf die Datenerfassung und Datenaufbereitung in SPSS ist [a] In der Variablenansicht werden für die betrachteten Merkmale SPSS Variablen definiert. [b] Das Daten-Editor-Fenster
MehrGrundlagen sportwissenschaftlicher Forschung Inferenzstatistik 2
Grundlagen sportwissenschaftlicher Forschung Inferenzstatistik 2 Dr. Jan-Peter Brückner jpbrueckner@email.uni-kiel.de R.216 Tel. 880 4717 Statistischer Schluss Voraussetzungen z.b. bzgl. Skalenniveau und
MehrInhaltsverzeichnis. Vorwort
V Vorwort XI 1 Zum Gebrauch dieses Buches 1 1.1 Einführung 1 1.2 Der Text in den Kapiteln 1 1.3 Was Sie bei auftretenden Problemen tun sollten 2 1.4 Wichtig zu wissen 3 1.5 Zahlenbeispiele im Text 3 1.6
MehrEtwas positive Tendenz ist beim Wechsel der Temperatur von 120 auf 170 zu erkennen.
Explorative Datenanalyse Erstmal die Grafiken: Aufreisskraft und Temperatur 3 1-1 N = 1 15 17 Temperatur Diagramm 3 1 95% CI -1 N = 1 15 17 Temperatur Etwas positive Tendenz ist beim Wechsel der Temperatur
MehrHypothesentests mit SPSS
Beispiel für eine einfache Regressionsanalyse (mit Überprüfung der Voraussetzungen) Daten: bedrohfb_v07.sav Hypothese: Die Skalenwerte auf der ATB-Skala (Skala zur Erfassung der Angst vor terroristischen
MehrStatistik II Übung 4: Skalierung und asymptotische Eigenschaften
Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden
Mehr