Online Statistik-Coaching

Ähnliche Dokumente
5. Lektion: Einfache Signifikanztests

UE Angewandte Statistik Termin 4 Gruppenvergleichstests

Parametrische vs. Non-Parametrische Testverfahren

Statistik II Übung 3: Hypothesentests

fh management, communication & it Constantin von Craushaar fh-management, communication & it Statistik Angewandte Statistik

Statistik II: Signifikanztests /1

SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben

Computergestützte Methoden. Master of Science Prof. Dr. G. H. Franke WS 07/08

Statistik II Übung 3: Hypothesentests Aktualisiert am

Einfache statistische Auswertungen mit dem Programm SPSS

Hypothesentests mit SPSS

Statistisches Testen

Statistische Methoden in den Umweltwissenschaften

Aufgaben zu Kapitel 3

Inhaltsverzeichnis. Über die Autoren Einleitung... 21

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien

Angewandte Statistik 3. Semester

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1

Statistik. Jan Müller

Statistische Tests (Signifikanztests)

Ergebnisse VitA und VitVM

Eigene MC-Fragen SPSS. 1. Zutreffend auf die Datenerfassung und Datenaufbereitung in SPSS ist

Aufgaben zu Kapitel 9

12 Rangtests zum Vergleich zentraler Tendenzen

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011

Statistik III Regressionsanalyse, Varianzanalyse und Verfahren bei Messwiederholung mit SPSS

Bereiche der Statistik

Aufgaben zu Kapitel 5:

Zusammenhangsanalyse mit SPSS. Messung der Intensität und/oder der Richtung des Zusammenhangs zwischen 2 oder mehr Variablen

Ermitteln Sie auf 2 Dezimalstellen genau die folgenden Kenngrößen der bivariaten Verteilung der Merkmale Weite und Zeit:

Statistik II für Betriebswirte Vorlesung 1

Klassifikation von Signifikanztests

Name Vorname Matrikelnummer Unterschrift

Kapitel 5: Einfaktorielle Varianzanalyse

Unterschiedshypothesen für maximal 2 Gruppen, wenn die Voraussetzungen für parametrische Verfahren nicht erfüllt sind

Überblick über die Verfahren für Ordinaldaten

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003

Kapitel 3: Der t-test

Schließende Statistik

Aufgaben zu Kapitel 7:

Hypothesentests mit SPSS

3. Lektion: Deskriptive Statistik

Übung 4 im Fach "Biometrie / Q1"

» S C H R I T T - F Ü R - S C H R I T T - A N L E I T U N G «M U L T I P L E L I N E A R E R E G R E S S I O N M I T S P S S / I B M Daniela Keller

5. Seminar Statistik

Einfaktorielle Varianzanalyse

2. Formulieren von Hypothesen. Nullhypothese: H 0 : µ = 0 Gerät exakt geeicht

Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester 2009, Statistik mit SPSS

Statistik II. IV. Hypothesentests. Martin Huber

entschieden hat, obwohl die Merkmalsausprägungen in der Grundgesamtheit voneinander abhängig sind.

Hypothesentests mit SPSS. Beispiel für einen t-test

Statistische Methoden in den Umweltwissenschaften

Statistik II. IV. Hypothesentests. Martin Huber

Anwendungsaufgaben. Effektgröße bei df Zähler = df A = 1 und N = 40 (zu berechnen aus df Nenner ): Der aufgedeckte Effekt beträgt also etwa 23 %.

Einführung in die Varianzanalyse mit SPSS

Einführung in SPSS. Sitzung 4: Bivariate Zusammenhänge. Knut Wenzig. 27. Januar 2005

Kapitel 8: Verfahren für Rangdaten

STATISTISCHE MUSTERANALYSE - DARSTELLUNGSVORSCHLAG

Statistische Messdatenauswertung

Analytische Statistik II

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 7 a)

Signifikanzprüfung. Peter Wilhelm Herbstsemester 2014

Hypothesentests mit SPSS

5. Kolmogorov-Smirnov-Test und χ 2 -Anpassungstest

Allgemeines zu Tests. Statistische Hypothesentests

Die ungeliebten Verwandten: nicht-parametrische Alternativen

Hypothesenbasierende Untersuchungen. Hypothesenbasierende Untersuchungen

Franz Kronthaler. Statistik angewandt. Datenanalyse ist (k)eine Kunst. mit dem R Commander. A Springer Spektrum

1.1. Vergleich von Mittelwerten

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Informationen zur KLAUSUR am

Signifikanztests zur Prüfung von Unterschieden in der zentralen Tendenz -Teil 1-

Tutorial:Unabhängigkeitstest

Aufgaben zu Kapitel 8

Vorlesung: Statistik II für Wirtschaftswissenschaft

Einfache statistische Testverfahren

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

Kapitel 4: Merkmalszusammenhänge

Klassifikation von Signifikanztests

Bonus-Lektion: Prüfung der Voraussetzungen und Transformationen

KATA LOGO Mathematik Statistik Roadmap: Von der Hypothese zum p-wert

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS

Analyse von Kontingenztafeln

Bivariater Zusammenhang in der Vierfeldertafel PEΣO

Einstieg in SPSS. Man kann auch für jede Ausprägung einer Variablen ein Wertelabel vergeben.

Grundlagen sportwissenschaftlicher Forschung Inferenzstatistik 2

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Der χ 2 -Test (Chiquadrat-Test)

a) Man bestimme ein 95%-Konfidenzintervall für den Anteil der Wahlberechtigten, die gegen die Einführung dieses generellen

Analyse 2: Hypothesentests

1. Es sind einfach zu viele! Varianzanalytische Verfahren.

Transkript:

Online Statistik-Coaching Modul 3 Statistisches Testen - Auswahl der passenden Methode - Durchführung mit SPSS - Interpretation und Darstellung Dipl.-Math. Daniela Keller www.statistik-und-beratung.de

Contents 1 Die Idee des statistischen Testens 3 1.1 Null- und Alternativhypothese...................... 3 1.2 Testergebnis: Teststatistik und p-wert................. 3 1.3 Fehler erster Art und Fehler zweiter Art................ 4 1.4 Merke................................... 5 2 Überblick 6 3 Vorüberlegungen zur Auswahl 9 3.1 Möchtest du Lageunterschiede oder Zusammenhänge untersuchen?.. 9 3.1.1 Analyse von Lageunterschieden................. 9 3.1.2 Analyse von Zusammenhängen................. 9 3.2 Sind die metrischen Variablen normalverteilt?............. 10 4 Zusammenhänge zwischen kategorialen Variablen 12 4.1 Chi-Quadrat Test............................. 12 4.2 Fishers Exakter Test........................... 13 5 Tests auf Zusammenhänge metrischer/ordinaler Variablen: Korrelation 15 5.1 Pearson-Korrelation............................ 15 5.2 Spearman-Korrelation.......................... 15 5.3 Umsetzung der Korrelation mit SPSS.................. 16 5.4 Interpretation und Darstellung der Korrelation............. 16 6 Tests auf Lageunterschied 18 6.1 Einstichproben t-test........................... 18 6.2 Wilcoxon Test für eine Stichprobe.................... 19 6.3 Wilcoxon Test............................... 20 6.4 Gepaarter t-test............................. 21 6.5 t-test................................... 22 6.6 Mann-Whitney-U Test.......................... 23 6.7 Friedman Test............................... 24 6.8 MesswiederholungsANOVA (Varianzanalyse mit Messwiederholung). 25 6.9 Einfaktorielle ANOVA (einfaktorielle Varianzanalyse)......... 28 6.10 Kruskal-Wallis Test............................ 30 c Daniela Keller - 2015 2

1 Die Idee des statistischen Testens Die Ergebnisse aus der deskriptiven Statistik sollen mit Tests daraufhin beurteilt werden, ob die beobachteten Zusammenhänge und Unterschiede statistisch signifikant sind oder nicht. Statistisch signifikant bedeutet, dass der gefundene Unterschied/Zusammenhang nicht zufällig ist, sondern (mit nur einer kleinen Unsicherheit) tatsächlich besteht. 1.1 Null- und Alternativhypothese Dazu werden im ersten Schritt die Nullhypothese und die Alternativhypothese (= Gegenhypothese) aufgestellt. Die Nullhypothesen für deine Fragestellungen hast du schon im Modul 1 im Arbeitsblatt Fragestellungen formuliert. Hier gehen wir noch einmal genauer auf die Nullyhypothese und dau passend die Gegenhypothese ein. Hypothesen beim statistischen Test Nullhypothese H0: Formuliere die Aussage kein Unterschied bzw. kein Zusammenhang (das ist normalerweise das, was du für deine Fragestellung ablehnen willst) : Alternativhypothese H1: Gegenteil der Nullhypothese ( Unterschied bzw. Zusammenhang ). Sie wird angenommen, wenn der Test die Nullhypothese ablehnt Beispiel: Du willst zeigen, dass sich der neue Wirkstoff B vom alte Wirkstoff A in seiner Wirksamkeit unterscheidet. Dann formulierst du die Hypothesen so: Nullhypothese H0: Wirkstoff A und Wirkstoff B wirken gleich gut. Alternativhypothese H1: Wirkstoff A und Wirkstoff B wirken nicht gleich gut. 1.2 Testergebnis: Teststatistik und p-wert Basierend auf deinen Daten rechnet der Test eine Teststatistik und einen p-wert aus. Basierend auf dem p-wert entscheidest du, ob du die Nullhypothese ablehnst oder nicht. Ist der p-wert klein genug, so lehnst du die Nullhypothese ab und nimmst damit die Alternativhypothese an. Im obigen Beispiel heißt das, dass sich die beiden Wirkstoffe signifikant unterscheiden. Klein genug bedeutet, dass der p-wert kleiner als das zuvor festgelegte Signifikanzniveau ist. Das Signifikanzniveau wird meistens auf 0,05 festgesetzt. c Daniela Keller - 2015 3

Ist der p-wert nicht klein genug (größer oder gleich dem Signifikanzniveau), so kann die Nullhypothese nicht abgelehnt werden. Das heißt im obigen Beispiel, dass kein signifikanter Unterschied zwischen den beiden Wirkstoffen nachgewiesen werden kann. 1.3 Fehler erster Art und Fehler zweiter Art Um den p-wert besser zu verstehen betrachten wir im Folgenden die Fehler, die bei der Entscheidung mit einem statistischen Test passieren können. Bei der Entscheidung nach einem statistischen Test können zwei Arten von Fehlern passiern, der α-fehler (Fehler erster Art) und de β-fehler (Fehler zweiter Art), vergleiche Abb. 1. Figure 1: Fehler bei der Testentscheidung Der α-fehler bezeichnet die Wahrscheinlichkeit für die fälschliche Ablehnung der Nullhypothese. Im oben genannten Beispiel wäre das der Fall, wenn sich in Wahrheit die Wirkstoffe A und B nicht unterscheiden, der Test aber aussagt, dass es einen Unterschied gibt. Dieser Fehler erster Art ist der p-wert des Tests und wird mit dem Signifikanzniveau kontrolliert. Das Signifikanzniveau ist also der Fehler, den du dir beim Testen erlaubst. Üblicherweise wird es auf 0,05 gesetzt Das heißt, wenn der p-wert das zuvor festgelegte Signifikanzniveau nicht überschreitet (wenn er klein genug ist), wird die Nullhypothese abgelehnt und somit die Alternativhypothese angenommen. In SPSS wird der p-wert meistens in einer Spalte namens Sig. ausgegeben. Der β-fehler ist Wahrscheinlichkeit für die fälschliche Annahme der Nullhypothese. Im Beispiel oben wäre das der Fall, wenn in Wahrheit die Wirkstoffe verschieden wirken, der Test aber keinen Unterschied sieht. Die Differenz 1 β wird als Teststärke oder Power bezeichnet und ist ein Maß dafür, wie gut der Test darin ist, einen Unterschied/Zusammenhang aufzudecken. Werte c Daniela Keller - 2015 4

ab 0,8 gelten als gut. Die Teststärke ist nicht Teil der SPSS-Ausgabe, kann aber mit Fallzahlplanungstools, wie z.b. dem kostenlosen G*power 3 der Uni Düsseldorf berechnet werden (http://www.gpower.hhu.de/). 1.4 Merke Für die Analyse am wichtigsten ist zu wissen, dass du im der Ausgabe des Tests nach dem p-wert schaust. Dieser steht meistens in SPSS in einer Zeile oder Spalte Sig. in der SPSS-Ausgabe. Ist dieser p-wert kleiner als 0,05, so wird die Nullhypothese abgelehnt und du hast einen signifikanten Unterschied bzw. Zusammenhang nachgewiesen. Ist der p-wert größer als 0,05, so wird die Nullhypothese nicht abgelehnt und du kannst keinen signifikanten Unterschied bzw. Zusammenhang nachweisen. Wenn das der Fall ist (p-wert größer als 0,05), ist das kein Beweis dafür, dass es keinen Unterschied bzw. Zusammenhang gibt. Das heißt lediglich, dass die Stichprobe nicht groß genug war, bzw. der Unterschied/Zusammenhang nicht stark genug, um ihn als signifikant nachzuweisen. c Daniela Keller - 2015 5

2 Überblick Du hast die deskriptiven Statistiken gerechnet, die Verteilungen überprüft und Abbildungen erstellt. So kann nun der passende statistische Test ausgewählt werden, um den beobachteten Zusammenhang oder Unterschied auf Signifikanz zu überprüfen. Als Orientierung und Überblick soll dir die Grafik hier dienen. Dort sind die wichtigsten Tests auf Lageunterschiede und Zusammenhänge aufgeführt. Die Farben und Rahmen markieren die jeweiligen Bedingungen für den Test. Sternchen markieren zusätzliche Voraussetzungen. Auch die passende deskriptive Statistik und die passende Abbildung ist jeweils mit Symbolen gekennzeichnet. Auf diese Grafik kannst du immer wieder zurück kommen, wenn du die passende Methode aussuchst. In den folgenden Abschnitten zeige ich dir, welche Vorüberlegungen notwendig sind, um die Methode auszusuchen. Danach erkläre ich dir dann die Umsetzung mit SPSS. c Daniela Keller - 2015 6

c Daniela Keller - 2015 7

Ergänzung zur Abbildung: Analyse eines Lageunterschieds bei einer Variable (nur eine Gruppe) im Vergleich zu einem festen Wert bei Normalverteilung: Einstichproben-t-Test ohne Normalverteilung: Wilcoxon Einstichproben-Test c Daniela Keller - 2015 8

3 Vorüberlegungen zur Auswahl Folgende Punkte solltest du vorab überlegen, um die passende Methode für deine Fragestellung und deine Daten auszuwählen: 3.1 Möchtest du Lageunterschiede oder Zusammenhänge untersuchen? Handelt es sich bei deiner Fragestellung und deinen Variablen um die Frage nach einem Zusammenhang zwischen zwei Variablen oder um die Frage nach einem Unterschied in der Lage zwischen Gruppen oder Messwiederholungen? 3.1.1 Analyse von Lageunterschieden Es wird ein Lageunterschied untersucht. Die zu untersuchende Variable ist metrisch oder ordinal. Sie wird entweder an mehreren Zeitpunkten an den gleichen Objekten (=Patienten/Fälle/Teilnehmer) (Messwiederholung) oder an jedem Objekt (=Patient/Fall/Teilnehmer) einmalig erhoben. Die Untersuchung interessiert entweder für die komplette Variable im Vergleich zu einem festen Wert, im Vergleich zwischen mehreren Gruppen (Lageunterschied zwischen Gruppen) oder im Vergleich von Messwiederholungen (Lageunterschied zwischen Messwiederholungen) Außerdem ist relevant ob 2 Messwiederholungen bzw. 2 Gruppen miteinander vergleichen werden, oder ob es mehr als 2 Messwiederholungen bzw. mehr als 2 Gruppen sind. 3.1.2 Analyse von Zusammenhängen Es werden zwei Variablen untersucht. Es interessiert, ob es einen Zusammenhang zwischen diesen Variablen gibt. Die beiden untersuchten Variablen können entweder c Daniela Keller - 2015 9

beide kategoriale Variablen (nominal oder ordinal) sein oder beide metrische Variablen sein. Bei der Analyse des Zusammenhangs zwischen zwei kategorialen Variablen ist zudem relevant, ob beiden Variablen genau zwei Kategorien haben (2x2 Kategorien) oder ob eine oder beide mehr Kategorien haben (> 2x2 Kategorien). 3.2 Sind die metrischen Variablen normalverteilt? Im Modul 2 hast du schon die Verteilung deiner metrischen Variablen (und eventuell auch bei ordinalen mit vielen Ausprägungen) untersucht. Für die Auswahl der passenden Methode ist es nun wichtig zu wissen, ob die Daten annähernd normalverteilt sind oder nicht. Sind die Daten annähernd normalverteilt (jede Messwiederholung bzw. jede Gruppe für sich), so dürfen parametrische Methoden als Signifikanztests verwendet werden, die Normalverteilung voraussetzen. Hier behandelte parametrische Methoden sind Einstichproben-t-Test gepaarter t-test t-test MesswiederholungsANOVA einfaktorielle ANOVA und Pearson-Korrelation. Sind die Daten nicht normalverteilt (oder bist du dir nicht sicher), werden nichtparametrische Methoden als Alternative eingesetzt: Wilcoxon Einstichproben-Test Wilcoxon Test Mann-Whitney-U Test Friedman Test Kruskal Wallis Test c Daniela Keller - 2015 10

und Spearman-Korrelation. Die nichtparametrischen Methoden sind immer erlaubt, dürfen also auch bei Normalverteilung eingesetzt werden. c Daniela Keller - 2015 11

4 Zusammenhänge zwischen kategorialen Variablen 4.1 Chi-Quadrat Test Charakterisierung: Test auf Zusammenhang Variablen: zwei kategoriale Variablen mehr als 2 Kategorien in mindestens einer der beiden Variablen Besonderheit: In jeder Zelle der Kreuztabelle müssen mindestens 5 Beobachtungen sein, damit der Chi-Quadrat Test zuverlässig ist. Ist dies nicht der Fall, können Kategorien entweder geeignet zusammen gefasst werden, oder eine Kategorie kann weggelassen werden (je nach Fragestellung und Daten). Dies führt dann entweder dazu, dass genügend Beobachtungen in jeder Zelle sind, oder dass eine 2x2-Kreuztabelle entsteht und Fishers Exakter Test eingesetzt werden kann. Beispiel: Fragestellung: Gibt es einen Zusammenhang zwischen Geschlecht und Schulbildung (4 verschiedene Abschlüsse)? Nullhypothese: Es gibt keinen Zusammenhang zwischen den beiden Variablen. Mögliche Ergebnisse: p-wert nicht signifikant (p 0, 05) Es kann kein signifikanter Zusammenhang nachgewiesen werden. p-wert signifikant (p < 0, 05) Es gibt einen signifikanten Zusammenhang zwischen Geschlecht und Schulbildung. Umsetzung mit SPSS: Der Test kann bei der Erstellung der Kreuztabellen zusätzlich angefordert werden: ANALYSIEREN DESKRIPTIVE STATISTIKEN KREUZTABELLEN Dort wählst du eine Variable in das Feld ZEILE(N), die andere in SPALTE(N). Über die Schaltfläche STATISTIKEN aktivierst du CHI-QUADRAT. c Daniela Keller - 2015 12

Ergebnis in SPSS und Darstellung: 1. Zeile der Tabelle: Chi-Quadrat-Test mit Teststatistik 138,29; 9 Freiheitsgraden, 592 Beobachtungen und einem p-wert von < 0,001: Es besteht ein signifikanter Zusammenhang zwischen der Anzahl der Symptome und der Behandlung (X2 (9, N = 592) = 138,29; p < 0,001). 4.2 Fishers Exakter Test Charakterisierung: Test auf Zusammenhang Variablen: zwei kategoriale Variablen in jeder Variablen genau 2 Kategorien Beispiel: Fragestellung: Gibt es einen Zusammenhang zwischen Geschlecht und Abitur ja/nein? Nullhypothese: Es gibt keinen Zusammenhang zwischen den beiden Variablen. c Daniela Keller - 2015 13

Ergebnis: p-wert nicht signifikant (p 0,05) Es kann kein signifikanter Zusammenhang nachgewiesen werden. p-wert signifikant (p < 0,05) Es gibt einen signifikanten Zusammenhang zwischen Geschlecht und Abitur ja/nein. Umsetzung mit SPSS: Der Test kann bei der Erstellung der Kreuztabellen zusätzlich angefordert werden: ANALYSIEREN DESKRIPTIVE STATISTIKEN KREUZTABELLEN Dort wählst du eine Variable in das Feld ZEILE(N), die andere in SPALTE(N). Über die Schaltfläche STATISTIKEN aktivierst du CHI-QUADRAT. Fishers Exakter Test wird dann automatisch dazu berechnet, wenn eine 2x2-Kreuztabelle vorliegt. Ergebnis in SPSS und Darstellung: 4. Zeile der Tabelle, Spalte Exakte Sig. (zweiseitig) : p-wert von 0,856: Es konnte kein signifikanter Zusammenhang zwischen Geschlecht und Bildungsgrad nachgewiesen werden (p = 0,856). c Daniela Keller - 2015 14

5 Tests auf Zusammenhänge metrischer/ordinaler Variablen: Korrelation Die Korrelation beschreibt den Zusammenhang zwischen metrischen oder ordinalen Variablen. Als Maß für den Zusammenhang wird der Korrelationskoeffizient (r oder rho) verwendet: Er liegt zwischen -1 und 1. Das Vorzeichen gibt die Richtung des Zusammenhangs an: Plus für positiven Zusammenhang, Minus für negativen Zusammenhang. Der Betrag gibt die Stärke des Zusammenhangs an: Nahe 0 bedeutet kein Zusammenhang, nahe 1 (bzw. -1) spricht für starken positiven (bzw. negativen) Zusammenhang. Je nach Verteilung der Daten wird entweder die Pearson- oder die Spearman- Korrelation verwendet. Der zugehörige Test untersucht, ob sich der Korrelationskoeffizient signifikant von 0 (=kein Zusammenhang) unterscheidet. 5.1 Pearson-Korrelation Charakterisierung: Test auf Zusammenhang (möglichst linearer Zusammenhang) Variablen: zwei metrische Variablen beide Variablen sind annähernd normalverteilt 5.2 Spearman-Korrelation Charakterisierung: Test auf Zusammenhang (monotoner Zusammenhang, muss nicht linear sein) Variablen: zwei metrische (oder ordinale) Variablen nicht zwingend normalverteilt c Daniela Keller - 2015 15

5.3 Umsetzung der Korrelation mit SPSS Beide Korrelationskoeffizienten und den p-wert zum Test erhälst du über folgende Eingaben: ANALYSIEREN KORRELATION BIVARIAT Die beiden zu korrelierenden Variablen bringst du ins Feld VARIABLEN und wählst unten durch Haken setzen aus, welchen Korrelationskoeffizienten du sehen willst. 5.4 Interpretation und Darstellung der Korrelation Spearman-Korrelation: Spearman-Korrelation mit Korrelationskoeffizient rho = 0,35, p < 0,001 und 103 Beobachtungen: Revision time und Exam Performance zeigen eine mittlere positive Korrelation (rho(n=103)= 0,35; p < 0,001). c Daniela Keller - 2015 16

Pearson-Korrelation: Pearson-Korrelation mit Korrelationskoeffizient r = 0,97, p < 0,001 und 103 Beobachtungen: Revision time und Exam Performance zeigen eine mittlere positive Korrelation (r(n=103)= 0,397; p < 0,001). c Daniela Keller - 2015 17

6 Tests auf Lageunterschied 6.1 Einstichproben t-test Charakterisierung: Test auf Lageunterschied Vergleich zu einem festen Wert Variablen: eine Variable (metrisch) Messungen annähernd normalverteilt Umsetzung mit SPSS: ANALYSIEREN MITTELWERTE VERGLEICHEN T-TEST BEI EINER STICHPROBE In das Feld TESTVARIABLE bringst du deine zu untersuchenden Variable Unten gibst du den Testwert, zu dem du vergleichen willst, ein Ergebnis in SPSS und Darstellung: Einstichproben-t-Test für den Vergleich zum Testwert 80 mit Teststatistik t = 2,886, df = 180 und p = 0,004 : Die Herzfreqzenz erwies sich als signifikant niedriger als 80 bpm (t(180) = -2,886; p = 0,004). c Daniela Keller - 2015 18

6.2 Wilcoxon Test für eine Stichprobe Charakterisierung: Test auf Lageunterschied Vergleich zu einem festen Wert Variablen: eine Variable (metrisch oder ordinal) Messung nicht zwingend normalverteilt Umsetzung mit SPSS: ANALYSIEREN NICHTPARAMETRISCHE TESTS EINE STICHPROBE Im Tab ZIEL Analyse anpassen aktivieren Im Tab FELDER Benutzerdefinierte Feldzuweisungen verwenden aktivieren und die zu untersuchende Variable in das Feld TESTFELDER bringen Im Feld EINSTELLUNGEN Tests anpassen aktivieren und Median- und hypothetische Werte vergleichen aktivieren und hier bei Hypothetischer Median den Testwert eingeben Ergebnis in SPSS und Darstellung: c Daniela Keller - 2015 19

In der ersten Tabelle fehlen noch die Informationen zur Teststatistik. Du klickst doppelt auf die Tabelle und es öffnet sich die zweite Tabelle Ansicht, aus der du die nötigen Zahlen ablesen kannst: Wilcoxon-Test mit Teststatistik Z = 2,995, N = 181 und p = 0,003 : Die Herzrate erwies sich als signifikant niedriger als 80 bpm (Z = -2,995; N = 181; p = 0,003). 6.3 Wilcoxon Test Charakterisierung: Test auf Lageunterschied Variablen: zwei Messwiederholungen (metrisch oder ordinal) Messungen nicht zwingend normalverteilt Umsetzung mit SPSS: ANALYSIEREN NICHTPARAMETRISCHE TESTS ALTE DIALOGFELDER ZWEI VERBUNDENE STICHPROBEN In das Feld TESTPAARE bringst du deine beiden zu untersuchenden Variablen. Unten aktivierst du WILCOXON. Ergebnis in SPSS und Darstellung: Wilcoxon-Test mit Teststatistik U = 1,947 und p = 0,052 : Es kann kein signifikanter Unterschied im Blutspiegel zwischen den beiden Messungen nachgewiesen werden (U = -1,947; p = 0,052). c Daniela Keller - 2015 20

6.4 Gepaarter t-test Charakterisierung: Test auf Lageunterschied Variablen: zwei Messwiederholungen (metrisch) Messungen annähernd normalverteilt Umsetzung mit SPSS: ANALYSIEREN MITTELWERTE VERGLEICHEN T-TEST BEI VER- BUNDENEN STICHPROBEN In das Feld PAARIGE VARIABLEN bringst du deine beiden zu untersuchenden Variablen. Ergebnis in SPSS und Darstellung: c Daniela Keller - 2015 21

Gepaarter t-test mit Teststatistik t = 2,390, Freiheitsgraden df = 86 und p-wert p = 0,019: Die beiden Messungen des Blutspiegels unterscheiden sich signifikant (t(86)=2,390; p=0,019). 6.5 t-test Charakterisierung: Test auf Lageunterschied Variablen: eine Variable (metrisch) in zwei Gruppen die Variable ist in beiden Gruppen annähernd normalverteilt Besonderheit beim t-test: Zusätzlich muss die Varianzhomogenität (= Varianzen in beiden Gruppen sind annähernd gleich) geprüft werden. Dies macht Levene Test. Liefert er einen nicht signifikanten p-wert, so gilt Varianzhomogenität. Ist der p-wert des Levene Tests signifikant, so unterscheiden sich die Varianzen signifikant. Im letzten Fall wird dann eine Anpassung des t-tests (Welch-Test) verwendet. SPSS liefert beide Ergebnisse (t-test und Welch-Test) in einer Tabelle, zusammen mit dem Levene Test. Je nach Ergebnis des Levene Tests wird dann die entsprechende Zeile (Varianzgleichheit angenommen / Varianzgleichheit nicht angenommen) verwendet. Umsetzung mit SPSS: ANALYSIEREN MITTELWERTE VERGLEICHEN T-TEST BEI UN- ABHÄNGIGEN STICHPROBEN Die zu untersuchende Variable kommt in das Feld TESTVARIABLE(N), die Gruppierungsvariable in das so genannte Feld. Die Kodierung der beiden Gruppen muss noch über GRUPPEN DEF angegeben werden. c Daniela Keller - 2015 22

Ergebnis in SPSS und Darstellung: Je nach Ergebnis des Levene-Tests (siehe Spalten 1 und 2) wird das Ergebnis des t- Tests aus der ersten oder der zweiten Zeile abgelesen. Ist der p-wert des Levene-Tests (Spalte Sig. bei Levene-Test der Varianzgleichheit ) kleiner als 0,05, so wird die zweite Zeile gelesen (Zeile Varianzgleichheit nicht angenommen ). Ist der p-wert des Levene-Tests größer als 0,05, wird die erste Zeile des t-tests verwendet (Zeile Varianzgleichheit angenommen ). In dem Beispiel ist der p-wert des Levene-Tests 0,072, also größer 0,05, also wird Varianzgleichheit angenommen und wir lesen die erste Zeile des t-tests: t-test mit Wert der Teststatistik 1,449 mit 18 Freiheitsgraden und p = 0,164: Es konnte kein signifikanter Unterschied in der Depression der beiden Gruppen nachgewiesen werden (t(18) = 1,449; p = 0,164) mit niedrigeren Werten in der Testgruppe. 6.6 Mann-Whitney-U Test Charakterisierung: Test auf Lageunterschied Variablen: eine Variable (metrisch oder ordinal) in zwei Gruppen nicht zwingend normalverteilt Umsetzung mit SPSS: ANALYSIEREN NICHTPARAMETRISCHE TESTS ALTE DIALOGFELDER ZWEI UNABHÄNGIGE STICHPROBEN c Daniela Keller - 2015 23

Die zu untersuchende Variable kommt in das Feld TESTVARIABLE(N), die Gruppierungsvariable in das so genannte Feld. Die Kodierung der beiden Gruppen muss noch über GRUPPEN DEF angegeben werden. Unten aktivierst du MANN-WHITNEY-U-TEST. Ergebnis in SPSS und Darstellung: Da in dem Beispiel eine kleine Fallzahl vorliegt, gibt SPSS zwei p-werte aus, einen asymptotischen (vorletzte Zeile) und einen exakten (letzte Zeile). Hier wird der exakte genommen, der bei der kleinen Fallzahl genauer ist. Bei größeren Fallzahlen wird nur der asymptotische ausgegeben und der dann auch verwendet. Mann-Whitney U Test mit Teststatistik U=-1,105 und p=0,280: Es konnt kein signifikanter Unterschied in der Depression zwischen den beiden Gruppen nachgewiesen werden (U=-1,105; p=0,280). 6.7 Friedman Test Charakterisierung: Test auf Lageunterschied Variablen: c Daniela Keller - 2015 24

mehr als zwei Messwiederholungen (metrisch oder ordinal) nicht zwingend normalverteilt Umsetzung mit SPSS: ANALYSIEREN NICHTPARAMETRISCHE TESTS ALTE DIALOGFELDER K VERBUNDENE STICHPROBEN Hier nimmst du die zu untersuchenden Variablen (z.b. Messwiederholungen) ins Feld TESTVARIABLEN. Unten aktivierst du FRIEDMAN. Ergebnis in SPSS und Darstellung: Friedman-Test mit Teststatistik X2 = 0,2, Freiheitsgrade df = 2, Fallzahl N = 10 und p = 0,905: Es konnte kein signifikanter Unterschied im Gewicht im Verlauf der Diät nachgewiesen werden (X2(2)=0,2; N=10; p=0,905). 6.8 MesswiederholungsANOVA (Varianzanalyse mit Messwiederholung) Charakterisierung: Test auf Lageunterschied Variablen: mehr als zwei Messwiederholungen (metrisch) c Daniela Keller - 2015 25

die Variable ist zu allen Messzeitpunkten normalverteilt Besonderheit der MesswiederholungsANOVA: Zusätzlich muss die Sphärizität (= gleiche Varianzen der paarweisen Differenzen) geprüft werden. Dies kann mit dem Mauchly Test untersucht werden. Liefert er einen nicht signifikanten p-wert, so gilt Sphärizität. Ist der p-wert des Mauchly Tests signifikant, so gilt keine Sphärizität. Im letzten Fall ist statt der klassischen Messwiederholungs-ANOVA eine Anpassung, z.b. Greenhouse-Geisser oder Hyunh- Feldt, zu verwenden. SPSS gibt für jede Version eine Ergebniszeile aus. Abhängig vom Testergebnis des Mauchly Tests wählst du die passende aus. Umsetzung mit SPSS: ANALYSIEREN ALLGEMEINES LINEARES MODELL MESSWIEDER- HOLUNGEN Hier wird zunächst der Faktor (die Messwiederholungen) definiert (=NAME DES INNERSUBJEKTFAKTORS eingeben) und die ANZAHL DER STUFEN (Anzahl der Messwiederholungen) angegeben. Ist der Faktor definiert öffnet sich das gewohnte Fenster, in dem die zu untersuchenden Variablen in das Feld INNERSUBJEKTVARIABLEN ausgewählt werden. c Daniela Keller - 2015 26

Ergebnis in SPSS und Darstellung: Die erste Tabelle enthält den Mauchly-Test auf Sphärizität. Die Spalte Sig. zeigt bei einem p-wert größer als 0,05, dass Sphärizität vorliegt. In dem Fall wird aus der zweiten Tabelle die erste Zeile ( Angenommene Sphärizität ) verwendet. Ist der p-wert des Mauchly-Tests kleiner als 0,05 (wie in dem Beispiel hier 0,012), liegt keine Sphärizität vorliegt. Dann wird, bei einem Greenhouse-Geisser Wert kleiner als 0,75 (in dem Beispiel 0,6) in der zweiten Tabelle die zweite Zeile ( Greenhouse-Geisser ) verwendet. Ist der Greenhouse-Geisser Wert größer als 0,75, wird die dritte Zeile ( Huynh-Feldt ) verwendet. In dem Beispiel wird also die zweite Zeile (Greenhouse-Geisser) verwendet: Messwiederholungs-ANOVA mit Greenhouse-Geisser Anpassung: Teststatistik F = c Daniela Keller - 2015 27

0,056, Freiheitsgrade 1,2 und 10,801, p-wert 0,860: Es konnte kein signifikanter Unterschied im Gewicht im Verlauf der Diät nachgewiesen werden (F(1,2; 10,801)=0,056; p=0,860). 6.9 Einfaktorielle ANOVA (einfaktorielle Varianzanalyse) Charakterisierung: Test auf Lageunterschied Variablen: eine Variable (metrisch) in mehr als zwei Gruppen die Variable ist in allen Gruppen annähernd normalverteilt Besonderheit der einfaktoriellen ANOVA: Zusätzlich muss die Varianzhomogenität (= Varianzen in beiden Gruppen sind annähernd gleich) geprüft werden. Dies macht Levene Test. Liefert er einen nicht signifikanten p-wert, so gilt Varianzhomogenität. Ist der p-wert des Levene Tests signifikant, so unterscheiden sich die Varianzen signifikant. Im letzten Fall wird dann eine Anpassung der ANOVA (Welch) verwendet. Umsetzung mit SPSS: ANALYSIEREN MITTELWERTE VERGLEICHEN EINFAKTORIELLE VARIANZANALYSE Die zu untersuchende Variable kommt in ABHÄNGIGE VARIABLEN, die Gruppierungsvariable in FAKTOR. Für die ANOVA muss zudem Varianzghomogenität überprüft werden und - wenn keine Varianzhomogenität vorliegt - die Welch-Anpassung verwendet werden. Dazu aktivierst du über die Schaltfläche OPTIONEN den TEST AUF HO- MOGENITÄT DER VARIANZEN und WELCH. c Daniela Keller - 2015 28

Ergebnis in SPSS und Darstellung: Die erste Tabelle enthält den Levene-Test auf Varianzhomogenität. Die Spalte Sig. zeigt bei einem p-wert größer als 0,05, dass Varianzhomigenität vorliegt. In dem Fall wird als Ergebnis der ANOVA die zweiten Tabelle (ANOVA) verwendet. Ist der p-wert des Levene-Tests kleiner als 0,05 (wie in dem Beispiel hier kleiner 0,001), liegt keine Varoíanzgleichheit vor. Dann verwendest du einen der beiden Tests aus der dritten Tabelle (Welch oder Brown-Forsythe). In dem Beispiel wird wegen der nicht vorliegenden Varianzhomogenität der Welch- Test verwendet (Brown-Forsythe ginge genauso). ANOVA mit Welch-Anpassung: Teststatistik F = 36,065, Freiheitsgrade 5 und 30,043, p-wert < 0,001: Es gibt einen signfikanten Unterschied in der Wirkung der Pflanzenschutzmittel (F(5; 30,043)=36,065; p<0,001). c Daniela Keller - 2015 29

6.10 Kruskal-Wallis Test Charakterisierung: Test auf Lageunterschied Variablen: eine Variable (metrisch oder ordinal) in mehr als zwei Gruppen nicht zwingend normalverteilt Umsetzung mit SPSS: ANALYSIEREN NICHTPARAMETRISCHE TESTS ALTE DIALOGFELDER K UNABHÄNGIGE STICHPROBEN Die zu untersuchende Variable kommt in TESTVARIABLEN, die Gruppierungsvariable in das so genannte Feld. Über BEREICH DEFINIEREN wird noch der Kodierungsbereich der Gruppierungsvariable festgelegt. Unten aktivierst du KRUSKAL-WALLIS-H. Ergebnis in SPSS und Darstellung: Kruskal-Wallis Test mitteststatistik X2 = 54,691, Freiheitsgrade 5 und p-wert < 0,001: Es gibt einen signfikanten Unterschied in der Wirkung der Pflanzenschutzmittel (X2(5)=54,691; p<0,001). c Daniela Keller - 2015 30