Statistik III. Methodologie der Psychologie

Ähnliche Dokumente
Literatur: Glantz, S.A. (2002). Primer of Biostatistics. New York: McGraw-Hill.

Statistik I. Methodologie der Psychologie

Statistik II. IV. Hypothesentests. Martin Huber

Statistisches Testen

Prüfung aus Statistik 2 für SoziologInnen

2. Formulieren von Hypothesen. Nullhypothese: H 0 : µ = 0 Gerät exakt geeicht

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

a) Man bestimme ein 95%-Konfidenzintervall für den Anteil der Wahlberechtigten, die gegen die Einführung dieses generellen

Mathematische und statistische Methoden II

4.1. Nullhypothese, Gegenhypothese und Entscheidung

3 Grundlagen statistischer Tests (Kap. 8 IS)

Einführung in Quantitative Methoden

Allgemeines zu Tests. Statistische Hypothesentests

Methodenlehre. Vorlesung 11. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Statistische Tests funktionieren generell nach obigem Schema; der einzige Unterschied besteht in der unterschiedlichen Berechnung der Testgröße.

Statistische Tests (Signifikanztests)

Statistik II: Signifikanztests /1

Liegen 2 Beobachtungen an n Objekten vor, spricht man von einer gebundenen Stichprobe Typische Struktur bei "stimulus-response" Versuchen

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Vergleich von Parametern zweier Stichproben

Statistische Tests für unbekannte Parameter

Inferenzstatistik Vortrag: Alpha und Beta Fehler

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

Statistik III Regressionsanalyse, Varianzanalyse und Verfahren bei Messwiederholung mit SPSS

Statistische Überlegungen: Eine kleine Einführung in das 1 x 1

Statistik II. Statistische Tests. Statistik II

Klassifikation von Signifikanztests

Statistische Tests für unbekannte Parameter

Einführung in die Induktive Statistik: Testen von Hypothesen

Inferenzstatistik und Hypothesentests. Hierbei geht es um die Absicherung eines Untersuchungsergebnisses gegen ein Zufallsereignis.

Die Stochastischen Eigenschaften von OLS

Glossar. den man als mindesten oder interessanten Effekt für die Population annimmt. Anpassungstest; 148 f., 151: Der Anpassungstest

3. Das Prüfen von Hypothesen. Hypothese?! Stichprobe Signifikanztests in der Wirtschaft

Güteanalyse. Nochmal zur Erinnerung: Hypothesentest. Binominalverteilung für n=20 und p=0,5. Münzwurf-Beispiel genauer

Methodenlehre. Vorlesung 13. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Analytische Statistik II

Signifikanzprüfung. Peter Wilhelm Herbstsemester 2016

Inhaltsverzeichnis Einführung und deskriptive Statistik Grundlagen der Inferenzstatistik 1: Zufallsvariablen

Statistisches Testen: Signifikanz und Relevanz Christiane Spiel

10. Die Normalverteilungsannahme

Konkretes Durchführen einer Inferenzstatistik

Konfidenzintervalle. Statistische Methoden in der Korpuslinguistik Heike Zinsmeister WS 2008/09

Grundlagen sportwissenschaftlicher Forschung Deskriptive Statistik 2 Inferenzstatistik 1

Analyse von Querschnittsdaten. Signifikanztests I Basics

Inhaltsverzeichnis. Über die Autoren Einleitung... 21

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Statistik II. IV. Hypothesentests. Martin Huber

Klassifikation von Signifikanztests

I.V. Methoden 4: Regressionsund Pfadanalyse WiSe 02/03

Hypothesentests. Hypothese Behauptung eines Sachverhalts, dessen Überprüfung noch aussteht.

3.Wiederholung: Toleranzbereiche Für EX Geg:

2 Wiederholung statistischer Grundlagen Schließende Statistik empirischen Information aus Stichprobenrealisation x von X

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.

Aufgaben zu Kapitel 3

5. Seminar Statistik

simple lineare Regression kurvilineare Regression Bestimmtheitsmaß und Konfidenzintervall

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung. Christoph Sawade/Niels Landwehr Tobias Scheffer

Statistikpraktikum. Carsten Rezny. Sommersemester Institut für angewandte Mathematik Universität Bonn

Statistik II für Betriebswirte Vorlesung 1

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

Auswertung und Lösung

Aufgaben zu Kapitel 8

Vorlesung: Statistik II für Wirtschaftswissenschaft

3.3 Konfidenzintervalle für Regressionskoeffizienten

Statistische Methoden in den Umweltwissenschaften

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003

Biometrieübung 10 Lineare Regression. 2. Abhängigkeit der Körpergröße von der Schuhgröße bei Männern

Tests einzelner linearer Hypothesen I

Kapitel 9: Verfahren für Nominaldaten

"Korrelation" bei Nominaldaten: Kontingenz

Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller

Prof. Dr. Marc Gürtler WS 2015/2016. Prof. Dr. Marc Gürtler. Klausur zur 10/12 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft

Parametrische vs. Non-Parametrische Testverfahren

Inferenzstatistik verstehen

Bemerkungen zu statistischen Tests

Biostatistik 101 Korrelation - Regressionsanalysen

2-Stichprobentest für Anteilswerte

Mathematik 2 für Naturwissenschaften

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Statistik und Wahrscheinlichkeitsrechnung

How To Find Out If A Ball Is In An Urn

Mathematik für Biologen

Entscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten

Statistische Messdatenauswertung

Biomathematik für Mediziner

Statistik II. Weitere Statistische Tests. Statistik II

Signifikanzprüfung. Peter Wilhelm Herbstsemester 2014

Statistik II. Statistische Tests. Statistik II

Statistik für Naturwissenschaftler

Lehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. R. T. Riphahn, Ph.D. Bachelorprüfung, Praxis der empirischen Wirtschaftsforschung

Kapitel 10 Mittelwert-Tests Einstichproben-Mittelwert-Tests 10.2 Zweistichproben Mittelwert-Tests

Aufgaben zu Kapitel 4

Softwaretechnik. Prof. Dr. Rainer Koschke. Fachbereich Mathematik und Informatik Arbeitsgruppe Softwaretechnik Universität Bremen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen

3) Testvariable: T = X µ 0

Transkript:

Statistik III Methodologie der Psychologie Thomas Schmidt & Lena Frank Wintersemester 2003/2004 Georg-Elias-Müller-Institut für Psychologie Uni Göttingen

Literatur: Glantz, S.A. (2002). Primer of Biostatistics. New York: McGraw-Hill. Maxwell, S.E. & Delaney, H.D. (2000). Designing Experiments and Analyzing Data. Mahwah, NJ: Erlbaum.

Lineare Regression Y Können wir eine Gerade finden, die die Daten möglichst gut beschreibt? X

Y Regressionsgerade Gesamtmittelwert Wie gut paßt die Gerade auf die Daten? X

Y Gesamtmittelwert Abstände der Daten vom Gesamtmittelwert quadrieren und aufsummieren: SS tot X

"Quadratsummen-Zerlegung": Abstände zwischen Regression und Gesamtmittelwert quadrieren und aufsummieren: SS reg Regressionsresiduen quadrieren und aufsummieren: SS res SS tot = SS reg + SS res R² = SS reg / SS tot

R² ist ein Maß dafür, wie gut das Regressionsmodell die Daten beschreibt: eine Goodness-of-Fit-Statistik R² = Prozentsatz der "erklärten Varianz" R² = 1: Regression erklärt die gesamte Varianz im Datensatz, alle Residuen sind 0 R² = 0: Regression erklärt überhaupt keine Varianz

Parameter für die Steigung und den y-achsen- Abschnitt werden per t-test gegen 0 getestet: Y b (Steigung) a (y-abschnitt) Y = a + bx 0 X

Alle statistischen Prozeduren funktionieren auf die gleiche Weise: Daten Annahmen Annahmen statistisches Modell der Population, auf der die Daten basieren: z.b. Normalverteilung, gleiche Varianzen Wie wäre die Teststatistik verteilt, wenn die Nullhypothese gelten würde? Entscheidung: Ist die Teststatistik deutlich genug von dem Wert verschieden, der durch die Nullhypothese vorhergesagt wird?

Beispiel: einseitiger t-test für unabhängige Stichproben zwei Gruppen, je 10 Vpn, normalverteilt, gleiche Varianz 0,433 Probability Density Function y=student(x;18) 1,0 Probability Distribution Function p=istudent(x;18) 0,325 0,8 0,216 0,6 0,4 0,108 0,2 0,000-2,552-1,276 0,000 1,276 2,552 0,0-2,552-1,276 0,000 1,276 2,552

Einseitige Tests und zweiseitige Tests unterscheiden sich nur in ihren Kriterien zur Ablehnung der Nullhypothese, nicht in der Form der Verteilungen!

Beispiel: 4-Felder-Chi-Quadrat-Test 0,175 Probability Density Function y=chi2(x;1) 1,0 Probability Distribution Function p=ichi2(x;1) 0,131 0,8 0,087 0,6 0,4 0,044 0,2 0,000 0,00 6,25 12,50 18,75 25,00 0,0 0,00 6,25 12,50 18,75 25,00

Was bedeutet der p-wert? Stichprobe ist erhoben worden Teststatistik (z.b. t-wert) ist berechnet worden die Dichtefunktion der Teststatistik (z.b. t-verteilung) beschreibt, wie sich die t-werte verteilen sollten, wenn die Nullhypothese gilt p-wert gibt den Prozentsatz der möglichen t-werte an, die noch extremer sind als der empirisch gefundene Wert "p" ist die Wahrscheinlichkeit, daß die Daten aus einer Population stammen, in der die Nullhypothese gilt - vorausgesetzt, das statistische Modell ist korrekt und alle seine Bedingungen sind erfüllt!

Der kritische Wert liegt dort, wo er die Fläche α von der Verteilung abschneidet. Der p-wert ist der Wert rechts vom tatsächlich beobachteten Wert der Teststatistik. Signifikanz: (emp. Wert krit. Wert)? (p α)? Je kleiner der p-wert, desto deutlicher widersprechen die Daten der Nullhypothese!

Wann setzt man welches Verfahren ein? Vorberg, D. & Blankenberger, S. (1999). Die Auswahl statistischer Tests und Maße. Psychologische Rundschau, 50, 157-164.

Fehlentscheidungen beim statistischen Testen in der Population gilt: H 0 H 1 der Test H 0 gilt entscheidet: H 1 gilt Korrekte Beibehaltung Falscher Alarm (Alpha-Fehler) Verpasser (Beta-Fehler) Korrekte Ablehnung

Statistische Power Beta ist die Wahrscheinlichkeit, daß man einen "echten" Effekt übersieht (1 - Beta) ist die Wahrscheinlichkeit, daß man einen Effekt nicht übersieht: Teststärke oder Power

Frage: Was ist schlimmer - Alpha- oder Betafehler? Antwort: Kommt auf den Schaden an, den die beiden Fehlerarten anrichten können! Beispiel: Fehldiagnose einer Krankheit Alpha-Fehler: Risiko, eine Krankheit zu behandeln, die gar nicht da ist Beta-Fehler: Risiko, eine Krankheit zu übersehen

Teststärke und Stichprobengröße mangelnde Teststärke ist das Resultat unpräziser Messungen: zu kleine Stichproben zu ungünstige Meßbedingungen Das führt zu großen Problemen: in der Population vorhandene Effekte werden nicht signifikant Nulleffekte können nicht interpretiert werden Im Extremfall sind ganze Studien umsonst gewesen!

Statistische Power Strengeres α-niveau: Weniger Fehler 1. Art Mehr Fehler 2. Art Weniger Power

Statistische Power Kleinerer Effekt: Mehr Fehler 1. Art Mehr Fehler 2. Art Weniger Power Größerer Effekt: Weniger Fehler 1. Art Weniger Fehler 2. Art Mehr Power

Statistische Power Größere Stichprobe (= mehr Freiheitsgrade): kritischer t-wert sinkt rechter Teil der H 0 - Verteilung wird flacher empirischer t-wert wird größer weniger Fehler 2. Art mehr Power Achtung: der Prozeß verläuft asymptotisch!

Kritik an der klassischen Inferenzstatistik Die Nullhypothese ist ohnehin falsch, man kann sie gar nicht akzeptieren. (Murphy & Myors, 2000) Signifikanz sagt nichts darüber, ob die beobachteten Effekte wichtig oder unwichtig sind. Mit ausreichend großen Stichproben bekommt man jeden Effekt signifikant. Signifikanztests sagen nichts über die Wahrscheinlichkeit der Alternativhypothese. Tests sind nur ein Ritual; man braucht statistisches Denken. Signifikanztests fördern die Verwendung von ungenauen Hypothesen. (Gigerenzer, 1998) Anwender kennen nur wenige Techniken, verwenden sie inkonsistent, verstehen die Ergebnisse nicht. Anwender sind besessen vom Alpha-Fehler und ignorieren den Beta-Fehler; daher sind die meisten Studien von niedriger Qualität. Sind Signifikanztests ein geeignetes Mittel der Qualitätskontrolle?