Einführung in die Statistik Metaanalyse

Ähnliche Dokumente
Einführung in die Statistik Metaanalyse

Mehrfaktorielle Varianzanalyse

Stichprobenumfangsplanung

Zusammenfassung. Einführung in die Statistik. Professur E-Learning und Neue Medien. Institut für Medienforschung Philosophische Fakultät

Statistik III Regressionsanalyse, Varianzanalyse und Verfahren bei Messwiederholung mit SPSS

Mittelwert und Standardabweichung

Signifikanzprüfung. Peter Wilhelm Herbstsemester 2014

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Systematische Reviews und Meta-Analysen

Metaanalyse I. (3) Herkömmliche Verfahren zur Bestimmung des Forschungsstands sind narrative Reviews (z.b. Sammelreferate oder Übersichtsartikel ).

Allgemeines Lineares Modell Seminarüberblick

Prüfungsliteratur: Rudolf & Müller S

Einführung in die Statistik Einführung

WATCHING YOUR STEP - Clinical Trial Process

Zur Konzeption von Meta-Analysen. Bernd Weiß 24. April 2003

VS PLUS

Eigene MC-Fragen SPSS. 1. Zutreffend auf die Datenerfassung und Datenaufbereitung in SPSS ist

Methodenlehre I Organisatorisches Wiederholung. Überblick Methodenlehre II. Thomas Schäfer. methodenlehre ll Einführung und Überblick

Zusammenhang zwischen Intelligenz und Berufserfolg in Deutschland. Fragestellung. Intelligenztests als Personalauswahl-Instrument in Deutschland

Forschungsmethoden VORLESUNG SS 2017

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

Wissenschaftstheorie und wissenschaftliches Arbeiten

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Statistisches Testen: Signifikanz und Relevanz Christiane Spiel

Wie valide sind AC im deutschsprachigen Raum?

E ektgrößen Metaanalysen. Zusammenhänge und Unterschiede quantifizieren E ektgrößen

Informationen zur KLAUSUR am

5 Beschreibung und Analyse empirischer Zusammenhänge

Grundkurs Statistik für Politologen und Soziologen

Statistik für Psychologen, Pädagogen und Mediziner

Methodik für Linguisten

VS PLUS

Parametrische vs. Non-Parametrische Testverfahren

Arbeitsbuch zur deskriptiven und induktiven Statistik

Statistische Signifikanz und biologische Relevanz und ihre Visualisierung über Effektstärkemaße

Quantitative Auswertung II. Korpuslinguistik Heike Zinsmeister

Das Forschungs- Gesuchsverfahren des SNFfair oder systematisch verzerrt?

Statistische Messdatenauswertung

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011

Statistik, Geostatistik

Tabellen und Abbildungen

Statistische Methoden in den Umweltwissenschaften

Statistik. Für Sozialwissenschaftler. Dritte, neu bearbeitete Auflage Mit 71 Abbildungen und 224 Tabellen

Forschungsmethoden VORLESUNG SS 2017

electures Ein Review zur vorliegenden Forschung

Teil: lineare Regression

Pflichtlektüre: Kapitel 12 - Signifikanztest Wie funktioniert ein Signifikanztest? Vorgehensweise nach R. A. Fisher.

Mathematik IV: Statistik

Lösungen zu den Übungsaufgaben in Kapitel 10

Bisher behandelte Verfahren: Kurze Wiederholung

Einführung. Lehren und Lernen mit Medien II. Professur E-Learning und Neue Medien. Institut für Medienforschung Philosophische Fakultät

Forschungsstatistik I

Bivariate Zusammenhänge

Streuungsmaße von Stichproben

Statistische Datenanalyse

Stichwortverzeichnis. Ausgleichsgerade 177 Ausreißer 13, 40

Inhaltsverzeichnis. Danksagung... V Abbildungsverzeichnis... XI Tabellenverzeichnis...XIII. Einleitung... 1

Grundlagen sportwissenschaftlicher Forschung Deskriptive Statistik 2 Inferenzstatistik 1

Rekodierung invertierter Items

Mathematische und statistische Methoden II

Analyse von Querschnittsdaten. Signifikanztests I Basics

Statistik. Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz. Der Weg zur Datenanalyse. Springer. Zweite, verbesserte Auflage

Forschungsmethoden VORLESUNG SS 2017

Emotional Design. Lehren und Lernen mit Medien II. Professur E-Learning und Neue Medien. Institut für Medienforschung Philosophische Fakultät

Vorlesung: Statistik II für Wirtschaftswissenschaft

Inhaltsverzeichnis Grundlagen aufigkeitsverteilungen Maßzahlen und Grafiken f ur eindimensionale Merkmale

3.2.2 Die normative Perspektive Coleman und die soziale Struktur Putnam und die Diagnose des Verfalls...

Lehramt BA Prim / BA Sek 1. Bachelorarbeit

Konfidenzintervalle. SeKo. Heute. Konjunktion, Disjunktion, bedingte Wahrscheinlichkeit

Inhaltsverzeichnis. Über die Autoren Einleitung... 21

Gestaltungsempfehlungen

Inferenzstatistik Vortrag: Alpha und Beta Fehler

Lehrbuch der Statistik

Prüfung & Tutorium. Der 1. Prüfungstermin findet am 27. Juni 2011 um 10h im Audimaxstatt. Anmeldung in UNIVIS vom Juni

2.3 Aktuelle Studien zum Thema mathematische Grundbildung und Prozentrechnung Hilfsmittel zur Prozentrechnung in Schule und Alltag 81

Korrelation und Regression

Der Deal Flow von Business Angels - Eine empirische Analyse

Thomas Schäfer. Statistik II

3 Konfidenzintervalle

Beschreibende Statistik Deskriptive Statistik. Schließende Statistik Inferenzstatistik. Schluss von der Stichprobe auf die Grundgesamtheit

Name Vorname Matrikelnummer Unterschrift

Vorlesung: Multivariate Statistik für Psychologen

Psychologische Methodenlehre Statistik

Hypothesenbasierende Untersuchungen. Hypothesenbasierende Untersuchungen

Werkzeuge der empirischen Forschung

Identifikation von Zeitwerten für LEP-Pflegeinterventionen. Reto Bürgin, Dieter Baumberger,

Angewandte Statistik

Bivariate Analyseverfahren

Zusammenfassung. Instruktionspsychologie. Professur E-Learning und Neue Medien. Institut für Medienforschung Philosophische Fakultät

3. Lektion: Deskriptive Statistik

Imputation (Ersetzen fehlender Werte)

Vorwort... V. Abbildungsverzeichnis... XIII. 1. Überblick über die behandelten Problembereiche... 3

Vorlesung: Statistik II für Wirtschaftswissenschaft

LG Psychologische Methodenlehre und Evaluation Vorstellung Modul 2: Statistik

Statistik für Ökonomen

Inhaltsverzeichnis. 1 Über dieses Buch Zum Inhalt dieses Buches Danksagung Zur Relevanz der Statistik...

Empirische Forschung. Übung zur Vorlesung Kognitive Modellierung. Kognitive Modellierung Dorothea Knopp Angewandte Informatik/ Kognitve Systeme

1 Einleitung und Grundlagen 1

Transkript:

Professur E-Learning und Neue Medien Institut für Medienforschung Philosophische Fakultät Einführung in die Statistik Metaanalyse

Überblick Einführung Vorteile Vorgehensweisen Probleme 2

Einführung Metaanalyse: Zusammenfassung des aktuellen Forschungsstandes zu einer Fragestellung durch statistische Aggregation empirischer Einzelergebnisse inhaltlich homogener Primärstudien Primärstudien: Empirische Studien, welche die Untersuchungseinheiten der Metaanalyse darstellen Homogenität: Primärstudien untersuchen vergleichbare Fragestellungen Aggregation: Zusammenfassung der Primärstudienergebnisse Zusammenfassung zumeist über die Effektstärken der Studien als AV Einzeleffekte werden zur Schätzung des wahren Populationseffektes zusammengefasst 3

Einführung Historisch 1904: Erste bekannte quantitative Ergebniszusammenfassung durch Pearson: Einfache Mittelung von Korrelationen 1976: Erstmalige Verwendung des Begriffs Metaanalyse durch Glass Metaanalysen kein einheitliches statistisches Verfahren, sondern eine Methodenfamilie Metaanalyse vs. Review Review: Zusammenfassung des aktuellen Standes eines Forschungsgebietes durch gegliederte und kritische Darstellung der einschlägigen Literatur Karl Pearson Gene Glass 4

Metaanalyse vs. Review Um welche Art der Zusammenfassung handelt es sich nach dem unten abgebildeten Abstract? A: Metaanalyse B: Review Rey.participoll.com Quelle: Schroeder, Adesope und Gilbert (2013) A B 0 5

Effektmodelle von Metaanalysen Modell fester Effekte (engl. fixed-effect model) vs. Modell zufallsbedingter Effekte (engl. random-effects model) Modell fester Effekte: Annahme, dass sämtliche Studien exakt denselben Populationseffekt erfassen und dass die Unterschiedlichkeit der Effektgrößen zwischen den Primärstudien auf Stichprobenfehler zurückzuführen sind Modell zufallsbedingter Effekte: Annahme, dass jeder Primärstudie (aufgrund der Unterschiedlichkeit der Studien) eine andere Populationseffektgröße zugrunde liegt Modell gemischter Effekte (engl. mixed-effects model): Modell kombiniert die beiden Modelle 6

Vorteile und Vorgehensweisen Vorteile von Metaanalysen Überblick über uneinheitliche Befunde Erhöhung der Power Erhöhung der Validität Entscheidungsgrundlage Ablauf einer Metaanalyse Fragestellung Sammlung von Studien Kodierung & Bewertung Datenanalyse Präsentation & Interpretation Ablauf mit einer Primärstudie vergleichbar Fragestellung Erhebung von Probanden Aufbereitung der Daten Datenanalyse Präsentation & Interpretation 7

Fragestellung Festlegung relevanter Parameter im Vorfeld Zusammenhang zwischen UV und AV Auswahlrahmen für Literaturrecherche (z. B. Sprache, Zeitraum) Eher selten: Methodische Mindeststandards (z. B. bezüglich Power, Vollständigkeit der Daten) Potentielle Moderatorvariablen Potentielle Moderatorvariablen: Inhaltliche oder methodische Merkmale von Studien, welche sich auf die Größe des gefundenen Zusammenhanges auswirken könnten Beispiele für Moderatorvariablen: Lernervorwissen, räumliches Vorstellungsvermögen, Lernzeit 8

Sammlung von Studien Vorteile einer umfassenden Literaturrecherche Je mehr Studien berücksichtigt werden, desto höher die Power Verringerte Gefahr der Ergebnisverzerrung Recherchestrategien Stichwortsuche im Netz und in Datenbanken (z. B. Google Scholar, Psychinfo, Psycharticles, ERIC) Systematische Durchsicht von Fachzeitschriften & Bibliographien Durchsicht der Literaturverzeichnisse von relevanten Artikeln Anfragen über Fachgruppenverteiler Kontaktaufnahme mit Experten Möglichst auch Berücksichtigung sog. grauer Literatur 9

Kodierung und Bewertung Datenaufbereitung umfasst u. a. Brauchbarkeitsprüfung, Kodierung der Moderatorvariablen und Umkodierung der Kennwerte Brauchbarkeitsprüfung: Bewertung der Studien hinsichtlich inhaltlicher Angemessenheit und methodischer Standards (ggf. Ausschluss) Kodierung der Moderatorvariablen: Beurteilung der Studien bezüglich der Ausprägungen in den Moderatorvariablen Umkodierung der Kennwerte: Zusammenfassung der Effektgrößen und Überführung in eine einheitliche Größe Gruppendifferenzmaße (z. B. Cohens d, Hedges g) Zusammenhangsmaße (z. B. Δ-Maß, Korrelationskoeffizient r) Varianzaufklärungsmaße (z. B. r², η²) Risikomaße (z. B. Odds Ratio OR oder relatives Risiko RR) 10

Datenanalyse Überblick über den Ablauf nach Berechnung und Prüfung des Gesamteffektes Start Noch möglich Homogenitätstest Signifikant Moderatorvariablenanalyse Subgruppe inhomogen Maßnahmen gegen Heterogenität Nicht signifikant Subgruppe homogen: Innerhalb der Subgruppe Signifikanztest für Gesamteffekt Abbruch Bereits ausgeschöpft 11

Datenanalyse Homogenitätstest prüft die Wahrscheinlichkeit, dass Effekte der Primärstudien auf denselben zugrundeliegenden Populationseffekt zurückgehen Homogenitätstest mit der Teststatistik Q nach Shadish und Haddock (1994) verbreitetes Verfahren Bei nicht signifikantem Homogenitätstest Annahme, dass ein gemeinsamer Populationseffekt zugrunde liegt Signifikanztest für den Gesamteffekt Gewichtung der Effekte der Primärstudien an ihren Stichprobengrößen bzw. Standardfehlern Ermittlung eines Konfidenzintervalls für die geschätzte Effektgröße 12

Homogenitätstest Welche Aussage trifft zur unten abgebildeten Textpassage zu? A: Die Teststatistik Q deutet darauf hin, dass keine Moderatoreffekte vorliegen. B: Die Teststatistik Q deutet darauf hin, dass Moderatoreffekte vorliegen. C: Weder Antwort A noch Antwort B sind korrekt. Rey.participoll.com Quelle: Ginns, Martin und Marsh (2013) A B C 0 13

Datenanalyse Moderatorvariablenanalyse Bei signifikantem Homogenitätstest Annahme von Subgruppen mit unterschiedlichen Populationseffekten Ermittlung der Bedeutsamkeit von Moderatorvariablen mittels multipler Regression (bzw. mehrfaktorielle Varianzanalysen), wobei die Moderatorvariablen Prädiktoren sind und die Effektgröße die Kriteriumsvariable Bei einer Vielzahl an Moderatorvariablen Gruppierung auch clusteranalytisch möglich Maßnahmen zur weiteren Verringerung der Heterogenität z. B. durch Ausschluss von Ausreißern (z. B. Ausreißertest nach Grubbs) oder Ermittlung weiterer Moderatorvariablen 14

Präsentation und Interpretation Übersichtliche Darstellung der relevanten Parameter der Einzelstudien bzw. Subgruppen in tabellarischer und/oder graphischer Form Diskussion von Schwächen und Implikationen sowie Ansatzpunkte für weitere Forschung Abbildung der Effektgrößen (d) und Konfidenzintervalle (95%) Quelle: Ginns, Martin und Marsh (2013) 15

Probleme Uniformitätsproblem Garbage-in-Garbage-out -Problem Publikationsverzerrung Unvollständige Daten Abhängige Untersuchungsergebnisse 16

Uniformitätsproblem Äpfel-und-Birnen -Problem: Wie homogen müssen Studien sein, damit sie in einen Topf geworfen werden können? Unterschiedliche Standards für UV und AV UV: Hier eher liberaler Maßstab, da leichte Variationen (z. B. in Operationalisierung) Generalisierung des Effektes erlauben bzw. Differenzierung mittels Moderatorvariablenanalysen möglich ist AV: Hier eher strenge Kriterien, da ein gemeinsames inhaltliches Konstrukt erfasst werden soll 17

Garbage-in-Garbage-out -Problem Verwendung methodisch schwacher (z. B. wenig reliabler) Primärstudien führt zur geringeren Aussagekraft der Ergebnisse Lösungsansätze Ausschluss methodisch schwacher Studien (hierdurch jedoch Informationsverlust) Gewichtungsterm in statistischen Analysen Aufnahme der Studienqualität als Moderatorvariable 18

Publikationsverzerrung Publikationsverzerrung (engl. publication bias oder file drawer problem): Signifikante Ergebnisse werden bevorzugt veröffentlicht Lösungsansätze Umfangreiche Literaturrecherche inkl. grauer Literatur Fail-Safe-N als Anzahl nicht signifikanter Ergebnisse, die vorliegen müssten, damit aus einem signifikanten ein nicht signifikanter Gesamteffekt wird Änderung der Herausgeberpolitik der Zeitschriften Graphische Methoden zur Darstellung der Ergebnisverteilung 19

Publikationsverzerrung Welche Aussage steht an der verdeckten Stelle in der unten abgebildeten Textpassage? A: (published) studies with a significant B: (unpublished) studies with a significant C: (published) studies with a non-significant D: (unpublished) studies with a non-significant Rey.participoll.com Quelle: Richter, Scheiter und Eitel (2016) A B C D 0 20

Graphische Methoden zur Darstellung der Ergebnisverteilung Betrachtung der Verteilung der Effekte der Primärstudien Prüfung meist mittels Funnel-Plot: Verteilung sollte trichterförmig sein Weitere graphische Methode: Normal- Quantil-Plot Verteilung der Ergebnisse auch mathematisch prüfbar durch Vergleich mit vorgegebener Verteilungsform Quelle: Döring und Bortz (2015) 21

Unvollständige Daten Probleme durch fehlende statistische Kennwerte ( Missing Data ) in den Primärstudien Unvollständige Datenbasis Systematische Verzerrungen Unterschiedliche metaanalytische Ergebnisse Umgang mit unvollständigen Daten Berechnung fehlender Daten aus den berichteten Kennwerten Regressionsanalytische Schätzung fehlender Werte Konservative Schätzung von fehlenden Daten (z. B. Nulleffekte bei nicht signifikanten Befunden) Kombinierte Signifikanztests 22

Abhängige Untersuchungsergebnisse Problem: Wie soll mit verschiedenen Befunden aus derselben Stichprobe umgegangen werden? Einerseits: Unabhängigkeit der Messungen Voraussetzung für viele Metaanalysen Andererseits: Ausschluss von Daten führt zu Informationsverlust Lösungsansätze Lediglich Verwendung des bedeutsamsten Kennwertes Median- oder Mittelwertsbildung der abhängigen Ergebnisse Verwendung aller Ergebnisse unter Berücksichtigung der Kovarianzstruktur 23

Beispiele für Metaanalysen in Fachzeitschriften Quelle: Höffler (2010) Quelle: Ginns, Martin und Marsh (2013) Quelle: Richter, Scheiter und Eitel (2016) Quelle: Schroeder, Adesope und Gilbert (2013) Quelle: Wouters et al. (2013) 24

Zusammenfassung Metaanalyse als Zusammenfassung des aktuellen Forschungsstandes zu einer Fragestellung durch statistische Aggregation empirischer Einzelergebnisse inhaltlich homogener Primärstudien Überblick über uneinheitliche Befunde, Erhöhung der Power und der Validität sowie Nutzung als Entscheidungsgrundlage als Vorteile von Metaanalysen Sammlung von Studien, Kodierung und Bewertung, Datenanalyse, Präsentation und Interpretation als Schritte von Metaanalysen Uniformitätsproblem, Garbage-in-Garbage-out -Problem, Publikationsverzerrung, unvollständige Daten und abhängige Untersuchungsergebnisse als Probleme von Metaanalysen 25

Prüfungsliteratur Döring, N., & Bortz, J. (2015). Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften (5. Aufl.). Berlin: Springer. Metaanalyse (S. 893-943, ohne Rechenbeispiele) 26

Weiterführende Literatur Sedlmeier, P., & Renkewitz, F. (2013). Forschungsmethoden und Statistik: Ein Lehrbuch für Psychologen und Sozialwissenschaftler (2. Aufl.). München: Pearson. Metaanalyse (S. 755-777) Rustenbach, S. J. (2003). Metaanalyse: Eine anwendungsorientierte Einführung. Bern: Huber. 27