Proseminar Forschungsmethoden SS 11
|
|
- Susanne Hochberg
- vor 6 Jahren
- Abrufe
Transkript
1 Dipl.-Hdl. Stephanie Starke, MBR Dipl.-Hdl. Sabine Funke Proseminar Forschungsmethoden SS Plenum Tutoren: Carolin Dollinger Margarete Bast Monika Doll
2 Was bisher geschah: Seminarkonzeption in Bildern 1 Plenum: Vermittlung von 1. und 2. Plenum Fach- / Grundlagenwissen wissenschaftstheoretische Begriffe Forschungsablauf Statistische Grundbegriffe / Auswertungsmethoden Gütekriterien 1., 2.,3. Übung Übung: Anwenden & Vorbereiten Lesen und Verstehen wissenschaftlicher Studien Vorbereitung auf die eigene Forschungsarbeit (experimentelles Praktikum) 2 3. und 4. Plenum Handwerkszeug Software SPSS Grundlagen Statistische Auswertungen in SPSS Bewerten von SPSS Ausgaben (Ergebnisanzeigen) Tutorium Reader Übungsdatei Hilfestellung für eigene Auswertungen im Rahmen des experimentellen Praktikums (Tutorium) 1
3 Was bisher geschah: Seminarkonzeption in Bildern 3 Experimentelles Praktikum Theorie und Vorstudien der Konstrukte Forschungsfrage / Hypothesen Datenerhebung und -erfassung Hypothesentestung / Ergebnisinterpretation Kritisches Prüfen des eigenen Vorgehens Ergebnisse darstellen und vorstellen 1. Poster Postermesse 2. Paper Plenum: Vermittlung von Übung: Anwenden 4 Theorievertiefung Vertiefung und Erweiterung der gelernten forschungsmethodischen und statistischen Theorie Wechselnde Themenbereiche 5. und 6. Plenum 4. und 5. Übung Lesen und Verstehen wissenschaftlicher Studien 2
4 Was passiert heute? Die Gütemaße der empirischen Forschung Signifikanz Effektstärke / praktische Bedeutsamkeit Teststärke / Power (β-fehler) Von der Korrelation zur Regression Einfache lineare Regression Berechnung Bewertung Vorgehen in SPSS Multiple lineare Regression Voraussetzungen Bewertung Vorgehen in SPSS 3
5 Logik und Kritik des Hypothesentestens Oakes (1986) legte Wissenschaftlern folgende Fragen vor : Untersucht wird die Wirkung einer Trainingsmaßnahme auf die Arbeitsleistung. Verglichen werden eine Experimental- und eine Kontrollgruppe (pro Gruppe n=20). Überprüft werden die Ergebnisse anhand eines t-tests (t=2,7; FG=18; p=.01). Nullhypothese: Es gibt keinen Unterschied zwischen den Gruppen. Experimentalhypothese: Es besteht ein Unterschied zwischen den Gruppen. Welche der folgenden Aussagen treffen zu und welche nicht? 1. Die Nullhypothese wurde uneingeschränkt widerlegt. 2. Man hat die Experimentalhypothese uneingeschränkt bewiesen. 4
6 Von der Korrelation zur Regression Welchen Einfluss hat die Abiturdurchschnittsnote genau auf den Studienerfolg? Welchen Einfluss hat die Gewissenhaftigkeit genau auf den Studienerfolg? Wie genau können wir mit Hilfe dieser beiden Variablen den Studienerfolg vorhersagen? 5
7 Unterschied: Korrelation Regression Eine graphische Veranschaulichung y y cos γ = r x x 6
8 Unterschied: Korrelation Regression Korrelation lediglich lineares Zusammenhangsmaß zwischen zwei Variablen Ist der Zusammenhang überzufällig / signifikant? (Prüfgröße: t = ) Regression Zusammenhang zweier Variablen mit bekannter Wirkungsrichtung Ziel: die Unterschiede der abhängigen Variablen (eines Kriteriums) auf die Unterschiede in der unabhängigen Variablen (Prädiktoren) zurückzuführen Jeder Prädiktor teilt mit dem Kriterium einen bestimmten Varianzanteil. Dieser Anteil wird durch den jeweiligen Prädiktor vorausgesagt. Ist der Gewichtungsfaktor/ Regressionskoeffizient (b bzw. β) jedes Prädiktors signifikant groß, um Unterschiede der Kriteriumsvarianz vorherzusagen? Ist der Anteil aufgeklärter Kriteriumsvarianz (R 2 ) signifikant groß? r * N 2 1 r 2 7
9 Grundprinzip der Regression y beobachtete y-werte: vorhergesagte Werte: yi = a + b xi + e yˆ = a + b i x i = β Steigung entspricht dem Regressionsgewicht des Prädiktors y yˆ = e x Steigung der Regressionsgeraden entspricht dem nicht standardisierten Regressionskoeffizienten des Prädiktors Schnittpunkt der Regressionsgeraden mit der y-achse entspricht der Konstanten Die Abweichung des geschätzten / vorhergesagten Wertes vom tatsächlichen /beobachteten Wert y ist der Fehler (e). 8
10 Kausalität Die Anwendung von Regressionsanalysen zur Bestimmung kausaler Zusammenhänge ist nicht grundsätzlich gegeben. Folgende Voraussetzungen müssen für die Kausalität erfüllt sein: Signifikanter Zusammenhang zwischen x und y mit angemessener und praktischer Bedeutsamkeit Prädiktor und Kriterium müssen zeitlich aufeinander folgen oder eine starke Theorie ist nötig, die auch ausschließt, dass obige Korrelation durch eine Drittvariable bedingt ist (Vorsicht also bei querschnittlichen Untersuchungen!) 9
11 Zusammenhang / Korrelation Abiturdurchschnitt und bisheriger Notendurchschnitt 3,5-3,99 bisherige Notendu urchschnitt 3,0-3,49 2,5-2,99 2,0-2,49 1,5-1,99 1,0-1, Notendurchschnitt im Abitur Ergebnis in Zahlen: Pearson-Korrelation (einseitig): r=.479**, p=.000 Effektstärke: r =.479 (starker Effekt) α-fehler=.01; β-fehler=.001 Ergebnis (verbal): Die Korrelation gibt einen sehr deutlichen Hinweis darauf, dass zwischen dem Abiturdurchschnitt und dem bisherigen Notendurchschnitt im Studium ein Zusammenhang existiert. 10
12 Welchen Einfluss hat der Abiturdurchschnitt auf den Erfolg im Studium? einfache lineare Regression (nur eine unabhängige Variable): H 0 : Studierende mit besserem (niedrigerem) Abiturdurchschnitt weisen bessere bisherige Notendurchschnitte im Studium auf. H 1 : Studierende mit besserem (niedrigerem) Abiturdurchschnitt weisen schlechtere oder gleich gute bisherige Notendurchschnitte im Studium auf. SPSS: Analysieren + Regression + linear Merkmale: abhängige Variable: bisheriger Notendurchschnitt im Studium unabhängige Variable: Abischnitt (beide Merkmale sind annähernd normal verteilt und haben metrisches Skalenniveau) Alle weiteren Funktionen werden zunächst außer Acht gelassen; alle Voreinstellungen übernommen. 11
13 Welchen Einfluss hat der Abiturdurchschnitt auf den Erfolg im Studium? Ergebnis: y bisheriger ND = 1, ,883 * x Abischnitt + Fehler 12
14 Lineare Regression einfache lineare Regression: multiple lineare Regression: yˆ yˆ = aˆ + bˆ i x i = Vorhersage des Kriteriums durch einen Prädiktor. Varianz des Prädiktors x = a ˆ + b ˆ x + b ˆ x b ˆ ˆi = Vorhersage des Kriteriums durch zwei oder mehrere Prädiktoren. i i Varianz des Kriteriums y k x k yˆ = der für Person i vorhergesagte Kriteriumswert x i aˆ = geschätzte Konstante bˆ = geschätzter Regressionskoeffizient /Gewichtung i = der Prädiktorwert für Person i Varianz des Prädiktors 1 x 1 Varianz des Kriteriums y Varianz des Prädiktors 2 x 2 Varianz des Prädiktors 3 x 3 13
15 Lineare Regression Signifikanztestung der Regressionskoeffizienten Die Stärke der Regressionskoeffizienten (der unabhängigen Variablen) ist wichtig für die Vorhersage (-stärke) des Kriteriums (der abhängigen Variable). Der Unterschied zwischen β und b: b = unstandardisiertes Regressionsgewicht: d.h. die Änderung des Prädiktors um 1 Einheit bewirkt eine Änderung des Kriteriums um b Einheiten vorhergesagte Kriteriumswerte kann man nur mit dem b, nicht mit β berechnen β = standardisiertes Regressionsgewicht: d.h. die Änderung des Prädiktors um 1 Standardabweichung bewirkt eine Änderung des Kriteriums um β-standardabweichung Vorteil gegenüber b: β-gewichte der Prädiktoren können direkt in ihrer Größe verglichen werden (b s sind aufgrund ihrer unterschiedlichen Einheiten nicht vergleichbar) Bühner & Ziegler (2009), S
16 Lineare Regression Signifikanztestung der Regressionskoeffizienten für unstandardisierte b-gewichte: Voraussetzungen: (später) H 0 : b=0 (Es wird angenommen, dass jedes Regressionsgewicht Null ist es besteht kein Zusammenhang zwischen Prädiktor und Kriterium) H 1 : b 0; b>0; b<o (Es wird angenommen, dass das b i verschieden von Null ist es besteht ein Zusammenhang zwischen Kriterium und dem Prädiktor) b 0 Prüfgröße: t = = s Signifikanzprüfung: b s b t-verteilung Freiheitsgrade: df=n-2 Konfidenzniveau: 1-α/2 b Bei der multiplen Regression wird die Prüfgröße mit der F-Statistik berechnet. Signifikanz gilt auch für standardisiertes β-gewicht! 15
17 Lineare Regression Signifikanztestung des multiplen R 2 Wie groß ist der Varianzanteil, den die Prädiktoren mit dem Kriterium gemeinsam haben? einfache lineare Regression: Wie viel Varianz kann durch die Prädiktoren aufgeklärt werden R 2? Varianz des Kriteriums y multiple lineare Regression: Wie viel Varianz kann durch die Prädiktoren aufgeklärt werden R 2? Varianz des Kriteriums y Setzt sich zusammen aus dem gemeinsamen Varianzanteil aller Prädiktoren und dem Kriterium plus den einzigartigen Varianzanteilen zwischen einzelnen Prädiktoren und dem Kriterium. 16
18 Lineare Regression Signifikanztestung des multiplen R 2 für das multiple R bzw. R 2 : Voraussetzungen: (später) H 2 0 : R =0 (Es wird angenommen, dass der gewichtete Anteil der erklärten Varianz im Verhältnis zum gewichteten Anteil der nicht erklärten Varianz nahe Null ist.) H 1 : R 2 0; R 2 >0; (Es wird angenommen, dass der gewichtete Anteil der erklärten Varianz größer ist als der gewichtete Anteil der nicht erklärten Varianz.) Prüfgröße: Signifikanzprüfung: F F-Verteilung Freiheitsgrade: df=n-p-1 Konfidenzniveau: 1-α ( n p 1) R = 2 p (1 R ) Je mehr Prädiktoren in die Stichprobe einfließen, je größer muss die Stichprobe sein. 2 R: Korrelation zwischen den Prädiktoren und den beobachteten Kriteriumswerten bzw. den vorhergesagten Kriteriumswerten R 2 : quadriertes R = Anteil der aufgeklärten Varianz n: Stichprobengröße p: Anzahl der Prädiktoren /unabhängigen Variablen 17
19 Bewertung der aufgeklärten Varianz (R 2 ) praktische Bedeutsamkeit R 2 ist der Anteil der Kriteriumsvarianz, der auf die Prädiktoren zurückgeführt werden kann. Oder anders formuliert: Wie viel Prozent der Unterschiede im Kriterium können durch Unterschiede in den Prädiktoren erklärt werden? Bewertung nach Bühner & Ziegler (2009): kleiner Effekt: R 2 = 0.02 (0.02 < R 2 < 0.13 geringer bis moderater Effekt) moderater Effekt: R 2 = 0.13 (0.13 < R 2 < 0.26 moderater bis starker Effekt) starker Effekt: R 2 = 0.26 Bewertung nach Cohen (1988): Schwacher Effekt: ε=0,02 bzw. R 2 = Mittlerer Effekt: ε=0,15 bzw. R 2 = Starker Effekt: ε=0,35 bzw. R 2 = Quelle: Bühner & Ziegler, 2009, S ε 2 R = 1 R Quelle: Cohen, 1988, zitiert nach Bortz (2005, S
20 Zusammenhang / Korrelation Gewissenhaftigkeit und bisheriger Notendurchschnitt 3,5-3,99 bisherige Notendu urchschnitt 3,0-3,49 2,5-2,99 2,0-2,49 1,5-1,99 1,0-1,49 0,00 1,00 2,00 3,00 4,00 5,00 6,00 nie Gewissenhaftigkeit sehr häufig Ergebnis in Zahlen: Pearson-Korrelation (einseitig): r=-.273, p=.000 Effektstärke: r =.273 (moderat) alpha-fehler=.01; beta-fehler=.084 Ergebnis (verbal): Die Korrelation gibt einen Hinweis darauf, dass zwischen der Gewissenhaftigkeit und dem bisherigen Notendurchschnitt ein Zusammenhang existiert. 19
21 Einfache Lineare Regression einfache lineare Regression (nur eine unabhängige Variable): H 0 : Gewissenhafte Studierende weisen niedrigere bisherige Notendurchschnitte auf. H 1 : Gewissenhafte Studierende weisen höhere oder gleich hohe bisherige Notendurchschnitte auf. SPSS: Analysieren + Regression + linear Merkmale: abhängige Variable: bio_schnitt unabhängige Variable: BFI_gew (beide Merkmale sind annähernd normal verteilt und haben metrisches Skalenniveau) Alle weiteren Funktionen werden zunächst außer Acht gelassen; alle Voreinstellungen übernommen. 20
22 Einfache lineare Regression Ergebnisinterpretation Der Regressionskoeffizient des Prädiktors Gewissenhaftigkeit: unstandardisierte Lösung: a = 5,316 b BFI_gew = yˆ = a+ b i x i standardisierte Lösung: β BFI_gew = z i = β y z i Prüfgröße t BFI_gew = Signifikanz zur Prüfgröße p=.000 Ergebnis: yˆ = 5,316 0, 439 i x i z y i = 0, 348 z i Gewissenhafte Studierende weisen niedrigere (=bessere) bisheriger Notendurchschnitte auf. Der Einfluss ist signifikant! Verbale Erläuterung b: Wenn sich die Gewissenhaftigkeit um eine Einheit verbessert, verbessert sich der Notendurchschnitt um 0,439 Einheiten. Verbale Erläuterung β: Wenn sich die Gewissenhaftigkeit um 1 Standardabweichung verbessert, verbessert sich der Notendurchschnitt um 0,348 Standardabweichungen. 21
23 Einfache lineare Regression Ergebnisinterpretation Wie viel Varianz kann der Prädiktor Gewissenhaftigkeit am Kriterium bisherigen Notendurchschnitt erklären? R = Korrelation von beobachtetem und vorhergesagtem Wert R 2 = der Anteil der aufgeklärten Varianz des Kriteriums (bisheriger Notendurchschnitt) durch den Prädiktor (Gewissenhaftigkeit) =12,1% bzw. korrigiert = 11,6% Prüfgröße F R = -23,534 Das heißt, der aufgeklärte Varianzanteil ist signifikant von Null verschieden. Signifikanz zur Prüfgröße p=
24 Einfache lineare Regression unabhängige Variable Prädiktor (x) β abhängige Variable Kriterium (y) Anteil an Varianz, der nicht zur Vorhersage des Kriteriums beiträgt Beitrag zum Kriterium R 2 Anteil der aufgeklärter Varianz, aufgrund des Prädiktors 1-R 2 Anteil unaufgeklärter Varianz 23
25 Graphische Darstellung der multiplen Regression Quelle: Field, 2005, S
26 Zusammenfassung Ergebnisse der einfachen linearen Regressionen Abiturdurchschnitt (x Abi ) β=.479** R 2 korr=.224** bisheriger Notendurchschnitt (y) Gewissenhaftigkeit (x Gew ) β= -.348** R 2 korr=.116** bisheriger Notendurchschnitt (y) 25
27 Erweiterung zur multiplen Regression r? Abiturdurchschnitt (x Abi ) bisheriger Noten- durchschnitt (y) Gewissenhaftigkeit (x Gew ) R 2 korr =.224** R 2 korr =.116 Gibt es einen Zusammenhang zwischen den Prädiktoren? Wie verändern sich die Regressionskoeffizienten, wenn beide Prädiktoren in die Regressionsanalyse aufgenommen werden? Varianz des Kriteriums y Wie verändert sich der zu erklärende Varianzanteil des Kriteriums? 26
28 Korrelationen der abhängigen und der unabhängigen Variablen Korrelationen der Prädiktoren mit dem Kriterium Korrelationen der Prädiktoren untereinander d.h. die Varianzanteile, welche die beiden Prädiktoren am Kriterium erklären überlagern sich Varianz des Kriteriums y Daher wird der insgesamt erklärte Varianzanteil kleiner sein als die Summe der beiden R 2 der einfachen linearen Regressionen. 27
29 Voraussetzungen der multiplen Regression 1. Linearität 2. keine Multikollinearität 3. Homoskedastizität 4. Normalverteilung der Fehler (Störterme) 5. keine korrelierten Fehlerterme (Störterme) Autokorrelation 6. vollständig spezifizierte Modelle 7. hohe Reliabilitäten der Prädiktoren und des Kriteriums Quelle: Bühner & Ziegler, 2009, S. 665; Backhaus, Erichson, Plinke & Weiber, 2006, S
30 Voraussetzungen Linearität bisheriger Notendurchschnitt 3,5-3,99 3,0-3,49 2,5-2,99 2,0-2,49 1,5-1,99 1,0-1,49 Zusammenhänge sowohl zwischen den Prädiktoren, als auch den Prädiktoren mit dem Kriterium sind linear Notendurchschnitt im Abitur 3,5-3,99 bisheriger Notendurchschnitt 3,0-3,49 2,5-2,99 2,0-2,49 1,5-1,99 1,0-1,49 0,00 nie 1,00 2,00 3,00 4,00 sehr 5,00 häufig 6,00 Gewissenhaftigkeit Quelle: Bühner & Ziegler, 2009, S ; Backhaus, et al., 2006, S
31 Voraussetzungen Ausreißer Der Einfluss der Ausreißers verändert Steigung und Achsenabschnitt der Regressionsgerade. Quelle: Field, 2005, S
32 Voraussetzungen (Multi-)Kollinearität Unter Kollinearität versteht man, dass zwei oder mehr Variablen perfekt und sehr hoch miteinander zusammenhängen. Dies wirkt sich auf ihre β-gewichte aus. Prüfung mittels: Variance Inflation Factor: VIF > 10 Vorsicht Tolerance: Tolerance <.10 Vorsicht Konditionsindex: CI > 15 kritisch, CI > 30 sehr kritisch (Werte können aus SPSS-Statistiken unmittelbar abgelesen werden; siehe Durchführung einer multiplen Regressionsanalyse) Konsequenzen: Ungenau geschätzte Standardfehler z. T. Punktschätzungen >1 Suppressionseffekt Abhilfe: Kollineare Variablen aus der Analyse entfernen oder zusammenfassen Verwendung regressionsanalytischer Methoden, bei denen Kollinearität kein Problem verursacht (z.b. PLS) Quelle: Bühner & Ziegler, 2009, S ; Backhaus, et al. 2006, S
33 Voraussetzungen Homoskedastizität: die Vorhersagegenauigkeit des Wetters 32
34 Voraussetzungen Homoskedastizität Homoskedastizität: liegt dann vor, wenn der Regressionskoeffizient (Gewichtungsfaktor) in allen Bereichen gleich genau vorhersagt. Das heißt, die Streuung der beobachtbaren Werte um die Regressionsgerade ist in allen Bereichen gleich weit / nah. Quelle: Bühner & Ziegler, 2009, S ; Backhaus, et al. 2006, S
35 Voraussetzungen Homoskedastizität Liegt Heteroskedastizität (= Gegenteil der Homoskedastität) vor, schwankt die Vorhersagegenauigkeit in den verschiedenen Bereichen. Im skizzierten Bsp. würden niedrigere vorhergesagte Werte ungenauer als hohe vorhergesagte Werte sein. Quelle: Bühner & Ziegler, 2009, S ; Backhaus, et al. 2006, S
36 Voraussetzungen Bsp. Heteroskedastizität und Nicht-Linearität Liegt Nicht-Linearität oder Heteroskedastizität (= Gegenteil der Homoskedastizität) oder sogar beides zusammen vor, dann schwankt die Vorhersagegenauigkeit in den verschiedenen Bereichen erheblich. Quelle: Field, 2005, S
37 Voraussetzungen normalverteilte Störterme (Fehlerwerte) Prüfung der Normalverteilungsannahme über die Residuen (Fehlerwerte) Annahme: Erwartungswert = 0 Graphische Darstellung: Histogramm der Fehlerwerte Warum? Voraussetzung für die Berechnung der Signifikanztests für die Regressionskoeffizienten und des R 2. Mit zunehmender Stichprobengröße (ab N = 100) sind Abweichungen weniger problematisch. Ausreißer können nach wie vor die Interpretation erschweren. Quelle: Bühner & Ziegler, 2009, S ; Backhaus, et al. 2006, S
38 Voraussetzungen normalverteilte Störterme (Fehlerwerte) Quelle: Field, 2005, S
39 Voraussetzung keine korrelierten Fehler (keine Autokorrelation) Hauptsächlich bei Zeitreihenanalysen interessant Eine Variable wird mehrfach erhoben (z.b. Zufriedenheit) der Pbn weist durchgängig hohe Werte auf die identifizierten Vorhersagefehler korrelieren miteinander Grund für diesen zeitlichen Trend könnte eine Drittvariable sein (nämlich die allgemeine Lebenszufriedenheit bspw. in Form einer glücklichen Partnerschaft) Quelle: Bühner & Ziegler, 2009, S ; Backhaus, et al. 2006, S
40 Voraussetzungen vollständig spezifizierte Modelle Prädiktor Prädiktor Prädiktor Prädiktor β β β β Bias R 2 (Bias) Problem: wichtiger Prädiktor fehlt (grau) durch die Korrelation der Prädiktoren teilen sie sich gemeinsame Erklärungsvarianz (schraffierter Teil) die beta-gewichte werden überschätzt zusätzlich erbringt der fehlende Prädiktor noch einen eigenständigen Varianzanteil für das Kriterium der erklärte Varianzanteil (R 2 ) wird unterschätzt Quelle: Bühner & Ziegler, 2009, S ; Backhaus, et al. 2006, S
41 Durchführung der multiplen linearen Regression inkl. Voraussetzungsprüfung Multiple lineare Regression (2 oder mehr unabhängige Variablen): Voraussetzungen: Linearität (mittels Streudiagrammen prüfen) SPSS: Analysieren + Regression + linear Zur Prüfung der Voraussetzungen: keine Kollinearität Homoskedastizität Normalverteilte Fehler Funktionen unter Statistiken bzw. Diagramme auswählen Wird nachfolgend erklärt. Quelle: Jansen & Laatz, 2007, S
42 Voraussetzungen Kollinearität Multiple lineare Regression (2 oder mehr unabhängige Variablen): Voraussetzungen: Prüfung der Kollinearität 41
43 Durchführung der multiplen linearen Regression inkl. Voraussetzungsprüfung Multiple lineare Regression (2 oder mehr unabhängige Variablen): Voraussetzungen: Prüfung der Homoskedastizität Prüfung der normalverteilten Fehler 42
44 Multiple lineare Regression Voraussetzungen I Linearität: bereits durch die Streudiagramme geprüft Autokorrelation: wird hier nicht weiter berücksichtigt, da es sich nicht um Zeitreihendaten handelt Vollständig spezifiziertes Modell: aus Übungsgründen wird auf zwei (empirisch abgesicherte) zentrale Prädiktoren fokussiert hohe Reliabilitäten: bisheriger Notendurchschnitt und Abischnitt sind Single-Item-Variablen; Gewissenhaftigkeit (α=.801) wird als gut akzeptiert Normalverteilung der Fehlerterme: erzeugt durch Anklicken des Häkchens Histogramme unter Diagramme 43
45 Multiple lineare Regression Voraussetzungen II Prüfung auf Kollinearität: Tabelle Koeffizienten: Tabelle Kollinearitätsdiagnose: VIF < 10 Tolerance >.10 Variance Inflation Factor: VIF > 10 Vorsicht Tolerance: Tolerance <.10 Vorsicht CI > 15 Konditionsindex: CI > 15 kritisch, CI > 30 sehr kritisch 44
46 Multiple lineare Regression Voraussetzungen III Homoskedastizität: 45
47 Multiple lineare Regression Ergebnisinterpretation der Regressionskoeffizienten unstandardisierte Lösung: a = 3,012 b Abi = 0,751 b BFI_gew = -0,249 standardisierte Lösung: β Abi = 0,407 β BFI_gew = p-werte < 0,01 die Konstante sowie die Prädiktoren haben signifikante Einflüsse auf das Kriterium Reduzierung der beta-gewichte im Vergleich zu den einfachen linearen Regressionen Signifikanz der beiden Prädiktoren weiterhin gegeben, allerdings ist die Signifikanz des Prädiktors Gewissenhaftigkeit nicht mehr so eindeutig Zusätzlich: Konfidenzintervalle der Konstanten, sowie der Prädiktoren 46
48 Multiple lineare Regression Ergebnisinterpretation der aufgeklärten Kriteriumsvarianz R 2 = der Anteil der aufgeklärten Varianz des Kriteriums =26,3%, bzw. korrigiert = 25,4% Signifikanz zur Prüfgröße p=.000 Das korrigierte R 2 liegt mit einem Wert von 25,4% aufgeklärter Varianz über den Werten der einfachen linearen Regressionen (allerdings deutlich unter dem aufsummierten R 2 : 0,224+0,116=0,34). Die beiden Prädiktoren haben also einen gemeinsamen Varianzanteil am Prädiktor (durch die Interkorrelation der Prädiktoren konnte dies Ergebnis vermutet werden). Der aufgeklärte Varianzanteil ist signifikant und von großer praktischer Relevanz. 47
49 Teststärke und Power der Untersuchung Die Teststärke unserer Untersuchung ist nahe 100%, damit der β-fehler nahe 0. 48
50 Zusammenfassung der Ergebnisse r =-.373** Abiturdurchschnitt (x Abi ) Gewissenhaftigkeit (x Gew ) bisheriger Noten- durchschnitt (y) R 2 =.254** Die Voraussetzungen sind bis auf die Kollinearitätsprüfung erfüllt (CI knapp über 15). Elimination oder Zusammenfassen kommt bei dieser niedrigen Überschreitung und der geringen Zahl an Prädiktoren nicht in Frage. Die Regressionskoeffizienten sowie die aufgeklärte Kriteriumsvarianz zeigen signifikante Größen. Die gewählten Prädiktoren können einen angemessenen Anteil aufklären; sie sind von praktischer Bedeutung. Die Teststärke ist sehr gut. Die Fehlerwahrscheinlichkeiten (α- und β-fehler) sind sehr gering. 49
51 Zentrale Ziele der heutigen Veranstaltung Mehrwert der Regressionsanalyse gegenüber Korrelationsrechnungen: Gewichtung der einzelnen Prädiktoren und Spezifikation des erklärbaren Varianzanteils des Kriteriums Mehrwert multiple Regressionen gegenüber einfachen linearen Regressionen: sich überschneidende Varianzanteile werden auspartialisiert Multiple Regressionen sind an zahlreiche Voraussetzungen geknüpft, Verletzungen können zu starken Über- oder Unterschätzungen (β, R 2 ) führen Logik und Kritik des Hypothesentestens Bewertung der empirischen Ergebnisse anhand der Signifikanz, der Effektstärke und Power 50
52 Arbeitsauftrag für die nächste Übung Weitere Beispielstudie für das neu Gelernte Koch, St. (2006). Persönliche Verantwortung für den Studienerfolg. Zeitschrift für Pädagogische Psychologie, 20 (4), Arbeitsauftrag: Wiederholung der Plenumsinhalte! Lesen und analysieren der Studie Koch (2006) insbesondere hinsichtlich der Auswertungsmethoden Faktorenanalyse und Regressionsanalyse! 51
53 Literatur Backhaus, K., Erichson, B., Plinke, W. & Weiber, R. (2006). Multivariate Analysemethoden. Eine anwendungsorientierte Einführung (Elfte, überarbeitete Auflage mit 559 Abbildungen und 6 Tabellen.). Berlin, Heidelberg: Springer. Bortz, J. & Döring, N. (2006). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler (4., überarbeitete Auflage). Heidelberg: Springer. Bortz, J. & Weber, R. (2005). Statistik für Human- und Sozialwissenschaftler. Mit 242 Tabellen (6., vollst. überarb. und aktualisierte Aufl.). Heidelberg: Springer Medizin. Bühner, M. (2006). Einführung in die Test- und Fragebogenkonstruktion (2. aktualisierte Aufl.). München: Pearson- Studium. Cohen, J. W. (1988). Statistical power analysis for the behavioral sciences (2. ed.). Hillsdale, NJ: Erlbaum. Cohen, J. (1994). The Earth is Round (p<.05). American Psychologist, 49, Erdfelder, E., Faul, E. & Buchner, A. (1996). GPOWER: A General Power Analysis Program. Behavior Research Methods, Instruments and Computers, 28, Janssen, J. (2007). Statistische Datenanalyse mit SPSS für Windows. Eine anwendungsorientierte Einführung in das Basissystem und das Modul Exakte Tests (Sechste, neu bearbeitete und erweiterte Auflage.). Berlin, Heidelberg: Springer-Verlag. Rost, D. H. (2007). Interpretation und Bewertung pädagogisch-psychologischer Studien. 52
Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)
Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang
MehrModul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.
Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes
MehrLösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1
LÖSUNG 9B a) Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 Man kann erwarten, dass der Absatz mit steigendem Preis abnimmt, mit höherer Anzahl der Außendienstmitarbeiter sowie mit erhöhten
MehrInhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1
Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...
MehrKommentierter SPSS-Output für die multiple Regressionsanalyse (SPSS-Version 17)
R.Niketta Multiple Regressionsanalyse Kommentierter SPSS-Output für die multiple Regressionsanalyse (SPSS-Version 17) Daten: Selbstdarstellung und Kontaktsuche in studi.vz (POK VIII, AG 3) Fragestellung:
MehrWeitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression
Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression Speziell im Zusammenhang mit der Ablehnung der Globalhypothese werden bei einer linearen Einfachregression weitere Fragestellungen
Mehr2. Korrelation, lineare Regression und multiple Regression
multiple 2.2 Lineare 2.2 Lineare 1 / 130 2.2 Lineare 2 / 130 2.1 Beispiel: Arbeitsmotivation Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden durch Arbeitsplatz zufällig
MehrProf. Dr. Gabriele Helga Franke TESTTHEORIE UND TESTKONSTRUKTION
Prof. Dr. Gabriele Helga Franke TESTTHEORIE UND TESTKONSTRUKTION 2. FS Master Rehabilitationspsychologie, SoSe 2012 Faktorenanalyse/ faktorielle Validität 2 Einleitung Allgemeines zu Faktorenanalysen (FA)
MehrKorrelation - Regression. Berghold, IMI
Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines
MehrInstitut für Soziologie Benjamin Gedon. Methoden 2. Regressionsanalyse IV: Transformation und Interaktion
Institut für Soziologie Methoden 2 Regressionsanalyse IV: Transformation und Interaktion Inhalt 1. Zusammenfassung letzte Sitzung 2. Weitere Annahmen und Diagnostik 3. Transformationen zur besseren Interpretierbarkeit
MehrLineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA)
Interdisziplinäres Seminar Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA) WS 2008/09 19.11.2008 Julia Schiele und Lucie Wink Dozenten: Prof. Dr. Bühner, Prof. Dr. Küchenhoff
MehrE ektgrößen Metaanalysen. Zusammenhänge und Unterschiede quantifizieren E ektgrößen
DAS THEMA: EFFEKTGRÖßEN UND METAANALYSE E ektgrößen Metaanalysen Zusammenhänge und Unterschiede quantifizieren E ektgrößen Was ist ein E ekt? Was sind E ektgrößen? Berechnung von E ektgrößen Interpretation
MehrGrundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel
Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel 16.11.01 MP1 - Grundlagen quantitativer Sozialforschung - (4) Datenanalyse 1 Gliederung Datenanalyse (inferenzstatistisch)
MehrVon der Untersuchungsfrage zu statistischen Hypothesen, und wie war das nochmal mit dem α- und
Von der Untersuchungsfrage zu statistischen Hypothesen, und wie war das nochmal mit dem α- und β-fehler? Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de
MehrTeil II: Einführung in die Statistik
Teil II: Einführung in die Statistik (50 Punkte) Bitte beantworten Sie ALLE Fragen. Es handelt sich um multiple choice Fragen. Sie müssen die exakte Antwortmöglichkeit angeben, um die volle Punktzahl zu
MehrÜberblick über die Verfahren für Ordinaldaten
Verfahren zur Analyse ordinalskalierten Daten 1 Überblick über die Verfahren für Ordinaldaten Unterschiede bei unabhängigen Stichproben Test U Test nach Mann & Whitney H Test nach Kruskal & Wallis parametrische
MehrFortgeschrittene Statistik Logistische Regression
Fortgeschrittene Statistik Logistische Regression O D D S, O D D S - R A T I O, L O G I T T R A N S F O R M A T I O N, I N T E R P R E T A T I O N V O N K O E F F I Z I E N T E N, L O G I S T I S C H E
MehrFragen und Antworten zu Kapitel 18
Fragen und Antworten zu Kapitel 18 (1) Nennen Sie verschiedene Zielsetzungen, die man mit der Anwendung der multiplen Regressionsanalyse verfolgt. Die multiple Regressionsanalyse dient der Kontrolle von
MehrDas Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":
Lineare Regression Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear": Im einfachsten Fall werden mehrere Prädiktoren (oder nur
MehrChristian FG Schendera. Regressionsanalyse. mit SPSS. 2. korrigierte und aktualisierte Auflage DE GRUYTER OLDENBOURG
Christian FG Schendera Regressionsanalyse mit SPSS 2. korrigierte und aktualisierte Auflage DE GRUYTER OLDENBOURG Inhalt Vorworte V 1 Korrelation 1 1.1 Einführung 1 1.2 Erste Voraussetzung: Das Skalenniveau
MehrGestaltungsempfehlungen
Gestaltungsempfehlungen Prof. Dr. Günter Daniel Rey 1 Überblick Auswahl der Empfehlungen Gestaltungseffekte Empirische Überprüfung Variablenarten Versuchspläne Beispiel eines Experimentes Statistische
MehrKommentierter SPSS-Ausdruck zur logistischen Regression
Daten: POK V AG 3 (POKV_AG3_V07.SAV) Kommentierter SPSS-Ausdruck zur logistischen Regression Fragestellung: Welchen Einfluss hat die Fachnähe und das Geschlecht auf die interpersonale Attraktion einer
MehrAuswertung mit dem Statistikprogramm SPSS: 30.11.05
Auswertung mit dem Statistikprogramm SPSS: 30.11.05 Seite 1 Einführung SPSS Was ist eine Fragestellung? Beispiel Welche statistische Prozedur gehört zu welcher Hypothese? Statistische Berechnungen mit
MehrGestaltungsempfehlungen
Professur E-Learning und Neue Medien Institut für Medienforschung Philosophische Fakultät Lehren und Lernen mit Medien I Gestaltungsempfehlungen Überblick Auswahl der Empfehlungen Gestaltungseffekte Empirische
Mehra) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten.
Statistik für Kommunikationswissenschaftler Wintersemester 2009/200 Vorlesung Prof. Dr. Helmut Küchenhoff Übung Cornelia Oberhauser, Monia Mahling, Juliane Manitz Thema 4 Homepage zur Veranstaltung: http://www.statistik.lmu.de/~helmut/kw09.html
MehrFlorian Frötscher und Demet Özçetin
Statistische Tests in der Mehrsprachigkeitsforschung Aufgaben, Anforderungen, Probleme. Florian Frötscher und Demet Özçetin florian.froetscher@uni-hamburg.de SFB 538 Mehrsprachigkeit Max-Brauer-Allee 60
MehrInterne und externe Modellvalidität
Interne und externe Modellvalidität Interne Modellvalidität ist gegeben, o wenn statistische Inferenz bzgl. der untersuchten Grundgesamtheit zulässig ist o KQ-Schätzer der Modellparameter u. Varianzschätzer
MehrMultiple Regression II: Signifikanztests, Gewichtung, Multikollinearität und Kohortenanalyse
Multiple Regression II: Signifikanztests,, Multikollinearität und Kohortenanalyse Statistik II Übersicht Literatur Kausalität und Regression Inferenz und standardisierte Koeffizienten Statistik II Multiple
Mehr3 Zusammenhangsmaße Zusammenhangshypothesen
3 Zusammenhangsmaße Zusammenhangshypothesen Zusammenhänge (zwischen 2 Variablen) misst man mittels Korrelationen. Die Wahl der Korrelation hängt ab von: a) Skalenniveau der beiden Variablen: 1) intervallskaliert
MehrBachelorabschlussseminar Dipl.-Kfm. Daniel Cracau
1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank
MehrKapitel 7: Varianzanalyse mit Messwiederholung
Kapitel 7: Varianzanalyse mit Messwiederholung Durchführung einer einfaktoriellen Varianzanalyse mit Messwiederholung 1 Durchführung einer zweifaktoriellen Varianzanalyse mit Messwiederholung auf einem
MehrMultivariate Analysemethoden
Multivariate Analysemethoden 30.04.2014 Günter Meinhardt Johannes Gutenberg Universität Mainz Einführung Was sind multivariate Analysemethoden? Vorlesung Übung/Tut Prüfung Verfahrensdarstellung in Überblick
Mehr1 Statistische Grundlagen
Konzepte in Empirische Ökonomie 1 (Winter) Hier findest Du ein paar Tipps zu den Konzepten in Empirische 1. Wenn Du aber noch etwas Unterstützung kurz vor der Klausur brauchst, schreib uns eine kurze Email.
MehrRegressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )
Zusammenhänge von Variablen Regressionsanalysen linearer Zusammenhang ( Idealfall ) kein Zusammenhang nichtlinearer monotoner Zusammenhang (i.d.regel berechenbar über Variablentransformationen mittels
MehrMensch Technisch. Fallstudien
Zusammenfassung Überblick Mensch Technisch h h titativ iv Quan Qualitat Kontrollierte Experimente mit Probanden Fragebög en Interview Fallstudien Zeitreihen analysen Perform ance Beweise Think Aloud Protokolle
MehrQuantitative Methoden der Bildungsforschung
Glieung Wieholung Korrelationen Grundlagen lineare Regression Lineare Regression in SPSS Übung Wieholung Korrelationen Standardisiertes Zusammenhangsmaß (unstandardisiert: Kovarianz) linearer Zusammenhang
MehrPrüfen von Mittelwertsunterschieden: t-test
Prüfen von Mittelwertsunterschieden: t-test Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) t-test
MehrEinleitung 19. Teil I Datenanalyse und Modellbildung Grundlagen 25
Inhaltsverzeichnis Einleitung 19 Zu diesem Buch 19 Konventionen in diesem Buch 20 Was Sie nicht lesen müssen 21 Falsche Voraussetzungen 21 Wie dieses Buch aufgebaut ist 21 Teil I: Datenanalyse und Grundlagen
MehrNichtparametrische statistische Verfahren
Nichtparametrische statistische Verfahren (im Wesentlichen Analyse von Abhängigkeiten) Kategorien von nichtparametrischen Methoden Beispiel für Rangsummentests: Wilcoxon-Test / U-Test Varianzanalysen 1-faktorielle
MehrFranz Kronthaler. Statistik angewandt. Datenanalyse ist (k)eine Kunst. Excel Edition. ^ Springer Spektrum
Franz Kronthaler Statistik angewandt Datenanalyse ist (k)eine Kunst Excel Edition ^ Springer Spektrum Inhaltsverzeichnis Teil I Basiswissen und Werkzeuge, um Statistik anzuwenden 1 Statistik ist Spaß 3
MehrDie Technik und Logik von linearen Strukturgleichungsmodellen
Die Technik und Logik von linearen Strukturgleichungsmodellen Empfehlenswerte Einführungen in die Arbeit mit Strukturgleichungsmodellen ( structural equation modeling ) finden sich in Byrne (1994) (spezifisch
MehrFaktorenanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007
Faktorenanalyse Bacher, SoSe2007 1. Grundlegende Verfahren explorative FA (EXFA): Für eine Menge von Variablen/Items werden zugrunde liegende gemeinsame (latente) Dimensionen/Faktoren gesucht, die Faktorstruktur
MehrAllgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse
Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse Univariate Varianz- und Kovarianzanlyse, Multivariate Varianzanalyse und Varianzanalyse mit Messwiederholung finden sich unter
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungsfreie Verfahren Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften
MehrDOE am Beispiel Laserpointer
DOE am Beispiel Laserpointer Swen Günther Ein wesentliches Ziel im Rahmen der Neuproduktentwicklung ist die aus Kundesicht bestmögliche, d.h. nutzenmaximale Konzeption des Produktes zu bestimmen (vgl.
MehrFranz Kronthaler. Statistik angewandt. Datenanalyse ist (k)eine Kunst
Springer-Lehrbuch Franz Kronthaler Statistik angewandt Datenanalyse ist (k)eine Kunst Franz Kronthaler Hochschule für Technik und Wirtschaft HTW Chur, Schweiz ISSN 0937-7433 ISBN 978-3-642-53739-4 DOI
MehrVarianzanalyse ANOVA
Varianzanalyse ANOVA Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/23 Einfaktorielle Varianzanalyse (ANOVA) Bisher war man lediglich in der Lage, mit dem t-test einen Mittelwertsvergleich für
MehrWeitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell
Einfaktorielle Versuchspläne 27/40 Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Abweichung Einfach Differenz Helmert Wiederholt Vergleich Jede Gruppe mit Gesamtmittelwert
MehrKlausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008. Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008 Aufgabe 1 Ihnen liegt
MehrFelix-Nicolai Müller. Seminar Fragebogenmethodik - WS2009/2010 - Universität Trier Dr. Dirk Kranz 24.11.2009
Cohen s Kappa Felix-Nicolai Müller Seminar Fragebogenmethodik - WS2009/2010 - Universität Trier Dr. Dirk Kranz 24.11.2009 Felix-Nicolai Müller Cohen s Kappa 24.11.2009 1 / 21 Inhaltsverzeichnis 1 2 3 4
MehrCommercial Banking Übung 1 Kreditscoring
Commercial Banking Übung Kreditscoring Dr. Peter Raupach raupach@wiwi.uni-frankfurt.de Sprechzeit Dienstag 6-7:00 Uhr Raum 603 B Kreditscoring Gliederung Grundanliegen Das Sample Modellspezifikation Diskriminanzanalyse
MehrEinseitig gerichtete Relation: Mit zunehmender Höhe über dem Meeresspiegel sinkt im allgemeinen die Lufttemperatur.
Statistik Grundlagen Charakterisierung von Verteilungen Einführung Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsverteilungen Schätzen und Testen Korrelation Regression Einführung Die Analyse und modellhafte
MehrMETHODENLEHRE I WS 2013/14 THOMAS SCHÄFER
METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER DAS THEMA: INFERENZSTATISTIK IV INFERENZSTATISTISCHE AUSSAGEN FÜR ZUSAMMENHÄNGE UND UNTERSCHIEDE Inferenzstatistik für Zusammenhänge Inferenzstatistik für Unterschiede
MehrEine computergestützte Einführung mit
Thomas Cleff Deskriptive Statistik und Explorative Datenanalyse Eine computergestützte Einführung mit Excel, SPSS und STATA 3., überarbeitete und erweiterte Auflage ^ Springer Inhaltsverzeichnis 1 Statistik
MehrStudiendesign/ Evaluierungsdesign
Jennifer Ziegert Studiendesign/ Evaluierungsdesign Praxisprojekt: Nutzerorientierte Evaluierung von Visualisierungen in Daffodil mittels Eyetracker Warum Studien /Evaluierungsdesign Das Design einer Untersuchung
MehrMethoden Quantitative Datenanalyse
Leitfaden Universität Zürich ISEK - Andreasstrasse 15 CH-8050 Zürich Telefon +41 44 635 22 11 Telefax +41 44 635 22 19 www.isek.uzh.ch 11. September 2014 Methoden Quantitative Datenanalyse Vorbereitung
MehrEINFACHE LINEARE REGRESSION MODUL 13 PROSEMINAR DESKRIPTIVE STATISTIK ANALYSE UND DARSTELLUNG VON DATEN I GÜNTER HAIDER WS 1999/2000
INSTITUT FÜR ERZIEHUNGSWISSENSCHAFT - UNIVERSITÄT SALZBURG PROSEMINAR DESKRIPTIVE STATISTIK ANALYSE UND DARSTELLUNG VON DATEN I GÜNTER HAIDER WS 1999/2 MODUL 13 EINFACHE LINEARE REGRESSION Erziehungswissenschaft/Haider
MehrDatenanalyse mit Excel. Wintersemester 2013/14
Datenanalyse mit Excel 1 KORRELATIONRECHNUNG 2 Korrelationsrechnung Ziel der Korrelationsrechnung besteht im bivariaten Fall darin, die Stärke des Zusammenhangs zwischen zwei interessierenden statistischen
MehrStatistische Datenanalyse mit SPSS
Jürgen Janssen Wilfried Laatz Statistische Datenanalyse mit SPSS Eine anwendungsorientierte Einführung in das Basissystem und das Modul Exakte Tests Siebte, neu bearbeitete und erweiterte Auflage 4ü Springer
MehrWillkommen zur Vorlesung Statistik
Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang
MehrMediatioranalyse & Moderatoranalyse How to do
Mediatioranalyse & Moderatoranalyse How to do Die folgende Zusammenfassung zeigt beispielhaft, wie eine Mediatoranalyse bzw. eine Moderatoranalyse mit SPSS durchgeführt wird und wie die Ergebnisse in einem
MehrMultinomiale logistische Regression
Multinomiale logistische Regression Die multinomiale logistische Regression dient zur Schätzung von Gruppenzugehörigkeiten bzw. einer entsprechenden Wahrscheinlichkeit hierfür, wobei als abhänginge Variable
MehrNotiz zur logistischen Regression
Kapitel 1 Notiz zur logistischen Regression 1.1 Grundlagen Bei dichotomen abhängigen Variablen ergeben sich bei einer normalen linearen Regression Probleme. Während man die Ausprägungen einer dichotomen
Mehr(2) Mittels welcher Methode ist es im ALM möglich kategoriale Variablen als Prädiktoren in eine Regressionsgleichung zu überführen?
Beispielaufgaben LÖSUNG (1) Grenzen Sie eine einfache lineare Regression von einem Random Intercept Modell mit nur einem Level1-Prädiktor ab! a. Worin unterscheiden sich die Voraussetzungen? - MLM braucht
MehrBachelorprüfung. Praxis der empirischen Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Name, Vorname. Matrikelnr. E-Mail. Studiengang.
Lehrstuhl für Statistik und empirische Wirtschaftsforschung Fach: Prüfer: Bachelorprüfung Praxis der empirischen Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Name, Vorname Matrikelnr. E-Mail Studiengang
MehrEinfache Statistiken in Excel
Einfache Statistiken in Excel Dipl.-Volkswirtin Anna Miller Bergische Universität Wuppertal Schumpeter School of Business and Economics Lehrstuhl für Internationale Wirtschaft und Regionalökonomik Raum
MehrVarianzanalyse * (1) Varianzanalyse (2)
Varianzanalyse * (1) Einfaktorielle Varianzanalyse (I) Die Varianzanalyse (ANOVA = ANalysis Of VAriance) wird benutzt, um Unterschiede zwischen Mittelwerten von drei oder mehr Stichproben auf Signifikanz
MehrStandardisierung von Daten Darstellung von Daten in Texten, Tabellen und Abbildungen. Standardisierung von Daten
DAS THEMA: TABELLEN UND ABBILDUNGEN Standardisierung von Daten Darstellung von Daten in Texten, Tabellen und Abbildungen Standardisierung von Daten z-standardisierung Standardnormalverteilung 1 DIE Z-STANDARDISIERUNG
MehrGröße spielt keine Rolle Empirisches Arbeiten für Einsteiger
Größe spielt keine Rolle Empirisches Arbeiten für Einsteiger Dr. Malte Persike persike@uni-mainz.de methodenlehre.com methodenlehre.com/g+ facebook.com/methodenlehre twitter.com/methodenlehre youtube.com/methodenlehre
MehrLogistische Regression
TU Chemnitz SoSe 2012 Seminar: Multivariate Analysemethoden 26.06.2012 Dozent: Dr. Thomas Schäfer Logistische Regression Ein Verfahren zum Schätzen von Wahrscheinlichkeiten Referentinnen: B. Sc. Psych.
MehrStatistik Einführung // Lineare Regression 9 p.2/72
Statistik Einführung Lineare Regression Kapitel 9 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Ledold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // Lineare Regression
MehrEinfache statistische Testverfahren
Einfache statistische Testverfahren Johannes Hain Lehrstuhl für Mathematik VIII (Statistik) 1/29 Hypothesentesten: Allgemeine Situation Im Folgenden wird die statistische Vorgehensweise zur Durchführung
MehrEinfache Varianzanalyse für abhängige
Einfache Varianzanalyse für abhängige Stichproben Wie beim t-test gibt es auch bei der VA eine Alternative für abhängige Stichproben. Anmerkung: Was man unter abhängigen Stichproben versteht und wie diese
MehrIm Modell der Varianzanalyse (mit festen Effekten) ist das. aus dem Durchschnittsmesswert für y plus dem Effekt des.
Einfatorielle Varianzanalyse Varianzanalyse untersucht den Einfluss verschiedener Bedingungen ( = nominalsalierte(r) Variable(r)) auf eine metrische Variable. Die Bedingungen heißen auch atoren und ihre
MehrKontingenzkoeffizient (nach Pearson)
Assoziationsmaß für zwei nominale Merkmale misst die Unabhängigkeit zweier Merkmale gibt keine Richtung eines Zusammenhanges an 46 o jl beobachtete Häufigkeiten der Kombination von Merkmalsausprägungen
MehrEinfache statistische Auswertungen mit dem Programm SPSS
Einfache statistische Auswertungen mit dem Programm SPSS Datensatz: fiktive_daten.sav Dipl. Päd. Anne Haßelkus Dr. Dorothea Dette-Hagenmeyer 11/2011 Überblick 1 Deskriptive Statistiken; Mittelwert berechnen...
MehrAbhängigkeit zweier Merkmale
Abhängigkeit zweier Merkmale Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/33 Allgemeine Situation Neben der Untersuchung auf Unterschiede zwischen zwei oder mehreren Untersuchungsgruppen hinsichtlich
MehrGrundlagen von Versuchsmethodik und Datenanalyse
Grundlagen von Versuchsmethodik und Datenanalyse Der Anfang: Hypothesen über Ursache-Wirkungs-Zusammenhänge Ursache Wirkung Koffein verbessert Kurzzeitgedächtnis Gewaltfilme führen zu aggressivem Verhalten
Mehr14.01.14 DAS THEMA: INFERENZSTATISTIK II. Standardfehler Konfidenzintervalle Signifikanztests. Standardfehler
DAS THEMA: INFERENZSTATISTIK II INFERENZSTATISTISCHE AUSSAGEN Standardfehler Konfidenzintervalle Signifikanztests Standardfehler der Standardfehler Interpretation Verwendung 1 ZUR WIEDERHOLUNG... Ausgangspunkt:
Mehr9. Schätzen und Testen bei unbekannter Varianz
9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,
MehrPfadanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007
Pfadanalyse Bacher, SoSe2007 1. Grundlegende Verfahren Explorative Pfadanalyse: Kausale Beziehungen zwischen Variablen werden aufgedeckt, erforderlich ist eine kausale Anordnung der Variablen. Konfirmatorische
MehrEntscheidungsanalyse unter Unsicherheit Entscheidungskriterien in ökonomischen Netzen
Entscheidungsanalyse unter Unsicherheit Entscheidungskriterien in ökonomischen Netzen Referat von Guido RECKE Institut für Agrarökonomie der Georg-August-Universität Göttingen Platz der Göttinger Sieben
Mehr4.2 Grundlagen der Testtheorie
4.2 Grundlagen der Testtheorie Wintersemester 2009/ 2010 Hochschule Magdeburg-Stendal (FH) Studiengang Rehabilitationspsychologie B.Sc. Prof. Dr. Gabriele Helga Franke Das schönste Beispiel für einen Test
MehrMaster of Science in Pflege
Master of Science in Pflege Modul: Statistik Einfache und multiple Regressionsanalyse / Logistische Regressionsanalyse November 2012 Prof. Dr. Jürg Schwarz Folie 2 Programm 28. November 2012: Vormittag
MehrMessen im psychologischen Kontext II: Reliabilitätsüberprüfung und explorative Faktorenanalyse
Messen im psychologischen Kontext II: Reliabilitätsüberprüfung und explorative Faktorenanalyse Dominik Ernst 26.05.2009 Bachelor Seminar Dominik Ernst Reliabilität und explorative Faktorenanalyse 1/20
MehrKlausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min
Klausur, Multivariate Verfahren, SS 2006, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 08.08.2006 Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Gesamtpunkte: 39 Aufgabe
MehrV A R I A N Z A N A L Y S E
V A R I A N Z A N A L Y S E Ziel / Funktion: statistische Beurteilung des Einflusses von nominal skalierten (kategorialen) Faktoren auf intervallskalierte abhängige Variablen Vorteil: die Wirkung von mehreren,
MehrFragebogen- und Testkonstruktion in der Online-Forschung
Fragebogen- und Testkonstruktion in der Online-Forschung Dr. Meinald T. Thielsch 13. Juni 2008 Globalpark Innovations 2008 Diagnostisches Problem der (Online-)Forschung Es werden in vielen Arbeiten der
MehrDatenanalyse mit SPSS spezifische Analysen
Datenanalyse mit SPSS spezifische Analysen Arnd Florack Tel.: 0251 / 83-34788 E-Mail: florack@psy.uni-muenster.de Raum 2.015 Sprechstunde: Dienstags 15-16 Uhr 25. Mai 2001 2 Auswertung von Häufigkeitsdaten
Mehr12.1 Wie funktioniert ein Signifikanztest?
Sedlmeier & Renkewitz Kapitel 12 Signifikanztests 12.1 Wie funktioniert ein Signifikanztest? Zentrales Ergebnis eine Signifikanztests: Wie wahrscheinlich war es unter der Bedingung dass H0 gilt, diesen
MehrKapitel 23 Lineare Regression
Kapitel 23 Lineare Regression Sowohl einfache als auch multiple Regressionsanalysen können Sie mit dem Befehl STATISTIK REGRESSION LINEAR... durchführen. Dabei lassen sich mit Hilfe diverser Optionen zahlreiche
Mehr