I.V. Methoden 4: Regressionsund Pfadanalyse WiSe 02/03
|
|
- Achim Möller
- vor 6 Jahren
- Abrufe
Transkript
1 I.V. Methoden 4: Regressionsund Pfadanalyse WiSe 02/03 Vorlesung: To err is human, to forgive is devine - but to include errors in your design is statistical Leslie Kish Dr. Wolfgang Langer Institut für Soziologie Martin-Luther-Universität Halle-Wittenberg Dr. Wolfgang Langer
2 Gliederung I: P Die Grundlagen der bivariaten Regression < Terminologie < Modellgleichung < Die Funktionsweise der Kleinsten-Quadrate- Schätzung < Berechnung der Regressionsparameter Der Regressionskonstanten: a oder b 0 Dem Regressionskoeffizienten / der Steigung b < Die Modellannahmen der bivariaten Regression 2
3 Gliederung II: P Anwendungsbeispiel: EB30 (1988) < Zustimmung zu Zuviele Ausländer im Land auf Prozentsatz der Nicht-EG-Ausländer an der Wohnbevölkerung P Der standardisierte Regressionskoeffizient ß < Nachteile der unstandardisierter Regressionskoeffizeinten < Berechnung von ß und seine Umrechnung in b < Nachteile des standardisierten Regressionskoeffizienten 3
4 Gliederung III: P Wie gut beschreibt das lineare Regressionsmodell die Daten im Sinne der praktischen Signifikanz? < Der Standardfehler der Regression < Der Determinationskoeffizient R² als Maßzahl der Proportionalen Fehlerreduktion < Beispiel für die Zerlegung der Abweichungsquadrate im bereits geschätzten bivariaten Regressionsmodell Berechnung des Standardfehlers der Regression Berechnung des Determinationskoeffizienten R² 4
5 Die Grundlagen der bivariaten Regression: P Ziel des Analyseverfahrens: Erklärung der Variation der abhängigen Variablen durch die Variation der unabhängigen Variablen: X º Y P Terminologie: < Unabhängige Variable: Abhängige Variable: Ursache Wirkung X Y Exogenes Merkmal Endogenes Merkmale Erklärende Variable Zu erklärende Variable Prädiktor Kriterium Faktor,Kovariate Kriterium 5
6 Wie legen wir eine Gerade durch den Punktschwarm? (Fox 1991, S.77) 6
7 Die Modellgleichung der bivariaten Regression y i ' a % b@x i % e i y i : Vektor der abhängigen Variablen x i : Vektor der unabhängigen Variablen a: Regressionskonstante (Ordinatenabschnitt) b: unstandardisierter Regressionskoeffizient (Steigung) e i : Residuum (Vorhersagefehler) 7
8 Die Bedeutung der Regressionsparameter im Sinne von Erwartungswerten: Die Regressionskonstante / der Y&Achsenabschnitt a ( b 0 ): Welchen Wert für Y erwarten wir im Durchschnitt, wenn X Null ist? a ' E ( Y X ' 0) Der Regressionskoeffizient / die Steigung b: Um welchen Wert nimmt Y im Durchschnitt zu (%) oder ab (&), wenn X um eine Einheit zunimmt? b ' E ( Y X '%1) Geometrische Interpretation der Steigung b: b ' Y X ' Gegenkathete Ankathete ' tan (α) 8
9 Die Vorgehensweise der Kleinst- Quadrate-Schätzung I: P Analytische Zerlegung der Abweichungsquadrate von Y in die Summen der durch das Regressionsmodell gebundenen und derjenigen der Fehlerquadrate (Sum of Squares oder abgekürzt: SS) j (y&ȳ )2 ' j (ŷ&ȳ) 2 % j (y&ŷ) 2 SS Total ' SS Regression % SS Error 9
10 Geometrische Darstellung der Zerlegung der Abweichungsquadrate (Greene 1993, S. 152): 10
11 Die Vorgehensweise der Kleinst- Quadrate-Schätzung I: P Minimierungskriterium: Wähle a und b so, dass die Summe der quadrierten Residuen ihr Minimum erreicht! Σ e 2 i ' Σ[ y i & (a % b@x i )] 2 ' Σ[y i & ŷ i ] 2 6 Minimum 11
12 Berechnung der Regressionskonstanten a : P Die Regressionskonstante a (b 0 ) oder der Ordinaten-/Y-Achsenabschnitt: Regressionskonstante a ' ȳ & b@ x 12
13 Berechnung des Steigungskoeffizienten b: P Der Regressions- / Steigungskoeffizient b: Regressionskoeffizient b' n j i'1 (x i &x)@(y i &y) n j i'1 (n&1) ( x i &x ) 2 (n&1) ' Kovarianz y,x Varianz x 13
14 Die BLUE-Eigenschaften der Kleinste- Quadrate-Schätzung: P Gauss-Markow-Theorem: Within the class of linear unbiased estimators of ß, the least squares estimator ß^ has minimum variance (is most efficient). Similary, "^ is the minimum variance estimator of ". (Wonnacott&Wonnacott 1981, S.31) 14
15 Vorteile der Kleinste-Quadrate-Schätzung: Wonnacott&Wonnacott (1971 1,1990 5, S. 366f.) fassen ihre Vorteile folgendermassen zusammen: P OLS leads to relatively simple formulas for calculating a and b... P OLS is closely related to ANOVA... P... In the special case where Y has no relation to X (i.e., the slope b is zero), then the OLS fit become simply ŷ ' a ŷ ' ȳ 15
16 Vorteile der Kleinste-Quadrate-Schätzung II: P Since OLS is an extension of the sample mean, it has many of the same attractive properties. For example, OLS is often efficient and unbiased. P The OLS criterion involves summing up all the squared deviations, given equal weight to each. But if some observations are less reliable than others, we could easily give them less weight. The resulting weighted regression (Weighted Least Squares, WLS) can be very flexible and robust. 16
17 Modellannahmen der bivariaten Regression: P Wir unterstellen einen linear Zusammenhang zwischen Y und X: Y = a + b x +, P Der Erwartungswert des Fehlerterms ist Null: E(,) = 0. P Die Fehlerterme, verfügen über eine konstante Varianz (Homoskedastizität) P Die Fehlerterme, korrelieren nicht über die Beobachtungen hinweg. D.h., sie sind seriell voneinander unabhängig. P Die Fehlerterme, sind unabhängig vom linearen Prädiktor b X, den vorhergesagten Werten für Y. P Die Fehlerterme, sind normalverteilt mit einem Erwartungswert Null und einer Varianz F 2. <, i ~ NV [0;F²] 17
18 Darstellung der Annahmen zum Fehlerterm (Greene 1993, S.144) 18
19 Anwendungsbeispiele EB30: %-Zustimmung Zuviele Ausländer auf %-Nicht-EG-Ausländer1988 Tab. 1: Berechnung der Kovariation, Kovarianz und Korrelation zwischen %-Zu-viele-Ausländer und %-Nicht-EG-Ausländer 1988 LAND PNEGAUSL: X PZUVIELE: Y (X i &X) (Y i &Y) (X i &X) ((Y i &Y) B 3,2 45 1,22 12,75 15,56 DK 2,0 37 0,02 4,75 0,1 D 5,3 49 3,32 16,75 55,61 F 3,9 46 1,92 13,75 26,4 GR 0,8 22-1,18-10,25 12,1 GB 1,8 47-0,18 14,75-2,66 IRL 0,5 8-1,48-24,25 35,89 I 0,4 36-1,58 3,75-5,93 LUX 2,0 31 0,02-1,25-0,03 NL 2,8 31 0,82-1,25-1,03 P 0,6 15-1,38-17,25 23,81 H 0,4 20-1,58-12,25 19,36 0 = 1,98 32,25 Kovariation = 179,18 s(x) = 1,58 13,59 Kovarianz = 16,29 Korrelation= 0,76 19
20 EB 30: Berechnung der Regressionsparameter b und a: Regressionskoeffizient b' 16,289 1,578 2 ' 16,289 2,490 '%6,542 Regressionskonstante a ' 32,250 & b@1,975 ' 32,250 & 6,542@1,975 ' 19,328 20
21 Inhaltliche Interpretation von b und a: Pb = +6,542 < Wenn der Anteil der Nicht-EG- Ausländer an der Wohnbevölkerung eines EG-Mitgliedslandes um 1 % zunimmt, steigt der Anteil der Befürworter von Zuvielen Ausländern im Land im Durchschnitt um 6,54 % an. Pa = +19,328 < Wohnen keine Nicht-EG-Ausländer im Lande, so erwarten wir im Durchschnitt einen Zustimmungsgrad von 19,33 % zu unserem Item. 21
22 Berechnung der geschätzten Werte für Y durch Einsetzen in die Modellgleichung: Berechnung der geschätzten Werte von Y: Ŷ Ŷ i ' a % b@x i Ŷ i ' 19,328 % 6,542@X i 22
23 Wo liegt unsere Regressionsgerade? GB B F D I DK 30 L NL E GR 15 P 10 IRL Prozentsatz Nicht-EG-Ausländer 23
24 Der standardisierte Regressionskoeffizient ß: P Nachteil des unstandardisierten Steigungskoeffizienten b: < Geschätzte Veränderung von Y bezieht sich auf die absolute Einheitzunahme von X < Der Effekt von X ist somit direkt abhängig von der Maßeinheit von X Ausgaben für Konsumgüter in Abhängigkeit vom Haushaltseinkommen in Lire / DM / Ein Vergleich zwischen zwei verschiedenen bivariaten Regressionsmodellen mit identischer Kriteriumsvariable ist nicht möglich, da ein gemeinsamer Maßstab fehlt. 24
25 Der standardisierte Regressionskoeffizient ß: PVorteile: < Der standardisierte Regressionskoeffizient verfügt über einen von den ursprünglichen Maßeinheiten unabhängigen Wertebereich, der sich auf das Intervall [-1;+1] beschränkt. < Hierdurch läßt sich der standardisierte Regressionskoeffizient sowohl der Richtung als auch der Stärke nach wie der Pearsonsche Produkt-Moment- Korrelationskoeffizient interpretieren. < Er gibt an, um wieviel Y gemessen in Standardabweichungen von Y im Durchschnitt zu- (+) bzw. abnimmt (-), wenn X um eine Standardabweichung von X ansteigt. 25
26 Die Berechnung des standardisierten Regressionskoeffizienten ß: Standardisierter Regressionskoeffizient β s x s y Y [&1;%1] Umkehrung: b'β@ s y s x Y ursprüngliche Wertebereich EB30&Beispiel: β ' 1,578 13,586 '%0,760 26
27 Nachteile des Koeffizienten ß: P Er eignet sich nicht für den Vergleich des Effektes einer unabhängigen Variablen zwischen verschieden Stichproben, da seine Standardisierung durch s x und s y selbst stichprobenabhängig ist. P Er eignet sich lediglich für den Vergleich der Effekte metrischen Prädiktoren innerhalb einer Stichprobe. Er tut dies aber nicht für Dummy- /Indikatorvariablen. 27
28 Wie gut beschreibt unsere Regressionsgerade den Punktschwarm? Berechnung des Standardfehlers der Regression: Standardfehler der Regression ' Σ n (y i & ŷ i ) 2 i'1 (n&k&1) ' SS Error (n&k&1) n: Stichprobenumfang k: Anzahl der unabhängigen Variablen 28
29 Der Determinationskoeffizient R² als Maß der Proportionalen Fehlerreduktion: R 2 ' E 1 & E 2 E 1 ' Σ n (y i &ȳ ) 2 & Σ n (y i &ŷ) 2 i'1 i'1 n Σ (y i &ȳ ) 2 i'1 ' SS Total & SS Error SS Total ' SS Regression SS Total ' 1 & SS Error SS Total 6 [0;1] SS: Summe der Abweichungsquadrate 29
30 Die Modellanpassung des EB30-Beispiels: Tab. 2: LAND Zerlegung der Abweichungsquadrate von Y im bivariaten Regressionsmodell: EB 30 Länderdaten. PNEGAUSL: X PZUVIELE: Y Ŷ SS Regression (Ŷ&Y) 2 SS Error ( Y&Ŷ) 2 SS Total (Y&Y) 2 B 3, ,26 64,20 22,44 162,56 DK 2, ,41 0,03 21,05 22,56 D 5, ,00 473,09 25,01 280,56 F 3, ,84 158,55 1,34 189,06 GR 0, ,56 59,11 6,56 105,06 GB 1, ,10 1,31 252,70 217,56 IRL 0,5 8 22,60 93,14 213,13 588,06 I 0, ,94 106,20 197,55 14,06 LUX 2, ,41 0,03 1,99 1,56 NL 2, ,65 29,11 44,16 1,56 P 0, ,25 80,94 68,12 297,56 E 0, ,94 106,20 3,78 150,06 Mittelwert 0 = 1,98 32,25 Zerlegung der Abweichungsquadrate: s (x) = 1,58 13,59 SS Total = 2030,25 SS Regression = 1171,91 a = 19,33 b = 6,54 SS Error = 857,83 30
31 Berechnung des Standardfehlers der Regression des EB 30 Beispiels: Standardfehler der Regression ' SS Error n&k&1 ' 857,83 n & 1 & 1 ' 857,83 10 ' 9,26 Die durchschnittliche Abweichung der Datenpunkte von der Regressionsgeraden beträgt 9,26 Einheiten von Y. 31
32 Berechnung des Determinationskoeffizienten R² im EB 30 Beispiel: R 2 ' 1 & 857, ,25 ' 1171, ,25 ' 0,5772 R 2 in % ' 0,5772(100 ' 57,72 % 57,7 % der Variation der Zustimmung zum Item Zuviele Ausländer im Land wird durch die Variation des Anteils der Nicht-EG-Ausländer gebunden bzw. erklärt 32
33 Berechnung des multiplen r : Multiples r ' R 2 Y [0;1] EB 30 Länderdaten: Multiples r ' 0,5772 ' 0,76 Nur bei der bivariaten Regression ist das multiple r mit dem Pearsonschen Produkt-Moment- Korrelationskoeffizienten identisch! 33
Drittvariablenkontrolle in der linearen Regression: Trivariate Regression
Drittvariablenkontrolle in der linearen Regression: Trivariate Regression 14. Januar 2002 In der Tabellenanalyse wird bei der Drittvariablenkontrolle für jede Ausprägung der Kontrollvariablen eine Partialtabelle
MehrSchätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrRegression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate
Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für
MehrStatistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27
Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)
MehrSozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS
Sommersemester 2009 Statistik mit SPSS 15. Mai 2009 15. Mai 2009 Statistik Dozentin: mit Esther SPSSOchoa Fernández 1 Überblick 1. Korrelation vs. Regression 2. Ziele der Regressionsanalyse 3. Syntax für
MehrRegression I. Statistik I. Sommersemester Lineare Regression Zusammenhang und Modell Ein Beispiel: Armut und Gewaltverbrechen Zusammenfassung
Sommersemester 2009 Ein Beispiel: Armut und Gewaltverbrechen Rechtswahl 15 10 5 0 5 10 Arbeitslosigkeit Zum Nachlesen Agresti: 9.1-9.4 Gehring/Weins: 8 Schumann: 8.1-8.2 Was ist ein Zusammenhang? Gemeinsame
MehrAnalyse von Querschnittsdaten. Signifikanztests I Basics
Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004
MehrStatistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
MehrLineare Regression mit einem Regressor: Einführung
Lineare Regression mit einem Regressor: Einführung Quantifizierung des linearen Zusammenhangs von zwei Variablen Beispiel Zusammenhang Klassengröße und Testergebnis o Wie verändern sich Testergebnisse,
MehrTeil: lineare Regression
Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge
MehrKorrelation Regression. Wenn Daten nicht ohne einander können Korrelation
DAS THEMA: KORRELATION UND REGRESSION Korrelation Regression Wenn Daten nicht ohne einander können Korrelation Korrelation Kovarianz Pearson-Korrelation Voraussetzungen für die Berechnung die Höhe der
Mehr3. Das einfache lineare Regressionsmodell
3. Das einfache lineare Regressionsmodell Ökonometrie: (I) Anwendung statistischer Methoden in der empirischen Forschung in den Wirtschaftswissenschaften Konfrontation ökonomischer Theorien mit Fakten
MehrLineare Regression II
Lineare Regression II Varianzanalyse als multiple Regession auf Designvariablen Das lineare Regressionsmodell setzt implizit voraus, dass nicht nur die abhängige, sondern auch die erklärenden Variablen
MehrStatistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
MehrWiederholung Qualitätssicherung Drittvariablen. Regression II. Statistik I. Sommersemester Statistik I Regression II (1/33) Wiederholung
Regression II Statistik I Sommersemester 2009 Statistik I Regression II (1/33) R 2 Root Mean Squared Error Statistik I Regression II (2/33) Zum Nachlesen Agresti: 9.1-9.4 Gehring/Weins: 8 Schumann: 8.1-8.2
MehrMultiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)
Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang
MehrStatistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
MehrAnnahmen des linearen Modells
Annahmen des linearen Modells Annahmen des linearen Modells zusammengefasst A1: Linearer Zusammenhang: y = 0 + 1x 1 + 2x 2 + + kx k A2: Zufallsstichprobe, keine Korrelation zwischen Beobachtungen A3: Erwartungswert
MehrÜbung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
MehrStatistische Eigenschaften der OLS-Schätzer, Residuen,
Statistische Eigenschaften der OLS-Schätzer, Residuen, Bestimmtheitsmaß Stichwörter: Interpretation des OLS-Schätzers Momente des OLS-Schätzers Gauss-Markov Theorem Residuen Schätzung von σ 2 Bestimmtheitsmaß
MehrBivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154
Bivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.154 Grundidee und Typen der Regression Die Regressionsanalyse dient zur Quantifizierung des Zusammenhangs und der statistisch
MehrDatenanalyse mit Excel und Gretl
Dozent: Christoph Hindermann christoph.hindermann@uni-erfurt.de Datenanalyse mit Excel und Gretl Teil Titel 2: Gretl 1 Teil 2: Gretl Datenanalyse mit Excel und Gretl Teil Titel 2: Gretl 2 Modellannahmen
MehrFormelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade
Version 2015 Formelsammlung für das Modul Statistik 2 Bachelor Sven Garbade Prof. Dr. phil. Dipl.-Psych. Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de
Mehr1. Lösungen zu Kapitel 7
1. Lösungen zu Kapitel 7 Übungsaufgabe 7.1 Um zu testen ob die Störterme ε i eine konstante Varianz haben, sprich die Homogenitätsannahme erfüllt ist, sind der Breusch-Pagan-Test und der White- Test zwei
MehrAnalyse von Querschnittsdaten. Spezifikation der unabhängigen Variablen
Analyse von Querschnittsdaten Spezifikation der unabhängigen Variablen Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 3.0.004 0.0.004
MehrKorrelation und Regression
FB 1 W. Ludwig-Mayerhofer und 1 und FB 1 W. Ludwig-Mayerhofer und 2 Mit s- und sanalyse werden Zusammenhänge zwischen zwei metrischen Variablen analysiert. Wenn man nur einen Zusammenhang quantifizieren
MehrEine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
MehrEmpirische Analysen mit dem SOEP
Empirische Analysen mit dem SOEP Methodisches Lineare Regressionsanalyse & Logit/Probit Modelle Kurs im Wintersemester 2007/08 Dipl.-Volksw. Paul Böhm Dipl.-Volksw. Dominik Hanglberger Dipl.-Volksw. Rafael
MehrLösung Aufgabe 1 (Regression) Es wurden in einer Befragung zwei metrische Merkmale X und Y erhoben. Betrachten Sie dazu die
Statistik für Kommunikationswissenschaftler Wintersemester 2010/2011 Vorlesung Prof. Dr. Nicole Krämer Übung Nicole Krämer, Cornelia Oberhauser, Monia Mahling Lösung Thema 9 Homepage zur Veranstaltung:
Mehr4. Das multiple lineare Regressionsmodell
4. Das multiple lineare Regressionsmodell Bisher: 1 endogene Variable y wurde zurückgeführt auf 1 exogene Variable x (einfaches lineares Regressionsmodell) Jetzt: Endogenes y wird regressiert auf mehrere
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Preismesszahl: Misst Preisveränderung eines einzelnen Gutes: Preis zum Zeitpunkt
MehrModul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.
Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes
MehrKorrelation - Regression. Berghold, IMI
Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines
MehrKorrelation und Regression
Professur E-Learning und Neue Medien Institut für Medienforschung Philosophische Fakultät Einführung in die Statistik Korrelation und Regression Überblick Kovarianz und Korrelation Korrelation und Kausalität
MehrSeminar zur Energiewirtschaft:
Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable
Mehr1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:
Beispiele zum Üben und Wiederholen zu Wirtschaftsstatistik 2 (Kurs 3) 1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Haushaltseinkommen 12 24 30 40 80 60
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
MehrProf. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006
Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand
MehrBivariate Analyseverfahren
Bivariate Analyseverfahren Bivariate Verfahren beschäftigen sich mit dem Zusammenhang zwischen zwei Variablen Beispiel: Konservatismus/Alter Zusammenhangsmaße beschreiben die Stärke eines Zusammenhangs
MehrLineare Regression: Grundlagen und BLUE-Annahmen
Fakultät für Humanwissenschaften Sozialwissenschaftliche Methodenlehre Prof. Dr. Daniel Lois Lineare Regression: Grundlagen und BLUE-Annahmen Stand: Juni 2015 (V2.0) Inhaltsverzeichnis 1. Lineare Regression:
MehrStatistik I für Statistiker, Mathematiker und Informatiker Lösungen zu Blatt 6 Gerhard Tutz, Jan Ulbricht WS 05/06.
Statistik I für Statistiker, Mathematiker und Informatiker Lösungen zu Blatt Gerhard Tutz, Jan Ulbricht WS 05/0 Lösung Aufgabe 4 Notation: X: Rauchen, Y : chronische Bronchitis S X {ja, nein} {a 1, a },
MehrÜbungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg
Übungsklausur Lineare le Prof. Dr. H. Toutenburg Aufgabe Ein lineares Regressionsmodell mit der abhängigen Variablen Körpergröße und der unabhängigen Variablen Geschlecht wurde einmal mit der dummykodierten
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrTEIL 13: DIE EINFACHE LINEARE REGRESSION
TEIL 13: DIE EINFACHE LINEARE REGRESSION Die einfache lineare Regression Grundlagen Die einfache lineare Regression ist ebenfalls den bivariaten Verfahren für metrische Daten zuzuordnen 1 Sie hat einen
MehrÜBUNGSAUFGABEN ZUR DESKRIPTIVEN UND EXPLORATIVEN DATENANALYSE
ÜBUNGSAUFGABEN ZUR DESKRIPTIVEN UND EXPLORATIVEN DATENANALYSE 1.1 Füllen Sie bitte folgenden Lückentext aus. Daten, die in Untersuchungen erhoben werden, muss man grundsätzlich nach ihrem unterscheiden.
MehrMultivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167
Multivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.167 Multivariate Regression Verfahren zur Prüfung des gemeinsamen linearen Einflusses mehrerer unabhängiger Variablen auf eine
MehrInhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1
Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...
MehrEinführung in die Statistik für Politikwissenschaftler Sommersemester 2011
Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011 Es können von den Antworten alle, mehrere oder keine Antwort(en) richtig sein. Nur bei einer korrekten Antwort (ohne Auslassungen
MehrWeitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression
Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression Speziell im Zusammenhang mit der Ablehnung der Globalhypothese werden bei einer linearen Einfachregression weitere Fragestellungen
MehrInhaltsverzeichnis. Vorwort
V Vorwort XI 1 Zum Gebrauch dieses Buches 1 1.1 Einführung 1 1.2 Der Text in den Kapiteln 1 1.3 Was Sie bei auftretenden Problemen tun sollten 2 1.4 Wichtig zu wissen 3 1.5 Zahlenbeispiele im Text 3 1.6
MehrVS PLUS
VS PLUS Zusatzinformationen zu Medien des VS Verlags Statistik II Inferenzstatistik 2010 Übungsaufgaben und Lösungen Inferenzstatistik 2 [Übungsaufgaben und Lösungenn - Inferenzstatistik 2] ÜBUNGSAUFGABEN
MehrTEIL 13: DIE LINEARE REGRESSION
TEIL 13: DIE LINEARE REGRESSION Dozent: Dawid Bekalarczyk GLIEDERUNG Dozent: Dawid Bekalarczyk Lineare Regression Grundlagen Prognosen / Schätzungen Verbindung zwischen Prognose und Zusammenhang zwischen
MehrLineare Modelle in R: Klassische lineare Regression
Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)
MehrÜbungen (HS-2010): Urteilsfehler. Autor: Siegfried Macho
Übungen (HS-2010): Urteilsfehler Autor: Siegfried Macho Inhaltsverzeichnis i Inhaltsverzeichnis 1. Übungen zu Kapitel 2 1 Übungen zu Kontingenz- und Kausalurteile 1 Übung 1-1: 1. Übungen zu Kapitel 2 Gegeben:
MehrEmpirical Banking and Finance
Empirical Banking and Finance Vorlesung zur Volkswirtschaftspolitik Prof. Dr. Isabel Schnabel Lehrstuhl für Volkswirtschaftslehre, insb. Financial Economics Johannes Gutenberg-Universität Mainz Wintersemester
MehrDeskriptive Statistik Lösungen zu Blatt 5 Christian Heumann, Susanne Konrath SS Lösung Aufgabe 27. f X Y (a i b j ) = f i j = f ij f j
1 Deskriptive Statistik Lösungen zu Blatt 5 Christian Heumann, Susanne Konrath SS 2011 Lösung Aufgabe 27 (a) Notation: X: Rauchen, Y : chronische Bronchitis S X {ja, nein} {a 1, a 2 }, S Y {ja, nein} {b
MehrEine Einführung in R: Das Lineare Modell
Eine Einführung in R: Das Lineare Modell Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2009 Bernd Klaus, Verena Zuber
MehrGlossar Statistik 2. Bivariate Verfahren: zwei nummerische Merkmale
Glossar Statistik 2 Bivariate Verfahren: zwei nummerische Merkmale Streudiagramm - Datenpaare (X, Y) als Punkte auf einem zweidimensionale Diagramm (Ordinate: Y, Abszisse: X) Lineare Regression - Optimierungsproblem
MehrStatistik Einführung // Lineare Regression 9 p.2/72
Statistik Einführung Lineare Regression Kapitel 9 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Ledold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // Lineare Regression
MehrModell (Konstante) 0,411 0,155 male 0,212 0,13 job 0,119 0,131 alcohol 0,255 0,05 a. Abhängige Variable: skipped
Aufgabe 1 [14 Punkte] Sie möchten untersuchen, wovon die Abwesenheit der Studierenden in den Vorlesungen an einer Universität abhängt. Sie verfügen über einen Datensatz zu 282 Studierenden mit folgenden
MehrUmgang mit und Ersetzen von fehlenden Werten bei multivariaten Analysen
Umgang mit und Ersetzen von fehlenden Werten bei multivariaten Analysen Warum überhaupt Gedanken machen? Was fehlt, ist doch weg, oder? Allgegenwärtiges Problem in psychologischer Forschung Bringt Fehlerquellen
MehrErgänzungsmaterial zur Vorlesung. Statistik 2. Modelldiagnostik, Ausreißer, einflussreiche Beobachtungen
Institut für Stochastik WS 2007/2008 Universität Karlsruhe JProf. Dr. H. Holzmann Dipl.-Math. oec. D. Engel Ergänzungsmaterial zur Vorlesung Statistik 2 Modelldiagnostik, Ausreißer, einflussreiche Beobachtungen
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt Methodenlehre Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de
Mehr2. Korrelation, lineare Regression und multiple Regression
multiple 2.2 Lineare 2.2 Lineare 1 / 130 2.2 Lineare 2 / 130 2.1 Beispiel: Arbeitsmotivation Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden durch Arbeitsplatz zufällig
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
MehrEinführung in die Korrelationsrechnung
Einführung in die Korrelationsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Korrelationsrechnung
MehrStatistik Vorlesung 7 (Lineare Regression)
Statistik Vorlesung 7 (Lineare Regression) K.Gerald van den Boogaart http://www.stat.boogaart.de/ Statistik p.1/77 Gerade als Vereinfachung Wachstum bei Kindern height 76 78 80 82 18 20 22 24 26 28 age
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der
MehrANalysis Of VAriance (ANOVA) 2/2
ANalysis Of VAriance (ANOVA) 2/2 Markus Kalisch 22.10.2014 1 Wdh: ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor X). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich
MehrEinfache Varianzanalyse für unabhängige Stichproben
Einfache Varianzanalyse für unabhängige Stichproben VARIANZANALYSE Die Varianzanalyse ist das dem t-test entsprechende Mittel zum Vergleich mehrerer (k 2) Stichprobenmittelwerte. Sie wird hier mit VA abgekürzt,
MehrModul G.1 WS 07/08: Statistik
Modul G.1 WS 07/08: Statistik 10.01.2008 1 2 Test Anwendungen Der 2 Test ist eine Klasse von Verfahren für Nominaldaten, wobei die Verteilung der beobachteten Häufigkeiten auf zwei mehrfach gestufte Variablen
MehrDas klassische Regressionsmodell: Ein Beispiel
1 / 43 Das klassische Regressionsmodell: Ein Beispiel Kapitel 2 Ökonometrie I Michael Hauser 2 / 43 Inhalt Ein Beispiel für das klassische, bivariate Regressionsmodell: Okun s Gesetz Das bivariate, lineare
MehrTutorial: Regression Output von R
Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen
MehrBinäre abhängige Variablen
Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen
MehrEs können keine oder mehrere Antworten richtig sein. Eine Frage ist NUR dann richtig beantwortet, wenn ALLE richtigen Antworten angekreuzt wurden.
Teil III: Statistik Alle Fragen sind zu beantworten. Es können keine oder mehrere Antworten richtig sein. Eine Frage ist NUR dann richtig beantwortet, wenn ALLE richtigen Antworten angekreuzt wurden. Wird
MehrInstitut für Soziologie Dipl.-Soz. Benjamin Gedon. Methoden 2. Logistische Regression II
Institut für Soziologie Dipl.-Soz. Methoden 2 Logistische Regression II Bringen Sie zur nächsten Übung und in die Klausur einen (nicht programmierbaren) Taschenrechner mit! # 2 Programm Wiederholung der
MehrInstitut für Soziologie Christian Ganser. Methoden 2. Regressionsanalyse I: Lineare Regression
Institut für Soziologie Methoden 2 Regressionsanalyse I: Lineare Regression Inhalt 1. Grundidee und Vorgehen 2. Güte eines Regressionsmodells 3. Regressionskoeffizienten Signifikanz und Interpretation
MehrSkalenniveaus =,!=, >, <, +, -
ZUSAMMENHANGSMAßE Skalenniveaus Nominalskala Ordinalskala Intervallskala Verhältnisskala =,!= =,!=, >, < =,!=, >, ,
MehrQuantitative Methoden (Vertretung für Prof. Th. Pechmann)
Quantitative Methoden (Vertretung für Prof. Th. Pechmann) Inferenzstatistik I: Zusammenhänge (Korrelationen) Logik inferenzstatistischer Verfahren Andreas Opitz Universität Leipzig Institut für Linguistik
Mehr8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme)
8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) Annahme B4: Die Störgrößen u i sind normalverteilt, d.h. u i N(0, σ 2 ) Beispiel: [I] Neoklassisches Solow-Wachstumsmodell Annahme einer
Mehr1. Erklären Sie den Unterschied zwischen einem einseitigen und zweiseitigen Hypothesentest.
Statistik II Übung 3: Hypothesentests Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier Stichproben). Verwenden
MehrKapitel 2: Gauß-Markov-Annahmen
Kapitel 2: 1. Das klassische lineare Modell... 1 1.1. Erweiterung der A2... 2 2. Verletzung der... 3 2.1. Gauß-Markov-A1 verletzt... 3 2.2. Gauß-Markov-A2 verletzt... 4 2.3. Gauß-Markov-A3 verletzt...
MehrMehrebenenanalyse. Seminar: Multivariate Analysemethoden Referentinnen: Barbara Wulfken, Iris Koch & Laura Früh
Mehrebenenanalyse Seminar: Multivariate Analysemethoden Referentinnen: Barbara Wulfken, Iris Koch & Laura Früh Inhalt } Einführung } Fragestellung } Das Programm HLM } Mögliche Modelle } Nullmodell } Random
MehrAnalysen politikwissenschaftlicher Datensätze mit Stata. Sitzung 5: Lineare Regression
Analysen politikwissenschaftlicher Datensätze mit Stata Sitzung 5: Lineare Regression 1 Vorbereitung Stata durch z:\profile.do starten Datensatz z:\daten\rpstrukt laden Achtung: Ab dieser Sitzung werden
MehrKapitel 8: Regressionsanalyse
Kapitel 8: Regressionsanalyse 1. Lineare Einfachregression... 259 a) Arten von Beziehungen... 259 b) Die Regressionsgeraden... 262 c) Schätzung der Regressionskoeffizienten mit der Methode der kleinsten
MehrKapitel 4: Merkmalszusammenhänge
Kapitel 4: Merkmalszusammenhänge Streudiagramme SPSS bietet die Möglichkeit, verschiedene Arten von Streudiagrammen zu zeichnen. Gehen Sie auf Grafiken Streu-/Punkt-Diagramm und wählen Sie die Option Einfaches
Mehr3 Korrelation und Regression
3 KORRELATION UND REGRESSION 3 Korrelation und Regression Sind zwei Zufallsvariable X und Y unabhängig, so gibt es keinerlei Wechselwirkung zwischen ihnen. Ist ein funktionaler Zusammenhang = f( zwischen
MehrStatistik II Wahrscheinlichkeitsrechnung und induktive Statistik Erste Klausur zum Sommersemester 2005 26. Juli 2005
Statistik II Wahrscheinlichkeitsrechnung und induktive Statistik Erste Klausur zum Sommersemester 2005 26. Juli 2005 Aufgabe 1: Grundzüge der Wahrscheinlichkeitsrechnung 19 P. Als Manager eines großen
MehrMathematische und statistische Methoden II
Statistik & Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte
MehrInhaltsverzeichnis. Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden
Inhaltsverzeichnis Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden 1 Statistik ist Spaß 3 Warum Statistik? 3 Checkpoints 4 Daten 4 Checkpoints 7 Skalen - lebenslang wichtig bei der Datenanalyse
MehrÜber die Autoren 9. Widmung von Roberto 9 Danksagung von Roberto 10. Einleitung 21
Inhaltsverzeichnis Über die Autoren 9 Widmung von Roberto 9 Danksagung von Roberto 10 Einleitung 21 Über dieses Buch 21 Törichte Annahmen über den Leser... 22 Symbole, die in diesem Buch verwendet werden
MehrMehr-Ebenen-Analyse I. Regressionsmodelle für Politikwissenschaftler
Mehr-Ebenen-Analyse I Regressionsmodelle für Politikwissenschaftler Was sind strukturierte Daten? Was ist Struktur? Probleme Bisher sind wir stets von einfachen Zufallsstichproben ausgegangen (Registerstichprobe)
MehrRegressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )
Zusammenhänge von Variablen Regressionsanalysen linearer Zusammenhang ( Idealfall ) kein Zusammenhang nichtlinearer monotoner Zusammenhang (i.d.regel berechenbar über Variablentransformationen mittels
MehrBachelorprüfung SS MUSTERLÖSUNG
Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Fach: Praxis der empirischen Wirtschaftsforschung Prüfer: Prof. Regina T. Riphahn, Ph.D. Bachelorprüfung SS 2015
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 05. Dezember 2012 1 Datenpaare Korrelation 2 Lineare Regression Problemstellung Beispiel Bleibelastung 3 Regression
MehrMessunsicherheit und Fehlerrechnung
Messunsicherheit und Fehlerrechnung p. 1/25 Messunsicherheit und Fehlerrechnung Kurzeinführung Peter Riegler p.riegler@fh-wolfenbuettel.de Fachhochschule Braunschweig/Wolfenbüttel Messunsicherheit und
MehrInstitut für Soziologie Christian Ganser. Methoden 2. Regressionsanalyse III: Diagnostik
Institut für Soziologie Methoden 2 Regressionsanalyse III: Diagnostik Wiederholung Regressionsanalyse beruht auf verschiedenen Annahmen Sind Annahmen verletzt, sind bestimmte Eigenschaften der Schätzer
Mehr