Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27
|
|
- Erika Fiedler
- vor 7 Jahren
- Abrufe
Transkript
1 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27
2 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2) 2 / 27
3 Linearität Einfaches lineares Regressionsmodell y = β 0 + β 1 x + u u: unbeobachtete Faktoren (alle Faktoren welche y beeinflussen) Funktionale Beziehung zwischen x und y: linear y = β 1 x falls u = 0 3 / 27
4 Terminologie 4 / 27
5 Grafische Darstellung y = β 0 + β 1 x + u 1 β 1 : Steigungsparameter (slope) 2 β 0 : Achsenabschnittsparameter / Interzept (constant/intercept) 5 / 27
6 2 Beispiele 6 / 27
7 Exogenität E[u x] = E[u] = 0 u und x sind unabhängig voneinander (zumindest deren Mittelwerte sind unabhängig) u enthält keine systematische Information konditional auf x, d.h. u is nicht systematisch verschieden für unterschiedliche Werte von x Solange wir β 0 in das Modell mit einbeziehen, können wir problemlos annehmen, dass E[u] = 0 Der Fehlerterm u enthält im Durchschnitt keine Information. Beachte: β 0 entspricht dem Wert von y wenn x = 0. 7 / 27
8 Konditionaler Erwartungswert von y Falls E[u x] erfüllt ist, dann gilt für E[y x], den konditionalen Erwartungswert von y (Mittelwert von y für bestimmten Wert von x): E[y x] = β 0 + β 1 x + E[u x] = β 0 + β 1 x y = β 0 + β 1 x }{{} + }{{} u systematischer Teil E[y x] unsystematischer Teil 8 / 27
9 Schätzmethode 2 Herangehensweisen, welche beide zum gleichen OLS (ordinary least squares) Schätzer für lineare Modelle führen: Methode der Momente (Wooldridge 2.2) Moment 1: E[u] = 0 Moment 2: E[u x] = 0 Methode der kleinsten Quadrate = Kleinste Quadrate Schätzer (Wooldridge Appendix 2A) 9 / 27
10 OLS: Illustration years of education average hourly earnings Fitted values 10 / 27
11 Methode der Momente Ansatz: Resultate: E[u] = 0 E[u x] = 0 ˆβ 0 = ȳ ˆβ 1 x N ˆβ 1 = (y i ȳ)(x i x) N (x i x)(x i x) Es folgt, dass ˆβ 1 = 1 N N 1 (y i ȳ)(x i x) N (x i x) 2 1 N 1 ˆβ 1 entspricht der Stichproben-Kovarianz von y und x dividiert durch die Stichproben-Varianz von x. 11 / 27
12 Stichproben-Varianz von x - Beispiel 12 / 27
13 Stichproben-Varianz von x - Erklärung Varianz ist ein sog. Streuungsmass, das bedeutet ein Mass für die Abweichung einer Variablen von ihrem Mittelwert (Streuung der Werte einer Variablen relativ zum Mittelwert) basiert (annährend) auf dem Durchschnitt der quadrierten Abweichungen vom Mittelwert 13 / 27
14 Stichproben-Kovarianz von y und x - Beispiel 14 / 27
15 Stichproben-Kovarianz von y und x - Erklärung Die Kovarianz ist ein (nichtstandardisiertes) Zusammenhangsmass für den (monotonen) Zusammenhang zweier Variablen und gibt an, ob hohe Werte der einen Variablen (y) tendenziell mit hohen oder niedrigen Werten der anderen Variablen (x) einhergehen. Die Kovarianz ist positiv, wenn hohe (niedrige) Werte von y tendenziell mit hohen (niedrigen) Werten von x einhergehen. Die Kovarianz ist negativ, wenn hohe Werte der einen Variablen tendenziell mit niedrigen Werten der anderen Variablen einhergehen und umgekehrt. Die Kovarianz ist null, wenn kein monotoner Zusammenhang zwischen y und x besteht. 15 / 27
16 Herleitung unter der Methode der Momente Weil u = y β 0 β 1 x, impliziert E[u] = 0, dass Das Stichproben-Äquivalent dazu ist: E[y β 0 β 1 x] = 0. Es folgt: 1 N (y i ˆβ 0 ˆβ 1 x i ) = 0 1 N ˆβ 0 = 1 N N N ˆβ 0 = 1 N y i 1 N ˆβ 0 = ȳ ˆβ 1 x ( ˆβ 1 x i ) y i ˆβ 1 1 N (x i ) 16 / 27
17 Herleitung unter der Methode der Momente E[u x] = 0 impliziert, dass E[xu] = 0 weil E[xu] = E[xE[u x]]. Weil u = y β 0 β 1 x, impliziert E[xu] = 0, dass E[x(y β 0 β 1 x)] = 0. Das Stichproben-Äquivalent dazu ist: 1 [x i (y i N ˆβ 0 ˆβ 1x i )] = 0 Es folgt: [x i (y i (ȳ ˆβ 1) x ˆβ 1x i )] = 0 (weil ˆβ 0 = ȳ ˆβ 1 x) [x i (y i ȳ)] = ˆβ N 1 [x i (x i x)] [(x i x)(y i ȳ)] = ˆβ 1 (weil [x i (x i x)] = N [(x i x)(x i x)] N [(x i x)(x i x)]) ˆβ 1 = (y i ȳ)(x i x) N (x i x)(x i x) 17 / 27
18 Bemerkung: Gesetz der iterierten Erwartungswerte E[xu] = E[xE[u x]] folgt vom sogenannten Gesetz der iterierten Erwartungswerte (law of iterated expectations) Besagt, dass der Mittelwert einer Variablen (in der Grundgesamtheit) gleich dem Mittelwert seiner (für alle Individuen berechneten) konditionalen Mittelwerte (also der Mittelwerte der Variablen für bestimmte Werte einer anderen Variablen) entspricht E[u] = E[E[u x]] und E[y] = E[E[y x]] Bsp.: der Durchschnittslohn in der Grundgesamtheit entspricht dem Mittelwert der für alle Individuen berechneten Durchschnittslöhne für deren jeweiliges Bildungsniveau 18 / 27
19 Gesetz der iterierten Erwartungswerte - Illustration 19 / 27
20 Methode der kleinsten Quadrate Ansatz: Resultate: min ˆβ 0, ˆβ 1 û 2 i = min ˆβ 0, ˆβ 1 (y i ˆβ 0 ˆβ 1 x i ) 2 ˆβ 0 = ȳ ˆβ 1 x N ˆβ 1 = (y i ȳ)(x i x) N (x i x)(x i x) wobei x = N x N i N und ȳ = y i N. 20 / 27
21 Herleitung unter der Methode der kleinsten Quadrate min N ˆβ0, ˆβ 1 (y i ˆβ 0 ˆβ 1 x i ) 2 impliziert dass die 1. Ableitungen von F = N (y i ˆβ 0 ˆβ 1 x i ) 2 nach ˆβ 0 und ˆβ 1 gleich Null sein müssen (Bedingungen 1. Ordnung oder first order conditions): F ˆβ 0 = 2 (y i ˆβ 0 ˆβ 1x i ) = 0 Nach Multiplikation mit 1 N und Division durch 2 : 1 N (y i ˆβ 0 ˆβ 1x i ) = 0. F ˆβ 1 = 2 [x i (y i ˆβ 0 ˆβ 1x i )] = 0 Nach Multiplikation mit 1 N und Division durch 2 : 1 N [x i (y i ˆβ 0 ˆβ 1x i )] = 0. gleiche Formeln wie für die Methode der Momente. 21 / 27
22 y i = ŷ i + û i = ˆβ 0 + ˆβ 1 x i + û i 22 / 27 Vorhergesagte Werte und Residuum Vorhergesagte Werte (fitted values): ŷ i = ˆβ 0 + ˆβ 1 x i ; ist eine Schätzung von E[y x] falls E[u x] = 0 Residuum (Fehlerterm, unbeobachteter Term): û i = y i ŷ i = y i ˆβ 0 ˆβ 1 x i
23 Interpretation der geschätzen Koeffizienten ˆβ 0 : ŷ (im Durchschnitt erwartetes y) falls x = 0 ˆβ 1 = ŷ x : Wie verändert sich ŷ, das im Durchschnitt erwartete y, falls x um 1 Einheit verändert wird? Nur unter bestimmten Annahmen entspricht dies einem kausalen Effekt (insbesondere E[u x] = 0), ansonsten spiegelt es nur einen statistischen (aber keinen kausalen) Zusammenhang wider. Es gilt auch: ŷ = ˆβ 1 x, d.h. für jede Veränderung in x kann die Veränderung in y vorhergesagt werden (egal, ob der Effekt tatsächlich kausal ist oder nicht). 23 / 27
24 Beispiele (1) 24 / 27
25 Beispiele (2) 25 / 27
26 Beispiele (3) 26 / 27
27 Beispiele (4) 27 / 27
Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20
Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 20 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrDas Lineare Regressionsmodell
Das Lineare Regressionsmodell Bivariates Regressionsmodell Verbrauch eines Pkw hängt vom Gewicht des Fahrzeugs ab Hypothese / Theorie: Je schwerer ein Auto, desto mehr wird es verbrauchen Annahme eines
MehrKurs Empirische Wirtschaftsforschung
Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische
MehrÜbung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:
MehrStatistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
MehrKorrelation und Regression
FB 1 W. Ludwig-Mayerhofer und 1 und FB 1 W. Ludwig-Mayerhofer und 2 Mit s- und sanalyse werden Zusammenhänge zwischen zwei metrischen Variablen analysiert. Wenn man nur einen Zusammenhang quantifizieren
MehrBivariater Zusammenhang bei metrischen Variablen: Regression und Korrelation
Bivariater Zusammenhang bei metrischen Variablen: Regression und Korrelation PEΣO 12. November 2001 Von der Tabellenanalyse zur Regression Die bivariate Verteilung zweier metrischer Variablen kann konzeptionell
MehrStatistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
Mehr2. Generieren Sie deskriptive Statistiken (Mittelwert, Standardabweichung) für earny3 und kidsunder6yr3 und kommentieren Sie diese kurz.
Statistik II Übung : Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (6-24 Jahre alt) und der Anzahl der unter
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9.
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Januar 2011 BOOTDATA11.GDT: 250 Beobachtungen für die Variablen...
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur
MehrStatistik II. I. Einführung. Martin Huber
Statistik II I. Einführung Martin Huber 1 / 24 Übersicht Inhalt des Kurses Erste Schritte in der empirischen Analyse 2 / 24 Inhalt 1 Einführung 2 Univariates lineares Regressionsmodell 3 Multivariates
MehrDeskriptive Beschreibung linearer Zusammenhänge
9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,
MehrProxies, Endogenität, Instrumentvariablenschätzung
1 4.2 Multivariate lineare Regression: Fehler in den Variablen, Proxies, Endogenität, Instrumentvariablenschätzung Literatur: Wooldridge, Kapitel 15, Appendix C.3 und Kapitel 9.4 Wahrscheinlichkeitslimes
MehrBivariate Zusammenhänge
Bivariate Zusammenhänge 40 60 80 Bivariater Zusammenhang: Zusammenhang zwischen zwei Variablen weight (kg) Gibt es einen Zusammenhang zwischen Größe & Gewicht? (am Beispieldatensatz) Offensichtlich positiver
MehrAnnahmen des linearen Modells
Annahmen des linearen Modells Annahmen des linearen Modells zusammengefasst A1: Linearer Zusammenhang: y = 0 + 1x 1 + 2x 2 + + kx k A2: Zufallsstichprobe, keine Korrelation zwischen Beobachtungen A3: Erwartungswert
MehrLineare Regression mit einem Regressor: Einführung
Lineare Regression mit einem Regressor: Einführung Quantifizierung des linearen Zusammenhangs von zwei Variablen Beispiel Zusammenhang Klassengröße und Testergebnis o Wie verändern sich Testergebnisse,
MehrÜbung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
Mehr10 Statistisches Schätzen
10 Statistisches Schätzen 620 10 Statistisches Schätzen 10.1 Punktschätzung 623 10.1.1 Schätzer und ihre Gütekriterien 623 10.1.2 Erwartungstreue 627 10.1.3 Erwartete quadratische Abweichung (MSE) 634
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
MehrAppendix. Kapitel 2. Ökonometrie I Michael Hauser
1 / 24 Appendix Kapitel 2 Ökonometrie I Michael Hauser 2 / 24 Inhalt Geometrie der Korrelation Freiheitsgrade Der OLS Schätzer: Details OLS Schätzer für Okuns s law nachgerechnet Anforderungen an Theorien
Mehr7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien
Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)
MehrInferenz im multiplen Regressionsmodell
1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall
Mehr4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
MehrStatistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................
MehrBivariate Regressionsanalyse
Universität Bielefeld 15. März 2005 Kovarianz, Korrelation und Regression Kovarianz, Korrelation und Regression Ausgangspunkt ist folgende Datenmatrix: Variablen 1 2... NI 1 x 11 x 12... x 1k 2 x 21 x
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
MehrBivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154
Bivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.154 Grundidee und Typen der Regression Die Regressionsanalyse dient zur Quantifizierung des Zusammenhangs und der statistisch
MehrStatistik II: Signifikanztests /2
Medien Institut : Signifikanztests /2 Dr. Andreas Vlašić Medien Institut (0621) 52 67 44 vlasic@medien-institut.de Gliederung 1. Korrelation 2. Exkurs: Kausalität 3. Regressionsanalyse 4. Key Facts 2 I
Mehr1 Beispiel zur Methode der kleinsten Quadrate
1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25
MehrSchätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief. Statistik II
Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief Statistik II Wiederholung Literatur Kategoriale Unabhängige, Interaktion, nicht-lineare Effekte
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
MehrRegression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate
Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für
MehrÜbung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
MehrKlausur zu Methoden der Statistik I (mit Kurzlösung) Sommersemester Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik I (mit Kurzlösung) Sommersemester 2015 Aufgabe 1 In der aktuellen
MehrJohn Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer
John Komlos Bernd Süssmuth Empirische Ökonomie Eine Einführung in Methoden und Anwendungen 4y Springer 1 Einführung 1 1.1 Ökonometrie 1 2 Vorüberlegungen und Grundbegriffe 7 2.1 Statistik als Grundlage
Mehr1 Einführung Ökonometrie... 1
Inhalt 1 Einführung... 1 1.1 Ökonometrie... 1 2 Vorüberlegungen und Grundbegriffe... 7 2.1 Statistik als Grundlage der Empirischen Ökonomie... 7 2.2 Abgrenzung und Parallelen zu den Naturwissenschaften...
MehrEmpirical Banking and Finance
Empirical Banking and Finance Vorlesung zur Volkswirtschaftspolitik Prof. Dr. Isabel Schnabel Lehrstuhl für Volkswirtschaftslehre, insb. Financial Economics Johannes Gutenberg-Universität Mainz Wintersemester
MehrSchätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief
Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief Statistik II Literatur Kategoriale Unabhängige, Interaktion, nicht-lineare Effekte : Schätzung Statistik
MehrLineare Regression (Ein bisschen) Theorie
Kap. 6: Lineare Regression (Ein bisschen) Theorie Lineare Regression in Matrixform Verteilung des KQ-Schätzers Standardfehler für OLS Der Satz von Gauss-Markov Das allgemeine lineare Regressionsmodell
MehrZur Erinnerung: Annahmen
Zur Erinnerung: Annahmen Vorlesung 6: Heteroskedastizität. Beispiele mit heteroskedastischen Fehlertermen. Auswirkungen von Heteroskedastizität auf OLS-Schätzungen. Wie erkennt man das Vorliegen von Heteroskedastizität?
MehrVorlesung 7b. Kovarianz und Korrelation
Vorlesung 7b Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X,Y]:= E [ (X EX)(Y EY) ] Insbesondere ist
MehrZusammenfassung 11. Sara dos Reis.
Zusammenfassung 11 Sara dos Reis sdosreis@student.ethz.ch Diese Zusammenfassungen wollen nicht ein Ersatz des Skriptes oder der Slides sein, sie sind nur eine Sammlung von Hinweise zur Theorie, die benötigt
Mehr1. Lösungen zu Kapitel 7
1. Lösungen zu Kapitel 7 Übungsaufgabe 7.1 Um zu testen ob die Störterme ε i eine konstante Varianz haben, sprich die Homogenitätsannahme erfüllt ist, sind der Breusch-Pagan-Test und der White- Test zwei
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 22 Übersicht Weitere Hypothesentests in der Statistik 1-Stichproben-Mittelwert-Tests 1-Stichproben-Varianz-Tests 2-Stichproben-Tests Kolmogorov-Smirnov-Test
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
MehrEmpirische Wirtschaftsforschung
Thomas K. Bauer Michael Fertig Christoph M. Schmidt Empirische Wirtschaftsforschung Eine Einführung ß 361738 4y Springer Inhaltsverzeichnis 1 Wichtige Konzepte der Statistik - Eine Einführung 1 1.1 Die
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de
Mehr1.5 Erwartungswert und Varianz
Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:
MehrEmpirische Wirtschaftsforschung
Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 1 4. Basiskonzepte der induktiven
Mehr1. Lösungen zu Kapitel 5
. Lösungen zu Kapitel 5 Übungsaufgabe 5. a) Falsch! Die Varianz des geschätzten Koeffizienten ˆβ berechnet sich folgendermaßen: ) b) Falsch! Var(β ˆ ) = ˆσ2 ˆσ X 2 = = ( ˆεt 2 (K+) X 2 t X 2 5 5 2 0 8
MehrEinführung in Quantitative Methoden
in Quantitative Methoden Mag. Dipl.Ing. Dr. Pantelis Christodoulides & Mag. Dr. Karin Waldherr SS 2011 Christodoulides / Waldherr in Quantitative Methoden- 2.VO 1/47 Historisches Regression geht auf Galton
MehrV. Das lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Tino Conrad, M.Sc. Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2016 Übung zur
MehrEinführung in die Statistik
Einführung in die Statistik Analyse und Modellierung von Daten von Prof. Dr. Rainer Schlittgen Universität Hamburg 12., korrigierte Auflage Oldenbourg Verlag München Inhaltsverzeichnis 1 Statistische Daten
MehrWas ist Regression? Übersicht. Statistik II
Was ist? Statistik II Übersicht Parameterschätzung für die lineare Literatur Was ist? : Standardmodell der linearen : Wahrscheinlichkeitsverteilungen Parameterschätzung für die lineare Statistik II (1/35)
MehrVorlesung 8b. Kovarianz, Korrelation und Regressionsgerade
Vorlesung 8b Kovarianz, Korrelation und Regressionsgerade 1 1. Die Kovarianz und ihre Eigenschaften 2 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und
MehrEmpirical Banking and Finance
Empirical Banking and Finance Vorlesung zur Volkswirtschaftspolitik Prof. Dr. Isabel Schnabel Lehrstuhl für Volkswirtschaftslehre, insb. Financial Economics Johannes Gutenberg-Universität Mainz Wintersemester
MehrAusführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6. Streudiagramm
y Aufgabe 3 Ausführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6 a) Zur Erstellung des Streudiagramms zeichnet man jeweils einen Punkt für jedes Datenpaar (x i, y i ) aus der zweidimensionalen
MehrLineare Regression. Kapitel Regressionsgerade
Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell
MehrDie Funktion f wird als Regressionsfunktion bezeichnet.
Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
MehrTeekonsum in den USA (in 1000 Tonnen), Nimmt den Wert 1 an für alle Perioden, Durchschnittlicher Preis des Tees in Periode t (in Tausend $/Tonne).
Aufgabe 1 (5 Punkte) Gegeben sei ein lineares Regressionsmodell in der Form. Dabei ist y t = x t1 β 1 + x t β + e t, t = 1,..., 10 (1) y t : x t1 : x t : Teekonsum in den USA (in 1000 Tonnen), Nimmt den
MehrTeil: lineare Regression
Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge
MehrTeil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller
Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit
MehrDatenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse (PHY23) Herbstsemester 207 Olaf Steinkamp 36-J-05 olafs@physik.uzh.ch 044 63 55763 Vorlesungsprogramm Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung
MehrStatistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
MehrStatistik II. Regressionsanalyse. Statistik II
Statistik II Regressionsanalyse Statistik II - 23.06.2006 1 Einfachregression Annahmen an die Störterme : 1. sind unabhängige Realisationen der Zufallsvariable, d.h. i.i.d. (unabh.-identisch verteilt)
MehrComputerübung 10. Empirische Wirtschaftsforschung. Willi Mutschler. 27. Januar Ökonometrie und Wirtschaftsstatistik Uni Münster
Computerübung 10 Empirische Wirtschaftsforschung Willi Mutschler Ökonometrie und Wirtschaftsstatistik Uni Münster 27. Januar 2011 Willi Mutschler (Uni Münster) Computerübung 10 27. Januar 2011 1 / 12 Inhaltsverzeichnis
MehrAnalyse von Querschnittsdaten. Spezifikation der Regressionsfunktion
Analse von Querschnittsdaten Spezifikation der Regressionsfunktion Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 9..5 6..5..5 9..5 6..5..5..5
MehrBeispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrVorlesung 4: Spezifikation der unabhängigen Variablen
Vorlesung 4: Spezifikation der unabhängigen Variablen. Fehlspezifikation der unabhängigen Variablen. Auswirkungen einer Fehlspezifikation a. auf die Erwartungstreue der Schätzung b. auf die Effizienz der
MehrSchweizer Statistiktage, Aarau, 18. Nov. 2004
Schweizer Statistiktage, Aarau, 18. Nov. 2004 Qualitative Überprüfung der Modellannahmen in der linearen Regressionsrechnung am Beispiel der Untersuchung der Alterssterblichkeit bei Hitzeperioden in der
MehrVorlesung 9b. Kovarianz und Korrelation
Vorlesung 9b Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X,Y]:= E [ (X EX)(Y EY) ] Insbesondere ist
MehrVarianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
MehrProf. Dr. Marc Gürtler WS 2015/2016. Prof. Dr. Marc Gürtler. Klausur zur 10/12 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft
Prof. Dr. Marc Gürtler WS 015/016 Prof. Dr. Marc Gürtler Klausur zur 10/1 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft Lösungsskizze Prof. Dr. Marc Gürtler WS 015/016 Aufgabe 1: (11+5+1+8=56
MehrBeispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
Mehr2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen
.1. Stochastische ökonometrische Modelle.1 Einführung Ziele: - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen - Numerische Konkretisierung ökonomischer Modelle und deren Analse. . Variierende
MehrGrundgesamtheit und Stichprobe
Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrGoethe-Universität Frankfurt
Goethe-Universität Frankfurt Fachbereich Wirtschaftswissenschaft PD Dr. Martin Biewen Dr. Ralf Wilke Sommersemester 2006 Klausur Statistik II 1. Alle Aufgaben sind zu beantworten. 2. Bitte runden Sie Ihre
MehrEmpirische Wirtschaftsforschung
Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 6.. Herleitung des OLS-Schätzers
MehrWiederholung Qualitätssicherung Drittvariablen. Regression II. Statistik I. Sommersemester Statistik I Regression II (1/33) Wiederholung
Regression II Statistik I Sommersemester 2009 Statistik I Regression II (1/33) R 2 Root Mean Squared Error Statistik I Regression II (2/33) Zum Nachlesen Agresti: 9.1-9.4 Gehring/Weins: 8 Schumann: 8.1-8.2
Mehr2.5 Lineare Regressionsmodelle
2.5.1 Wiederholung aus Statistik I Gegeben Datenpunkte (Y i, X i ) schätze die beste Gerade Y i = β 0 + β 1 X i, i = 1,..., n. 2 Induktive Statistik 409 Bsp. 2.30. [Kaffeeverkauf auf drei Flohmärkten]
MehrGrundgesamtheit und Stichprobe
Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U
MehrStatistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
MehrEinführung in die Statistik
Elmar Klemm Einführung in die Statistik Für die Sozialwissenschaften Westdeutscher Verlag INHALTSVERZEICHNIS 1. Einleitung und Begrifflichkeiten 11 1.1 Grundgesamtheit, Stichprobe 12 1.2 Untersuchungseinheit,
MehrDrittvariablenkontrolle in der linearen Regression: Trivariate Regression
Drittvariablenkontrolle in der linearen Regression: Trivariate Regression 14. Januar 2002 In der Tabellenanalyse wird bei der Drittvariablenkontrolle für jede Ausprägung der Kontrollvariablen eine Partialtabelle
MehrI.V. Methoden 4: Regressionsund Pfadanalyse WiSe 02/03
I.V. Methoden 4: Regressionsund Pfadanalyse WiSe 02/03 Vorlesung: 29.10.2002 To err is human, to forgive is devine - but to include errors in your design is statistical Leslie Kish Dr. Wolfgang Langer
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Ausgangsdaten Bundesliga 2008/2009 Gegeben: Daten zu den 18 Vereinen der ersten Bundesliga
MehrZusammenfassung: Einfache lineare Regression I
4 Multiple lineare Regression Multiples lineares Modell 41 Zusammenfassung: Einfache lineare Regression I Bisher: Annahme der Gültigkeit eines einfachen linearen Modells y i = β 0 + β 1 x i + u i, i {1,,
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
Mehr