Regression mit Faktoren, Interaktionen und transformierten Variablen

Größe: px
Ab Seite anzeigen:

Download "Regression mit Faktoren, Interaktionen und transformierten Variablen"

Transkript

1 Kap. 5: Regression mit Faktoren, Interaktionen und transformierten Variablen Motivation Regressionen mit transformierten Variablen Ausblick: Nichtlineare Regression Mehr zu Regressionen mit qualitativen Regressoren Regressionen mit Interaktionen

2 5.1 Motivation Bisherige Modelle von der Form Y i = β 0 + β 1 X i β k X ik + u i sind linear in den X ij und in β j. Lineares Regressionsmodell ist aber sehr viel flexibler kann auch Situationen behandeln, in denen nichtlineare Funktionen der X ij auftreten. Definition: Ein Regressionsmodell ist linear, wenn es linear in den Parametern ist. Damit definieren auch Y i = β 0 + β 1 X i + β 2 X 2 i + u i Y i = β 0 + β 1 log(x i ) + u i Y i = β 0 + β 1 log(x i ) + β 2 {log(x i )} 2 + u i lineare Regressionsmodelle. C. Kleiber: Ökonometrie 1 Kap. 5-1 U Basel, HS 2009

3 5.1 Motivation Populäre nichtlineare Funktionen in X: Polynome Motivation: eine (gutartige) nichtlineare Funktion f(x) hat (lokal, d.h. um einen Punkt x 0 ) eine Taylor-Entwicklung f(x) = f(x 0 ) + f (x 0 ) 1! (x x 0 ) + f (x 0 ) 2! (x x 0 ) 2 + f (x 0 ) (x x 0 ) 3 + Rest 3! darum sollten höhere Potenzen in x den Funktionsverlauf besser wiedergeben als eine lineare Funktion in x. Interpretation: wenn wahrer Zusammenhang f(x) nichtlinear ist, führt lineare Regression zu Verzerrung durch vergessene Variablen denn es fehlen ja höhere Potenzen in x. Logarithmen C. Kleiber: Ökonometrie 1 Kap. 5-2 U Basel, HS 2009

4 5.1 Motivation Ökonomisches Beispiel: (Cobb-Douglas-Produktionsfunktion) Y i = AL α i K β i lässt sich mit Methoden der linearen Regression schätzen. Nehme dazu an, dass Fehlerterm multiplikativ ist: Logarithmieren liefert nun Y i = AL α i K β i eu i log Y i = log A + α log L i + β log K i + u i =: β 0 + β 1 Z i1 + β 2 Z i2 + u i ein multiples lineares Regressionsmodell. So werden Cobb-Douglas-Funktionen tatsächlich geschätzt. C. Kleiber: Ökonometrie 1 Kap. 5-3 U Basel, HS 2009

5 5.1 Motivation Zwei Streudiagramme: score score stratio income C. Kleiber: Ökonometrie 1 Kap. 5-4 U Basel, HS 2009

6 5.2 Regression mit transformierten Variablen Regressionen mit Polynomen: Wir betrachten zunächst quadratische und kubische Terme in income. R> fmquad <- lm(score ~ income + I(income^2), data = CASchools) R> fmcub <- lm(score ~ income + I(income^2) + I(income^3), + data = CASchools) Zur Schätzung in R: Hier wird die Funktion I() benötigt, denn alle Grundrechenarten haben in Formeln eine eigene Bedeutung. R> (cfmquad <- coeftest(fmquad, vcov = sandwich)) t test of coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) <2e-16 income <2e-16 I(income^2) <2e-16 C. Kleiber: Ökonometrie 1 Kap. 5-5 U Basel, HS 2009

7 5.2 Regression mit transformierten Variablen Beurteilung und Interpretation: plotte geschätzte Regression ŝcore i = income i income 2 i (2.8914) (0.2671) (0.0048) bestimme Effekte E(score income) income = β β 2 income Prognostizierte Änderung bei einem Durchschnittseinkommen von 5 000: = Also hat ein Bezirk mit Durchschnittseinkommen im Mittel etwa um Punkte bessere Testergebnisse als ein Bezirk mit Durchschnittseinkommen Effekt ist stärker bei kleinen Einkommen (warum?). C. Kleiber: Ökonometrie 1 Kap. 5-6 U Basel, HS 2009

8 5.2 Regression mit transformierten Variablen Zum Vergleich noch die kubische Version: R> fmcub <- lm(score ~ income + I(income^2) + I(income^3), + data = CASchools) R> coeftest(fmcub, vcov = sandwich) t test of coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) 6.00e e < 2e-16 income 5.02e e e-12 I(income^2) -9.58e e I(income^3) 6.85e e Kubischer Term statistisch signifikant zum 5%-Niveau, aber nicht zum 1%-Niveau. C. Kleiber: Ökonometrie 1 Kap. 5-7 U Basel, HS 2009

9 5.2 Regression mit transformierten Variablen Zum Abschluss noch ein Test der linearen Spezifikation gegen ein Polynom maximal 3. Grades mit einem F -Test (warum F-Test nötig?): R> fmlin <- lm(score ~ income, data= CASchools) R> waldtest(fmlin, fmcub, vcov = sandwich) Wald test Model 1: score ~ income Model 2: score ~ income + I(income^2) + I(income^3) Res.Df Df F Pr(>F) e-16 Hypothese H 0 : Zusammenhang linear wird also zu allen üblichen Signifikanzniveaus verworfen gegen Alternative H 1 : Zusammenhang ist nichtlinear und Polynom maximal 3. Grades. C. Kleiber: Ökonometrie 1 Kap. 5-8 U Basel, HS 2009

10 5.2 Regression mit transformierten Variablen Drei Spezifikationen im Vergleich: score linear quadratisch kubisch income C. Kleiber: Ökonometrie 1 Kap. 5-9 U Basel, HS 2009

11 5.2 Regression mit transformierten Variablen Zusammenfassung: Regression mit Polynomen immer noch ein lineares Regressionsmodell, das aber Transformationen der Originalvariablen enthält Koeffizienten schwieriger zu interpretieren Beurteilung des Modells: Plotten der prognostizierten Werte als Funktion von x (Schätzung der) Effekte Hypothesentests über den Polynomgrad mit t- und F -Tests Wahl des Polynomgrads: Plotten der Daten, gebe maximalen Polynomgrad vor, t- und F -Tests C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

12 5.2 Regression mit transformierten Variablen Regressionen mit logarithmischen Termen: Drei mögliche Fälle Linear-logarithmische Spezifikation: Logarithmisch-lineare Spezifikation: Y i = β 0 + β 1 log(x i ) + u i log(y i ) = β 0 + β 1 X i + u i Log-log Spezifikation: log(y i ) = β 0 + β 1 log(x i ) + u i Interpretation des Steigungsparameters β 1 jeweils unterschiedlich! C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

13 5.2 Regression mit transformierten Variablen Umsetzung in R: Linear-logarithmische Spezifikation: R> fmlinlog <- lm(score ~ log(income), data = CASchools) Logarithmisch-lineare Spezifikation: R> fmloglin <- lm(log(score) ~ income, data = CASchools) Log-log Spezifikation: R> fmloglog <- lm(log(score) ~ log(income), data = CASchools) Diesmal wird die Funktion I() nicht benötigt, denn log() ist keine Grundrechenart. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

14 5.2 Regression mit transformierten Variablen Das linear-logarithmische Modell: Erwartete Änderung Effekt ergibt sich über Differenz Y i = β 0 + β 1 log(x i ) + u i Y i + Y = β 0 + β 1 log(x i + X) + u i Y = β 1 {(log(x i + X) log X i } Da log(x i + X) log(x i ) X X i ergibt sich β 1 Y X/X i Da 100 X/X i prozentuale Änderung in X: 1%ige Änderung in X verändert Y um 0.01 β 1. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

15 5.2 Regression mit transformierten Variablen R> fmlinlog <- lm(score ~ log(income), data = CASchools) R> coeftest(fmlinlog, vcov = sandwich) t test of coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) <2e-16 log(income) <2e-16 Demnach verändert sich Testergebnis um Punkte bei 1%iger Änderung im Einkommen. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

16 5.2 Regression mit transformierten Variablen Das linear-logarithmische Modell: score income C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

17 5.2 Regression mit transformierten Variablen Das logarithmisch-lineare Modell: Erwartete Änderung Effekt ergibt sich über Differenz also Damit log(y i ) = β 0 + β 1 X i + u i log(y i + Y ) = β 0 + β 1 (X i + X) + u i log(y i + Y ) log(y i ) = β 1 X Y Y i β 1 X β 1 Y/Y i X Da 100 Y/Y i prozentuale Änderung in Y : Änderung in X um 1 Einheit verändert Y um 100 β 1 %. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

18 5.2 Regression mit transformierten Variablen Das log-log Modell: log(y i ) = β 0 + β 1 log(x i ) + u i Erwartete Änderung Effekt ergibt sich über Differenz log(y i + Y ) = β 0 + β 1 log(x i + X) + u i log(y i + Y ) log(y i ) = β 1 {log(x i + X) log(x i )} also Y Y i β 1 X X i oder β 1 Y/Y i X/X i Da 100 Y/Y i prozentuale Änderung in Y und da 100 X/X i prozentuale Änderung in X : 1%ige Änderung in X verändert Y um β 1 %. Parameter β 1 ist also eine Elastizität ein Grund für Popularität von log-log-spezifikationen in der empirischen Wirtschaftsforschung! C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

19 5.2 Regression mit transformierten Variablen R> fmloglog <- lm(log(score) ~ log(income), data = CASchools) R> coeftest(fmloglog, vcov = sandwich) t test of coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) <2e-16 log(income) <2e-16 Demnach verändert sich Testergebnis um Prozent bei 1% iger Änderung im Einkommen. Vergleiche dieses Modell graphisch mit log-linearem Modell: C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

20 5.2 Regression mit transformierten Variablen Zwei Spezifikationen im Vergleich: log(score) log lin log log income C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

21 5.2 Regression mit transformierten Variablen Linear-logarithmische Spezifikation scheint akzeptabel. Sind höhere Potenzen in log(income) noch besser? R> fmlinlogcub <- lm(score ~ log(income) + I(log(income)^2) + + I(log(income)^3), data = CASchools) R> waldtest(fmlinlog, fmlinlogcub, vcov = sandwich) Wald test Model 1: score ~ log(income) Model 2: score ~ log(income) + I(log(income)^2) + I(log(income)^3) Res.Df Df F Pr(>F) Also quadratischer und kubischer Term in log(income) verzichtbar. Die verbleibenden Modelle linear-logarithmisch und kubisch sind ähnlich, aber das linearlogarithmische hat weniger Parameter: C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

22 5.2 Regression mit transformierten Variablen Zwei Spezifikationen im Vergleich: Linear-logarithmisch vs. kubisch in Einkommen score lin log kubisch income C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

23 5.2 Regression mit transformierten Variablen Zusammenfassung: Regression mit logarithmischen Transformationen immer noch ein lineares Regressionsmodell, das aber Transformationen der Originalvariablen enthält 3 Fälle, Interpretation der Koeffizienten jeweils unterschiedlich Beurteilung des Modells: Plotten der prognostizierten Werte als Funktion von x (Schätzung der) Effekte Hypothesentests über den Polynomgrad mit t- und F -Tests Wahl des Modells: Plotten der Daten, t- und F -Tests, inhaltliche Aspekte Warnung: R 2 und R 2 nur vergleichbar für Modelle mit gleichen linken Seiten! C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

24 5.3 Ausblick: Nichtlineare Regression Bisherige Beispiele vom Typ Y i = f(x i1,..., X ik, β 0, β 1,..., β k ) + u i mit Y i = β 0 + β 1 f 1 (X i1 ) + + β k f k (X ik ) + u i wobei f i Polynome oder Logarithmen. Alle betrachteten Funktionen sind immer noch linear in den Parametern! Dies gilt nicht mehr für z.b. negatives exponentielles Wachstum Y i = β 0 {1 e β 1(X i1 β 2 ) } + u i Solche Funktionen können nicht mehr mit OLS, aber z.b. mit nichtlinearer KQ-Methode (nonlinear least squares, NLS) geschätzt werden: RSS = n (Y i β 0 {1 }) e β 2 1(X i1 β 2 ) i=1 min! β 0,β 1,β 2 Keine expliziten Formeln Lösung erfolgt mit Methoden der numerischen Mathematik. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

25 5.3 Ausblick: Nichtlineare Regression Umsetzung in R: R> fmnls <- nls(score ~ beta0 * (1 - exp(-beta1 * (income - beta2) ) ), + data = CASchools, start = list(beta0 = 700, beta1 = 0.1, beta2 = -10)) R> summary(fmnls) Formula: score ~ beta0 * (1 - exp(-beta1 * (income - beta2))) Parameters: Estimate Std. Error t value Pr(> t ) beta < 2e-16 beta e-09 beta e-09 Residual standard error: 12.7 on 417 degrees of freedom Number of iterations to convergence: 6 Achieved convergence tolerance: 6.7e-06 C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

26 5.3 Ausblick: Nichtlineare Regression Spezifikationen im Vergleich: (linear-logarithmisch vs. nichtlinear) score lin log nonlin income C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

27 5.3 Ausblick: Nichtlineare Regression Spezifikationen im Vergleich: (kubisch vs. nichtlinear) score kubisch nonlin income C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

28 5.4 Mehr zu qualitativen Regressoren Ein binärer Regressor kodiert eine qualitative Variable mit 2 Ausprägungen (Bsp.: Geschlecht). Bisher nur Regressionen mit (maximal) einem binären Regressor. Statistik: qualitative Variablen (Geschlecht, Region, Beruf,... ) heissen Faktoren, ihre Ausprägungen heissen Stufen (engl.: levels ). Terminologie kommt aus der statistischen Versuchsplanung. Geschlecht ist in dieser Sprechweise ein Faktor mit 2 Stufen. Ökonometrie: Faktor mit 2 Stufen heisst Dummy- oder Indikatorvariable, kodiert als 0 und 1. Wie behandelt man qualitative Variablen mit mehr als 2 Ausprägungen ( Faktoren mit mehr als 2 Stufen )? Typische Beispiele: Region: Nord, Süd, Ost, West. Saisoneffekte in Zeitreihen: 4 Quartale, 12 Monate C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

29 5.4 Mehr zu qualitativen Regressoren Beispiel: (Lohngleichung) Es seien Informationen zur Region vorhanden (4 Regionen: Nord, Süd, West, Ost). Umsetzung in Regressionsmodell: definiere eine Referenzkategorie und 3 Indikatorvariablen ( Dummies ). Mit Referenzkategorie Nord ist Modell log(lohn) = β 0 + β Ost +Ost + β West West + β Sued Sued + u Interpretation: β 0 steht für erwarteten Lohn in der Referenzkategorie, hier Nord. β Ost beschreibt den (erwarteten) Zuschlag/Abschlag für die Kategorie Ost relativ zur Referenzkategorie. Analog West, Süd. Man kann Regressionsergebnisse für unterschiedliche Formen der Kodierung ineinander umrechnen: log(lohn) = 6 Ost + 2 West 3 Sued entspricht: log(lohn) = Nord + 3 West 2 Sued C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

30 5.4 Mehr zu qualitativen Regressoren Umsetzung in R: qualitative Variablen werden als Faktor verwaltet, je nach Zahl der Stufen werden im Hintergrund Dummies erzeugt und verwaltet es ist nicht nötig, dies selbst zu tun. Zum Wechsel der Referenzkategorie kann relevel() verwendet werden: Sei Region mit Referenzkategorie Nord kodiert, dann R> fm <- lm(log(wage) ~ region, data = Data) R> Data$region <- relevel(data$region, ref = "Ost") R> fm <- lm(log(wage) ~ region, data = Data) Erste Regression verwendet Referenzkategorie Nord, zweite Ost. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

31 5.5 Regressionen mit Interaktionen Vielleicht ist Reduktion von stratio in manchen Situationen wirksamer als in anderen, z.b. in Bezirken mit vielen Nicht-Muttersprachlern? Formaler: E(score...) könnte von english abhängen. stratio Allgemein: E(Y i...) könnte von x 2 abhängen. x 1 Nenne dies Interaktion(seffekt). Wie modelliert man dies? Wir betrachten Interaktionen zwischen binären Regressoren Interaktionen zwischen binären und metrischen Regressoren Interaktionen zwischen metrischen Regressoren C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

32 5.5 Regressionen mit Interaktionen Interaktionen zwischen binären Variablen: Y i = β 0 + β 1 D i1 + β 2 D i2 + u i β 1 ist Effekt einer Änderung in D 1 (von 0 auf 1), hängt hier nicht von D 2 ab. Allgemeineres Modell: Y i = β 0 + β 1 D i1 + β 2 D i2 + β 3 D i1 D i2 + u i Nenne neuen Regressor D i1 D i2 einen Interaktionsterm. Interpretation: E(Y i D i1 = 1, D i2 = d 2 ) E(Y i D i1 = 0, D i2 = d 2 ) = β 1 + β 3 d 2 Effekt einer Änderung in D 1 (von 0 auf 1), hängt nun von D 2 ab. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

33 5.5 Regressionen mit Interaktionen Beispiel: mit stratio und english Setze { 1, falls stratio 20, hstratio =, henglish = 0, sonst. { 1, falls henglish 10, 0, sonst. R> fmint <- lm(score ~ henglish + hstratio + henglish : hstratio, + data = CASchools) R> coeftest(fmint, vcov = sandwich) t test of coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 henglishtrue e-14 hstratiotrue henglishtrue:hstratiotrue C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

34 5.5 Regressionen mit Interaktionen Interpretation: ŝcore = henglish 1.91 hstratio 3.26 henglish : hstratio Effekt von hstratio ist 1.91, wenn henglish = 0. Effekt von hstratio ist = 5.17, wenn henglish = 1 (TRUE). Reduktion der Klassengrösse scheint effektiver, wenn Prozentsatz Nicht-Muttersprachler hoch. Umsetzung in R: der Operator : generiert in einer Formel Interaktionsterme. Noch kompakter: der Operator * spezifiert lineare Terme und Interaktion (hier insg. 3 Terme) R> fmint <- lm(score ~ henglish * hstratio, data = CASchools) C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

35 5.5 Regressionen mit Interaktionen Interaktionen zwischen einer binären und einer metrischen Variablen: Y i = β 0 + β 1 D i + β 2 X i + u i β 2 ist Effekt einer Änderung in X, hängt hier nicht vom Wert von D ab Y i = β 0 + β 1 D i + β 2 X i + β 3 D i X i + u i Neuer Regressor D i X i ist wieder Interaktionsterm. Interpretation: E(Y i D i, X i ) X i = β 2 + β 3 D i Effekt einer Änderung in X hängt nun vom Wert von D ab. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

36 5.5 Regressionen mit Interaktionen Beispiel: mit stratio und henglish R> fmint2 <- lm(score ~ stratio + henglish + stratio : henglish, + data = CASchools) R> (cfmint2 <- coeftest(fmint2, vcov = sandwich)) t test of coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) <2e-16 stratio henglishtrue stratio:henglishtrue C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

37 5.5 Regressionen mit Interaktionen Interpretation: Wenn henglish = 0 score = stratio Wenn henglish = 1 score = stratio henglish 1.28 stratio : henglish Es gibt 2 Regressionsgeraden, eine für jeden Wert von henglish: Indikatorvariable henglish selbst verschiebt Achsenabschnitt, Interaktionsterm ändert Steigung gegenüber Referenzkategorie. (Unter Ökonomen wird eine Interaktion zwischen einem Faktor und einem metrischen Regressor manchmal leider als slope dummy bezeichnet.) Interessierende Hypothesen: beide Geraden haben gleiche Steigung: teste Koeffizienten des Interaktionsterms t = 1.33, also keine Ablehnung beide Geraden haben gleichen Achsenabschnitt: teste Koeffizienten des Faktors t = 0.29, also keine Ablehnung C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

38 5.5 Regressionen mit Interaktionen beide Geraden sind identisch: teste Koeffizienten des Interaktionsterms und des Faktors (F -Test!) R> fm <- lm(score ~ stratio, data = CASchools) R> waldtest(fm, fmint2, vcov = sandwich) Wald test Model 1: score ~ stratio Model 2: score ~ stratio + henglish + stratio:henglish Res.Df Df F Pr(>F) <2e-16 Überraschung: gemeinsame Hypothese wird verworfen, einzelne Hypothesen aber nicht! Ursache: hohe Korrelation zwischen den Regressoren. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

39 5.5 Regressionen mit Interaktionen Interaktionen zwischen zwei metrischen Variablen Y i = β 0 + β 1 X i1 + β 2 X i2 + u i β 1 ist Effekt einer Änderung in X 1, hängt hier nicht vom Wert von X 2 ab und umgekehrt. Y i = β 0 + β 1 X i1 + β 2 X i2 + β 3 X i1 X i2 + u i Neuer Regressor X i1 X i2 ist wieder Interaktionsterm. Interpretation: E(Y i X i1, X i2 ) = β 1 + β 3 X i2 X i1 Effekt einer Änderung in X 1 hängt nun vom Wert von X 2 ab. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

40 5.5 Regressionen mit Interaktionen Beispiel: mit stratio und english R> fmint3 <- lm(score ~ stratio + english + stratio : english, + data = CASchools) R> (cfmint3 <- coeftest(fmint3, vcov = sandwich)) t test of coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) <2e-16 stratio english stratio:english C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

41 5.5 Regressionen mit Interaktionen Interessierende Hypothesen: Interaktionsterm unwichtig: teste Koeffizienten zu stratio : english t = 0.063, also keine Ablehnung Regressor stratio selbst (allein) unwichtig: teste Koeffizienten zu stratio t = 1.807, also keine Ablehnung C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

42 5.5 Regressionen mit Interaktionen es gibt überhaupt keinen Einfluss von stratio: teste Koeffizienten von stratio : english und von stratio (F -Test!) R> fme <- lm(score ~ english, data = CASchools) R> waldtest(fme, fmint3, vcov = sandwich) Wald test Model 1: score ~ english Model 2: score ~ stratio + english + stratio:english Res.Df Df F Pr(>F) Überraschung: gemeinsame Hypothese wird verworfen, einzelne Hypothesen nicht! Ursache: hohe Korrelation zwischen den Regressoren. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009

Lineare Regression in R, Teil 2

Lineare Regression in R, Teil 2 Lineare Regression in R, Teil 2 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel 28. Oktober 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools. Laden

Mehr

Lineare Regression in R

Lineare Regression in R Lineare Regression in R Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel 30. September 2009 1 Vorbereitungen Zur Illustration betrachten wir den Datensatz CASchools aus der Vorlesung

Mehr

2.3 Nichtlineare Regressionsfunktion

2.3 Nichtlineare Regressionsfunktion Nichtlineare Regressionsfunktion Bisher: lineares Regressionsmodell o Steigung d. Regressionsgerade ist konstant o Effekt einer Änderung von X auf Y hängt nicht vom Niveau von X oder von anderen Regressoren

Mehr

Lineare Regression in R, Teil 1

Lineare Regression in R, Teil 1 Lineare Regression in R, Teil 1 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel October 6, 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools aus

Mehr

Kap. 8: Regression mit Paneldaten

Kap. 8: Regression mit Paneldaten Kap. 8: Regression mit Paneldaten Einführung Paneldaten für zwei Perioden Regression mit festen Effekten bzgl. Individuen Regression mit festen Effekten bzgl. Zeit Annahmen in der Paneldatenanalyse Empirisches

Mehr

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer

Mehr

Lineare Modelle in R: Zweiweg-Varianzanalyse und Kovarianzanalyse

Lineare Modelle in R: Zweiweg-Varianzanalyse und Kovarianzanalyse Lineare Modelle in R: Zweiweg-Varianzanalyse und Kovarianzanalyse Achim Zeileis 2009-02-20 1 Datenaufbereitung Wie schon im Tutorium LiMo2.pdf laden wir den GSA Datensatz R> load("gsa.rda") und wählen

Mehr

Ordinale abhängige Variablen. Einführung Regressionsmodelle für ordinale Variablen Empirisches Beispiel Ausblick

Ordinale abhängige Variablen. Einführung Regressionsmodelle für ordinale Variablen Empirisches Beispiel Ausblick Kap. 6: Ordinale abhängige Variablen Einführung Regressionsmodelle für ordinale Variablen Empirisches Beispiel Ausblick 6.1 Einführung Typische ökonomische Beispiele für ordinale abhängige Variablen: Bildungsniveau

Mehr

Kovarianzanalyse. Truthahngewicht. Truthahngewicht. Methoden empirischer Sozialforschung. 1 metrische und mehrere metrische und kategoriale Variablen

Kovarianzanalyse. Truthahngewicht. Truthahngewicht. Methoden empirischer Sozialforschung. 1 metrische und mehrere metrische und kategoriale Variablen Kovarianzanalyse 1 metrische und mehrere metrische und kategoriale Variablen Methoden empirischer Sozialforschung Lineare Modelle (2. Teil) Wie läßt sich die Abhängigkeit einer metrischen Variablen von

Mehr

1 Kodierung kategorialer Einflussgrößen

1 Kodierung kategorialer Einflussgrößen Übung zur Vorlesung Generalisierte Regressionsmodelle Blatt 1 Christiane Fuchs, Moritz Berger, Micha Schneider WiSe 16/17 1 Kodierung kategorialer Einflussgrößen Lösung zu Aufgabe 3 Einlesen der Daten:

Mehr

Prognoseintervalle für y 0 gegeben x 0

Prognoseintervalle für y 0 gegeben x 0 10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen

Mehr

Evaluation empirischer Studien

Evaluation empirischer Studien Kap. 7: Evaluation empirischer Studien Motivation Interne und externe Validität Nochmals die Schulbezirke: Massachusetts vs. Kalifornien Exkurs: Statistische und ökonomische Signifikanz Weiteres Programm

Mehr

Multiple Regression III

Multiple Regression III Multiple Regression III Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Überprüfung der Modellannahmen Residuen-Plot Normal-Q-Q-Plot Cook s Distanz-Plot Maßnahmen bei Abweichungen von Modellannahmen

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte

Mehr

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.

Mehr

Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie

Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie 1 Einleitung 3 2 Modell mit 0-1 kodierten nominalen Prädiktoren X 1

Mehr

Lean Body Mass [kg] Estimate Std. Error t value Pr(> t ) (Intercept) ??? lbm <2e-16 ***

Lean Body Mass [kg] Estimate Std. Error t value Pr(> t ) (Intercept) ??? lbm <2e-16 *** Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden

Mehr

Biostatistik 101 Korrelation - Regressionsanalysen

Biostatistik 101 Korrelation - Regressionsanalysen Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 carl.herrmann@uni-heidelberg.de Korrelation Sind Alter und Blutdruck miteinander

Mehr

Auswertung und Lösung

Auswertung und Lösung Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie SS ( = 57 Punkte)

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie SS ( = 57 Punkte) Aufgabe 3 (9 + 5 + 7 + 7 + 3 + 9 + 7 + 10 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Zu Beginn der Studienjahre 2011 und 2012 wurden Studienanfänger an

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall

Mehr

Empirische Analysen mit dem SOEP

Empirische Analysen mit dem SOEP Empirische Analysen mit dem SOEP Methodisches Lineare Regressionsanalyse & Logit/Probit Modelle Kurs im Wintersemester 2007/08 Dipl.-Volksw. Paul Böhm Dipl.-Volksw. Dominik Hanglberger Dipl.-Volksw. Rafael

Mehr

Bivariate Analyseverfahren

Bivariate Analyseverfahren Bivariate Analyseverfahren Bivariate Verfahren beschäftigen sich mit dem Zusammenhang zwischen zwei Variablen Beispiel: Konservatismus/Alter Zusammenhangsmaße beschreiben die Stärke eines Zusammenhangs

Mehr

Analyse von Querschnittsdaten. Spezifikation der Regressionsfunktion

Analyse von Querschnittsdaten. Spezifikation der Regressionsfunktion Analse von Querschnittsdaten Spezifikation der Regressionsfunktion Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 9..5 6..5..5 9..5 6..5..5..5

Mehr

Modellspezifikationen Nichtlinearitäten

Modellspezifikationen Nichtlinearitäten Modellspezifikationen Nichtlinearitäten Agenda Dummy-Variablen Interaktionseffekte (quadratische Effekte / Polynome) Dummy Interaktion Logarithmierte Variablen Wachstumsraten / Semielastizitäten Elastizitäten

Mehr

Lineare Modelle in R: Klassische lineare Regression

Lineare Modelle in R: Klassische lineare Regression Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)

Mehr

6. Tutoriumsserie Statistik II

6. Tutoriumsserie Statistik II 6. Tutoriumsserie Statistik II 1. Aufgabe: Eine Unternehmensabteilung ist ausschließlich mit der Herstellung eines einzigen Produktes beschäftigt. Für 10 Perioden wurden folgende Produktmenge y und Gesamtkosten

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte)

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte) Aufgabe 3 (6 + 4 + 8 + 4 + 10 + 4 + 9 + 4 + 8 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe eines multiplen linearen Regressionsmodells soll auf

Mehr

Einführung in die Induktive Statistik: Regressionsanalyse

Einführung in die Induktive Statistik: Regressionsanalyse Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse

Mehr

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl

Mehr

Verallgemeinerte lineare Modelle. Promotion. Promotion. Methoden empirischer Sozialforschung. 1 binäre und mehrere metrische und kategoriale Variablen

Verallgemeinerte lineare Modelle. Promotion. Promotion. Methoden empirischer Sozialforschung. 1 binäre und mehrere metrische und kategoriale Variablen Verallgemeinerte lineare Modelle 1 binäre und mehrere metrische und kategoriale Variablen Methoden empirischer Sozialforschung Verallgemeinerte lineare Modelle () Wie läßt sich die Abhängigkeit der Erfolgswahrscheinlichkeit

Mehr

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)

Mehr

Empirische Wirtschaftsforschung in R

Empirische Wirtschaftsforschung in R Empirische Wirtschaftsforschung in R Schätzung der keynesianischen Geldnachfragefunktion auf Basis von Daten der dänischen Volkswirtschaft Jonas Richter-Dumke Universität Rostock, Institut für Volkswirtschaftslehre

Mehr

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich,

Mehr

Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller

Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit

Mehr

Statistik II für Betriebswirte Vorlesung 8

Statistik II für Betriebswirte Vorlesung 8 Statistik II für Betriebswirte Vorlesung 8 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 3. Dezember 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version:

Mehr

Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen

Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen 4 Multiple lineare Regression Heteroskedastische Störgrößen 4.10 Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen Ein approximatives

Mehr

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade

Mehr

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen 4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test.

Mehr

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen 4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test.

Mehr

Schweizer Statistiktage, Aarau, 18. Nov. 2004

Schweizer Statistiktage, Aarau, 18. Nov. 2004 Schweizer Statistiktage, Aarau, 18. Nov. 2004 Qualitative Überprüfung der Modellannahmen in der linearen Regressionsrechnung am Beispiel der Untersuchung der Alterssterblichkeit bei Hitzeperioden in der

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 20 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS)

Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Es soll untersucht werden, ob und wie sich Rauchen während der Schwangerschaft auf den Gesundheitszustand des Neugeborenen auswirkt. Hierzu werden

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2017/18. ( = 58 Punkte)

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2017/18. ( = 58 Punkte) Aufgabe 3 (14 + 2 + 7 + 7 + 3 + 5 + 9 + 11 = 58 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe der Statistiksoftware R soll der Datensatz HousePrices aus

Mehr

Logistische Regression

Logistische Regression Logistische Regression Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Logistische Regression Beispiel 1: Herzerkrankungsdaten aus Framingham Log Odds Modell Beispiel 1: Einfluss von Blutdruck Maximum

Mehr

Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.

Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression. Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, 10.07.017 Wahrscheinlichkeit und Statistik Patric Müller WBL

Mehr

FUNKTIONEN UND FORMELN IN

FUNKTIONEN UND FORMELN IN FUNKTIONEN UND FORMELN IN Referent: Daniel Laskow Betreuer: Eugen Betke Programmierung in R Arbeitsbereich Wissenschaftliches Rechnen Universität Hamburg 01.06.2016 Gliederung Arithmetische Operatoren

Mehr

FORMELN IN. Referent: Daniel Laskow Betreuer: Eugen Betke Programmierung in R Arbeitsbereich Wissenschaftliches Rechnen Universität Hamburg

FORMELN IN. Referent: Daniel Laskow Betreuer: Eugen Betke Programmierung in R Arbeitsbereich Wissenschaftliches Rechnen Universität Hamburg FORMELN IN Referent: Daniel Laskow Betreuer: Eugen Betke Programmierung in R Arbeitsbereich Wissenschaftliches Rechnen Universität Hamburg 01.06.2016 Gliederung Arithmetische Operatoren Funktionen aus

Mehr

Seminar zur Energiewirtschaft:

Seminar zur Energiewirtschaft: Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable

Mehr

Multiple lineare Regression

Multiple lineare Regression Multiple lineare Regression Bisher eine Einflußgröße X 1 (und der Achsenabschnitt). Dagegen das Modell der multiplen Regression Y = β 0 X 0 + β 1 X 1 +... + β p X p + ε mit p Einflußgrößen und dem Achsenabschnitt.

Mehr

2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme)

2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme) 2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme) Annahme A1: Im multiplen Regressionsmodell fehlen keine relevanten exogenen Variablen und die benutzten exogenen Variablen x 1,

Mehr

5 Multivariate stationäre Modelle

5 Multivariate stationäre Modelle 5 Multivariate stationäre Modelle 5.1 Autoregressive distributed lag (ADL) 5.1.1 Das Modell und dessen Schätzung Im vorangehenden Kapitel führten wir mit der endogenen verzögerten Variablen, y t 1, als

Mehr

Einführung in die formale Demographie Übung

Einführung in die formale Demographie Übung Einführung in die formale Demographie Übung Roland Rau mailto:roland.rau@uni-rostock.de 27. Oktober 2014 Inhaltsverzeichnis 1 Eigene Funktionen schreiben 2 2 Regression in R 3 3 Aufgaben 8 3.1 Schreiben

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

Kapitel 10. Multikollinearität. Exakte Multikollinearität Beinahe Multikollinearität

Kapitel 10. Multikollinearität. Exakte Multikollinearität Beinahe Multikollinearität Kapitel 0 Multikollinearität Exakte Multikollinearität Beinahe Multikollinearität Exakte Multikollinearität Unser Modell lautet y = Xb + u, Dimension von X: n x k Annahme : rg(x) = k Wenn sich eine oder

Mehr

Lineare Regression (Ein bisschen) Theorie

Lineare Regression (Ein bisschen) Theorie Kap. 6: Lineare Regression (Ein bisschen) Theorie Lineare Regression in Matrixform Verteilung des KQ-Schätzers Standardfehler für OLS Der Satz von Gauss-Markov Das allgemeine lineare Regressionsmodell

Mehr

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden

Mehr

Lösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016

Lösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016 ETH Zürich D-USYS Institut für Agrarwissenschaften Lösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016 Peter von Rohr Datum 30. Mai 2016 Beginn 08:00 Uhr Ende 08:45

Mehr

Übungsblatt 10: Lineare Regression (Sitzung 11)

Übungsblatt 10: Lineare Regression (Sitzung 11) 1 Übungsblatt 10: Lineare Regression (Sitzung 11) Aufgabe 1 a) Nach welchem Kriterium wird die Regressionsgerade zur Vorhersage von Y-Werten festgelegt? b) Was sind die Gemeinsamkeiten und Unterschiede

Mehr

Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS)

Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Vorbereitungen Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Falls das R - Paket car noch nicht installiert wurde, kann dies mit der Funktion install.packages() erledigt werden. install.packages("car")

Mehr

Klausur zu Biometrische und Ökonometrische Methoden und Ökologische Statistik

Klausur zu Biometrische und Ökonometrische Methoden und Ökologische Statistik TECHNISCHE UNIVERSITÄT MÜNCHEN - WEIHENSTEPHAN WS 96/97 MATHEMATIK UND STATISTIK, INFORMATIONS- UND DOKUMENTATIONSZENTRUM Klausur zu Biometrische und Ökonometrische Methoden und Ökologische Statistik 24.1.97,

Mehr

X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?

X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode? Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests. 0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Computerübung 10. Empirische Wirtschaftsforschung. Willi Mutschler. 27. Januar Ökonometrie und Wirtschaftsstatistik Uni Münster

Computerübung 10. Empirische Wirtschaftsforschung. Willi Mutschler. 27. Januar Ökonometrie und Wirtschaftsstatistik Uni Münster Computerübung 10 Empirische Wirtschaftsforschung Willi Mutschler Ökonometrie und Wirtschaftsstatistik Uni Münster 27. Januar 2011 Willi Mutschler (Uni Münster) Computerübung 10 27. Januar 2011 1 / 12 Inhaltsverzeichnis

Mehr

Vorlesung: Multivariate Statistik für Psychologen

Vorlesung: Multivariate Statistik für Psychologen Vorlesung: Multivariate Statistik für Psychologen 7. Vorlesung: 05.05.2003 Agenda 2. Multiple Regression i. Grundlagen ii. iii. iv. Statistisches Modell Verallgemeinerung des Stichprobenmodells auf Populationsebene

Mehr

> r.lm < lm(log10(ersch) log10(dist), > summary(r.lm) > r.lms < summary(r.lm) R-Funktionen zur linearen Regression. data = d.

> r.lm < lm(log10(ersch) log10(dist), > summary(r.lm) > r.lms < summary(r.lm) R-Funktionen zur linearen Regression. data = d. 3.4 S-Funktionen 75 R-Funktionen zur linearen Regression a Im package stat (immer vorhanden): lm > r.lm < lm(log10(ersch) log10(dist), data = d.spreng) b Funktion summary produziert Resultate, die man

Mehr

FRAGESTUNDE WS 2016/17 QM 2. Dr. Christian Schwarz 1

FRAGESTUNDE WS 2016/17 QM 2. Dr. Christian Schwarz 1 FRAGESTUNDE Dr. Christian Schwarz 1 #2 - Allgemein Q: Müssen wir den Standard Error händisch berechnen können? R: Nein. Q: Hat das Monte Carlo Experiment irgendeine Bedeutung für uns im Hinblick auf die

Mehr

Konfidenz-, Prognoseintervalle und Hypothesentests II bei heteroskedastischen Störgrößen

Konfidenz-, Prognoseintervalle und Hypothesentests II bei heteroskedastischen Störgrößen Konfidenz-, Prognoseintervalle und Hypothesentests II bei heteroskedastischen Störgrößen Achtung! Bei der Verwendung von heteroskedastie-konsistenten Schätzern für V( β) muss unbedingt darauf geachtet

Mehr

3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m)

3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m) 3.1. MODELL UND STATISTIK 32 3 Multiple lineare Regression a 3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m) Y i = β 0 + β 1 x (1)

Mehr

4 Multiple lineare Regression Multikollinearität 4.9

4 Multiple lineare Regression Multikollinearität 4.9 Multikollinearität Erinnerung: Unter der (gemäß Modellannahmen ausgeschlossenen) perfekten Multikollinearität versteht man eine perfekte lineare Abhängigkeit unter den Regressoren (einschließlich des Absolutglieds

Mehr

4 Multiple lineare Regression Multikollinearität 4.9

4 Multiple lineare Regression Multikollinearität 4.9 Multikollinearität Erinnerung: Unter der (gemäß Modellannahmen ausgeschlossenen) perfekten Multikollinearität versteht man eine perfekte lineare Abhängigkeit unter den Regressoren (einschließlich des Absolutglieds

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

Schätzung im multiplen linearen Modell VI

Schätzung im multiplen linearen Modell VI Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,

Mehr

VO Biostatistik im WS 2006/2007

VO Biostatistik im WS 2006/2007 VO Biostatistik im WS 2006/2007 1 Beispiel 1: Herzerkrankungsdaten aus Framingham für skoeffizienten : Leukemie-Daten 2 Beispiel 1: Herzerkrankungsdaten aus Framingham Stichprobe: 1329 männliche Bewohner

Mehr

Bivariater Zusammenhang bei metrischen Variablen: Regression und Korrelation

Bivariater Zusammenhang bei metrischen Variablen: Regression und Korrelation Bivariater Zusammenhang bei metrischen Variablen: Regression und Korrelation PEΣO 12. November 2001 Von der Tabellenanalyse zur Regression Die bivariate Verteilung zweier metrischer Variablen kann konzeptionell

Mehr

Fragen zum zweiten Teil der Vorlesung

Fragen zum zweiten Teil der Vorlesung Albert-Ludwigs-Universität Freiburg Ökonometrie (Bachelor) Lehrstuhl Prof. Fitzenberger, Ph.D. WS 2011/12 Fragen zum zweiten Teil der Vorlesung 1. Es soll geprüt werden, ob das obere Quartil (das 75%-Quantil)

Mehr

11. weitere Übungsaufgaben Statistik II WiSe 2017/2018

11. weitere Übungsaufgaben Statistik II WiSe 2017/2018 11. weitere Übungsaufgaben Statistik II WiSe 2017/2018 1. Aufgabe: Bei 100 Fahrzeugen des gleichen Typs sind neben dem Preis (PREIS) auch die gefahrene Strecke (MEILEN) und die Anzahl der Werkstattbesuche

Mehr

Lineare Regression. Kapitel Regressionsgerade

Lineare Regression. Kapitel Regressionsgerade Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell

Mehr

CIM2004 Übung 7: Permutationstest, Bootstrap & Jackknife

CIM2004 Übung 7: Permutationstest, Bootstrap & Jackknife CIM2004 Übung 7: Permutationstest, Bootstrap & Jackknife Michael Höhle hoehle@stat.uni-muenchen.de Lösung 24. Juni 2004 1 Permutationstest Bilirubin ist ein Zerlegungsprodukt von Haemoglobin. Falls die

Mehr

Dr. M. Kalisch. Statistik (für Biol./Pharm. Wiss.) Winter Musterlösung

Dr. M. Kalisch. Statistik (für Biol./Pharm. Wiss.) Winter Musterlösung Dr. M. Kalisch. Statistik (für Biol./Pharm. Wiss.) Winter 2014 Musterlösung 1. (11 Punkte) a) Für welchen Parameter ist X ein geeigneter Schätzer? X ist ein geeigneter Schätzer für den Erwartungswert µ

Mehr

Einführung in die formale Demographie Übung

Einführung in die formale Demographie Übung Einführung in die formale Demographie Übung Roland Rau mailto:roland.rau@uni-rostock.de 03. November 2014 Inhaltsverzeichnis 1 Aufgaben vom 27. Oktober 2014 2 1.1 Schreiben von Funktionen............................

Mehr

Bivariate Zusammenhänge

Bivariate Zusammenhänge Bivariate Zusammenhänge 40 60 80 Bivariater Zusammenhang: Zusammenhang zwischen zwei Variablen weight (kg) Gibt es einen Zusammenhang zwischen Größe & Gewicht? (am Beispieldatensatz) Offensichtlich positiver

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur

Mehr

Prüfung im Fach Mikroökonometrie im Wintersemester 2012/13 Aufgaben

Prüfung im Fach Mikroökonometrie im Wintersemester 2012/13 Aufgaben Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Prüfung im Fach Mikroökonometrie im Wintersemester 2012/13 Aufgaben Vorbemerkungen: Anzahl der Aufgaben: Bewertung:

Mehr

Bachelorprüfung: Statistik (1 Stunde)

Bachelorprüfung: Statistik (1 Stunde) Prof. H.R. Künsch D-BIOL, D-CHAB Winter 2010 Bachelorprüfung: Statistik (1 Stunde) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt. Natels sind auszuschalten!

Mehr

Tutorial: Regression Output von R

Tutorial: Regression Output von R Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen

Mehr

Statistik II für Betriebswirte Vorlesung 11

Statistik II für Betriebswirte Vorlesung 11 Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 07. Januar 2019 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:

Mehr

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg Übungsklausur Lineare le Prof. Dr. H. Toutenburg Aufgabe Ein lineares Regressionsmodell mit der abhängigen Variablen Körpergröße und der unabhängigen Variablen Geschlecht wurde einmal mit der dummykodierten

Mehr

Prof. Dr. Marc Gürtler WS 2015/2016. Prof. Dr. Marc Gürtler. Klausur zur 10/12 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft

Prof. Dr. Marc Gürtler WS 2015/2016. Prof. Dr. Marc Gürtler. Klausur zur 10/12 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft Prof. Dr. Marc Gürtler WS 015/016 Prof. Dr. Marc Gürtler Klausur zur 10/1 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft Lösungsskizze Prof. Dr. Marc Gürtler WS 015/016 Aufgabe 1: (11+5+1+8=56

Mehr

John Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer

John Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer John Komlos Bernd Süssmuth Empirische Ökonomie Eine Einführung in Methoden und Anwendungen 4y Springer 1 Einführung 1 1.1 Ökonometrie 1 2 Vorüberlegungen und Grundbegriffe 7 2.1 Statistik als Grundlage

Mehr