Regression mit Faktoren, Interaktionen und transformierten Variablen
|
|
- Holger Franke
- vor 7 Jahren
- Abrufe
Transkript
1 Kap. 5: Regression mit Faktoren, Interaktionen und transformierten Variablen Motivation Regressionen mit transformierten Variablen Ausblick: Nichtlineare Regression Mehr zu Regressionen mit qualitativen Regressoren Regressionen mit Interaktionen
2 5.1 Motivation Bisherige Modelle von der Form Y i = β 0 + β 1 X i β k X ik + u i sind linear in den X ij und in β j. Lineares Regressionsmodell ist aber sehr viel flexibler kann auch Situationen behandeln, in denen nichtlineare Funktionen der X ij auftreten. Definition: Ein Regressionsmodell ist linear, wenn es linear in den Parametern ist. Damit definieren auch Y i = β 0 + β 1 X i + β 2 X 2 i + u i Y i = β 0 + β 1 log(x i ) + u i Y i = β 0 + β 1 log(x i ) + β 2 {log(x i )} 2 + u i lineare Regressionsmodelle. C. Kleiber: Ökonometrie 1 Kap. 5-1 U Basel, HS 2009
3 5.1 Motivation Populäre nichtlineare Funktionen in X: Polynome Motivation: eine (gutartige) nichtlineare Funktion f(x) hat (lokal, d.h. um einen Punkt x 0 ) eine Taylor-Entwicklung f(x) = f(x 0 ) + f (x 0 ) 1! (x x 0 ) + f (x 0 ) 2! (x x 0 ) 2 + f (x 0 ) (x x 0 ) 3 + Rest 3! darum sollten höhere Potenzen in x den Funktionsverlauf besser wiedergeben als eine lineare Funktion in x. Interpretation: wenn wahrer Zusammenhang f(x) nichtlinear ist, führt lineare Regression zu Verzerrung durch vergessene Variablen denn es fehlen ja höhere Potenzen in x. Logarithmen C. Kleiber: Ökonometrie 1 Kap. 5-2 U Basel, HS 2009
4 5.1 Motivation Ökonomisches Beispiel: (Cobb-Douglas-Produktionsfunktion) Y i = AL α i K β i lässt sich mit Methoden der linearen Regression schätzen. Nehme dazu an, dass Fehlerterm multiplikativ ist: Logarithmieren liefert nun Y i = AL α i K β i eu i log Y i = log A + α log L i + β log K i + u i =: β 0 + β 1 Z i1 + β 2 Z i2 + u i ein multiples lineares Regressionsmodell. So werden Cobb-Douglas-Funktionen tatsächlich geschätzt. C. Kleiber: Ökonometrie 1 Kap. 5-3 U Basel, HS 2009
5 5.1 Motivation Zwei Streudiagramme: score score stratio income C. Kleiber: Ökonometrie 1 Kap. 5-4 U Basel, HS 2009
6 5.2 Regression mit transformierten Variablen Regressionen mit Polynomen: Wir betrachten zunächst quadratische und kubische Terme in income. R> fmquad <- lm(score ~ income + I(income^2), data = CASchools) R> fmcub <- lm(score ~ income + I(income^2) + I(income^3), + data = CASchools) Zur Schätzung in R: Hier wird die Funktion I() benötigt, denn alle Grundrechenarten haben in Formeln eine eigene Bedeutung. R> (cfmquad <- coeftest(fmquad, vcov = sandwich)) t test of coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) <2e-16 income <2e-16 I(income^2) <2e-16 C. Kleiber: Ökonometrie 1 Kap. 5-5 U Basel, HS 2009
7 5.2 Regression mit transformierten Variablen Beurteilung und Interpretation: plotte geschätzte Regression ŝcore i = income i income 2 i (2.8914) (0.2671) (0.0048) bestimme Effekte E(score income) income = β β 2 income Prognostizierte Änderung bei einem Durchschnittseinkommen von 5 000: = Also hat ein Bezirk mit Durchschnittseinkommen im Mittel etwa um Punkte bessere Testergebnisse als ein Bezirk mit Durchschnittseinkommen Effekt ist stärker bei kleinen Einkommen (warum?). C. Kleiber: Ökonometrie 1 Kap. 5-6 U Basel, HS 2009
8 5.2 Regression mit transformierten Variablen Zum Vergleich noch die kubische Version: R> fmcub <- lm(score ~ income + I(income^2) + I(income^3), + data = CASchools) R> coeftest(fmcub, vcov = sandwich) t test of coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) 6.00e e < 2e-16 income 5.02e e e-12 I(income^2) -9.58e e I(income^3) 6.85e e Kubischer Term statistisch signifikant zum 5%-Niveau, aber nicht zum 1%-Niveau. C. Kleiber: Ökonometrie 1 Kap. 5-7 U Basel, HS 2009
9 5.2 Regression mit transformierten Variablen Zum Abschluss noch ein Test der linearen Spezifikation gegen ein Polynom maximal 3. Grades mit einem F -Test (warum F-Test nötig?): R> fmlin <- lm(score ~ income, data= CASchools) R> waldtest(fmlin, fmcub, vcov = sandwich) Wald test Model 1: score ~ income Model 2: score ~ income + I(income^2) + I(income^3) Res.Df Df F Pr(>F) e-16 Hypothese H 0 : Zusammenhang linear wird also zu allen üblichen Signifikanzniveaus verworfen gegen Alternative H 1 : Zusammenhang ist nichtlinear und Polynom maximal 3. Grades. C. Kleiber: Ökonometrie 1 Kap. 5-8 U Basel, HS 2009
10 5.2 Regression mit transformierten Variablen Drei Spezifikationen im Vergleich: score linear quadratisch kubisch income C. Kleiber: Ökonometrie 1 Kap. 5-9 U Basel, HS 2009
11 5.2 Regression mit transformierten Variablen Zusammenfassung: Regression mit Polynomen immer noch ein lineares Regressionsmodell, das aber Transformationen der Originalvariablen enthält Koeffizienten schwieriger zu interpretieren Beurteilung des Modells: Plotten der prognostizierten Werte als Funktion von x (Schätzung der) Effekte Hypothesentests über den Polynomgrad mit t- und F -Tests Wahl des Polynomgrads: Plotten der Daten, gebe maximalen Polynomgrad vor, t- und F -Tests C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
12 5.2 Regression mit transformierten Variablen Regressionen mit logarithmischen Termen: Drei mögliche Fälle Linear-logarithmische Spezifikation: Logarithmisch-lineare Spezifikation: Y i = β 0 + β 1 log(x i ) + u i log(y i ) = β 0 + β 1 X i + u i Log-log Spezifikation: log(y i ) = β 0 + β 1 log(x i ) + u i Interpretation des Steigungsparameters β 1 jeweils unterschiedlich! C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
13 5.2 Regression mit transformierten Variablen Umsetzung in R: Linear-logarithmische Spezifikation: R> fmlinlog <- lm(score ~ log(income), data = CASchools) Logarithmisch-lineare Spezifikation: R> fmloglin <- lm(log(score) ~ income, data = CASchools) Log-log Spezifikation: R> fmloglog <- lm(log(score) ~ log(income), data = CASchools) Diesmal wird die Funktion I() nicht benötigt, denn log() ist keine Grundrechenart. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
14 5.2 Regression mit transformierten Variablen Das linear-logarithmische Modell: Erwartete Änderung Effekt ergibt sich über Differenz Y i = β 0 + β 1 log(x i ) + u i Y i + Y = β 0 + β 1 log(x i + X) + u i Y = β 1 {(log(x i + X) log X i } Da log(x i + X) log(x i ) X X i ergibt sich β 1 Y X/X i Da 100 X/X i prozentuale Änderung in X: 1%ige Änderung in X verändert Y um 0.01 β 1. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
15 5.2 Regression mit transformierten Variablen R> fmlinlog <- lm(score ~ log(income), data = CASchools) R> coeftest(fmlinlog, vcov = sandwich) t test of coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) <2e-16 log(income) <2e-16 Demnach verändert sich Testergebnis um Punkte bei 1%iger Änderung im Einkommen. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
16 5.2 Regression mit transformierten Variablen Das linear-logarithmische Modell: score income C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
17 5.2 Regression mit transformierten Variablen Das logarithmisch-lineare Modell: Erwartete Änderung Effekt ergibt sich über Differenz also Damit log(y i ) = β 0 + β 1 X i + u i log(y i + Y ) = β 0 + β 1 (X i + X) + u i log(y i + Y ) log(y i ) = β 1 X Y Y i β 1 X β 1 Y/Y i X Da 100 Y/Y i prozentuale Änderung in Y : Änderung in X um 1 Einheit verändert Y um 100 β 1 %. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
18 5.2 Regression mit transformierten Variablen Das log-log Modell: log(y i ) = β 0 + β 1 log(x i ) + u i Erwartete Änderung Effekt ergibt sich über Differenz log(y i + Y ) = β 0 + β 1 log(x i + X) + u i log(y i + Y ) log(y i ) = β 1 {log(x i + X) log(x i )} also Y Y i β 1 X X i oder β 1 Y/Y i X/X i Da 100 Y/Y i prozentuale Änderung in Y und da 100 X/X i prozentuale Änderung in X : 1%ige Änderung in X verändert Y um β 1 %. Parameter β 1 ist also eine Elastizität ein Grund für Popularität von log-log-spezifikationen in der empirischen Wirtschaftsforschung! C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
19 5.2 Regression mit transformierten Variablen R> fmloglog <- lm(log(score) ~ log(income), data = CASchools) R> coeftest(fmloglog, vcov = sandwich) t test of coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) <2e-16 log(income) <2e-16 Demnach verändert sich Testergebnis um Prozent bei 1% iger Änderung im Einkommen. Vergleiche dieses Modell graphisch mit log-linearem Modell: C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
20 5.2 Regression mit transformierten Variablen Zwei Spezifikationen im Vergleich: log(score) log lin log log income C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
21 5.2 Regression mit transformierten Variablen Linear-logarithmische Spezifikation scheint akzeptabel. Sind höhere Potenzen in log(income) noch besser? R> fmlinlogcub <- lm(score ~ log(income) + I(log(income)^2) + + I(log(income)^3), data = CASchools) R> waldtest(fmlinlog, fmlinlogcub, vcov = sandwich) Wald test Model 1: score ~ log(income) Model 2: score ~ log(income) + I(log(income)^2) + I(log(income)^3) Res.Df Df F Pr(>F) Also quadratischer und kubischer Term in log(income) verzichtbar. Die verbleibenden Modelle linear-logarithmisch und kubisch sind ähnlich, aber das linearlogarithmische hat weniger Parameter: C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
22 5.2 Regression mit transformierten Variablen Zwei Spezifikationen im Vergleich: Linear-logarithmisch vs. kubisch in Einkommen score lin log kubisch income C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
23 5.2 Regression mit transformierten Variablen Zusammenfassung: Regression mit logarithmischen Transformationen immer noch ein lineares Regressionsmodell, das aber Transformationen der Originalvariablen enthält 3 Fälle, Interpretation der Koeffizienten jeweils unterschiedlich Beurteilung des Modells: Plotten der prognostizierten Werte als Funktion von x (Schätzung der) Effekte Hypothesentests über den Polynomgrad mit t- und F -Tests Wahl des Modells: Plotten der Daten, t- und F -Tests, inhaltliche Aspekte Warnung: R 2 und R 2 nur vergleichbar für Modelle mit gleichen linken Seiten! C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
24 5.3 Ausblick: Nichtlineare Regression Bisherige Beispiele vom Typ Y i = f(x i1,..., X ik, β 0, β 1,..., β k ) + u i mit Y i = β 0 + β 1 f 1 (X i1 ) + + β k f k (X ik ) + u i wobei f i Polynome oder Logarithmen. Alle betrachteten Funktionen sind immer noch linear in den Parametern! Dies gilt nicht mehr für z.b. negatives exponentielles Wachstum Y i = β 0 {1 e β 1(X i1 β 2 ) } + u i Solche Funktionen können nicht mehr mit OLS, aber z.b. mit nichtlinearer KQ-Methode (nonlinear least squares, NLS) geschätzt werden: RSS = n (Y i β 0 {1 }) e β 2 1(X i1 β 2 ) i=1 min! β 0,β 1,β 2 Keine expliziten Formeln Lösung erfolgt mit Methoden der numerischen Mathematik. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
25 5.3 Ausblick: Nichtlineare Regression Umsetzung in R: R> fmnls <- nls(score ~ beta0 * (1 - exp(-beta1 * (income - beta2) ) ), + data = CASchools, start = list(beta0 = 700, beta1 = 0.1, beta2 = -10)) R> summary(fmnls) Formula: score ~ beta0 * (1 - exp(-beta1 * (income - beta2))) Parameters: Estimate Std. Error t value Pr(> t ) beta < 2e-16 beta e-09 beta e-09 Residual standard error: 12.7 on 417 degrees of freedom Number of iterations to convergence: 6 Achieved convergence tolerance: 6.7e-06 C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
26 5.3 Ausblick: Nichtlineare Regression Spezifikationen im Vergleich: (linear-logarithmisch vs. nichtlinear) score lin log nonlin income C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
27 5.3 Ausblick: Nichtlineare Regression Spezifikationen im Vergleich: (kubisch vs. nichtlinear) score kubisch nonlin income C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
28 5.4 Mehr zu qualitativen Regressoren Ein binärer Regressor kodiert eine qualitative Variable mit 2 Ausprägungen (Bsp.: Geschlecht). Bisher nur Regressionen mit (maximal) einem binären Regressor. Statistik: qualitative Variablen (Geschlecht, Region, Beruf,... ) heissen Faktoren, ihre Ausprägungen heissen Stufen (engl.: levels ). Terminologie kommt aus der statistischen Versuchsplanung. Geschlecht ist in dieser Sprechweise ein Faktor mit 2 Stufen. Ökonometrie: Faktor mit 2 Stufen heisst Dummy- oder Indikatorvariable, kodiert als 0 und 1. Wie behandelt man qualitative Variablen mit mehr als 2 Ausprägungen ( Faktoren mit mehr als 2 Stufen )? Typische Beispiele: Region: Nord, Süd, Ost, West. Saisoneffekte in Zeitreihen: 4 Quartale, 12 Monate C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
29 5.4 Mehr zu qualitativen Regressoren Beispiel: (Lohngleichung) Es seien Informationen zur Region vorhanden (4 Regionen: Nord, Süd, West, Ost). Umsetzung in Regressionsmodell: definiere eine Referenzkategorie und 3 Indikatorvariablen ( Dummies ). Mit Referenzkategorie Nord ist Modell log(lohn) = β 0 + β Ost +Ost + β West West + β Sued Sued + u Interpretation: β 0 steht für erwarteten Lohn in der Referenzkategorie, hier Nord. β Ost beschreibt den (erwarteten) Zuschlag/Abschlag für die Kategorie Ost relativ zur Referenzkategorie. Analog West, Süd. Man kann Regressionsergebnisse für unterschiedliche Formen der Kodierung ineinander umrechnen: log(lohn) = 6 Ost + 2 West 3 Sued entspricht: log(lohn) = Nord + 3 West 2 Sued C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
30 5.4 Mehr zu qualitativen Regressoren Umsetzung in R: qualitative Variablen werden als Faktor verwaltet, je nach Zahl der Stufen werden im Hintergrund Dummies erzeugt und verwaltet es ist nicht nötig, dies selbst zu tun. Zum Wechsel der Referenzkategorie kann relevel() verwendet werden: Sei Region mit Referenzkategorie Nord kodiert, dann R> fm <- lm(log(wage) ~ region, data = Data) R> Data$region <- relevel(data$region, ref = "Ost") R> fm <- lm(log(wage) ~ region, data = Data) Erste Regression verwendet Referenzkategorie Nord, zweite Ost. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
31 5.5 Regressionen mit Interaktionen Vielleicht ist Reduktion von stratio in manchen Situationen wirksamer als in anderen, z.b. in Bezirken mit vielen Nicht-Muttersprachlern? Formaler: E(score...) könnte von english abhängen. stratio Allgemein: E(Y i...) könnte von x 2 abhängen. x 1 Nenne dies Interaktion(seffekt). Wie modelliert man dies? Wir betrachten Interaktionen zwischen binären Regressoren Interaktionen zwischen binären und metrischen Regressoren Interaktionen zwischen metrischen Regressoren C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
32 5.5 Regressionen mit Interaktionen Interaktionen zwischen binären Variablen: Y i = β 0 + β 1 D i1 + β 2 D i2 + u i β 1 ist Effekt einer Änderung in D 1 (von 0 auf 1), hängt hier nicht von D 2 ab. Allgemeineres Modell: Y i = β 0 + β 1 D i1 + β 2 D i2 + β 3 D i1 D i2 + u i Nenne neuen Regressor D i1 D i2 einen Interaktionsterm. Interpretation: E(Y i D i1 = 1, D i2 = d 2 ) E(Y i D i1 = 0, D i2 = d 2 ) = β 1 + β 3 d 2 Effekt einer Änderung in D 1 (von 0 auf 1), hängt nun von D 2 ab. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
33 5.5 Regressionen mit Interaktionen Beispiel: mit stratio und english Setze { 1, falls stratio 20, hstratio =, henglish = 0, sonst. { 1, falls henglish 10, 0, sonst. R> fmint <- lm(score ~ henglish + hstratio + henglish : hstratio, + data = CASchools) R> coeftest(fmint, vcov = sandwich) t test of coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 henglishtrue e-14 hstratiotrue henglishtrue:hstratiotrue C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
34 5.5 Regressionen mit Interaktionen Interpretation: ŝcore = henglish 1.91 hstratio 3.26 henglish : hstratio Effekt von hstratio ist 1.91, wenn henglish = 0. Effekt von hstratio ist = 5.17, wenn henglish = 1 (TRUE). Reduktion der Klassengrösse scheint effektiver, wenn Prozentsatz Nicht-Muttersprachler hoch. Umsetzung in R: der Operator : generiert in einer Formel Interaktionsterme. Noch kompakter: der Operator * spezifiert lineare Terme und Interaktion (hier insg. 3 Terme) R> fmint <- lm(score ~ henglish * hstratio, data = CASchools) C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
35 5.5 Regressionen mit Interaktionen Interaktionen zwischen einer binären und einer metrischen Variablen: Y i = β 0 + β 1 D i + β 2 X i + u i β 2 ist Effekt einer Änderung in X, hängt hier nicht vom Wert von D ab Y i = β 0 + β 1 D i + β 2 X i + β 3 D i X i + u i Neuer Regressor D i X i ist wieder Interaktionsterm. Interpretation: E(Y i D i, X i ) X i = β 2 + β 3 D i Effekt einer Änderung in X hängt nun vom Wert von D ab. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
36 5.5 Regressionen mit Interaktionen Beispiel: mit stratio und henglish R> fmint2 <- lm(score ~ stratio + henglish + stratio : henglish, + data = CASchools) R> (cfmint2 <- coeftest(fmint2, vcov = sandwich)) t test of coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) <2e-16 stratio henglishtrue stratio:henglishtrue C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
37 5.5 Regressionen mit Interaktionen Interpretation: Wenn henglish = 0 score = stratio Wenn henglish = 1 score = stratio henglish 1.28 stratio : henglish Es gibt 2 Regressionsgeraden, eine für jeden Wert von henglish: Indikatorvariable henglish selbst verschiebt Achsenabschnitt, Interaktionsterm ändert Steigung gegenüber Referenzkategorie. (Unter Ökonomen wird eine Interaktion zwischen einem Faktor und einem metrischen Regressor manchmal leider als slope dummy bezeichnet.) Interessierende Hypothesen: beide Geraden haben gleiche Steigung: teste Koeffizienten des Interaktionsterms t = 1.33, also keine Ablehnung beide Geraden haben gleichen Achsenabschnitt: teste Koeffizienten des Faktors t = 0.29, also keine Ablehnung C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
38 5.5 Regressionen mit Interaktionen beide Geraden sind identisch: teste Koeffizienten des Interaktionsterms und des Faktors (F -Test!) R> fm <- lm(score ~ stratio, data = CASchools) R> waldtest(fm, fmint2, vcov = sandwich) Wald test Model 1: score ~ stratio Model 2: score ~ stratio + henglish + stratio:henglish Res.Df Df F Pr(>F) <2e-16 Überraschung: gemeinsame Hypothese wird verworfen, einzelne Hypothesen aber nicht! Ursache: hohe Korrelation zwischen den Regressoren. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
39 5.5 Regressionen mit Interaktionen Interaktionen zwischen zwei metrischen Variablen Y i = β 0 + β 1 X i1 + β 2 X i2 + u i β 1 ist Effekt einer Änderung in X 1, hängt hier nicht vom Wert von X 2 ab und umgekehrt. Y i = β 0 + β 1 X i1 + β 2 X i2 + β 3 X i1 X i2 + u i Neuer Regressor X i1 X i2 ist wieder Interaktionsterm. Interpretation: E(Y i X i1, X i2 ) = β 1 + β 3 X i2 X i1 Effekt einer Änderung in X 1 hängt nun vom Wert von X 2 ab. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
40 5.5 Regressionen mit Interaktionen Beispiel: mit stratio und english R> fmint3 <- lm(score ~ stratio + english + stratio : english, + data = CASchools) R> (cfmint3 <- coeftest(fmint3, vcov = sandwich)) t test of coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) <2e-16 stratio english stratio:english C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
41 5.5 Regressionen mit Interaktionen Interessierende Hypothesen: Interaktionsterm unwichtig: teste Koeffizienten zu stratio : english t = 0.063, also keine Ablehnung Regressor stratio selbst (allein) unwichtig: teste Koeffizienten zu stratio t = 1.807, also keine Ablehnung C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
42 5.5 Regressionen mit Interaktionen es gibt überhaupt keinen Einfluss von stratio: teste Koeffizienten von stratio : english und von stratio (F -Test!) R> fme <- lm(score ~ english, data = CASchools) R> waldtest(fme, fmint3, vcov = sandwich) Wald test Model 1: score ~ english Model 2: score ~ stratio + english + stratio:english Res.Df Df F Pr(>F) Überraschung: gemeinsame Hypothese wird verworfen, einzelne Hypothesen nicht! Ursache: hohe Korrelation zwischen den Regressoren. C. Kleiber: Ökonometrie 1 Kap U Basel, HS 2009
Lineare Regression in R, Teil 2
Lineare Regression in R, Teil 2 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel 28. Oktober 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools. Laden
MehrLineare Regression in R
Lineare Regression in R Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel 30. September 2009 1 Vorbereitungen Zur Illustration betrachten wir den Datensatz CASchools aus der Vorlesung
Mehr2.3 Nichtlineare Regressionsfunktion
Nichtlineare Regressionsfunktion Bisher: lineares Regressionsmodell o Steigung d. Regressionsgerade ist konstant o Effekt einer Änderung von X auf Y hängt nicht vom Niveau von X oder von anderen Regressoren
MehrLineare Regression in R, Teil 1
Lineare Regression in R, Teil 1 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel October 6, 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools aus
MehrKap. 8: Regression mit Paneldaten
Kap. 8: Regression mit Paneldaten Einführung Paneldaten für zwei Perioden Regression mit festen Effekten bzgl. Individuen Regression mit festen Effekten bzgl. Zeit Annahmen in der Paneldatenanalyse Empirisches
Mehr11. Übungsblatt zur Vorlesung Ökonometrie SS 2014
Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer
MehrLineare Modelle in R: Zweiweg-Varianzanalyse und Kovarianzanalyse
Lineare Modelle in R: Zweiweg-Varianzanalyse und Kovarianzanalyse Achim Zeileis 2009-02-20 1 Datenaufbereitung Wie schon im Tutorium LiMo2.pdf laden wir den GSA Datensatz R> load("gsa.rda") und wählen
MehrOrdinale abhängige Variablen. Einführung Regressionsmodelle für ordinale Variablen Empirisches Beispiel Ausblick
Kap. 6: Ordinale abhängige Variablen Einführung Regressionsmodelle für ordinale Variablen Empirisches Beispiel Ausblick 6.1 Einführung Typische ökonomische Beispiele für ordinale abhängige Variablen: Bildungsniveau
MehrKovarianzanalyse. Truthahngewicht. Truthahngewicht. Methoden empirischer Sozialforschung. 1 metrische und mehrere metrische und kategoriale Variablen
Kovarianzanalyse 1 metrische und mehrere metrische und kategoriale Variablen Methoden empirischer Sozialforschung Lineare Modelle (2. Teil) Wie läßt sich die Abhängigkeit einer metrischen Variablen von
Mehr1 Kodierung kategorialer Einflussgrößen
Übung zur Vorlesung Generalisierte Regressionsmodelle Blatt 1 Christiane Fuchs, Moritz Berger, Micha Schneider WiSe 16/17 1 Kodierung kategorialer Einflussgrößen Lösung zu Aufgabe 3 Einlesen der Daten:
MehrPrognoseintervalle für y 0 gegeben x 0
10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen
MehrEvaluation empirischer Studien
Kap. 7: Evaluation empirischer Studien Motivation Interne und externe Validität Nochmals die Schulbezirke: Massachusetts vs. Kalifornien Exkurs: Statistische und ökonomische Signifikanz Weiteres Programm
MehrMultiple Regression III
Multiple Regression III Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Überprüfung der Modellannahmen Residuen-Plot Normal-Q-Q-Plot Cook s Distanz-Plot Maßnahmen bei Abweichungen von Modellannahmen
MehrBeispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
MehrBeispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
MehrStatistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II
Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte
MehrBreusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.
MehrInteraktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie
Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie 1 Einleitung 3 2 Modell mit 0-1 kodierten nominalen Prädiktoren X 1
MehrLean Body Mass [kg] Estimate Std. Error t value Pr(> t ) (Intercept) ??? lbm <2e-16 ***
Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden
MehrBiostatistik 101 Korrelation - Regressionsanalysen
Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 carl.herrmann@uni-heidelberg.de Korrelation Sind Alter und Blutdruck miteinander
MehrAuswertung und Lösung
Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
MehrAufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie SS ( = 57 Punkte)
Aufgabe 3 (9 + 5 + 7 + 7 + 3 + 9 + 7 + 10 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Zu Beginn der Studienjahre 2011 und 2012 wurden Studienanfänger an
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrInferenz im multiplen Regressionsmodell
1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall
MehrEmpirische Analysen mit dem SOEP
Empirische Analysen mit dem SOEP Methodisches Lineare Regressionsanalyse & Logit/Probit Modelle Kurs im Wintersemester 2007/08 Dipl.-Volksw. Paul Böhm Dipl.-Volksw. Dominik Hanglberger Dipl.-Volksw. Rafael
MehrBivariate Analyseverfahren
Bivariate Analyseverfahren Bivariate Verfahren beschäftigen sich mit dem Zusammenhang zwischen zwei Variablen Beispiel: Konservatismus/Alter Zusammenhangsmaße beschreiben die Stärke eines Zusammenhangs
MehrAnalyse von Querschnittsdaten. Spezifikation der Regressionsfunktion
Analse von Querschnittsdaten Spezifikation der Regressionsfunktion Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 9..5 6..5..5 9..5 6..5..5..5
MehrModellspezifikationen Nichtlinearitäten
Modellspezifikationen Nichtlinearitäten Agenda Dummy-Variablen Interaktionseffekte (quadratische Effekte / Polynome) Dummy Interaktion Logarithmierte Variablen Wachstumsraten / Semielastizitäten Elastizitäten
MehrLineare Modelle in R: Klassische lineare Regression
Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)
Mehr6. Tutoriumsserie Statistik II
6. Tutoriumsserie Statistik II 1. Aufgabe: Eine Unternehmensabteilung ist ausschließlich mit der Herstellung eines einzigen Produktes beschäftigt. Für 10 Perioden wurden folgende Produktmenge y und Gesamtkosten
MehrAufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte)
Aufgabe 3 (6 + 4 + 8 + 4 + 10 + 4 + 9 + 4 + 8 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe eines multiplen linearen Regressionsmodells soll auf
MehrEinführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
Mehr13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017
13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl
MehrVerallgemeinerte lineare Modelle. Promotion. Promotion. Methoden empirischer Sozialforschung. 1 binäre und mehrere metrische und kategoriale Variablen
Verallgemeinerte lineare Modelle 1 binäre und mehrere metrische und kategoriale Variablen Methoden empirischer Sozialforschung Verallgemeinerte lineare Modelle () Wie läßt sich die Abhängigkeit der Erfolgswahrscheinlichkeit
Mehr7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien
Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)
MehrEmpirische Wirtschaftsforschung in R
Empirische Wirtschaftsforschung in R Schätzung der keynesianischen Geldnachfragefunktion auf Basis von Daten der dänischen Volkswirtschaft Jonas Richter-Dumke Universität Rostock, Institut für Volkswirtschaftslehre
MehrBreusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich,
MehrTeil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller
Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit
MehrStatistik II für Betriebswirte Vorlesung 8
Statistik II für Betriebswirte Vorlesung 8 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 3. Dezember 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version:
MehrKonfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen
4 Multiple lineare Regression Heteroskedastische Störgrößen 4.10 Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen Ein approximatives
MehrVorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression
Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade
MehrBreusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test.
MehrBreusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test.
MehrSchweizer Statistiktage, Aarau, 18. Nov. 2004
Schweizer Statistiktage, Aarau, 18. Nov. 2004 Qualitative Überprüfung der Modellannahmen in der linearen Regressionsrechnung am Beispiel der Untersuchung der Alterssterblichkeit bei Hitzeperioden in der
MehrStatistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20
Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 20 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)
MehrLineare Regressionen mit R (Ökonometrie SS 2014 an der UdS)
Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Es soll untersucht werden, ob und wie sich Rauchen während der Schwangerschaft auf den Gesundheitszustand des Neugeborenen auswirkt. Hierzu werden
MehrAufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2017/18. ( = 58 Punkte)
Aufgabe 3 (14 + 2 + 7 + 7 + 3 + 5 + 9 + 11 = 58 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe der Statistiksoftware R soll der Datensatz HousePrices aus
MehrLogistische Regression
Logistische Regression Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Logistische Regression Beispiel 1: Herzerkrankungsdaten aus Framingham Log Odds Modell Beispiel 1: Einfluss von Blutdruck Maximum
MehrTeil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.
Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, 10.07.017 Wahrscheinlichkeit und Statistik Patric Müller WBL
MehrFUNKTIONEN UND FORMELN IN
FUNKTIONEN UND FORMELN IN Referent: Daniel Laskow Betreuer: Eugen Betke Programmierung in R Arbeitsbereich Wissenschaftliches Rechnen Universität Hamburg 01.06.2016 Gliederung Arithmetische Operatoren
MehrFORMELN IN. Referent: Daniel Laskow Betreuer: Eugen Betke Programmierung in R Arbeitsbereich Wissenschaftliches Rechnen Universität Hamburg
FORMELN IN Referent: Daniel Laskow Betreuer: Eugen Betke Programmierung in R Arbeitsbereich Wissenschaftliches Rechnen Universität Hamburg 01.06.2016 Gliederung Arithmetische Operatoren Funktionen aus
MehrSeminar zur Energiewirtschaft:
Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable
MehrMultiple lineare Regression
Multiple lineare Regression Bisher eine Einflußgröße X 1 (und der Achsenabschnitt). Dagegen das Modell der multiplen Regression Y = β 0 X 0 + β 1 X 1 +... + β p X p + ε mit p Einflußgrößen und dem Achsenabschnitt.
Mehr2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme)
2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme) Annahme A1: Im multiplen Regressionsmodell fehlen keine relevanten exogenen Variablen und die benutzten exogenen Variablen x 1,
Mehr5 Multivariate stationäre Modelle
5 Multivariate stationäre Modelle 5.1 Autoregressive distributed lag (ADL) 5.1.1 Das Modell und dessen Schätzung Im vorangehenden Kapitel führten wir mit der endogenen verzögerten Variablen, y t 1, als
MehrEinführung in die formale Demographie Übung
Einführung in die formale Demographie Übung Roland Rau mailto:roland.rau@uni-rostock.de 27. Oktober 2014 Inhaltsverzeichnis 1 Eigene Funktionen schreiben 2 2 Regression in R 3 3 Aufgaben 8 3.1 Schreiben
MehrÜbung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
MehrKapitel 10. Multikollinearität. Exakte Multikollinearität Beinahe Multikollinearität
Kapitel 0 Multikollinearität Exakte Multikollinearität Beinahe Multikollinearität Exakte Multikollinearität Unser Modell lautet y = Xb + u, Dimension von X: n x k Annahme : rg(x) = k Wenn sich eine oder
MehrLineare Regression (Ein bisschen) Theorie
Kap. 6: Lineare Regression (Ein bisschen) Theorie Lineare Regression in Matrixform Verteilung des KQ-Schätzers Standardfehler für OLS Der Satz von Gauss-Markov Das allgemeine lineare Regressionsmodell
MehrStatistik II Übung 4: Skalierung und asymptotische Eigenschaften
Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden
MehrLösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016
ETH Zürich D-USYS Institut für Agrarwissenschaften Lösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016 Peter von Rohr Datum 30. Mai 2016 Beginn 08:00 Uhr Ende 08:45
MehrÜbungsblatt 10: Lineare Regression (Sitzung 11)
1 Übungsblatt 10: Lineare Regression (Sitzung 11) Aufgabe 1 a) Nach welchem Kriterium wird die Regressionsgerade zur Vorhersage von Y-Werten festgelegt? b) Was sind die Gemeinsamkeiten und Unterschiede
MehrAufgabe 35 mit R (Ökonometrie SS 2014 an der UdS)
Vorbereitungen Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Falls das R - Paket car noch nicht installiert wurde, kann dies mit der Funktion install.packages() erledigt werden. install.packages("car")
MehrKlausur zu Biometrische und Ökonometrische Methoden und Ökologische Statistik
TECHNISCHE UNIVERSITÄT MÜNCHEN - WEIHENSTEPHAN WS 96/97 MATHEMATIK UND STATISTIK, INFORMATIONS- UND DOKUMENTATIONSZENTRUM Klausur zu Biometrische und Ökonometrische Methoden und Ökologische Statistik 24.1.97,
MehrX =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?
Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.
0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:
MehrÜbung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
MehrComputerübung 10. Empirische Wirtschaftsforschung. Willi Mutschler. 27. Januar Ökonometrie und Wirtschaftsstatistik Uni Münster
Computerübung 10 Empirische Wirtschaftsforschung Willi Mutschler Ökonometrie und Wirtschaftsstatistik Uni Münster 27. Januar 2011 Willi Mutschler (Uni Münster) Computerübung 10 27. Januar 2011 1 / 12 Inhaltsverzeichnis
MehrVorlesung: Multivariate Statistik für Psychologen
Vorlesung: Multivariate Statistik für Psychologen 7. Vorlesung: 05.05.2003 Agenda 2. Multiple Regression i. Grundlagen ii. iii. iv. Statistisches Modell Verallgemeinerung des Stichprobenmodells auf Populationsebene
Mehr> r.lm < lm(log10(ersch) log10(dist), > summary(r.lm) > r.lms < summary(r.lm) R-Funktionen zur linearen Regression. data = d.
3.4 S-Funktionen 75 R-Funktionen zur linearen Regression a Im package stat (immer vorhanden): lm > r.lm < lm(log10(ersch) log10(dist), data = d.spreng) b Funktion summary produziert Resultate, die man
MehrFRAGESTUNDE WS 2016/17 QM 2. Dr. Christian Schwarz 1
FRAGESTUNDE Dr. Christian Schwarz 1 #2 - Allgemein Q: Müssen wir den Standard Error händisch berechnen können? R: Nein. Q: Hat das Monte Carlo Experiment irgendeine Bedeutung für uns im Hinblick auf die
MehrKonfidenz-, Prognoseintervalle und Hypothesentests II bei heteroskedastischen Störgrößen
Konfidenz-, Prognoseintervalle und Hypothesentests II bei heteroskedastischen Störgrößen Achtung! Bei der Verwendung von heteroskedastie-konsistenten Schätzern für V( β) muss unbedingt darauf geachtet
Mehr3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m)
3.1. MODELL UND STATISTIK 32 3 Multiple lineare Regression a 3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m) Y i = β 0 + β 1 x (1)
Mehr4 Multiple lineare Regression Multikollinearität 4.9
Multikollinearität Erinnerung: Unter der (gemäß Modellannahmen ausgeschlossenen) perfekten Multikollinearität versteht man eine perfekte lineare Abhängigkeit unter den Regressoren (einschließlich des Absolutglieds
Mehr4 Multiple lineare Regression Multikollinearität 4.9
Multikollinearität Erinnerung: Unter der (gemäß Modellannahmen ausgeschlossenen) perfekten Multikollinearität versteht man eine perfekte lineare Abhängigkeit unter den Regressoren (einschließlich des Absolutglieds
MehrStatistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27
Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)
MehrSchätzung im multiplen linearen Modell VI
Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,
MehrVO Biostatistik im WS 2006/2007
VO Biostatistik im WS 2006/2007 1 Beispiel 1: Herzerkrankungsdaten aus Framingham für skoeffizienten : Leukemie-Daten 2 Beispiel 1: Herzerkrankungsdaten aus Framingham Stichprobe: 1329 männliche Bewohner
MehrBivariater Zusammenhang bei metrischen Variablen: Regression und Korrelation
Bivariater Zusammenhang bei metrischen Variablen: Regression und Korrelation PEΣO 12. November 2001 Von der Tabellenanalyse zur Regression Die bivariate Verteilung zweier metrischer Variablen kann konzeptionell
MehrFragen zum zweiten Teil der Vorlesung
Albert-Ludwigs-Universität Freiburg Ökonometrie (Bachelor) Lehrstuhl Prof. Fitzenberger, Ph.D. WS 2011/12 Fragen zum zweiten Teil der Vorlesung 1. Es soll geprüt werden, ob das obere Quartil (das 75%-Quantil)
Mehr11. weitere Übungsaufgaben Statistik II WiSe 2017/2018
11. weitere Übungsaufgaben Statistik II WiSe 2017/2018 1. Aufgabe: Bei 100 Fahrzeugen des gleichen Typs sind neben dem Preis (PREIS) auch die gefahrene Strecke (MEILEN) und die Anzahl der Werkstattbesuche
MehrLineare Regression. Kapitel Regressionsgerade
Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell
MehrCIM2004 Übung 7: Permutationstest, Bootstrap & Jackknife
CIM2004 Übung 7: Permutationstest, Bootstrap & Jackknife Michael Höhle hoehle@stat.uni-muenchen.de Lösung 24. Juni 2004 1 Permutationstest Bilirubin ist ein Zerlegungsprodukt von Haemoglobin. Falls die
MehrDr. M. Kalisch. Statistik (für Biol./Pharm. Wiss.) Winter Musterlösung
Dr. M. Kalisch. Statistik (für Biol./Pharm. Wiss.) Winter 2014 Musterlösung 1. (11 Punkte) a) Für welchen Parameter ist X ein geeigneter Schätzer? X ist ein geeigneter Schätzer für den Erwartungswert µ
MehrEinführung in die formale Demographie Übung
Einführung in die formale Demographie Übung Roland Rau mailto:roland.rau@uni-rostock.de 03. November 2014 Inhaltsverzeichnis 1 Aufgaben vom 27. Oktober 2014 2 1.1 Schreiben von Funktionen............................
MehrBivariate Zusammenhänge
Bivariate Zusammenhänge 40 60 80 Bivariater Zusammenhang: Zusammenhang zwischen zwei Variablen weight (kg) Gibt es einen Zusammenhang zwischen Größe & Gewicht? (am Beispieldatensatz) Offensichtlich positiver
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur
MehrPrüfung im Fach Mikroökonometrie im Wintersemester 2012/13 Aufgaben
Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Prüfung im Fach Mikroökonometrie im Wintersemester 2012/13 Aufgaben Vorbemerkungen: Anzahl der Aufgaben: Bewertung:
MehrBachelorprüfung: Statistik (1 Stunde)
Prof. H.R. Künsch D-BIOL, D-CHAB Winter 2010 Bachelorprüfung: Statistik (1 Stunde) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt. Natels sind auszuschalten!
MehrTutorial: Regression Output von R
Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen
MehrStatistik II für Betriebswirte Vorlesung 11
Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 07. Januar 2019 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:
MehrÜbungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg
Übungsklausur Lineare le Prof. Dr. H. Toutenburg Aufgabe Ein lineares Regressionsmodell mit der abhängigen Variablen Körpergröße und der unabhängigen Variablen Geschlecht wurde einmal mit der dummykodierten
MehrProf. Dr. Marc Gürtler WS 2015/2016. Prof. Dr. Marc Gürtler. Klausur zur 10/12 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft
Prof. Dr. Marc Gürtler WS 015/016 Prof. Dr. Marc Gürtler Klausur zur 10/1 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft Lösungsskizze Prof. Dr. Marc Gürtler WS 015/016 Aufgabe 1: (11+5+1+8=56
MehrJohn Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer
John Komlos Bernd Süssmuth Empirische Ökonomie Eine Einführung in Methoden und Anwendungen 4y Springer 1 Einführung 1 1.1 Ökonometrie 1 2 Vorüberlegungen und Grundbegriffe 7 2.1 Statistik als Grundlage
Mehr