Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Größe: px
Ab Seite anzeigen:

Download "Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen"

Transkript

1 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten. Vielmehr lässt sich mit dem Breusch-Pagan-Test eine konstante Störgrößenvarianz σ 2 σi 2 gegen eine recht allgemeine Abhängigkeit der Störgrößenvarianzen von Q Variablen z 1i, z 2i,..., z Qi, i {1,..., n}, in der Form σi 2 = h(γ 0 + γ 1 z 1i γ Q z Qi ) (1) mit einer Funktion h, an die nur moderate Bedingungen gestellt werden müssen, abgrenzen. Im Breusch-Pagan-Test entspricht der Fall einer konstanten Störgrößenvarianz der Nullhypothese H 0 : γ 1 =... = γ Q = 0 σ 2 i h(γ 0 ) im allgemeineren Varianz-Modell aus Formel (1). Ökonometrie (SS 2018) Folie 289 Breusch-Pagan-Test II auf Heteroskedastie in den Störgrößen Häufig werden als Variablen z 1i, z 2i,..., z Qi gerade wieder die Regressoren des ursprünglichen Regressionsmodells eingesetzt, es gilt dann also Q = K und z ji = x ji für i {1,..., n}, j {1,..., K}. Durch die Freiheit bei der Auswahl der Einflussvariablen z 1i, z 2i,..., z Qi sind aber auch zahlreiche Varianten möglich, zum Beispiel die Verwendung nicht nur der Regressoren des ursprünglichen Modells, sondern auch Potenzen hiervon und/oder Produkte verschiedener Regressoren oder die Verwendung der aus der ursprünglichen Modellschätzung gewonnenen ŷi. Unter dem Namen Breusch-Pagan-Test (BP-Test) werden üblicherweise zwei unterschiedliche Versionen subsumiert, nämlich der ursprüngliche Test von Breusch und Pagan (Econometrica, 1979), der unabhängig auch von Cook und Weisberg (Biometrika, 1983) vorgeschlagen wurde, sowie eine robuste Modifikation von Koenker (Journal of Econometrics, 1981), die geeigneter ist, wenn die Störgrößen nicht normalverteilt sind. Ökonometrie (SS 2018) Folie 290

2 Breusch-Pagan-Test III auf Heteroskedastie in den Störgrößen Beide Versionen des BP-Tests sind als Score-Test konzipiert, die Teststatistik lässt sich jedoch jeweils leicht auf Basis von (OLS-)Schätzergebnissen einer (linearen) Hilfsregression berechnen. Sind û i die Residuen aus der Schätzung des auf heteroskedastische Störgrößen zu untersuchenden linearen Modells und RSS die Residual Sum of Squares (mit RSS = n i=1 û2 i = û û), so benötigt man als abhängige Variable der Hilfsregression die gemäß w i := n ûû2 û i = RSSû2 n i für i {1,..., n} standardisierten quadrierten Residuen w i. Ökonometrie (SS 2018) Folie 291 Breusch-Pagan-Test IV auf Heteroskedastie in den Störgrößen Für beide Versionen des BP-Tests ist dann die Hilfsregression w i = γ 0 + γ 1 z 1i γ Q z Qi + e i, i {1,..., n}, (per OLS-/KQ-Methode) zu schätzen. Im ursprünglichen BP-Test erhält man die unter der Nullhypothese näherungsweise χ 2 (Q)-verteilte Teststatistik dann als die Hälfte der Explained Sum of Squares der Hilfsregression, mit der Bezeichnung ê i für die Residuen der Hilfsregression und der Abkürzung w = 1 n n i=1 w i also zum Beispiel unter Verwendung von ESS = TSS RSS durch (( n ) ( n )) χ 2 = 1 2 (w i w) 2. i=1 i=1 ê 2 i Ökonometrie (SS 2018) Folie 292

3 Breusch-Pagan-Test V auf Heteroskedastie in den Störgrößen In der robusteren Version von Koenker erhält man die unter der Nullhypothese ebenfalls näherungsweise χ 2 (Q)-verteilte Teststatistik als n-faches multiples Bestimmtheitsmaß der Hilfsregression, es gilt also χ 2 = n R 2 H mit der Bezeichnung RH 2 für das Bestimmtheitsmaß der Hilfsregression. Offensichtlich kann (nur) bei Verwendung der Version von Koenker auf die Standardisierung der quadrierten Residuen der ursprünglichen Modellschätzung verzichtet werden und die Hilfsregression auch direkt mit der abhängigen Variablen ûi 2 durchgeführt werden, da dies das Bestimmtheitsmaß nicht ändert (wohl aber die ESS!). Ökonometrie (SS 2018) Folie 293 Zusammenfassung: Breusch-Pagan-Test ( Original ) auf Heteroskedastizität der Störgrößen Anwendungs- approx.: y = Xβ + u mit E(u) = 0, V(u) = diag(σ1, 2..., σn), 2 voraussetzungen X deterministisch mit vollem Spaltenrang K + 1, Realisation y = (y 1,..., y n ) beobachtet, Q Einflussvariablen z 1i,..., z Qi, σi 2 = h(γ 0 + γ 1 z 1i γ Q z Qi ) Nullhypothese H 0 : γ 1 =... = γ Q = 0 σi 2 h(γ 0 ) Gegenhypothese H 1 : γ q 0 für mindestens ein q {1,..., Q} (( n ) ( n )) Teststatistik χ 2 = 1 2 (w i w) 2 Verteilung (H 0 ) χ 2 ist approx. χ 2 (Q)-verteilt, falls σ 2 i h(γ 0 ) konstant. Benötigte Größen û = (û 1,..., û n ) = y X(X X) 1 X y, w i = n û û û2 i, ê i die Residuen der Hilfsregression w i = γ 0 + γ 1 z 1i γ Q z Qi + e i Kritischer Bereich (χ 2 Q;1 α, ) zum Niveau α p-wert 1 F χ 2 (Q)(χ 2 ) i=1 i=1 ê 2 i Ökonometrie (SS 2018) Folie 294

4 Zusammenfassung: Breusch-Pagan-Test ( Koenker ) auf Heteroskedastizität der Störgrößen Anwendungs- approx.: y = Xβ + u mit E(u) = 0, V(u) = diag(σ1, 2..., σn), 2 voraussetzungen X deterministisch mit vollem Spaltenrang K + 1, Realisation y = (y 1,..., y n ) beobachtet, Q Einflussvariablen z 1i,..., z Qi, σi 2 = h(γ 0 + γ 1 z 1i γ Q z Qi ) Nullhypothese H 0 : γ 1 =... = γ Q = 0 σi 2 h(γ 0 ) Gegenhypothese H 1 : γ q 0 für mindestens ein q {1,..., Q} Teststatistik χ 2 = n RH 2 Verteilung (H 0 ) χ 2 ist approx. χ 2 (Q)-verteilt, falls σi 2 h(γ 0 ) konstant. Benötigte Größen û = (û 1,..., û n ) = y X(X X) 1 X y, R 2 H das Bestimmtheitsmaß der Hilfsregression û 2 i Kritischer Bereich (χ 2 Q;1 α, ) zum Niveau α = γ 0 + γ 1 z 1i γ Q z Qi + e i p-wert 1 F χ 2 (Q)(χ 2 ) Ökonometrie (SS 2018) Folie 295 White-Test auf Heteroskedastie in den Störgrößen White hat in seiner Arbeit von 1980 (Econometrica) nicht nur heteroskedastie-konsistente Schätzverfahren, sondern auch einen Test auf Heteroskedastie in den Störgrößen vorgeschlagen. Es zeigt sich, dass der White-Test auf heteroskedastische Störgrößen ein Spezialfall der Koenker -Version des Breusch-Pagan-Tests ist. Konkret erhält man den White-Test bei der Durchführung eines Breusch-Pagan-Tests nach Koenker, wenn man als Einflussvariablen z qi für die Varianz der Störgrößen gerade alle Regressoren, zusätzlich alle quadrierten Regressoren sowie zusätzlich alle gemischten Produkte von Regressoren des ursprünglichen Modells wählt. In einem Modell mit 2 Regressoren wäre also die Hilfsregression û 2 i = γ 0 + γ 1 x 1i + γ 2 x 2i + γ 3 x 2 1i + γ 4 x 2 2i + γ 5 x 1i x 2i + e i durchzuführen. Ökonometrie (SS 2018) Folie 296

5 Beispiel: Breusch-Pagan-Test/White-Test I Im Folgenden werden zwei Varianten des Breusch-Pagan-Test am bereits mehrfach verwendeten Lohnhöhen -Beispiel illustriert. Ausgehend von den quadrierten Residuen ûi 2 der ursprünglichen Regression der Lohnhöhe auf die beiden Regressoren Ausbildung und Alter (sowie ein Absolutglied) werden für die Original -Version des Breusch-Pagan-Tests zunächst die standardisierten quadrierten Residuen w i = n û ûû2 i berechnet: > uhat <- residuals(lm(lohnhöhe~ausbildung+alter)) > w <- uhat^2/mean(uhat^2) Als Summe der quadrierten Abweichungen vom arithmetischen Mittel n i=1 (w i w) 2 der w i (also als TSS der folgenden Hilfsregression!) erhält man: > sum((w-mean(w))^2) [1] Ökonometrie (SS 2018) Folie 297 Beispiel: Breusch-Pagan-Test/White-Test II Werden als Einflussvariablen für die Varianz der Störgrößen die beiden ursprünglichen Regressoren Ausbildung und Alter gewählt, ist dann die Hilfsregression w i = γ 0 + γ 1 Ausbildung i + γ 2 Alter i + e i zu schätzen und die zugehörige RSS zu bestimmen, man erhält > sum(residuals(lm(w~ausbildung+alter))^2) [1] und damit (gerundet) die Teststatistik (( n ) ( n χ 2 = 1 2 (w i w) 2 i=1 i=1 ê 2 i )) = 1 ( ) = Ein Vergleich zum kritischen Wert χ 2 2;0.95 = bei einem Test zum Niveau α = 0.05 erlaubt die Ablehnung der Nullhypothese und damit den Schluss auf das Vorliegen von Heteroskedastie in den Störgrößen. Ökonometrie (SS 2018) Folie 298

6 Beispiel: Breusch-Pagan-Test/White-Test III Wird in der beschriebenen Situation ein White-Test durchgeführt, so muss eine der Hilfsregressionen û 2 i = γ 0 + γ 1 Ausbildung i + γ 2 Alter i + γ 3 Ausbildung 2 i + γ 4 Alter 2 i + γ 5 Ausbildung i Alter i + e i oder w i = γ 0 + γ 1 Ausbildung i + γ 2 Alter i + γ 3 Ausbildung 2 i durchgeführt werden. + γ 4 Alter 2 i + γ 5 Ausbildung i Alter i + e i In der Statistik-Software R müssen diese Rechenoperationen von Regressoren bei der Modellformulierung in den Befehl I() eingeschlossen werden, da ^ und * bei der Notation von Modellgleichungen andere Bedeutungen haben! Ökonometrie (SS 2018) Folie 299 Beispiel: Breusch-Pagan-Test/White-Test IV Man erhält als OLS-Schätzergebnis: Call: lm(formula = uhat^2 ~ Ausbildung + Alter + I(Ausbildung^2) + I(Alter^2) + I(Ausbildung * Alter)) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) Ausbildung Alter I(Ausbildung^2) * I(Alter^2) I(Ausbildung * Alter) ** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 14 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 5 and 14 DF, p-value: Ökonometrie (SS 2018) Folie 300

7 Beispiel: Breusch-Pagan-Test/White-Test V Unter Verwendung des Bestimmtheitsmaßes dieser Hilfsregression ergibt sich χ 2 = n RH 2 = = > χ2 5;0.95 = 11.07, also wird auch hier zum Niveau α = 0.05 signifikante Heteroskedastie in den Störgrößen festgestellt. Schneller: mit dem Befehl bptest() im Paket lmtest: Original -Breusch-Pagan-Test (1. Beispiel): > bptest(lm(lohnhöhe~ausbildung+alter),studentize=false) Breusch-Pagan test data: lm(lohnhöhe ~ Ausbildung + Alter) BP = , df = 2, p-value = White - bzw. Koenker -Variante (2. Beispiel): > bptest(lm(lohnhöhe~ausbildung+alter), + ~Ausbildung+Alter+I(Ausbildung^2)+I(Alter^2)+I(Ausbildung*Alter)) studentized Breusch-Pagan test data: lm(lohnhöhe ~ Ausbildung + Alter) BP = , df = 5, p-value = Ökonometrie (SS 2018) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren 5.1 Inhaltsverzeichnis (Ausschnitt) 5 Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren Nichtlinearität in einer Variablen Modelle mit Interaktionen Strukturbruchmodelle Ökonometrie (SS 2018) Folie 302

8 5 Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren 5.1 Nichtlinearität in den Regressoren I Eine Variable y hängt linear von einer Variablen x ab, wenn der Differenzenquotient bzw. die Ableitung bzgl. dieser Variablen konstant ist, wenn also y x = c bzw. y x = c für eine Konstante c R gilt. Im bisher betrachteten linearen Regressionsmodell y i = β 0 + β 1 x 1i β K x Ki + u i, i {1,..., n}, hängt y also linear von jedem Regressor x k (k {1,..., K}) ab, denn es gilt y x k = β k bzw. y x k = β k. Die hier als marginaler Effekt einer Änderung von x k auf y interpretierbare (partielle) Ableitung ist also konstant und damit insbesondere unabhängig von x k (sowie unabhängig von anderen Variablen). Ökonometrie (SS 2018) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren 5.1 Nichtlinearität in den Regressoren II Bereits im White-Test verwendet: Regressionsfunktion y = β 0 + β 1 x 1 + β 2 x 2 + β 3 x β 4 x β 5 x 1 x 2, die zwar linear in den Regressionsparametern β 0,..., β 5, aber nichtlinear in den Regressoren x 1 und x 2 ist. Der marginale Effekt einer Änderung von x 1 auf y beträgt hier beispielsweise (abhängig vom Wert der Regressoren x 1 und x 2!) y x 1 = β 1 + 2β 3 x 1 + β 5 x 2. Allgemein betrachten wir nun Regressionsmodelle, die sich in der Form g(y i ) = β 0 +β 1 h 1 (x 1i,..., x Ki )+...+β M h M (x 1i,..., x Ki )+u i, i {1,..., n}, mit M Transformationen h 1,..., h M der K Regressoren und (ggf.) einer Transformation g der abhängigen Variablen darstellen lassen. Ökonometrie (SS 2018) Folie 304

9 5 Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren 5.1 Nichtlinearität in den Regressoren III Unter den üblichen Annahmen an die Störgrößen u i und unter der Voraussetzung, dass die Transformationen h 1,..., h M zu einer neuen Regressormatrix 1 h 1 (x 11,..., x K1 ) h M (x 11,..., x K1 ) 1 h 1 (x 12,..., x K2 ) h M (x 12,..., x K2 ) X :=... 1 h 1 (x 1n,..., x Kn ) h M (x 1n,..., x Kn ) mit vollem Spaltenrang M + 1 führen, bleiben die bisher besprochenen Eigenschaften der OLS-/KQ-Schätzung dieses Modells bestehen. Bezeichnet ỹ := (g(y 1 ),..., g(y n )) den transformierten (bzw. falls g(y) = y für alle y R gilt untransformierten) Vektor der abhängigen Variable, erhält man beispielsweise den KQ-Schätzer als β = ( X X) 1 X ỹ. Ökonometrie (SS 2018) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren 5.1 Nichtlinearität in den Regressoren IV Weitere Beispiele für Modelle mit Regressionsfunktionen, die nichtlinear in den (ursprünglichen) Regressoren x k sind: Wichtig! 1 y i = β 0 + β 1 x 1i + β 2 x 2 1i + u i, 2 y i = β 0 + β 1 x 1i + β 2 x 2 1i + β 3 x 3 1i + u i, 3 y i = β 0 + β 1 ln(x 1i ) + u i, 4 ln(y i ) = β 0 + β 1 x 1i + u i, 5 ln(y i ) = β 0 + β 1 ln(x 1i ) + β 2 ln(x 2i ) + u i. Unabhängig von der konkreten Form der Regressionsfunktion muss (wie auch bisher!) die Korrektheit der Spezifikation der Regressionsfunkion gewährleistet sein, um die Ergebnisse der Schätzung überhaupt sinnvoll verwerten zu können! Im Folgenden werden zunächst Regressionsfunktionen untersucht, die nur von einer unabhängigen Variablen x 1 abhängen (wie in den Beispielen 1 4 ). Ökonometrie (SS 2018) Folie 306

10 Polynomiale Modelle I in nur einer Variablen x 1 Die Modelle aus 1 bzw. 2, y i = β 0 + β 1 x 1i + β 2 x 2 1i + u i bzw. y i = β 0 + β 1 x 1i + β 2 x 2 1i + β 3 x 3 1i + u i, sind Beispiele für polynomiale Modelle (in einer Variablen) der Form y i = β 0 + β 1 x 1i + β 2 x 2 1i β r x r 1i + u i zu vorgegebenem Grad r {2, 3,...} des Polynoms. In polynomialen Modellen (in einer Variablen) sind die marginalen Effekte einer Änderung von x 1 auf y gegeben durch y = β 1 + 2β 2 x rβ r x r 1 1 x 1 und damit insbesondere nicht konstant, sondern abhängig vom Regressor x 1. Ökonometrie (SS 2018) Folie 307 Polynomiale Modelle II in nur einer Variablen x 1 Konfidenzintervalle für die marginalen Effekte an einem vorgegebenen Wert x 1 des Regressors können dann als Konfidenzintervalle für Linearkombinationen a β bestimmt werden, wenn der Vektor a R r+1 (abhängig von x 1 ) entsprechend gewählt wird, im polynomialen Modell mit Polynomgrad r also als a = [ 0 1 2x 1... rx r 1 ] 1. Bei einer sehr großen Wahl von r besteht die Gefahr des Overfittings : Sind bei einer Punktwolke aus n Beobachtungen (x 1i, y i ) alle x i unterschiedlich, so kann die Punktwolke durch ein Polynom vom Grad r = n 1 perfekt interpoliert werden! In der Praxis finden sich häufig polynomiale Modelle mit r = 2 oder r = 3. Ökonometrie (SS 2018) Folie 308

11 Polynomiale Modelle III in nur einer Variablen x 1 Gelegentlich wird unter der Annahme, dass die wahre Regressionsfunktion ein Polynom von unbekanntem Grad ist zunächst ein Modell mit großem r geschätzt und dann sukzessive mit Hilfe von t-tests überprüft, ob β r signifikant von Null verschieden ist, um ggf. den Grad r des Polynoms in der Regressionsfunktion um 1 zu reduzieren. Die Nullhypothese eines linearen Zusammenhangs gegen die Alternative eines polynomialen Zusammenhangs (mit Polynomgrad r 2) kann offensichtlich durch einen F -Test mit überprüft werden. H 0 : β 2 =... = β r = 0 Natürlich können Tests bzw. Konfidenzintervalle auch unter der Annahme heteroskedastischer Störgrößen durchgeführt werden, wenn die entsprechende heteroskedastie-konsistente Schätzung V hc ( β) der Varianz-Kovarianzmatrix V( β) und die dafür geeigneten Darstellungen der jeweiligen Tests verwendet werden. Ökonometrie (SS 2018) Folie 309 (Semi-)logarithmische Modelle I in nur einer Variablen x 1 Log-Transformationen von x 1i in ln(x 1i ) und/oder y i in ln(y i ) bieten sich dann an, wenn anstelle der Annahme eines konstanten Effekts y = β 1 x 1 von absoluten Änderungen x 1 auf absolute Änderungen y eher dann ein konstanter Effekt β 1 erwartet wird, wenn relative, prozentuale Änderungen bei der Ursache ( x 1 x 1 ) und/oder bei der abhängigen Variablen ( y y ) betrachtet werden. Grundlage dafür ist ln(x) x = 1 x bzw. ln(x + x) ln(x) = ln ( 1 + x ) x, wenn x x. x x Abhängig davon, ob nur die unabhängige Variable, nur die abhängige Variable oder beide Variablen transformiert werden, sind die folgenden Spezifikationen möglich: Ökonometrie (SS 2018) Folie 310

12 (Semi-)logarithmische Modelle II in nur einer Variablen x 1 1 Linear-log-Spezifikation: y i = β 0 + β 1 ln(x 1i ) + u i. Konstanter Effekt β 1 der relativen Änderung von x 1 auf eine absolute Änderung von y, bzw. abnehmender marginaler Effekt bei steigendem x: y β 1 x 1 x 1 bzw. y x 1 = β 1 x 1 Bsp.: x 1i Düngemitteleinsatz, y i Ernteertrag (auf Feld i). Eine (relative) Erhöhung des Düngemitteleinsatzes um 1% erhöht den (absoluten) Ernteertrag (etwa) um 0.01 β 1. Eine (absolute) Erhöhung des Düngemitteleinsatzes um einen Betrag x1 hat dort mehr Wirkung, wo noch nicht so viel Dünger eingebracht wurde ( abnehmende Grenzerträge ). Ökonometrie (SS 2018) Folie 311 (Semi-)logarithmische Modelle III in nur einer Variablen x 1 2 Log-linear-Spezifikation: ln(y i ) = β 0 + β 1 x 1i + u i. Konstanter Effekt β 1 der absoluten Änderung von x 1 auf eine relative Änderung von y, bzw. steigender marginaler Effekt bei steigendem y: y y β 1 x 1 bzw. y x 1 = β 1 y Bsp.: x 1i Berufserfahrung von BWL-Absolventen (in Jahren), y i Einkommen. Ein Jahr zusätzliche Berufserfahrung erhöht danach das mittlere Einkommen um etwa 100β 1 %. Eine (absolute) Erhöhung der Berufserfahrung hat also einen höheren (absoluten) Effekt auf das Einkommen dort, wo das Einkommen ohnehin bereits ein höheres Niveau hatte. Ökonometrie (SS 2018) Folie 312

13 (Semi-)logarithmische Modelle IV in nur einer Variablen x 1 3 Log-log-Spezifikation: ln(y i ) = β 0 + β 1 ln(x 1i ) + u i. Konstanter Effekt β 1 (=Elastizität) der relativen Änderung von x 1 auf eine relative Änderung von y: y y β 1 x 1 x 1 bzw. y x 1 x 1 y = β 1 Bsp.: x 1i Kapitaleinsatz pro Arbeitskraft, y i Output pro Arbeitskraft. Erhöhung des per-capita-kapitaleinsatzes um 1% führt zur Erhöhung des per-capita-output um β 1 % (Cobb-Douglas-Produktionsfunktion). Modellierung von konstanten Skalenerträgen. Ökonometrie (SS 2018) Folie 313 (Semi-)logarithmische Modelle V in nur einer Variablen x 1 Anmerkungen zu Log-transformierten abhängigen Variablen (ln(y)) Insbesondere Log-log-Spezifikationen können bei der sog. Linearisierung von Regressionsmodellen entstehen, die zunächst nichtlinear (auch!) in den Regressionsparametern sind, zum Beispiel erhält man aus dem Modell (hier: mit mehreren Regressoren) y i = β 0 x β 1 1i x β 2 2i e u i, i {1,..., n}, durch Logarithmieren auf beiden Seiten mit ln(y i ) = β 0 + β 1 ln(x 1i ) + β 2 ln(x 2i ) + u i, i {1,..., n}. ein linearisiertes Modell. Ökonometrie (SS 2018) Folie 314

14 (Semi-)logarithmische Modelle VI in nur einer Variablen x 1 Bei der Prognose von y 0 gegeben x 0 bzw. der Bestimmung von ŷ i auf Basis von Modellen mit log-tranformierter abhängiger Variablen ln(y) ist zu beachten, dass wegen E (e u i ) e E(u i ) trotz der Annahme E(u i ) 0 im Allgemeinen E (e u i ) 1 = e 0 gilt. Für u i iid N(0, σ 2 ) gilt insbesondere E (e u i ) = e σ2 iid 2, damit erhält man für ln(y i ) = h(x 1i ) + u i mit u i N(0, σ 2 ) ( ) ) ( ) E(y i ) = E e ln(y i ) = E (e h(x 1i )+u i = E e h(x 1i ) e u i = e h(x 1i ) E (e u i ) = e h(x 1i ) e σ2 2 > e h(x 1i ). Wenn die abhängige Variable y in ln(y) transformiert wird, kann man das Bestimmtheitsmaß für die geschätzte Regression nicht sinnvoll mit dem Bestimmtheitsmaß einer Regressionsgleichung für y vergleichen! (Anteil der erklärten Varianz der ln(y i ) vs. Anteil der erklärten Varianz der y i ) Ökonometrie (SS 2018) Folie 315 Beispiel zur Nichtlinearität in einer Variablen I Im Folgenden soll am Beispiel der Abhängigkeit der Milchleistung von Kühen von der zugeführten Futtermenge die Schätzung einiger in den Regressoren nichtlinearer Modelle illustriert werden. Es liege hierzu folgender Datensatz vom Umfang n = 12 zu Grunde: i Milchleistung (Liter/Jahr) y i Futtermenge (Zentner/Jahr) x 1i i Milchleistung (Liter/Jahr) y i Futtermenge (Zentner/Jahr) x 1i (vgl. von Auer, Ludwig: Ökonometrie Eine Einführung, 6. Aufl., Tabelle 14.1) Es wird nacheinander die Gültigkeit einer linearen, quadratischen, kubischen, linear-log-, log-linear- bzw. log-log-spezifikation unterstellt und das zugehörige Modell geschätzt (unter Homoskedastieannahme). Ökonometrie (SS 2018) Folie 316

15 Beispiel zur Nichtlinearität in einer Variablen II Lineares Modell: Milch i = β 0 + β 1 Futter i + u i Call: lm(formula = Milch ~ Futter) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-08 *** Futter e-05 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 10 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 10 DF, p-value: 1.597e-05 Ökonometrie (SS 2018) Folie 317 Beispiel zur Nichtlinearität in einer Variablen III Quadratisches Modell: Milch i = β 0 + β 1 Futter i + β 2 Futter 2 i + u i Call: lm(formula = Milch ~ Futter + I(Futter^2)) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-07 *** Futter e-05 *** I(Futter^2) ** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 9 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 2 and 9 DF, p-value: 1.452e-06 Ökonometrie (SS 2018) Folie 318

16 Beispiel zur Nichtlinearität in einer Variablen IV Kubisches Modell: Milch i = β 0 + β 1 Futter i + β 2 Futter 2 i + β 3 Futter 3 i + u i Call: lm(formula = Milch ~ Futter + I(Futter^2) + I(Futter^3)) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-06 *** Futter * I(Futter^2) I(Futter^3) Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 8 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 3 and 8 DF, p-value: 1.29e-05 Ökonometrie (SS 2018) Folie 319 Beispiel zur Nichtlinearität in einer Variablen V Linear-log-Modell: Milch i = β 0 + β 1 ln(futter i ) + u i Call: lm(formula = Milch ~ log(futter)) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-07 *** log(futter) e-06 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 10 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 10 DF, p-value: 1.996e-06 Ökonometrie (SS 2018) Folie 320

17 Beispiel zur Nichtlinearität in einer Variablen VI Log-linear-Modell: ln(milch i ) = β 0 + β 1 Futter i + u i Call: lm(formula = log(milch) ~ Futter) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** Futter e-05 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 10 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 10 DF, p-value: 5.098e-05 Ökonometrie (SS 2018) Folie 321 Beispiel zur Nichtlinearität in einer Variablen VII Log-log-Modell: ln(milch i ) = β 0 + β 1 ln(futter i ) + u i Call: lm(formula = log(milch) ~ log(futter)) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** log(futter) e-07 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 10 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 10 DF, p-value: 1.912e-07 Ökonometrie (SS 2018) Folie 322

18 Geschätzte Regressions-/Prognosefunktionen I Lineares Modell Quadratisches Modell Milch Milch Futter Futter Kubisches Modell Linear log Modell Milch Milch Futter log(futter) Log linear Modell Log log Modell log(milch) log(milch) Futter log(futter) Ökonometrie (SS 2018) Folie 323 Geschätzte Regressions-/Prognosefunktionen II Vergleich der Prognosefunktionen Milch Linear Quadratisch Kubisch Linear log Log linear Log log Futter Ökonometrie (SS 2018) Folie 324

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.

Mehr

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen 4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test.

Mehr

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen 4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test.

Mehr

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen

Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen 4 Multiple lineare Regression Heteroskedastische Störgrößen 4.10 Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen Ein approximatives

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula

Mehr

Konfidenz-, Prognoseintervalle und Hypothesentests II bei heteroskedastischen Störgrößen

Konfidenz-, Prognoseintervalle und Hypothesentests II bei heteroskedastischen Störgrößen Konfidenz-, Prognoseintervalle und Hypothesentests II bei heteroskedastischen Störgrößen Achtung! Bei der Verwendung von heteroskedastie-konsistenten Schätzern für V( β) muss unbedingt darauf geachtet

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte)

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte) Aufgabe 3 (6 + 4 + 8 + 4 + 10 + 4 + 9 + 4 + 8 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe eines multiplen linearen Regressionsmodells soll auf

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

Prognoseintervalle für y 0 gegeben x 0

Prognoseintervalle für y 0 gegeben x 0 10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen

Mehr

Schätzung im multiplen linearen Modell VI

Schätzung im multiplen linearen Modell VI Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2017/18. ( = 58 Punkte)

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2017/18. ( = 58 Punkte) Aufgabe 3 (14 + 2 + 7 + 7 + 3 + 5 + 9 + 11 = 58 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe der Statistiksoftware R soll der Datensatz HousePrices aus

Mehr

4 Multiple lineare Regression Multikollinearität 4.9

4 Multiple lineare Regression Multikollinearität 4.9 Multikollinearität Erinnerung: Unter der (gemäß Modellannahmen ausgeschlossenen) perfekten Multikollinearität versteht man eine perfekte lineare Abhängigkeit unter den Regressoren (einschließlich des Absolutglieds

Mehr

4 Multiple lineare Regression Multikollinearität 4.9

4 Multiple lineare Regression Multikollinearität 4.9 Multikollinearität Erinnerung: Unter der (gemäß Modellannahmen ausgeschlossenen) perfekten Multikollinearität versteht man eine perfekte lineare Abhängigkeit unter den Regressoren (einschließlich des Absolutglieds

Mehr

Perfekte Multikollinearität III. Multikollinearität

Perfekte Multikollinearität III. Multikollinearität Multikollinearität Perfekte Multikollinearität I Erinnerung: Unter der (gemäß Modellannahmen ausgeschlossenen) perfekten Multikollinearität versteht man eine perfekte lineare Abhängigkeit unter den Regressoren

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

Perfekte Multikollinearität III. Multikollinearität

Perfekte Multikollinearität III. Multikollinearität Multikollinearität Perfekte Multikollinearität I Erinnerung: Unter der (gemäß Modellannahmen ausgeschlossenen) perfekten Multikollinearität versteht man eine perfekte lineare Abhängigkeit unter den Regressoren

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie SS 2018

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie SS 2018 Aufgabe 3 (15 + 1 + 7 + 7 + 7 + 5 = 42 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe der Statistiksoftware R soll der Datensatz HousePrices aus dem Paket

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie SS ( = 57 Punkte)

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie SS ( = 57 Punkte) Aufgabe 3 (9 + 5 + 7 + 7 + 3 + 9 + 7 + 10 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Zu Beginn der Studienjahre 2011 und 2012 wurden Studienanfänger an

Mehr

Zusammenfassung: Einfache lineare Regression I

Zusammenfassung: Einfache lineare Regression I 4 Multiple lineare Regression Multiples lineares Modell 41 Zusammenfassung: Einfache lineare Regression I Bisher: Annahme der Gültigkeit eines einfachen linearen Modells y i = β 0 + β 1 x i + u i, i {1,,

Mehr

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)

Mehr

Prof. Dr. Marc Gürtler WS 2015/2016. Prof. Dr. Marc Gürtler. Klausur zur 10/12 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft

Prof. Dr. Marc Gürtler WS 2015/2016. Prof. Dr. Marc Gürtler. Klausur zur 10/12 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft Prof. Dr. Marc Gürtler WS 015/016 Prof. Dr. Marc Gürtler Klausur zur 10/1 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft Lösungsskizze Prof. Dr. Marc Gürtler WS 015/016 Aufgabe 1: (11+5+1+8=56

Mehr

x t2 y t = 160, y = 8, y y = 3400 t=1

x t2 y t = 160, y = 8, y y = 3400 t=1 Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS)

Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Es soll untersucht werden, ob und wie sich Rauchen während der Schwangerschaft auf den Gesundheitszustand des Neugeborenen auswirkt. Hierzu werden

Mehr

Lean Body Mass [kg] Estimate Std. Error t value Pr(> t ) (Intercept) ??? lbm <2e-16 ***

Lean Body Mass [kg] Estimate Std. Error t value Pr(> t ) (Intercept) ??? lbm <2e-16 *** Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden

Mehr

Multiple Regression III

Multiple Regression III Multiple Regression III Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Überprüfung der Modellannahmen Residuen-Plot Normal-Q-Q-Plot Cook s Distanz-Plot Maßnahmen bei Abweichungen von Modellannahmen

Mehr

Auswertung und Lösung

Auswertung und Lösung Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden

Mehr

2.3 Nichtlineare Regressionsfunktion

2.3 Nichtlineare Regressionsfunktion Nichtlineare Regressionsfunktion Bisher: lineares Regressionsmodell o Steigung d. Regressionsgerade ist konstant o Effekt einer Änderung von X auf Y hängt nicht vom Niveau von X oder von anderen Regressoren

Mehr

Wirtschaftswissenschaftliches Prüfungsamt

Wirtschaftswissenschaftliches Prüfungsamt Wirtschaftswissenschaftliches Prüfungsamt Master of Economics, Finance and Philosophy Diplomprüfung Econometric Methods and Applications Wintersemester 2011/12 22. Februar 2012 Prof. Dr. Ralph Friedmann

Mehr

Lineare Modelle in R: Klassische lineare Regression

Lineare Modelle in R: Klassische lineare Regression Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)

Mehr

Schweizer Statistiktage, Aarau, 18. Nov. 2004

Schweizer Statistiktage, Aarau, 18. Nov. 2004 Schweizer Statistiktage, Aarau, 18. Nov. 2004 Qualitative Überprüfung der Modellannahmen in der linearen Regressionsrechnung am Beispiel der Untersuchung der Alterssterblichkeit bei Hitzeperioden in der

Mehr

X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?

X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode? Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2

Mehr

Computerübung 10. Empirische Wirtschaftsforschung. Willi Mutschler. 27. Januar Ökonometrie und Wirtschaftsstatistik Uni Münster

Computerübung 10. Empirische Wirtschaftsforschung. Willi Mutschler. 27. Januar Ökonometrie und Wirtschaftsstatistik Uni Münster Computerübung 10 Empirische Wirtschaftsforschung Willi Mutschler Ökonometrie und Wirtschaftsstatistik Uni Münster 27. Januar 2011 Willi Mutschler (Uni Münster) Computerübung 10 27. Januar 2011 1 / 12 Inhaltsverzeichnis

Mehr

Lineare Regression in R, Teil 1

Lineare Regression in R, Teil 1 Lineare Regression in R, Teil 1 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel October 6, 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools aus

Mehr

Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.

Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression. Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, 10.07.017 Wahrscheinlichkeit und Statistik Patric Müller WBL

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Bachelorprüfung: Statistik (1 Stunde)

Bachelorprüfung: Statistik (1 Stunde) Prof. H.R. Künsch D-BIOL, D-CHAB Winter 2010 Bachelorprüfung: Statistik (1 Stunde) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt. Natels sind auszuschalten!

Mehr

1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:

1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Beispiele zum Üben und Wiederholen zu Wirtschaftsstatistik 2 (Kurs 3) 1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Haushaltseinkommen 12 24 30 40 80 60

Mehr

Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS)

Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Vorbereitungen Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Falls das R - Paket car noch nicht installiert wurde, kann dies mit der Funktion install.packages() erledigt werden. install.packages("car")

Mehr

1. Lösungen zu Kapitel 7

1. Lösungen zu Kapitel 7 1. Lösungen zu Kapitel 7 Übungsaufgabe 7.1 Um zu testen ob die Störterme ε i eine konstante Varianz haben, sprich die Homogenitätsannahme erfüllt ist, sind der Breusch-Pagan-Test und der White- Test zwei

Mehr

Empirische Wirtschaftsforschung in R

Empirische Wirtschaftsforschung in R Empirische Wirtschaftsforschung in R Schätzung der keynesianischen Geldnachfragefunktion auf Basis von Daten der dänischen Volkswirtschaft Jonas Richter-Dumke Universität Rostock, Institut für Volkswirtschaftslehre

Mehr

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Sommersemester Namensschild. Dr.

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Sommersemester Namensschild. Dr. Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Sommersemester 2013 Namensschild Dr. Martin Becker Hinweise für die Klausurteilnehmer ˆ Kleben Sie bitte sofort Ihr Namensschild

Mehr

6. Heteroskedastizität (Verletzung der B2-Annahme)

6. Heteroskedastizität (Verletzung der B2-Annahme) 6. Heteroskedastizität (Verletzung der B2-Annahme) Annahme B2: Die Störgröße u i hat für i = 1,..., N eine konstante Varianz, d.h. V ar(u i ) = σ 2 Bezeichnungen: Konstante u i -Varianzen: Homoskedastizität

Mehr

Lösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016

Lösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016 ETH Zürich D-USYS Institut für Agrarwissenschaften Lösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016 Peter von Rohr Datum 30. Mai 2016 Beginn 08:00 Uhr Ende 08:45

Mehr

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse Einleitung Statistik Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Der Begriff Varianzanalyse (analysis of variance, ANOVA) taucht an vielen Stellen in der Statistik mit unterschiedlichen

Mehr

1 Interaktion von zwei Dummyvariablen. 2 Interaktion einer Dummyvariablen mit einer kardinalskalierten Variablen

1 Interaktion von zwei Dummyvariablen. 2 Interaktion einer Dummyvariablen mit einer kardinalskalierten Variablen Modelle mit Interationsvariablen I Modelle mit Interationsvariablen II In der beim White-Test verwendeten Regressionsfuntion y = β 0 + β 1 x 1 + β 2 x 2 + β 3 x 2 1 + β 4 x 2 2 + β 5 x 1 x 2, ist anders

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Fragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression

Fragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression Fragen Welche Unsicherheitsfaktoren beeinflussen die Schätzung einer Regressionsgeraden? Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München

Mehr

Eine Einführung in R: Varianzanalyse

Eine Einführung in R: Varianzanalyse Eine Einführung in R: Varianzanalyse Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2011 Bernd Klaus, Verena Zuber Das

Mehr

Varianzvergleiche bei normalverteilten Zufallsvariablen

Varianzvergleiche bei normalverteilten Zufallsvariablen 9 Mittelwert- und Varianzvergleiche Varianzvergleiche bei zwei unabhängigen Stichproben 9.3 Varianzvergleiche bei normalverteilten Zufallsvariablen Nächste Anwendung: Vergleich der Varianzen σa 2 und σ2

Mehr

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Wintersemester 2012/13. Namensschild. Dr.

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Wintersemester 2012/13. Namensschild. Dr. Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Wintersemester 2012/13 Namensschild Dr. Martin Becker Hinweise für die Klausurteilnehmer ˆ Kleben Sie bitte sofort Ihr Namensschild

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Statistik II für Betriebswirte Vorlesung 11

Statistik II für Betriebswirte Vorlesung 11 Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 07. Januar 2019 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:

Mehr

Deskriptive Beschreibung linearer Zusammenhänge

Deskriptive Beschreibung linearer Zusammenhänge 9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,

Mehr

2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme)

2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme) 2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme) Annahme A1: Im multiplen Regressionsmodell fehlen keine relevanten exogenen Variablen und die benutzten exogenen Variablen x 1,

Mehr

1 Beispiel zur Methode der kleinsten Quadrate

1 Beispiel zur Methode der kleinsten Quadrate 1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25

Mehr

Zur Erinnerung: Annahmen

Zur Erinnerung: Annahmen Zur Erinnerung: Annahmen Vorlesung 6: Heteroskedastizität. Beispiele mit heteroskedastischen Fehlertermen. Auswirkungen von Heteroskedastizität auf OLS-Schätzungen. Wie erkennt man das Vorliegen von Heteroskedastizität?

Mehr

Teekonsum in den USA (in 1000 Tonnen), Nimmt den Wert 1 an für alle Perioden, Durchschnittlicher Preis des Tees in Periode t (in Tausend $/Tonne).

Teekonsum in den USA (in 1000 Tonnen), Nimmt den Wert 1 an für alle Perioden, Durchschnittlicher Preis des Tees in Periode t (in Tausend $/Tonne). Aufgabe 1 (5 Punkte) Gegeben sei ein lineares Regressionsmodell in der Form. Dabei ist y t = x t1 β 1 + x t β + e t, t = 1,..., 10 (1) y t : x t1 : x t : Teekonsum in den USA (in 1000 Tonnen), Nimmt den

Mehr

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade

Mehr

4. Das multiple lineare Regressionsmodell

4. Das multiple lineare Regressionsmodell 4. Das multiple lineare Regressionsmodell Bisher: 1 endogene Variable y wurde zurückgeführt auf 1 exogene Variable x (einfaches lineares Regressionsmodell) Jetzt: Endogenes y wird regressiert auf mehrere

Mehr

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen. Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf

Mehr

Analyse von Querschnittsdaten. Spezifikation der Regressionsfunktion

Analyse von Querschnittsdaten. Spezifikation der Regressionsfunktion Analse von Querschnittsdaten Spezifikation der Regressionsfunktion Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 9..5 6..5..5 9..5 6..5..5..5

Mehr

Statistik II für Betriebswirte Vorlesung 8

Statistik II für Betriebswirte Vorlesung 8 Statistik II für Betriebswirte Vorlesung 8 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 3. Dezember 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version:

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie

Mehr

Interpretation von Testergebnissen I

Interpretation von Testergebnissen I 2 Wiederholung statistischer Grundlagen Schließende Statistik 2.3 Interpretation von Testergebnissen I Durch die Asymmetrie in den Fehlerwahrscheinlichkeiten 1. und 2. Art ist Vorsicht bei der Interpretation

Mehr

Stochastik Praktikum Lineare Modelle

Stochastik Praktikum Lineare Modelle Stochastik Praktikum Lineare Modelle Thorsten Dickhaus Humboldt-Universität zu Berlin 06.10.2010 Übersicht 1 Einfache lineare Regression 2 Multiple lineare Regression 3 Varianzanalyse 4 Verallgemeinerte

Mehr

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte

Mehr

Analyse von Querschnittsdaten. Heteroskedastizität

Analyse von Querschnittsdaten. Heteroskedastizität Analyse von Querschnittsdaten Heteroskedastizität Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004 03.11.2004

Mehr

Empirische Analysen mit dem SOEP

Empirische Analysen mit dem SOEP Empirische Analysen mit dem SOEP Methodisches Lineare Regressionsanalyse & Logit/Probit Modelle Kurs im Wintersemester 2007/08 Dipl.-Volksw. Paul Böhm Dipl.-Volksw. Dominik Hanglberger Dipl.-Volksw. Rafael

Mehr

1 Gliederung Zeitreihenökonometrie. Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09. Dr. Sylvia Kaufmann.

1 Gliederung Zeitreihenökonometrie. Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09. Dr. Sylvia Kaufmann. Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09 Dr Sylvia Kaufmann Februar 2009 Angewandte Ökonometrie, Sylvia Kaufmann, FS09 1 1 Gliederung Zeitreihenökonometrie Einführung

Mehr

Lineare Regression. Kapitel Regressionsgerade

Lineare Regression. Kapitel Regressionsgerade Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell

Mehr

Kapitel 10. Multikollinearität. Exakte Multikollinearität Beinahe Multikollinearität

Kapitel 10. Multikollinearität. Exakte Multikollinearität Beinahe Multikollinearität Kapitel 0 Multikollinearität Exakte Multikollinearität Beinahe Multikollinearität Exakte Multikollinearität Unser Modell lautet y = Xb + u, Dimension von X: n x k Annahme : rg(x) = k Wenn sich eine oder

Mehr

6. Tutoriumsserie Statistik II

6. Tutoriumsserie Statistik II 6. Tutoriumsserie Statistik II 1. Aufgabe: Eine Unternehmensabteilung ist ausschließlich mit der Herstellung eines einzigen Produktes beschäftigt. Für 10 Perioden wurden folgende Produktmenge y und Gesamtkosten

Mehr

> r.lm < lm(log10(ersch) log10(dist), > summary(r.lm) > r.lms < summary(r.lm) R-Funktionen zur linearen Regression. data = d.

> r.lm < lm(log10(ersch) log10(dist), > summary(r.lm) > r.lms < summary(r.lm) R-Funktionen zur linearen Regression. data = d. 3.4 S-Funktionen 75 R-Funktionen zur linearen Regression a Im package stat (immer vorhanden): lm > r.lm < lm(log10(ersch) log10(dist), data = d.spreng) b Funktion summary produziert Resultate, die man

Mehr

Tutorial: Regression Output von R

Tutorial: Regression Output von R Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen

Mehr

V. Das lineare Regressionsmodell

V. Das lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Tino Conrad, M.Sc. Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2016 Übung zur

Mehr

Aufgabenstellung und Ergebnisse zur. Bachelor-Prüfung Schließende Statistik Wintersemester 2017/18. Dr. Martin Becker

Aufgabenstellung und Ergebnisse zur. Bachelor-Prüfung Schließende Statistik Wintersemester 2017/18. Dr. Martin Becker Aufgabenstellung und Ergebnisse zur Bachelor-Prüfung Schließende Statistik Wintersemester 2017/18 Dr. Martin Becker Hinweise für die Klausurteilnehmer Die Klausur besteht aus insgesamt 9 Aufgaben. Prüfen

Mehr

Statistische Datenanalyse mit R, Korrelation und Regression. Dr. Andrea Denecke Leibniz Universität IT-Services

Statistische Datenanalyse mit R, Korrelation und Regression. Dr. Andrea Denecke Leibniz Universität IT-Services Statistische Datenanalyse mit R, Korrelation und Regression Dr. Andrea Denecke Leibniz Universität IT-Services Korrelationsanalyse Eine Korrelationsanalyse soll herausfinden Ob ein linearer Zusammenhang

Mehr

Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie

Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie 1 Einleitung 3 2 Modell mit 0-1 kodierten nominalen Prädiktoren X 1

Mehr

Empirische Wirtschaftsforschung

Empirische Wirtschaftsforschung Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 6.. Herleitung des OLS-Schätzers

Mehr

Dr. M. Kalisch. Statistik (für Biol./Pharm. Wiss.) Winter Musterlösung

Dr. M. Kalisch. Statistik (für Biol./Pharm. Wiss.) Winter Musterlösung Dr. M. Kalisch. Statistik (für Biol./Pharm. Wiss.) Winter 2014 Musterlösung 1. (11 Punkte) a) Für welchen Parameter ist X ein geeigneter Schätzer? X ist ein geeigneter Schätzer für den Erwartungswert µ

Mehr

Eine Einführung in R: Varianzanalyse

Eine Einführung in R: Varianzanalyse Eine Einführung in R: Varianzanalyse Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 13. Dezember 2012 Bernd Klaus, Verena Zuber,

Mehr

Multiple lineare Regression

Multiple lineare Regression Multiple lineare Regression Bisher eine Einflußgröße X 1 (und der Achsenabschnitt). Dagegen das Modell der multiplen Regression Y = β 0 X 0 + β 1 X 1 +... + β p X p + ε mit p Einflußgrößen und dem Achsenabschnitt.

Mehr

Lineare Regression mit einem Regressor: Einführung

Lineare Regression mit einem Regressor: Einführung Lineare Regression mit einem Regressor: Einführung Quantifizierung des linearen Zusammenhangs von zwei Variablen Beispiel Zusammenhang Klassengröße und Testergebnis o Wie verändern sich Testergebnisse,

Mehr

Mehrfache und polynomiale Regression

Mehrfache und polynomiale Regression Mehrfache und polynomiale Regression Kriteria für die Durchführung einer Regression Jonathan Harrington Bitte datasets.zip (unter 5.5, Tabellarische Daten) neu herunterladen und in pfad auspacken Einfache

Mehr

Einführung in die Induktive Statistik: Regressionsanalyse

Einführung in die Induktive Statistik: Regressionsanalyse Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse

Mehr

Diplomprüfung im Fach Ökonometrie im SS 08 - Aufgabenteil

Diplomprüfung im Fach Ökonometrie im SS 08 - Aufgabenteil Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Diplomprüfung im Fach Ökonometrie im SS 08 - Aufgabenteil Name, Vorname Matrikelnr. Studiengang Semester Datum

Mehr

Marcel Dettling. Grundlagen der Mathematik II FS 2015 Woche 14. ETH Zürich, 27. Mai Institut für Datenanalyse und Prozessdesign

Marcel Dettling. Grundlagen der Mathematik II FS 2015 Woche 14. ETH Zürich, 27. Mai Institut für Datenanalyse und Prozessdesign Marcel Dettling Institut für Datenanalyse und Prozessdesign Zürcher Hochschule für Angewandte Wissenschaften marcel.dettling@zhaw.ch http://stat.ethz.ch/~dettling ETH Zürich, 7. Mai 015 1 Regression Beispiel:

Mehr

Goethe-Universität Frankfurt

Goethe-Universität Frankfurt Goethe-Universität Frankfurt Fachbereich Wirtschaftswissenschaft PD Dr. Martin Biewen Dr. Ralf Wilke Sommersemester 2006 Klausur Statistik II 1. Alle Aufgaben sind zu beantworten. 2. Bitte runden Sie Ihre

Mehr

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden

Mehr