Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
|
|
- Helga Laura Peters
- vor 5 Jahren
- Abrufe
Transkript
1 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten. Vielmehr lässt sich mit dem Breusch-Pagan-Test eine konstante Störgrößenvarianz σ 2 σi 2 gegen eine recht allgemeine Abhängigkeit der Störgrößenvarianzen von Q Variablen z 1i, z 2i,..., z Qi, i {1,..., n}, in der Form σi 2 = h(γ 0 + γ 1 z 1i γ Q z Qi ) (1) mit einer Funktion h, an die nur moderate Bedingungen gestellt werden müssen, abgrenzen. Im Breusch-Pagan-Test entspricht der Fall einer konstanten Störgrößenvarianz der Nullhypothese H 0 : γ 1 =... = γ Q = 0 σ 2 i h(γ 0 ) im allgemeineren Varianz-Modell aus Formel (1). Ökonometrie (SS 2018) Folie 289 Breusch-Pagan-Test II auf Heteroskedastie in den Störgrößen Häufig werden als Variablen z 1i, z 2i,..., z Qi gerade wieder die Regressoren des ursprünglichen Regressionsmodells eingesetzt, es gilt dann also Q = K und z ji = x ji für i {1,..., n}, j {1,..., K}. Durch die Freiheit bei der Auswahl der Einflussvariablen z 1i, z 2i,..., z Qi sind aber auch zahlreiche Varianten möglich, zum Beispiel die Verwendung nicht nur der Regressoren des ursprünglichen Modells, sondern auch Potenzen hiervon und/oder Produkte verschiedener Regressoren oder die Verwendung der aus der ursprünglichen Modellschätzung gewonnenen ŷi. Unter dem Namen Breusch-Pagan-Test (BP-Test) werden üblicherweise zwei unterschiedliche Versionen subsumiert, nämlich der ursprüngliche Test von Breusch und Pagan (Econometrica, 1979), der unabhängig auch von Cook und Weisberg (Biometrika, 1983) vorgeschlagen wurde, sowie eine robuste Modifikation von Koenker (Journal of Econometrics, 1981), die geeigneter ist, wenn die Störgrößen nicht normalverteilt sind. Ökonometrie (SS 2018) Folie 290
2 Breusch-Pagan-Test III auf Heteroskedastie in den Störgrößen Beide Versionen des BP-Tests sind als Score-Test konzipiert, die Teststatistik lässt sich jedoch jeweils leicht auf Basis von (OLS-)Schätzergebnissen einer (linearen) Hilfsregression berechnen. Sind û i die Residuen aus der Schätzung des auf heteroskedastische Störgrößen zu untersuchenden linearen Modells und RSS die Residual Sum of Squares (mit RSS = n i=1 û2 i = û û), so benötigt man als abhängige Variable der Hilfsregression die gemäß w i := n ûû2 û i = RSSû2 n i für i {1,..., n} standardisierten quadrierten Residuen w i. Ökonometrie (SS 2018) Folie 291 Breusch-Pagan-Test IV auf Heteroskedastie in den Störgrößen Für beide Versionen des BP-Tests ist dann die Hilfsregression w i = γ 0 + γ 1 z 1i γ Q z Qi + e i, i {1,..., n}, (per OLS-/KQ-Methode) zu schätzen. Im ursprünglichen BP-Test erhält man die unter der Nullhypothese näherungsweise χ 2 (Q)-verteilte Teststatistik dann als die Hälfte der Explained Sum of Squares der Hilfsregression, mit der Bezeichnung ê i für die Residuen der Hilfsregression und der Abkürzung w = 1 n n i=1 w i also zum Beispiel unter Verwendung von ESS = TSS RSS durch (( n ) ( n )) χ 2 = 1 2 (w i w) 2. i=1 i=1 ê 2 i Ökonometrie (SS 2018) Folie 292
3 Breusch-Pagan-Test V auf Heteroskedastie in den Störgrößen In der robusteren Version von Koenker erhält man die unter der Nullhypothese ebenfalls näherungsweise χ 2 (Q)-verteilte Teststatistik als n-faches multiples Bestimmtheitsmaß der Hilfsregression, es gilt also χ 2 = n R 2 H mit der Bezeichnung RH 2 für das Bestimmtheitsmaß der Hilfsregression. Offensichtlich kann (nur) bei Verwendung der Version von Koenker auf die Standardisierung der quadrierten Residuen der ursprünglichen Modellschätzung verzichtet werden und die Hilfsregression auch direkt mit der abhängigen Variablen ûi 2 durchgeführt werden, da dies das Bestimmtheitsmaß nicht ändert (wohl aber die ESS!). Ökonometrie (SS 2018) Folie 293 Zusammenfassung: Breusch-Pagan-Test ( Original ) auf Heteroskedastizität der Störgrößen Anwendungs- approx.: y = Xβ + u mit E(u) = 0, V(u) = diag(σ1, 2..., σn), 2 voraussetzungen X deterministisch mit vollem Spaltenrang K + 1, Realisation y = (y 1,..., y n ) beobachtet, Q Einflussvariablen z 1i,..., z Qi, σi 2 = h(γ 0 + γ 1 z 1i γ Q z Qi ) Nullhypothese H 0 : γ 1 =... = γ Q = 0 σi 2 h(γ 0 ) Gegenhypothese H 1 : γ q 0 für mindestens ein q {1,..., Q} (( n ) ( n )) Teststatistik χ 2 = 1 2 (w i w) 2 Verteilung (H 0 ) χ 2 ist approx. χ 2 (Q)-verteilt, falls σ 2 i h(γ 0 ) konstant. Benötigte Größen û = (û 1,..., û n ) = y X(X X) 1 X y, w i = n û û û2 i, ê i die Residuen der Hilfsregression w i = γ 0 + γ 1 z 1i γ Q z Qi + e i Kritischer Bereich (χ 2 Q;1 α, ) zum Niveau α p-wert 1 F χ 2 (Q)(χ 2 ) i=1 i=1 ê 2 i Ökonometrie (SS 2018) Folie 294
4 Zusammenfassung: Breusch-Pagan-Test ( Koenker ) auf Heteroskedastizität der Störgrößen Anwendungs- approx.: y = Xβ + u mit E(u) = 0, V(u) = diag(σ1, 2..., σn), 2 voraussetzungen X deterministisch mit vollem Spaltenrang K + 1, Realisation y = (y 1,..., y n ) beobachtet, Q Einflussvariablen z 1i,..., z Qi, σi 2 = h(γ 0 + γ 1 z 1i γ Q z Qi ) Nullhypothese H 0 : γ 1 =... = γ Q = 0 σi 2 h(γ 0 ) Gegenhypothese H 1 : γ q 0 für mindestens ein q {1,..., Q} Teststatistik χ 2 = n RH 2 Verteilung (H 0 ) χ 2 ist approx. χ 2 (Q)-verteilt, falls σi 2 h(γ 0 ) konstant. Benötigte Größen û = (û 1,..., û n ) = y X(X X) 1 X y, R 2 H das Bestimmtheitsmaß der Hilfsregression û 2 i Kritischer Bereich (χ 2 Q;1 α, ) zum Niveau α = γ 0 + γ 1 z 1i γ Q z Qi + e i p-wert 1 F χ 2 (Q)(χ 2 ) Ökonometrie (SS 2018) Folie 295 White-Test auf Heteroskedastie in den Störgrößen White hat in seiner Arbeit von 1980 (Econometrica) nicht nur heteroskedastie-konsistente Schätzverfahren, sondern auch einen Test auf Heteroskedastie in den Störgrößen vorgeschlagen. Es zeigt sich, dass der White-Test auf heteroskedastische Störgrößen ein Spezialfall der Koenker -Version des Breusch-Pagan-Tests ist. Konkret erhält man den White-Test bei der Durchführung eines Breusch-Pagan-Tests nach Koenker, wenn man als Einflussvariablen z qi für die Varianz der Störgrößen gerade alle Regressoren, zusätzlich alle quadrierten Regressoren sowie zusätzlich alle gemischten Produkte von Regressoren des ursprünglichen Modells wählt. In einem Modell mit 2 Regressoren wäre also die Hilfsregression û 2 i = γ 0 + γ 1 x 1i + γ 2 x 2i + γ 3 x 2 1i + γ 4 x 2 2i + γ 5 x 1i x 2i + e i durchzuführen. Ökonometrie (SS 2018) Folie 296
5 Beispiel: Breusch-Pagan-Test/White-Test I Im Folgenden werden zwei Varianten des Breusch-Pagan-Test am bereits mehrfach verwendeten Lohnhöhen -Beispiel illustriert. Ausgehend von den quadrierten Residuen ûi 2 der ursprünglichen Regression der Lohnhöhe auf die beiden Regressoren Ausbildung und Alter (sowie ein Absolutglied) werden für die Original -Version des Breusch-Pagan-Tests zunächst die standardisierten quadrierten Residuen w i = n û ûû2 i berechnet: > uhat <- residuals(lm(lohnhöhe~ausbildung+alter)) > w <- uhat^2/mean(uhat^2) Als Summe der quadrierten Abweichungen vom arithmetischen Mittel n i=1 (w i w) 2 der w i (also als TSS der folgenden Hilfsregression!) erhält man: > sum((w-mean(w))^2) [1] Ökonometrie (SS 2018) Folie 297 Beispiel: Breusch-Pagan-Test/White-Test II Werden als Einflussvariablen für die Varianz der Störgrößen die beiden ursprünglichen Regressoren Ausbildung und Alter gewählt, ist dann die Hilfsregression w i = γ 0 + γ 1 Ausbildung i + γ 2 Alter i + e i zu schätzen und die zugehörige RSS zu bestimmen, man erhält > sum(residuals(lm(w~ausbildung+alter))^2) [1] und damit (gerundet) die Teststatistik (( n ) ( n χ 2 = 1 2 (w i w) 2 i=1 i=1 ê 2 i )) = 1 ( ) = Ein Vergleich zum kritischen Wert χ 2 2;0.95 = bei einem Test zum Niveau α = 0.05 erlaubt die Ablehnung der Nullhypothese und damit den Schluss auf das Vorliegen von Heteroskedastie in den Störgrößen. Ökonometrie (SS 2018) Folie 298
6 Beispiel: Breusch-Pagan-Test/White-Test III Wird in der beschriebenen Situation ein White-Test durchgeführt, so muss eine der Hilfsregressionen û 2 i = γ 0 + γ 1 Ausbildung i + γ 2 Alter i + γ 3 Ausbildung 2 i + γ 4 Alter 2 i + γ 5 Ausbildung i Alter i + e i oder w i = γ 0 + γ 1 Ausbildung i + γ 2 Alter i + γ 3 Ausbildung 2 i durchgeführt werden. + γ 4 Alter 2 i + γ 5 Ausbildung i Alter i + e i In der Statistik-Software R müssen diese Rechenoperationen von Regressoren bei der Modellformulierung in den Befehl I() eingeschlossen werden, da ^ und * bei der Notation von Modellgleichungen andere Bedeutungen haben! Ökonometrie (SS 2018) Folie 299 Beispiel: Breusch-Pagan-Test/White-Test IV Man erhält als OLS-Schätzergebnis: Call: lm(formula = uhat^2 ~ Ausbildung + Alter + I(Ausbildung^2) + I(Alter^2) + I(Ausbildung * Alter)) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) Ausbildung Alter I(Ausbildung^2) * I(Alter^2) I(Ausbildung * Alter) ** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 14 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 5 and 14 DF, p-value: Ökonometrie (SS 2018) Folie 300
7 Beispiel: Breusch-Pagan-Test/White-Test V Unter Verwendung des Bestimmtheitsmaßes dieser Hilfsregression ergibt sich χ 2 = n RH 2 = = > χ2 5;0.95 = 11.07, also wird auch hier zum Niveau α = 0.05 signifikante Heteroskedastie in den Störgrößen festgestellt. Schneller: mit dem Befehl bptest() im Paket lmtest: Original -Breusch-Pagan-Test (1. Beispiel): > bptest(lm(lohnhöhe~ausbildung+alter),studentize=false) Breusch-Pagan test data: lm(lohnhöhe ~ Ausbildung + Alter) BP = , df = 2, p-value = White - bzw. Koenker -Variante (2. Beispiel): > bptest(lm(lohnhöhe~ausbildung+alter), + ~Ausbildung+Alter+I(Ausbildung^2)+I(Alter^2)+I(Ausbildung*Alter)) studentized Breusch-Pagan test data: lm(lohnhöhe ~ Ausbildung + Alter) BP = , df = 5, p-value = Ökonometrie (SS 2018) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren 5.1 Inhaltsverzeichnis (Ausschnitt) 5 Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren Nichtlinearität in einer Variablen Modelle mit Interaktionen Strukturbruchmodelle Ökonometrie (SS 2018) Folie 302
8 5 Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren 5.1 Nichtlinearität in den Regressoren I Eine Variable y hängt linear von einer Variablen x ab, wenn der Differenzenquotient bzw. die Ableitung bzgl. dieser Variablen konstant ist, wenn also y x = c bzw. y x = c für eine Konstante c R gilt. Im bisher betrachteten linearen Regressionsmodell y i = β 0 + β 1 x 1i β K x Ki + u i, i {1,..., n}, hängt y also linear von jedem Regressor x k (k {1,..., K}) ab, denn es gilt y x k = β k bzw. y x k = β k. Die hier als marginaler Effekt einer Änderung von x k auf y interpretierbare (partielle) Ableitung ist also konstant und damit insbesondere unabhängig von x k (sowie unabhängig von anderen Variablen). Ökonometrie (SS 2018) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren 5.1 Nichtlinearität in den Regressoren II Bereits im White-Test verwendet: Regressionsfunktion y = β 0 + β 1 x 1 + β 2 x 2 + β 3 x β 4 x β 5 x 1 x 2, die zwar linear in den Regressionsparametern β 0,..., β 5, aber nichtlinear in den Regressoren x 1 und x 2 ist. Der marginale Effekt einer Änderung von x 1 auf y beträgt hier beispielsweise (abhängig vom Wert der Regressoren x 1 und x 2!) y x 1 = β 1 + 2β 3 x 1 + β 5 x 2. Allgemein betrachten wir nun Regressionsmodelle, die sich in der Form g(y i ) = β 0 +β 1 h 1 (x 1i,..., x Ki )+...+β M h M (x 1i,..., x Ki )+u i, i {1,..., n}, mit M Transformationen h 1,..., h M der K Regressoren und (ggf.) einer Transformation g der abhängigen Variablen darstellen lassen. Ökonometrie (SS 2018) Folie 304
9 5 Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren 5.1 Nichtlinearität in den Regressoren III Unter den üblichen Annahmen an die Störgrößen u i und unter der Voraussetzung, dass die Transformationen h 1,..., h M zu einer neuen Regressormatrix 1 h 1 (x 11,..., x K1 ) h M (x 11,..., x K1 ) 1 h 1 (x 12,..., x K2 ) h M (x 12,..., x K2 ) X :=... 1 h 1 (x 1n,..., x Kn ) h M (x 1n,..., x Kn ) mit vollem Spaltenrang M + 1 führen, bleiben die bisher besprochenen Eigenschaften der OLS-/KQ-Schätzung dieses Modells bestehen. Bezeichnet ỹ := (g(y 1 ),..., g(y n )) den transformierten (bzw. falls g(y) = y für alle y R gilt untransformierten) Vektor der abhängigen Variable, erhält man beispielsweise den KQ-Schätzer als β = ( X X) 1 X ỹ. Ökonometrie (SS 2018) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren 5.1 Nichtlinearität in den Regressoren IV Weitere Beispiele für Modelle mit Regressionsfunktionen, die nichtlinear in den (ursprünglichen) Regressoren x k sind: Wichtig! 1 y i = β 0 + β 1 x 1i + β 2 x 2 1i + u i, 2 y i = β 0 + β 1 x 1i + β 2 x 2 1i + β 3 x 3 1i + u i, 3 y i = β 0 + β 1 ln(x 1i ) + u i, 4 ln(y i ) = β 0 + β 1 x 1i + u i, 5 ln(y i ) = β 0 + β 1 ln(x 1i ) + β 2 ln(x 2i ) + u i. Unabhängig von der konkreten Form der Regressionsfunktion muss (wie auch bisher!) die Korrektheit der Spezifikation der Regressionsfunkion gewährleistet sein, um die Ergebnisse der Schätzung überhaupt sinnvoll verwerten zu können! Im Folgenden werden zunächst Regressionsfunktionen untersucht, die nur von einer unabhängigen Variablen x 1 abhängen (wie in den Beispielen 1 4 ). Ökonometrie (SS 2018) Folie 306
10 Polynomiale Modelle I in nur einer Variablen x 1 Die Modelle aus 1 bzw. 2, y i = β 0 + β 1 x 1i + β 2 x 2 1i + u i bzw. y i = β 0 + β 1 x 1i + β 2 x 2 1i + β 3 x 3 1i + u i, sind Beispiele für polynomiale Modelle (in einer Variablen) der Form y i = β 0 + β 1 x 1i + β 2 x 2 1i β r x r 1i + u i zu vorgegebenem Grad r {2, 3,...} des Polynoms. In polynomialen Modellen (in einer Variablen) sind die marginalen Effekte einer Änderung von x 1 auf y gegeben durch y = β 1 + 2β 2 x rβ r x r 1 1 x 1 und damit insbesondere nicht konstant, sondern abhängig vom Regressor x 1. Ökonometrie (SS 2018) Folie 307 Polynomiale Modelle II in nur einer Variablen x 1 Konfidenzintervalle für die marginalen Effekte an einem vorgegebenen Wert x 1 des Regressors können dann als Konfidenzintervalle für Linearkombinationen a β bestimmt werden, wenn der Vektor a R r+1 (abhängig von x 1 ) entsprechend gewählt wird, im polynomialen Modell mit Polynomgrad r also als a = [ 0 1 2x 1... rx r 1 ] 1. Bei einer sehr großen Wahl von r besteht die Gefahr des Overfittings : Sind bei einer Punktwolke aus n Beobachtungen (x 1i, y i ) alle x i unterschiedlich, so kann die Punktwolke durch ein Polynom vom Grad r = n 1 perfekt interpoliert werden! In der Praxis finden sich häufig polynomiale Modelle mit r = 2 oder r = 3. Ökonometrie (SS 2018) Folie 308
11 Polynomiale Modelle III in nur einer Variablen x 1 Gelegentlich wird unter der Annahme, dass die wahre Regressionsfunktion ein Polynom von unbekanntem Grad ist zunächst ein Modell mit großem r geschätzt und dann sukzessive mit Hilfe von t-tests überprüft, ob β r signifikant von Null verschieden ist, um ggf. den Grad r des Polynoms in der Regressionsfunktion um 1 zu reduzieren. Die Nullhypothese eines linearen Zusammenhangs gegen die Alternative eines polynomialen Zusammenhangs (mit Polynomgrad r 2) kann offensichtlich durch einen F -Test mit überprüft werden. H 0 : β 2 =... = β r = 0 Natürlich können Tests bzw. Konfidenzintervalle auch unter der Annahme heteroskedastischer Störgrößen durchgeführt werden, wenn die entsprechende heteroskedastie-konsistente Schätzung V hc ( β) der Varianz-Kovarianzmatrix V( β) und die dafür geeigneten Darstellungen der jeweiligen Tests verwendet werden. Ökonometrie (SS 2018) Folie 309 (Semi-)logarithmische Modelle I in nur einer Variablen x 1 Log-Transformationen von x 1i in ln(x 1i ) und/oder y i in ln(y i ) bieten sich dann an, wenn anstelle der Annahme eines konstanten Effekts y = β 1 x 1 von absoluten Änderungen x 1 auf absolute Änderungen y eher dann ein konstanter Effekt β 1 erwartet wird, wenn relative, prozentuale Änderungen bei der Ursache ( x 1 x 1 ) und/oder bei der abhängigen Variablen ( y y ) betrachtet werden. Grundlage dafür ist ln(x) x = 1 x bzw. ln(x + x) ln(x) = ln ( 1 + x ) x, wenn x x. x x Abhängig davon, ob nur die unabhängige Variable, nur die abhängige Variable oder beide Variablen transformiert werden, sind die folgenden Spezifikationen möglich: Ökonometrie (SS 2018) Folie 310
12 (Semi-)logarithmische Modelle II in nur einer Variablen x 1 1 Linear-log-Spezifikation: y i = β 0 + β 1 ln(x 1i ) + u i. Konstanter Effekt β 1 der relativen Änderung von x 1 auf eine absolute Änderung von y, bzw. abnehmender marginaler Effekt bei steigendem x: y β 1 x 1 x 1 bzw. y x 1 = β 1 x 1 Bsp.: x 1i Düngemitteleinsatz, y i Ernteertrag (auf Feld i). Eine (relative) Erhöhung des Düngemitteleinsatzes um 1% erhöht den (absoluten) Ernteertrag (etwa) um 0.01 β 1. Eine (absolute) Erhöhung des Düngemitteleinsatzes um einen Betrag x1 hat dort mehr Wirkung, wo noch nicht so viel Dünger eingebracht wurde ( abnehmende Grenzerträge ). Ökonometrie (SS 2018) Folie 311 (Semi-)logarithmische Modelle III in nur einer Variablen x 1 2 Log-linear-Spezifikation: ln(y i ) = β 0 + β 1 x 1i + u i. Konstanter Effekt β 1 der absoluten Änderung von x 1 auf eine relative Änderung von y, bzw. steigender marginaler Effekt bei steigendem y: y y β 1 x 1 bzw. y x 1 = β 1 y Bsp.: x 1i Berufserfahrung von BWL-Absolventen (in Jahren), y i Einkommen. Ein Jahr zusätzliche Berufserfahrung erhöht danach das mittlere Einkommen um etwa 100β 1 %. Eine (absolute) Erhöhung der Berufserfahrung hat also einen höheren (absoluten) Effekt auf das Einkommen dort, wo das Einkommen ohnehin bereits ein höheres Niveau hatte. Ökonometrie (SS 2018) Folie 312
13 (Semi-)logarithmische Modelle IV in nur einer Variablen x 1 3 Log-log-Spezifikation: ln(y i ) = β 0 + β 1 ln(x 1i ) + u i. Konstanter Effekt β 1 (=Elastizität) der relativen Änderung von x 1 auf eine relative Änderung von y: y y β 1 x 1 x 1 bzw. y x 1 x 1 y = β 1 Bsp.: x 1i Kapitaleinsatz pro Arbeitskraft, y i Output pro Arbeitskraft. Erhöhung des per-capita-kapitaleinsatzes um 1% führt zur Erhöhung des per-capita-output um β 1 % (Cobb-Douglas-Produktionsfunktion). Modellierung von konstanten Skalenerträgen. Ökonometrie (SS 2018) Folie 313 (Semi-)logarithmische Modelle V in nur einer Variablen x 1 Anmerkungen zu Log-transformierten abhängigen Variablen (ln(y)) Insbesondere Log-log-Spezifikationen können bei der sog. Linearisierung von Regressionsmodellen entstehen, die zunächst nichtlinear (auch!) in den Regressionsparametern sind, zum Beispiel erhält man aus dem Modell (hier: mit mehreren Regressoren) y i = β 0 x β 1 1i x β 2 2i e u i, i {1,..., n}, durch Logarithmieren auf beiden Seiten mit ln(y i ) = β 0 + β 1 ln(x 1i ) + β 2 ln(x 2i ) + u i, i {1,..., n}. ein linearisiertes Modell. Ökonometrie (SS 2018) Folie 314
14 (Semi-)logarithmische Modelle VI in nur einer Variablen x 1 Bei der Prognose von y 0 gegeben x 0 bzw. der Bestimmung von ŷ i auf Basis von Modellen mit log-tranformierter abhängiger Variablen ln(y) ist zu beachten, dass wegen E (e u i ) e E(u i ) trotz der Annahme E(u i ) 0 im Allgemeinen E (e u i ) 1 = e 0 gilt. Für u i iid N(0, σ 2 ) gilt insbesondere E (e u i ) = e σ2 iid 2, damit erhält man für ln(y i ) = h(x 1i ) + u i mit u i N(0, σ 2 ) ( ) ) ( ) E(y i ) = E e ln(y i ) = E (e h(x 1i )+u i = E e h(x 1i ) e u i = e h(x 1i ) E (e u i ) = e h(x 1i ) e σ2 2 > e h(x 1i ). Wenn die abhängige Variable y in ln(y) transformiert wird, kann man das Bestimmtheitsmaß für die geschätzte Regression nicht sinnvoll mit dem Bestimmtheitsmaß einer Regressionsgleichung für y vergleichen! (Anteil der erklärten Varianz der ln(y i ) vs. Anteil der erklärten Varianz der y i ) Ökonometrie (SS 2018) Folie 315 Beispiel zur Nichtlinearität in einer Variablen I Im Folgenden soll am Beispiel der Abhängigkeit der Milchleistung von Kühen von der zugeführten Futtermenge die Schätzung einiger in den Regressoren nichtlinearer Modelle illustriert werden. Es liege hierzu folgender Datensatz vom Umfang n = 12 zu Grunde: i Milchleistung (Liter/Jahr) y i Futtermenge (Zentner/Jahr) x 1i i Milchleistung (Liter/Jahr) y i Futtermenge (Zentner/Jahr) x 1i (vgl. von Auer, Ludwig: Ökonometrie Eine Einführung, 6. Aufl., Tabelle 14.1) Es wird nacheinander die Gültigkeit einer linearen, quadratischen, kubischen, linear-log-, log-linear- bzw. log-log-spezifikation unterstellt und das zugehörige Modell geschätzt (unter Homoskedastieannahme). Ökonometrie (SS 2018) Folie 316
15 Beispiel zur Nichtlinearität in einer Variablen II Lineares Modell: Milch i = β 0 + β 1 Futter i + u i Call: lm(formula = Milch ~ Futter) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-08 *** Futter e-05 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 10 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 10 DF, p-value: 1.597e-05 Ökonometrie (SS 2018) Folie 317 Beispiel zur Nichtlinearität in einer Variablen III Quadratisches Modell: Milch i = β 0 + β 1 Futter i + β 2 Futter 2 i + u i Call: lm(formula = Milch ~ Futter + I(Futter^2)) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-07 *** Futter e-05 *** I(Futter^2) ** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 9 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 2 and 9 DF, p-value: 1.452e-06 Ökonometrie (SS 2018) Folie 318
16 Beispiel zur Nichtlinearität in einer Variablen IV Kubisches Modell: Milch i = β 0 + β 1 Futter i + β 2 Futter 2 i + β 3 Futter 3 i + u i Call: lm(formula = Milch ~ Futter + I(Futter^2) + I(Futter^3)) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-06 *** Futter * I(Futter^2) I(Futter^3) Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 8 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 3 and 8 DF, p-value: 1.29e-05 Ökonometrie (SS 2018) Folie 319 Beispiel zur Nichtlinearität in einer Variablen V Linear-log-Modell: Milch i = β 0 + β 1 ln(futter i ) + u i Call: lm(formula = Milch ~ log(futter)) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-07 *** log(futter) e-06 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 10 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 10 DF, p-value: 1.996e-06 Ökonometrie (SS 2018) Folie 320
17 Beispiel zur Nichtlinearität in einer Variablen VI Log-linear-Modell: ln(milch i ) = β 0 + β 1 Futter i + u i Call: lm(formula = log(milch) ~ Futter) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** Futter e-05 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 10 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 10 DF, p-value: 5.098e-05 Ökonometrie (SS 2018) Folie 321 Beispiel zur Nichtlinearität in einer Variablen VII Log-log-Modell: ln(milch i ) = β 0 + β 1 ln(futter i ) + u i Call: lm(formula = log(milch) ~ log(futter)) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** log(futter) e-07 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 10 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 10 DF, p-value: 1.912e-07 Ökonometrie (SS 2018) Folie 322
18 Geschätzte Regressions-/Prognosefunktionen I Lineares Modell Quadratisches Modell Milch Milch Futter Futter Kubisches Modell Linear log Modell Milch Milch Futter log(futter) Log linear Modell Log log Modell log(milch) log(milch) Futter log(futter) Ökonometrie (SS 2018) Folie 323 Geschätzte Regressions-/Prognosefunktionen II Vergleich der Prognosefunktionen Milch Linear Quadratisch Kubisch Linear log Log linear Log log Futter Ökonometrie (SS 2018) Folie 324
Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.
MehrBreusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test.
MehrBreusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test.
Mehr11. Übungsblatt zur Vorlesung Ökonometrie SS 2014
Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer
MehrBeispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
MehrKonfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen
4 Multiple lineare Regression Heteroskedastische Störgrößen 4.10 Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen Ein approximatives
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
MehrKonfidenz-, Prognoseintervalle und Hypothesentests II bei heteroskedastischen Störgrößen
Konfidenz-, Prognoseintervalle und Hypothesentests II bei heteroskedastischen Störgrößen Achtung! Bei der Verwendung von heteroskedastie-konsistenten Schätzern für V( β) muss unbedingt darauf geachtet
MehrAufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte)
Aufgabe 3 (6 + 4 + 8 + 4 + 10 + 4 + 9 + 4 + 8 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe eines multiplen linearen Regressionsmodells soll auf
MehrBeispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
MehrPrognoseintervalle für y 0 gegeben x 0
10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen
MehrSchätzung im multiplen linearen Modell VI
Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,
MehrAufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2017/18. ( = 58 Punkte)
Aufgabe 3 (14 + 2 + 7 + 7 + 3 + 5 + 9 + 11 = 58 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe der Statistiksoftware R soll der Datensatz HousePrices aus
Mehr4 Multiple lineare Regression Multikollinearität 4.9
Multikollinearität Erinnerung: Unter der (gemäß Modellannahmen ausgeschlossenen) perfekten Multikollinearität versteht man eine perfekte lineare Abhängigkeit unter den Regressoren (einschließlich des Absolutglieds
Mehr4 Multiple lineare Regression Multikollinearität 4.9
Multikollinearität Erinnerung: Unter der (gemäß Modellannahmen ausgeschlossenen) perfekten Multikollinearität versteht man eine perfekte lineare Abhängigkeit unter den Regressoren (einschließlich des Absolutglieds
MehrPerfekte Multikollinearität III. Multikollinearität
Multikollinearität Perfekte Multikollinearität I Erinnerung: Unter der (gemäß Modellannahmen ausgeschlossenen) perfekten Multikollinearität versteht man eine perfekte lineare Abhängigkeit unter den Regressoren
MehrTests einzelner linearer Hypothesen I
4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen
MehrPerfekte Multikollinearität III. Multikollinearität
Multikollinearität Perfekte Multikollinearität I Erinnerung: Unter der (gemäß Modellannahmen ausgeschlossenen) perfekten Multikollinearität versteht man eine perfekte lineare Abhängigkeit unter den Regressoren
MehrAufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie SS 2018
Aufgabe 3 (15 + 1 + 7 + 7 + 7 + 5 = 42 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe der Statistiksoftware R soll der Datensatz HousePrices aus dem Paket
MehrAufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie SS ( = 57 Punkte)
Aufgabe 3 (9 + 5 + 7 + 7 + 3 + 9 + 7 + 10 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Zu Beginn der Studienjahre 2011 und 2012 wurden Studienanfänger an
MehrZusammenfassung: Einfache lineare Regression I
4 Multiple lineare Regression Multiples lineares Modell 41 Zusammenfassung: Einfache lineare Regression I Bisher: Annahme der Gültigkeit eines einfachen linearen Modells y i = β 0 + β 1 x i + u i, i {1,,
Mehr7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien
Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)
MehrProf. Dr. Marc Gürtler WS 2015/2016. Prof. Dr. Marc Gürtler. Klausur zur 10/12 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft
Prof. Dr. Marc Gürtler WS 015/016 Prof. Dr. Marc Gürtler Klausur zur 10/1 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft Lösungsskizze Prof. Dr. Marc Gürtler WS 015/016 Aufgabe 1: (11+5+1+8=56
Mehrx t2 y t = 160, y = 8, y y = 3400 t=1
Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
MehrLineare Regressionen mit R (Ökonometrie SS 2014 an der UdS)
Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Es soll untersucht werden, ob und wie sich Rauchen während der Schwangerschaft auf den Gesundheitszustand des Neugeborenen auswirkt. Hierzu werden
MehrLean Body Mass [kg] Estimate Std. Error t value Pr(> t ) (Intercept) ??? lbm <2e-16 ***
Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden
MehrMultiple Regression III
Multiple Regression III Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Überprüfung der Modellannahmen Residuen-Plot Normal-Q-Q-Plot Cook s Distanz-Plot Maßnahmen bei Abweichungen von Modellannahmen
MehrAuswertung und Lösung
Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden
Mehr2.3 Nichtlineare Regressionsfunktion
Nichtlineare Regressionsfunktion Bisher: lineares Regressionsmodell o Steigung d. Regressionsgerade ist konstant o Effekt einer Änderung von X auf Y hängt nicht vom Niveau von X oder von anderen Regressoren
MehrWirtschaftswissenschaftliches Prüfungsamt
Wirtschaftswissenschaftliches Prüfungsamt Master of Economics, Finance and Philosophy Diplomprüfung Econometric Methods and Applications Wintersemester 2011/12 22. Februar 2012 Prof. Dr. Ralph Friedmann
MehrLineare Modelle in R: Klassische lineare Regression
Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)
MehrSchweizer Statistiktage, Aarau, 18. Nov. 2004
Schweizer Statistiktage, Aarau, 18. Nov. 2004 Qualitative Überprüfung der Modellannahmen in der linearen Regressionsrechnung am Beispiel der Untersuchung der Alterssterblichkeit bei Hitzeperioden in der
MehrX =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?
Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2
MehrComputerübung 10. Empirische Wirtschaftsforschung. Willi Mutschler. 27. Januar Ökonometrie und Wirtschaftsstatistik Uni Münster
Computerübung 10 Empirische Wirtschaftsforschung Willi Mutschler Ökonometrie und Wirtschaftsstatistik Uni Münster 27. Januar 2011 Willi Mutschler (Uni Münster) Computerübung 10 27. Januar 2011 1 / 12 Inhaltsverzeichnis
MehrLineare Regression in R, Teil 1
Lineare Regression in R, Teil 1 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel October 6, 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools aus
MehrTeil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.
Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, 10.07.017 Wahrscheinlichkeit und Statistik Patric Müller WBL
MehrÜbung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrBachelorprüfung: Statistik (1 Stunde)
Prof. H.R. Künsch D-BIOL, D-CHAB Winter 2010 Bachelorprüfung: Statistik (1 Stunde) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt. Natels sind auszuschalten!
Mehr1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:
Beispiele zum Üben und Wiederholen zu Wirtschaftsstatistik 2 (Kurs 3) 1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Haushaltseinkommen 12 24 30 40 80 60
MehrAufgabe 35 mit R (Ökonometrie SS 2014 an der UdS)
Vorbereitungen Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Falls das R - Paket car noch nicht installiert wurde, kann dies mit der Funktion install.packages() erledigt werden. install.packages("car")
Mehr1. Lösungen zu Kapitel 7
1. Lösungen zu Kapitel 7 Übungsaufgabe 7.1 Um zu testen ob die Störterme ε i eine konstante Varianz haben, sprich die Homogenitätsannahme erfüllt ist, sind der Breusch-Pagan-Test und der White- Test zwei
MehrEmpirische Wirtschaftsforschung in R
Empirische Wirtschaftsforschung in R Schätzung der keynesianischen Geldnachfragefunktion auf Basis von Daten der dänischen Volkswirtschaft Jonas Richter-Dumke Universität Rostock, Institut für Volkswirtschaftslehre
MehrWirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Sommersemester Namensschild. Dr.
Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Sommersemester 2013 Namensschild Dr. Martin Becker Hinweise für die Klausurteilnehmer ˆ Kleben Sie bitte sofort Ihr Namensschild
Mehr6. Heteroskedastizität (Verletzung der B2-Annahme)
6. Heteroskedastizität (Verletzung der B2-Annahme) Annahme B2: Die Störgröße u i hat für i = 1,..., N eine konstante Varianz, d.h. V ar(u i ) = σ 2 Bezeichnungen: Konstante u i -Varianzen: Homoskedastizität
MehrLösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016
ETH Zürich D-USYS Institut für Agrarwissenschaften Lösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016 Peter von Rohr Datum 30. Mai 2016 Beginn 08:00 Uhr Ende 08:45
MehrEinleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse
Einleitung Statistik Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Der Begriff Varianzanalyse (analysis of variance, ANOVA) taucht an vielen Stellen in der Statistik mit unterschiedlichen
Mehr1 Interaktion von zwei Dummyvariablen. 2 Interaktion einer Dummyvariablen mit einer kardinalskalierten Variablen
Modelle mit Interationsvariablen I Modelle mit Interationsvariablen II In der beim White-Test verwendeten Regressionsfuntion y = β 0 + β 1 x 1 + β 2 x 2 + β 3 x 2 1 + β 4 x 2 2 + β 5 x 1 x 2, ist anders
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrFragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression
Fragen Welche Unsicherheitsfaktoren beeinflussen die Schätzung einer Regressionsgeraden? Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München
MehrEine Einführung in R: Varianzanalyse
Eine Einführung in R: Varianzanalyse Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2011 Bernd Klaus, Verena Zuber Das
MehrVarianzvergleiche bei normalverteilten Zufallsvariablen
9 Mittelwert- und Varianzvergleiche Varianzvergleiche bei zwei unabhängigen Stichproben 9.3 Varianzvergleiche bei normalverteilten Zufallsvariablen Nächste Anwendung: Vergleich der Varianzen σa 2 und σ2
MehrWirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Wintersemester 2012/13. Namensschild. Dr.
Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Wintersemester 2012/13 Namensschild Dr. Martin Becker Hinweise für die Klausurteilnehmer ˆ Kleben Sie bitte sofort Ihr Namensschild
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrStatistik II für Betriebswirte Vorlesung 11
Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 07. Januar 2019 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:
MehrDeskriptive Beschreibung linearer Zusammenhänge
9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,
Mehr2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme)
2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme) Annahme A1: Im multiplen Regressionsmodell fehlen keine relevanten exogenen Variablen und die benutzten exogenen Variablen x 1,
Mehr1 Beispiel zur Methode der kleinsten Quadrate
1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25
MehrZur Erinnerung: Annahmen
Zur Erinnerung: Annahmen Vorlesung 6: Heteroskedastizität. Beispiele mit heteroskedastischen Fehlertermen. Auswirkungen von Heteroskedastizität auf OLS-Schätzungen. Wie erkennt man das Vorliegen von Heteroskedastizität?
MehrTeekonsum in den USA (in 1000 Tonnen), Nimmt den Wert 1 an für alle Perioden, Durchschnittlicher Preis des Tees in Periode t (in Tausend $/Tonne).
Aufgabe 1 (5 Punkte) Gegeben sei ein lineares Regressionsmodell in der Form. Dabei ist y t = x t1 β 1 + x t β + e t, t = 1,..., 10 (1) y t : x t1 : x t : Teekonsum in den USA (in 1000 Tonnen), Nimmt den
MehrVorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression
Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade
Mehr4. Das multiple lineare Regressionsmodell
4. Das multiple lineare Regressionsmodell Bisher: 1 endogene Variable y wurde zurückgeführt auf 1 exogene Variable x (einfaches lineares Regressionsmodell) Jetzt: Endogenes y wird regressiert auf mehrere
Mehry t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.
Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf
MehrAnalyse von Querschnittsdaten. Spezifikation der Regressionsfunktion
Analse von Querschnittsdaten Spezifikation der Regressionsfunktion Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 9..5 6..5..5 9..5 6..5..5..5
MehrStatistik II für Betriebswirte Vorlesung 8
Statistik II für Betriebswirte Vorlesung 8 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 3. Dezember 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version:
MehrAnalyse von Querschnittsdaten. Signifikanztests I Basics
Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
MehrInterpretation von Testergebnissen I
2 Wiederholung statistischer Grundlagen Schließende Statistik 2.3 Interpretation von Testergebnissen I Durch die Asymmetrie in den Fehlerwahrscheinlichkeiten 1. und 2. Art ist Vorsicht bei der Interpretation
MehrStochastik Praktikum Lineare Modelle
Stochastik Praktikum Lineare Modelle Thorsten Dickhaus Humboldt-Universität zu Berlin 06.10.2010 Übersicht 1 Einfache lineare Regression 2 Multiple lineare Regression 3 Varianzanalyse 4 Verallgemeinerte
MehrStatistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II
Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte
MehrAnalyse von Querschnittsdaten. Heteroskedastizität
Analyse von Querschnittsdaten Heteroskedastizität Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004 03.11.2004
MehrEmpirische Analysen mit dem SOEP
Empirische Analysen mit dem SOEP Methodisches Lineare Regressionsanalyse & Logit/Probit Modelle Kurs im Wintersemester 2007/08 Dipl.-Volksw. Paul Böhm Dipl.-Volksw. Dominik Hanglberger Dipl.-Volksw. Rafael
Mehr1 Gliederung Zeitreihenökonometrie. Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09. Dr. Sylvia Kaufmann.
Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09 Dr Sylvia Kaufmann Februar 2009 Angewandte Ökonometrie, Sylvia Kaufmann, FS09 1 1 Gliederung Zeitreihenökonometrie Einführung
MehrLineare Regression. Kapitel Regressionsgerade
Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell
MehrKapitel 10. Multikollinearität. Exakte Multikollinearität Beinahe Multikollinearität
Kapitel 0 Multikollinearität Exakte Multikollinearität Beinahe Multikollinearität Exakte Multikollinearität Unser Modell lautet y = Xb + u, Dimension von X: n x k Annahme : rg(x) = k Wenn sich eine oder
Mehr6. Tutoriumsserie Statistik II
6. Tutoriumsserie Statistik II 1. Aufgabe: Eine Unternehmensabteilung ist ausschließlich mit der Herstellung eines einzigen Produktes beschäftigt. Für 10 Perioden wurden folgende Produktmenge y und Gesamtkosten
Mehr> r.lm < lm(log10(ersch) log10(dist), > summary(r.lm) > r.lms < summary(r.lm) R-Funktionen zur linearen Regression. data = d.
3.4 S-Funktionen 75 R-Funktionen zur linearen Regression a Im package stat (immer vorhanden): lm > r.lm < lm(log10(ersch) log10(dist), data = d.spreng) b Funktion summary produziert Resultate, die man
MehrTutorial: Regression Output von R
Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen
MehrV. Das lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Tino Conrad, M.Sc. Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2016 Übung zur
MehrAufgabenstellung und Ergebnisse zur. Bachelor-Prüfung Schließende Statistik Wintersemester 2017/18. Dr. Martin Becker
Aufgabenstellung und Ergebnisse zur Bachelor-Prüfung Schließende Statistik Wintersemester 2017/18 Dr. Martin Becker Hinweise für die Klausurteilnehmer Die Klausur besteht aus insgesamt 9 Aufgaben. Prüfen
MehrStatistische Datenanalyse mit R, Korrelation und Regression. Dr. Andrea Denecke Leibniz Universität IT-Services
Statistische Datenanalyse mit R, Korrelation und Regression Dr. Andrea Denecke Leibniz Universität IT-Services Korrelationsanalyse Eine Korrelationsanalyse soll herausfinden Ob ein linearer Zusammenhang
MehrInteraktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie
Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie 1 Einleitung 3 2 Modell mit 0-1 kodierten nominalen Prädiktoren X 1
MehrEmpirische Wirtschaftsforschung
Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 6.. Herleitung des OLS-Schätzers
MehrDr. M. Kalisch. Statistik (für Biol./Pharm. Wiss.) Winter Musterlösung
Dr. M. Kalisch. Statistik (für Biol./Pharm. Wiss.) Winter 2014 Musterlösung 1. (11 Punkte) a) Für welchen Parameter ist X ein geeigneter Schätzer? X ist ein geeigneter Schätzer für den Erwartungswert µ
MehrEine Einführung in R: Varianzanalyse
Eine Einführung in R: Varianzanalyse Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 13. Dezember 2012 Bernd Klaus, Verena Zuber,
MehrMultiple lineare Regression
Multiple lineare Regression Bisher eine Einflußgröße X 1 (und der Achsenabschnitt). Dagegen das Modell der multiplen Regression Y = β 0 X 0 + β 1 X 1 +... + β p X p + ε mit p Einflußgrößen und dem Achsenabschnitt.
MehrLineare Regression mit einem Regressor: Einführung
Lineare Regression mit einem Regressor: Einführung Quantifizierung des linearen Zusammenhangs von zwei Variablen Beispiel Zusammenhang Klassengröße und Testergebnis o Wie verändern sich Testergebnisse,
MehrMehrfache und polynomiale Regression
Mehrfache und polynomiale Regression Kriteria für die Durchführung einer Regression Jonathan Harrington Bitte datasets.zip (unter 5.5, Tabellarische Daten) neu herunterladen und in pfad auspacken Einfache
MehrEinführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
MehrDiplomprüfung im Fach Ökonometrie im SS 08 - Aufgabenteil
Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Diplomprüfung im Fach Ökonometrie im SS 08 - Aufgabenteil Name, Vorname Matrikelnr. Studiengang Semester Datum
MehrMarcel Dettling. Grundlagen der Mathematik II FS 2015 Woche 14. ETH Zürich, 27. Mai Institut für Datenanalyse und Prozessdesign
Marcel Dettling Institut für Datenanalyse und Prozessdesign Zürcher Hochschule für Angewandte Wissenschaften marcel.dettling@zhaw.ch http://stat.ethz.ch/~dettling ETH Zürich, 7. Mai 015 1 Regression Beispiel:
MehrGoethe-Universität Frankfurt
Goethe-Universität Frankfurt Fachbereich Wirtschaftswissenschaft PD Dr. Martin Biewen Dr. Ralf Wilke Sommersemester 2006 Klausur Statistik II 1. Alle Aufgaben sind zu beantworten. 2. Bitte runden Sie Ihre
MehrStatistik II Übung 4: Skalierung und asymptotische Eigenschaften
Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden
Mehr