Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Größe: px
Ab Seite anzeigen:

Download "Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen"

Transkript

1 4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten. Vielmehr lässt sich mit dem Breusch-Pagan-Test eine konstante Störgrößenvarianz σ 2 σi 2 gegen eine recht allgemeine Abhängigkeit der Störgrößenvarianzen von Q Variablen z 1i, z 2i,..., z Qi, i {1,..., n}, in der Form σi 2 = h(γ 0 + γ 1 z 1i γ Q z Qi ) (1) mit einer Funktion h, an die nur moderate Bedingungen gestellt werden müssen, abgrenzen. Im Breusch-Pagan-Test entspricht der Fall einer konstanten Störgrößenvarianz der Nullhypothese H 0 : γ 1 =... = γ Q = 0 σ 2 i h(γ 0 ) im allgemeineren Varianz-Modell aus Formel (1). Ökonometrie (SS 2014) Folie Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test II auf Heteroskedastie in den Störgrößen Häufig werden als Variablen z 1i, z 2i,..., z Qi gerade wieder die Regressoren des ursprünglichen Regressionsmodells eingesetzt, es gilt dann also Q = K und z ji = x ji für i {1,..., n}, j {1,..., K}. Durch die Freiheit bei der Auswahl der Einflussvariablen z 1i, z 2i,..., z Qi sind aber auch zahlreiche Varianten möglich, zum Beispiel die Verwendung nicht nur der Regressoren des ursprünglichen Modells, sondern auch Potenzen hiervon und/oder Produkte verschiedener Regressoren oder die Verwendung der aus der ursprünglichen Modellschätzung gewonnenen ŷi. Unter dem Namen Breusch-Pagan-Test (BP-Test) werden üblicherweise zwei unterschiedliche Versionen subsumiert, nämlich der ursprüngliche Test von Breusch und Pagan (Econometrica, 1979), der unabhängig auch von Cook und Weisberg (Biometrika, 1983) vorgeschlagen wurde, sowie eine robuste Modifikation von Koenker (Journal of Econometrics, 1981), die geeigneter ist, wenn die Störgrößen nicht normalverteilt sind. Ökonometrie (SS 2014) Folie 290

2 4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test III auf Heteroskedastie in den Störgrößen Beide Versionen des BP-Tests sind als Score-Test konzipiert, die Teststatistik lässt sich jedoch jeweils leicht auf Basis von (OLS-)Schätzergebnissen einer (linearen) Hilfsregression berechnen. Sind û i die Residuen aus der Schätzung des auf heteroskedastische Störgrößen zu untersuchenden linearen Modells und RSS die Residual Sum of Squares (mit RSS = n i=1 û2 i = û û), so benötigt man als abhängige Variable der Hilfsregression die gemäß w i := n ûû2 û i = RSSû2 n i für i {1,..., n} standardisierten quadrierten Residuen w i. Ökonometrie (SS 2014) Folie Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test IV auf Heteroskedastie in den Störgrößen Für beide Versionen des BP-Tests ist dann die Hilfsregression w i = γ 0 + γ 1 z 1i γ Q z Qi + e i, i {1,..., n}, (per OLS-/KQ-Methode) zu schätzen. Im ursprünglichen BP-Test erhält man die unter der Nullhypothese näherungsweise χ 2 (Q)-verteilte Teststatistik dann als die Hälfte der Explained Sum of Squares der Hilfsregression, mit der Bezeichnung ê i für die Residuen der Hilfsregression und der Abkürzung w = 1 n n i=1 w i also zum Beispiel unter Verwendung von ESS = TSS RSS durch (( n ) ( n )) χ 2 = 1 2 (w i w) 2. i=1 i=1 ê 2 i Ökonometrie (SS 2014) Folie 292

3 4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test V auf Heteroskedastie in den Störgrößen In der robusteren Version von Koenker erhält man die unter der Nullhypothese ebenfalls näherungsweise χ 2 (Q)-verteilte Teststatistik als n-faches multiples Bestimmtheitsmaß der Hilfsregression, es gilt also χ 2 = n R 2 H mit der Bezeichnung RH 2 für das Bestimmtheitsmaß der Hilfsregression. Offensichtlich kann (nur) bei Verwendung der Version von Koenker auf die Standardisierung der quadrierten Residuen der ursprünglichen Modellschätzung verzichtet werden und die Hilfsregression auch direkt mit der abhängigen Variablen ûi 2 durchgeführt werden, da dies das Bestimmtheitsmaß nicht ändert (wohl aber die ESS!). Ökonometrie (SS 2014) Folie Multiple lineare Regression Tests auf Heteroskedastie 4.11 Zusammenfassung: Breusch-Pagan-Test ( Original ) auf Heteroskedastizität der Störgrößen Anwendungs- approx.: y = Xβ + u mit E(u) = 0, V(u) = diag(σ1, 2..., σn), 2 voraussetzungen X deterministisch mit vollem Spaltenrang K + 1, Realisation y = (y 1,..., y n ) beobachtet, Q Einflussvariablen z 1i,..., z Qi, σi 2 = h(γ 0 + γ 1 z 1i γ Q z Qi ) Nullhypothese H 0 : γ 1 =... = γ Q = 0 σi 2 h(γ 0 ) Gegenhypothese H 1 : γ q 0 für mindestens ein q {1,..., Q} (( n ) ( n )) Teststatistik χ 2 = 1 2 (w i w) 2 Verteilung (H 0 ) χ 2 ist approx. χ 2 (Q)-verteilt, falls σ 2 i h(γ 0 ) konstant. Benötigte Größen û = (û 1,..., û n ) = y X(X X) 1 X y, w i = n û û û2 i, ê i die Residuen der Hilfsregression w i = γ 0 + γ 1 z 1i γ Q z Qi + e i Kritischer Bereich (χ 2 Q;1 α, ) zum Niveau α p-wert 1 F χ 2 (Q)(χ 2 ) i=1 i=1 ê 2 i Ökonometrie (SS 2014) Folie 294

4 4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Zusammenfassung: Breusch-Pagan-Test ( Koenker ) auf Heteroskedastizität der Störgrößen Anwendungs- approx.: y = Xβ + u mit E(u) = 0, V(u) = diag(σ1, 2..., σn), 2 voraussetzungen X deterministisch mit vollem Spaltenrang K + 1, Realisation y = (y 1,..., y n ) beobachtet, Q Einflussvariablen z 1i,..., z Qi, σi 2 = h(γ 0 + γ 1 z 1i γ Q z Qi ) Nullhypothese H 0 : γ 1 =... = γ Q = 0 σi 2 h(γ 0 ) Gegenhypothese H 1 : γ q 0 für mindestens ein q {1,..., Q} Teststatistik χ 2 = n RH 2 Verteilung (H 0 ) χ 2 ist approx. χ 2 (Q)-verteilt, falls σi 2 h(γ 0 ) konstant. Benötigte Größen û = (û 1,..., û n ) = y X(X X) 1 X y, R 2 H das Bestimmtheitsmaß der Hilfsregression û 2 i Kritischer Bereich (χ 2 Q;1 α, ) zum Niveau α = γ 0 + γ 1 z 1i γ Q z Qi + e i p-wert 1 F χ 2 (Q)(χ 2 ) Ökonometrie (SS 2014) Folie Multiple lineare Regression Tests auf Heteroskedastie 4.11 White-Test auf Heteroskedastie in den Störgrößen White hat in seiner Arbeit von 1980 (Econometrica) nicht nur heteroskedastie-konsistente Schätzverfahren, sondern auch einen Test auf Heteroskedastie in den Störgrößen vorgeschlagen. Es zeigt sich, dass der White-Test auf heteroskedatische Störgrößen ein Spezialfall der Koenker -Version des Breusch-Pagan-Tests ist. Konkret erhält man den White-Test bei der Durchführung eines Breusch-Pagan-Tests nach Koenker, wenn man als Einflussvariablen z qi für die Varianz der Störgrößen gerade alle Regressoren, zusätzlich alle quadrierten Regressoren sowie zusätzlich alle gemischten Produkte von Regressoren des ursprünglichen Modells wählt. In einem Modell mit 2 Regressoren wäre also die Hilfsregression û 2 i = γ 0 + γ 1 x 1i + γ 2 x 2i + γ 3 x 2 1i + γ 4 x 2 2i + γ 5 x 1i x 2i + e i durchzuführen. Ökonometrie (SS 2014) Folie 296

5 4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Beispiel: Breusch-Pagan-Test/White-Test I Im Folgenden werden zwei Varianten des Breusch-Pagan-Test am bereits mehrfach verwendeten Lohnhöhen -Beispiel illustriert. Ausgehend von den quadrierten Residuen ûi 2 der ursprünglichen Regression der Lohnhöhe auf die beiden Regressoren Ausbildung und Alter (sowie ein Absolutglied) werden für die Original -Version des Breusch-Pagan-Tests zunächst die standardisierten quadrierten Residuen w i = n û ûû2 i berechnet: > uhat <- residuals(lm(lohnhöhe~ausbildung+alter)) > w <- uhat^2/mean(uhat^2) Als Summe der quadrierten Abweichungen vom arithmetischen Mittel n i=1 (w i w) 2 der w i (also als TSS der folgenden Hilfsregression!) erhält man: > sum((w-mean(w))^2) [1] Ökonometrie (SS 2014) Folie Multiple lineare Regression Tests auf Heteroskedastie 4.11 Beispiel: Breusch-Pagan-Test/White-Test II Werden als Einflussvariablen für die Varianz der Störgrößen die beiden ursprünglichen Regressoren Ausbildung und Alter gewählt, ist dann die Hilfsregression w i = γ 0 + γ 1 Ausbildung i + γ 2 Alter i + e i zu schätzen und die zugehörige RSS zu bestimmen, man erhält > sum(residuals(lm(w~ausbildung+alter))^2) [1] und damit (gerundet) die Teststatistik (( n ) ( n χ 2 = 1 2 (w i w) 2 i=1 i=1 ê 2 i )) = 1 ( ) = Ein Vergleich zum kritischen Wert χ 2 2;0.95 = bei einem Test zum Niveau α = 0.05 erlaubt die Ablehnung der Nullhypothese und damit den Schluss auf das Vorliegen von Heteroskedastie in den Störgrößen. Ökonometrie (SS 2014) Folie 298

6 4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Beispiel: Breusch-Pagan-Test/White-Test III Wird in der beschriebenen Situation ein White-Test durchgeführt, so muss eine der Hilfsregressionen û 2 i = γ 0 + γ 1 Ausbildung i + γ 2 Alter i + γ 3 Ausbildung 2 i + γ 4 Alter 2 i + γ 5 Ausbildung i Alter i + e i oder w i = γ 0 + γ 1 Ausbildung i + γ 2 Alter i + γ 3 Ausbildung 2 i durchgeführt werden. + γ 4 Alter 2 i + γ 5 Ausbildung i Alter i + e i In der Statistik-Software R müssen diese Rechenoperationen von Regressoren bei der Modellformulierung in den Befehl I() eingeschlossen werden, da ^ und * bei der Notation von Modellgleichungen andere Bedeutungen haben! Ökonometrie (SS 2014) Folie Multiple lineare Regression Tests auf Heteroskedastie 4.11 Beispiel: Breusch-Pagan-Test/White-Test IV Man erhält als OLS-Schätzergebnis: Call: lm(formula = uhat^2 ~ Ausbildung + Alter + I(Ausbildung^2) + I(Alter^2) + I(Ausbildung * Alter)) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) Ausbildung Alter I(Ausbildung^2) * I(Alter^2) I(Ausbildung * Alter) ** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 14 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 5 and 14 DF, p-value: Ökonometrie (SS 2014) Folie 300

7 4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Beispiel: Breusch-Pagan-Test/White-Test V Unter Verwendung des Bestimmtheitsmaßes dieser Hilfsregression ergibt sich χ 2 = n RH 2 = = > χ2 2;0.95 = 5.991, also wird auch hier zum Niveau α = 0.05 signifikante Heteroskedastie in den Störgrößen festgestellt. Schneller: mit dem Befehl bptest() im Paket lmtest: Original -Breusch-Pagan-Test (1. Beispiel): > bptest(lm(lohnhöhe~ausbildung+alter),studentize=false) Breusch-Pagan test data: lm(lohnhöhe ~ Ausbildung + Alter) BP = , df = 2, p-value = White - bzw. Koenker -Variante (2. Beispiel): > bptest(lm(lohnhöhe~ausbildung+alter), + ~Ausbildung+Alter+I(Ausbildung^2)+I(Alter^2)+I(Ausbildung*Alter)) studentized Breusch-Pagan test data: lm(lohnhöhe ~ Ausbildung + Alter) BP = , df = 5, p-value = Ökonometrie (SS 2014) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren 5.1 Inhaltsverzeichnis (Ausschnitt) 5 Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren Nichtlinearität in einer Variablen Modelle mit Interaktionen Ökonometrie (SS 2014) Folie 302

8 5 Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren 5.1 Nichtlinearität in den Regressoren I Eine Variable y hängt linear von einer Variablen x ab, wenn der Differenzenquotient bzw. die Ableitung bzgl. dieser Variablen konstant ist, wenn also y x = c bzw. y x = c für eine Konstante c R gilt. Im bisher betrachteten linearen Regressionsmodell y i = β 0 + β 1 x 1i β K x Ki + u i, i {1,..., n}, hängt y also linear von jedem Regressor x k (k {1,..., K}) ab, denn es gilt y x k = β k bzw. y x k = β k. Die hier als marginaler Effekt einer Änderung von x k auf y interpretierbare (partielle) Ableitung ist also kostant und damit insbesondere unabhängig von x k (sowie unabhängig von anderen Variablen). Ökonometrie (SS 2014) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren 5.1 Nichtlinearität in den Regressoren II Bereits im White-Test verwendet: Regressionsfunktion y = β 0 + β 1 x 1i + β 2 x 2i + β 3 x 2 1i + β 4 x 2 2i + β 5 x 1i x 2i, die zwar linear in den Regressionsparametern β 0,..., β 5, aber nichtlinear in den Regressoren x 1 und x 2 ist. Der marginale Effekt einer Änderung von x 1 auf y beträgt hier beispielsweise (abhängig vom Wert der Regressoren x 1 und x 2!) y x 1 = β 1 + 2β 3 x 1 + β 5 x 2. Allgemein betrachten wir nun Regressionsmodelle, die sich in der Form g(y i ) = β 0 +β 1 h 1 (x 1i,..., x Ki )+...+β M h M (x 1i,..., x Ki )+u i, i {1,..., n}, mit M Transformationen h 1,..., h M der K Regressoren und (ggf.) einer Transformation g der abhängigen Variablen darstellen lassen. Ökonometrie (SS 2014) Folie 304

9 5 Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren 5.1 Nichtlinearität in den Regressoren III Unter den üblichen Annahmen an die Störgrößen u i und unter der Voraussetzung, dass die Transformationen h 1,..., h M zu einer neuen Regressormatrix 1 h 1 (x 11,..., x K1 ) h M (x 11,..., x K1 ) 1 h 1 (x 12,..., x K2 ) h M (x 12,..., x K2 ) X :=... 1 h 1 (x 1n,..., x Kn ) h M (x 1n,..., x Kn ) mit vollem Spaltenrang M + 1 führen, bleiben die bisher besprochenen Eigenschaften der OLS-/KQ-Schätzung dieses Modells bestehen. Bezeichnet ỹ := (g(y 1 ),..., g(y n )) den transformierten (bzw. falls g(y) = y für alle y R gilt untransformierten) Vektor der abhängigen Variable, erhält man beispielsweise den KQ-Schätzer als β = ( X X) 1 X ỹ. Ökonometrie (SS 2014) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in den Regressoren 5.1 Nichtlinearität in den Regressoren IV Weitere Beispiele für Modelle mit Regressionsfunktionen, die nichtlinear in den (ursprünglichen) Regressoren x k sind: Wichtig! 1 y i = β 0 + β 1 x 1i + β 2 x 2 1i + u i, 2 y i = β 0 + β 1 x 1i + β 2 x 2 1i + β 3 x 3 1i + u i, 3 y i = β 0 + β 1 ln(x 1i ) + u i, 4 ln(y i ) = β 0 + β 1 x 1i + u i, 5 ln(y i ) = β 0 + β 1 ln(x 1i ) + β 2 ln(x 2i ) + u i. Unabhängig von der konkreten Form der Regressionsfunktion muss (wie auch bisher!) die Korrektheit der Spezifikation der Regressionsfunkion gewährleistet sein, um die Ergebnisse der Schätzung überhaupt sinnvoll verwerten zu können! Im Folgenden werden zunächst Regressionsfunktionen untersucht, die nur von einer unabhängigen Variablen x 1 abhängen (wie in den Beispielen 1 4 ). Ökonometrie (SS 2014) Folie 306

10 5 Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 Polynomiale Modelle I in nur einer Variablen x 1 Die Modelle aus 1 bzw. 2, y i = β 0 + β 1 x 1i + β 2 x 2 1i + u i bzw. y i = β 0 + β 1 x 1i + β 2 x 2 1i + β 3 x 3 1i + u i, sind Beispiele für polynomiale Modelle (in einer Variablen) der Form y i = β 0 + β 1 x 1i + β 2 x 2 1i β r x r 1i + u i zu vorgegebenem Grad r {2, 3,...} des Polynoms. In polynomialen Modellen (in einer Variablen) sind die marginalen Effekte einer Änderung von x 1 auf y gegeben durch y = β 1 + 2β 2 x rβ r x r 1 1 x 1 und damit insbesondere nicht konstant, sondern abhängig vom Regressor x 1. Ökonometrie (SS 2014) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 Polynomiale Modelle II in nur einer Variablen x 1 Konfidenzintervalle für die marginalen Effekte an einem vorgegebenen Wert x 1 des Regressors können dann als Konfidenzintervalle für Linearkombinationen a β bestimmt werden, wenn der Vektor a R r+1 (abhängig von x 1 ) entsprechend gewählt wird, im polynomialen Modell mit Polynomgrad r also als a = [ 0 1 2x 1... rx r 1 ] 1. Bei einer sehr großen Wahl von r besteht die Gefahr des Overfittings : Sind bei einer Punktwolke aus n Beobachtungen (x 1i, y i ) alle x i unterschiedlich, so kann die Punktwolke durch ein Polynom vom Grad r = n 1 perfekt interpoliert werden! In der Praxis finden sich häufig polynomiale Modelle mit r = 2 oder r = 3. Ökonometrie (SS 2014) Folie 308

11 5 Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 Polynomiale Modelle III in nur einer Variablen x 1 Gelegentlich wird unter der Annahme, dass die wahre Regressionsfunktion ein Polynom von unbekanntem Grad ist zunächst ein Modell mit großem r geschätzt und dann sukzessive mit Hilfe von t-tests überprüft, ob β r signifikant von Null verschieden ist, um ggf. den Grad r des Polynoms in der Regressionsfunktion um 1 zu reduzieren. Die Nullhypothese eines linearen Zusammenhangs gegen die Alternative eines polynomialen Zusammenhangs (mit Polynomgrad r 2) kann offensichtlich durch einen F -Test mit überprüft werden. H 0 : β 2 =... = β r = 0 Natürlich können Tests bzw. Konfidenzintervalle auch unter der Annahme heteroskedastischer Störgrößen durchgeführt werden, wenn die entsprechende heteroskedastie-konsistente Schätzung V hc ( β) der Varianz-Kovarianzmatrix V( β) und die dafür geeigneten Darstellungen der jeweiligen Tests verwendet werden. Ökonometrie (SS 2014) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 (Semi-)logarithmische Modelle I in nur einer Variablen x 1 Log-Transformationen von x 1i in ln(x 1i ) und/oder y i in ln(y i ) bieten sich dann an, wenn anstelle der Annahme eines konstanten Effekts y = β 1 x 1 von absoluten Änderungen x 1 auf absolute Änderungen y eher dann ein konstanter Effekt β 1 erwartet wird, wenn relative, prozentuale Änderungen bei der Ursache ( x 1 x 1 ) und/oder bei der abhängigen Variablen ( y y ) betrachtet werden. Grundlage dafür ist ln(x) x = 1 x bzw. ln(x + x) ln(x) = ln ( 1 + x ) x, wenn x x. x x Abhängig davon, ob nur die unabhängige Variable, nur die abhängige Variable oder beide Variablen transformiert werden, sind die folgenden Spezifikationen möglich: Ökonometrie (SS 2014) Folie 310

12 5 Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 (Semi-)logarithmische Modelle II in nur einer Variablen x 1 1 Linear-log-Spezifikation: y i = β 0 + β 1 ln(x 1i ) + u i. Konstanter Effekt β 1 der relativen Änderung von x 1 auf eine absolute Änderung von y, bzw. abnehmender marginaler Effekt bei steigendem x: y β 1 x 1 x 1 bzw. y x 1 = β 1 x 1 Bsp.: x 1i Düngemitteleinsatz, y i Ernteertrag (auf Feld i). Eine (relative) Erhöhung des Düngemitteleinsatzes um 1% erhöht den (absoluten) Ernteertrag (etwa) um 0.01 β 1. Eine (absolute) Erhöhung des Düngemitteleinsatzes um einen Betrag x1 hat dort mehr Wirkung, wo noch nicht so viel Dünger eingebracht wurde ( abnehmende Grenzerträge ). Ökonometrie (SS 2014) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 (Semi-)logarithmische Modelle III in nur einer Variablen x 1 2 Log-linear-Spezifikation: ln(y i ) = β 0 + β 1 x 1i + u i. Konstanter Effekt β 1 der absoluten Änderung von x 1 auf eine relative Änderung von y, bzw. steigender marginaler Effekt bei steigendem y: y y β 1 x 1 bzw. y x 1 = β 1 y Bsp.: x 1i Berufserfahrung von BWL-Absolventen (in Jahren), y i Einkommen. Ein Jahr zusätzliche Berufserfahrung erhöht danach das mittlere Einkommen um etwa 100β 1 %. Eine (absolute) Erhöhung der Berufserfahrung hat also einen höheren (absoluten) Effekt auf das Einkommen dort, wo das Einkommen ohnehin bereits ein höheres Niveau hatte. Ökonometrie (SS 2014) Folie 312

13 5 Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 (Semi-)logarithmische Modelle IV in nur einer Variablen x 1 3 Log-log-Spezifikation: ln(y i ) = β 0 + β 1 ln(x 1i ) + u i. Konstanter Effekt β 1 (=Elastizität) der relativen Änderung von x 1 auf eine relative Änderung von y: y y β 1 x 1 x 1 bzw. y x 1 x 1 y = β 1 Bsp.: x 1i Kapitaleinsatz pro Arbeitskraft, y i Output pro Arbeitskraft. Erhöhung des per-capita-kapitaleinsatzes um 1% führt zur Erhöhung des per-capita-output um β 1 % (Cobb-Douglas-Produktionsfunktion). Modellierung von konstanten Skalenerträgen. Ökonometrie (SS 2014) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 (Semi-)logarithmische Modelle V in nur einer Variablen x 1 Anmerkungen zu Log-transformierten abhängigen Variablen (ln(y)) Insbesondere Log-log-Spezifikationen können bei der sog. Linearisierung von Regressionsmodellen entstehen, die zunächst nichtlinear (auch!) in den Regressionsparametern sind, zum Beispiel erhält man aus dem Modell (hier: mit mehreren Regressoren) y i = β 0 x β 1 1i x β 2 2i e u i, i {1,..., n}, durch Logarithmieren auf beiden Seiten mit ln(y i ) = β 0 + β 1 ln(x 1i ) + β 2 ln(x 2i ) + u i, i {1,..., n}. ein linearisiertes Modell. Ökonometrie (SS 2014) Folie 314

14 5 Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 (Semi-)logarithmische Modelle VI in nur einer Variablen x 1 Bei der Prognose von y 0 gegeben x 0 bzw. der Bestimmung von ŷ i auf Basis von Modellen mit log-tranformierter abhängiger Variablen ln(y) ist zu beachten, dass wegen E (e u i ) e E(u i ) trotz der Annahme E(u i ) 0 im Allgemeinen E (e u i ) 1 = e 0 gilt. Für u i iid N(0, σ 2 ) gilt insbesondere E (e u i ) = e σ2 iid 2, damit erhält man für ln(y i ) = h(x 1i ) + u i mit u i N(0, σ 2 ) ( ) ) ( ) E(y i ) = E e ln(y i ) = E (e h(x 1i )+u i = E e h(x 1i ) e u i = e h(x 1i ) E (e u i ) = e h(x 1i ) e σ2 2 > e h(x 1i ). Wenn die abhängige Variable y in ln(y) transformiert wird, kann man das Bestimmtheitsmaß für die geschätzte Regression nicht sinnvoll mit dem Bestimmtheitsmaß einer Regressionsgleichung für y vergleichen! (Anteil der erklärten Varianz der ln(y i ) vs. Anteil der erklärten Varianz der y i ) Ökonometrie (SS 2014) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 Beispiel zur Nichtlinearität in einer Variablen I Im Folgenden soll am Beispiel der Abhängigkeit der Milchleistung von Kühen von der zugeführten Futtermenge die Schätzung einiger in den Regressoren nichtlinearer Modelle illustriert werden. Es liege hierzu folgender Datensatz vom Umfang n = 12 zu Grunde: i Milchleistung (Liter/Jahr) y i Futtermenge (Zentner/Jahr) x 1i i Milchleistung (Liter/Jahr) y i Futtermenge (Zentner/Jahr) x 1i (vgl. von Auer, Ludwig: Ökonometrie Eine Einführung, 6. Aufl., Tabelle 14.1) Es wird nacheinander die Gültigkeit einer linearen, quadratischen, kubischen, linear-log-, log-linear- bzw. log-log-spezifikation unterstellt und das zugehörige Modell geschätzt (unter Homoskedastieannahme). Ökonometrie (SS 2014) Folie 316

15 5 Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 Beispiel zur Nichtlinearität in einer Variablen II Lineares Modell: Milch i = β 1 + Futter i + u i Call: lm(formula = Milch ~ Futter) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-08 *** Futter e-05 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 10 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 10 DF, p-value: 1.597e-05 Ökonometrie (SS 2014) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 Beispiel zur Nichtlinearität in einer Variablen III Quadratisches Modell: Milch i = β 1 + Futter i + Futter 2 i + u i Call: lm(formula = Milch ~ Futter + I(Futter^2)) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-07 *** Futter e-05 *** I(Futter^2) ** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 9 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 2 and 9 DF, p-value: 1.452e-06 Ökonometrie (SS 2014) Folie 318

16 5 Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 Beispiel zur Nichtlinearität in einer Variablen IV Kubisches Modell: Milch i = β 1 + Futter i + Futter 2 i + Futter 3 i + u i Call: lm(formula = Milch ~ Futter + I(Futter^2) + I(Futter^3)) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-06 *** Futter * I(Futter^2) I(Futter^3) Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 8 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 3 and 8 DF, p-value: 1.29e-05 Ökonometrie (SS 2014) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 Beispiel zur Nichtlinearität in einer Variablen V Linear-log-Modell: Milch i = β 1 + ln(futter i ) + u i Call: lm(formula = Milch ~ log(futter)) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-07 *** log(futter) e-06 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 10 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 10 DF, p-value: 1.996e-06 Ökonometrie (SS 2014) Folie 320

17 5 Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 Beispiel zur Nichtlinearität in einer Variablen VI Log-linear-Modell: ln(milch i ) = β 1 + Futter i + u i Call: lm(formula = log(milch) ~ Futter) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** Futter e-05 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 10 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 10 DF, p-value: 5.098e-05 Ökonometrie (SS 2014) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 Beispiel zur Nichtlinearität in einer Variablen VII Log-log-Modell: ln(milch i ) = β 1 + ln(futter i ) + u i Call: lm(formula = log(milch) ~ log(futter)) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** log(futter) e-07 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 10 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 10 DF, p-value: 1.912e-07 Ökonometrie (SS 2014) Folie 322

18 5 Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 Geschätzte Regressions-/Prognosefunktionen I Lineares Modell Quadratisches Modell Milch Milch Futter Futter Kubisches Modell Linear log Modell Milch Milch Futter log(futter) Log linear Modell Log log Modell log(milch) log(milch) Futter log(futter) Ökonometrie (SS 2014) Folie Nichtlineare Regressionsfunktionen Nichtlinearität in einer Variablen 5.2 Geschätzte Regressions-/Prognosefunktionen II Vergleich der Prognosefunktionen Milch Linear Quadratisch Kubisch Linear log Log linear Log log Futter Ökonometrie (SS 2014) Folie 324

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Prognoseintervalle für y 0 gegeben x 0

Prognoseintervalle für y 0 gegeben x 0 10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

1 Interaktion von zwei Dummyvariablen. 2 Interaktion einer Dummyvariablen mit einer kardinalskalierten Variablen

1 Interaktion von zwei Dummyvariablen. 2 Interaktion einer Dummyvariablen mit einer kardinalskalierten Variablen Modelle mit Interationsvariablen I Modelle mit Interationsvariablen II In der beim White-Test verwendeten Regressionsfuntion y = β 0 + β 1 x 1 + β 2 x 2 + β 3 x 2 1 + β 4 x 2 2 + β 5 x 1 x 2, ist anders

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS)

Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Es soll untersucht werden, ob und wie sich Rauchen während der Schwangerschaft auf den Gesundheitszustand des Neugeborenen auswirkt. Hierzu werden

Mehr

2.3 Nichtlineare Regressionsfunktion

2.3 Nichtlineare Regressionsfunktion Nichtlineare Regressionsfunktion Bisher: lineares Regressionsmodell o Steigung d. Regressionsgerade ist konstant o Effekt einer Änderung von X auf Y hängt nicht vom Niveau von X oder von anderen Regressoren

Mehr

Auswertung und Lösung

Auswertung und Lösung Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden

Mehr

Lineare Modelle in R: Klassische lineare Regression

Lineare Modelle in R: Klassische lineare Regression Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Lineare Regression in R, Teil 1

Lineare Regression in R, Teil 1 Lineare Regression in R, Teil 1 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel October 6, 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools aus

Mehr

X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?

X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode? Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Empirische Wirtschaftsforschung in R

Empirische Wirtschaftsforschung in R Empirische Wirtschaftsforschung in R Schätzung der keynesianischen Geldnachfragefunktion auf Basis von Daten der dänischen Volkswirtschaft Jonas Richter-Dumke Universität Rostock, Institut für Volkswirtschaftslehre

Mehr

Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS)

Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Vorbereitungen Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Falls das R - Paket car noch nicht installiert wurde, kann dies mit der Funktion install.packages() erledigt werden. install.packages("car")

Mehr

1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:

1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Beispiele zum Üben und Wiederholen zu Wirtschaftsstatistik 2 (Kurs 3) 1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Haushaltseinkommen 12 24 30 40 80 60

Mehr

1. Lösungen zu Kapitel 7

1. Lösungen zu Kapitel 7 1. Lösungen zu Kapitel 7 Übungsaufgabe 7.1 Um zu testen ob die Störterme ε i eine konstante Varianz haben, sprich die Homogenitätsannahme erfüllt ist, sind der Breusch-Pagan-Test und der White- Test zwei

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

1 Beispiel zur Methode der kleinsten Quadrate

1 Beispiel zur Methode der kleinsten Quadrate 1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25

Mehr

Eine Einführung in R: Varianzanalyse

Eine Einführung in R: Varianzanalyse Eine Einführung in R: Varianzanalyse Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2011 Bernd Klaus, Verena Zuber Das

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004

Mehr

Fragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression

Fragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression Fragen Welche Unsicherheitsfaktoren beeinflussen die Schätzung einer Regressionsgeraden? Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München

Mehr

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

4. Das multiple lineare Regressionsmodell

4. Das multiple lineare Regressionsmodell 4. Das multiple lineare Regressionsmodell Bisher: 1 endogene Variable y wurde zurückgeführt auf 1 exogene Variable x (einfaches lineares Regressionsmodell) Jetzt: Endogenes y wird regressiert auf mehrere

Mehr

Empirische Analysen mit dem SOEP

Empirische Analysen mit dem SOEP Empirische Analysen mit dem SOEP Methodisches Lineare Regressionsanalyse & Logit/Probit Modelle Kurs im Wintersemester 2007/08 Dipl.-Volksw. Paul Böhm Dipl.-Volksw. Dominik Hanglberger Dipl.-Volksw. Rafael

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie

Mehr

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen. Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf

Mehr

1 Gliederung Zeitreihenökonometrie. Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09. Dr. Sylvia Kaufmann.

1 Gliederung Zeitreihenökonometrie. Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09. Dr. Sylvia Kaufmann. Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09 Dr Sylvia Kaufmann Februar 2009 Angewandte Ökonometrie, Sylvia Kaufmann, FS09 1 1 Gliederung Zeitreihenökonometrie Einführung

Mehr

Analyse von Querschnittsdaten. Heteroskedastizität

Analyse von Querschnittsdaten. Heteroskedastizität Analyse von Querschnittsdaten Heteroskedastizität Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004 03.11.2004

Mehr

Tutorial: Regression Output von R

Tutorial: Regression Output von R Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen

Mehr

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden

Mehr

Empirische Wirtschaftsforschung

Empirische Wirtschaftsforschung Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 6.. Herleitung des OLS-Schätzers

Mehr

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl

Mehr

Lineare Regression mit einem Regressor: Einführung

Lineare Regression mit einem Regressor: Einführung Lineare Regression mit einem Regressor: Einführung Quantifizierung des linearen Zusammenhangs von zwei Variablen Beispiel Zusammenhang Klassengröße und Testergebnis o Wie verändern sich Testergebnisse,

Mehr

Mehrfache und polynomiale Regression

Mehrfache und polynomiale Regression Mehrfache und polynomiale Regression Kriteria für die Durchführung einer Regression Jonathan Harrington Bitte datasets.zip (unter 5.5, Tabellarische Daten) neu herunterladen und in pfad auspacken Einfache

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

Einführung in die formale Demographie Übung

Einführung in die formale Demographie Übung Einführung in die formale Demographie Übung Roland Rau mailto:roland.rau@uni-rostock.de 03. November 2014 Inhaltsverzeichnis 1 Aufgaben vom 27. Oktober 2014 2 1.1 Schreiben von Funktionen............................

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall

Mehr

Annahmen des linearen Modells

Annahmen des linearen Modells Annahmen des linearen Modells Annahmen des linearen Modells zusammengefasst A1: Linearer Zusammenhang: y = 0 + 1x 1 + 2x 2 + + kx k A2: Zufallsstichprobe, keine Korrelation zwischen Beobachtungen A3: Erwartungswert

Mehr

3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m)

3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m) 3.1. MODELL UND STATISTIK 32 3 Multiple lineare Regression a 3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m) Y i = β 0 + β 1 x (1)

Mehr

Kurs Empirische Wirtschaftsforschung

Kurs Empirische Wirtschaftsforschung Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische

Mehr

Lehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. Regina T. Riphahn, Ph.D. Diplomvorprüfung Statistik II Einf. Ökonometrie im WS 06/07

Lehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. Regina T. Riphahn, Ph.D. Diplomvorprüfung Statistik II Einf. Ökonometrie im WS 06/07 Aufgabe 1: [21 Punkte] Ein Forschungsinstitut hat den Auftrag bekommen, die individuellen monatlichen Ausgaben für Bioprodukte zu erklären. Es wird eine Kleinstquadrate Regression der Höhe der Ausgaben

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 22 Übersicht Weitere Hypothesentests in der Statistik 1-Stichproben-Mittelwert-Tests 1-Stichproben-Varianz-Tests 2-Stichproben-Tests Kolmogorov-Smirnov-Test

Mehr

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers 4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis

Mehr

3. Das einfache lineare Regressionsmodell

3. Das einfache lineare Regressionsmodell 3. Das einfache lineare Regressionsmodell Ökonometrie: (I) Anwendung statistischer Methoden in der empirischen Forschung in den Wirtschaftswissenschaften Konfrontation ökonomischer Theorien mit Fakten

Mehr

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg Übungsklausur Lineare le Prof. Dr. H. Toutenburg Aufgabe Ein lineares Regressionsmodell mit der abhängigen Variablen Körpergröße und der unabhängigen Variablen Geschlecht wurde einmal mit der dummykodierten

Mehr

Lehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. Regina T. Riphahn, Ph.D. Diplomvorprüfung Statistik II Einf. Ökonometrie im SS 2007

Lehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. Regina T. Riphahn, Ph.D. Diplomvorprüfung Statistik II Einf. Ökonometrie im SS 2007 Lehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. Regina T. Riphahn, Ph.D. Diplomvorprüfung Statistik II Einf. Ökonometrie im SS 2007 Aufgabe 1: (23 Punkte) Ihnen liegt ein Datensatz über Angestellte

Mehr

Nachschreibklausur im Anschluss an das SS 2009

Nachschreibklausur im Anschluss an das SS 2009 Nachschreibklausur im Anschluss an das SS 2009 08. Oktober 2009 Lehrstuhl: Prüfungsfach: Prüfer: Hilfsmittel: Klausurdauer: Wirtschaftspolitik Empirische Wirtschaftsforschung Prof. Dr. K. Kraft Nicht-programmierbarer

Mehr

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 40 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 2 Ökonometrie I Michael Hauser 2 / 40 Inhalt ANOVA, analysis of variance korrigiertes R 2, R 2 F-Test F-Test bei linearen Restriktionen Erwartungstreue,

Mehr

Regression und Korrelation

Regression und Korrelation Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen

Mehr

Die Funktion f wird als Regressionsfunktion bezeichnet.

Die Funktion f wird als Regressionsfunktion bezeichnet. Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht

Mehr

ANalysis Of VAriance (ANOVA) 2/2

ANalysis Of VAriance (ANOVA) 2/2 ANalysis Of VAriance (ANOVA) 2/2 Markus Kalisch 22.10.2014 1 Wdh: ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor X). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich

Mehr

8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme)

8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) 8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) Annahme B4: Die Störgrößen u i sind normalverteilt, d.h. u i N(0, σ 2 ) Beispiel: [I] Neoklassisches Solow-Wachstumsmodell Annahme einer

Mehr

Züchtungslehre - Lösung 3

Züchtungslehre - Lösung 3 Züchtungslehre - Lösung 3 Peter von Rohr October 20, 2015 Aufgabe 1 (8) Der in dieser Aufgabe verwendete Datensatz unter http://charlotte-ngs.github.io/livestockbreedingandgenomics/w5/simgenphen.csv umfasst

Mehr

6.4 Kointegration Definition

6.4 Kointegration Definition 6.4 Kointegration 6.4.1 Definition Nach Engle und Granger (1987): Wenn zwei oder mehrere Variablen I(1) sind, eine Linearkombination davon jedoch I() ist, dann sind die Variablen kointegriert. Allgemein:

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

Schriftliche Prüfung (90 Minuten)

Schriftliche Prüfung (90 Minuten) Dr. M. Kalisch Probeprüfung Statistik 1 Sommer 2014 Schriftliche Prüfung (90 Minuten) Bemerkungen: Alle schriftlichen Hilfsmittel und ein Taschenrechner sind erlaubt. Mobiltelefone sind auszuschalten!

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Dynamische Modelle: Schätzen und Modellwahl

Dynamische Modelle: Schätzen und Modellwahl 1 / 23 Dynamische Modelle: Schätzen und Modellwahl Kapitel 18 Angewandte Ökonometrie / Ökonometrie III Michael Hauser 2 / 23 Inhalt Dynamische Modelle und autokorrelierte Fehler Tests auf Autokorrelation

Mehr

Lösung - Übungsblatt 10

Lösung - Übungsblatt 10 Lösung - Übungsblatt 10 Aufgabe 2: Siehe Outputfile Aufgabe 2 a) Regressionsgleichung - Equation 1: price = β 1 + β 2 lotsize + β 3 sqrft + β 4 bdrms + u i Fit: price = β 1 + β 2 lotsize + β 3 sqrft +

Mehr

Vorlesung: Lineare Modelle. Verschiedene Typen von Residuen. Probleme bei der Regression und Diagnose. Prof. Dr. Helmut Küchenhoff.

Vorlesung: Lineare Modelle. Verschiedene Typen von Residuen. Probleme bei der Regression und Diagnose. Prof. Dr. Helmut Küchenhoff. Vorlesung: Lineare Modelle Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München SoSe 205 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen.

Mehr

Die Regressionsanalyse

Die Regressionsanalyse Die Regressionsanalyse Zielsetzung: Untersuchung und Quantifizierung funktionaler Abhängigkeiten zwischen metrisch skalierten Variablen eine unabhängige Variable Einfachregression mehr als eine unabhängige

Mehr

10. Übung (Korrelation und lineare Regressionsanalyse)

10. Übung (Korrelation und lineare Regressionsanalyse) 10. Übung (Korrelation und lineare Regressionsanalyse) Es wird untersucht, ob ein linearer Zusammenhang zwischen zwei Variablen besteht. Mit anderen Worten: ob ein solcher Zusammenhang gibt, wenn der beobachteter

Mehr

Forschungsstatistik I

Forschungsstatistik I Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R. 06-206 (Persike) R. 06-321 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Ausgangsdaten Bundesliga 2008/2009 Gegeben: Daten zu den 18 Vereinen der ersten Bundesliga

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:

Mehr

Test von Hypothesen: Signifikanz des Zusammenhangs (F-Test)

Test von Hypothesen: Signifikanz des Zusammenhangs (F-Test) Test von Hyothesen: Signifikanz des Zusammenhangs (F-Test) Die Schätzung der Regressionsfunktion basiert auf Daten einer Stichrobe Inwiefern können die Ergebnisse dieser Schätzung auf die Grundgesamtheit

Mehr

Elementare Regressionsrechnung

Elementare Regressionsrechnung Elementare Regressionsrechnung Motivation: Streudiagramm zweier metrisch skalierter Merkmale X und Y Y X Dr. Karsten Webel 107 Ziel: Erfassung des Zusammenhangs zwischen X und Y durch eine Gerade der Form

Mehr

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für

Mehr

Lineare Regression (Ein bisschen) Theorie

Lineare Regression (Ein bisschen) Theorie Kap. 6: Lineare Regression (Ein bisschen) Theorie Lineare Regression in Matrixform Verteilung des KQ-Schätzers Standardfehler für OLS Der Satz von Gauss-Markov Das allgemeine lineare Regressionsmodell

Mehr

Regression mit Faktoren, Interaktionen und transformierten Variablen

Regression mit Faktoren, Interaktionen und transformierten Variablen Kap. 5: Regression mit Faktoren, Interaktionen und transformierten Variablen Motivation Regressionen mit transformierten Variablen Ausblick: Nichtlineare Regression Mehr zu Regressionen mit qualitativen

Mehr

1 Einführung Ökonometrie... 1

1 Einführung Ökonometrie... 1 Inhalt 1 Einführung... 1 1.1 Ökonometrie... 1 2 Vorüberlegungen und Grundbegriffe... 7 2.1 Statistik als Grundlage der Empirischen Ökonomie... 7 2.2 Abgrenzung und Parallelen zu den Naturwissenschaften...

Mehr

Bachelorprüfung: Mathematik 4 - Statistik (2 Stunden)

Bachelorprüfung: Mathematik 4 - Statistik (2 Stunden) Prof. P. Bühlmann D-UWIS, D-ERDW, D-AGRL Frühling 2007 Bachelorprüfung: Mathematik 4 - Statistik (2 Stunden) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt.

Mehr

Klausur zu Statistik II

Klausur zu Statistik II GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel

Mehr

Das Lineare Regressionsmodell

Das Lineare Regressionsmodell Das Lineare Regressionsmodell Bivariates Regressionsmodell Verbrauch eines Pkw hängt vom Gewicht des Fahrzeugs ab Hypothese / Theorie: Je schwerer ein Auto, desto mehr wird es verbrauchen Annahme eines

Mehr

Methoden der Ökonometrie

Methoden der Ökonometrie Dr. Matthias Opnger Lehrstuhl für Finanzwissenschaft WS 2013/14 Dr. Matthias Opnger Methoden d. Ökonometrie WS 2013/14 1 / 21 Dr. Matthias Opnger Büro: C 504 Sprechzeit: nach Vereinbarung E-Mail: opnger@uni-trier.de

Mehr

Lineare Regression Blockpraktikum zur Statistik mit R 28. März 2012 Sören Gröttrup Institut für Mathematische Statistik Universität Münster SS 2012

Lineare Regression Blockpraktikum zur Statistik mit R 28. März 2012 Sören Gröttrup Institut für Mathematische Statistik Universität Münster SS 2012 Lineare Regression Blockpraktikum zur Statistik mit R 28. März 2012 Sören Gröttrup Institut für Mathematische Statistik Universität Münster SS 2012 Beispiel: Ausgangsfrage Ziel: Wie wirkt sich die eingesetzte

Mehr

6.2 Lineare Regression

6.2 Lineare Regression 6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )

Mehr

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004 Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004 Aufgabe 1 U t bedeute weißes Rauschen und B den Backshift

Mehr

Die Familie der χ 2 (n)-verteilungen

Die Familie der χ 2 (n)-verteilungen Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +

Mehr

Statistik II. Regressionsanalyse. Statistik II

Statistik II. Regressionsanalyse. Statistik II Statistik II Regressionsanalyse Statistik II - 23.06.2006 1 Einfachregression Annahmen an die Störterme : 1. sind unabhängige Realisationen der Zufallsvariable, d.h. i.i.d. (unabh.-identisch verteilt)

Mehr

Vorbereitung auf 3. Übungsblatt (Präsenzübungen) - Lösungen

Vorbereitung auf 3. Übungsblatt (Präsenzübungen) - Lösungen Prof Dr Rainer Dahlhaus Statistik 1 Wintersemester 2016/2017 Vorbereitung auf Übungsblatt (Präsenzübungen) - Lösungen Aufgabe P9 (Prognosen und Konfidenzellipsoide in der linearen Regression) Wir rekapitulieren

Mehr

John Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer

John Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer John Komlos Bernd Süssmuth Empirische Ökonomie Eine Einführung in Methoden und Anwendungen 4y Springer 1 Einführung 1 1.1 Ökonometrie 1 2 Vorüberlegungen und Grundbegriffe 7 2.1 Statistik als Grundlage

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

Regressionsanalyse in R

Regressionsanalyse in R Regressionsanalyse in R Session 6 1 Einfache Regression Lineare Regression ist eines der nützlichsten Werkzeuge in der Statistik. Regressionsanalyse erlaubt es Zusammenhänge zwischen Parametern zu schätzen

Mehr

Lehrstuhl für Statistik und empirische Wirtschaftsforschung, Prof. Regina T. Riphahn, Ph.D. Diplomprüfung in Ökonometrie im SS 09

Lehrstuhl für Statistik und empirische Wirtschaftsforschung, Prof. Regina T. Riphahn, Ph.D. Diplomprüfung in Ökonometrie im SS 09 Lehrstuhl für Statistik und empirische irtschaftsforschung, Prof. Regina T. Riphahn, Ph.D. Diplomprüfung in Ökonometrie im SS 09 Aufgabe 1: [17 Punkte] Sie interessieren sich für den Zusammenhang zwischen

Mehr

Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen.

Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen. Kapitel 3 Schließende lineare Regression 3.1. Einführung induktiv Fragestellungen Modell Statistisch bewerten, der vorher beschriebenen Zusammenhänge auf der Basis vorliegender Daten, ob die ermittelte

Mehr

Statistik II für Betriebswirte Vorlesung 12

Statistik II für Betriebswirte Vorlesung 12 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 12 11. Januar 2013 7.3. Multiple parameterlineare Regression Im Folgenden soll die

Mehr

Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:

Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Aufgabe 1 (8=2+2+2+2 Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Die Zufallsvariable X bezeichne die Note. 1443533523253. a) Wie groß ist h(x 5)? Kreuzen

Mehr

Statistisches Testen

Statistisches Testen Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Logistische Regression

Logistische Regression Logistische Regression Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Logistische Regression Beispiel 1: Herzerkrankungsdaten aus Framingham Log Odds Modell Beispiel 1: Einfluss von Blutdruck Maximum

Mehr

Statistische Eigenschaften der OLS-Schätzer, Residuen,

Statistische Eigenschaften der OLS-Schätzer, Residuen, Statistische Eigenschaften der OLS-Schätzer, Residuen, Bestimmtheitsmaß Stichwörter: Interpretation des OLS-Schätzers Momente des OLS-Schätzers Gauss-Markov Theorem Residuen Schätzung von σ 2 Bestimmtheitsmaß

Mehr

Simultane Mehrgleichungssysteme: Parameterschätzung

Simultane Mehrgleichungssysteme: Parameterschätzung Simultane Mehrgleichungssysteme: Parameterschätzung Stichwörter: Eigenschaften des OLS-Schätzers Hilfsvariablenschätzer 2SLS limited information Methoden 3SLS FIML full information Methoden o1-21.tex/0

Mehr