4. Das multiple lineare Regressionsmodell
|
|
|
- Günther Bauer
- vor 9 Jahren
- Abrufe
Transkript
1 4. Das multiple lineare Regressionsmodell Bisher: 1 endogene Variable y wurde zurückgeführt auf 1 exogene Variable x (einfaches lineares Regressionsmodell) Jetzt: Endogenes y wird regressiert auf mehrere exogene Variablen x 1,..., x K (multiples lineares Regressionsmodell) Es zeigt sich: Viele Ergebnisse und Intuitionen der einfachen Regression übertragen sich auf das multiple Modell 130
2 Wichtige Hilfsmittel: Matrixalgebra Erwartungswertvektor Kovarianzmatrix multivariate Normalverteilung 131
3 Inhaltlicher Aufbau: Modellspezifikation (A-, B-, C-Annahmen) Punktschätzung (KQ-, ML-Schätzung, Bestimmtheitsmaß) Hypothesentests (t-test, F -Test) Prognose 132
4 4.1 Spezifikation Beispiel: (I) Schätzung einer Produktionsfunktion für Gerste Exogene Variablen (Düngemitteleinsätze): Phosphat p (in kg/ha) Stickstoff n (in kg/ha) Endogene Variable (Output): Gerste g (in 100kg/ha) 133
5 Beispiel: (II) Stichprobenumfang: 30 Beobachtungen (Parzellen) Ökonomisches Modell: g = f(p, n) (grundlegender Wirkungszusammenhang) Nächster Schritt: Funktionale Spezifikation 134
6 Erhobener Datensatz i p i n i g i i p i n i g i
7 1. Funktionale Form (A-Annahmen) Spezifikation in 3 Schritten: 1. Schritt: (I) Möglicher Wirkungszusammenhang: g = α + β 1 p + β 2 n (α, β 1, β 2 unbekannte Parameter) Nachteil: keine abnehmenden Grenzerträge 136
8 1. Schritt: (II) Realistischer: g = Ap β 1n β 2 mit Parametern A, β 1, β 2 (Cobb-Douglas-Produktionsfunktion) Nachteil: Zusammenhang ist nicht linear Ausweg: Logarithmieren Definiere ln(g) = ln(a) + β 1 ln(p) + β 2 ln(n) y ln(g), x 1 ln(p), x 2 ln(n), α ln(a) Lineares Modell y = α + β 1 x 1 + β 2 x 2 137
9 Logarithmierter Datensatz i x 1i x 2i y i i x 1i x 2i y i [ln(p i )] [ln(n i )] [ln(g i )] [ln(p i )] [ln(n i )] [ln(g i )]
10 2. und 3. Schritt: Das ökonometrische Modell lautet für i = 1,..., 30: y i = α + β 1 x 1i + β 2 x 2i + u i Jetzt: Allgemeine Formulierung des multiplen linearen Regressionsmodells mit K exogenen Variablen y i = α + β 1 x 1i + β 2 x 2i β K x Ki + u i für i = 1,..., N, bzw. ausgeschrieben y 1 = α + β 1 x 11 + β 2 x β K x K1 + u 1 y 2 =. α + β 1 x 12 + β 2 x β K x K2 + u 2 y N = α + β 1 x 1N + β 2 x 2N β K x KN + u N 139
11 Bemerkungen: Die (K + 1) Parameter α, β 1,..., β K heißen Regressionsparameter oder Regressionskoeffizienten Die Zufallsvariable u i ist eine Störgröße Jetzt: Formulierung der klassischen A-, B-, C-Annahmen für das multiple Regressionsmodell 140
12 1. Funktionale Form (A-Annahmen) Annahme A1: Im multiplen Regressionsmodell (Folie 139) fehlen keine relevanten exogenen Variablen und die benutzten exogenen Variablen x 1, x 2,..., x K sind nicht irrelevant Annahme A2: Der wahre Zusammenhang zwischen x 1i, x 2i,..., x Ki und y i ist linear Annahme A3: Die Parameter α, β 1,..., β K sind für alle N Beobachtungen (x 1i, x 2i,..., x Ki, y i ) konstant 141
13 Bemerkung: Die Annahmen A1 bis A3 postulieren, dass das ökonometrische Modell funktional nicht fehlspezifiziert ist 2. Störgrößenspezifikation (B-Annahmen) (I): Annahme B1: Die Störgröße u i hat für alle Beobachtungen i = 1,..., N einen Erwartungswert von Null, d.h. für i = 1,..., N E(u i ) = 0 142
14 2. Störgrößenspezifikation (B-Annahmen) (II): Annahme B2: (Homoskedastie) Die Störgröße u i hat für alle Beobachtungen i = 1,..., N eine konstante Varianz, d.h. für i = 1,..., N gilt V ar(u i ) = σ 2 Annahme B3: (Keine Autokorrelation) Die Störgröße u i ist nicht autokorreliert, d.h. für alle i = 1,..., N und j = 1,..., N mit i = j gilt Cov(u i, u j ) = 0 Annahme B4: Die Störgrößen u i sind normalverteilt, d.h. u i N(0, σ 2 ) 143
15 Bemerkung: B1 bis B4 besagen, dass die N Störgrößen u 1,..., u N die gleiche Wahrscheinlichkeitsverteilung besitzen (nämlich u i N(0, σ 2 )) und alle unabhängig voneinander sind 144
16 3. Variablenspezifikation (C-Annahmen) Annahme C1: Die exogenen Variablen x 1i,..., x Ki sind keine Zufallsvariablen, sondern können wie in einem Experiment kontrolliert werden Annahme C2: (Freiheit von perfekter Multikollinearität) Es existieren keine Parameterwerte γ 0, γ 1,..., γ K (wobei mindestens ein γ k = 0), so dass zwischen den exogenen Variablen x 1i,..., x Ki die lineare Beziehung für alle i = 1, 2,..., N gilt γ 0 + γ 1 x 1i γ K x Ki = 0 145
17 Bemerkung: (Perfekte Multikollinearität) Betrachte Zweifachregression y i = α + β 1 x 1i + β 2 x 2i + u i Wenn C2 verletzt ist, gibt es γ 0, γ 1, γ 2 mit und damit γ 0 + γ 1 x 1i + γ 2 x 2i = 0 x 2i = (γ 0 /γ 2 ) γ }{{} 1 /γ }{{ 2 } δ 0 δ 1 x 1i Es liegt keine Zweifachregression vor, denn y i = (α + β 2 δ 0 ) + (β 1 + β 2 δ 1 )x 1i + u i 146
18 Jetzt: Formulierung des multiplen linearen Regressionsmodells von Folie 139 in Matrixschreibweise Setze dazu: y = y 1 y 2. y N 1 x 11 x K1, X = 1 x 12 x K x 1N x KN, β = α β 1. β K, u = u 1 u 2. u N Matrixschreibweise: y = Xβ + u 147
19 Ausgeschrieben: y 1 y 2. y N = 1 x 11 x K1 1 x 12 x K x 1N x KN α β 1. β K + u 1 u 2. u N Jetzt: Formulierung der A-, B-, C-Annahmen in Matrixdarstellung 148
20 1. Funktionale Form (A-Annahmen) Annahme A1: Im multiplen Regressionsmodell fehlen keine relevanten exogenen Variablen und die benutzten exogenen Variablen (Spalten der X-Matrix) sind nicht irrelevant Annahme A2: Der wahre Zusammenhang zwischen X und y ist linear Annahme A3: Der Parametervektor β ist für alle N Beobachtungen (x i, y i ) konstant 149
21 2. Störgrößenspezifikation (B-Annahmen) (I) Annahme B1: E(u) = 0 N 1 Zwischenbemerkungen: (I) Betrachte die (N N)-Matrix uu mit Erwartungswert E(uu ) = E = u 1 u 1 u 1 u 2 u 1 u N u 2 u 1 u 2 u 2 u 2 u N... u N u 1 u N u 2 u N u N E(u 2 1 ) E(u 1u 2 ) E(u 1 u N ) E(u 2 u 1 ) E(u 2 2 ) E(u 2u N )... E(u N u 1 ) E(u N u 2 ) E(u 2 N ) 150
22 Zwischenbemerkungen: (II) Wegen B1 gilt E(u i ) = 0 bzw. E(u j ) = 0 und damit { E{[ui E(u E(u i u j ) = i )][u j E(u j )]} = Cov(u i, u j ), für i j E{[u i E(u i )][u i E(u i )]} = V ar(u i ), für i = j Hieraus folgt E(uu ) = V ar(u 1 ) Cov(u 1, u 2 ) Cov(u 1, u N ) Cov(u 2, u 1 ) V ar(u 2 ) Cov(u 2, u N )... Cov(u N, u 1 ) Cov(u N, u 2 ) V ar(u N ) = Cov(u) 151
23 Definition 4.1: (Varianz-Kovarianz-Matrix) Die Matrix E(uu ) = Cov(u), die sowohl die Varianzen sämtlicher Störgrößen als auch alle Kovarianzen zwischen den Störgrößen enthält, wird als Varianz-Kovarianz-Matrix des multiplen Regressionsmodells bezeichnet. Zwischenbemerkungen: (III) Gilt nun V ar(u i ) = σ 2 für alle i = 1,..., N (Annahme B2, vgl. Folie 143) sowie Cov(u i, u j ) = 0 für alle i = 1,..., N und j = 1,..., N mit i = j (Annahme B3, vgl. Folie 143), so folgt für die Varianz-Kovarianz-Matrix σ Cov(u) = 0 σ σ 2 = σ = σ2 I N 152
24 2. Störgrößenspezifikation (B-Annahmen) (II) Annahmen B2 und B3: Cov(u) = σ 2 I N Annahme B4: Der Störgrößenvektor u ist multivariat normalverteilt mit u N(0 N 1, σ 2 I N ) 153
25 3. Variablenspezifikation (C-Annahmen) (I) Annahme C1: Keines der Elemente der (N [K + 1])-Matrix X ist eine Zufallsvariable Zwischenbemerkungen: (I) Die X-Matrix lässt sich wie folgt zerlegen: X = [x 0 x 1 x K ] mit x , x 1 x 11 x 12. x 1N,, x K x K1 x K2. x KN 154
26 Zwischenbemerkungen: (II) Die Spaltenvektoren x 1,..., x K repräsentieren jeweils die N Beobachtungen der K exogenen Variablen Gilt rang(x) = K + 1, so sind die Spaltenvektoren x 0, x 1,..., x K linear unabhängig (vgl. Definitionen 2.7, 2.8 auf den Folien 32, 33) 3. Variablenspezifikation (C-Annahmen) (II) Annahme C2: (Freiheit von perfekter Multikollinearität) rang(x) = K
27 4.2 (Punkt)Schätzung Für die KQ-Schätzung im multiplen linearen Regressionsmodell: Ökonometrisches Modell: y = Xβ + u y i = α + β 1 x 1i + β 2 x 2i β K x Ki + u i Geschätztes Modell: Residuen: ŷ = X β ŷ i = ˆα + ˆβ 1 x 1i + ˆβ 2 x 2i ˆβ K x Ki û = y ŷ û i = y i ŷ i 156
28 Jetzt: Bestimmung des KQ-Schätzers β im multiplen Modell Herleitung: (I) Residualquadratsumme in Matrixschreibweise: Sûû = û û = N û 2 i i=1 157
29 Herleitung: (II) Wegen û = y X β û i = y i ˆα ˆβ 1 x 1i... ˆβ K x Ki folgt: Sûû = ( y X β ) ( y X β ) = N i=1 ( yi ˆα ˆβ 1 x 1i... ˆβ K x Ki ) 2 158
30 Herleitung: (IV) Minimierungsbedingungen lauten: Sûû β = (Normalengleichungen) Sûû / ˆα Sûû / ˆβ 1. Sûû / ˆβ K = 0 (K+1) 1 159
31 Herleitung: (VI) Berechung des Gradienten: (siehe Übung) Sûû β = β ( y X β ) ( y X β ) = β y y β 2y X β + β β X X β = 2X y + 2X X β Normalengleichungssystem: KQ-Schätzer: X X β = X y β = ( X X ) 1 X y 160
32 Ausführliche Schreibweise: X X = x 11. x 12.. x 1N. 1 x 11 x K1 1 x 12 x K2... x K1 x K2. x KN 1 x 1N x KN = N Ni=1 x 1i Ni=1 x Ni=1 1i x1i 2... Ni=1 x Ni=1 Ki x Ki x 1i. Ni=1 x Ki Ni=1 x 1i x Ki. Ni=1 x 2 Ki, X y = x 11. x 12.. x 1N. x K1 x K2. x KN y 1 y 2. y N = Ni=1 y i Ni=1 x 1i y i. Ni=1 x Ki y i 161
33 Illustration: (Düngemittelbeispiel) (I) Aus den N = 30 Daten von Folie 138 errechnet man: N = 30, 30 i=1 x 1i = 96.77, 30 i=1 x 2i = i=1 30 i=1 y i = , x 1i y i = , 30 i=1 x 2 1i = , 30 i=1 x 2 2i = , 30 i=1 x 1i x 2i = i=1 x 2i y i =
34 Illustration: (Düngemittelbeispiel) (II) Somit folgt: β = = = ˆα ˆβ 1 ˆβ 2 163
35 EViews-Output für die Düngemittelregression Dependent Variable: Y Method: Least Squares Date: 07/12/04 Time: 15:16 Sample: 1 30 Included observations: 30 Variable Coefficient Std. Error t-statistic Prob. C X X R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic)
36 Jetzt: Bestimmtheitsmaß R 2 bei multipler Regression Weiterhin gilt: Streuungszerlegung S yy = Sŷŷ + Sûû (vgl. Satz 3.6, Folie 96) Definition des multiplen Bestimmtheitsmaßes: R 2 = S ŷŷ S yy = S yy Sûû S yy = 1 S ûû S yy (vgl. Def. 3.7, Folie 97) 165
37 Jetzt: Explizite Berechnung des multiplen Bestimmtheitsmaßes Satz 4.2: (Formel für das R 2 ) Für das multiple Bestimmtheitsmaß R 2 gilt: R 2 = S ŷŷ S yy = y X(X X) 1 X y Ny 2 y y Ny 2 = y X β Ny 2 y y Ny 2. Bemerkungen: Herleitung: Von Auer (2007) Vgl. auch Übung 166
38 Illustration: (Düngemittelbeispiel) (I) Aus den N = 30 Daten von Folie 138 errechnet man: N = 30, y = , y y = X y = i=1, β = y 2 i =
39 Illustration: (Düngemittelbeispiel) (II) Daraus folgt y X β = [ ] = und somit R 2 = =
40 Bemerkungen: Rundungsfehler Aufnahme zusätzlicher X-Variablen führt (fast) immer zur Erhöhung des R 2 Adjustiertes Bestimmtheitsmaß: Radj 2 = 1 (1 N 1 R2 ) N K 1 Jetzt: Eigenschaften des KQ-Schätzers β = (X X) 1 X y 169
41 Satz 4.3: (Erwartungstreue des KQ-Schätzers) Unter den A-, B-, C-Annahmen (ohne B4) ist der KQ-Schätzer β = (X X) 1 X y erwartungstreu für β, d.h. E ( β ) = β. Für die Varianz-Kovarianz-Matrix des KQ-Schätzers gilt: Cov ( β ) = σ 2 ( X X )
42 Bemerkungen: (I) Im Detail besagt die Erwartungstreue E(ˆα) = α, E(ˆβ 1 ) = β 1,... E(ˆβ K ) = β K Zur Herleitung der Erwartungstreue sowie der Kovarianzmatrix von β vgl. Übung Spezialfall der Einfachregression (K = 1): X = 1 x x N, X X = [ N Ni=1 x i Ni=1 x i Ni=1 x 2 i ] 171
43 Bemerkungen: (II) Inverse einer (2 2)-Matrix: A = [ a11 a 12 a 21 a 22 ], A 1 1 = a 11 a 22 a 12 a 21 [ a22 a 12 a 21 a 11 ] Berechnung von [ Cov( β) V ar(ˆα) Cov(ˆα, ˆβ) = Cov(ˆα, ˆβ) V ar(ˆβ) (vgl. Satz 4.3, Folie 170; Übung) ] = σ 2 (X X) 1 172
44 Satz 4.4: (Gauß-Markov-Theorem) Unter den A-, B-, C-Annahmen (ohne B4) ist der KQ-Schätzer β = (X X) 1 X y der beste lineare unverzerrte Schätzer für den Parametervektor β. (BLUE = Best Linear Unbiased Estimator) Bemerkungen: Bedeutung von BLUE im multiplen Fall? Es sei β ein anderer linearer E-treuer Schätzer für β Cov( β ) Cov( β) ist positiv semidefinit (vgl. Definition 2.13, Folie 47) 173
45 Verteilung von y: (I) Zunächst y = Xβ + u, d.h. y ist eine lineare Funktion von u Aufgrund der B-Annahmen gilt u N(0 N 1, σ 2 I N ) auch y ist multivariat normalverteilt 174
46 Verteilung von y: (II) Erwartungswertvektor von y: Kovarianzmatrix von y: E(y) = E(Xβ + u) = E(Xβ) + E(u) = Xβ Cov(y) = Cov(Xβ + u) = Cov(u) = σ 2 I N Also gilt: y N(Xβ, σ 2 I N ) 175
47 Verteilung von β: (I) Zunächst β = (X X) 1 X y, d.h. β ist eine lineare Funktion von y Verteilung von y y N(Xβ, σ 2 I N ) (vgl. Folie 175) auch β ist multivariat normalverteilt 176
48 Verteilung von β: (II) Erwartungswertvektor und Kovarianzmatrix von β sind E ( β ) = β, Cov ( β ) = σ 2 (X X) 1 (vgl. Satz 4.3, Folie 170) Also gilt: β N(β, σ 2 (X X) 1 ) Für die Einzelkomponenten von β gilt ˆα N(α, V ar(ˆα)) bzw. ˆβ k N(β k, V ar(ˆβ k )), mit V ar(ˆα) bzw. V ar(ˆβ k ) als den entsprechenden Diagonalelementen von σ 2 (X X) 1 177
49 Problem erneut: Störtermvarianz σ 2 ist unbekannt Cov( β) = σ 2 (X X) 1 kann nicht berechnet werden (vgl. Einfachregression, Folien 91 ff.) Satz 4.5: (E-treuer Schätzer für σ 2 ) Ein erwartungstreuer Schätzer für die unbekannte Störtermvarianz σ 2 ist gegeben durch ˆσ 2 = 1 N K 1 N i=1 û 2 i = û û N K
50 Bemerkungen: Man zeige die Erwartungstreue, d.h. E(ˆσ 2 ) = σ 2, mittels der Beziehung (vgl. Übung) û = y ŷ = y X β = y X(X X) 1 X y = [ I N X(X X) 1 X ] y Von besonderer Bedeutung: M I N X(X X) 1 X (Residuen-Erzeugungsmatrix) 179
51 EViews-Output für die Düngemittelregression Dependent Variable: Y Method: Least Squares Date: 07/12/04 Time: 15:16 Sample: 1 30 Included observations: 30 Variable Coefficient Std. Error t-statistic Prob. C X X R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic)
52 Illustration: (Düngemittelbeispiel) (I) Sum squared resid = û û = = ˆσ 2 = û û N K 1 = = S.E. of regression = û û N K 1 = ˆσ 2 = ˆσ = ˆσ 2 = und Hauptdiagonalelemente von ˆσ 2 (X X) 1 liefern die geschätzten Varianzen V ar(ˆα), V ar(ˆβ 1 ), V ar(ˆβ 2 ) 181
53 Illustration: (Düngemittelbeispiel) (II) ˆσ = und die Wurzeln der Hauptdiagonalelemente von ˆσ 2 (X X) 1 liefern die Standardfehler der KQ-Schätzer SE(ˆα) = SE(ˆβ 1 ) = SE(ˆβ 2 ) =
54 4.3 Hypothesentests 2 Arten von Hypothesentests: t-tests (Tests basierend auf der t-verteilung) F -Tests (Tests basierend auf der F -Verteilung) 183
55 Zunächst: Testen einer Linearkombination von Parametern In der Einfachregression hatten wir H 0 : β = q gegen H 1 : β q Im multiplen Modell betrachten wir H 0 : r 0 α + r 1 β r K β K = q H 1 : r 0 α + r 1 β r K β K q bzw. mit r = [ ] r 0 r 1 r K H 0 : H 1 : r β = q r β q 184
56 Illustration: (Düngemittelbeispiel) Test auf konstante Skalenerträge: also β = α β 1 β 2, r = zum Signifikanzniveau a = 5% 0 1 1, q = 1 H 0 : r β = β 1 + β 2 = 1 H 1 : r β = β 1 + β 2 = 1 185
57 Geeignete Teststatistik: (I) T = r β q SE(r β) Form des Standardfehlers SE(r β): V ar(r β) = r Cov( β)r = σ 2 r (X X) 1 r = SE(r β) = V ar(r β) = ˆσ 2 r (X X) 1 r mit ˆσ 2 = û û N K 1 = 1 N K 1 N û 2 i i=1 186
58 Geeignete Teststatistik: (II) Verteilung von T unter Gültigkeit von H 0 : r β = q: T (unter H 0) t N K 1 (t Verteilung mit N K 1 Freiheitsgraden) Kritischer Bereich: (, t N K 1;1 a/2 ] [t N K 1;1 a/2, + ) d.h. lehne H 0 ab, falls T t N K 1;1 a/2 187
59 EViews-Output für die Düngemittelregression Dependent Variable: Y Method: Least Squares Date: 07/12/04 Time: 15:16 Sample: 1 30 Included observations: 30 Variable Coefficient Std. Error t-statistic Prob. C X X R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic)
60 Berechnung der Teststatistik: r β = [ ] ˆα ˆβ 1 ˆβ 2 = ˆβ 1 + ˆβ 2 = = Standardfehler der Teststatistik: SE(r β) = SE(ˆβ 1 + ˆβ 2 ) = = V ar(ˆβ 1 ) + V ar(ˆβ 2 ) + 2Ĉov(ˆβ 1, ˆβ 2 ) ( ) 2 + ( ) = =
61 T = r β q = SE(r β) = Testentscheidung: T = < = t 27;0.975 H 0 kann nicht abgelehnt werden (konstante Skalenerträge sind mit den Daten vereinbar) 190
62 Spezialfälle des allgemeinen t-tests: (I) Betrachte die K + 1 Vektoren 1 0 r 0 = 0., r 1 = ,..., r K = , q = 0 Testprobleme H 0 : α = 0 gegen H 1 : α = 0 H 0 : β 1 = 0 gegen H 1 : β 1 0. H 0 : β K = 0 gegen H 1 : β K = 0 191
63 Spezialfälle des allgemeinen t-tests: (II) Teststatistiken: T α = r 0 β SE(r 0 β) = ˆα SE(ˆα) T β1 =. T βk = r 1 β SE(r 1 β) = ˆβ 1 SE(ˆβ 1 ) r K β SE(r K β) = ˆβ K SE(ˆβ K ) 192
64 EViews-Output für die Düngemittelregression Dependent Variable: Y Method: Least Squares Date: 07/12/04 Time: 15:16 Sample: 1 30 Included observations: 30 Variable Coefficient Std. Error t-statistic Prob. C X X R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic)
65 EViews-Output: t-statistic = Koeffizientenschätzung Standardfehler des Koeffizientenschätzers Prob. = p-wert des t-tests (Kleinstes Signifikanzniveau zur Ablehnung von H 0 ) Einseitiger (linksseitiger) t-test: H 0 : r β q gegen H 1 : r β < q Teststatistik T = r β q SE(r β) Lehne H 0 zum Niveau a ab, falls T < t N K 1;1 a 194
66 Jetzt: Simultanes Testen mehrerer Parameterbeziehungen (F -Test) Lineares multiples Regressionsmodell: y = X β + u (N 1) (N [K+1]) ([K+1] 1) (N 1) Null- und Alternativhypothese: H 0 : H 1 : Rβ = q Rβ = q mit R einer (L [K + 1])-Matrix und q einem (L 1)-Vektor 195
67 Beispiele: (I) H 0 : β 1 = β 2 =... = β K = 0 R = , q = = 0 L H 0 : β β K = 1 und gleichzeitig β 1 = 2β 2 [ ] [ R =, q = ] 196
68 Beispiele: (II) H 0 : β 1 = 5 und gleichzeitig β 2 =... = β K = 0 R = , q =
69 Grundidee des F -Tests: (I) Vergleiche Residualquadratsumme des Regressionsmodells Sûû = û û = N ûi 2 i=1 mit Residualquadratsumme des Nullhypothesenmodells Sû0û 0 = (û 0 ) û 0 = N (û 0 i )2 i=1 (û 0 ist der Residualvektor, der sich bei der KQ-Schätzung unter Berücksichtigung von H 0 ergibt) 198
70 Grundidee des F -Tests: (II) Es muss immer gelten Sû0û 0 Sûû Die Nullhypothese ist vermutlich falsch, falls Sû0û 0 >> Sûû 199
71 Durchführung des Tests: (I) Geeignete Teststatistik: ( ) Sû0û 0 Sûû /L F = = Sûû /(N K 1) [ R β q ] [ R(X X) 1 R ] 1 [ R β q ] û û/(n K 1) Verteilung von F unter Gültigkeit von H 0 : Rβ = q: F (unter H 0) F L,N K 1 (F Verteilung mit L und N K 1 Freiheitsgraden) 200
72 Durchführung des Tests: (II) Kritischer Bereich zum Signifikanzniveau a: [F L,N K 1;1 a, + ) d.h. lehne H 0 zum Niveau a ab, falls F F L,N K 1;1 a [(1 a)-quantil der F L,N K 1 -Verteilung] 201
73 EViews-Output für die Düngemittelregression Dependent Variable: Y Method: Least Squares Date: 07/12/04 Time: 15:16 Sample: 1 30 Included observations: 30 Variable Coefficient Std. Error t-statistic Prob. C X X R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic)
74 EViews-Output: F-statistic = F -Test für das Testproblem H 0 : β 1 = β 2 =... = β K = 0 Prob(F-statistic) = p-wert des F -Tests (Kleinstes Signifikanzniveau zur Ablehnung von H 0 ) 203
75 4.4 Prognose Ziel: Bedingte Prognose des endogenen Wertes y 0 bei gegebenen Werten der K exogenen Variablen x 10, x 20,..., x K0 (vgl. Prognose der Einfachregression, Abschnitt 3.4) 204
76 Dafür: (I) Es seien x 0 = [ 1 x 10 x 20 x K0 ] der Vektor der exogenen Variablen und β = (X X) 1 X y der KQ-Schätzer des multiplen Regressionsmodells Bedingte Punktprognose: ŷ 0 = x 0 β Prognosefehler: ŷ 0 y 0 = x 0 β x 0 β u 0 = x 0 ( β β ) u 0 205
77 Dafür: (II) Varianz des Prognosefehlers: V ar(ŷ 0 y 0 ) = σ 2 ( 1 + x 0 (X X) 1 x 0 ) Geschätzte Varianz des Prognosefehlers: V ar(ŷ 0 y 0 ) = ˆσ 2 ( 1 + x 0 (X X) 1 ) x 0 mit ˆσ 2 = û û/(n K 1) Standardfehler des Prognosefehlers: SE(ŷ 0 y 0 ) = V ar(ŷ 0 y 0 ) 206
78 Jetzt: Konstruktion eines (1 a)-prognoseintervalls über die Standardisierung des Prognosefehlers (vgl. Folie 125) Man kann zeigen, dass =0 T = (ŷ {}}{ 0 y 0 ) E (ŷ 0 y 0 ) SE(ŷ 0 y 0 ) T t N K 1 (t-verteilung mit N K 1 Freiheitsgraden) (1 a)-prognoseintervall: [ŷ 0 t N K 1;1 a/2 SE(ŷ 0 y 0 ), ŷ 0 +t N k 1;1 a/2 SE(ŷ 0 y 0 )] 207
3. Das einfache lineare Regressionsmodell
3. Das einfache lineare Regressionsmodell Ökonometrie: (I) Anwendung statistischer Methoden in der empirischen Forschung in den Wirtschaftswissenschaften Konfrontation ökonomischer Theorien mit Fakten
X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?
Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2
1 Beispiel zur Methode der kleinsten Quadrate
1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25
Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.
Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf
Übung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme)
8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) Annahme B4: Die Störgrößen u i sind normalverteilt, d.h. u i N(0, σ 2 ) Beispiel: [I] Neoklassisches Solow-Wachstumsmodell Annahme einer
Allgemein zu Hypothesentests: Teststatistik. OLS-Inferenz (Small Sample) Allgemein zu Hypothesentests
OLS-Inferenz (Small Sample) K.H. Schild 3. Mai 017 Allgemein zu Hypothesentests: Teststatistik Konstruktion eines Hypothesentests erfolgt meistens über eine Teststatistik Eine Teststatistik T ist eine
4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
[email protected] VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
1 Gliederung Zeitreihenökonometrie. Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09. Dr. Sylvia Kaufmann.
Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09 Dr Sylvia Kaufmann Februar 2009 Angewandte Ökonometrie, Sylvia Kaufmann, FS09 1 1 Gliederung Zeitreihenökonometrie Einführung
6.4 Kointegration Definition
6.4 Kointegration 6.4.1 Definition Nach Engle und Granger (1987): Wenn zwei oder mehrere Variablen I(1) sind, eine Linearkombination davon jedoch I() ist, dann sind die Variablen kointegriert. Allgemein:
Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
Kapitel 3. Inferenz bei OLS-Schätzung I (small sample, unter GM1,..., GM6)
8 SMALL SAMPLE INFERENZ DER OLS-SCHÄTZUNG Damit wir die Verteilung von t (und anderen Teststatistiken) exakt angeben können, benötigen wir Verteilungsannahmen über die Störterme; Kapitel 3 Inferenz bei
Multivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
Lineare Regression (Ein bisschen) Theorie
Kap. 6: Lineare Regression (Ein bisschen) Theorie Lineare Regression in Matrixform Verteilung des KQ-Schätzers Standardfehler für OLS Der Satz von Gauss-Markov Das allgemeine lineare Regressionsmodell
5 Multivariate stationäre Modelle
5 Multivariate stationäre Modelle 5.1 Autoregressive distributed lag (ADL) 5.1.1 Das Modell und dessen Schätzung Im vorangehenden Kapitel führten wir mit der endogenen verzögerten Variablen, y t 1, als
Das lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Prof. Dr. Werner Smolny Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Institutsdirektor Das ökonomische
Die Schätzung einer Produktionsfunktion
Universität Ulm 89069 Ulm Germany Prof. Dr. Werner Smolny Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Institutsdirektor Sommersemester
Kurs Empirische Wirtschaftsforschung
Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische
Prognoseintervalle für y 0 gegeben x 0
10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen
Musterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
Zeitreihen-Ökonometrie, SS 2017 Lösungen Aufgabenblatt 3
Zeitreihen-Ökonometrie, SS 2017 Lösungen Aufgabenblatt 3 Aufgabe 5: Mit dem folgenden Modell soll untersucht werden, ob die Höhe der Ausgaben für Wahlkampagnen bei den amerikanischen Präsidentschaftswahlen
Lineare Regression mit einem Regressor: Einführung
Lineare Regression mit einem Regressor: Einführung Quantifizierung des linearen Zusammenhangs von zwei Variablen Beispiel Zusammenhang Klassengröße und Testergebnis o Wie verändern sich Testergebnisse,
Vorlesung: Lineare Modelle
Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen
Vorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.
Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die
6 Nichtstationarität und Kointegration
6 Nichtstationarität und Kointegration 6.1 Kapitelübersicht, Problematik Die Analyse nichtstationärer Zeitreihen wird folgende Gesichtspunkte anschneiden: Definition von Nichtstationarität, von integrierten
Tests einzelner linearer Hypothesen I
4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen
2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen
.1. Stochastische ökonometrische Modelle.1 Einführung Ziele: - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen - Numerische Konkretisierung ökonomischer Modelle und deren Analse. . Variierende
Statistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur
Fragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression
Fragen Welche Unsicherheitsfaktoren beeinflussen die Schätzung einer Regressionsgeraden? Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München
Analyse von Querschnittsdaten. Signifikanztests I Basics
Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004
6.2 Lineare Regression
6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )
Statistik II. Regressionsanalyse. Statistik II
Statistik II Regressionsanalyse Statistik II - 23.06.2006 1 Einfachregression Annahmen an die Störterme : 1. sind unabhängige Realisationen der Zufallsvariable, d.h. i.i.d. (unabh.-identisch verteilt)
Kurze Einführung in die Ökonometrie-Software E-Views
Kurze Einführung in die Ökonometrie-Software E-Views Folie 2 Workfile Kurze Einführung in die Ökonometrie-Software E-Views 4. November 2008 Typischerweise liegen die Daten in einem Spreadsheet -Format
Ludwig von Auer. Ökonometrie. Eine Einführung. Dritte, überarbeitete Auflage mit 65 Abbildungen und 55 Tabellen. < J Springer
Ludwig von Auer Ökonometrie Eine Einführung Dritte, überarbeitete Auflage mit 65 Abbildungen und 55 Tabellen < J Springer Inhaltsverzeichnis 1 Einleitung 1 1.1 Braucht man ökonometriker? 1 1.2 Was ist
Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test.
1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.
Methode der kleinsten Quadrate Prinzip. OLS-Schätzung linearer Regressionsmodelle. Methode der kleinsten Quadrate Geometrische
OLS-Schätzung linearer Regressionsmodelle KH Schild 29 April 207 Agenda: OLS aus geometrischer/algebraischer Sicht (Exogenität als Orthogonalität) Bestimmtheitsmaß R 2 Erwartungswert der OLS-Schätzung
OLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
Lösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
7. Integrierte Prozesse
7. Integrierte Prozesse Bisher: Behandlung stationärer Prozesse (stationäre ARMA(p, q)-prozesse) Problem: Viele ökonomische Zeitreihen weisen im Zeitverlauf ein nichtstationäres Verhalten auf 225 Beispiel:
Multivariate Regression
Kapitel 1 Multivariate Regression Gerhard Tutz, Skript LMU, 7. Mai 2014 1.1 Grundkonzept............................ 3 1.2 Das klassische multivariate lineare Modell............ 6 1.2.1 Modelle...........................
Kapitel 2. OLS-Schätzung. 2.1 Methode der kleinsten Quadrate 12 OLS METHODE DER KLEINSTEN QUADRATE (ALGEGRA)
2 OLS METHODE DER KLEINSTEN QUADRATE (ALGEGRA) Kapitel 2 OLS-Schätzung 2. Methode der kleinsten Quadrate Einleitung OLS aus Sicht der linearen Algebra Die Methode der kleinsten Quadrate (OLS Ordinary least
7. Hypothesentests. Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang. X habe die unbekannte VF F X (x)
7. Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von X 350 Bisher:
9. Lineare Regression
9. Lineare Regression y 3.0 3.5 4.0 4.5 0.0 0.2 0.4 0.6 0.8 1.0 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 2016 1 / 40 x KQ-Schätzung Es ist eine Gerade y = β 1 + β 2 x gesucht, welche
Lineare Regression in R, Teil 1
Lineare Regression in R, Teil 1 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel October 6, 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools aus
Lösung - Übungsblatt 10
Lösung - Übungsblatt 10 Aufgabe 2: Siehe Outputfile Aufgabe 2 a) Regressionsgleichung - Equation 1: price = β 1 + β 2 lotsize + β 3 sqrft + β 4 bdrms + u i Fit: price = β 1 + β 2 lotsize + β 3 sqrft +
6. Schätzung stationärer ARMA-Modelle
6. Schätzung stationärer ARMA-Modelle Problemstellung: Statistische Anpassung eines stationären ARMA(p, q)-prozesses an eine Stichprobe von t = 1,..., T Prozessbeobachtungen Es bezeichne x 1,..., x T die
John Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer
John Komlos Bernd Süssmuth Empirische Ökonomie Eine Einführung in Methoden und Anwendungen 4y Springer 1 Einführung 1 1.1 Ökonometrie 1 2 Vorüberlegungen und Grundbegriffe 7 2.1 Statistik als Grundlage
Methoden der Ökonometrie
Dr. Matthias Opnger Lehrstuhl für Finanzwissenschaft WS 2013/14 Dr. Matthias Opnger Methoden d. Ökonometrie WS 2013/14 1 / 21 Dr. Matthias Opnger Büro: C 504 Sprechzeit: nach Vereinbarung E-Mail: [email protected]
1 Einführung Ökonometrie... 1
Inhalt 1 Einführung... 1 1.1 Ökonometrie... 1 2 Vorüberlegungen und Grundbegriffe... 7 2.1 Statistik als Grundlage der Empirischen Ökonomie... 7 2.2 Abgrenzung und Parallelen zu den Naturwissenschaften...
Ergänzung der Aufgabe "Mindestlöhne" zu einer multiplen Regression
Prof. Dr. Peter von der Lippe ( Übungsblatt E) Ergänzung der Aufgabe "Mindestlöhne" zu einer multiplen Regression Das Beispiel "Mindestlöhne" zur einfachen multiplen Regression ergab die folgenden Parameter
Simultane Mehrgleichungssysteme: Parameterschätzung
Simultane Mehrgleichungssysteme: Parameterschätzung Stichwörter: Eigenschaften des OLS-Schätzers Hilfsvariablenschätzer 2SLS limited information Methoden 3SLS FIML full information Methoden o1-21.tex/0
Springer-Lehrbuch. Ökonometrie. Eine Einführung. von Ludwig Auer. 5. überarb. u. erw. Aufl.
Springer-Lehrbuch Ökonometrie Eine Einführung von Ludwig Auer 5. überarb. u. erw. Aufl. Ökonometrie Auer schnell und portofrei erhältlich bei beck-shop.de DIE FACHBUCHHANDLUNG Springer-Verlag Berlin Heidelberg
2 Anwendungen und Probleme
Universität Ulm 89069 Ulm Germany Prof. Dr. Werner Smolny Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Institutsdirektor 2 Anwendungen
Übung zur Empirischen Wirtschaftsforschung. VII. Ökonometrische Testverfahren. 7.2 Die Geldnachfragefunktion
Universität Ulm 89069 Ulm Germany Dipl.-Kfm. Philipp Buss Dipl.-Math. oec. Daniel Siepe Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur
Die Regressionsanalyse
Die Regressionsanalyse Zielsetzung: Untersuchung und Quantifizierung funktionaler Abhängigkeiten zwischen metrisch skalierten Variablen eine unabhängige Variable Einfachregression mehr als eine unabhängige
Beispiele für Prüfungsfragen Ökonometrie I und II
Beispiele für Prüfungsfragen Ökonometrie I und II Von den sieben Beispielen von Prüfungsfragen wären in einer konkreten einstündigen Prüfung etwa deren zwei zu beantworten. Aufgaben 3, 4, 6 und 7 beziehen
Philipps Universität Marburg FB 02: Wirtschaftswissenschaften Abteilung Statistik c Prof. Dr. Karlheinz Fleischer FORMELSAMMLUNG.
Philipps Universität Marburg FB 0: Wirtschaftswissenschaften Abteilung Statistik c Prof. Dr. Karlheinz Fleischer FORMELSAMMLUNG Ökonometrie Stand: 14. März 006 Inhaltsverzeichnis 1 Klassisches lineares
Ludwig von Auer. Ökonometrie. Eine Einführung. 6., durchgesehene und aktualisierte Auflage. Springer Gabler
Ludwig von Auer Ökonometrie Eine Einführung 6., durchgesehene und aktualisierte Auflage Springer Gabler Inhaltsverzeichnis 1 Einleitung 1 1.1 Braucht man ökonometriker? 1 1.2 Was ist Ökonometrie? 2 1.3
Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen.
Kapitel 3 Schließende lineare Regression 3.1. Einführung induktiv Fragestellungen Modell Statistisch bewerten, der vorher beschriebenen Zusammenhänge auf der Basis vorliegender Daten, ob die ermittelte
Kapitel 3 Schließende Statistik
Beispiel 3.4: (Fortsetzung Bsp. 3.) bekannt: 65 i=1 X i = 6, also ˆp = X = 6 65 = 0, 4 Überprüfen der Voraussetzungen: (1) n = 65 30 () n ˆp = 6 10 (3) n (1 ˆp) = 39 10 Dr. Karsten Webel 194 Beispiel 3.4:
Inferenz im multiplen Regressionsmodell
1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall
Vorlesung: Lineare Modelle. Verschiedene Typen von Residuen. Probleme bei der Regression und Diagnose. Prof. Dr. Helmut Küchenhoff.
Vorlesung: Lineare Modelle Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München SoSe 205 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen.
7., durchgesehene und aktualisierte Auflage
Ludwig von Auer Ökonometrie Eine Einführung 7., durchgesehene und aktualisierte Auflage ^ Springer Gabler Inhalt 1 Einleitung 1 1.1 Braucht man Ökonometriker? 1 1.2 Was ist Ökonometrie? 2 1.3 Die vier
Übung zur Empirischen Wirtschaftsforschung. VII. Ökonometrische Testverfahren. 7.1 Geldnachfragefunktion. 7.2 Empirische Ergebnisse: Westdeutschland
Universität Ulm 89069 Ulm Germany Dipl.-WiWi. Christian Peukert Dipl.-Math. oec. Daniel Siepe Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur
Statistik II Übung 4: Skalierung und asymptotische Eigenschaften
Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden
Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Prüfung im Fach Ökonometrie im SS 2012
Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Prüfung im Fach Ökonometrie im SS 2012 Aufgabe 1 (20 Punkte) Sei y = Xβ + ε ein N 1 Vektor und X eine N K Matrix.
Multivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Diese Selbstkontrollarbeit bezieht sich auf die Kapitel 1 bis 4 der Kurseinheit 1 (Multivariate Statistik) des Kurses Multivariate Verfahren (883). Hinweise:
0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg
Übungsklausur Lineare le Prof. Dr. H. Toutenburg Aufgabe Ein lineares Regressionsmodell mit der abhängigen Variablen Körpergröße und der unabhängigen Variablen Geschlecht wurde einmal mit der dummykodierten
Willkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Inferenzstatistik in Regressionsmodellen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für
Formelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade
Version 2015 Formelsammlung für das Modul Statistik 2 Bachelor Sven Garbade Prof. Dr. phil. Dipl.-Psych. Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg [email protected]
Annahmen des linearen Modells
Annahmen des linearen Modells Annahmen des linearen Modells zusammengefasst A1: Linearer Zusammenhang: y = 0 + 1x 1 + 2x 2 + + kx k A2: Zufallsstichprobe, keine Korrelation zwischen Beobachtungen A3: Erwartungswert
III. Prognosen - Teil 1
Universität Ulm 89069 Ulm Germany Dipl.-Kfm. Philipp Buss B.A. Alexander Rieber Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester
Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Statistische Eigenschaften der OLS-Schätzer, Residuen,
Statistische Eigenschaften der OLS-Schätzer, Residuen, Bestimmtheitsmaß Stichwörter: Interpretation des OLS-Schätzers Momente des OLS-Schätzers Gauss-Markov Theorem Residuen Schätzung von σ 2 Bestimmtheitsmaß
4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
Statistisches Testen
Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall
2.3 Nichtlineare Regressionsfunktion
Nichtlineare Regressionsfunktion Bisher: lineares Regressionsmodell o Steigung d. Regressionsgerade ist konstant o Effekt einer Änderung von X auf Y hängt nicht vom Niveau von X oder von anderen Regressoren
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung
Mathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
Statistik II für Betriebswirte Vorlesung 1
Statistik II für Betriebswirte Vorlesung 1 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. Oktober 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 1 Version:
Lineare Modelle in R: Klassische lineare Regression
Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)
Statistik, Datenanalyse und Simulation
Dr. Michael O. Distler [email protected] Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der
Empirische Wirtschaftsforschung
Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 6.. Herleitung des OLS-Schätzers
1. Lösungen zu Kapitel 7
1. Lösungen zu Kapitel 7 Übungsaufgabe 7.1 Um zu testen ob die Störterme ε i eine konstante Varianz haben, sprich die Homogenitätsannahme erfüllt ist, sind der Breusch-Pagan-Test und der White- Test zwei
