Einfache Hypothesentests für multiple Regressionen

Größe: px
Ab Seite anzeigen:

Download "Einfache Hypothesentests für multiple Regressionen"

Transkript

1 Kapitel 6 Einfache Hypothesentests für multiple Regressionen Economists have inherited from the physical sciences the myth that scientific inference is objective, and free of personal prejudice. This is utter nonsense. All knowledge is human belief; more accurately, human opinion.[...] statistical inference is and must forever remain an opinion. (Leamer, 1983, 36) Im Folgenden werden wir einige weitere Teststatistiken vorstellen, die uns das Testen komplexerer Hypothesen ermöglichen. Die grundsätzliche Methodologie bleibt dabei völlig gleich, das heißt, die folgenden Tests können wieder nach der Methode von Fisher oder nach Neyman und Pearson durchgeführt werden. 6.1 t-test für eine Linearkombination von Parametern Wir haben bisher nur t-tests für einzelne Regressionskoeffizienten durchgeführt. Die Vorgangsweise lässt sich aber einfach für Tests einer Linearkombination von mehreren Regressionskoeffizienten verallgemeinern. Gehen wir von folgendem einfachen Modell aus y i = β 1 +β 2 x i2 +β 3 x i3 +ε i Wenn wir zum Beispiel testen möchten, ob die Summe von β 2 und β 3 den Wert Eins hat, lauten Null- und Alternativhypothese H 0 : β 2 +β 3 = 1 gegen H A : β 2 +β 3 1 Dies ist ein sehr spezieller Fall von Null- und Alternativhypothese. 1

2 Empirische Wirtschaftsforschung 2 Etwas allgemeiner können zweiseitige Null- und Alternativhypothesen für dieses einfache Modell geschrieben werden als H 0 : c 1 β 2 +c 2 β 3 = β 0 H A : c 1 β 2 +c 2 β 3 β 0 wobei c 1 und c 2 Konstante sind und β 0 ein unter der Nullhypothese vermuteter Parameter ist. Die Konstanten c 1 und c 2 gehören ebenso wie β 0 zur Nullhypothese und erlauben eine allgemeinere Formulierung linearer Nullhypothesen. Sollte z.b. getestet werden, ob die Parameter β 2 und β 3 den gleichen Wert haben, würdenwirc 1 = +1, c 2 = 1undβ 0 = 0wählen, denndarausfolgth 0 : β 2 β 3 = 0, bzw. β 2 = β 3. Wennwirtestenmöchten,obβ 3 nurhalbsogroßistwieβ 2,abereinunterschiedliches Vorzeichen hat, würden wir c 1 = 1, c 2 = 2 und β 0 = 0 setzen, denn daraus folgt H 0 : β 2 +2β 3 = 0, bzw. β 2 = 2β 3. Auf diese Weise lassen sich beliebige lineare Nullhypothesen testen, die zwei oder auch mehrere Parameter betreffen. Allerdings können auf diese Weise nur einzelne Hypothesen getestet werden, einen simultanen Test mehrerer Hypothesen werden wir erst im nächsten Abschnitt kennen lernen. Das Test-Prinzip für einzelne lineare Hypothesen, die auch mehrere Parameter betreffen können, ist einfach: wenn die Nullhypothese wahr ist gilt in der Grundgesamtheit c 1 β 2 +c 2 β 3 β 0 = 0 Selbst wenn dies in der Grundgesamtheit exakt gilt müssen wir in der Stichprobe damit rechnen, dass aufgrund von Zufallschwankungen dieser Zusammenhang nicht exakt erfüllt ist, also c 1 β2 +c 2 β3 β 0 = v wobei v relativ nahe bei Null liegen sollte, wenn die Nullhypothese wahr ist. Zudem ist v eine Linearkombination der Zufallsvariablen β 2 und β 3. Wenn β 2 und β 3 normalverteilt sind ist auch v normalverteilt. Außerdem ist bei Gültigkeit der Nullhypothese E(v) = 0, um eine Teststatistik zu erhalten brauchen wir also nur durch den Standardfehler von v zu dividieren. Da v eine Linearkombination der Zufallsvariablen β 2 und β 3 ist gestaltet sich dies sehr einfach, wir brauchen nur die Rechenregel für das Rechnen mit Varianzen anzuwenden 1 var(v) = var(c 1 β2 ±c 2 β3 β 0 ) = c 2 1 var( β 2 )+c 2 2 var( β 3 )±2c 1 c 2 ĉov( β 2, β 3 ) Wir haben bisher zwar nur für das bivariate Modell einen Schätzer für die Kovarianz zwischen Interzept und Steigungskoeffizient, d.h. ĉov( β 1, β 2 ), hergeleitet, aber wir werden im Kapitel zur Matrixschreibweise zeigen, dass auch die Kovarianzen zwischen Steigungskoeffizienten ähnlich einfach berechnet werden können. Die üblichen Programme geben die Varianz-Kovarianzmatrix der Koeffizienten zwar nicht 1 var(c 0 + c 1 x ± c 2 y) = E[(c 0 + c 1 x ± c 2 y) E(c 0 + c 1 x ± c 2 y)] 2 = c 2 1var(x) + c 2 2var(y) ± 2c 1 c 2 cov(x,y).

3 Empirische Wirtschaftsforschung 3 unmittelbar aus, aber man kann einfach mit den entsprechenden Befehlen darauf zugreifen. 2 Da die Varianz des Nenners aus der Stichprobe berechnet werden muss ist die Teststatistik v ŝe(v) = c 1 β2 ±c 2 β3 β 0 c 2 1 var( β 2 )+c 2 2 var( β 3 )±2c 1 c 2 ĉov( β 2, β 3 ) unter H 0 t-verteilt mit n k Freiheitsgraden. Diese Teststatistik (t) hat die Form t = Empirisches Analogon zur H 0 in impliziter Form Standardfehler vom Zähler H 0 tn k H 0 tn k Dies ist offensichtlich nur eine kleine Erweiterung der üblichen Tests für einen Koeffizienten für Fälle, in denen eine Hypothese über eine Linearkombination von zwei (oder mehreren) Koeffizienten getestet werden soll. Mit Hilfe dieser Teststatistik kann wieder der p-wert à la Fisher berechnet werden, oder eine Entscheidung nach der Methode Neyman und Pearson gefällt werden 1. Formulierung von Null- und Alternativhypothese. 2. Festlegung eines Signifikanzniveaus α. 3. Wahl der geeigneten Teststatistik ohne unbekannten Parametern und mit bekannter Verteilung c 1 β2 ±c 2 β3 β 0 c 2 1 var( β 2 )+c 2 2 var( β 3 )±2c 1 c 2 ĉov( β 2, β 3 ) 4. Ermittlung des dazugehörigen kritischen Wertes t crit α/2 mittels einer t Tabelle; Bestimmung von Annahme- und Verwerfungsbereich. H 0 tn k für n k Freiheitsgrade 5. Berechnung der Punktschätzer β 2, β 3 sowie der dazugehörigen Varianz- Kovarianzmatrix von β 2 und β 3 aus der Stichprobe. Überprüfen, ob alle zugrunde liegenden Annahmen (korrekte Spezifikation, unverzerrte Stichprobe, normalverteilte Störterme 3, etc.) erfüllt sind. Falls die Annahmen erfüllt sind, Berechnung des empirischen Werts der Teststatistik durch Einsetzen der empirischen Realisationen in die Teststatistik t emp (c 1 β2 ±c 2 β3 ) β 0 = c 2 1 var( β 2 )+c 2 2 var( β 3 )±2c 1 c 2 cov( β 2, β 3 ) 2 In EViews erhält man die geschätzte Varianz-Kovarianzmatrixder Koeffizienten mit der in Stata mit dem postestimation Befehl e(v); in R mit vcov. 3 Wenn die Störterme ε i nicht normalverteilt sind nähert sich die Verteilung unter den üblichen Annahmen mit steigendem Stichprobenumfang einer Normalverteilung an (Zentraler Grenzwertsatz).

4 Empirische Wirtschaftsforschung 4 6. Überprüfen, ob der empirische Wert t emp in den Annahme- oder Verwerfungsbereich fällt, und dementsprechende Entscheidung fällen. Beispiel: Angenommen wir erhalten folgende Schätzung einer Cobb-Douglas Produktionsfunktion und möchten testen, ob konstante Skalenerträge vorliegen. 4 Dependent Variable: LOG(Q) Included observations: 25 Variable Coefficient Std. Error t-stat. Prob. C β LOG(K) β LOG(L) β R-squared S.E. of regression Sum squared resid F-statistic Durbin-Watson Stat Prob(F-statistic) Die meisten Computerprogramme liefern auch die dazugehörige Varianz- Kovarianzmatrix der Koeffizienten 5 (Coefficient Covariance Matrix) var(ˆβ): C LOG(K) LOG(L) C LOG(K) LOG(L) Bei Cobb-Douglas Funktionen liegen konstante Skalenerträge vor, wenn β 2 +β 3 = 1. Die Nullhypothese ist also H 0 : β 2 +β 3 = 1 (diese Hypothese ist ein Spezialfall von H 0 : c 1 β 2 +c 2 β 3 = β 0 mit c 1 = c 2 = β 0 = 1) Die entsprechende t-statistik ist deshalb t-stat = = β 2 + β 3 1 var( β 2 )+ var( β 3 )+2ĉov( β 2, β 3 ) = = Der kritische t-wert für einen zweiseitigen Test mit 22 Freiheitsgraden ist t crit = , deshalb können wir die Nullhypothese konstanter Skalenerträge(sehr knapp) nicht verwerfen. 4 Eine Cobb-Douglas Funktion hat die Form Q = AK β2 L β3. Durch Logarithmieren erhält man eine in den Parametern lineare Funktion ln(q) = β 1 + β 2 ln(k) + β 3 ln(l), mit β 1 = ln(a) die einfach mit OLS geschätzt werden kann. 5 In EViews erhält man die geschätzte Varianz-Kovarianzmatrixder Koeffizienten mit der in Stata mit dem postestimation Befehl e(v); in R mit vcov.

5 Empirische Wirtschaftsforschung 5 Um den p-wert zu berechnen benötigt man den Wert der Verteilungsfunktion. Wenn wir mit Φ(x, q) den Wert der Verteilungsfunktion einer t-verteilung mit q Freiheitsgraden an der Stelle x bezeichnen errechnet sich der p-wert als p = 2(1 Φ( ,22)) = Solche Tests sind in fast allen Statistik- und Ökonometrieprogrammen fix implementiert, aber man kann sie auch einfach programmieren. Zum Beispiel öffnet der folgende EViews Code die Excel Tabelle mit den Daten und berechnet den dazugehörigen p-wert 7 (die Daten können unter heruntergeladen werden). EViews: wfopen " equation CD.ls log(q) c log(k) log(l) scalar t_stat = (c(2) + c(3) - 1)/@sqrt(CD.@coefcov(2,2) _ + CD.@coefcov(3,3) + 2*CD.@coefcov(2,3) ) scalar pval = 2*(1 Wurde der geschätzten Regressionsgleichung wie oben der Name CD gegeben geht das gleiche auch deutlich einfacher mit dem Befehl 8 CD.wald c(2) + c(3) = 1. Oder in R: rm(list=ls(all=true)) CD <- read.table(" dec = ".", sep=";", header=true) eq1 <- lm(log(cd$q) ~ log(cd$k) + log(cd$l)) tstat <- (coef(eq1)[2] + coef(eq1)[3] - 1) / sqrt(vcov(eq1)[2,2] + vcov(eq1)[3,3] + 2*vcov(eq1)[2,3]) pval <- 2*(1-(pt(abs(tstat),22))) Stata: insheet using " /// delim(";") names clear gen logq = log(q) gen logk = log(k) gen logl = log(l) regress logq logk logl matrix V = e(v) scalar tstat = (_b[logk] + _b[logl] - 1) / sqrt( V[1,1] + V[2,2] + 2*V[1,2]) dis "t-statistic: " tstat dis "p-value: " 2*ttail(22,abs(tstat)) 6 In EViews ist der Befehl dazu coef p = 2*(1-@ctdist(@abs( ),22)); in Excel erhalten Sie den p-wert mit der Funktion =TVERT(ABS( );22;2) 7 Selbstverständlich kann dieser Test in EViews weit einfacher durchgeführt werden, dieses Progrämmchen dient nur didaktischen Zwecken. 8 Dieser Test ist ein Spezialfall eines Wald Tests, der 1943 von dem Mathematiker Abraham Wald entwickelt wurde.

6 Empirische Wirtschaftsforschung 6 oder test logk + logl = 1 Übung: Wie würden Sie für das Modell y = β 1 +β 2 x 2 +β 3 x 3 +ε die Nullhypothese β 2 = β 3 testen? Zeigen Sie dies für für das Beispiel mit der Cobb-Douglas Funktion (Lösung: t emp = , p-wert = ). Eine große Einschränkung dieses Tests besteht darin, dass er nicht für den Test mehrerer Hypothesen verwendet werden kann. Zum Beispiel können wir damit nicht die Nullhypothese H 0 : β 2 = 0 und β 3 = 0 simultan testen. Im Folgenden werden wir nun einige Tests kennen lernen, mit deren Hilfe mehr als eine Hypothese simultan getestet werden kann, z.b. eine Nullhypothese H 0 : β 2 = 0 und β 3 = 0. Wir werden sehen, dass solche Tests sehr häufig auf der (nach R. Fisher benannten) F-Verteilung beruhen. Die Art der Tests, die wir nun vorstellen werden, sind ein Spezialfall einer ganzen Testfamilie, die in der Statistik als Wald-Tests bekannt sind. 9 Im nächsten Abschnitt werden wir einen Test auf die den Erklärungsgehalt aller erklärenden Variablen vorstellen, die sogenannte F-total Statistik. 6.2 ANOVA-Tafel und Test auf Signifikanz aller Steigungs-Koeffizienten Wir erinnern uns, dass wir für die Herleitung des Bestimmtheitsmaßes R 2 folgende Streuungs-Zerlegung vornahmen (yi ȳ) 2 }{{} TSS = (ŷ i ȳ) 2 }{{} ESS + ˆε 2 i }{{} SSR wobei TSS für Total Sum of Squares, ESS für Explained Sum of Squares und SSR für Sum of Squared Residuals 10 steht. Dies führt zu folgender ANOVA-Tafel ( ANalysis Of VAriance Table ) Sum of Mean Squares df Square Regression ESS k 1 ESS/(k 1) Residuen SSR n k SSR/(n k) Total TSS n 1 wobei df für degrees of freedom (Freiheitsgrade) steht. Mit Hilfe der ANOVA-Tafel, die von den vielen Statistik-Programmen ausgegeben wird, kann man eine F-Statistik für die Nullhypothese H 0 : β 2 = β 3 = = β k = 0 9 Dieses Testprinzip ist nach Abraham Wald ( ) benannt, ein aus Siebenbürgen stammender deutschsprachiger Mathematiker und einer der bedeutendsten Statistiker des 20. Jahrhunderts. Neben Wald Tests spielen in der Statistik v.a. Likelihood-Ratio Tests und Lagrange-Multiplier Tests eine wichtige Rolle. 10 Manchmal wird dafür auch RSS für Residual Sum Squared geschrieben.

7 Empirische Wirtschaftsforschung 7 konstruieren; das heißt für die Nullhypothese, dass alle Koeffizienten mit Ausnahme des Interzepts β 1 simultan gleich Null sind, oder in anderen Worten, dass alle k 1 Steigungskoeffizienten simultan gleich Null sind. Eine andere Möglichkeit diese Nullhypothese zu interpretieren ist H 0 : E(y x 2,...,x k ) = E(y) wenn der bedingte Erwartungswert von y gleich dem unbedingten Erwartungswert ist leisten die erklärenden Variablen auch gemeinsam keinen Erklärungsbeitrag. In diesem Falle erklärt eine Regression auf die Regressionskonstante y = β 1 + ε die Daten gleich gut wie die lange Regression y = β 1 +β 2 x 2 + +β k x k +ε. Die Alternativhypothese ist H A : mindestens einer der Steigungskoeffizienten ist ungleich Null Wenn diese Nullhypothese wahr ist, sollten alle x Variablen auch gemeinsam keinen Erklärungsbeitrag für y leisten. Wenn die Störterme der Grundgesamtheit normalverteilt sind ist bei Zutreffen der Nullhypothese die Quadratsumme i (ŷ i ȳ) 2 /σ 2 bekanntlich χ 2 -verteilt mit k 1 Freiheitsgraden, und i ˆε2 i/σ 2 unabhängig davon χ 2 -verteilt mit n k Freiheitsgraden. Das Verhältnis zweier unabhängig χ 2 verteilten Zufallsvariablen, die beide durch die entsprechenden Freiheitsgrade dividiert wurden, ist F-verteilt (vgl. Statistischen Appendix), deshalb ist die Teststatistik F-total Statistik = i (ŷ i ȳ) 2 i ˆε2 i n k k 1 ESS/(k 1) H = 0 F(k 1,n k) SSR/(n k) F-verteilt mit k 1 Zähler- und n k Nennerfreiheitsgraden. Wenn die durch alle erklärenden x Variablen gemeinsam erklärte Streuung ESS sehr klein ist im Verhältnis zur unerklärten Streuung SSR würde man einen sehr kleinen Wert der empirischen Statistik F emp erwarten. Wenn umgekehrt ESS groß ist im Verhältnis zu SSR leisten alle x Variablen gemeinsam offensichtlich einen großen Erklärungsbeitrag. Die Nullhypothese β 2 = β 3 = = β k = 0 wird deshalb verworfen, wenn der empirische Wert dieser F-Statistik größer ist als der kritische Wert F crit der F-Statistik, vgl. Abbildung 6.1. Der zur F-total Statistik gehörende p-wert ist wieder die Fläche unter der Verteilung rechts vom berechneten F emp -Wert, und wird standardmäßig von allen statistischen Programmpaketen ausgewiesen. Das Programm STATA liefert z.b. den in Tabelle 6.1 wiedergegebenen Regressionsoutput für das Beispiel mit der Produktionsfunktion; im Kopf des Outputs wird die komplette ANOVA-Tafel wiedergegeben. Dabei ist Model SS die ESS ( Explained Sum of Squares ), die Residual SS die SSR ( Sum of Squared Residuals ) und Total SS die TSS ( Total Sum of Squares ). Für Produktionsfunktions-Beispiel folgt (siehe Tabelle 6.1) F-total Stat = /(3 1) /(25 3) = EViews und R geben die ESS und TSS nicht automatisch aus, sondern nur die F-Statistik mit dem dazugehörigen p-wert.

8 Empirische Wirtschaftsforschung 8 f(f) Akzeptiere H 0 Verwirf H 0 F c F Abbildung 6.1: F-Test Tabelle 6.1: STATA Output Source SS df MS Number of obs = F( 2, 22) = Model Prob > F = Residual R-squared = Adj R-squared = Total Root MSE = log_q Coef. Std. Err. t P> t [95% Conf. Interval] const log_k log_l Exkurs Diese F-total Statistik kann alternativ auch mit Hilfe des Bestimmtheitsmaßes R 2 berechnet werden, denn unter Berücksichtigung von TSS = ESS + SSR und R 2 = ESS/TSS ESS/(k 1) F-total Stat = SSR/(n k) = n k ESS k 1 SSR = n k ESS k 1 TSS ESS = n k [ ] ESS/TSS k 1 1 (ESS/TSS) = n k [ ] R 2 k 1 1 R 2 Also F-total Stat = R 2 /(k 1) (1 R 2 )/(n k)

9 Empirische Wirtschaftsforschung 9 Die Alternativhypothese, dass zumindest für einen der Regressoren der wahre Wert des Regressionskoeffizienten von Null verschieden ist, wird akzeptiert, wenn die Nullhypothese H 0 : β 2 = β 3 = = β k = 0 (d.h. dass alle Koeffizienten mit Ausnahme des Interzepts β 1 gleich Null sind) verworfen wird. Man beachte, dass es sich dabei um einen simultanen Test von insgesamt k 1 Hypothesen handelt, wobei k 1 die Anzahl der Steigungskoeffizienten ist. Dies ist also ein Test, ob alle Regressoren gemeinsam einen Beitrag zur Erklärung vony leisten.wennderp-wertdieserf-statistikgrößeristalsdasapriorifestgelegte Signifikanzniveau sollte die Schätzung verworfen werden. Dieser F-total Test wird häufig auch einfach F-Test genannt, zum Beispiel im Regressionsoutput fast jeder Statistiksoftware, was aber etwas verwirrend ist, da jede F-verteilte Teststatistik zu einem F-Test führt, und davon gibt es eine Unmenge. Achtung: Man beachte, dass es nicht reicht zu überprüfen, ob alle Koeffizienten individuell signifikant von Null verschieden sind. Es ist sehr gut möglich, dass kein einziger Koeffizient signifikant von Null verschieden ist, dass aber alle Koeffizienten gemeinsam trotzdem signifikant von Null verschieden sind! Wie wir später sehen werden tritt dieser Fall bei Multikollinearität (d.h. wenn die erklärenden Variablen untereinander hoch korreliert sind) relativ häufig auf. Konkret, die mit der F-Statistik getestete gemeinsame Nullhypothese H 0 : β 2 = β 3 = = β k = 0 darf nicht durch eine Reihe individueller t-tests ersetzt werden! Der Grund dafür liegt darin, dass die F-Statistik die mögliche Korrelation zwischen den OLS-Schätzern β 2, β 3,..., β k berücksichtigt, während diese bei individuellen t- Tests unberücksichtigt bleibt. Dies wird in Abbildung 6.2 veranschaulicht, die zwei bivariate Normalverteilungen zeigt, links ohne und rechts mit einer Korrelation zwischen den Zufallsvariablen. Wenn die Variablen unkorreliert sind (linke Grafik) wird die gemeinsame Signifikanz durch einen Signifikanzkreis dargestellt, bei Korrelation zwischen den Variablen (rechte Grafik) durch eine Konfidenzellipse, die umso schmaler wird, je höher die Korrelation ist. Wir werden später sehen, dass viele der üblichen Teststatistiken für den simultanen Test mehrerer Hypothesen unter den Standardannahmen F-verteilt sind. Sollten z.b. im Modell y i = β 1 + β 2 x i2 + β 3 x i3 + ˆε i die beiden Koeffizienten β 2 und β 3 simultan getestet werden, so kann man die folgende Teststatistik verwenden: F = 1 [ ] S 2ˆσ 2 22 ( β 2 β 2 ) 2 +2S 23 ( β 2 β 2 )( β 3 β 3 )+S 33 ( β 3 β 3 ) 2 H0 F2,n 3 mit S 22 = i (x i2 x 2 ) 2 S 23 = i S 33 = i (x i2 x 2 )(x i3 x 3 ) (x i3 x 3 ) 2

10 Empirische Wirtschaftsforschung 10 ρ = 0: ρ = 0.7: Abbildung 6.2: Bivariate Normalverteilungen ohne und mit Korrelation zwischen den Zufallsvariablen DieseTeststatistik ist unter H 0 F-verteilt mit2zähler-undn 3 Nennerfreiheitsgraden. Diese F-Statistik kann für die Konstruktion einer Konfidenzregion verwendet werden. Wenn wir mit F crit den kritischen F-Wert mit 2 Zähler- und n 3 Nennerfreiheitsgraden bezeichnen ist diese Konfidenzregion [S 22 ( β 2 β 2 ) 2 +2S 23 ( β 2 β 2 )( β 3 β 3 )+S 33 ( β 3 β 3 ) 2 ] F crit (2ˆσ 2 ) Dies definiert eine Ellipsengleichung, das heißt, bei dem simultanen Test zweier Koeffizienten erhält man anstelle eines Konfidenzintervalls eine Konfidenzellipse. Sind die Koeffizienten β 2 und β 3 unkorreliert erhält man einen Kreis, und umso höher die Korrelation zwischen β 2 und β 3 ist, umso schmaler ist die Ellipse. Werden mehr als zwei Hypothesen gleichzeitig getestet erhält man ein höherdimensionales Ellipsoid. Beispiel: Das folgende Beispiel zeigt einen Fall, wo die F-Statistik die gemeinsame Nullhypothese β 2 = β 3 = 0 ablehnt, die individuellen t-tests einzeln aber weder die Ablehnung von β 2 = 0 noch von β 3 = 0 erlauben (auf dem 5% Niveau). Dependent Variable: Y Method: Least Squares Included observations: 50 Variable Coefficient Std. Error t-stat. Prob. const. β x 2 β x 3 β R-squared Log likelihood Adjusted R-squared S.E. of regression Sum squared resid F-statistic Durbin-Watson Stat Prob(F-statistic)

11 Empirische Wirtschaftsforschung 11 Die F-Statistik für die Nullhypothese H 0 : β 2 = 0 und β 3 = 0 ist in diesem Beispiel und kann damit mit einer Wahrscheinlichkeit kleiner als verworfen werden. In diesem Beispiel sind die Regressoren x 2 und x 3 hoch korreliert, d.h. es liegt Multikollinearität vor (der Korrelationskoeffizient zwischen x 2 und x 3 ist 0.95!), was auch zu einer Korrelation zwischen den geschätzten Koeffizienten führt. Die geschätzte Varianz-Kovarianzmatrix der Koeffizienten var(ˆβ) ist β 1 β2 β3 β β β deshalb ist die Korrelation corr( β 2, β 3 ) = / = Aufgrund dieser Korrelation ist die Konfidenzellipse in Abbildung 6.3 ziemlich schmal. Die Konfidenzintervalle für β 2 und β 3 einzeln sind in Abbildung 6.3 strichliert eingezeichnet. Zur Interpretation von Konfidenzellipsen gilt analoges wie für Konfidenzintervalle, wenn sehr viele Stichproben gezogen würden könnten wir damit rechnen, dass (1 α) 100% der resultierenden Konfidenzregionen die wahren Werte β 2 und β 3 enthalten würden. Erinnern wir uns, dass es eine enge Beziehung zwischen Konfidenzintervallen und Hypothesentests gibt. Wenn wir den unter der Nullhypothese vermuteten Wert des Parameters h mit β h bezeichnen (für h = 1,...,k), kann die Nullhypothese geschrieben werden als H 0 : β h = β h. Wenn der unter H 0 vermutete Wert β h im Konfidenzintervall liegt kann die Nullhypothese nicht verworfen werden, wenn der Wert β h hingegen außerhalb des Konfidenzintervalls liegt darf die Nullhypothese verworfen werden. Analoges gilt auch für die Konfidenzellipse. In Abbildung 6.3 ist ersichtlich, dass in diesem Beispiel weder die Nullhypothese H 0 : β 2 = 0 noch die Nullhypothese H 0 : β 3 = 0 einzeln abgelehnt werden kann, der Nullpunkt liegt innerhalb der beiden individuellen Konfidenzintervalle (als grau strichlierte Linien eingezeichnet). Hingegen kann die gemeinsame Nullhypothese, dass beide Steigungskoeffizienten simultan gleich Null sind H 0 : β 2 = 0 und β 3 = 0, abgelehnt werden, der Nullpunkt liegt außerhalb der Konfidenzellipse! Man sieht in Abbildung 6.3, dass es sehr viele Punkte wie z.b. (β 2,β 3) gibt, die ähnlich wie der Nullpunkt sowohl im Konfidenzintervall von β 2 als auch im Konfidenzintervall von β 3 liegen, aber nicht in der Konfidenzellipse für β 2 und β 3. Andererseits sind auch Fälle möglich, wie z.b. Punkt (β 2,β 3 ) in Abbildung 6.3, die außerhalb der beiden individuellen Konfidenzintervalle für β 2 und β 3 liegen, aber innerhalb der Konfidenzellipse. Das bedeutet, dass beide Koeffizienten individuell signifikant von β 2 und β 3 verschieden sind (d.h. es kann sowohl H 0 : β 2 = β 2 als auch H 0 : β 3 = β 3 individuell verworfen werden), aber dass die gemeinsame Nullhypothese H 0 : β 2 = β 2 und β 3 = β 3 nicht verworfen werden kann. Im Beispiel von Abbildung 6.3 ist der empirische t-wert für die H 0 : β 2 = 0.85 gleich t emp = 2.32 (mit p = 0.025), für H 0 : β 3 = 0.1 ist t emp = (p = 0.038),

12 Empirische Wirtschaftsforschung β Konfidenzintervall für β3 ( β 2, β 3 ) (0,0) (β 2,0,β 3,0) -0.4 Konfidenzintervall für β 2 (β 2,0,β 3,0) β 2 Abbildung 6.3: 95%-Konfidenzellipse für beide Koeffizienten und Konfidenzintervalle für die beiden einzelnen Koeffizienten für die Regression aus dem Beispiel auf Seite 10. Die t-statistiken der einzelnen Koeffizienten zeigen, dass die Koeffizienten einzeln nicht signifikant von Null verschieden sind (für α = 0.05), der Nullpunkt (0,0) liegt innerhalb der individuellen Konfidenzintervalle. Wie die F-total- Statistik hingegen zeigt sind Koeffizienten gemeinsam hochsignifikant von Null verschieden, der Nullpunkt liegt außerhalb der Konfidenzellipse! Zum Beispiel können weder die H 0 : β 2 = 0 noch die H 0 : β 3 = 0 einzeln verworfen werden, aber die simultane H 0 : β 2 = 0 und β 3 = 0 wird abgelehnt (der Punkt (0,9) liegt wie viele weitere Punkte (z.b. (β 2,0,β 3,0 )) innerhalb der einzelnen Konfidenzintervalle, aber außerhalb der Konfidenzellipse. Es ist auch möglich, dass die Nullhypothesen einzeln abgelehnt werden können, aber die simultane H 0 nicht abgelehnt werden kann, z.b. werden die H 0 : β 2 = β 2,0 und die H 0 : β 3 = β 3,0 beide einzeln verworfen, aber die simultane H 0 : β 2 = β 2,0 und β 3 = β 3,0 kann nicht verworfen werden!

13 Empirische Wirtschaftsforschung 13 beide Nullhypothesen können also auf einem Signifikanzniveau von 5% verworfen werden. Aber der empirische F-Wert der gemeinsamen Nullhypothese H 0 : β 2 = 0.85 und β 3 = 0.1 ist F emp = 2.74 mit p = 0.075, die gemeinsame Nullhypothese kann also auf einem Signifikanzniveau von 5% nicht verworfen werden! Die t-statistiken der einzelnen Koeffizienten können also signifikant sein, obwohl die F-Statistik für die gemeinsame Nullhypothese nicht signifikant ist. Solche Fälle sind allerdings selten und treten meist nur bei hoher Multikollinearität auf. Als nächstes werden wir eine allgemeinere Möglichkeiten kennen lernen eine F- Statistik zu berechnen, die den Test komplexerer Nullhypothesen erlaubt. 6.3 Simultane Tests auf (mehrere) lineare Restriktionen Zahlreiche Tests beruhen auf einem Vergleich zweier Modelle. Dabei wird in der Regel ein Modell ohne Restriktion(en) geschätzt und mit einem anderen Modell verglichen, das unter Berücksichtigung einer oder mehrerer Restriktionen geschätzt wurde (vgl. Griffiths et al., 1993, Chapter 11). In diesem Fall lässt sich das restringierte Modell immer als Speziallfall eines allgemeinen (d.h. nicht restringierten) Modells darstellen. Ein Test zwischen zwei Modellen, bei denen es möglich ist eines der beiden Modelle durch geeignete Parameterrestriktionen in das andere Modell überzuführen, wird im Englischen als nested test (geschachtelte Hypothesen) bezeichnet. In diesem Abschnitt werden wir uns ausschließlich auf solche nested tests beschränken. Ein ganz einfaches Beispiel für ein Modell ohne Restriktionen sei z.b. Unter der Restriktion β 3 = 0 gilt y i = β 1 +β 2 x i2 +β 3 x i3 +ε i da 0 x i3 = 0. y i = β 1 +β 2 x i2 +ε i Wenn das wahre β 3 tatsächlich Null ist sollte ε i = ε i sein, und die beiden Stichprobenregressionsfunktionen (SRF) y i = β 1 + β 2 x i2 + β 3 x i3 +ˆε i und y i = β 1 + β 2 x i2+ˆε i sollten sehr ähnliche Residuen liefern. Ein anderes Beispiel, wenn die Nullhypothese β 3 = 1 richtig ist kann das Modell unter dieser Restriktion geschrieben werden als und die entsprechende SRF in der Form y i = β1 +β 2 x i2 +1x i3 +ε i (y i x i3 ) = β 1 + β 2 x i2 + ˆε i schätzen, wobei wir aber einen neue abhängige Variable y = (y i x i3 ) bilden müssen.

14 Empirische Wirtschaftsforschung 14 Im Prinzip werden für geschachtelte ( nested ) Tests immer zwei Gleichungen geschätzt, eine Gleichung ohne Restriktion(en), das nicht-restringierte (bzw. unrestringierte) Modell, und eine eine Gleichung mit Restriktion(en) das restringierte Modell das man im wesentlichen durch Einsetzen der Nullhypothese in das nicht restringierte Modell erhält. Dieser Test ist sehr allgemein einsetzbar und kann auch für den Test mehrerer Restriktionen verwendet werden Beispiele Im Folgenden bezeichnet q die Anzahl der Restriktionen: PRF: β 1 +β 2 x 2 +β 3 x 3 +ε Restriktion: H 0 : β 2 = β 3 (q = 1) Modell ohne Restriktion: y = β 1 + β 2 x 2 + β 3 x 3 + ˆε Modell mit Restriktion: y = β 1 + β 2 (x 2 +x 3 )+ ˆε Wenn die Nullhypothese β 2 = β 3 wahr ist würden wir für die Schätzungen des restringierten und nicht-restringierten Modells zumindest sehr ähnliche Ergebnisse erwarten. PRF: β 1 +β 2 x 2 +β 3 x 3 +β 4 x 4 +ε Restriktion: H 0 : β 3 = 0 & β 4 = 0 (q = 2) Modell ohne Restriktion: y = β 1 + β 2 x 2 + β 3 x 3 + β 4 x 4 + ˆε Modell mit Restriktion: y = β 1 + β 2 x 2 + ˆε PRF: β 1 +β 2 x 2 +β 3 x 3 +ε Restriktion: H 0 : β 2 +β 3 = 1 (q = 1) Modell ohne Restriktion: y = β 1 + β 2 x 2 + β 3 x 3 + ˆε Modell mit Restriktion: y = β 1 + β 2 x 2 +(1 β 2 )x 3 + ˆε diese Gleichung kann in der folgenden Form geschätzt werden: y x 3 = β 1 + β 2(x 2 x 3 )+ ˆε Man beachte, dass in diesem Fall zwei neue Variablen y x 3 und x 2 x 3 angelegt werden müssen. PRF: β 1 +β 2 x 2 +β 3 x 3 +β 4 x 4 +ε Restriktion: H 0 : β 2 = 0.5 β 3 & β 4 = 1 (q = 2) Modell ohne Restriktion: y = β 1 + β 2 x 2 + β 3 x 3 + β 4 x 4 + ˆε Modell mit Restriktionen: y +x 4 = β 1 + β 3 [0.5x 2 +x 3 ]+ ˆε

15 Empirische Wirtschaftsforschung 15 Wenn die entsprechenden Nullhypothesen wahr sind würden wir für die Schätzungen der Stichprobenregressionsfunktionen des restringierten und nicht-restringierten Modells sehr ähnliche Ergebnisse erwarten, insbesondere sollten sich auch die Quadratsummen der Residuen des nicht-restringierten und des restringierten Modells nicht stark unterscheiden. Tatsächlich kann man zeigen, dass aus diesen Quadratsummen der Residuen eine einfache Teststatistik konstruiert werden kann, die einen Test der Nullhypothese(n) erlaubt. Wenn wir mit SSR u (Sum od Squared Residuals) die Quadratsumme der Residuen ohne Restriktionen (der Subindex u für unrestricted) und mit SSR r die Quadratsumme der Residuen des r estringierten Modells bezeichnen, so kann man zeigen, dass der Skalar F-Stat = (SSR r SSR u )/q SSR u /(n k) H 0 Fq,n k (6.1) unter H 0 F-verteilt ist mit q Zähler und (n k) Nennerfreiheitsgraden, wobei q die Anzahl der Restriktionen bezeichnet. 11 Zwischenfrage: Warum muss immer gelten SSR r SSR u? Dieser Test ist sehr allgemein und kann für verschiedenste Tests von Restriktionen auf Koeffizienten verwendet werden. Mit Hilfe dieser Teststatistik kann wieder der p-wert nach Fisher berechnet werden, oder man kann einen Neyman und Pearson vorgehen 1. Formuliere Null- und Alternativhypothese. 2. Lege a priori ein Signifikanzniveau α fest. 3. Verwende die Information über die Teststatistik und die Freiheitsgrade, um den kritischen Wert Fq,n k crit in eienr F-Tabelle nachzuschlagen. Verwende diesen um Annahme- und Verwerfungsbereich festzulegen. 4. Schätze das Modell ohne Restriktionen mittels OLS. Berechne aus diesem nicht restringierten Modell die Quadratsumme der Residuen SSR u (in EViews z.b. mit eqname.@ssr; in R deviance(eqname); in Stata mit dem postestimation Befehl e(rss)). 5. Schätze das Modell mit den Restriktionen der Nullhypothese (das restringierte Modell) mittels OLS. Berechne daraus die restringierte Quadratsumme der Residuen SSR r. 6. Berechne daraus den empirischen Wert der F-Statistik F emp = (SSR r SSR u )/q SSR u /(n k) wobei die Zählerfreiheitsgrade q die Anzahl der Restriktionen sind, n k die Nennerfreiheitsgrade. 11 Die Quadratsumme der Residuen ist n i=1 ˆε2 i und kann in Vektorschreibweise auch als inneres Produkt des Residuenvektors geschrieben werden ˆε ˆε.

16 Empirische Wirtschaftsforschung Vergleiche diesen Wert mit dem kritischen Wert der F-Statistik laut Tabelle Fq,n k crit. Wenn der empirische Wert Femp größer ist als der kritische Wert Fq,n k crit wird die Nullhypothese verworfen, anderenfalls darf sie nicht verworfen werden. Vorsicht: bei fehlenden Werten ist darauf zu achten, dass restringiertes und nichtrestringiertes Modell auf der gleichen Beobachtungszahl beruhen. Wenn einzelne Beobachtungen einer x Variable fehlen, die im restringierten Modell nicht vorkommt, kann es passieren, dass restringiertes und nicht-restringiertes Modell auf einer anderen Datengrundlage beruhen und die Statistik deshalb fehlerhaft berechnet wird. Die übliche ökonometrische Software berücksichtigt dies natürlich automatisch, aber wenn man die Statistik händisch berechnet muss man darauf achtgeben. Diese Art Tests können mit der üblicher Software natürlich viel einfacher durchgeführt werden. In EViews würde man im Equation-Menü Coefficient Tests Wald - Coefficient Restrictions wählen und die Restriktionen direkt eingeben, oder noch einfacher mit dem Befehl eqname.wald Hypothese(n). Dies geschieht mittels des Koeffizienten Vektors, auf dessen Elemente in EViews mit c(h) zugegriffen wird, wobei h die Nummer des Koeffizienten ist (c(1) ist z.b. der erste Koeffizient, c(2) der zweite Koeffizient, usw.), In Stata kann der Befehl test verwendet werden, z.b. gen logq = log(quantity) gen logl = log(labor) gen logk = log(capital) regress logq logl logk test logl + logk = 1 Für R stellt z.b. das package car den Befehl linearhypothesis() zur Verfügung, z.b. library(car) eq1 <- lm(log(q) ~ log(l) + log(k)) linearhypothesis(eq1, "log(l) + log(k) = 1") Beispiel: Angenommen, wir möchten eine Cobb-Douglas Produktionsfunktion schätzen und auf konstante Skalenerträge testen. Bekanntlich ist die Cobb-Douglas Produktionsfunktion log-linear, d.h. Q = AK α L β lnq = lna+αlnk +βlnl Die Nullhypothese konstanter Skalenerträge ist H 0 : α+β = 1. Das Modell ohne Restriktionen ist natürlich lnq = lna+αlnk +βlnl ˆε ˆε = SSR u wobei SSR wie üblich für Sum of Squared Residuals 12 steht, und der Subindex u zum Ausdruck bringen soll, dass es sich um die unrestricted Gleichung handelt. 12 Manchmal wird dafür auch RSS für Residual Sum Squared geschrieben.

17 Empirische Wirtschaftsforschung 17 Das Modell mit der Restriktion α + β = 1 erhalten wir, indem wir für β = 1 α einsetzen und umformen lnq = lna+αlnk +(1 α)lnl lnq lnl = lna+α(lnk lnl) ˆε rˆε r = SSR r Das folgende EViews Programm berechnet diese F-Statistik und den dazugehörigen p-wert für einen Datensatz mit 25 Beobachtungen. Wir benötigen zwei Schätzungen, wobei wir der ersten den Namen U (für unrestricted) und der zweiten den Namen R (für restricted) geben. equation U.ls log(q) c log(k) log(l) scalar SSR_u = U.@ssr equation R.ls log(q)-log(l) c log(k)-log(l) scalar SSR_r = R.@ssr scalar F_Stat = ((SSR_r - SSR_u)/1)/(SSR_u/(25-3)) scalar p_value = 1 Viel einfacher geht s mit dem Befehl wald, z.b. equation c EQ1.wald c(2) + c(3) = 1 Diese letzten zwei Zeilen liefern folgenden EViews Output: Wald Test: Equation: EQ1 Test Statistic Value df Probability F-statistic (1, 22) Chi-square Null Hypothesis Summary: Normalized Restriction (= 0) Value Std. Err C(2) + C(3) Restrictions are linear in coefficients. Da in diesem Fall nur eine Hypothese getestet wurde kann dieser Test auch mit einem t-test wie im vorhergehenden Abschnitt durchgeführt werden, und das haben wir im vorhergehenden Abschnitt auch tatsächlich getan. Sie können überprüfen, dass Sie dort mit dem t-test den exakt gleichen p-wert (= ) erhalten haben, den wir hier mit dem F-Test erhalten. Ein F-Test wird erst benötigt, wenn mehrere Hypothesen gemeinsam getestet werden sollen, aber er ist meist auch für einzelne Tests einfacher durchzuführen, und liefert natürlich immer das gleiche Ergebnis Im Fall einer einzelnen Hypothese kann man zeigen, dass der F-Test das Quadrat der entsprechenden t-statistik ist.

18 Empirische Wirtschaftsforschung Ein Test auf Strukturbrüche (Chow Test) Der Chow Test ist ein nützlicher Test auf Strukturbrüche, oder in anderen Worten, ein Test Unterschiede zwischen einzelnen Gruppen oder Zeitperioden. Zum Beispiel kann der Chow Test verwendet werden um zu testen, ob sich die Koeffizienten einer Regression, die über eine Stichprobe von Männern geschätzt wurde, von den Koeffizienten einer Regression über eine Stichprobe von Frauen unterscheiden. Kann die entsprechende Nullhypothese verworfen werden wird daraus geschlossen, dass in Bezug auf den in der Regressionsgleichung modellierten Zusammenhang signifikante Unterschiede zwischen Männern und Frauen bestehen. Häufig wird er auch für Zeitreihen verwendet um zu untersuchen, ob sich der modellierte Zusammenhang durch ein Ereignis, welches zu einem bestimmten Zeitpunkt eingetreten ist, geändert hat. Um den Chow Test durchführen zu können muss der Zeitpunkt des Strukturbruchs (oder die Gruppenzugehörigkeit) a priori bekannt sein. Natürlich müssen auch alle anderen Gauss Markov Annahmen erfüllt sein, z.b. dürfen sich die Varianzen der Störterme nicht zwischen den Gruppen unterscheiden (keine Heteroskedastizität). Angenommen wir vermuten, dass in der Grundgesamtheit zwischen zwei Gruppen (oder Perioden) Unterschiede bestehen, d.h. y i = β 1 +β 2 x i1 + +β k x ik +ε i y j = β1 +β 2 x j1 + +βk x jk +ε j mit i = 1,2,...,n 1, j = n 1 +1,n 1 +2,...,n. Die Nullhypothese ist H 0 : β 1 = β 1, β 2 = β 2,..., β k = β k und die Alternativhypothese, dass mindestens eine dieser Bedingungen nicht erfüllt ist. Das nicht-restringierte Modell besteht aus den zwei unabhängig geschätzten Gleichungen, d.h. man schätzt zwei getrennte Regressionen für die beiden Gruppen(Subsamples) mit n 1 bzw. n 2 Beobachtungen (mit n 1 +n 2 = n), und berechnet daraus die Quadratsummen der Residuen y i = β 1 + β 2 x i2 + + β k x ik + ˆε i SSR 1 u mit i = 1,...,n 1 y j = β 1 + β 2x j2 + + β kx jk + ˆε j mit j = n 1 +1,...,n SSR 2 u Man kann zeigen, dass die nicht-restringierte Quadratsumme der Residuen die Summe der Quadratsummen der Residuen der beiden Gleichungen ist, d.h. wenn wir mit SSR u wieder die Quadratsumme der Residuen des nicht-restringierten Modells bezeichnen SSR u = SSR 1 u +SSR2 u

19 Empirische Wirtschaftsforschung 19 mit (n 1 k)+(n n 1 k) = n 2k Freiheitsgraden. Wenn die Nullhypothese wahr ist stimmen alle Koeffizienten der beiden Modelle überein, das heißt, das restringierte Modell wird einfach über alle n Beobachtungen (also über beide Gruppen) geschätzt. mit i = 1,...,n. y i = β r 1 + β r 2 x i2 + + β r k x ik + ˆε r i RSS r Chow (1960) hat gezeigt, dass die folgende Teststatistik für diese Nullhypothese F-verteilt ist F = (SSR r SSR u )/k SSR u /(n 2k) H 0 Fk,n 2k wobei n wieder die Anzahl der Beobachtungen und k die Anzahl der geschätzten Koeffizienten ist. Die Gültigkeit dieses Test beruht unter anderem auf der Annahme, dass die Varianz der Störterme σ 2 in allen Gruppen (Subsamples) gleich groß ist (keine Heteroskedastizität). Dieser Test wird häufig auch angewandt um zu testen, ob in einem Zeitpunkt t eine Änderung eingetreten ist, indem man eine Regression über den Zeitraum 1 bis t m schätzt, eine zweite Regression über den Zeitraum t m + 1 bis T, und mittels der F-Statistik diese beiden Schätzungen mit einer Regression über den gesamten Zeitraum 1 bis T vergleicht. Zum Beispiel kann damit getestet werden, ob eine zu einem Zeitpunkt t gesetzte Maßnahme eine Auswirkung auf den untersuchten Zusammenhang hatte. Beispiel: Wir möchten testen, ob die Determinanten des Lohneinkommens für verheiratete Menschen gleich sind wie für Singles. Als Determinanten des Lohneinkommens WAGE (= durchschnittlicher Stundenlohn in US-$) verwenden wir die Jahre der Schulbildung (EDUC) und die Jahre an Berufserfahrung (EXPER). 14 Das folgende EViews-, R- und Stata Programm schätzt das restringierte und nichtrestringierte Modell und berechnet F emp sowie den dazugehörigen p-wert. wfopen " Regression über alle Beobachtungen, restringiertes Modell equation eq_r.ls WAGE c EDUC EXPER scalar SSR_r = eq_r.@ssr scalar N = eq_r.@regobs Regression über alle Verheirateten if Married = 1 equation eq_u1.ls WAGE c EDUC EXPER scalar SSR_u1 = eq_u1.@ssr scalar N1 = eq_u1.@regobs 14 Die Daten stammen aus dem Begleitmaterial zum Lehrbuch von J. Wooldridge: Introductory Econometrics.

20 Empirische Wirtschaftsforschung 20 Regression über alle Singles if Married = 0 equation eq_u2.ls WAGE c EDUC EXPER scalar SSR_u2 = eq_u2.@ssr scalar N2 = eq_u2.@regobs scalar SSR_u = SSR_u1 + SSR_u2 scalar F_Stat = ((SSR_r - SSR_u)/3)/(SSR_u/(N - 2*3)) scalar p_value = 1-@cfdist(F_Stat,3,n-6) R-Code: rm(list=ls()) library("foreign") wage1 <- read.dta(" # restringiertes Modell eq_r <- lm(wage ~ educ + exper,data=wage1) SSR_r <- deviance(eq_r) N <- nobs(eq_r) # nur Verheiratete eq_u1 <- lm(wage ~ educ + exper,subset(wage1,married==1)) SSR_u1 <- deviance(eq_u1) N1 <- nobs(eq_u1) # nur Unverheiratete eq_u2 <- lm(wage ~ educ + exper,subset(wage1,married==0)) SSR_u2 <- deviance(eq_u2) N2 <- nobs(eq_u2) # SSR für nicht restringiertes Modell SSR_u <- SSR_u1 + SSR_u2 F_Stat = ((SSR_r - SSR_u)/3)/(SSR_u/(N-2*3)) p_value = 1-pf(F_Stat,3,N-6) cat("f-stat: ", F_Stat, ", p-value: ", p_value ) # F-Stat: , p-value: Stata Code: clear use // unrestricted reg wage exper educ ereturn list scalar rss_r = e(rss)

21 Empirische Wirtschaftsforschung 21 scalar N = e(n) // Married reg wage exper educ if married == 1 scalar rss_u1 = e(rss) scalar N1 = e(n) // Not married reg wage exper educ if married == 0 scalar rss_u2 = e(rss) scalar N2 = e(n) // unrestricted sum of squared residuals scalar rss_u = rss_u1 + rss_u2 scalar F_Stat = ((rss_r - rss_u)/3)/(rss_u/(n-2*3)) scalar p_value = Ftail(3,N-6,F_Stat) dis "F-Stat: " F_Stat ", p-value: " p_value // F-Stat: , p-value: Tabelle 6.2: Lohngleichungen: Dependent variable: Wage restricted unrestricted All Married Single (1) (2) (3) Constant (0.767) (1.220) (0.879) Educ (0.054) (0.080) (0.066) Exper (0.011) (0.017) (0.014) Observations R Residual Std. Error Sum of Squared Res Note: p<0.1; p<0.05; p<0.01 Die Quadratsumme der Residuen des nicht-restringierten Modells ist = Die oben angeführten Programme berechnen folgende F- Statistik F = ( )/3 = /(526 6)

22 Empirische Wirtschaftsforschung 22 Der kritische Wert der F-Statistik für 3 Zähler- und Nennerfreiheitsgrade und für ein Signifikanzniveau von 5% ist 2.60, also kann die Nullhypothese H 0 : β m 1 = βs 1, βm 2 = βs 2, und βm 3 = βs 3 auf einem 5%-Signifikanzniveau verworfen werden (der hochgestellte Index m steht für married und s für single ), d.h. es gibt signifikante Lohnunterschiede zwischen Verheirateten und Singles, selbst wenn für die Schulbildung und Berufserfahrung kontrolliert wird! Der kritische Wert der F-Statistik für ein Signifikanzniveau von 1% ist 3.78, die Nullhypothese kann also auch noch auf einem 1%-Signifikanzniveau verworfen werden. Die obigen Programme berechnen auch den p-wert PVAL = equation eq2.ls wage c educ exper eq2.facbreak married gelöst werden, diese liefern folgenden Output: Factor Breakpoint Test: MARRIED Null Hypothesis: No breaks at specified breakpoints Varying regressors: All equation variables Equation Sample: F-statistic Prob. F(3,520) Log likelihood ratio Prob. Chi-Square(3) Wald Statistic Prob. Chi-Square(3) Factor values: MARRIED = 0 MARRIED = 1 Natürlich geht das auch viel einfacher, wenn man auf die geeigneten Befehle zurückgreift. In EViews ist dies z.b. der chow Befehl, der v.a. für Zeitreihendaten verwendet wird, wenn das Datum des Strukturbruchs bekannt ist, und facbreak, der nützlich ist, wenn eine Datenreihe für die Klassifikation vorliegt (in obigem Beispiel z.b. die Dummy Variable married). Obiges Beispiel kann auch einfach mit den zwei Befehlszeilen Selbstverständlich sind diese Tests in EViews auch im im Equation-Menü unter View/Stability Tests/... verfügbar. Für R liefert das Packet strucchange von Zeileis u.a. die Option für einen Chow- Test. Hier ein Beispiel: rm(list=ls()) library(strucchange) library("foreign") mydata <- read.dta(" # Sortieren mydata.sort <- mydata[order(mydata$married), ] # Strukturbruch finden brk <- which(mydata.sort$married==1)[1]-1

23 Empirische Wirtschaftsforschung 23 # Chow Strukturbruchtest sctest(wage ~ educ + exper, type = "Chow", point = brk, data = mydata.sort) # F = , p-value = Für Stata siehe z.b. Übung: Wie lautet die Formel der Teststatistik für drei Sub-Samples? Non-sample Information Bekanntlich ist der OLS-Schätzer unter den Gauss-Markov Annahmen BLUE. Wenn allerdings zusätzliche Information über Zusammenhänge in der Grundgesamtheit vorliegt, kann die Effizienz des Schätzers durch Berücksichtigung dieser (nicht aus der Stichprobe gewonnenen!) Information erhöht werden! Zum Beispiel sagt uns die ökonomische Theorie, dass die Multiplikation aller Preise und des Einkommens mit einer Konstanten keinen Einfluss auf die Budgetgerade, und damit auch keinen Einfluss auf die optimale Entscheidung hat ( Freiheit von Geldillusion, bzw. Nachfragefunktionen sind homogen vom Grad Null in den Preisen und dem Einkommen). Dies lässt sich als eine Restriktion auf die Koeffizienten interpretieren. Durch die Nutzung dieser zusätzlichen a-priori Information durch Berücksichtigung der Restriktion kann die Effizienz der Schätzung erhöht werden. Ist diese Restriktion in der Grundgesamtheit hingegen nicht erfüllt, so führt dies zu einer verzerrten Schätzung. Literaturverzeichnis Chow, G. C. (1960), Tests of Equality Between Sets of Coefficients in Two Linear Regressions, Econometrica 3, Griffiths, W. E., Hill, R. C. and Judge, G. G. (1993), Learning and Practicing Econometrics, 1 edn, Wiley. Leamer, E. E. (1983), Let s take the con out of econometrics, The American Economic Review 73(1),

Einfache Hypothesentests für multiple Regressionen

Einfache Hypothesentests für multiple Regressionen Kapitel 6 Einfache Hypothesentests für multiple Regressionen Economists have inherited from the physical sciences the myth that scientific inference is objective, and free of personal prejudice. This is

Mehr

x t2 y t = 160, y = 8, y y = 3400 t=1

x t2 y t = 160, y = 8, y y = 3400 t=1 Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =

Mehr

Empirische Wirtschaftsforschung

Empirische Wirtschaftsforschung Empirische Wirtschaftsforschung Herbert Stocker Online-Exercise: Life expectancy Die durchschnittliche Lebenserwartung hat in den meisten Ländern über die letzten fünf Dekaden mehr oder weniger stark zugenommen.

Mehr

X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?

X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode? Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Statistischer Rückschluss und Testen von Hypothesen

Statistischer Rückschluss und Testen von Hypothesen Statistischer Rückschluss und Testen von Hypothesen Statistischer Rückschluss Lerne von der Stichprobe über Verhältnisse in der Grundgesamtheit Grundgesamtheit Statistischer Rückschluss lerne aus Analyse

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 40 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 2 Ökonometrie I Michael Hauser 2 / 40 Inhalt ANOVA, analysis of variance korrigiertes R 2, R 2 F-Test F-Test bei linearen Restriktionen Erwartungstreue,

Mehr

1 Beispiel zur Methode der kleinsten Quadrate

1 Beispiel zur Methode der kleinsten Quadrate 1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25

Mehr

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen. Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula

Mehr

V. Das lineare Regressionsmodell

V. Das lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Tino Conrad, M.Sc. Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2016 Übung zur

Mehr

Kurs Empirische Wirtschaftsforschung

Kurs Empirische Wirtschaftsforschung Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte)

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte) Aufgabe 3 (6 + 4 + 8 + 4 + 10 + 4 + 9 + 4 + 8 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe eines multiplen linearen Regressionsmodells soll auf

Mehr

Allgemein zu Hypothesentests: Teststatistik. OLS-Inferenz (Small Sample) Allgemein zu Hypothesentests

Allgemein zu Hypothesentests: Teststatistik. OLS-Inferenz (Small Sample) Allgemein zu Hypothesentests OLS-Inferenz (Small Sample) K.H. Schild 3. Mai 017 Allgemein zu Hypothesentests: Teststatistik Konstruktion eines Hypothesentests erfolgt meistens über eine Teststatistik Eine Teststatistik T ist eine

Mehr

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers 4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis

Mehr

Probeklausur EW II. Für jede der folgenden Antworten können je 2 Punkte erzielt werden!

Probeklausur EW II. Für jede der folgenden Antworten können je 2 Punkte erzielt werden! Probeklausur EW II Bitte schreiben Sie Ihre Antworten in die Antwortfelder bzw. markieren Sie die zutreffenden Antworten deutlich in den dafür vorgesehenen Kästchen. Wenn Sie bei einer Aufgabe eine nicht-zutreffende

Mehr

Teekonsum in den USA (in 1000 Tonnen), Nimmt den Wert 1 an für alle Perioden, Durchschnittlicher Preis des Tees in Periode t (in Tausend $/Tonne).

Teekonsum in den USA (in 1000 Tonnen), Nimmt den Wert 1 an für alle Perioden, Durchschnittlicher Preis des Tees in Periode t (in Tausend $/Tonne). Aufgabe 1 (5 Punkte) Gegeben sei ein lineares Regressionsmodell in der Form. Dabei ist y t = x t1 β 1 + x t β + e t, t = 1,..., 10 (1) y t : x t1 : x t : Teekonsum in den USA (in 1000 Tonnen), Nimmt den

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

Das Lineare Regressionsmodell

Das Lineare Regressionsmodell Das Lineare Regressionsmodell Bivariates Regressionsmodell Verbrauch eines Pkw hängt vom Gewicht des Fahrzeugs ab Hypothese / Theorie: Je schwerer ein Auto, desto mehr wird es verbrauchen Annahme eines

Mehr

8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme)

8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) 8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) Annahme B4: Die Störgrößen u i sind normalverteilt, d.h. u i N(0, σ 2 ) Beispiel: [I] Neoklassisches Solow-Wachstumsmodell Annahme einer

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur

Mehr

Schätzung im multiplen linearen Modell VI

Schätzung im multiplen linearen Modell VI Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,

Mehr

Kapitel 10. Multikollinearität. Exakte Multikollinearität Beinahe Multikollinearität

Kapitel 10. Multikollinearität. Exakte Multikollinearität Beinahe Multikollinearität Kapitel 0 Multikollinearität Exakte Multikollinearität Beinahe Multikollinearität Exakte Multikollinearität Unser Modell lautet y = Xb + u, Dimension von X: n x k Annahme : rg(x) = k Wenn sich eine oder

Mehr

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

Mikro-Ökonometrie: Small Sample Inferenz mit OLS

Mikro-Ökonometrie: Small Sample Inferenz mit OLS Mikro-Ökonometrie: Small Sample Inferenz mit OLS 1. November 014 Mikro-Ökonometrie: Small Sample Inferenz mit OLS Folie Zusammenfassung wichtiger Ergebnisse des letzten Kapitels (I) Unter den ersten vier

Mehr

Prognoseintervalle für y 0 gegeben x 0

Prognoseintervalle für y 0 gegeben x 0 10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Datum Vorlesung 18.10.2006 Einführung 18.10.2006 Beispiele 25.10.2006 Daten 08.11.2006 Variablen Kontinuierliche

Mehr

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)

Mehr

Übungsblatt 10: Lineare Regression (Sitzung 11)

Übungsblatt 10: Lineare Regression (Sitzung 11) 1 Übungsblatt 10: Lineare Regression (Sitzung 11) Aufgabe 1 a) Nach welchem Kriterium wird die Regressionsgerade zur Vorhersage von Y-Werten festgelegt? b) Was sind die Gemeinsamkeiten und Unterschiede

Mehr

Heteroskedastie. Test auf Heteroskedastie. Heteroskedastie bedeutet, dass die Varianz der Residuen in der Stichprobe nicht konstant ist.

Heteroskedastie. Test auf Heteroskedastie. Heteroskedastie bedeutet, dass die Varianz der Residuen in der Stichprobe nicht konstant ist. Heteroskedastie Heteroskedastie bedeutet, dass die Varianz der Residuen in der Stichprobe nicht konstant ist. Beispiele: Bei Zeitreihendaten : Ansteigen der Varianz über die Zeit, Anstieg der Varianz mit

Mehr

Dipl. Vw. Matthias Kirbach Sommersemester Übung VII/ VIII. Makroökonometrische Modellierung nach der Vereinigung

Dipl. Vw. Matthias Kirbach Sommersemester Übung VII/ VIII. Makroökonometrische Modellierung nach der Vereinigung Dipl. Vw. Matthias Kirbach Sommersemester 2005 Abteilung Wirtschaftspolitik Helmholtzstr. 20, Raum E 02 Tel. 0731 50 24265 UNIVERSITÄT CURANDO DOCENDO ULM SCIENDO Fakultät für Mathematik und Wirtschaftswissenschaften

Mehr

1. Lösungen zu Kapitel 7

1. Lösungen zu Kapitel 7 1. Lösungen zu Kapitel 7 Übungsaufgabe 7.1 Um zu testen ob die Störterme ε i eine konstante Varianz haben, sprich die Homogenitätsannahme erfüllt ist, sind der Breusch-Pagan-Test und der White- Test zwei

Mehr

Prof. Dr. Marc Gürtler WS 2015/2016. Prof. Dr. Marc Gürtler. Klausur zur 10/12 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft

Prof. Dr. Marc Gürtler WS 2015/2016. Prof. Dr. Marc Gürtler. Klausur zur 10/12 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft Prof. Dr. Marc Gürtler WS 015/016 Prof. Dr. Marc Gürtler Klausur zur 10/1 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft Lösungsskizze Prof. Dr. Marc Gürtler WS 015/016 Aufgabe 1: (11+5+1+8=56

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden

Mehr

Empirische Wirtschaftsforschung

Empirische Wirtschaftsforschung Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 6.. Herleitung des OLS-Schätzers

Mehr

Kapitel 3. Inferenz bei OLS-Schätzung I (small sample, unter GM1,..., GM6)

Kapitel 3. Inferenz bei OLS-Schätzung I (small sample, unter GM1,..., GM6) 8 SMALL SAMPLE INFERENZ DER OLS-SCHÄTZUNG Damit wir die Verteilung von t (und anderen Teststatistiken) exakt angeben können, benötigen wir Verteilungsannahmen über die Störterme; Kapitel 3 Inferenz bei

Mehr

Analyse von Querschnittsdaten. Signifikanztests II Advanced Stuff

Analyse von Querschnittsdaten. Signifikanztests II Advanced Stuff Analyse von Querschnittsdaten Signifikanztests II Advanced Stuff Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 9..5 6..5..5 9..5 6..5..5..5

Mehr

Prof. Regina T. Riphahn, Ph.D. WS 04/05 Abschlussklausur zur Veranstaltung "Einführung in die Ökonometrie" am 24. Februar 2005,

Prof. Regina T. Riphahn, Ph.D. WS 04/05 Abschlussklausur zur Veranstaltung Einführung in die Ökonometrie am 24. Februar 2005, Prof. Regina T. Riphahn, Ph.D. WS 4/5 Abschlussklausur zur Veranstaltung "Einführung in die Ökonometrie" am 24. Februar 25, 9.-1.3 Uhr Erlaubte Hilfsmittel: Tabelle der statistischen Verteilungen, 4 DIN

Mehr

1. Erklären Sie den Unterschied zwischen einem einseitigen und zweiseitigen Hypothesentest.

1. Erklären Sie den Unterschied zwischen einem einseitigen und zweiseitigen Hypothesentest. Statistik II Übung 3: Hypothesentests Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier Stichproben). Verwenden

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall

Mehr

Analyse von Querschnittsdaten. Signifikanztests II Advanced Stuff

Analyse von Querschnittsdaten. Signifikanztests II Advanced Stuff Analyse von Querschnittsdaten Signifikanztests II Advanced Stuff Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum..4..4 7..4..4..4 7..4 4..4..4

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests. 0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme)

2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme) 2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme) Annahme A1: Im multiplen Regressionsmodell fehlen keine relevanten exogenen Variablen und die benutzten exogenen Variablen x 1,

Mehr

Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen

Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen 4 Multiple lineare Regression Heteroskedastische Störgrößen 4.10 Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen Ein approximatives

Mehr

2 Anwendungen und Probleme

2 Anwendungen und Probleme Prof. Dr. Werner Smolny Sommersemester 2005 Abteilung Wirtschaftspolitik Helmholtzstr. 20, Raum E 05 Tel. 0731 50 24261 UNIVERSITÄT DOCENDO CURANDO ULM SCIENDO Fakultät für Mathematik und Wirtschaftswissenschaften

Mehr

Ein Modell für den Weltmarkt von Kupfer

Ein Modell für den Weltmarkt von Kupfer Draft 1 Ein Modell für den Weltmarkt von Kupfer siehe Estimating and Forecasting Industry Demand for Price-Taking Firms, aus: Thomas, Maurice: Managerial Economics, 9/e http://highered.mcgraw-hill.com/sites/dl/free/0073402818/459485/tho02818_mod3_web.pdf

Mehr

Musterlösung. Kind Blume (beredet) Blume (nicht beredet)

Musterlösung. Kind Blume (beredet) Blume (nicht beredet) Prüfung Statistik Sommer 2012 Musterlösung 1. (9 Punkte) F. Lauer möchte das Gerücht überprüfen, dass Blumen schneller wachsen, wenn man mit ihnen redet. Daher kauft sie acht identische Blumenzwiebeln,

Mehr

3. Das einfache lineare Regressionsmodell

3. Das einfache lineare Regressionsmodell 3. Das einfache lineare Regressionsmodell Ökonometrie: (I) Anwendung statistischer Methoden in der empirischen Forschung in den Wirtschaftswissenschaften Konfrontation ökonomischer Theorien mit Fakten

Mehr

Lineare Modelle in R: Klassische lineare Regression

Lineare Modelle in R: Klassische lineare Regression Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)

Mehr

Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS)

Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Vorbereitungen Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Falls das R - Paket car noch nicht installiert wurde, kann dies mit der Funktion install.packages() erledigt werden. install.packages("car")

Mehr

1 Gliederung Zeitreihenökonometrie. Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09. Dr. Sylvia Kaufmann.

1 Gliederung Zeitreihenökonometrie. Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09. Dr. Sylvia Kaufmann. Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09 Dr Sylvia Kaufmann Februar 2009 Angewandte Ökonometrie, Sylvia Kaufmann, FS09 1 1 Gliederung Zeitreihenökonometrie Einführung

Mehr

Das lineare Regressionsmodell

Das lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Prof. Dr. Werner Smolny Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Institutsdirektor Das ökonomische

Mehr

Zusammenfassung: Einfache lineare Regression I

Zusammenfassung: Einfache lineare Regression I 4 Multiple lineare Regression Multiples lineares Modell 41 Zusammenfassung: Einfache lineare Regression I Bisher: Annahme der Gültigkeit eines einfachen linearen Modells y i = β 0 + β 1 x i + u i, i {1,,

Mehr

Ergänzung der Aufgabe "Mindestlöhne" zu einer multiplen Regression

Ergänzung der Aufgabe Mindestlöhne zu einer multiplen Regression Prof. Dr. Peter von der Lippe ( Übungsblatt E) Ergänzung der Aufgabe "Mindestlöhne" zu einer multiplen Regression Das Beispiel "Mindestlöhne" zur einfachen multiplen Regression ergab die folgenden Parameter

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie SS 2018

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie SS 2018 Aufgabe 3 (15 + 1 + 7 + 7 + 7 + 5 = 42 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe der Statistiksoftware R soll der Datensatz HousePrices aus dem Paket

Mehr

6.4 Kointegration Definition

6.4 Kointegration Definition 6.4 Kointegration 6.4.1 Definition Nach Engle und Granger (1987): Wenn zwei oder mehrere Variablen I(1) sind, eine Linearkombination davon jedoch I() ist, dann sind die Variablen kointegriert. Allgemein:

Mehr

FRAGESTUNDE WS 2016/17 QM 2. Dr. Christian Schwarz 1

FRAGESTUNDE WS 2016/17 QM 2. Dr. Christian Schwarz 1 FRAGESTUNDE Dr. Christian Schwarz 1 #2 - Allgemein Q: Müssen wir den Standard Error händisch berechnen können? R: Nein. Q: Hat das Monte Carlo Experiment irgendeine Bedeutung für uns im Hinblick auf die

Mehr

Biostatistik 101 Korrelation - Regressionsanalysen

Biostatistik 101 Korrelation - Regressionsanalysen Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 carl.herrmann@uni-heidelberg.de Korrelation Sind Alter und Blutdruck miteinander

Mehr

3.3 Konfidenzintervalle für Regressionskoeffizienten

3.3 Konfidenzintervalle für Regressionskoeffizienten 3.3 Konfidenzintervalle für Regressionskoeffizienten Konfidenzintervall (Intervallschätzung): Angabe des Bereichs, in dem der "wahre" Regressionskoeffizient mit einer großen Wahrscheinlichkeit liegen wird

Mehr

Prüfung im Fach Mikroökonometrie im Sommersemester 2014 Aufgaben

Prüfung im Fach Mikroökonometrie im Sommersemester 2014 Aufgaben Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Prüfung im Fach Mikroökonometrie im Sommersemester 014 Aufgaben Vorbemerkungen: Anzahl der Aufgaben: Bewertung:

Mehr

Lean Body Mass [kg] Estimate Std. Error t value Pr(> t ) (Intercept) ??? lbm <2e-16 ***

Lean Body Mass [kg] Estimate Std. Error t value Pr(> t ) (Intercept) ??? lbm <2e-16 *** Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie SS ( = 57 Punkte)

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie SS ( = 57 Punkte) Aufgabe 3 (9 + 5 + 7 + 7 + 3 + 9 + 7 + 10 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Zu Beginn der Studienjahre 2011 und 2012 wurden Studienanfänger an

Mehr

D-CHAB Frühlingssemester 2017 T =

D-CHAB Frühlingssemester 2017 T = D-CHAB Frühlingssemester 17 Grundlagen der Mathematik II Dr Marcel Dettling Lösung 13 1) Die relevanten Parameter sind n = 3, x = 1867, σ x = und µ = 18 (a) Die Teststatistik T = X µ Σ x / n ist nach Annahme

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2017/18. ( = 58 Punkte)

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2017/18. ( = 58 Punkte) Aufgabe 3 (14 + 2 + 7 + 7 + 3 + 5 + 9 + 11 = 58 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe der Statistiksoftware R soll der Datensatz HousePrices aus

Mehr

Bachelorprüfung: Statistik (1 Stunde)

Bachelorprüfung: Statistik (1 Stunde) Prof. H.R. Künsch D-BIOL, D-CHAB Winter 2010 Bachelorprüfung: Statistik (1 Stunde) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt. Natels sind auszuschalten!

Mehr

4. Das multiple lineare Regressionsmodell

4. Das multiple lineare Regressionsmodell 4. Das multiple lineare Regressionsmodell Bisher: 1 endogene Variable y wurde zurückgeführt auf 1 exogene Variable x (einfaches lineares Regressionsmodell) Jetzt: Endogenes y wird regressiert auf mehrere

Mehr

Auswertung und Lösung

Auswertung und Lösung Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden

Mehr

Jost Reinecke. 7. Juni 2005

Jost Reinecke. 7. Juni 2005 Universität Bielefeld 7. Juni 2005 Testtheorie Test für unabhängige Stichproben Test für abhängige Stichproben Testtheorie Die Testtheorie beinhaltet eine Reihe von Testverfahren, die sich mit der Überprüfung

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

Die Stochastischen Eigenschaften von OLS

Die Stochastischen Eigenschaften von OLS Die Stochastischen Eigenschaften von OLS Das Bivariate Modell Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Wiederholung

Mehr

Spezifikationsprobleme Omitted Variable Bias

Spezifikationsprobleme Omitted Variable Bias Spezifikationsprobleme Omitted Variable Bias Spezifikationsprobleme In der Grundgesamtheit gilt der wahre (aber unbekannte) Zusammenhang y = 0 + 1x 1 + : : : kx k dieser Zusammenhang soll anhand einer

Mehr

ANOVA und Transformationen. Statistik II

ANOVA und Transformationen. Statistik II und Statistik II Wiederholung Literatur Statistik II und (1/28) Literatur Zum Nachlesen Agresti ch. 12 (nur bis Seite 381) Agresti ch. 13 (nur bis Seite 428) Statistik II und (2/28) Literatur für nächste

Mehr

Statistisches Testen

Statistisches Testen Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

Lineare Regression. Kapitel Regressionsgerade

Lineare Regression. Kapitel Regressionsgerade Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Testverteilungen Chi-Quadrat-Verteilung Sind X 1,..., X n iid N(0; 1)-verteilte

Mehr

Fragen zum zweiten Teil der Vorlesung

Fragen zum zweiten Teil der Vorlesung Albert-Ludwigs-Universität Freiburg Ökonometrie (Bachelor) Lehrstuhl Prof. Fitzenberger, Ph.D. WS 2011/12 Fragen zum zweiten Teil der Vorlesung 1. Es soll geprüt werden, ob das obere Quartil (das 75%-Quantil)

Mehr

Prüfung aus Statistik 2 für SoziologInnen

Prüfung aus Statistik 2 für SoziologInnen Prüfung aus Statistik 2 für SoziologInnen 11. Oktober 2013 Gesamtpunktezahl =80 Name in Blockbuchstaben: Matrikelnummer: Wissenstest (maximal 16 Punkte) Kreuzen ( ) Sie die jeweils richtige Antwort an.

Mehr

5 Multivariate stationäre Modelle

5 Multivariate stationäre Modelle 5 Multivariate stationäre Modelle 5.1 Autoregressive distributed lag (ADL) 5.1.1 Das Modell und dessen Schätzung Im vorangehenden Kapitel führten wir mit der endogenen verzögerten Variablen, y t 1, als

Mehr

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse Einleitung Statistik Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Der Begriff Varianzanalyse (analysis of variance, ANOVA) taucht an vielen Stellen in der Statistik mit unterschiedlichen

Mehr

Übung zur Empirischen Wirtschaftsforschung. VII. Ökonometrische Testverfahren. 7.2 Die Geldnachfragefunktion

Übung zur Empirischen Wirtschaftsforschung. VII. Ökonometrische Testverfahren. 7.2 Die Geldnachfragefunktion Universität Ulm 89069 Ulm Germany Dipl.-Kfm. Philipp Buss Dipl.-Math. oec. Daniel Siepe Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur

Mehr

2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen

2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen .1. Stochastische ökonometrische Modelle.1 Einführung Ziele: - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen - Numerische Konkretisierung ökonomischer Modelle und deren Analse. . Variierende

Mehr

Übung zur Empirischen Wirtschaftsforschung. VII. Ökonometrische Testverfahren. 7.1 Geldnachfragefunktion. 7.2 Empirische Ergebnisse: Westdeutschland

Übung zur Empirischen Wirtschaftsforschung. VII. Ökonometrische Testverfahren. 7.1 Geldnachfragefunktion. 7.2 Empirische Ergebnisse: Westdeutschland Universität Ulm 89069 Ulm Germany Dipl.-WiWi. Christian Peukert Dipl.-Math. oec. Daniel Siepe Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur

Mehr