5.4 Prognosen & Prognoseintervalle
|
|
|
- Ernst Koenig
- vor 9 Jahren
- Abrufe
Transkript
1 Empirische Wirtschaftsforschung Prognosen & Prognoseintervalle Prediction is very difficult, especially about the future. (Niels Bohr) Bisher haben wir uns ausschließlich auf die geschätzten Koeffizienten β 1 und β 2 sowie auf deren Standardfehler (bzw. Konfidenzintervalle) konzentriert. Nun wollen wir einen Schritt weitergehen und sehen, wie wir diese Schätzer für die Erstellung von Prognosen nützen können. Nehmen wir wieder an, der wahre Zusammenhang in der Grundgesamtheit könne durch y i = β 1 +β 2 x i +ε i beschrieben werden, und wir schätzen aus der Stichprobe eine SRFy i = β 1 + β 2 x i +ˆε i. Wiewir gleich sehen werden, können wir diesrffürdie Erstellung von Prognosen nützen. Wir werden uns in den folgenden Ausführungen auf das bivariate Regressionsmodell beschränken, die Erweiterung für das multiple Regressionsmodell ist einfach und folgt den gleichen Überlegungen. Bei einer Prognose geht es darum, die Ausprägung einer Zufallsvariablen vorherzusagen, die nicht beobachtet wurde (z.b. der Wert der abhängigen Variablen y in der nächsten Periode, oder der Konsum einer Person, die nicht befragt wurde). Gebräuchlichen Konventionen folgend bezeichnen wir den zu prognostizierenden Wert der abhängigen Variablen mit y 0. Den entsprechenden Wert der erklärenden Variable bezeichnen wir mit x 0. Da Prognosen hauptsächlich für Zeitreihen relevant sind verwenden wir t als Index über die Beobachtungen, und bezeichnen die Größe der Stichprobe mit T (d.h. t = 1,2,...,T). Offensichtlich können Prognosen mit Hilfe einer Regression sehr einfach durchgeführt werden, esgenügtdenwertvonx 0 indiesrfeinzusetzen. Wennz.B.eineGleichung ŷ t = x t geschätzt wurde, kann für ein x 0 = 4 sofort der Wert y 0 = 25 prognostiziert werden. In diesem Abschnitt werden wir nicht nur einfache Prognosen diskutieren, sondern auch Konfidenzintervalle für die prognostizierten Werte ermitteln. Bedingte und unbedingte Prognosen Prinzipiell unterscheidet man zwischen bedingten und unbedingten Prognosen. Bei einer bedingten Prognose wird von einem a priori bekannten Wert der erklärenden Variable x 0 im Prognosezeitraum ausgegangen. Eine bedingte Prognose macht also Aussagen über eine interessierende Variable y, bedingt auf die Annahme, dass die x Variable den Wert x 0 annimmt. Berechnet wird sie einfach, indem man x 0 in die geschätzte Regressionsgleichung einsetzt. Manchmal möchte man aber einfach eine bestmögliche Prognose für y, ohne den Wert von x 0 a priori zu kennen oder spezifische Annahmen über die x treffen zu müssen. Eine solche Prognose nennt man eine unbedingte Prognose. Um eine solche unbedingte Prognose machen zu können müssen meist in einem ersten Schritt Prognosen für die x Variable(n) erstellt werden. Da die ökonomische Theorie für die Prognose der erklärenden Variable(n) oft wenig hilfreich ist, werden für die Prognose der x Variable(n) häufig Zeitreihenmethoden eingesetzt.
2 Empirische Wirtschaftsforschung 48 Mit Hilfe dieser Prognosen für die erklärenden Variable(n) wird dann in einem zweiten Schritt der Wert der abhängigen Variablen y 0 prognostiziert. Wir beschäftigen uns im folgenden ausschließlich mit bedingten Prognosen, einige Hinweise zu unbedingten Prognosen finden sich z.b. bei Pindyck and Rubinfeld (1997, 221f). Wenn das Regressionsmodell zeitverzögerte abhängige Variablen enthält, z.b. y t = β 1 + β 2 y t 1 + ˆε i unterscheidet man außerdem zwischen statischen und dynamischen Prognosen. Bei einer statischen Prognose werden jeweils die realisierten verzögerten Werte y t 1 für die Prognose herangezogen, für eine dynamische Prognose werden jeweils die prognostizierten Werte der verzögerten Variable ŷ t 1 eingesetzt. Dynamische Prognosen sind v.a. in der Zeitreihenökonometrie von Bedeutung. Ähnlich wie bei Parameterschätzungen unterscheidet man auch bei Prognosen zwischen Punkt- und Intervallprognosen Punktprognose Wir wollen im Folgenden annehmen, dass alle Gauss-Markov Annahmen erfüllt seien und dass x 0 deterministisch sei. Die PRF sei y 0 = β 1 +β 2 x 0 +ε 0 mit ε 0 N(0,σ 2 ) bzw. y 0 N(β 1 +β 2 x 0,σ 2 ). Durch Einsetzen von x 0 in die Stichprobenregressionsfunktion erhalten wir ŷ 0 = β 1 + β 2 x 0 Wenn das geschätzte Modell z.b. ŷ t = x t wäre, würden wir für x 0 = 5 den Prognosewert ŷ 0 = 10 erhalten. Manbeachte, dasssowohl ŷ 0 = β 1 + β 2 x 0 alsauch y 0 = β 1 +β 2 x 0 +ε 0 Zufallsvariablen sind, da β 1, β 2 und ε 0 Zufallsvariablen sind. Erwartungstreue Falls die Gauss-Markov Annahmen erfüllt sind kann man einfach erkennen, dass ŷ 0 ein erwartungstreuer und effizienter Schätzer ist E(ŷ 0 ) = E( β 1 + β 2 x 0 + ˆε 0 ) = β 1 +β 2 x 0 = E(y 0 ) Ein seriöser Wahrsager würde ŷ 0 als wahrscheinlichsten Wert für ein gegebenes x 0 vorhersagen Intervallschätzer Um etwas über die Genauigkeit dieser Vorhersage aussagen zu können ist es zweckmäßig einen Intervallschätzer zu berechnen. Im Unterschied zu den Konfidenzintervallen für die einzelnen Koeffizienten β 1 und β 2 müssen wir hier etwas genauer überlegen, denn es können uns zwei verschiedene Dinge interessieren, nämlich
3 Empirische Wirtschaftsforschung 49 y...schätzungen ŷ 0 unterschiedl. SRFs PRF y 0 x x 0 x Abbildung 5.14: ŷ 0 ist ein unverzerrtrer Schätzer für y 0, d.h. E(ŷ 0 ) = y 0 1. für das Konfidenzintervall für ŷ 0 = β 1 + β 2 x 0, oder 2. für das Prognoseintervall für y 0 = β 1 +β 2 x 0 +ε 0 Im ersten Fall interessieren wir uns für die Streuung der mittleren y 0, denn wir können ŷ 0 Erwartungswert einer Stichprobenkennwertverteilung auffassen. Im zweiten häufig interessanteren Fall interessieren wir uns für die Streuung eines einzelnen, konkreten y 0. In diesem zweiten Fall müssen wir zusätzlich die individuelle Unsicherheit in Form von ε 0 berücksichtigen. Man beachte, dass wir die wahren β 1 und β 2 nicht kennen, sondern dass diese selbst erst geschätzt werden müssen. Wir beginnen mit dem wichtigeren zweiten Fall, dem Prognoseintervall für y 0. Zur Berechnung dieses Prognoseintervalls ist es zweckmäßig mit dem Prognosefehler zu beginnen. Erwartungswert und Varianz des Prognosefehlers Der Prognosefehler ist definiert als die Abweichung des tatsächlichen Werts y 0 vom prognostizierten Wert ŷ 0, d.h. Prognosefehler = ŷ 0 y 0 = ( β 1 β 1 )+( β 2 β 2 )x 0 ε 0 wobei β1, β2 und ε 0 Zufallsvariablen sind, und β 1, β 2 sowie x 0 deterministische Größen sind. Nebenbei bemerkt kann man einfach zeigen, dass die Varianz des Prognosefehlers gleich der Varianz von ỹ 0 = β 1 + β 2 x 0 +ε 0 ist, weil var(ŷ 0 y 0 ) = var ( β 1 + β ] 2 x 0 ) (β 1 +β 2 x 0 +ε 0 ) = var β 1 + β 2 x 0 +ε 0 ] = var(ỹ 0 )
4 Empirische Wirtschaftsforschung 50 und weil β 1, β 2 und x 0 deterministische Größen sind. Der Erwartungswert des Prognosefehlers (ŷ 0 y 0 ) ist Null, wenn die Schätzer β 1 und β 2 unverzerrt sind und E(ε 0 ) = 0, da Eŷ 0 y 0 ] = E( β 1 β 1 )+( β 2 β 2 )x 0 ε 0 ] = E( β 1 β 1 )]+E( β 2 β 2 )x 0 ] Eε 0 ] = = 0 wenn die OLS Schätzer β 1 und β 2 erwartungstreu sind. Die Varianz des Prognosefehlers kann einfach berechnet werden als ] var(ŷ 0 y 0 ) = σ T + (x 0 x) 2 T t=1 (x t x) 2 Beweis: varŷ 0 y 0 ] = Eŷ 0 y 0 ] 2 = E( β 1 β 1 )+( β 2 β 2 )x 0 ε 0 ] 2 = var( β 1 )+x 2 0var( β 2 )+σ 2 +2x 0 cov( β 1, β 2 ) weil ε 0 im Erwartungswert mit β 1 und β 2 unkorreliert ist, da die zu prognostizierenden Werte y 0 und die x 0 nicht in die Berechnung der Koeffizienten β 1 und β 2 eingegangen sind. Wir erinnern uns, dass var( β 1 ) = var( β 2 ) = cov( β 1, β 2 ) = σ 2 x 2 t T (x t x) 2 σ (xt x) 2 xσ 2 (xt x) 2 wobei t der Laufindex von 1...T und x der Stichprobenmittelwert der ersten T Beobachtungen ist. Aus (x t x) 2 = (x 2 t) T x 2 folgt (x 2 t) = (x t x) 2 +T x 2. Deshalb ist σ 2 ] x 2 t var( β 1 ) = T (x t x) = (xt x) 2 +T x σ2 T = σ 2 (x t x) 2 T + x (xt x) 2 Wir setzen nun die Varianzen der Schätzer β 1 und β 2 in die Varianz des Prognosefehlers ein varŷ 0 y 0 ] = var( β 1 )+x 2 0var( β 2 )+σ 2 +2x 0 cov( β 1, β 2 ) 1 = σ 2 T + x (xt x) + x 2 0 (xt x) +1+ 2x ] 0 x 2 (xt x) 2 = σ T + x2 0 2x ] 0 x+ x (xt x) 2 = σ T + (x ] 0 x) (xt x) 2
5 Empirische Wirtschaftsforschung 51 Diese Varianz kann noch nicht geschätzt werden, da sie die unbekannte Varianz der Störterme σ 2 enthält. Wie üblich können wir die Varianz des Prognosefehlers aber schätzen, indem wir die unbekannte Fehlervarianz σ 2 durch den unverzerrten Schätzer für die Fehlervarianz ˆσ 2 ersetzen, also ] var(ŷ 0 y 0 ) = ˆσ T + (x 0 x) 2 T t=1 (x t x) 2 wobei ˆσ 2 = ˆε i 2 /(T 2) das Quadrat des Standardfehlers der Regression (standard error of the regression) und T die Stichprobengröße ist. Man kann einfach erkennen, dass 1. dievarianzdes Prognosefehlers umso größer ist, jeweiter x 0 vomstichproben- Mittelwert x entfernt liegt. Eine Prognose für einen weit entfernt liegenden x 0 -Wert ist deshalb ungenauer; 2. die Varianz des Prognosefehlers ist umso kleiner, je größer die Streuung der x ist (d.h. je größer (x t x) 2 ); 3. die Varianz des Prognosefehlers ist umso kleiner, je größer die Anzahl der Beobachtungen T ist; und 4. die Varianz des Prognosefehlers umso größer, je größer der Standardfehler der Regression ˆσ ist Man kann außerdem zeigen, dass ŷ 0 = β 1 + β 2 x 0 der beste lineare unverzerrte Prognosewert ist, d.h. ŷ 0 ist ein effizienter Schätzer für y 0! Beispiel: Gegeben seien die folgenden 5 Beobachtungen für x und y: y: x: Eine Regression von x auf y gibt die folgende Regressionsgleichung Dependent Variable: Y Included observations: 5 Variable Coefficient Std. Error t-stat. Prob. C x R-squared SE of regression
6 Empirische Wirtschaftsforschung 52 Tabelle 5.4: Beispiel: Prognosen, Varianzen des Prognosefehlers und Konfidenzintervalle für ganzzahlige x t. x 0 ŷ 0 var(ŷ 0 y 0 ) ŷ 0 t crit var(ŷ 0 y 0 ) Daraus kann man nun die Varianz des Prognosefehlers berechnen var(ŷ 0 y 0 ) = ˆσ T + (x ] 0 x) (xt x) 2 da x = 4.34 und (x t x) 2 = = ( ) (x ] ) In Tabelle 5.4 wurden die Varianzen des Prognosefehlers für ganzzahlige x t berechnet. Zum Beispiel erhalten wir für x 0 = 7 ein ŷ 0 = = und eine Varianz des Prognosefehlers von var(ŷ 0 y 0 ) = ( ) ] 5 + (7 4.34)2 = Prognoseintervall für y 0 Mit Hilfe der Varianz des Prognosefehlers können wir nun ein Prognoseintervall für y 0 berechnen. DazumüssenwirwiederwieüblicheineStandardisierungdurchführen. Da annahmegemäß (ŷ 0 y 0 ) N(0,var(ŷ 0 y 0 )) folgt ŷ 0 y 0 var(ŷ0 y 0 ) N(0,1) Da σ 2 unbekannt ist müssen wir wieder var(ŷ 0 y 0 ) durch den Schätzer var(ŷ 0 y 0 ) ersetzen und erhalten eine t-verteilte Zufallsvariable t = ŷ 0 y 0 var(ŷ0 y 0 ) t T 2 Wenn wir uns für das 95% Prognoseintervall interessieren benötigen wir den kritischen t-wert t crit, für den Prt (T 2) > t crit ] = Für T = 5 mit T 2 = 3 Freiheitsgraden ist t crit =
7 Empirische Wirtschaftsforschung 53 Damit können wir das Prognoseintervall für y 0 bestimmen: Pr t crit t T 2 t crit] = 0.95 ] Pr t crit ŷ 0 y 0 var(ŷ0 y 0 ) tcrit = 0.95 Pr ŷ 0 t crit var(ŷ 0 y 0 ) y 0 ŷ 0 +t crit var(ŷ ] 0 y 0 ) Das Prognoseintervall für y 0 ist also ŷ 0 ±t crit var(ŷ 0 y 0 ) = 0.95 Die Interpretation ist wie üblich, wenn wir sehr viele Stichproben ziehen würden und für jede Stichprobe ein Prognoseintervall berechnen würden, so könnten wir damit rechnen, dass (1 α)100 Prozent dieser Prognoseintervalle den wahren Wert y 0 enthalten würden. Die letzten beiden Spalten von Tabelle 5.4 zeigen die entsprechenden Prognoseintervalle. Das Konfidenzintervall für y 0 = (x 0 = 7) erhält man z.b. ŷ 0 ±t crit var(ŷ 0 y 0 ) = 4.275± bzw. (0.333 y 0 (x0 =7) 8.218) Abbildung 5.15 zeigt die Beobachtungspunkte (schwarz), die Schätzgerade (Prognose) und das Prognoseintervall (blau strichliert). Da wir nur fünf Beobachtungspunkte haben ist das Prognoseintervall natürlich entsprechend breit. Konfidenzintervall für ŷ 0 Manchmal sind wir nicht an der Vorhersage eines konkreten y 0 interessiert, sondern wir an der Genauigkeit der Prognose eines mittleren y 0, d.h. an einem Konfidenzintervall für ŷ 0 = β 1 + β 2 x 0. Die Berechnung der Varianz von ŷ 0 erfolgt völlig analog wie im vorhergehenden Fall. var(ŷ 0 ) = var( β 1 + β 2 x 0 ) = var( β 1 )+x 2 0 var( β 2 )+2cov( β 1, β 2 ) 1 = σ 2 T + (x ] 0 x) (xt x) 2 Wenn wir σ 2 wieder durch den Schätzer ˆσ 2 ersetzen und die Wurzel davon nehmen erhalten wir den Standardfehler von ŷ 0 (d.h. ˆσŷ0 ). Mit dem kritischen Wert t crit können wir schließlich das Konfidenzintervall ŷ 0 ±t critˆσŷ0 berechnen. Dieses Konfidenzintervall für ŷ 0 ist natürlich schmäler als das Prognoseintervall für y 0.
8 Empirische Wirtschaftsforschung 54 y t c var(ŷ 0 y 0 ) 5 4 ŷ i = x 3 2 t c var(ŷ 0 y 0 ) x 3 Abbildung 5.15: Prognose und deren Konfidenzintervalle
9 Empirische Wirtschaftsforschung Beurteilung der Prognosequalität Meist wird die Qualität einer Regression anhand von statistischen Kenngrößen wie z.b. dem Bestimmtheitsmaß R 2, den Standardfehlern der Koeffizienten (bzw. den t- oder p-werten) oder verschiedenen Spezifikationstests (die in einem späteren Kapitel diskutiert werden) beurteilt. Die Prognosequalität einer Regressionsgleichung erlaubt eine davon verschiedene Einschätzung. Vor allem wenn bei der Spezifikation entsprechendes Data Mining betrieben wurde ist es nicht ungewöhnlich, dass eine geschätzte Gleichung eine sehr gute Anpassung in der Stichprobe hat, aber eine lausige Prognosequalität aufweist. Um die Prognosequalität beurteilen zu können kann man ex-post Prognosen durchführen, d.h. den Schätzzeitraum einschränken und sich bei der Spezifikationssuche nur auf einen Teil der Stichprobe beschränken. In der folgenden Grafik beruht die Schätzung auf der Stichprobe T 1 bis T 2. Für die Periode T 2 bis T 3, für die die exogenen Variablen x und die tatsächlich beobachteten y t bekannt sind, kann dann eine ex-post Prognose durchgeführt werden. Anhand des Fits dieser ex-post Prognose kann anschließend die Qualität der Regression beurteilt werden. Ist diese zufriedenstellend kann man sich an die eigentliche ex-ante Prognose wagen, d.h. an die Prognose der unbeobachteten Werte ŷ 0 in der Zukunft. Diese beruht natürlich auf der gesamten Stichprobe T 1 bis T 3. T 1 T 2 Gegenwart T 3 Zeit t Schätzperiode ex-post Prognose ex-ante Prognose Wenn die Gleichung eine verzögerte abhängige Variable enthält (z.b. y t = β 1 + β 2 y t 1 + ˆε t ) kann man anstelle der tatsächlichen Beobachtungen y t 1 die prognostizierten Werte ŷ t 1 einsetzen, also eine dynamische Prognose durchführen. Häufig wird auch eine Prognose über die gesamte Stichprobe durchgeführt und die prognostizierten (oder gefitteten ) Werte y f t mit den tatsächlich beobachteten Werten y t verglichen. Für den Vergleich zwischen tatsächlichen und prognostizierten Werten haben sich einige Kennzahlen eingebürgert, die im folgenden kurz vorgestellt werden Root Mean Square Forecast Error (RMS-Fehler) Der Root Mean Square Error (RMS-Fehler) ist die Wurzel aus dem mittleren quadratischen Prognosefehler und ist eine gebräuchliche Kennzahl um die Abweichung der prognostizierten Werte von den tatsächlich beobachteten Werten anzugeben. RMS-Fehler = 1 T T (y f t y t ) 2 t=1
10 Empirische Wirtschaftsforschung 56 mit: y f t = prognostizierter Wert von y t y t = tatsächlich realisierter Wert von y t T = Anzahl der Beobachtungen im Prognoseintervall Mean Absolute Forecast Error (MAE) Der mittlere absolute Prognosefehler (Mean Absolute Error) ist ein alternatives Maß mit einer anderen Gewichtung zur Beurteilung der Prognosequalität. MAE = 1 T T y f t y t t=1 Sowohl der Root Mean Square Error als auch der Mean Absolute Error sind abhängig von der Dimension der abhängigen Variablen y t, eignen sich also nur für einen Vergleich verschiedener Modelle zur Prognose der gleichen Datenreihe. Je kleiner der entsprechende Wert ist, umso besser ist die Prognosequalität. Im Gegensatz dazu sind die beiden folgenden Kennzahlen unabhängig von der Dimension der prognostizierten Datenreihe und können deshalb für einen Vergleich von Prognoseverfahren herangezogen werden Mean Absolute Percentage Error (MAPE) Der mittlere absolute prozentuelle Prognosefehler (MAPE) ist definiert als MAPE = 1 T y f t y t T y t Theil s Inequality Coefficient (TIC) t=1 Im Zähler von Theil s Inequality Coefficient (TIC) steht der Root Mean Square Error, der aber entsprechend gewichtet wird, sodass Theil s Inequality Coefficient immer zwischen Null und Eins liegt. TIC = 1 T T t=1 (yf t y t ) 2 1 T T t=1 (yf t) T T t=1 (y t) 2 Umso näher Theil s Inequality Coefficient bei Null liegt, umso besser ist die Prognosequalität. Bei einem perfekten Fit ist Theil s Inequality Coefficient gleich Null, während TIC= 1 das schlechtest mögliche Ergebnis ist. Mit ein bißchen Algebra kann zeigen, dass T t=1 (yf t y t ) 2 folgendermaßen zerlegt werden kann T (y f t y t ) 2 = (ȳ f ȳ) 2 +(ˆσ y f ˆσ y ) 2 +2(1 ρ)ˆσ y fˆσ y t=1
11 Empirische Wirtschaftsforschung 57 wobei ȳ f und ȳ die Mittelwerte und ˆσ y f und ˆσ y die Standardabweichungen der Datenreihen y f t und y t sind; und ρ = T t=1 (yf t ȳ f )(y t ȳ) Tˆσ y fˆσ y ist der übliche Korrelationskoeffizient zwischen y f t und y t. Mit Hilfe dieser Zerlegung kann man folgende Anteile berechnen: (ȳ f ȳ) 2 (ˆσ y f ˆσ y ) 2 1 = 1 T + T t=1 (yf t y t ) 2 1 T + 2(1 ρ)ˆσ y fˆσ y T t=1 }{{} t y t ) 2 1 T T t=1 }{{} t y t ) 2 }{{} Bias- Anteil Varianz- Anteil Kovarianz- Anteil Der Bias Anteil zeigt, wie stark sich der Mittelwert der prognostizierten Reihe vom Mittelwert der tatsächlichen Beobachtungen unterscheidet. Ein hoher Bias Anteil zeigt also, dass sich die prognostizierte Datenreihe stark von den tatsächlichen Daten unterscheidet. Der Varianz Anteil zeigt, wie stark sich die Streuung der prognostizierten Reihe der Streuung der tatsächlichen Beobachtungen unterscheidet. Wenn der Varianz-Anteil groß ist bedeutet dies, dass die tatsächlichen Beobachtungen stark schwanken, während die prognostizierten Werte kaum schwanken, bzw. umgekehrt. Der Kovarianz Anteil ist schließlich ein Maß für den unsystematischen Prognosefehler. Bei einer guten Prognose sollte der Bias- und der Varianz-Anteil möglichst klein sein. Da sich die Anteile natürlich auf 1 ergänzen, sollte der unsystematische Kovarianzanteil möglichst nahe bei Eins liegen. Literaturverzeichnis Edgeworth, F. (1885), Observations and Statistics: an Essay on the Theory of Errors of Observation and the First Principles of Statistics, Transactions of the Cambridge Philosophical Society. URL: Fisher, R. (1925), Statistical Methods For Research Workers, Cosmo study guides, Cosmo Publications. URL: Fisher, R. (1955), Statistical methods and scientific induction, Journal of the Royal Statistical Society. Series B (Methodological) 17(1), pp Gigerenzer, G., Swijtink, Z., Porter, T., Daston, L., Beatty, J. and Kruger, L.(1990), The Empire of Chance: How Probability Changed Science and Everyday Life (Ideas in Context), reprint edn, Cambridge University Press.
12 Empirische Wirtschaftsforschung 58 Gosset, W. S. (1908), The probable error of a mean, Biometrika 6(1), Originally published under the pseudonym Student. URL: Greene, W. H. (2007), Econometric Analysis, 6th edn, Prentice Hall. Lehmann, E. L. (1993), The fisher, neyman-pearson theories of testing hypotheses: One theory or two?, Journal of the American Statistical Association 88(424), pp Neyman, J. and Pearson, E. S.(1928a), On the use and interpretation of certain test criteria for purposes of statistical inference: Part i, Biometrika 20A(1/2), URL: Neyman, J. and Pearson, E. S. (1928b), On the use and interpretation of certain test criteria for purposes of statistical inference: Part ii, Biometrika 20A(3/4), URL: Pearson, K. (1900), On a criterion that a given system of deviations from the probable in the case of a correlated system of variables is such that it can reasonably be supposed to have arisen from random sampling., Philosophical Magazine 50, Pindyck, R. S. and Rubinfeld, D. L. (1997), Econometric Models and Economic Forecasts, 4 edn, McGraw-Hill/Irwin. Spanos, A. (1999), Probability Theory and Statistical Inference: Econometric Modeling with Observational Data, Cambridge University Press. Ziliak, S. T. (2008), Retrospectives: Guinnessometrics: The Economic Foundation of Student s t, Journal of Economic Perspectives 28, URL:
Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
Übung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
Kurs Empirische Wirtschaftsforschung
Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische
1 Beispiel zur Methode der kleinsten Quadrate
1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25
Teekonsum in den USA (in 1000 Tonnen), Nimmt den Wert 1 an für alle Perioden, Durchschnittlicher Preis des Tees in Periode t (in Tausend $/Tonne).
Aufgabe 1 (5 Punkte) Gegeben sei ein lineares Regressionsmodell in der Form. Dabei ist y t = x t1 β 1 + x t β + e t, t = 1,..., 10 (1) y t : x t1 : x t : Teekonsum in den USA (in 1000 Tonnen), Nimmt den
Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien
Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)
X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?
Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2
Prognoseintervalle für y 0 gegeben x 0
10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen
x t2 y t = 160, y = 8, y y = 3400 t=1
Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =
Schätzung im multiplen linearen Modell VI
Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,
Prognose. Kapitel 5. Ökonometrie I Michael Hauser
1 / 31 Prognose Kapitel 5 Ökonometrie I Michael Hauser 2 / 31 Inhalt Prognose, allgemein Prognosebeispiel Punktprognose Prognosefehler Intervallprognose Mean square error, Prognosegüte 3 / 31 Prognose
Prof. Dr. Marc Gürtler WS 2015/2016. Prof. Dr. Marc Gürtler. Klausur zur 10/12 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft
Prof. Dr. Marc Gürtler WS 015/016 Prof. Dr. Marc Gürtler Klausur zur 10/1 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft Lösungsskizze Prof. Dr. Marc Gürtler WS 015/016 Aufgabe 1: (11+5+1+8=56
4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
Multivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
Das lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Prof. Dr. Werner Smolny Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Institutsdirektor Das ökonomische
Beispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
Beispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.
Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf
Dynamische Systeme und Zeitreihenanalyse // Beschreiben von Zeitreihen 9 p.2/??
Dynamische Systeme und Zeitreihenanalyse Beschreiben von Zeitreihen Kapitel 9 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Beschreiben von Zeitreihen 9 p.0/??
2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen
.1. Stochastische ökonometrische Modelle.1 Einführung Ziele: - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen - Numerische Konkretisierung ökonomischer Modelle und deren Analse. . Variierende
5 Multivariate stationäre Modelle
5 Multivariate stationäre Modelle 5.1 Autoregressive distributed lag (ADL) 5.1.1 Das Modell und dessen Schätzung Im vorangehenden Kapitel führten wir mit der endogenen verzögerten Variablen, y t 1, als
Inferenz im multiplen Regressionsmodell
1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall
Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
[email protected] VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:
2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme)
2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme) Annahme A1: Im multiplen Regressionsmodell fehlen keine relevanten exogenen Variablen und die benutzten exogenen Variablen x 1,
3. Das einfache lineare Regressionsmodell
3. Das einfache lineare Regressionsmodell Ökonometrie: (I) Anwendung statistischer Methoden in der empirischen Forschung in den Wirtschaftswissenschaften Konfrontation ökonomischer Theorien mit Fakten
Vorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
Kapitel 10. Multikollinearität. Exakte Multikollinearität Beinahe Multikollinearität
Kapitel 0 Multikollinearität Exakte Multikollinearität Beinahe Multikollinearität Exakte Multikollinearität Unser Modell lautet y = Xb + u, Dimension von X: n x k Annahme : rg(x) = k Wenn sich eine oder
Proxies, Endogenität, Instrumentvariablenschätzung
1 4.2 Multivariate lineare Regression: Fehler in den Variablen, Proxies, Endogenität, Instrumentvariablenschätzung Literatur: Wooldridge, Kapitel 15, Appendix C.3 und Kapitel 9.4 Wahrscheinlichkeitslimes
Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller
Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit
Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate
Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für
Analyse von Querschnittsdaten. Signifikanztests I Basics
Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004
Basiswerkzeuge. Kapitel 6. Lernziele. Zeitreihen-Plot. Beschreiben von Zeitreihen. Graphische Darstellungen. Univariate und bivariate Maßzahlen
Kapitel 6 Basiswerkzeuge Josef Leydold c 2006 Mathematische Methoden VI Basiswerkzeuge 1 / 29 Lernziele Beschreiben von Zeitreihen Graphische Darstellungen Univariate und bivariate Maßzahlen Transformationen
Bivariater Zusammenhang bei metrischen Variablen: Regression und Korrelation
Bivariater Zusammenhang bei metrischen Variablen: Regression und Korrelation PEΣO 12. November 2001 Von der Tabellenanalyse zur Regression Die bivariate Verteilung zweier metrischer Variablen kann konzeptionell
Die Stochastischen Eigenschaften von OLS
Die Stochastischen Eigenschaften von OLS Das Bivariate Modell Thushyanthan Baskaran [email protected] Alfred Weber Institut Ruprecht Karls Universität Heidelberg Wiederholung
Einführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
Dr. W. Kuhlisch Dresden, Institut für Mathematische Stochastik
Dr. W. Kuhlisch Dresden, 12. 08. 2014 Institut für Mathematische Stochastik Klausur Statistik für Studierende der Fachrichtungen Hydrologie und Altlasten/Abwasser zugelassene Hilfsmittel: Taschenrechner
13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017
13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl
Goethe-Universität Frankfurt
Goethe-Universität Frankfurt Fachbereich Wirtschaftswissenschaft PD Dr. Martin Biewen Dr. Ralf Wilke Sommersemester 2006 Klausur Statistik II 1. Alle Aufgaben sind zu beantworten. 2. Bitte runden Sie Ihre
1 Gliederung Zeitreihenökonometrie. Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09. Dr. Sylvia Kaufmann.
Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09 Dr Sylvia Kaufmann Februar 2009 Angewandte Ökonometrie, Sylvia Kaufmann, FS09 1 1 Gliederung Zeitreihenökonometrie Einführung
Zusammenfassung: Einfache lineare Regression I
4 Multiple lineare Regression Multiples lineares Modell 41 Zusammenfassung: Einfache lineare Regression I Bisher: Annahme der Gültigkeit eines einfachen linearen Modells y i = β 0 + β 1 x i + u i, i {1,,
Varianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung
2 Anwendungen und Probleme
Prof. Dr. Werner Smolny Sommersemester 2005 Abteilung Wirtschaftspolitik Helmholtzstr. 20, Raum E 05 Tel. 0731 50 24261 UNIVERSITÄT DOCENDO CURANDO ULM SCIENDO Fakultät für Mathematik und Wirtschaftswissenschaften
Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20
Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 20 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)
Stichproben Parameterschätzung Konfidenzintervalle:
Stichproben Parameterschätzung Konfidenzintervalle: Beispiel Wahlprognose: Die Grundgesamtheit hat einen Prozentsatz p der Partei A wählt. Wenn dieser Prozentsatz bekannt ist, dann kann man z.b. ausrechnen,
Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
6.4 Kointegration Definition
6.4 Kointegration 6.4.1 Definition Nach Engle und Granger (1987): Wenn zwei oder mehrere Variablen I(1) sind, eine Linearkombination davon jedoch I() ist, dann sind die Variablen kointegriert. Allgemein:
Lineare Modelle in R: Klassische lineare Regression
Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)
Lineare Regression. Kapitel Regressionsgerade
Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell
1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.
0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:
Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte
Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann Probe-Klausur zur Vorlesung Ökonometrie Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte (die eigentliche Klausur wird
WS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X.
Fragenkatalog zur Übung Methoden der empirischen Sozialforschung WS 2014/15 Hier finden Sie die denkbaren Fragen zum ersten Teil der Übung. Das bedeutet, dass Sie zu diesem Teil keine anderen Fragen im
Willkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungen stetiger Zufallsvariablen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften
Regression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
Grundgesamtheit und Stichprobe
Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U
Empirische Wirtschaftsforschung
Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 1 4. Basiskonzepte der induktiven
Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9.
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Januar 2011 BOOTDATA11.GDT: 250 Beobachtungen für die Variablen...
Drittvariablenkontrolle in der linearen Regression: Trivariate Regression
Drittvariablenkontrolle in der linearen Regression: Trivariate Regression 14. Januar 2002 In der Tabellenanalyse wird bei der Drittvariablenkontrolle für jede Ausprägung der Kontrollvariablen eine Partialtabelle
1. Lösungen zu Kapitel 7
1. Lösungen zu Kapitel 7 Übungsaufgabe 7.1 Um zu testen ob die Störterme ε i eine konstante Varianz haben, sprich die Homogenitätsannahme erfüllt ist, sind der Breusch-Pagan-Test und der White- Test zwei
Vorlesung: Lineare Modelle. Verschiedene Typen von Residuen. Probleme bei der Regression und Diagnose. Prof. Dr. Helmut Küchenhoff.
Vorlesung: Lineare Modelle Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München SoSe 205 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen.
Grundgesamtheit und Stichprobe
Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U
Quantitative Methoden der Agrarmarktanalyse und des Agribusiness
Quantitative Methoden der Agrarmarktanalyse und des Agribusiness Fragen zur Vorlesung Teil 2 SS 2001 Mai 19 Dr. Jens-Peter Loy, Institut für Agrarökonomie (Kommentare bitte per e-mail an [email protected])
3 Konfidenzintervalle
3 Konfidenzintervalle Konfidenzintervalle sind das Ergebnis von Intervallschätzungen. Sicheres Wissen über Grundgesamtheiten kann man anhand von Stichproben nicht gewinnen. Aber mit Hilfe der Statistik
Wichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Computerübung 10. Empirische Wirtschaftsforschung. Willi Mutschler. 27. Januar Ökonometrie und Wirtschaftsstatistik Uni Münster
Computerübung 10 Empirische Wirtschaftsforschung Willi Mutschler Ökonometrie und Wirtschaftsstatistik Uni Münster 27. Januar 2011 Willi Mutschler (Uni Münster) Computerübung 10 27. Januar 2011 1 / 12 Inhaltsverzeichnis
Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................
8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme)
8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) Annahme B4: Die Störgrößen u i sind normalverteilt, d.h. u i N(0, σ 2 ) Beispiel: [I] Neoklassisches Solow-Wachstumsmodell Annahme einer
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:
Aufgabe 1 (8=2+2+2+2 Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Die Zufallsvariable X bezeichne die Note. 1443533523253. a) Wie groß ist h(x 5)? Kreuzen
Ausführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6. Streudiagramm
y Aufgabe 3 Ausführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6 a) Zur Erstellung des Streudiagramms zeichnet man jeweils einen Punkt für jedes Datenpaar (x i, y i ) aus der zweidimensionalen
Statistische Eigenschaften der OLS-Schätzer, Residuen,
Statistische Eigenschaften der OLS-Schätzer, Residuen, Bestimmtheitsmaß Stichwörter: Interpretation des OLS-Schätzers Momente des OLS-Schätzers Gauss-Markov Theorem Residuen Schätzung von σ 2 Bestimmtheitsmaß
I.V. Methoden 4: Regressionsund Pfadanalyse WiSe 02/03
I.V. Methoden 4: Regressionsund Pfadanalyse WiSe 02/03 Vorlesung: 12.11.2002 He uses statistics as a drunken man use lampposts - for support rather than for illumination. Andrew Lang Dr. Wolfgang Langer
Willkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.
3.3 Konfidenzintervalle für Regressionskoeffizienten
3.3 Konfidenzintervalle für Regressionskoeffizienten Konfidenzintervall (Intervallschätzung): Angabe des Bereichs, in dem der "wahre" Regressionskoeffizient mit einer großen Wahrscheinlichkeit liegen wird
6.2 Lineare Regression
6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )
Appendix. Kapitel 2. Ökonometrie I Michael Hauser
1 / 24 Appendix Kapitel 2 Ökonometrie I Michael Hauser 2 / 24 Inhalt Geometrie der Korrelation Freiheitsgrade Der OLS Schätzer: Details OLS Schätzer für Okuns s law nachgerechnet Anforderungen an Theorien
W09 p. 1. Prof. Dr. Christoph Kleinn Institut für Waldinventur und Waldwachstum Arbeitsbereich Waldinventur und Fernerkundung
Der Verhältnisschätzer - Ratio estimator Beispiel: Schätzung der Anzahl Objekte (Bäume) in einem bestimmten Gebiet. Situation: Die Fläche ist unterteilt in Streifen / Transekte. Man wählt zufällig n =
Lineare Regression mit einem Regressor: Einführung
Lineare Regression mit einem Regressor: Einführung Quantifizierung des linearen Zusammenhangs von zwei Variablen Beispiel Zusammenhang Klassengröße und Testergebnis o Wie verändern sich Testergebnisse,
Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006
Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand
