Beispiel: Multiples Modell/Omitted Variable Bias I
|
|
|
- Marie Ritter
- vor 6 Jahren
- Abrufe
Transkript
1 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss hinaus (x 1i ) sowie zum Alter in Jahren (x 2i ) von n = 20 Mitarbeitern eines Betriebs: i Lohnhöhe y i Ausbildung x 1i Alter x 2i i Lohnhöhe y i Ausbildung x 1i Alter x 2i (vgl. von Auer, Ludwig: Ökonometrie Eine Einführung, 6. Aufl., Tabelle 13.1) Es soll nun angenommen werden, dass das multiple lineare Regressionsmodell y i = β 0 + β 1 x 1i + β 2 x 2i + u i, u i iid N(0, σ 2 ), i {1,..., 20}, mit den üblichen Annahmen korrekt spezifiziert ist. Ökonometrie (SS 2014) Folie 205
2 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias II Zunächst wird (fälschlicherweise!) die Variable Alter (x 2i ) weggelassen und die Lohnhöhe (y i ) nur mit der Variable Ausbildung (x 1i ) erklärt: Call: lm(formula = Lohnhöhe ~ Ausbildung) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-11 *** Ausbildung *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 18 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 18 DF, p-value: Ökonometrie (SS 2014) Folie 206
3 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias III Danach wird das korrekte, vollständige Modell geschätzt: Call: lm(formula = Lohnhöhe ~ Ausbildung + Alter) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-06 *** Ausbildung ** Alter * --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 17 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 2 and 17 DF, p-value: Ökonometrie (SS 2014) Folie 207
4 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias IV Geschätzte Regressionsebene mit Residuen Lohnhöhe y i Alter x 2i Ausbildung x 1i Ökonometrie (SS 2014) Folie 208
5 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias V Gegenüberstellung der Schätzergebnisse: falsches Modell korrektes Modell Absolutglied β σ β Ausbildung β σ β Alter β σ β û û SER R R Ökonometrie (SS 2014) Folie 209
6 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias VI Die Regressoren x 1i (Ausbildungsjahre) und x 2i (Alter) sind positiv korreliert, es gilt (mit den Bezeichnungen von Folie 191) genauer s 12 = bzw. s = = s11 s Außerdem hat der Regressor Alter (neben dem Regressor Ausbildung ) im korrekten Modell einen signifikanten Regressionskoeffizienten. Im Modell mit ausgelassener Variablen x 2i (Alter) spiegelt der geschätzte Koeffizient zum Regressor Ausbildung damit nicht den isolierten Effekt der Ausbildung wider, sondern einen kombinierten Effekt. Wie man zeigen (und im Beispiel leicht nachrechnen) kann, erhält man (analog zum Resultat von Folie 184) durch β 1 + s 12 β2 = = s aus den Schätzergebnissen des korrekten Modells den Punktschätzer für β 1 im falschen Modell mit ausgelassenem Regressor. Ökonometrie (SS 2014) Folie 210
7 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias VII Auch die Punkt- und Intervallschätzung von β 0 sowie Hypothesentests für die Regressionsparameter unterliegen im Modell mit ausgelassener Variablen vergleichbaren Verzerrungen. Geht man fälschlicherweise davon aus, die Annahmen des linearen Regressionsmodell im Modell mit ausgelassenem Regressor erfüllt und mit der Modellschätzung den isolierten Effekt des Regressors Ausbildung gemessen zu haben, so führt dies zu verzerrten Punktschätzern, verschobenen und in der Breite verzerrten Konfidenzintervallen sowie wertlosen Hypothesentests für den isolierten Effekt (da man tatsächlich einen kombinierten Effekt gemessen hat). Ökonometrie (SS 2014) Folie 211
8 Punkt- und Intervallprognosen I Wie im einfachen linearen Regressionsmodell: Erweiterung der Modellannahme y i = β 0 + β 1 x 1i β K x Ki + u i, u i iid N(0, σ 2 ), i {1,..., n} auf (zumindest) einen weiteren Datenpunkt (y 0, x 10,..., x K0 ), bei dem jedoch y 0 nicht beobachtet wird, sondern lediglich die Werte der Regressoren x 10,..., x K0 bekannt sind. Ziel ist wiederum die Prognose von y 0 = β 0 + β 1 x β K x K0 + u 0 bzw. E(y 0 ) = β 0 + β 1 x β K x K0 auf Grundlage von x 10,..., x K0. Hierzu definiert man wie im einfachen linearen Modell mit ŷ 0 := β 0 + β 1 x β K x K0 bzw. Ê(y 0 ) := β 0 + β 1 x β K x K0 die (bedingte) Punktprognose ŷ 0 für y 0 gegeben x 10,..., x K0 bzw. die (bedingte) Punktprognose Ê(y 0) für E(y 0 ) gegeben x 10,..., x K0. Ökonometrie (SS 2014) Folie 212
9 Punkt- und Intervallprognosen II Die Untersuchung der Eigenschaften der bedingten Punktprognosen vereinfacht sich durch die Definition des Vektors x 0 = [ 1 x 10 x K0, der (transponiert) analog zu einer Zeile der Regressormatrix X aufgebaut ist. Für die (bedingte) Punktprognose für y 0 bzw. E(y 0 ) gegeben x 0 erhält man so die kompakte Darstellung ŷ 0 = x 0 β bzw. Ê(y0 ) = x 0 β. Die Erwartungstreue der (bedingten) Punktprognosen ergibt sich damit unmittelbar aus der Erwartungstreue von β für β und E(u 0 ) = 0: E(x 0 β) = x0 E( β) = x 0 β = E(y 0 ) [ = E(E(y 0 )) Ökonometrie (SS 2014) Folie 213
10 Punkt- und Intervallprognosen III Wie im einfachen linearen Modell resultiert der Prognosefehler e E := Ê(y 0) E(y 0 ) = x 0 β x0 β = x 0 ( β β) nur aus dem Fehler bei der Schätzung von β durch β, während e 0 := ŷ 0 y 0 = x 0 β (x0 β + u 0 ) = x 0 ( β β) u 0 zusätzlich die zufällige Schwankung von u 0 N(0, σ 2 ) enthält. Für die Varianz des Prognosefehlers e E erhält man (da E(Ê(y 0) E(y 0 )) = 0) σ 2 e E := Var(e E ) = Var(Ê(y 0) E(y 0 )) = E [[x 0 ( β β) 2 [ (!) = E (x 0 ( β β))(x 0 ( β β)) = E [x 0 ( β β)( β β) x 0 = x 0 V( β)x 0 = σ 2 x 0 (X X) 1 x 0. Ökonometrie (SS 2014) Folie 214
11 Punkt- und Intervallprognosen IV Für die Varianz des Prognosefehlers e 0 erhält man (wegen E(ŷ 0 y 0 ) = 0, E( β β) = 0 und E(u 0 ) = 0) σe 2 0 := Var(e 0 ) = Var(ŷ 0 y 0 ) = E [[x 0 ( β β) u 0 2 [ = E [x 0 ( β β) 2 2x 0 ( β β)u 0 + u0 2 = E [[x 0 ( β β) 2 2x 0 E [( β β)u 0 } {{ } } {{ } =σ 2 x 0 (X X) 1 x 0 = σ 2 [ 1 + x 0 (X X) 1 x 0. =Cov( β β,u 0)=0 + E(u 2 0) }{{} =σ 2 Ökonometrie (SS 2014) Folie 215
12 Punkt- und Intervallprognosen V Wegen der Linearität von ŷ 0 bzw. Ê(y 0) in β überträgt sich die Normalverteilungseigenschaft von β auf ŷ 0 bzw. Ê(y 0), es gilt also ŷ 0 N ( y 0, σ 2 e 0 ) bzw. Ê(y 0 ) N ( E(y 0 ), σ 2 e E ). Wie im einfachen linearen Regressionsmodell muss das unbekannte σ 2 durch σ 2 geschätzt werden, mit σ 2 e 0 := σ 2 x 0 (X X) 1 x 0 bzw. σ2 ee := σ 2 [ 1 + x 0 (X X) 1 x 0 erhält man mit σ e0 := σ2 e0 und σ ee := σ2 ee die Verteilungsaussagen ŷ 0 y 0 σ e0 t(n (K + 1)) bzw. Ê(y 0 ) E(y 0 ) σ ee t(n (K + 1)), aus denen sich Prognoseintervalle für y 0 und E(y 0 ) konstruieren lassen. Ökonometrie (SS 2014) Folie 216
13 Punkt- und Intervallprognosen VI Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also in der Form [ ŷ 0 t n (K+1);1 α 2 σ e 0, ŷ 0 + t n (K+1);1 α 2 σ e 0 = [ x 0 β tn (K+1);1 α 2 σ 1+x 0 (X X) 1 x 0, x 0 β+tn (K+1);1 α 2 σ 1+x 0 (X X) 1 x 0 Intervallprognosen für E(y 0 ) zur Vertrauenswahrscheinlichkeit 1 α (auch interpretierbar als Konfidenzintervalle zum Konfidenzniveau 1 α für E(y 0 )) erhält man entsprechend in der Form [Ê(y0 ) t n (K+1);1 α 2 σ e E, Ê(y 0) + t n (K+1);1 α 2 σ e E = [ x 0 β tn (K+1);1 α 2 σ x 0 (X X) 1 x 0, x 0 β+tn (K+1);1 α 2 σ x 0 (X X) 1 x 0.. Ökonometrie (SS 2014) Folie 217
14 Punkt- und Intervallprognosen VII Eine Punktprognose für die (erwartete) Lohnhöhe eines 38-jährigen Mitarbeiters, der nach dem Hauptschulabschluss weitere 4 Ausbildungsjahre absolviert hat, erhält man im geschätzten Modell aus Folie 207 mit x 0 = [ als ŷ 0 = Ê(y [ 0) = x 0 β = = Im Beispiel aus Folie 207 gilt weiterhin (X X) 1 = und σ = Ökonometrie (SS 2014) Folie 218
15 Punkt- und Intervallprognosen VIII Mit x 0 (X X) 1 x 0 = [ = erhält man weiter σ e0 = σ 1 + x 0 (X X) 1 x 0 = = und σ ee = σ x 0 (X X) 1 x 0 = = Ökonometrie (SS 2014) Folie 219
16 Punkt- und Intervallprognosen IX Insgesamt erhält man für α = 0.05 schließlich das Prognoseintervall [ ŷ 0 t 20 (2+1); σ e0, ŷ t 20 (2+1); σ e0 2 = [ŷ 0 t 17;0.975 σ e0, ŷ 0 + t 17;0.975 σ e0 = [ , = [ , zur Vertrauenswahrscheinlichkeit 1 α = 0.95 für y 0 gegeben x 10 = 4 und x 20 = 38. Entsprechend erhält man für α = 0.05 das Prognoseintervall [ ŷ 0 t 20 (2+1); σ ee, ŷ t 20 (2+1); σ ee 2 = [ , = [ , zur Vertrauenswahrscheinlichkeit 1 α = 0.95 für E(y 0 ) gegeben x 10 = 4 und x 20 = 38. Ökonometrie (SS 2014) Folie 220
Beispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
Prognoseintervalle für y 0 gegeben x 0
10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen
Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen
4 Multiple lineare Regression Heteroskedastische Störgrößen 4.10 Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen Ein approximatives
Konfidenz-, Prognoseintervalle und Hypothesentests II bei heteroskedastischen Störgrößen
Konfidenz-, Prognoseintervalle und Hypothesentests II bei heteroskedastischen Störgrößen Achtung! Bei der Verwendung von heteroskedastie-konsistenten Schätzern für V( β) muss unbedingt darauf geachtet
Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte)
Aufgabe 3 (6 + 4 + 8 + 4 + 10 + 4 + 9 + 4 + 8 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe eines multiplen linearen Regressionsmodells soll auf
Schätzung im multiplen linearen Modell VI
Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,
Zusammenfassung: Einfache lineare Regression I
4 Multiple lineare Regression Multiples lineares Modell 41 Zusammenfassung: Einfache lineare Regression I Bisher: Annahme der Gültigkeit eines einfachen linearen Modells y i = β 0 + β 1 x i + u i, i {1,,
4 Multiple lineare Regression Multikollinearität 4.9
Multikollinearität Erinnerung: Unter der (gemäß Modellannahmen ausgeschlossenen) perfekten Multikollinearität versteht man eine perfekte lineare Abhängigkeit unter den Regressoren (einschließlich des Absolutglieds
Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.
Perfekte Multikollinearität III. Multikollinearität
Multikollinearität Perfekte Multikollinearität I Erinnerung: Unter der (gemäß Modellannahmen ausgeschlossenen) perfekten Multikollinearität versteht man eine perfekte lineare Abhängigkeit unter den Regressoren
Tests einzelner linearer Hypothesen I
4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen
Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test.
Auswertung und Lösung
Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden
Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS)
Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Es soll untersucht werden, ob und wie sich Rauchen während der Schwangerschaft auf den Gesundheitszustand des Neugeborenen auswirkt. Hierzu werden
2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme)
2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme) Annahme A1: Im multiplen Regressionsmodell fehlen keine relevanten exogenen Variablen und die benutzten exogenen Variablen x 1,
7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien
Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)
11. Übungsblatt zur Vorlesung Ökonometrie SS 2014
Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer
Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2017/18. ( = 58 Punkte)
Aufgabe 3 (14 + 2 + 7 + 7 + 3 + 5 + 9 + 11 = 58 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe der Statistiksoftware R soll der Datensatz HousePrices aus
Lineare Regression in R, Teil 1
Lineare Regression in R, Teil 1 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel October 6, 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools aus
Lösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016
ETH Zürich D-USYS Institut für Agrarwissenschaften Lösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016 Peter von Rohr Datum 30. Mai 2016 Beginn 08:00 Uhr Ende 08:45
Multiple Regression III
Multiple Regression III Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Überprüfung der Modellannahmen Residuen-Plot Normal-Q-Q-Plot Cook s Distanz-Plot Maßnahmen bei Abweichungen von Modellannahmen
Perfekte Multikollinearität III. Multikollinearität
Multikollinearität Perfekte Multikollinearität I Erinnerung: Unter der (gemäß Modellannahmen ausgeschlossenen) perfekten Multikollinearität versteht man eine perfekte lineare Abhängigkeit unter den Regressoren
Schweizer Statistiktage, Aarau, 18. Nov. 2004
Schweizer Statistiktage, Aarau, 18. Nov. 2004 Qualitative Überprüfung der Modellannahmen in der linearen Regressionsrechnung am Beispiel der Untersuchung der Alterssterblichkeit bei Hitzeperioden in der
Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie SS ( = 57 Punkte)
Aufgabe 3 (9 + 5 + 7 + 7 + 3 + 9 + 7 + 10 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Zu Beginn der Studienjahre 2011 und 2012 wurden Studienanfänger an
Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie SS 2018
Aufgabe 3 (15 + 1 + 7 + 7 + 7 + 5 = 42 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe der Statistiksoftware R soll der Datensatz HousePrices aus dem Paket
> r.lm < lm(log10(ersch) log10(dist), > summary(r.lm) > r.lms < summary(r.lm) R-Funktionen zur linearen Regression. data = d.
3.4 S-Funktionen 75 R-Funktionen zur linearen Regression a Im package stat (immer vorhanden): lm > r.lm < lm(log10(ersch) log10(dist), data = d.spreng) b Funktion summary produziert Resultate, die man
Tutorial: Regression Output von R
Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen
Teekonsum in den USA (in 1000 Tonnen), Nimmt den Wert 1 an für alle Perioden, Durchschnittlicher Preis des Tees in Periode t (in Tausend $/Tonne).
Aufgabe 1 (5 Punkte) Gegeben sei ein lineares Regressionsmodell in der Form. Dabei ist y t = x t1 β 1 + x t β + e t, t = 1,..., 10 (1) y t : x t1 : x t : Teekonsum in den USA (in 1000 Tonnen), Nimmt den
Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS)
Vorbereitungen Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Falls das R - Paket car noch nicht installiert wurde, kann dies mit der Funktion install.packages() erledigt werden. install.packages("car")
Vorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
Fragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression
Fragen Welche Unsicherheitsfaktoren beeinflussen die Schätzung einer Regressionsgeraden? Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München
Lineare Modelle in R: Klassische lineare Regression
Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)
Varianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?
Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2
Einführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
Bachelorprüfung: Statistik (1 Stunde)
Prof. H.R. Künsch D-BIOL, D-CHAB Winter 2010 Bachelorprüfung: Statistik (1 Stunde) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt. Natels sind auszuschalten!
3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m)
3.1. MODELL UND STATISTIK 32 3 Multiple lineare Regression a 3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m) Y i = β 0 + β 1 x (1)
3. Das einfache lineare Regressionsmodell
3. Das einfache lineare Regressionsmodell Ökonometrie: (I) Anwendung statistischer Methoden in der empirischen Forschung in den Wirtschaftswissenschaften Konfrontation ökonomischer Theorien mit Fakten
Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse
Einleitung Statistik Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Der Begriff Varianzanalyse (analysis of variance, ANOVA) taucht an vielen Stellen in der Statistik mit unterschiedlichen
CIM2004 Übung 7: Permutationstest, Bootstrap & Jackknife
CIM2004 Übung 7: Permutationstest, Bootstrap & Jackknife Michael Höhle [email protected] Lösung 24. Juni 2004 1 Permutationstest Bilirubin ist ein Zerlegungsprodukt von Haemoglobin. Falls die
Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
Proxies, Endogenität, Instrumentvariablenschätzung
1 4.2 Multivariate lineare Regression: Fehler in den Variablen, Proxies, Endogenität, Instrumentvariablenschätzung Literatur: Wooldridge, Kapitel 15, Appendix C.3 und Kapitel 9.4 Wahrscheinlichkeitslimes
Interpretation von Testergebnissen I
2 Wiederholung statistischer Grundlagen Schließende Statistik 2.3 Interpretation von Testergebnissen I Durch die Asymmetrie in den Fehlerwahrscheinlichkeiten 1. und 2. Art ist Vorsicht bei der Interpretation
Stochastik Praktikum Lineare Modelle
Stochastik Praktikum Lineare Modelle Thorsten Dickhaus Humboldt-Universität zu Berlin 06.10.2010 Übersicht 1 Einfache lineare Regression 2 Multiple lineare Regression 3 Varianzanalyse 4 Verallgemeinerte
Mehrfache und polynomiale Regression
Mehrfache und polynomiale Regression Kriteria für die Durchführung einer Regression Jonathan Harrington Bitte datasets.zip (unter 5.5, Tabellarische Daten) neu herunterladen und in pfad auspacken Einfache
Schriftliche Prüfung (2 Stunden)
Prüfung Statistik Winter 2013 Schriftliche Prüfung (2 Stunden) Bemerkungen: Alle schriftlichen Hilfsmittel und ein Taschenrechner sind erlaubt. Mobiltelefone sind auszuschalten! Lesen Sie zuerst alle Aufgaben
Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
[email protected] VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
Biostatistik 101 Korrelation - Regressionsanalysen
Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 [email protected] Korrelation Sind Alter und Blutdruck miteinander
Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie
Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie 1 Einleitung 3 2 Modell mit 0-1 kodierten nominalen Prädiktoren X 1
Statistische Datenanalyse mit R, Korrelation und Regression. Dr. Andrea Denecke Leibniz Universität IT-Services
Statistische Datenanalyse mit R, Korrelation und Regression Dr. Andrea Denecke Leibniz Universität IT-Services Korrelationsanalyse Eine Korrelationsanalyse soll herausfinden Ob ein linearer Zusammenhang
Lineare Modelle in R: Zweiweg-Varianzanalyse und Kovarianzanalyse
Lineare Modelle in R: Zweiweg-Varianzanalyse und Kovarianzanalyse Achim Zeileis 2009-02-20 1 Datenaufbereitung Wie schon im Tutorium LiMo2.pdf laden wir den GSA Datensatz R> load("gsa.rda") und wählen
13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017
13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl
1 Kodierung kategorialer Einflussgrößen
Übung zur Vorlesung Generalisierte Regressionsmodelle Blatt 1 Christiane Fuchs, Moritz Berger, Micha Schneider WiSe 16/17 1 Kodierung kategorialer Einflussgrößen Lösung zu Aufgabe 3 Einlesen der Daten:
x t2 y t = 160, y = 8, y y = 3400 t=1
Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =
Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression
Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade
1 Gliederung Zeitreihenökonometrie. Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09. Dr. Sylvia Kaufmann.
Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09 Dr Sylvia Kaufmann Februar 2009 Angewandte Ökonometrie, Sylvia Kaufmann, FS09 1 1 Gliederung Zeitreihenökonometrie Einführung
1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:
Beispiele zum Üben und Wiederholen zu Wirtschaftsstatistik 2 (Kurs 3) 1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Haushaltseinkommen 12 24 30 40 80 60
Schriftliche Prüfung (90 Minuten)
Dr. M. Kalisch Probeprüfung Statistik 1 Sommer 2014 Schriftliche Prüfung (90 Minuten) Bemerkungen: Alle schriftlichen Hilfsmittel und ein Taschenrechner sind erlaubt. Mobiltelefone sind auszuschalten!
1 Beispiel zur Methode der kleinsten Quadrate
1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25
Übung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
Deskriptive Beschreibung linearer Zusammenhänge
9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,
4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
