Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.
|
|
- Martina Rothbauer
- vor 6 Jahren
- Abrufe
Transkript
1 Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, Wahrscheinlichkeit und Statistik Patric Müller WBL 017 Wahrscheinlichkeit und Statistik / WBL 017 Lernziele Sie können ein lineares Regressionsmodell aufschreiben und dessen Komponenten erläutern,... eine multiple lineare Regression in R durchführen,... die Nutzung der AIC und BIC Kriterien erläutern. Vorlesung basiert auf Kapitel 5. des Skripts. Wahrscheinlichkeit und Statistik 3 / WBL 017 Zusammenfassung Einfache lineare Regression Modell für einfache lineare Regression: Y i = β 0 + β 1 x i + E i, i = 1,..., n, Wobei E 1,..., E n N (0, σ ) Var. Bezeichnung Bedeutung Beispiel Y i Zielvariable Variable, die wir vorhersagen wollen Energieumsatz x i erklärende Variable, bekannte oder einfach zu fettfreie Masse Co-Variable messende Variable E i Fehlervariable oder Abweichung von perfekter Rauschterm Geraden Die unbekannten Parameter β 0 und β 1 werden mit der Methode der kleinsten Quadrate geschätzt. ( n ) ( ˆβ 0 ; ˆβ 1 ) = argmin (Y i β 0 β 1 x i ) β 0,β 1 i=1 Wahrscheinlichkeit und Statistik 4 / WBL 017
2 Signifikanz und Vertrauensintervall für erklärende Variable Multiple lineare Regression Konfidenzintervall [ für β 1 : ] I = ˆβ 1 ŝe( ˆβ 1 )t n,1 α, ˆβ 1 + ŝe( ˆβ 1 )t n,1 α lm(formula = energy ~ mass, data = energymass) Residuals: Min 1Q Median 3Q Max Estimate Std. Error t value Pr(> t ) (Intercept) ** mass e-07 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 1 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: 10.9 on 1 and 1 DF, p-value: 3.073e-07 Modell für die (multiple) lineare Regression Y i = β 0 + β 1 x (1) i + β x () i β m x (m) i + E i, i = 1,..., n Wobei E 1,..., E n N (0, σ ) Die unbekannten Parameter sind hier β 0, β 1,..., β m, σ Das Modell ist linear (in den Parametern), es gibt aber mehrere Parameter zu schätzen (und mehrere Prädiktoren) Hier: I = [0.083, 0.173] Wahrscheinlichkeit und Statistik 5 / WBL 017 Wahrscheinlichkeit und Statistik 6 / WBL 017 Notation mit Matrizen Geometrische Interpretation wobei X = Y = X β + E, 1 x (1) 1 x () 1... x (m) 1 1 x (1) x ()... x (m), Y = x n (1) x n ()... x n (m) β = β 0 β 1. β m, E = E 1 E. E n. Y 1 Y. Y n, Einfache lineare Regression: m = 1 und p = (Parameter zu schätzen). Man findet die bestmögliche Gerade. Lineare Regression mit zwei Prädiktoren: m = und p = 3. Man findet die bestmögliche Ebene. Multiple lineare Regression: m N und p = m + 1. Man findet die bestmögliche Hyperebene. Energy expenditure [MJ] Fat free mass [kg] (Webb, 1981) Quelle: lineare Regression Wahrscheinlichkeit und Statistik 7 / WBL 017 Wahrscheinlichkeit und Statistik 8 / WBL 017
3 Multiple lineare Regression Beispiel Anhand einer statistischen Analyse der Daten einer Studie (Willerman et al. (1991)), möchte man feststellen, wie die Intelligenz der Personen von vier Merkmalen (Geschlecht, Gewicht, Höhe, Gehirnmasse) Abhängt. Man vermutet eine lineare Abhängigkeit: Es entsteht folgendes Modell: Ziele: Y i = β 0 + β 1 x G i + β x W i + β 3 x H i + β 4 x M i + E i, i = 1,..., n, Wobei E 1,..., E n N (0, σ ), x G i = Geschlecht i, x W i = Gewicht i, x H i = Höhe i, x M i = Gew. Gehirnmasse i Schätzung der Parameter β0, β 1, β, β 3, β 4. Tests und Vertrauensintervalle für die geschätzten Parameter konstruieren. Vorhersagen machen (prediction). Wahrscheinlichkeit und Statistik 9 / WBL 017 Visualisierung des 5D-Datensatzes FSIQ Gender Weight Height MRI_Coun Wahrscheinlichkeit und Statistik 10 / WBL Lineare Regression mit R lm(formula = FSIQ ~ Gender + Weight + Height + MRI_Count, data = brdat) Residuals: Min 1Q Median 3Q Max Estimate Std. Error t value Pr(> t ) (Intercept) 1.344e e Gender -.599e e Weight e-0.0e Height -.767e e MRI_Count 1.999e e ** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: 1.6 on 33 degrees of freedom Multiple R-squared: 0.661, Adjusted R-squared: F-statistic:.99 on 4 and 33 DF, p-value: Koeffizienten: ˆβ 0 = 133.4, ˆβ 1,..., ˆβ 4 Standardabweichung der Fehlervariablen: ˆσ = 1.6 Messpunkte in der Studie: n = Freiheitsgrade + Anzahl Koeffizienten; n = df +p = 33+5 = 38 F-Test: Die Nullhypothese H 0 : β 1 = β = β 3 = β 4 = 0 (keine der Prädiktoren hat einen Einfluss auf die Zielvariable) wird verworfen. Vertrauensintervalle und R Vertrauensintervalle für die Parameter konstruiert man im mehrdimensionalen Fall, genauso wie im einfachen Fall. Konfidenzintervall für β j : [ ] I = ˆβ j ŝe( ˆβ j )t n,1 α, ˆβ j + ŝe( ˆβ j )t n,1 α Das Bestimmtheitsmass R-squared ergibt den Anteil der Variation der vom Modell erklärt wird. n R i=1 = 1 (Y i Ŷ i ) n i=1 (Y i y) Das korrigierte Bestimmtheitsmass (Adjusted R-squared) wird mit der folgenden Formel berechnet: R = R (1 R p ) n p 1 Wahrscheinlichkeit und Statistik 11 / WBL 017 Wahrscheinlichkeit und Statistik 1 / WBL 017
4 Residuenanalyse: Überprüfung der Modellannahmen Immer noch lineare Regression! Die Annahmen des Modells werden ähnlich wie bei der einfachen linearen Regression geprüft. Empirische Quantile Q Q Plot der Residuen Residuen Tukey Anscombe Plot Betrachte folgendes Modell: Ist das Modell linear? Y i = β 0 + β 1 x + β x + β 3 x 3 + E i Wobei E 1,..., E n N (0, σ ) Das Modell ist linear, denn es ist linear in den Parametern! Eine lineare Regression kann deswegen, wie üblich durchgeführt werden Theoretische Quantile Angepasste Werte Wahrscheinlichkeit und Statistik 13 / WBL 017 Wahrscheinlichkeit und Statistik 14 / WBL 017 Beispiel Simulierter Datensatz Bemerkungen Komplexität des Modells lm(formula = y ~ x + x + x3) Residuals: Min 1Q Median 3Q Max Estimate Std. Error t value Pr(> t ) (Intercept) x ** x x < e-16 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 38 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: 50. on 3 and 38 DF, p-value: <.e-16 y x Ein komplexeres Modell erklärt die Daten immer besser (SSR kleiner) als eine einfachere Version desselben Modells. Kompliziere Modelle sind aber nicht immer besser! Einfache Modelle sind einfach! Wenige Parameter müssen geschätzt werden, und die Interpretation fällt in der Regel dann auch leichter. Kaum signifikante Prädiktoren oder Prädiktoren, die keine Kausalitätsbeziehung mit der Zielvariable haben, sollen im Modell lieber weggelassen werden. Zu viele Prädiktoren können zu einer Überanpassung (overfitting) des Modells führen! Eine gute Regel ist n 10p, das heisst pro geschätzter Parameter mindestens 10 Beobachtungen haben. Harrell (015) Das linear Regressionsmodell hat eine eindeutige Lösung falls n > p (und Rang(X ) = p). Wie findet man ein gutes Gleichgewicht zwischen Komplexität und gute Qualität des fits? Wahrscheinlichkeit und Statistik 15 / WBL 017 Wahrscheinlichkeit und Statistik 16 / WBL 017
5 AIC und BIC Es ist wichtg ein gutes Gleichgewicht zwischen der Komplexität des Modells und Anpassungsgüte zu finden. AIC und BIC geben diesem Gleichgewicht ein einen numerischen Wert. AIC = l(ˆθ) + p, BIC = l(ˆθ) + log(n)p wobei l(ˆθ) = loglikelihood und ˆθ der Parametervektor ist. Theorem In einem linearen Modell mit den üblichen Annahmen gilt l(ˆθ) = n log ( SSR ) + C n für eine von der Modellwahl unabhängige Konstante C. Wie benutzt man in der Praxis AIC und BIC? Wahrscheinlichkeit und Statistik 17 / WBL 017 AIC und BIC Anwendung Man wähle, zwischen allen möglichen Modellen, das Modell mit dem kleinsten AIC bzw. BIC Wert. Für eine maximale Anzahl von M benutzten Prädiktoren, gäbe es M+1 Modelle zu testen. Die Anzahl zu fittende Modelle kann stark reduziert werden dank einer sogenannten (vorwärts/rückwärts) stepwise Regression. Vorwärts stepwise Regression, Idee: 1 Fitte das leere Modell Y = β 0 + E und berechne den dazugehörigen Wert AIC 0 Fitte alle Modelle mit nur einem Prädiktor (Y = β 0 + β 1 x k + E). 3 Definiere als Basismodell, das Modell mit dem kleinsten AIC Koeffizienten. 4 Teste jetzt alle Modelle, die entstehen beim Hinzufügen eines Parameters zum Basismodell. 5 Definiere als neues Basismodell das Modell mit dem kleinsten AIC. 6 Vorgehen wiederholen solange es keine Änderungen mehr gibt. Wahrscheinlichkeit und Statistik 18 / WBL 017 AIC und BIC Anwendung AIC forward mit R Rückwärts stepwise Regression, Idee: 1 Fitte das komplette Modell mit allen Parametern und berechne den dazugehörigen Wert AIC p Fitte alle Modelle mit allen Prädiktoren alle bis auf einen. 3 Definiere als Basismodell das Modell mit dem kleinsten AIC Wert. 4 Teste jetzt alle Modelle, die entstehen beim Weglassen eines Parameters vom Basismodell. 5 Definiere als neues Basismodell das Modell mit dem kleinsten AIC. 6 Vorgehen wiederholen solange es keine Änderungen mehr gibt. Bemerkungen: Vorwärts und R ckwärts stepwise regression ergeben nicht unbedingt dasselbe Ergebnis. Stepwise Regression kann man auch mit dem BIC Kriterium machen. AIC Kriterium mit Richtung Vorwärts : step(...,directon="forward") Start: AIC=41.93 FSIQ ~ 1 + MRI_Count <none> Height Gender Weight Step: AIC=39.45 FSIQ ~ MRI_Count + Height Weight <none> Gender MRI_Count Step: AIC=34.34 FSIQ ~ MRI_Count + Height <none> Weight Gender Height MRI_Count lm(formula = FSIQ ~ MRI_Count + Height, data = brdat) (Intercept) MRI_Count Height 1.64e+0.05e e+00 Wahrscheinlichkeit und Statistik 19 / WBL 017 Wahrscheinlichkeit und Statistik 0 / WBL 017
6 AIC backward mit R Literatur I AIC Kriterium mit Richtung Rückwärts : step(...,directon="backward") Start: AIC=38.17 FSIQ ~ Gender + Weight + Height + MRI_Count - Gender Weight <none> Height MRI_Count Step: AIC=36.4 FSIQ ~ Weight + Height + MRI_Count - Weight <none> Height MRI_Count Step: AIC=34.34 FSIQ ~ Height + MRI_Count <none> Height MRI_Count lm(formula = FSIQ ~ Height + MRI_Count, data = brdat) (Intercept) Height MRI_Count 1.64e e+00.05e-04 Frank Harrell. Regression Modeling Strategies. Springer, 015. Paul Webb. Energy expenditure and fat-free mass in men and women. The American journal of clinical nutrition, 34(9): , Lee Willerman, Robert Schultz, J Neal Rutledge, and Erin D Bigler. In vivo brain size and intelligence. Intelligence, 15():3 8, Wahrscheinlichkeit und Statistik 1 / WBL 017 Wahrscheinlichkeit und Statistik / WBL 017
Prognoseintervalle für y 0 gegeben x 0
10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
Mehr1 Beispiel zur Methode der kleinsten Quadrate
1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25
MehrLineare Modelle in R: Klassische lineare Regression
Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)
MehrSchriftliche Prüfung (90 Minuten)
Dr. M. Kalisch Probeprüfung Statistik 1 Sommer 2014 Schriftliche Prüfung (90 Minuten) Bemerkungen: Alle schriftlichen Hilfsmittel und ein Taschenrechner sind erlaubt. Mobiltelefone sind auszuschalten!
MehrAuswertung und Lösung
Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden
MehrVariablen Selektion beste Volles Modell
Variablen Selektion Wähle das beste Modell aus einer Klasse von MLR s. Volles Modell enthält alle m möglicherweise erklärenden Größen (Prädiktoren) Suche nach dem besten Modell, das nur eine Teilmenge
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
Mehr4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
MehrLineare Regression in R, Teil 1
Lineare Regression in R, Teil 1 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel October 6, 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools aus
MehrBreusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.
MehrZüchtungslehre - Lösung 3
Züchtungslehre - Lösung 3 Peter von Rohr October 20, 2015 Aufgabe 1 (8) Der in dieser Aufgabe verwendete Datensatz unter http://charlotte-ngs.github.io/livestockbreedingandgenomics/w5/simgenphen.csv umfasst
MehrÜbung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrEmpirische Wirtschaftsforschung in R
Empirische Wirtschaftsforschung in R Schätzung der keynesianischen Geldnachfragefunktion auf Basis von Daten der dänischen Volkswirtschaft Jonas Richter-Dumke Universität Rostock, Institut für Volkswirtschaftslehre
MehrBachelorprüfung: Mathematik 4 - Statistik (2 Stunden)
Prof. P. Bühlmann D-UWIS, D-ERDW, D-AGRL Frühling 2007 Bachelorprüfung: Mathematik 4 - Statistik (2 Stunden) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt.
MehrVorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression
Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade
Mehr1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:
Beispiele zum Üben und Wiederholen zu Wirtschaftsstatistik 2 (Kurs 3) 1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Haushaltseinkommen 12 24 30 40 80 60
MehrMehrfache und polynomiale Regression
Mehrfache und polynomiale Regression Kriteria für die Durchführung einer Regression Jonathan Harrington Bitte datasets.zip (unter 5.5, Tabellarische Daten) neu herunterladen und in pfad auspacken Einfache
Mehr3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m)
3.1. MODELL UND STATISTIK 32 3 Multiple lineare Regression a 3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m) Y i = β 0 + β 1 x (1)
MehrX =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?
Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2
MehrLineare Regressionen mit R (Ökonometrie SS 2014 an der UdS)
Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Es soll untersucht werden, ob und wie sich Rauchen während der Schwangerschaft auf den Gesundheitszustand des Neugeborenen auswirkt. Hierzu werden
Mehry t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.
Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf
MehrFragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression
Fragen Welche Unsicherheitsfaktoren beeinflussen die Schätzung einer Regressionsgeraden? Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur
MehrEinführung in die formale Demographie Übung
Einführung in die formale Demographie Übung Roland Rau mailto:roland.rau@uni-rostock.de 03. November 2014 Inhaltsverzeichnis 1 Aufgaben vom 27. Oktober 2014 2 1.1 Schreiben von Funktionen............................
MehrAnalyse von Querschnittsdaten. Signifikanztests I Basics
Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004
MehrÜbung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
MehrTutorial: Regression Output von R
Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen
MehrAufgabe 35 mit R (Ökonometrie SS 2014 an der UdS)
Vorbereitungen Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Falls das R - Paket car noch nicht installiert wurde, kann dies mit der Funktion install.packages() erledigt werden. install.packages("car")
MehrEine Einführung in R: Das Lineare Modell
Eine Einführung in R: Das Lineare Modell Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2009 Bernd Klaus, Verena Zuber
MehrRegressionsanalyse in R
Regressionsanalyse in R Session 6 1 Einfache Regression Lineare Regression ist eines der nützlichsten Werkzeuge in der Statistik. Regressionsanalyse erlaubt es Zusammenhänge zwischen Parametern zu schätzen
MehrSchriftliche Prüfung (90 Minuten)
Dr. M. Kalisch Prüfung Statistik I Winter 2015 Schriftliche Prüfung (90 Minuten) Bemerkungen: Alle schriftlichen Hilfsmittel und ein Taschenrechner sind erlaubt. Mobiltelefone sind auszuschalten! Die Prüfung
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
Mehr6. Statistische Schätzung von ARIMA Modellen
6. Statistische Schätzung von ARIMA Modellen Vorschau: ARIMA Modelle Modellidentifikation verschiedene Schätzverfahren Modelldiagnostik Fallstudien Zeitreihenanalyse 1 6.1 ARIMA Modelle Bisher: ARMA(p,q)-Modelle:
Mehr13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017
13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl
MehrDie Regressionsanalyse
Die Regressionsanalyse Zielsetzung: Untersuchung und Quantifizierung funktionaler Abhängigkeiten zwischen metrisch skalierten Variablen eine unabhängige Variable Einfachregression mehr als eine unabhängige
MehrFormelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade
Version 2015 Formelsammlung für das Modul Statistik 2 Bachelor Sven Garbade Prof. Dr. phil. Dipl.-Psych. Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de
MehrFORMELN IN. Referent: Daniel Laskow Betreuer: Eugen Betke Programmierung in R Arbeitsbereich Wissenschaftliches Rechnen Universität Hamburg
FORMELN IN Referent: Daniel Laskow Betreuer: Eugen Betke Programmierung in R Arbeitsbereich Wissenschaftliches Rechnen Universität Hamburg 01.06.2016 Gliederung Arithmetische Operatoren Funktionen aus
MehrTeil: lineare Regression
Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge
Mehr1 Binäre Regression (I)
Übung zur Vorlesung Generalisierte Regressionsmodelle Blatt 2 Gerhard Tutz, Moritz Berger, Wolfgang Pößnecker WiSe 14/15 1 Binäre Regression (I) Aufgabe 1 Der Datensatz shuttle beschreibt für die 23 Space
Mehr3. Das einfache lineare Regressionsmodell
3. Das einfache lineare Regressionsmodell Ökonometrie: (I) Anwendung statistischer Methoden in der empirischen Forschung in den Wirtschaftswissenschaften Konfrontation ökonomischer Theorien mit Fakten
MehrSeminar zur Energiewirtschaft:
Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
MehrKurs Empirische Wirtschaftsforschung
Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische
Mehr6.2 Lineare Regression
6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )
MehrLösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
MehrLogistische Regression
Logistische Regression Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Logistische Regression Beispiel 1: Herzerkrankungsdaten aus Framingham Log Odds Modell Beispiel 1: Einfluss von Blutdruck Maximum
MehrStatistik Einführung // Lineare Regression 9 p.2/72
Statistik Einführung Lineare Regression Kapitel 9 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Ledold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // Lineare Regression
MehrB. Regressionsanalyse [progdat.sav]
SPSS-PC-ÜBUNG Seite 9 B. Regressionsanalyse [progdat.sav] Ein Unternehmen möchte den zukünftigen Absatz in Abhängigkeit von den Werbeausgaben und der Anzahl der Filialen prognostizieren. Dazu wurden über
Mehr9. Lineare Regression
9. Lineare Regression y 3.0 3.5 4.0 4.5 0.0 0.2 0.4 0.6 0.8 1.0 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 2016 1 / 40 x KQ-Schätzung Es ist eine Gerade y = β 1 + β 2 x gesucht, welche
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrLineare Regression Blockpraktikum zur Statistik mit R 28. März 2012 Sören Gröttrup Institut für Mathematische Statistik Universität Münster SS 2012
Lineare Regression Blockpraktikum zur Statistik mit R 28. März 2012 Sören Gröttrup Institut für Mathematische Statistik Universität Münster SS 2012 Beispiel: Ausgangsfrage Ziel: Wie wirkt sich die eingesetzte
MehrEinführung in die multiple Regression
Einführung in die multiple Regression Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@fh-heidelberg.de Bachelor S. Garbade (SRH Heidelberg) Multiple Regression Bachelor
MehrLineare Regression 1 Seminar für Statistik
Lineare Regression 1 Seminar für Statistik Markus Kalisch 17.09.2014 1 Statistik 2: Ziele Konzepte von einer breiten Auswahl von Methoden verstehen Umsetzung mit R: Daten einlesen, Daten analysieren, Grafiken
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
MehrStatistik II Übung 4: Skalierung und asymptotische Eigenschaften
Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden
MehrKlausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik
Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:
MehrVersuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann
Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann Contents Aufgabe 1 1 b) Schätzer................................................. 3 c) Residuenquadratsummen........................................
MehrBreusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test.
MehrAllgemein zu Hypothesentests: Teststatistik. OLS-Inferenz (Small Sample) Allgemein zu Hypothesentests
OLS-Inferenz (Small Sample) K.H. Schild 3. Mai 017 Allgemein zu Hypothesentests: Teststatistik Konstruktion eines Hypothesentests erfolgt meistens über eine Teststatistik Eine Teststatistik T ist eine
MehrDas lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Prof. Dr. Werner Smolny Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Institutsdirektor Das ökonomische
MehrÜbungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg
Übungsklausur Lineare le Prof. Dr. H. Toutenburg Aufgabe Ein lineares Regressionsmodell mit der abhängigen Variablen Körpergröße und der unabhängigen Variablen Geschlecht wurde einmal mit der dummykodierten
MehrKapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen.
Kapitel 3 Schließende lineare Regression 3.1. Einführung induktiv Fragestellungen Modell Statistisch bewerten, der vorher beschriebenen Zusammenhänge auf der Basis vorliegender Daten, ob die ermittelte
MehrSchriftliche Prüfung (120 Minuten)
Dr. D. Stekhoven Prüfung Mathematik IV Winter 2015 Schriftliche Prüfung (120 Minuten) Bemerkungen: Alle schriftlichen Hilfsmittel und ein Taschenrechner sind erlaubt. Mobiltelefone sind auszuschalten!
MehrLehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. Regina T. Riphahn, Ph.D. Diplomvorprüfung Statistik II Einf. Ökonometrie im WS 06/07
Aufgabe 1: [21 Punkte] Ein Forschungsinstitut hat den Auftrag bekommen, die individuellen monatlichen Ausgaben für Bioprodukte zu erklären. Es wird eine Kleinstquadrate Regression der Höhe der Ausgaben
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:
MehrPoisson Regression. Verallgemeinerte Lineare Modelle (GLMs)
Poisson Regression Verallgemeinerte Lineare Modelle (GLMs) 28.11.2011 Poisson Regression Aus der Einführungsvorlesung Poisson-Verteilung ist in der Regel gut geeignet, um Anzahlen zu modellieren. Frage
MehrStatistisches Lernen
Statistisches Lernen Einheit 12: Modellwahl und Regularisierung Dr. rer. nat. Christine Pausch Institut für Medizinische Informatik, Statistik und Epidemiologie Universität Leipzig WS 2014/2015 1 / 28
MehrMetrische und kategoriale Merkmale
Kapitel 6 Metrische und kategoriale Merkmale 6.1 Wie kann man metrische und kategoriale Merkmale numerisch beschreiben? Typischerweise will man geeignete Maßzahlen (beispielsweise Lage- oder Streuungsmaße)
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrDie Anwendung des globalen und partiellen F-Tests beim Regressionsmodell
Dr. Wolfgang Langer - Integrierte Veranstaltung Methoden IV WS 2002/2003-1 Die Anwendung des globalen und partiellen F-Tests beim Regressionsmodell von XENOPHOB auf V247 und POSTMAT, MATERIAL Für unsere
MehrTeil VIII Hypothesentests für zwei Stichproben
Woche 9: Hypothesentests für zwei Stichproben Teil VIII Hypothesentests für zwei Stichproben WBL 15/17, 22.06.2015 Alain Hauser Berner Fachhochschule, Technik und Informatik Berner
MehrEine Einführung in R: Varianzanalyse
Eine Einführung in R: Varianzanalyse Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2011 Bernd Klaus, Verena Zuber Das
MehrVorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13
Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression Dipl.-Ing. Robin Ristl Wintersemester 2012/13 1 Grundidee: Eine abhängige Variable soll als Linearkombination mehrerer unabhängiger
MehrIch bestätige, dass ich obige Hinweise zur Kenntnis genommen habe und sie befolgen werde.
60-minütige Klausur zur Vorlesung Statistik II für Studierende der Wirtschaftswissenschaften aus dem Sommersemester 2017 Prof. Dr. Helmut Küchenhoff Ludwig-Maximilians-Universität München, Institut für
MehrStrukturgleichungsmodellierung
Strukturgleichungsmodellierung FoV Methodenlehre FSU-Jena Dipl.-Psych. Norman Rose Parameterschätzung, Modelltest & Fit Indizes bei SEM Forschungsorientierte Vertiefung - Methodenlehre Dipl.-Psych. Norman
Mehr6.4 Kointegration Definition
6.4 Kointegration 6.4.1 Definition Nach Engle und Granger (1987): Wenn zwei oder mehrere Variablen I(1) sind, eine Linearkombination davon jedoch I() ist, dann sind die Variablen kointegriert. Allgemein:
MehrTeil IX. Verteilungen an Daten anpassen ( Maximum-Likelihood-Schätzung. fitten ) Woche 7: Maximum-Likelihood-Schätzung. Lernziele
Woche 7: Maimum-Lielihood-Schätzung Patric Müller ETHZ Teil IX Verteilungen an Daten anpassen ( fitten ): Maimum-Lielihood-Schätzung WBL 17/19, 12.06.2017 Wahrscheinlicheit
MehrInferenz im multiplen Regressionsmodell
1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall
Mehr8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme)
8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) Annahme B4: Die Störgrößen u i sind normalverteilt, d.h. u i N(0, σ 2 ) Beispiel: [I] Neoklassisches Solow-Wachstumsmodell Annahme einer
Mehr> ### Beispiel 7 ### > > library(faraway); options(digits = 5) > data(savings) > savings.lm = lm(sr ~ pop15 + pop75 + dpi + ddpi, savings)
> ### Beispiel 7 ### > > library(faraway); options(digits = 5) > data(savings) > savings.lm = lm(sr ~ pop15 + pop75 + dpi + ddpi, savings) > # Indexplot der Residuen > plot(savings.lm$res, ylab="residuen",
MehrStatistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrKapitel 4: Binäre Regression
Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,
MehrTechnische Universität München Zentrum Mathematik Sommersemester Juli 2005 Arbeitszeit 60 Minuten
Name: Frau Herr (nichtzutreffendes bitte streichen) Fachrichtung geb. am (Tag/Mon/Jahr) Semestralklausur aus Praktikum BWL-Statistik Technische Universität München Zentrum Mathematik Sommersemester 2005
Mehr10. Übung (Korrelation und lineare Regressionsanalyse)
10. Übung (Korrelation und lineare Regressionsanalyse) Es wird untersucht, ob ein linearer Zusammenhang zwischen zwei Variablen besteht. Mit anderen Worten: ob ein solcher Zusammenhang gibt, wenn der beobachteter
MehrStatistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
MehrZiel: Vorhersage eines Kriteriums/Regressand Y durch einen Prädiktor/Regressor X.
Lineare Regression Einfache Regression Beispieldatensatz: trinkgeld.sav Ziel: Vorhersage eines Kriteriums/Regressand Y durch einen Prädiktor/Regressor X. H0: Y lässt sich nicht durch X erklären, das heißt
MehrStatistik für Naturwissenschaftler Woche 11-13: Regression basics (mit R Unterstützung)
Woche 11-13: Regression basics (mit R Unterstützung) Ass.-Prof. Dr. Fachbereich Mathematik Universität Salzburg www.trutschnig.net Salzburg, Juni 2015 y Motivation + eindimensionale lineare Regression
MehrEinführung in die Statistik
Einführung in die Statistik Analyse und Modellierung von Daten von Prof. Dr. Rainer Schlittgen Universität Hamburg 12., korrigierte Auflage Oldenbourg Verlag München Inhaltsverzeichnis 1 Statistische Daten
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrEine Einführung in R: Lineare Regression
Eine Einführung in R: Lineare Regression (basierend auf Vorarbeiten von Verena Zuber und Bernd Klaus) Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.nowick-lab.info/?page_id=365
MehrAnalyse von Querschnittsdaten. Signifikanztests II Advanced Stuff
Analyse von Querschnittsdaten Signifikanztests II Advanced Stuff Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum..4..4 7..4..4..4 7..4 4..4..4
MehrSozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS
Sommersemester 2009 Statistik mit SPSS 15. Mai 2009 15. Mai 2009 Statistik Dozentin: mit Esther SPSSOchoa Fernández 1 Überblick 1. Korrelation vs. Regression 2. Ziele der Regressionsanalyse 3. Syntax für
MehrEine Einführung in R: Lineare Regression
Eine Einführung in R: Lineare Regression Katja Nowick, Lydia Müller und Markus Kreuz Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.bioinf.uni-leipzig.de/teaching/currentclasses/class211.html
MehrStatistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
MehrTests einzelner linearer Hypothesen I
4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen
MehrAnwendung von Multi-Level Moderation in Worst Performance Analysen
Anwendung von Multi-Level Moderation in Worst Performance Analysen Präsentation auf der FGME 2015 - Jena Gidon T. Frischkorn, Anna-Lena Schubert, Andreas B. Neubauer & Dirk Hagemann 16. September 2015
Mehr