Eine Einführung in R: Das Lineare Modell
|
|
- Heidi Koch
- vor 7 Jahren
- Abrufe
Transkript
1 Eine Einführung in R: Das Lineare Modell Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2009 Bernd Klaus, Verena Zuber Das Lineare Modell 1/26
2 I. Lineare Einfachregression MLQ - Schätzung Interpretation und Modelldiagnose Schätzung der Koezienten Einfache Modelldiagnose - Residuenanalyse Einfache Regression Modelldiagnose Multiple Regression Bernd Klaus, Verena Zuber Das Lineare Modell 2/26
3 I. Lineare Einfachregression Bernd Klaus, Verena Zuber Das Lineare Modell 3/26
4 MLQ - Schätzung Interpretation und Modelldiagnose Ziel der Regressionsanalyse: Welchen Einuss hat eine Gröÿe X auf eine andere Zufallsvariable Y? Y : metrische Zielvariable, zu erklärende Variable, Regressand X : erklärende Variable, Regressor (zufällig oder deterministisch) Daten: n Realisierungen (y 1, x 1 ),..., (y n, x n ) Die Lineare Regression untersucht, ob ein linearer Zusammenhang zwischen X und Y besteht. Bernd Klaus, Verena Zuber Das Lineare Modell 4/26
5 MLQ - Schätzung Interpretation und Modelldiagnose Modell der Linearen Regression y i = β 0 + β 1 x i + ε i i = 1,..., n y i : Zielvariable, zu erklärende Variable, Regressand x i : erklärende Variable, Regressor ε i : unbeobachtbare Fehlervariable, unabhängig und identisch verteilt (in der Regel als N(0, σ)) zu schätzende Koezienten des Models: β 0, β 1 β 0 : Intercept β 1 : Regressionskoezient der Variable X Bernd Klaus, Verena Zuber Das Lineare Modell 5/26
6 MLQ - Schätzung Interpretation und Modelldiagnose Annahmen: Lineare Regression Es besteht ein linearer Zusammenhang zwischen X und Y Y ist metrisch und normalverteilt (Kategorial: Logit Regression; Allgemeinere Verteilungen: GLM's) E(y i ) = β 0 + β 1 x i Var(y i ) = σ 2 Homoskedastizität, d.h. die Fehler ε i haben die gleiche Varianz: Var(ε i ) = σ 2 für alle i = 1,..., n Die Fehler ε i, mit i = 1,..., n, sind unabhängig (GegenBsp: Zeitreihendaten) Die Fehler ε sind unabhängig vom Wert der Zielvariable Y Bernd Klaus, Verena Zuber Das Lineare Modell 6/26
7 MLQ - Schätzung Interpretation und Modelldiagnose Beispiel: Simulierte Daten X<-seq(1,6,0.01) epsilon<-rnorm(length(x), mean=0, sd=1) Y<-X+epsilon X Y Bernd Klaus, Verena Zuber Das Lineare Modell 7/26
8 MLQ - Schätzung Interpretation und Modelldiagnose Schätzung der β i β 0 und β 1 können durch Minimierung der Summe des Quadratischen Fehlers geschätzt werden (Kleinste Quadrate Schätzers): ( n MLQ = i=1 y i (β 0 + β 1 x i ) )2 min! Dies führt zu folgenden Schätzungen für β 0 und β 1 : β 0 = n (y i (β 0 + β 1 x i ) ) β 1 = i=1 P ni=1 (x i x)(y i ȳ) P ni=1 (x i x) 2 Bernd Klaus, Verena Zuber Das Lineare Modell 8/26
9 MLQ - Schätzung Interpretation und Modelldiagnose Testen des β-koezienten Der Regressionskoezient β 1 der Variable X ist ein Indikator für den linearen Zusammenhang von X und Y. Es gilt: β 1 = cor(x, Y ) σ Y σ X Daraus folgt: β 1 < 0: negativer (linearer) Zusammenhang β 1 = 0: kein (linearer) Zusammenhang β 1 > 0: positiver (linearer) Zusammenhang Es gibt einen einfachen Test, der angibt, ob β 1 signikant ungleich Null ist, d.h. ob ein signikanter Zusammenhang zwischen X und Y besteht. Bernd Klaus, Verena Zuber Das Lineare Modell 9/26
10 MLQ - Schätzung Interpretation und Modelldiagnose Zerlegung der Gesamtstreuung Die Maÿzahl R 2 dient als Hinweis darauf, wie gut ein Regressionsmodell zu den Daten passt. Die Idee hinter diesem Maÿ ist die sogenannte Streuungszerlegung: SQT = n (y i ȳ) 2 = i=1 n (y i ŷ i ) 2 + i=1 } {{ } SQR n (ŷ i ȳ) 2 i=1 } {{ } SQE SQT: Sum of Squares Total, die Gesamtstreuung (Var(Y )) SQE: Sum of Squares Explained, die durch das Modell erklärte Streuung SQR: Sum of Squares Residuals, die Rest- oder Residualstreuung Bernd Klaus, Verena Zuber Das Lineare Modell 10/26
11 MLQ - Schätzung Interpretation und Modelldiagnose Bestimmtheitsmaÿ R 2 Liegen die Punkte (y 1, x 1 ),..., (y n, x n ) alle auf einer Geraden, so ist SQR= 0 und die Gesamtstreuung wäre gleich der erklärten Streuung. Wir denieren R 2 = SQE SQT = 1 SQR SQT [0, 1] Je gröÿer also das R 2 ist, desto besser passt das Modell zu den Daten. Dabei bedeuten: R 2 = 0: Die erklärte Streuung ist 0, d.h. das Modell ist extrem schlecht; X und Y sind nicht linear abhängig R 2 = 1: Die erklärte Streuung entspricht der Gesamtstreuung, das Modell passt perfekt R 2 (0, 1): Es gibt unerklärte Streuung. Als Faustregel für ein passables Modell kann ein R gelten Bernd Klaus, Verena Zuber Das Lineare Modell 11/26
12 MLQ - Schätzung Interpretation und Modelldiagnose Bernd Klaus, Verena Zuber Das Lineare Modell 12/26
13 Schätzung der Koezienten Einfache Modelldiagnose - Residuenanalyse Mehrere erklärende Variablen Ziel: Ist man an dem Einuss mehrerer Variablen X 1,..., X p auf eine Zielgröÿe Y, kann man in der multiplen linearen Regression p erklärende Gröÿen X = X 1,..., X p aufnehmen. Realisierungen: (y 1, x 11,..., x 1p ),..., (y n, x n1,..., x np ) Modell: y i = β 0 + p j=1 β j x ij + ε i Y = X β + ε Dabei ist X = (x ij ) die sogenannte Designmatrix. Vorteil zur einfachen Regression: β j beschreibt den Zusammenhang der j.ten Variable zu Y bedingt auf alle übrigen j 1 Variablen (Kontrolle von ungewollten oder Scheineekten) Bernd Klaus, Verena Zuber Das Lineare Modell 13/26
14 Schätzung der Koezienten Einfache Modelldiagnose - Residuenanalyse Least-Squares Schätzer β 0, β 1,..., β p können (analog zur einfachen linearen Regression) durch Minimierung der Summe des Quadratischen Fehlers geschätzt werden (Kleinste Quadrate oder Least-Squares): ( n MLQ = i=1 y i (β 0 + β 1 x 1i β p x pi ) )2 min! Der Least-Squares Schätzer ergibt sich nach Umformen zu: ˆβ = (X T X ) 1 X T Y Bernd Klaus, Verena Zuber Das Lineare Modell 14/26
15 Schätzung der Koezienten Einfache Modelldiagnose - Residuenanalyse Hat-Matrix Die Matrix H := (X T X ) 1 X T bezeichnet man auch als Hat-Matrix, da sie die beobachteten Daten Y in geschätzte Werte Ŷ = HY verwandelt. Es gilt für den Residuenvektor: r = Ŷ Y = HY Y = (I n H)Y r N ( 0, (I n H ) σ) Die Residuen besitzen also die Varianz / Kovarianz Var(r i ) = σ 2 (1 h ii ) und Cov(ˆr i, ˆr j ) = σ 2 (1 h ij ), i j Bernd Klaus, Verena Zuber Das Lineare Modell 15/26
16 Schätzung der Koezienten Einfache Modelldiagnose - Residuenanalyse Residuenanalyse Da die Residuen alle unterschiedliche Varianz besitzen, skaliert man sie auf einheitliche Varianz: r i r i,stud = ˆσ 1 N(0, σ) h ii Frage: Sind die Voraussetzungen für das lineare Modell erfüllt? Zu untersuchen sind: 1. Anpassung des Modells an die Daten: Residuen gegen gettete Wert Ŷ 2. Normalverteilung des Fehlers: QQ-Plot: Quantile der Residuen gegen die theoretische NV 3. Homoskedastizität des Fehlers: Standardisierte Residuen gegen gettete Wert Ŷ, wenn die geeignet mit H standardisierten Residuen abhängig von Ŷ sind, deutet dies auf ungleiche Varianzen der Fehler hin Bernd Klaus, Verena Zuber Das Lineare Modell 16/26
17 Schätzung der Koezienten Einfache Modelldiagnose - Residuenanalyse Bernd Klaus, Verena Zuber Das Lineare Modell 17/26
18 Einfache Regression Modelldiagnose Multiple Regression Beispieldaten: airquality Ozone: Mean ozone in parts per billion from 1300 to 1500 hours at Roosevelt Island Solar.R: Solar radiation in Langleys in the frequency band Angstroms from 0800 to 1200 hours at Central Park Wind: Average wind speed in miles per hour at 0700 and 1000 hours at LaGuardia Airport Temp: Maximum daily temperature in degrees Fahrenheit at La Guardia Airport Mit diesen Daten kann untersucht werden welchen Einuss Sonneneinstrahlung, Wind und Temperatur auf die Ozonwerte haben. Bernd Klaus, Verena Zuber Das Lineare Modell 18/26
19 Einfache Regression Modelldiagnose Multiple Regression Beispiel in R Wir laden den Datensatz airquality data(airquality) Wir untersuchen das Modell: Ozone i = β 0 + β 1 Temp i + ε i... also die Abhängigkeit des Ozons von der Temperatur Aufruf der Funktion lm() test <- lm( formula= Ozone Temp, data= airquality) Ausgabe in R: Coefficients: (Intercept) Temp Bernd Klaus, Verena Zuber Das Lineare Modell 19/26
20 Einfache Regression Modelldiagnose Multiple Regression Scatterplot: Ozone Temp plot(temp,ozone) abline(test$coefficients, col=red) Temp Ozone Bernd Klaus, Verena Zuber Das Lineare Modell 20/26
21 Einfache Regression Modelldiagnose Multiple Regression Modelldiagnose R 2 und andere Maÿe des Modells : summary(test) Estimate Std. Error t value Pr(> t ) (Intercept) e-13 Temp < 2e-16 Koezienten: test$coefficients Gettete Werte Ŷ : test$fitted.values Studentisierte Residuen: ls.diag(test)$std.res Hat-Matrix: ls.diag(test)$hat Verschiedene Diagnoseplots: plot(test) oder plot.lm(test) (u.a. Residuenanalyse) Bernd Klaus, Verena Zuber Das Lineare Modell 21/26
22 Einfache Regression Modelldiagnose Multiple Regression Modelldiagnose in R I: Residuen gegen gettete Werte Residuen gegen gettete Werte Ŷ zur Untersuchung der Anpassung des Modells an die Daten Residuals vs Fitted 117 Residuals Fitted values lm(ozone ~ Temp) Bernd Klaus, Verena Zuber Das Lineare Modell 22/26
23 Einfache Regression Modelldiagnose Multiple Regression Modelldiagnose in R II: Residuen-QQ Plot der studentisierten gegen die theoretischen (NV) Residuen zur Untersuchung der Normalverteilung des Fehlers Normal Q Q 117 Standardized residuals Theoretical Quantiles lm(ozone ~ Temp) 62 Bernd Klaus, Verena Zuber Das Lineare Modell 23/26
24 Einfache Regression Modelldiagnose Multiple Regression Modelldiagnose in R III: Standardisierte Residuen gegen Ŷ Standardisierte, absolute Residuen gegen gettete Werte Ŷ zur Untersuchung der Homoskedastizität des Fehlers Fitted values Standardized residuals lm(ozone ~ Temp) Scale Location Bernd Klaus, Verena Zuber Das Lineare Modell 24/26
25 Einfache Regression Modelldiagnose Multiple Regression Multiple Regression in R Wir untersuchen nun das Modell: Ozone i = β 0 + β 1 Temp i +β 2 Solar.R i + ε i... also die Abhängigkeit des Ozons von der Temperatur und der Sonneneinstrahlung Aufruf der Funktion lm() test <- lm( formula= Ozone Temp + Solar.R, data= airquality) Ausgabe in R: Coefficients: (Intercept) Temp Solar.R Bernd Klaus, Verena Zuber Das Lineare Modell 25/26
26 Einfache Regression Modelldiagnose Multiple Regression Spezikation der Regressionsvariablen lm(formula,...) formula: Hier muss das Modell bzw die Variablen des Modelles speziziert werden. Allgemeiner Aufbau der linearen Einfachregression formula= Y X Beispiel: formula= Ozone Temp Allgemeiner Aufbau der multiplen linearen Regression formula= Y X 1 + X X p Beispiel: formula= Ozone Temp + Solar.R Bernd Klaus, Verena Zuber Das Lineare Modell 26/26
Eine Einführung in R: Das Lineare Modell
Eine Einführung in R: Das Lineare Modell Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 9. Dezember 2010 Bernd Klaus, Verena Zuber
MehrEine Einführung in R: Das Lineare Modell
Eine Einführung in R: Das Lineare Modell Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 29. November 2012 Bernd Klaus, Verena Zuber,
MehrEine Einführung in R: Lineare Regression
Eine Einführung in R: Lineare Regression (basierend auf Vorarbeiten von Verena Zuber und Bernd Klaus) Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.nowick-lab.info/?page_id=365
MehrEine Einführung in R: Lineare Regression
Eine Einführung in R: Lineare Regression Katja Nowick, Lydia Müller und Markus Kreuz Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.bioinf.uni-leipzig.de/teaching/currentclasses/class211.html
MehrEine Einführung in R: Varianzanalyse
Eine Einführung in R: Varianzanalyse Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2011 Bernd Klaus, Verena Zuber Das
MehrEine Einführung in R: Varianzanalyse
Eine Einführung in R: Varianzanalyse Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 13. Januar 2009 Bernd Klaus, Verena Zuber Das
MehrEine Einführung in R: Das Lineare Modell II
Eine Einführung in R: Das Lineare Modell II Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 15. Dezember 2011 Bernd Klaus, Verena
MehrEine Einführung in R: Varianzanalyse
Eine Einführung in R: Varianzanalyse Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 13. Dezember 2012 Bernd Klaus, Verena Zuber,
MehrEinführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
MehrSchweizer Statistiktage, Aarau, 18. Nov. 2004
Schweizer Statistiktage, Aarau, 18. Nov. 2004 Qualitative Überprüfung der Modellannahmen in der linearen Regressionsrechnung am Beispiel der Untersuchung der Alterssterblichkeit bei Hitzeperioden in der
MehrMultiple Regression III
Multiple Regression III Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Überprüfung der Modellannahmen Residuen-Plot Normal-Q-Q-Plot Cook s Distanz-Plot Maßnahmen bei Abweichungen von Modellannahmen
MehrFragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression
Fragen Welche Unsicherheitsfaktoren beeinflussen die Schätzung einer Regressionsgeraden? Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrPrognoseintervalle für y 0 gegeben x 0
10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
MehrStatistik II für Betriebswirte Vorlesung 8
Statistik II für Betriebswirte Vorlesung 8 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 3. Dezember 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version:
Mehr7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien
Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrVarianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
MehrDie Regressionsanalyse
Die Regressionsanalyse Zielsetzung: Untersuchung und Quantifizierung funktionaler Abhängigkeiten zwischen metrisch skalierten Variablen eine unabhängige Variable Einfachregression mehr als eine unabhängige
MehrDie Funktion f wird als Regressionsfunktion bezeichnet.
Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht
Mehr6.2 Regressionsanalyse I: Die lineare Einfachregression
6.2 Regressionsanalyse I: Die lineare Einfachregression 6.2.1 Grundbegriffe und Hintergrund Bedeutung der Regression: Eines der am häufigsten verwendeten statistischen Verfahren. Vielfache Anwendung in
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrZusammenfassung 11. Sara dos Reis.
Zusammenfassung 11 Sara dos Reis sdosreis@student.ethz.ch Diese Zusammenfassungen wollen nicht ein Ersatz des Skriptes oder der Slides sein, sie sind nur eine Sammlung von Hinweise zur Theorie, die benötigt
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:
Mehr9. Lineare Regression
9. Lineare Regression y 3.0 3.5 4.0 4.5 0.0 0.2 0.4 0.6 0.8 1.0 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 2016 1 / 40 x KQ-Schätzung Es ist eine Gerade y = β 1 + β 2 x gesucht, welche
MehrÜbung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Ausgangsdaten Bundesliga 2008/2009 Gegeben: Daten zu den 18 Vereinen der ersten Bundesliga
MehrBlockpraktikum zur Statistik mit R
Blockpraktikum zur Statistik mit R 17. September 2014 Johannes Blank Institut für Mathematische Statistik Universität Münster WS 14/15 Beispiel: Ausgangsfrage Ziel: Wie wirkt sich die eingesetzte Menge
MehrTeil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.
Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, 10.07.017 Wahrscheinlichkeit und Statistik Patric Müller WBL
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.
0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:
MehrBeispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
MehrStochastik Praktikum Lineare Modelle
Stochastik Praktikum Lineare Modelle Thorsten Dickhaus Humboldt-Universität zu Berlin 06.10.2010 Übersicht 1 Einfache lineare Regression 2 Multiple lineare Regression 3 Varianzanalyse 4 Verallgemeinerte
Mehr13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017
13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl
MehrSchriftliche Prüfung (90 Minuten)
Dr. M. Kalisch Prüfung Statistik I Winter 2016 Schriftliche Prüfung (90 Minuten) Bemerkungen: Erlaubte Hilfsmittel: 10 hand- oder maschinengeschriebene A4 Seiten (=5 Blätter). Taschenrechner ohne Kommunikationsmöglichkeit.
MehrLineare Regression Blockpraktikum zur Statistik mit R 28. März 2012 Sören Gröttrup Institut für Mathematische Statistik Universität Münster SS 2012
Lineare Regression Blockpraktikum zur Statistik mit R 28. März 2012 Sören Gröttrup Institut für Mathematische Statistik Universität Münster SS 2012 Beispiel: Ausgangsfrage Ziel: Wie wirkt sich die eingesetzte
MehrBiostatistik 101 Korrelation - Regressionsanalysen
Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 carl.herrmann@uni-heidelberg.de Korrelation Sind Alter und Blutdruck miteinander
Mehr11. Übungsblatt zur Vorlesung Ökonometrie SS 2014
Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer
MehrTeil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller
Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit
MehrDeskriptive Beschreibung linearer Zusammenhänge
9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
MehrSchätzung im multiplen linearen Modell VI
Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,
MehrErgänzungsmaterial zur Vorlesung. Statistik 2. Modelldiagnostik, Ausreißer, einflussreiche Beobachtungen
Institut für Stochastik WS 2007/2008 Universität Karlsruhe JProf. Dr. H. Holzmann Dipl.-Math. oec. D. Engel Ergänzungsmaterial zur Vorlesung Statistik 2 Modelldiagnostik, Ausreißer, einflussreiche Beobachtungen
MehrLineare Modelle in R: Klassische lineare Regression
Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)
Mehr4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
MehrBeispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
MehrEinleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse
Einleitung Statistik Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Der Begriff Varianzanalyse (analysis of variance, ANOVA) taucht an vielen Stellen in der Statistik mit unterschiedlichen
MehrStatistik Vorlesung 7 (Lineare Regression)
Statistik Vorlesung 7 (Lineare Regression) K.Gerald van den Boogaart http://www.stat.boogaart.de/ Statistik p.1/77 Gerade als Vereinfachung Wachstum bei Kindern height 76 78 80 82 18 20 22 24 26 28 age
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
MehrLineare Regression in R, Teil 1
Lineare Regression in R, Teil 1 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel October 6, 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools aus
MehrV. Das lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Tino Conrad, M.Sc. Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2016 Übung zur
Mehr6. Tutoriumsserie Statistik II
6. Tutoriumsserie Statistik II 1. Aufgabe: Eine Unternehmensabteilung ist ausschließlich mit der Herstellung eines einzigen Produktes beschäftigt. Für 10 Perioden wurden folgende Produktmenge y und Gesamtkosten
MehrÜbung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
Mehr1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:
Beispiele zum Üben und Wiederholen zu Wirtschaftsstatistik 2 (Kurs 3) 1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Haushaltseinkommen 12 24 30 40 80 60
MehrLineare Regressionen mit R (Ökonometrie SS 2014 an der UdS)
Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Es soll untersucht werden, ob und wie sich Rauchen während der Schwangerschaft auf den Gesundheitszustand des Neugeborenen auswirkt. Hierzu werden
Mehr6.2 Lineare Regression
6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )
MehrRegressionsanalyse in R
Regressionsanalyse in R Session 6 1 Einfache Regression Lineare Regression ist eines der nützlichsten Werkzeuge in der Statistik. Regressionsanalyse erlaubt es Zusammenhänge zwischen Parametern zu schätzen
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9.
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Januar 2011 BOOTDATA11.GDT: 250 Beobachtungen für die Variablen...
MehrKurs Empirische Wirtschaftsforschung
Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische
MehrBiostatistik 101 Korrelation - Regressionsanalysen
Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 carl.herrmann@uni-heidelberg.de Korrelation Sind Alter und Blutdruck miteinander
MehrStatistische Datenanalyse mit R, Korrelation und Regression. Dr. Andrea Denecke Leibniz Universität IT-Services
Statistische Datenanalyse mit R, Korrelation und Regression Dr. Andrea Denecke Leibniz Universität IT-Services Korrelationsanalyse Eine Korrelationsanalyse soll herausfinden Ob ein linearer Zusammenhang
Mehr1 Beispiel zur Methode der kleinsten Quadrate
1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25
MehrComputerübung 10. Empirische Wirtschaftsforschung. Willi Mutschler. 27. Januar Ökonometrie und Wirtschaftsstatistik Uni Münster
Computerübung 10 Empirische Wirtschaftsforschung Willi Mutschler Ökonometrie und Wirtschaftsstatistik Uni Münster 27. Januar 2011 Willi Mutschler (Uni Münster) Computerübung 10 27. Januar 2011 1 / 12 Inhaltsverzeichnis
MehrAufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2017/18. ( = 58 Punkte)
Aufgabe 3 (14 + 2 + 7 + 7 + 3 + 5 + 9 + 11 = 58 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe der Statistiksoftware R soll der Datensatz HousePrices aus
MehrMarcel Dettling. Grundlagen der Mathematik II FS 2015 Woche 14. ETH Zürich, 27. Mai Institut für Datenanalyse und Prozessdesign
Marcel Dettling Institut für Datenanalyse und Prozessdesign Zürcher Hochschule für Angewandte Wissenschaften marcel.dettling@zhaw.ch http://stat.ethz.ch/~dettling ETH Zürich, 7. Mai 015 1 Regression Beispiel:
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
MehrVorlesung: Lineare Modelle. Verschiedene Typen von Residuen. Probleme bei der Regression und Diagnose. Prof. Dr. Helmut Küchenhoff.
Vorlesung: Lineare Modelle Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München SoSe 205 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen.
MehrÜbung 1: Mathematische und statistische Grundlagen
Lehrstuhl für BWL, insb. Mathematik und Statistik Übung 1: Mathematische und statistische Grundlagen Berechnen Sie die Schiefe und Kurtosis folgender Zufallsvariablen: a) X besitzt die Dichte { 2x für
MehrSchriftliche Prüfung (90 Minuten)
Dr. M. Kalisch Prüfung Statistik I Sommer 2015 Schriftliche Prüfung (90 Minuten) Bemerkungen: Erlaubte Hilfsmittel: 10 hand- oder maschinengeschriebene A4 Seiten (=5 Blätter). Taschenrechner ohne Kommunikationsmöglichkeit.
MehrDas Lineare Regressionsmodell
Das Lineare Regressionsmodell Bivariates Regressionsmodell Verbrauch eines Pkw hängt vom Gewicht des Fahrzeugs ab Hypothese / Theorie: Je schwerer ein Auto, desto mehr wird es verbrauchen Annahme eines
MehrR E G R E S S I O N S A N A L Y S E Terminologie
Seite 1 von 40 R E G R E S S I O N S A N A L Y S E Terminologie Regression Statistische Regressionsmodelle dienen dazu, einen funktionalen Zusammenhang in einem Datensatz (x i, y i ), i = 1,, k zwischen
MehrEmpirische Wirtschaftsforschung in R
Empirische Wirtschaftsforschung in R Schätzung der keynesianischen Geldnachfragefunktion auf Basis von Daten der dänischen Volkswirtschaft Jonas Richter-Dumke Universität Rostock, Institut für Volkswirtschaftslehre
MehrZusammenfassung: Einfache lineare Regression I
4 Multiple lineare Regression Multiples lineares Modell 41 Zusammenfassung: Einfache lineare Regression I Bisher: Annahme der Gültigkeit eines einfachen linearen Modells y i = β 0 + β 1 x i + u i, i {1,,
MehrKonfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen
4 Multiple lineare Regression Heteroskedastische Störgrößen 4.10 Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen Ein approximatives
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Beispieldaten meineregression = lm(alterm ~ AlterV) meineregression plot(alterv,
MehrLösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016
ETH Zürich D-USYS Institut für Agrarwissenschaften Lösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016 Peter von Rohr Datum 30. Mai 2016 Beginn 08:00 Uhr Ende 08:45
MehrVorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression
Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade
MehrX =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?
Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2
MehrStatistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
MehrTheorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte
Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann Probe-Klausur zur Vorlesung Ökonometrie Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte (die eigentliche Klausur wird
Mehr1 Die Methode der Kleinsten Quadrate
1 Die Methode der Kleinsten Quadrate 1.1 Einfache Regression Problem: Analysiere den Einuss einer erklärenden Variable X auf eine Zielvariable Y Y abhängige Variable (Zielvariable) (Konsum, Verkäufe, Ernteerträge,...)
MehrAufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte)
Aufgabe 3 (6 + 4 + 8 + 4 + 10 + 4 + 9 + 4 + 8 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe eines multiplen linearen Regressionsmodells soll auf
MehrStatistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
Mehr2.5 Lineare Regressionsmodelle
2.5.1 Wiederholung aus Statistik I Gegeben Datenpunkte (Y i, X i ) schätze die beste Gerade Y i = β 0 + β 1 X i, i = 1,..., n. 2 Induktive Statistik 409 Bsp. 2.30. [Kaffeeverkauf auf drei Flohmärkten]
MehrInstrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen.
Gliederung Grundidee Einfaches lineares Modell KQ-Methode (Suche nach der besten Geraden) Einfluss von Ausreißern Güte des Modells (Bestimmtheitsmaß R²) Multiple Regression Noch Fragen? Lineare Regression
MehrDemokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik
Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen
MehrMusterlösung. Kind Blume (beredet) Blume (nicht beredet)
Prüfung Statistik Sommer 2012 Musterlösung 1. (9 Punkte) F. Lauer möchte das Gerücht überprüfen, dass Blumen schneller wachsen, wenn man mit ihnen redet. Daher kauft sie acht identische Blumenzwiebeln,
MehrBreusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.
Mehrx t2 y t = 160, y = 8, y y = 3400 t=1
Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =
MehrRegressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/
Regressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/2018 06.12.2018 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN Nachname:...................................................................
Mehr