Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.

Größe: px
Ab Seite anzeigen:

Download "Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression."

Transkript

1 Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, Wahrscheinlichkeit und Statistik Patric Müller WBL 017 Wahrscheinlichkeit und Statistik / WBL 017 Lernziele Sie können ein lineares Regressionsmodell aufschreiben und dessen Komponenten erläutern,... eine multiple lineare Regression in R durchführen,... die Nutzung der AIC und BIC Kriterien erläutern. Vorlesung basiert auf Kapitel 5. des Skripts. Wahrscheinlichkeit und Statistik 3 / WBL 017 Zusammenfassung Einfache lineare Regression Modell für einfache lineare Regression: Y i = β 0 + β 1 x i + E i, i = 1,..., n, Wobei E 1,..., E n N (0, σ ) Var. Bezeichnung Bedeutung Beispiel Y i Zielvariable Variable, die wir vorhersagen wollen Energieumsatz x i erklärende Variable, bekannte oder einfach zu fettfreie Masse Co-Variable messende Variable E i Fehlervariable oder Abweichung von perfekter Rauschterm Geraden Die unbekannten Parameter β 0 und β 1 werden mit der Methode der kleinsten Quadrate geschätzt. ( n ) ( ˆβ 0 ; ˆβ 1 ) = argmin (Y i β 0 β 1 x i ) β 0,β 1 i=1 Wahrscheinlichkeit und Statistik 4 / WBL 017

2 Signifikanz und Vertrauensintervall für erklärende Variable Multiple lineare Regression Konfidenzintervall [ für β 1 : ] I = ˆβ 1 ŝe( ˆβ 1 )t n,1 α, ˆβ 1 + ŝe( ˆβ 1 )t n,1 α lm(formula = energy ~ mass, data = energymass) Residuals: Min 1Q Median 3Q Max Estimate Std. Error t value Pr(> t ) (Intercept) ** mass e-07 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 1 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: 10.9 on 1 and 1 DF, p-value: 3.073e-07 Modell für die (multiple) lineare Regression Y i = β 0 + β 1 x (1) i + β x () i β m x (m) i + E i, i = 1,..., n Wobei E 1,..., E n N (0, σ ) Die unbekannten Parameter sind hier β 0, β 1,..., β m, σ Das Modell ist linear (in den Parametern), es gibt aber mehrere Parameter zu schätzen (und mehrere Prädiktoren) Hier: I = [0.083, 0.173] Wahrscheinlichkeit und Statistik 5 / WBL 017 Wahrscheinlichkeit und Statistik 6 / WBL 017 Notation mit Matrizen Geometrische Interpretation wobei X = Y = X β + E, 1 x (1) 1 x () 1... x (m) 1 1 x (1) x ()... x (m), Y = x n (1) x n ()... x n (m) β = β 0 β 1. β m, E = E 1 E. E n. Y 1 Y. Y n, Einfache lineare Regression: m = 1 und p = (Parameter zu schätzen). Man findet die bestmögliche Gerade. Lineare Regression mit zwei Prädiktoren: m = und p = 3. Man findet die bestmögliche Ebene. Multiple lineare Regression: m N und p = m + 1. Man findet die bestmögliche Hyperebene. Energy expenditure [MJ] Fat free mass [kg] (Webb, 1981) Quelle: lineare Regression Wahrscheinlichkeit und Statistik 7 / WBL 017 Wahrscheinlichkeit und Statistik 8 / WBL 017

3 Multiple lineare Regression Beispiel Anhand einer statistischen Analyse der Daten einer Studie (Willerman et al. (1991)), möchte man feststellen, wie die Intelligenz der Personen von vier Merkmalen (Geschlecht, Gewicht, Höhe, Gehirnmasse) Abhängt. Man vermutet eine lineare Abhängigkeit: Es entsteht folgendes Modell: Ziele: Y i = β 0 + β 1 x G i + β x W i + β 3 x H i + β 4 x M i + E i, i = 1,..., n, Wobei E 1,..., E n N (0, σ ), x G i = Geschlecht i, x W i = Gewicht i, x H i = Höhe i, x M i = Gew. Gehirnmasse i Schätzung der Parameter β0, β 1, β, β 3, β 4. Tests und Vertrauensintervalle für die geschätzten Parameter konstruieren. Vorhersagen machen (prediction). Wahrscheinlichkeit und Statistik 9 / WBL 017 Visualisierung des 5D-Datensatzes FSIQ Gender Weight Height MRI_Coun Wahrscheinlichkeit und Statistik 10 / WBL Lineare Regression mit R lm(formula = FSIQ ~ Gender + Weight + Height + MRI_Count, data = brdat) Residuals: Min 1Q Median 3Q Max Estimate Std. Error t value Pr(> t ) (Intercept) 1.344e e Gender -.599e e Weight e-0.0e Height -.767e e MRI_Count 1.999e e ** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: 1.6 on 33 degrees of freedom Multiple R-squared: 0.661, Adjusted R-squared: F-statistic:.99 on 4 and 33 DF, p-value: Koeffizienten: ˆβ 0 = 133.4, ˆβ 1,..., ˆβ 4 Standardabweichung der Fehlervariablen: ˆσ = 1.6 Messpunkte in der Studie: n = Freiheitsgrade + Anzahl Koeffizienten; n = df +p = 33+5 = 38 F-Test: Die Nullhypothese H 0 : β 1 = β = β 3 = β 4 = 0 (keine der Prädiktoren hat einen Einfluss auf die Zielvariable) wird verworfen. Vertrauensintervalle und R Vertrauensintervalle für die Parameter konstruiert man im mehrdimensionalen Fall, genauso wie im einfachen Fall. Konfidenzintervall für β j : [ ] I = ˆβ j ŝe( ˆβ j )t n,1 α, ˆβ j + ŝe( ˆβ j )t n,1 α Das Bestimmtheitsmass R-squared ergibt den Anteil der Variation der vom Modell erklärt wird. n R i=1 = 1 (Y i Ŷ i ) n i=1 (Y i y) Das korrigierte Bestimmtheitsmass (Adjusted R-squared) wird mit der folgenden Formel berechnet: R = R (1 R p ) n p 1 Wahrscheinlichkeit und Statistik 11 / WBL 017 Wahrscheinlichkeit und Statistik 1 / WBL 017

4 Residuenanalyse: Überprüfung der Modellannahmen Immer noch lineare Regression! Die Annahmen des Modells werden ähnlich wie bei der einfachen linearen Regression geprüft. Empirische Quantile Q Q Plot der Residuen Residuen Tukey Anscombe Plot Betrachte folgendes Modell: Ist das Modell linear? Y i = β 0 + β 1 x + β x + β 3 x 3 + E i Wobei E 1,..., E n N (0, σ ) Das Modell ist linear, denn es ist linear in den Parametern! Eine lineare Regression kann deswegen, wie üblich durchgeführt werden Theoretische Quantile Angepasste Werte Wahrscheinlichkeit und Statistik 13 / WBL 017 Wahrscheinlichkeit und Statistik 14 / WBL 017 Beispiel Simulierter Datensatz Bemerkungen Komplexität des Modells lm(formula = y ~ x + x + x3) Residuals: Min 1Q Median 3Q Max Estimate Std. Error t value Pr(> t ) (Intercept) x ** x x < e-16 *** --- Signif. codes: 0 '***' '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: on 38 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: 50. on 3 and 38 DF, p-value: <.e-16 y x Ein komplexeres Modell erklärt die Daten immer besser (SSR kleiner) als eine einfachere Version desselben Modells. Kompliziere Modelle sind aber nicht immer besser! Einfache Modelle sind einfach! Wenige Parameter müssen geschätzt werden, und die Interpretation fällt in der Regel dann auch leichter. Kaum signifikante Prädiktoren oder Prädiktoren, die keine Kausalitätsbeziehung mit der Zielvariable haben, sollen im Modell lieber weggelassen werden. Zu viele Prädiktoren können zu einer Überanpassung (overfitting) des Modells führen! Eine gute Regel ist n 10p, das heisst pro geschätzter Parameter mindestens 10 Beobachtungen haben. Harrell (015) Das linear Regressionsmodell hat eine eindeutige Lösung falls n > p (und Rang(X ) = p). Wie findet man ein gutes Gleichgewicht zwischen Komplexität und gute Qualität des fits? Wahrscheinlichkeit und Statistik 15 / WBL 017 Wahrscheinlichkeit und Statistik 16 / WBL 017

5 AIC und BIC Es ist wichtg ein gutes Gleichgewicht zwischen der Komplexität des Modells und Anpassungsgüte zu finden. AIC und BIC geben diesem Gleichgewicht ein einen numerischen Wert. AIC = l(ˆθ) + p, BIC = l(ˆθ) + log(n)p wobei l(ˆθ) = loglikelihood und ˆθ der Parametervektor ist. Theorem In einem linearen Modell mit den üblichen Annahmen gilt l(ˆθ) = n log ( SSR ) + C n für eine von der Modellwahl unabhängige Konstante C. Wie benutzt man in der Praxis AIC und BIC? Wahrscheinlichkeit und Statistik 17 / WBL 017 AIC und BIC Anwendung Man wähle, zwischen allen möglichen Modellen, das Modell mit dem kleinsten AIC bzw. BIC Wert. Für eine maximale Anzahl von M benutzten Prädiktoren, gäbe es M+1 Modelle zu testen. Die Anzahl zu fittende Modelle kann stark reduziert werden dank einer sogenannten (vorwärts/rückwärts) stepwise Regression. Vorwärts stepwise Regression, Idee: 1 Fitte das leere Modell Y = β 0 + E und berechne den dazugehörigen Wert AIC 0 Fitte alle Modelle mit nur einem Prädiktor (Y = β 0 + β 1 x k + E). 3 Definiere als Basismodell, das Modell mit dem kleinsten AIC Koeffizienten. 4 Teste jetzt alle Modelle, die entstehen beim Hinzufügen eines Parameters zum Basismodell. 5 Definiere als neues Basismodell das Modell mit dem kleinsten AIC. 6 Vorgehen wiederholen solange es keine Änderungen mehr gibt. Wahrscheinlichkeit und Statistik 18 / WBL 017 AIC und BIC Anwendung AIC forward mit R Rückwärts stepwise Regression, Idee: 1 Fitte das komplette Modell mit allen Parametern und berechne den dazugehörigen Wert AIC p Fitte alle Modelle mit allen Prädiktoren alle bis auf einen. 3 Definiere als Basismodell das Modell mit dem kleinsten AIC Wert. 4 Teste jetzt alle Modelle, die entstehen beim Weglassen eines Parameters vom Basismodell. 5 Definiere als neues Basismodell das Modell mit dem kleinsten AIC. 6 Vorgehen wiederholen solange es keine Änderungen mehr gibt. Bemerkungen: Vorwärts und R ckwärts stepwise regression ergeben nicht unbedingt dasselbe Ergebnis. Stepwise Regression kann man auch mit dem BIC Kriterium machen. AIC Kriterium mit Richtung Vorwärts : step(...,directon="forward") Start: AIC=41.93 FSIQ ~ 1 + MRI_Count <none> Height Gender Weight Step: AIC=39.45 FSIQ ~ MRI_Count + Height Weight <none> Gender MRI_Count Step: AIC=34.34 FSIQ ~ MRI_Count + Height <none> Weight Gender Height MRI_Count lm(formula = FSIQ ~ MRI_Count + Height, data = brdat) (Intercept) MRI_Count Height 1.64e+0.05e e+00 Wahrscheinlichkeit und Statistik 19 / WBL 017 Wahrscheinlichkeit und Statistik 0 / WBL 017

6 AIC backward mit R Literatur I AIC Kriterium mit Richtung Rückwärts : step(...,directon="backward") Start: AIC=38.17 FSIQ ~ Gender + Weight + Height + MRI_Count - Gender Weight <none> Height MRI_Count Step: AIC=36.4 FSIQ ~ Weight + Height + MRI_Count - Weight <none> Height MRI_Count Step: AIC=34.34 FSIQ ~ Height + MRI_Count <none> Height MRI_Count lm(formula = FSIQ ~ Height + MRI_Count, data = brdat) (Intercept) Height MRI_Count 1.64e e+00.05e-04 Frank Harrell. Regression Modeling Strategies. Springer, 015. Paul Webb. Energy expenditure and fat-free mass in men and women. The American journal of clinical nutrition, 34(9): , Lee Willerman, Robert Schultz, J Neal Rutledge, and Erin D Bigler. In vivo brain size and intelligence. Intelligence, 15():3 8, Wahrscheinlichkeit und Statistik 1 / WBL 017 Wahrscheinlichkeit und Statistik / WBL 017

Prognoseintervalle für y 0 gegeben x 0

Prognoseintervalle für y 0 gegeben x 0 10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

1 Beispiel zur Methode der kleinsten Quadrate

1 Beispiel zur Methode der kleinsten Quadrate 1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25

Mehr

Lineare Modelle in R: Klassische lineare Regression

Lineare Modelle in R: Klassische lineare Regression Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)

Mehr

Schriftliche Prüfung (90 Minuten)

Schriftliche Prüfung (90 Minuten) Dr. M. Kalisch Probeprüfung Statistik 1 Sommer 2014 Schriftliche Prüfung (90 Minuten) Bemerkungen: Alle schriftlichen Hilfsmittel und ein Taschenrechner sind erlaubt. Mobiltelefone sind auszuschalten!

Mehr

Auswertung und Lösung

Auswertung und Lösung Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden

Mehr

Variablen Selektion beste Volles Modell

Variablen Selektion beste Volles Modell Variablen Selektion Wähle das beste Modell aus einer Klasse von MLR s. Volles Modell enthält alle m möglicherweise erklärenden Größen (Prädiktoren) Suche nach dem besten Modell, das nur eine Teilmenge

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers 4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis

Mehr

Lineare Regression in R, Teil 1

Lineare Regression in R, Teil 1 Lineare Regression in R, Teil 1 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel October 6, 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools aus

Mehr

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.

Mehr

Züchtungslehre - Lösung 3

Züchtungslehre - Lösung 3 Züchtungslehre - Lösung 3 Peter von Rohr October 20, 2015 Aufgabe 1 (8) Der in dieser Aufgabe verwendete Datensatz unter http://charlotte-ngs.github.io/livestockbreedingandgenomics/w5/simgenphen.csv umfasst

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Empirische Wirtschaftsforschung in R

Empirische Wirtschaftsforschung in R Empirische Wirtschaftsforschung in R Schätzung der keynesianischen Geldnachfragefunktion auf Basis von Daten der dänischen Volkswirtschaft Jonas Richter-Dumke Universität Rostock, Institut für Volkswirtschaftslehre

Mehr

Bachelorprüfung: Mathematik 4 - Statistik (2 Stunden)

Bachelorprüfung: Mathematik 4 - Statistik (2 Stunden) Prof. P. Bühlmann D-UWIS, D-ERDW, D-AGRL Frühling 2007 Bachelorprüfung: Mathematik 4 - Statistik (2 Stunden) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt.

Mehr

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade

Mehr

1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:

1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Beispiele zum Üben und Wiederholen zu Wirtschaftsstatistik 2 (Kurs 3) 1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Haushaltseinkommen 12 24 30 40 80 60

Mehr

Mehrfache und polynomiale Regression

Mehrfache und polynomiale Regression Mehrfache und polynomiale Regression Kriteria für die Durchführung einer Regression Jonathan Harrington Bitte datasets.zip (unter 5.5, Tabellarische Daten) neu herunterladen und in pfad auspacken Einfache

Mehr

3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m)

3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m) 3.1. MODELL UND STATISTIK 32 3 Multiple lineare Regression a 3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m) Y i = β 0 + β 1 x (1)

Mehr

X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?

X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode? Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2

Mehr

Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS)

Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Es soll untersucht werden, ob und wie sich Rauchen während der Schwangerschaft auf den Gesundheitszustand des Neugeborenen auswirkt. Hierzu werden

Mehr

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen. Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf

Mehr

Fragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression

Fragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression Fragen Welche Unsicherheitsfaktoren beeinflussen die Schätzung einer Regressionsgeraden? Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur

Mehr

Einführung in die formale Demographie Übung

Einführung in die formale Demographie Übung Einführung in die formale Demographie Übung Roland Rau mailto:roland.rau@uni-rostock.de 03. November 2014 Inhaltsverzeichnis 1 Aufgaben vom 27. Oktober 2014 2 1.1 Schreiben von Funktionen............................

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

Tutorial: Regression Output von R

Tutorial: Regression Output von R Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen

Mehr

Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS)

Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Vorbereitungen Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Falls das R - Paket car noch nicht installiert wurde, kann dies mit der Funktion install.packages() erledigt werden. install.packages("car")

Mehr

Eine Einführung in R: Das Lineare Modell

Eine Einführung in R: Das Lineare Modell Eine Einführung in R: Das Lineare Modell Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2009 Bernd Klaus, Verena Zuber

Mehr

Regressionsanalyse in R

Regressionsanalyse in R Regressionsanalyse in R Session 6 1 Einfache Regression Lineare Regression ist eines der nützlichsten Werkzeuge in der Statistik. Regressionsanalyse erlaubt es Zusammenhänge zwischen Parametern zu schätzen

Mehr

Schriftliche Prüfung (90 Minuten)

Schriftliche Prüfung (90 Minuten) Dr. M. Kalisch Prüfung Statistik I Winter 2015 Schriftliche Prüfung (90 Minuten) Bemerkungen: Alle schriftlichen Hilfsmittel und ein Taschenrechner sind erlaubt. Mobiltelefone sind auszuschalten! Die Prüfung

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

6. Statistische Schätzung von ARIMA Modellen

6. Statistische Schätzung von ARIMA Modellen 6. Statistische Schätzung von ARIMA Modellen Vorschau: ARIMA Modelle Modellidentifikation verschiedene Schätzverfahren Modelldiagnostik Fallstudien Zeitreihenanalyse 1 6.1 ARIMA Modelle Bisher: ARMA(p,q)-Modelle:

Mehr

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl

Mehr

Die Regressionsanalyse

Die Regressionsanalyse Die Regressionsanalyse Zielsetzung: Untersuchung und Quantifizierung funktionaler Abhängigkeiten zwischen metrisch skalierten Variablen eine unabhängige Variable Einfachregression mehr als eine unabhängige

Mehr

Formelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade

Formelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade Version 2015 Formelsammlung für das Modul Statistik 2 Bachelor Sven Garbade Prof. Dr. phil. Dipl.-Psych. Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de

Mehr

FORMELN IN. Referent: Daniel Laskow Betreuer: Eugen Betke Programmierung in R Arbeitsbereich Wissenschaftliches Rechnen Universität Hamburg

FORMELN IN. Referent: Daniel Laskow Betreuer: Eugen Betke Programmierung in R Arbeitsbereich Wissenschaftliches Rechnen Universität Hamburg FORMELN IN Referent: Daniel Laskow Betreuer: Eugen Betke Programmierung in R Arbeitsbereich Wissenschaftliches Rechnen Universität Hamburg 01.06.2016 Gliederung Arithmetische Operatoren Funktionen aus

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

1 Binäre Regression (I)

1 Binäre Regression (I) Übung zur Vorlesung Generalisierte Regressionsmodelle Blatt 2 Gerhard Tutz, Moritz Berger, Wolfgang Pößnecker WiSe 14/15 1 Binäre Regression (I) Aufgabe 1 Der Datensatz shuttle beschreibt für die 23 Space

Mehr

3. Das einfache lineare Regressionsmodell

3. Das einfache lineare Regressionsmodell 3. Das einfache lineare Regressionsmodell Ökonometrie: (I) Anwendung statistischer Methoden in der empirischen Forschung in den Wirtschaftswissenschaften Konfrontation ökonomischer Theorien mit Fakten

Mehr

Seminar zur Energiewirtschaft:

Seminar zur Energiewirtschaft: Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn

Mehr

Kurs Empirische Wirtschaftsforschung

Kurs Empirische Wirtschaftsforschung Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische

Mehr

6.2 Lineare Regression

6.2 Lineare Regression 6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )

Mehr

Lösung Übungsblatt 5

Lösung Übungsblatt 5 Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von

Mehr

Logistische Regression

Logistische Regression Logistische Regression Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Logistische Regression Beispiel 1: Herzerkrankungsdaten aus Framingham Log Odds Modell Beispiel 1: Einfluss von Blutdruck Maximum

Mehr

Statistik Einführung // Lineare Regression 9 p.2/72

Statistik Einführung // Lineare Regression 9 p.2/72 Statistik Einführung Lineare Regression Kapitel 9 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Ledold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // Lineare Regression

Mehr

B. Regressionsanalyse [progdat.sav]

B. Regressionsanalyse [progdat.sav] SPSS-PC-ÜBUNG Seite 9 B. Regressionsanalyse [progdat.sav] Ein Unternehmen möchte den zukünftigen Absatz in Abhängigkeit von den Werbeausgaben und der Anzahl der Filialen prognostizieren. Dazu wurden über

Mehr

9. Lineare Regression

9. Lineare Regression 9. Lineare Regression y 3.0 3.5 4.0 4.5 0.0 0.2 0.4 0.6 0.8 1.0 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 2016 1 / 40 x KQ-Schätzung Es ist eine Gerade y = β 1 + β 2 x gesucht, welche

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Lineare Regression Blockpraktikum zur Statistik mit R 28. März 2012 Sören Gröttrup Institut für Mathematische Statistik Universität Münster SS 2012

Lineare Regression Blockpraktikum zur Statistik mit R 28. März 2012 Sören Gröttrup Institut für Mathematische Statistik Universität Münster SS 2012 Lineare Regression Blockpraktikum zur Statistik mit R 28. März 2012 Sören Gröttrup Institut für Mathematische Statistik Universität Münster SS 2012 Beispiel: Ausgangsfrage Ziel: Wie wirkt sich die eingesetzte

Mehr

Einführung in die multiple Regression

Einführung in die multiple Regression Einführung in die multiple Regression Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@fh-heidelberg.de Bachelor S. Garbade (SRH Heidelberg) Multiple Regression Bachelor

Mehr

Lineare Regression 1 Seminar für Statistik

Lineare Regression 1 Seminar für Statistik Lineare Regression 1 Seminar für Statistik Markus Kalisch 17.09.2014 1 Statistik 2: Ziele Konzepte von einer breiten Auswahl von Methoden verstehen Umsetzung mit R: Daten einlesen, Daten analysieren, Grafiken

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden

Mehr

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:

Mehr

Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann

Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann Contents Aufgabe 1 1 b) Schätzer................................................. 3 c) Residuenquadratsummen........................................

Mehr

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen 4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test.

Mehr

Allgemein zu Hypothesentests: Teststatistik. OLS-Inferenz (Small Sample) Allgemein zu Hypothesentests

Allgemein zu Hypothesentests: Teststatistik. OLS-Inferenz (Small Sample) Allgemein zu Hypothesentests OLS-Inferenz (Small Sample) K.H. Schild 3. Mai 017 Allgemein zu Hypothesentests: Teststatistik Konstruktion eines Hypothesentests erfolgt meistens über eine Teststatistik Eine Teststatistik T ist eine

Mehr

Das lineare Regressionsmodell

Das lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Prof. Dr. Werner Smolny Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Institutsdirektor Das ökonomische

Mehr

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg Übungsklausur Lineare le Prof. Dr. H. Toutenburg Aufgabe Ein lineares Regressionsmodell mit der abhängigen Variablen Körpergröße und der unabhängigen Variablen Geschlecht wurde einmal mit der dummykodierten

Mehr

Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen.

Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen. Kapitel 3 Schließende lineare Regression 3.1. Einführung induktiv Fragestellungen Modell Statistisch bewerten, der vorher beschriebenen Zusammenhänge auf der Basis vorliegender Daten, ob die ermittelte

Mehr

Schriftliche Prüfung (120 Minuten)

Schriftliche Prüfung (120 Minuten) Dr. D. Stekhoven Prüfung Mathematik IV Winter 2015 Schriftliche Prüfung (120 Minuten) Bemerkungen: Alle schriftlichen Hilfsmittel und ein Taschenrechner sind erlaubt. Mobiltelefone sind auszuschalten!

Mehr

Lehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. Regina T. Riphahn, Ph.D. Diplomvorprüfung Statistik II Einf. Ökonometrie im WS 06/07

Lehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. Regina T. Riphahn, Ph.D. Diplomvorprüfung Statistik II Einf. Ökonometrie im WS 06/07 Aufgabe 1: [21 Punkte] Ein Forschungsinstitut hat den Auftrag bekommen, die individuellen monatlichen Ausgaben für Bioprodukte zu erklären. Es wird eine Kleinstquadrate Regression der Höhe der Ausgaben

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:

Mehr

Poisson Regression. Verallgemeinerte Lineare Modelle (GLMs)

Poisson Regression. Verallgemeinerte Lineare Modelle (GLMs) Poisson Regression Verallgemeinerte Lineare Modelle (GLMs) 28.11.2011 Poisson Regression Aus der Einführungsvorlesung Poisson-Verteilung ist in der Regel gut geeignet, um Anzahlen zu modellieren. Frage

Mehr

Statistisches Lernen

Statistisches Lernen Statistisches Lernen Einheit 12: Modellwahl und Regularisierung Dr. rer. nat. Christine Pausch Institut für Medizinische Informatik, Statistik und Epidemiologie Universität Leipzig WS 2014/2015 1 / 28

Mehr

Metrische und kategoriale Merkmale

Metrische und kategoriale Merkmale Kapitel 6 Metrische und kategoriale Merkmale 6.1 Wie kann man metrische und kategoriale Merkmale numerisch beschreiben? Typischerweise will man geeignete Maßzahlen (beispielsweise Lage- oder Streuungsmaße)

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Die Anwendung des globalen und partiellen F-Tests beim Regressionsmodell

Die Anwendung des globalen und partiellen F-Tests beim Regressionsmodell Dr. Wolfgang Langer - Integrierte Veranstaltung Methoden IV WS 2002/2003-1 Die Anwendung des globalen und partiellen F-Tests beim Regressionsmodell von XENOPHOB auf V247 und POSTMAT, MATERIAL Für unsere

Mehr

Teil VIII Hypothesentests für zwei Stichproben

Teil VIII Hypothesentests für zwei Stichproben Woche 9: Hypothesentests für zwei Stichproben Teil VIII Hypothesentests für zwei Stichproben WBL 15/17, 22.06.2015 Alain Hauser Berner Fachhochschule, Technik und Informatik Berner

Mehr

Eine Einführung in R: Varianzanalyse

Eine Einführung in R: Varianzanalyse Eine Einführung in R: Varianzanalyse Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2011 Bernd Klaus, Verena Zuber Das

Mehr

Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13

Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13 Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression Dipl.-Ing. Robin Ristl Wintersemester 2012/13 1 Grundidee: Eine abhängige Variable soll als Linearkombination mehrerer unabhängiger

Mehr

Ich bestätige, dass ich obige Hinweise zur Kenntnis genommen habe und sie befolgen werde.

Ich bestätige, dass ich obige Hinweise zur Kenntnis genommen habe und sie befolgen werde. 60-minütige Klausur zur Vorlesung Statistik II für Studierende der Wirtschaftswissenschaften aus dem Sommersemester 2017 Prof. Dr. Helmut Küchenhoff Ludwig-Maximilians-Universität München, Institut für

Mehr

Strukturgleichungsmodellierung

Strukturgleichungsmodellierung Strukturgleichungsmodellierung FoV Methodenlehre FSU-Jena Dipl.-Psych. Norman Rose Parameterschätzung, Modelltest & Fit Indizes bei SEM Forschungsorientierte Vertiefung - Methodenlehre Dipl.-Psych. Norman

Mehr

6.4 Kointegration Definition

6.4 Kointegration Definition 6.4 Kointegration 6.4.1 Definition Nach Engle und Granger (1987): Wenn zwei oder mehrere Variablen I(1) sind, eine Linearkombination davon jedoch I() ist, dann sind die Variablen kointegriert. Allgemein:

Mehr

Teil IX. Verteilungen an Daten anpassen ( Maximum-Likelihood-Schätzung. fitten ) Woche 7: Maximum-Likelihood-Schätzung. Lernziele

Teil IX. Verteilungen an Daten anpassen ( Maximum-Likelihood-Schätzung. fitten ) Woche 7: Maximum-Likelihood-Schätzung. Lernziele Woche 7: Maimum-Lielihood-Schätzung Patric Müller ETHZ Teil IX Verteilungen an Daten anpassen ( fitten ): Maimum-Lielihood-Schätzung WBL 17/19, 12.06.2017 Wahrscheinlicheit

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall

Mehr

8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme)

8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) 8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) Annahme B4: Die Störgrößen u i sind normalverteilt, d.h. u i N(0, σ 2 ) Beispiel: [I] Neoklassisches Solow-Wachstumsmodell Annahme einer

Mehr

> ### Beispiel 7 ### > > library(faraway); options(digits = 5) > data(savings) > savings.lm = lm(sr ~ pop15 + pop75 + dpi + ddpi, savings)

> ### Beispiel 7 ### > > library(faraway); options(digits = 5) > data(savings) > savings.lm = lm(sr ~ pop15 + pop75 + dpi + ddpi, savings) > ### Beispiel 7 ### > > library(faraway); options(digits = 5) > data(savings) > savings.lm = lm(sr ~ pop15 + pop75 + dpi + ddpi, savings) > # Indexplot der Residuen > plot(savings.lm$res, ylab="residuen",

Mehr

Statistik II Übung 2: Multivariate lineare Regression

Statistik II Übung 2: Multivariate lineare Regression Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Technische Universität München Zentrum Mathematik Sommersemester Juli 2005 Arbeitszeit 60 Minuten

Technische Universität München Zentrum Mathematik Sommersemester Juli 2005 Arbeitszeit 60 Minuten Name: Frau Herr (nichtzutreffendes bitte streichen) Fachrichtung geb. am (Tag/Mon/Jahr) Semestralklausur aus Praktikum BWL-Statistik Technische Universität München Zentrum Mathematik Sommersemester 2005

Mehr

10. Übung (Korrelation und lineare Regressionsanalyse)

10. Übung (Korrelation und lineare Regressionsanalyse) 10. Übung (Korrelation und lineare Regressionsanalyse) Es wird untersucht, ob ein linearer Zusammenhang zwischen zwei Variablen besteht. Mit anderen Worten: ob ein solcher Zusammenhang gibt, wenn der beobachteter

Mehr

Statistik II Übung 1: Einfache lineare Regression

Statistik II Übung 1: Einfache lineare Regression Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der

Mehr

Ziel: Vorhersage eines Kriteriums/Regressand Y durch einen Prädiktor/Regressor X.

Ziel: Vorhersage eines Kriteriums/Regressand Y durch einen Prädiktor/Regressor X. Lineare Regression Einfache Regression Beispieldatensatz: trinkgeld.sav Ziel: Vorhersage eines Kriteriums/Regressand Y durch einen Prädiktor/Regressor X. H0: Y lässt sich nicht durch X erklären, das heißt

Mehr

Statistik für Naturwissenschaftler Woche 11-13: Regression basics (mit R Unterstützung)

Statistik für Naturwissenschaftler Woche 11-13: Regression basics (mit R Unterstützung) Woche 11-13: Regression basics (mit R Unterstützung) Ass.-Prof. Dr. Fachbereich Mathematik Universität Salzburg www.trutschnig.net Salzburg, Juni 2015 y Motivation + eindimensionale lineare Regression

Mehr

Einführung in die Statistik

Einführung in die Statistik Einführung in die Statistik Analyse und Modellierung von Daten von Prof. Dr. Rainer Schlittgen Universität Hamburg 12., korrigierte Auflage Oldenbourg Verlag München Inhaltsverzeichnis 1 Statistische Daten

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Eine Einführung in R: Lineare Regression

Eine Einführung in R: Lineare Regression Eine Einführung in R: Lineare Regression (basierend auf Vorarbeiten von Verena Zuber und Bernd Klaus) Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.nowick-lab.info/?page_id=365

Mehr

Analyse von Querschnittsdaten. Signifikanztests II Advanced Stuff

Analyse von Querschnittsdaten. Signifikanztests II Advanced Stuff Analyse von Querschnittsdaten Signifikanztests II Advanced Stuff Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum..4..4 7..4..4..4 7..4 4..4..4

Mehr

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS Sommersemester 2009 Statistik mit SPSS 15. Mai 2009 15. Mai 2009 Statistik Dozentin: mit Esther SPSSOchoa Fernández 1 Überblick 1. Korrelation vs. Regression 2. Ziele der Regressionsanalyse 3. Syntax für

Mehr

Eine Einführung in R: Lineare Regression

Eine Einführung in R: Lineare Regression Eine Einführung in R: Lineare Regression Katja Nowick, Lydia Müller und Markus Kreuz Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.bioinf.uni-leipzig.de/teaching/currentclasses/class211.html

Mehr

Statistik II Übung 2: Multivariate lineare Regression

Statistik II Übung 2: Multivariate lineare Regression Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

Anwendung von Multi-Level Moderation in Worst Performance Analysen

Anwendung von Multi-Level Moderation in Worst Performance Analysen Anwendung von Multi-Level Moderation in Worst Performance Analysen Präsentation auf der FGME 2015 - Jena Gidon T. Frischkorn, Anna-Lena Schubert, Andreas B. Neubauer & Dirk Hagemann 16. September 2015

Mehr