Lineare Regression in R

Größe: px
Ab Seite anzeigen:

Download "Lineare Regression in R"

Transkript

1 Lineare Regression in R Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel 30. September Vorbereitungen Zur Illustration betrachten wir den Datensatz CASchools aus der Vorlesung Ökonometrie 1. Laden des Paketes AER und der Daten: R> library("aer") R> data("caschools") oder alternativ auch R> data("caschools", package = "AER") (was war der Unterschied?). Die benötigten Variablen müssen zunächst erzeugt werden: R> CASchools$stratio <- with(caschools, students/teachers) R> CASchools$score <- with(caschools, (math + read)/2) (Es gibt weitere Möglichkeiten, diese Variablen zu erzeugen, obige Lösung ist aber sehr kompakt.) 2 Schätzung der Regressionskoeffizienten Zur Schätzung des Modells benutzt man score i = β 1 + β 2 stratio i + Fehler i R> fm <- lm(score ~ stratio, data = CASchools) Die Funktion lm() schätzt ein lineares Regressionsmodell mit der Methode der kleinsten Quadrate (OLS). Die Ergebnisse des Funktionsaufrufs werden hier zunächst in einem Objekt fm (der Klasse lm") gespeichert, deshalb gibt es auch keine Ausgabe auf dem Schirm. Dies ist die typische Arbeitsweise in R: weitere Ergebnisse erhält man durch Anwendung diverser Extraktorfunktionen auf dieses Objekt. Ruft man das Objekt selbst auf, R> fm Call: lm(formula = score ~ stratio, data = CASchools) Coefficients: (Intercept) stratio

2 Lineare Regression in R 2 so ist dies gleichbedeutend mit der Eingabe print(fm) und es werden nur der vorherige Funktionsaufruf sowie die geschätzten Regressionskoeffizienten angezeigt. (Wir erhalten die gleichen Ergebnisse wie Stock und Watson, S. 120, Gleichung (4.11).) Das Objekt fm enthält aber viel mehr: die Extraktorfunktion summary() liefert bspw. R> summary(fm) Call: lm(formula = score ~ stratio, data = CASchools) Residuals: Min 1Q Median 3Q Max Coefficients: (Intercept) < 2e-16 stratio Residual standard error: 18.6 on 418 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: 22.6 on 1 and 418 DF, p-value: Hierbei erhält man neben einer Kurzanalyse der Residuen die üblichen Regressionsergebnisse: eine Tabelle mit Regressionskoeffizienten, deren Standardfehlern, t-statistiken und zugehörigen p-werten. Mit dem Objekt fm kann man auch über die Funktion abline() die Regressionsgerade zu einem Streudiagramm hinzufügen: R> plot(score ~ stratio, data = CASchools, pch = 20) R> abline(fm) score stratio

3 Lineare Regression in R 3 abline() ist eigentlich eine Funktion, die über einen Aufruf abline(a, b) eine Gerade mit Achsenabschnitt a und Steigung b zu einer bestehenden Graphik hinzufügt. Wendet man die Funktion wie hier auf ein Objekt der Klasse lm" an, so weiss die Funktion, dass sie die Regressionskoeffizienten extrahieren soll. 3 Tests und Konfidenzintervalle Tests zur Überprüfung der Hypothesen H 0 : β j = 0, d.h. der Hypothese, dass der Regressor Nr. j weggelassen werden kann, sind Bestandteil des Regressionsoutputs: t test of coefficients: (Intercept) < 2e-16 stratio Eine ANOVA-Tafel (Varianzanalysetafel) nebst F -Test liefert der Befehl R> anova(fm) Analysis of Variance Table Response: score Df Sum Sq Mean Sq F value Pr(>F) stratio Residuals und Konfidenzintervalle für die Regressionskoeffizienten erhält man über R> confint(fm, level = 0.95) 2.5 % 97.5 % (Intercept) stratio Die Voreinstellung ist 95%, d.h. man hätte hier das Argument level nicht angeben müssen. Bem.: Weitere Extraktor-Funktionen sind resid() oder gleichbedeutend residuals(), die die Residuen liefern, fitted() für den Vektor ŷ, coef() oder coefficients() für die Regressionskoeffizienten. Diese Liste ist keineswegs vollständig der Aufruf methods(class=lm") liefert eine Liste aller generischen Funktionen, die Methoden für Objekte der Klasse lm" haben. [Die Bedeutung der Begriffe generische Funktion, Klasse bzw. Methode in R wird später noch erklärt.] 4 Prognosen Prognosen erhält man über die (generische) Funktion predict(), die man direkt auf das Objekt fm anwenden kann. R erwartet die neuen Daten wieder in der Form eines data.frame, den man ggf. erst erzeugen muss: R> new <- data.frame(stratio = 20) R> predict(fm, newdata = new)

4 Lineare Regression in R 4 Natürlich kann man auch für einen ganzen Satz von neuen x-werten Prognosen bekommen: R> new <- data.frame(stratio = c(10, 20, 30)) R> predict(fm, newdata = new) Will man nicht nur Punkt-, sondern Intervallprognosen (Prognoseintervalle), muss man das Argument interval spezifizieren: R> predict(fm, newdata = new, interval = "prediction") fit lwr upr Hier ist fit die (Punkt-)Prognose und lwr bzw. upr ist die untere bzw. obere Intervallgrenze. Das per Voreinstellung verwendete Konfidenzniveau ist dabei 0.95, will man ein anderes, muss man auch noch das Argument level benutzen. 5 Heteroskedastie-robuste Standardfehler Die per Voreinstellung in R erhältlichen Standardfehler sind wie in den meisten Programmpaketen Standardfehler unter der Annahme (bedingter) Homoskedastizität, d.h. Var(y i x i ) = σ 2. In ökonometrischen Querschnittsregressionen ist es oft sinnvoll, heteroskedastiekonsistente (oder -robuste) Standardfehler zu verwenden. Das Buch von Stock und Watson arbeitet von Anfang an mit diesen Fehlern. Dabei ersetzt man in der einfachsten Version den Standardschätzer für die OLS-Kovarianzmatrix (es ist durchsichtiger, alles gleich für Matrizen aufzuschreiben!) durch ( Var( ˆβ) n = ˆσ 2 (X X) 1 = ˆσ 2 x i x i i=1 ) 1 ( n ) 1 ( Var( ˆβ) n ) ( n = x i x i û 2 i x i x i x i x i i=1 i=1 Dieser Schätzer heisst Eicker-White-Schätzer der OLS-Kovarianzmatrix. In R sind solche allgemeineren Schätzer über das Paket sandwich erhältlich. Man kann neben den korrigierten Standardfehlern selbst auch t-statistiken und p-werte basierend auf diesen Fehlern bekommen. Dazu benötigt man die Funktion coeftest() aus dem Paket lmtest, in der man eine Kovarianzmatrixschätzung über das Argument vcov wählen kann. Modifizierten Regressionsoutput unter Verwendung von Eicker-White-Standardfehlern erhält man nun über R> library("sandwich") R> library("lmtest") R> coeftest(fm, vcov = sandwich) t test of coefficients: (Intercept) < 2e-16 stratio i=1 ) 1

5 Lineare Regression in R 5 Etwas technischer: Wir können die Schätzungen der Standardfehler (klassisch und heteroskedastierobust) vergleichen über R> sqrt(diag(vcov(fm))) (Intercept) stratio R> sqrt(diag(sandwich(fm))) (Intercept) stratio also über das Extrahieren der Wurzeln der Diagonalelemente (= Varianzen) der jeweiligen Kovarianzmatrizen. Die Eicker-White-Fehler sind damit hier etwas grösser als die unter der Annahme von Homoskedastie berechneten. Bem.: Da der Eicker-White-Schätzer immer noch gewisse Nachteile hat, gibt es Modifikationen (üblicherweise bezeichnet mit HC1-HC4) dieser Grundversion HC0. Alle Varianten sind im R-Paket sandwich erhältlich. 6 Testen allgemeiner linearer Hypothesen Tests zur Überprüfung von Hypothesen des Typs H 0 : β j = 0 wurden bereits besprochen. Manchmal will man Hypothesen von allgemeinerer Form testen. Angenommen, wir wollen im Modell geschätzt mit score = β 0 + β 1 stratio + β 2 english + u i R> fm2 <- lm(score ~ stratio + english, data = CASchools) die Hypothese H 0 : β 1 = β 2 testen, oder äquivalent H 0 : β 1 β 2 = 0, d.h. die Koeffizienten zu stratio und english sind gleich (keine inhaltlich sinnvolle Hypothese, nur eine Illustration). Solche Hypothesen können mit der Funktion linear.hypothesis() aus dem Paket car getestet werden (dieses muss i.a. erst installiert werden, wenn Sie aber schon AER installiert haben, wurde dies bereits automatisch mitinstalliert). Die einfachste Möglichkeit besteht nun in der Nutzung einer Formelschreibweise: R> linear.hypothesis(fm2, "str = english", vcov = sandwich) oder alternativ R> linear.hypothesis(fm2, "str - english", vcov = sandwich) Im zweiten Fall wird also von der Funktion verstanden, dass die rechte Seite der Hypothese Null ist. Unser Problem lässt sich aber noch etwas allgemeiner (und damit transparenter!) formulieren: In Matrixform ist eine allgemeine lineare Hypothese von der Form Rβ = r (1) wobei β der (k + 1) 1 Vektor der Regressionskoeffizienten, R eine q (k + 1) Matrix und r ein q 1 Vektor sind.

6 Lineare Regression in R 6 Die Funktion linear.hypothesis() kann auch mit dieser Formulierung umgehen, sie benötigt dafür eine hypothesis.matrix (die Matrix R aus (1)), und rhs (der Vektor r auf der rechten Seite von (1)). In unserem Fall reduziert sich die Matrix R zu einem (Zeilen-)Vektor, da wir nur eine einzelne lineare Hypothese testen, und die rechte Seite ist ein Skalar. Der Funktionsaufruf ist deshalb R> linear.hypothesis(fm2, hypothesis.matrix = c(0, 1, -1), rhs = 0) Linear hypothesis test Hypothesis: stratio - english = 0 Model 1: score ~ stratio + english Model 2: restricted model Res.Df RSS Df Sum of Sq F Pr(>F) Das Ergebnis von linear.hypothesis() ähnelt dem von anova(): man erhält die zu vergleichenden Modelle mit Freiheitsgraden, Fehlerquadratsummen und zugehöriger F -Statistik. Demnach kann die Hypothese zu den üblichen Signifikanzniveaus nicht verworfen werden. Bei Verdacht auf Heteroskedastie kann man solche lineare Hypothesen wie oben auch gleich mit einer Eicker-White-Kovarianzmatrix testen: R> linear.hypothesis(fm2, hypothesis.matrix = c(0, 1, -1), rhs = 0, vcov = sandwich) Linear hypothesis test Hypothesis: stratio - english = 0 Model 1: score ~ stratio + english Model 2: restricted model Note: Coefficient covariance matrix supplied. Res.Df Df F Pr(>F) Formeln R bietet eine flexible Formelmethode an, um Regressionsmodelle zu spezifizieren. Dabei haben allerdings die Grundrechenarten eine neue Bedeutung, bspw. bedeutet wie schon gesehen y ~x + z Regression von y auf x und z (aber eben nicht auf x + z): R> fm2 <- lm(score ~ stratio + english, data = CASchools) Analog bedeutet "-" Weglassen von Regressoren. Ein Modell mit nur dem Regressor stratio ergibt sich bspw. aus fm2 unter Verwendung der Funktion update() über R> fm1 <- update(fm2,. ~. - english, data = CASchools)

7 Lineare Regression in R 7 Die Grundrechenarten werden insb. gebraucht, um Interaktionsterme kompakt zu spezifizieren. Ein Modell mit Interaktionen zwischen den metrischen Regressoren stratio und english wird spezifiziert durch: R> fmint1a <- lm(score ~ stratio + english + stratio:english, data = CASchools) oder kompakter durch R> fmint1b <- lm(score ~ stratio * english, data = CASchools) Dabei ist stratio:english der Interaktionsterm selbst, und stratio * english steht für eine Regression auf die angegebenen Regressoren und sämtliche Interaktionsterme. Besonders elegant (aber anfangs etwas gewöhnungsbedürftig) ist die Formelschreibweise im Zusammenhang mit Faktoren (qualitativen Variablen): Sei dazu a eine kategoriale Variable (Faktor) mit k Stufen. Im Ökonometrie-Jargon würde man dazu k 1 Dummies einführen, der Vorteil der R-Version ist, dass man nur eine einzige Variable verwalten muss und diese Dummies im Hintergrund automatisch erzeugt werden. Damit kann man insb. sehr schnell die Referenzkategorie wechseln. Tabelle 1 zeigt einige Möglichkeiten, mit Faktoren und einer metrischen Variablen x sehr kompakt Interaktionen zu spezifizieren. Tabelle 1: Formeln in Regressionsmodellen. Formel y ~ a + x y ~ a * x y ~ a + x + a:x y ~ a / x y ~ a + x %in% a Beschreibung Modell ohne Interaktion: identische Steigungen bzgl. x, aber unterschiedliche Achsenabschnitte bzgl. a. Modell mit Interaktion: der Term a:x erzeugt die Differenz der Steigungen bzgl. der Referenzkategorie. Modell mit Interaktion: gleiche ŷ i wie oben, aber Koeffizienten hierarchisch kodiert. Explizite Steigung für jede Kategorie von a. Ein Beispiel zu Interaktionen zwischen einem Faktor und einem metrischen Regressor (um die Möglichkeiten der Formelsprache deutlicher zu machen, wird der Faktor noch etwas aufbereitet): R> henglish <- I(CASchools$english >= 10) R> henglish <- factor(henglish, labels = c("no", "yes")) R> fmint2 <- lm(score ~ stratio * henglish, data = CASchools) R> coeftest(fmint2, vcov = sandwich) t test of coefficients: (Intercept) <2e-16 stratio henglishyes stratio:henglishyes Hier wird henglish durch einen logischen Vergleich erzeugt: die Aussage english >= 10 ist für einen gegebenen Schulbezirk entweder wahr oder falsch, somit entsteht ein Vektor mit diesen Einträgen. Er wird nun in einen Faktor vewandelt, dessen Ausprägungen "no" bzw. "yes" sind. Die Referenzkategorie des Faktors enspricht dabei "no". Will man die Regression mit der Referenzkategorie "yes" durchführen, definiert man die Kategorien um. Am einfachsten geht dies mit der Funktion relevel():

8 Lineare Regression in R 8 R> henglish <- relevel(henglish, ref = "yes") R> fmint3 <- lm(score ~ stratio * henglish, data = CASchools) R> coeftest(fmint3, vcov = sandwich) t test of coefficients: (Intercept) <2e-16 stratio henglishno stratio:henglishno Regression mit transformierten Variablen Wie oben beschrieben haben die Grundrechenarten in Formeln eine spezielle Bedeutung. Will man sie verwenden, um Regressoren zu transformieren, muss man deshalb einen Operator benutzen, nämlich I(). Ein quadratischer Term im Regressor income wird bspw. spezifiziert über R> fmquad <- lm(score ~ income + I(income^2), data = CASchools) Transformationen, die keine Grundrechenarten enthalten, brauchen das I() nicht, deshalb genügt z.b. für Logarithmen einfach R> fmlinlog <- lm(score ~ log(income), data = CASchools) Wird nun der tranformierte Regressor selbst wieder mit einer Grundrechenart transformiert, muss I() wieder verwendet werden: R> fmlinlogquad <- lm(score ~ log(income) + I(log(income)^2), data = CASchools) 9 Visualisierung von Regressionsergebnissen Zur Beurteilung der Anpassung ist es hilfreich, Graphiken zu erzeugen. Hier ein Beispiel für die Regression fmlinlog: R> plot(score ~ income, data = CASchools, pch = 20, + xlim = c(0, 60), ylim = c(600, 730)) R> grid <- seq(5, 55, by = 0.1) R> lines(grid, coef(fmlinlog)[1] + coef(fmlinlog)[2] * log(grid), + col = "slategrey", lwd = 2) R> legend("topleft", "linlog", col = "slategrey", lwd = 2, bty = "n")

9 Lineare Regression in R 9 score linlog income Dabei wird zunächst ein Vektor von Stützstellen (grid) erzeugt, in denen die Funktion dann mit den geschätzten Regressionskoeffizienten ausgewertet wird (coef(fmlinlog)[1]+coef(fmlinlog)[2]*log(grid)), diese beiden Vektoren werden schliesslich in der Form plot(x,y) gegeneinander abgetragen. Da die Punkte als Kurve zu einer bestehenden Graphik hinzugefügt werden sollen, wird dabei aber nicht die Funktion plot(), sondern lines() verwendet.

Lineare Regression in R, Teil 2

Lineare Regression in R, Teil 2 Lineare Regression in R, Teil 2 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel 28. Oktober 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools. Laden

Mehr

Lineare Modelle in R: Klassische lineare Regression

Lineare Modelle in R: Klassische lineare Regression Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)

Mehr

Regression mit Faktoren, Interaktionen und transformierten Variablen

Regression mit Faktoren, Interaktionen und transformierten Variablen Kap. 5: Regression mit Faktoren, Interaktionen und transformierten Variablen Motivation Regressionen mit transformierten Variablen Ausblick: Nichtlineare Regression Mehr zu Regressionen mit qualitativen

Mehr

Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS)

Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Es soll untersucht werden, ob und wie sich Rauchen während der Schwangerschaft auf den Gesundheitszustand des Neugeborenen auswirkt. Hierzu werden

Mehr

Eine Einführung in R: Varianzanalyse

Eine Einführung in R: Varianzanalyse Eine Einführung in R: Varianzanalyse Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2011 Bernd Klaus, Verena Zuber Das

Mehr

Lineare Modelle in R: Einweg-Varianzanalyse

Lineare Modelle in R: Einweg-Varianzanalyse Lineare Modelle in R: Einweg-Varianzanalyse Achim Zeileis 2009-02-20 1 Datenaufbereitung Wie schon in der Vorlesung wollen wir hier zur Illustration der Einweg-Analyse die logarithmierten Ausgaben der

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann

Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann Contents Aufgabe 1 1 b) Schätzer................................................. 3 c) Residuenquadratsummen........................................

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m)

3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m) 3.1. MODELL UND STATISTIK 32 3 Multiple lineare Regression a 3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m) Y i = β 0 + β 1 x (1)

Mehr

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen. Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf

Mehr

1 Interaktion von zwei Dummyvariablen. 2 Interaktion einer Dummyvariablen mit einer kardinalskalierten Variablen

1 Interaktion von zwei Dummyvariablen. 2 Interaktion einer Dummyvariablen mit einer kardinalskalierten Variablen Modelle mit Interationsvariablen I Modelle mit Interationsvariablen II In der beim White-Test verwendeten Regressionsfuntion y = β 0 + β 1 x 1 + β 2 x 2 + β 3 x 2 1 + β 4 x 2 2 + β 5 x 1 x 2, ist anders

Mehr

Regressionsanalyse in R

Regressionsanalyse in R Regressionsanalyse in R Session 6 1 Einfache Regression Lineare Regression ist eines der nützlichsten Werkzeuge in der Statistik. Regressionsanalyse erlaubt es Zusammenhänge zwischen Parametern zu schätzen

Mehr

Kap. 8: Regression mit Paneldaten

Kap. 8: Regression mit Paneldaten Kap. 8: Regression mit Paneldaten Einführung Paneldaten für zwei Perioden Regression mit festen Effekten bzgl. Individuen Regression mit festen Effekten bzgl. Zeit Annahmen in der Paneldatenanalyse Empirisches

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Eine Einführung in R: Das Lineare Modell

Eine Einführung in R: Das Lineare Modell Eine Einführung in R: Das Lineare Modell Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2009 Bernd Klaus, Verena Zuber

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg Übungsklausur Lineare le Prof. Dr. H. Toutenburg Aufgabe Ein lineares Regressionsmodell mit der abhängigen Variablen Körpergröße und der unabhängigen Variablen Geschlecht wurde einmal mit der dummykodierten

Mehr

1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:

1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Beispiele zum Üben und Wiederholen zu Wirtschaftsstatistik 2 (Kurs 3) 1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Haushaltseinkommen 12 24 30 40 80 60

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004

Mehr

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade

Mehr

Diplomvorprüfung in Statistik II Sommersemester Juli 2005

Diplomvorprüfung in Statistik II Sommersemester Juli 2005 Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Diplomvorprüfung in Statistik II Sommersemester 2005 22. Juli 2005 Aufgabe 1 [46 Punkte] Ein Marktforschungsunternehmen

Mehr

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen 4 Multiple lineare Regression Tests auf Heteroskedastie 4.11 Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Ein weiterer Test auf Heteroskedastie in den Störgrößen ist der Breusch-Pagan-Test.

Mehr

Statistik Vorlesung 7 (Lineare Regression)

Statistik Vorlesung 7 (Lineare Regression) Statistik Vorlesung 7 (Lineare Regression) K.Gerald van den Boogaart http://www.stat.boogaart.de/ Statistik p.1/77 Gerade als Vereinfachung Wachstum bei Kindern height 76 78 80 82 18 20 22 24 26 28 age

Mehr

Tutorial: Regression Output von R

Tutorial: Regression Output von R Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen

Mehr

Lineare Regression mit einem Regressor: Einführung

Lineare Regression mit einem Regressor: Einführung Lineare Regression mit einem Regressor: Einführung Quantifizierung des linearen Zusammenhangs von zwei Variablen Beispiel Zusammenhang Klassengröße und Testergebnis o Wie verändern sich Testergebnisse,

Mehr

Kap. 2: Kurzwiederholung Wahrscheinlichkeitsrechnung und Statistik

Kap. 2: Kurzwiederholung Wahrscheinlichkeitsrechnung und Statistik Kap. 2: Kurzwiederholung Wahrscheinlichkeitsrechnung und Statistik Empirische Fragestellung Datenanalyse: Schätzung, Test, Konfidenzintervall Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Ausgangsdaten Bundesliga 2008/2009 Gegeben: Daten zu den 18 Vereinen der ersten Bundesliga

Mehr

Analyse von Querschnittsdaten. Heteroskedastizität

Analyse von Querschnittsdaten. Heteroskedastizität Analyse von Querschnittsdaten Heteroskedastizität Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004 03.11.2004

Mehr

Statistik Einführung // Lineare Regression 9 p.2/72

Statistik Einführung // Lineare Regression 9 p.2/72 Statistik Einführung Lineare Regression Kapitel 9 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Ledold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // Lineare Regression

Mehr

1. Lösungen zu Kapitel 7

1. Lösungen zu Kapitel 7 1. Lösungen zu Kapitel 7 Übungsaufgabe 7.1 Um zu testen ob die Störterme ε i eine konstante Varianz haben, sprich die Homogenitätsannahme erfüllt ist, sind der Breusch-Pagan-Test und der White- Test zwei

Mehr

Formelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade

Formelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade Version 2015 Formelsammlung für das Modul Statistik 2 Bachelor Sven Garbade Prof. Dr. phil. Dipl.-Psych. Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de

Mehr

Kapitel 3. Inferenz bei OLS-Schätzung I (small sample, unter GM1,..., GM6)

Kapitel 3. Inferenz bei OLS-Schätzung I (small sample, unter GM1,..., GM6) 8 SMALL SAMPLE INFERENZ DER OLS-SCHÄTZUNG Damit wir die Verteilung von t (und anderen Teststatistiken) exakt angeben können, benötigen wir Verteilungsannahmen über die Störterme; Kapitel 3 Inferenz bei

Mehr

3. Das einfache lineare Regressionsmodell

3. Das einfache lineare Regressionsmodell 3. Das einfache lineare Regressionsmodell Ökonometrie: (I) Anwendung statistischer Methoden in der empirischen Forschung in den Wirtschaftswissenschaften Konfrontation ökonomischer Theorien mit Fakten

Mehr

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004 Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004 Aufgabe 1 U t bedeute weißes Rauschen und B den Backshift

Mehr

Lehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. Regina T. Riphahn, Ph.D. Diplomvorprüfung Statistik II Einf. Ökonometrie im WS 06/07

Lehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. Regina T. Riphahn, Ph.D. Diplomvorprüfung Statistik II Einf. Ökonometrie im WS 06/07 Aufgabe 1: [21 Punkte] Ein Forschungsinstitut hat den Auftrag bekommen, die individuellen monatlichen Ausgaben für Bioprodukte zu erklären. Es wird eine Kleinstquadrate Regression der Höhe der Ausgaben

Mehr

Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13

Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13 Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression Dipl.-Ing. Robin Ristl Wintersemester 2012/13 1 Grundidee: Eine abhängige Variable soll als Linearkombination mehrerer unabhängiger

Mehr

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung

Mehr

Metrische und kategoriale Merkmale

Metrische und kategoriale Merkmale Kapitel 6 Metrische und kategoriale Merkmale 6.1 Wie kann man metrische und kategoriale Merkmale numerisch beschreiben? Typischerweise will man geeignete Maßzahlen (beispielsweise Lage- oder Streuungsmaße)

Mehr

13. Übungswoche. Kapitel 12: Varianzanalyse (Fortsetzung)

13. Übungswoche. Kapitel 12: Varianzanalyse (Fortsetzung) 1 13. Übungswoche Kapitel 12: Varianzanalyse (Fortsetzung) [ 3 ] Im Vorkurs Mathematik für Wirtschafstwissenschaftler vor Beginn des Sommersemesters 2009 wurde am Anfang und am Ende ein Test geschrieben,

Mehr

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden

Mehr

Ergänzung der Aufgabe "Mindestlöhne" zu einer multiplen Regression

Ergänzung der Aufgabe Mindestlöhne zu einer multiplen Regression Prof. Dr. Peter von der Lippe ( Übungsblatt E) Ergänzung der Aufgabe "Mindestlöhne" zu einer multiplen Regression Das Beispiel "Mindestlöhne" zur einfachen multiplen Regression ergab die folgenden Parameter

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

Multiple Regression Mais-NP Zweidimensionale lineare Regression Data Display Dreidimensionale lineare Regression Multiple Regression

Multiple Regression Mais-NP Zweidimensionale lineare Regression Data Display Dreidimensionale lineare Regression Multiple Regression Multiple Regression! Zweidimensionale lineare Regression Modell Bestimmung der Regressionsebene Multiples Bestimmtheitsmaß Test des Bestimmtheitsmaßes Vertrauensintervalle für die Koeffizienten Test des

Mehr

Schriftliche Prüfung (90 Minuten)

Schriftliche Prüfung (90 Minuten) Dr. M. Kalisch Probeprüfung Statistik 1 Sommer 2014 Schriftliche Prüfung (90 Minuten) Bemerkungen: Alle schriftlichen Hilfsmittel und ein Taschenrechner sind erlaubt. Mobiltelefone sind auszuschalten!

Mehr

1. Erklären Sie den Unterschied zwischen einem einseitigen und zweiseitigen Hypothesentest.

1. Erklären Sie den Unterschied zwischen einem einseitigen und zweiseitigen Hypothesentest. Statistik II Übung 3: Hypothesentests Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier Stichproben). Verwenden

Mehr

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1 Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...

Mehr

4. Das multiple lineare Regressionsmodell

4. Das multiple lineare Regressionsmodell 4. Das multiple lineare Regressionsmodell Bisher: 1 endogene Variable y wurde zurückgeführt auf 1 exogene Variable x (einfaches lineares Regressionsmodell) Jetzt: Endogenes y wird regressiert auf mehrere

Mehr

ANalysis Of VAriance (ANOVA) 1/2

ANalysis Of VAriance (ANOVA) 1/2 ANalysis Of VAriance (ANOVA) 1/2 Markus Kalisch 16.10.2014 1 ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich)?

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

R-Wörterbuch Ein Anfang... ein Klick auf einen Begriff führt, sofern vorhanden, zu dessen Erklärung.

R-Wörterbuch Ein Anfang... ein Klick auf einen Begriff führt, sofern vorhanden, zu dessen Erklärung. R-Wörterbuch Ein Anfang... ein Klick auf einen Begriff führt, sofern vorhanden, zu dessen Erklärung. Carsten Szardenings c.sz@wwu.de 7. Mai 2015 A 2 B 3 C 4 D 5 F 6 R 16 S 17 V 18 W 19 Z 20 H 7 I 8 K 9

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Einführung in die multiple Regression

Einführung in die multiple Regression Einführung in die multiple Regression Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@fh-heidelberg.de Bachelor S. Garbade (SRH Heidelberg) Multiple Regression Bachelor

Mehr

Lösung zu Kapitel 11: Beispiel 1

Lösung zu Kapitel 11: Beispiel 1 Lösung zu Kapitel 11: Beispiel 1 Eine Untersuchung bei 253 Personen zur Kundenzufriedenheit mit einer Einzelhandelskette im Südosten der USA enthält Variablen mit sozialstatistischen Daten der befragten

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der

Mehr

Formale Methoden der Ökonomik: Einführung in die empirische Wirtschaftsforschung

Formale Methoden der Ökonomik: Einführung in die empirische Wirtschaftsforschung Übung Formale Methoden der Ökonomik: Einführung in die empirische Wirtschaftsforschung BACHELOR FT 2013 (HSU) Übung Emp. WiFo FT 2013 1 / 1 Maßzahlen für den Zusammenhang zwischen Merkmalen Kontingenztabelle:

Mehr

Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief. Statistik II

Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief. Statistik II Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief Statistik II Wiederholung Literatur Kategoriale Unabhängige, Interaktion, nicht-lineare Effekte

Mehr

Übungsaufgaben. zahlen bis auf das 3. und 7. Element enthält. (e) Erstellen Sie einen Vektor. zahlen3, der ein Klon von

Übungsaufgaben. zahlen bis auf das 3. und 7. Element enthält. (e) Erstellen Sie einen Vektor. zahlen3, der ein Klon von Kurzeinführung in R Prof. Dr. Andreas Behr 1. Erzeugen Sie folgende Vektoren: (a) a : {1, 3, 7} Übungsaufgaben (b) b : { Katja, Christoph, Gerald, Jurij } (c) d : {T RUE, T RUE, F ALSE} 2. Erzeugen Sie

Mehr

Biometrische und Ökonometrische Methoden I Lösungen 9

Biometrische und Ökonometrische Methoden I Lösungen 9 TECHNISCHE UNIVERSITÄT MÜNCHEN - WEIHENSTEPHAN WS 00/01 MATHEMATIK UND STATISTIK, INFORMATIONS- UND DOKUMENTATIONSZENTRUM Biometrische und Ökonometrische Methoden I Lösungen 9 1. a) MTB > Retrieve "H:\STUDENT\MINITAB\OPELVW.MTW".

Mehr

Korrelation - Regression. Berghold, IMI

Korrelation - Regression. Berghold, IMI Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines

Mehr

Musterlösung zu Serie 14

Musterlösung zu Serie 14 Dr. Lukas Meier Statistik und Wahrscheinlichkeitsrechnung FS 21 Musterlösung zu Serie 14 1. Der Datensatz von Forbes zeigt Messungen von Siedepunkt (in F) und Luftdruck (in inches of mercury) an verschiedenen

Mehr

Kap. 12: Regression mit Zeitreihendaten und Prognosemodelle

Kap. 12: Regression mit Zeitreihendaten und Prognosemodelle Kap. 12: Regression mit Zeitreihendaten und Prognosemodelle Motivation Grundbegriffe Autoregressionen (AR-Modelle) Dynamische Regressionsmodelle (ADL-Modelle) Nichstationarität Ausblick 12.1 Motivation

Mehr

Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief

Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief Statistik II Literatur Kategoriale Unabhängige, Interaktion, nicht-lineare Effekte : Schätzung Statistik

Mehr

Variablen Selektion beste Volles Modell

Variablen Selektion beste Volles Modell Variablen Selektion Wähle das beste Modell aus einer Klasse von MLR s. Volles Modell enthält alle m möglicherweise erklärenden Größen (Prädiktoren) Suche nach dem besten Modell, das nur eine Teilmenge

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T 9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon

Mehr

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen

Mehr

Nachschreibklausur im Anschluss an das SS 2009

Nachschreibklausur im Anschluss an das SS 2009 Nachschreibklausur im Anschluss an das SS 2009 08. Oktober 2009 Lehrstuhl: Prüfungsfach: Prüfer: Hilfsmittel: Klausurdauer: Wirtschaftspolitik Empirische Wirtschaftsforschung Prof. Dr. K. Kraft Nicht-programmierbarer

Mehr

4) Lösen linearer Gleichungssysteme mit zwei oder drei Unbekannten

4) Lösen linearer Gleichungssysteme mit zwei oder drei Unbekannten 1) Wechsel der Darstellung Taschenrechner CASIO fx-991 ES Denn es ist eines ausgezeichneten Mannes nicht würdig, wertvolle Stunden wie ein Sklave im Keller der einfachen Berechnungen zu verbringen. Gottfried

Mehr

Multivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167

Multivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167 Multivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.167 Multivariate Regression Verfahren zur Prüfung des gemeinsamen linearen Einflusses mehrerer unabhängiger Variablen auf eine

Mehr

Hypothesentests mit SPSS

Hypothesentests mit SPSS Beispiel für eine zweifaktorielle Varianzanalyse mit Messwiederholung auf einem Faktor (univariate Lösung) Daten: POKIII_AG4_V06.SAV Hypothese: Die physische Attraktivität der Bildperson und das Geschlecht

Mehr

Lineare Regression. Gebrauchtwagenpreise. Varianzanalyse. Methoden empirischer Sozialforschung. 2 (oder mehr) metrische Variablen.

Lineare Regression. Gebrauchtwagenpreise. Varianzanalyse. Methoden empirischer Sozialforschung. 2 (oder mehr) metrische Variablen. Lineare Regression 2 (oder mehr) metrische Variablen. Methoden empirischer Sozialforschung Lineare Modelle Von welcher Form ist der Zusammenhang zwischen zwei metrischen Variablen? Läßt sich der Wert einer

Mehr

ANalysis Of VAriance (ANOVA) 2/2

ANalysis Of VAriance (ANOVA) 2/2 ANalysis Of VAriance (ANOVA) 2/2 Markus Kalisch 22.10.2014 1 Wdh: ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor X). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 40 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 2 Ökonometrie I Michael Hauser 2 / 40 Inhalt ANOVA, analysis of variance korrigiertes R 2, R 2 F-Test F-Test bei linearen Restriktionen Erwartungstreue,

Mehr

SozialwissenschaftlerInnen II

SozialwissenschaftlerInnen II Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Varianzanalyse Statistik

Mehr

Statistisches Lernen

Statistisches Lernen Statistisches Lernen Einheit 12: Modellwahl und Regularisierung Dr. rer. nat. Christine Pausch Institut für Medizinische Informatik, Statistik und Epidemiologie Universität Leipzig WS 2014/2015 1 / 28

Mehr

SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben

SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben ÜBERSICHT: Testverfahren bei abhängigen (verbundenen) Stichproben parametrisch nicht-parametrisch 2 Gruppen t-test bei verbundenen

Mehr

10. Übung (Korrelation und lineare Regressionsanalyse)

10. Übung (Korrelation und lineare Regressionsanalyse) 10. Übung (Korrelation und lineare Regressionsanalyse) Es wird untersucht, ob ein linearer Zusammenhang zwischen zwei Variablen besteht. Mit anderen Worten: ob ein solcher Zusammenhang gibt, wenn der beobachteter

Mehr

Statistik II Übung 1: Einfache lineare Regression

Statistik II Übung 1: Einfache lineare Regression Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der

Mehr

Lineare Regression 1 Seminar für Statistik

Lineare Regression 1 Seminar für Statistik Lineare Regression 1 Seminar für Statistik Markus Kalisch 17.09.2014 1 Statistik 2: Ziele Konzepte von einer breiten Auswahl von Methoden verstehen Umsetzung mit R: Daten einlesen, Daten analysieren, Grafiken

Mehr

k-means Clustern in R

k-means Clustern in R k-means Clustern in R Achim Zeileis 2009-02-20 Um die Ergebnisse aus der Vorlesung zu reproduzieren, wird zunächst wieder der GSA Datensatz geladen R> load("gsa.rda") und wie schon in den vorangegangenen

Mehr

Empirische Analysen mit dem SOEP

Empirische Analysen mit dem SOEP Empirische Analysen mit dem SOEP Methodisches Lineare Regressionsanalyse & Logit/Probit Modelle Kurs im Wintersemester 2007/08 Dipl.-Volksw. Paul Böhm Dipl.-Volksw. Dominik Hanglberger Dipl.-Volksw. Rafael

Mehr

Dabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen

Dabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen Lineare Regression und Matrizen. Einführendes Beispiel Der im Kapitel Skalarprodukt gewählte Lösungsweg für das Problem der linearen Regression kann auch mit Matrizen formuliert werden. Die Idee wird zunächst

Mehr

Ergänzungsmaterial zur Vorlesung. Statistik 2. Modelldiagnostik, Ausreißer, einflussreiche Beobachtungen

Ergänzungsmaterial zur Vorlesung. Statistik 2. Modelldiagnostik, Ausreißer, einflussreiche Beobachtungen Institut für Stochastik WS 2007/2008 Universität Karlsruhe JProf. Dr. H. Holzmann Dipl.-Math. oec. D. Engel Ergänzungsmaterial zur Vorlesung Statistik 2 Modelldiagnostik, Ausreißer, einflussreiche Beobachtungen

Mehr

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester 2009, Statistik mit SPSS

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester 2009, Statistik mit SPSS Sommersemester 2009, Statistik mit SPSS 28. August 2009 28. August 2009 Statistik Dozentin: mit Anja SPSS Mays 1 Überblick 1. Korrelation vs. Regression 2. Ziel der Regressionsanalyse 3. Syntax für den

Mehr

8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme)

8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) 8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) Annahme B4: Die Störgrößen u i sind normalverteilt, d.h. u i N(0, σ 2 ) Beispiel: [I] Neoklassisches Solow-Wachstumsmodell Annahme einer

Mehr

Statistik II für Betriebswirte Vorlesung 12

Statistik II für Betriebswirte Vorlesung 12 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 12 11. Januar 2013 7.3. Multiple parameterlineare Regression Im Folgenden soll die

Mehr

Statistische Eigenschaften der OLS-Schätzer, Residuen,

Statistische Eigenschaften der OLS-Schätzer, Residuen, Statistische Eigenschaften der OLS-Schätzer, Residuen, Bestimmtheitsmaß Stichwörter: Interpretation des OLS-Schätzers Momente des OLS-Schätzers Gauss-Markov Theorem Residuen Schätzung von σ 2 Bestimmtheitsmaß

Mehr

Vergleich von Gruppen I

Vergleich von Gruppen I Vergleich von Gruppen I t-test und einfache Varianzanalyse (One Way ANOVA) Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Der unverbundene t-test mit homogener Varianz Beispiel Modell Teststatistik

Mehr

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:

Mehr

Statistik II Übung 1: Einfache lineare Regression

Statistik II Übung 1: Einfache lineare Regression Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der

Mehr

Statistik II Übung 2: Multivariate lineare Regression

Statistik II Übung 2: Multivariate lineare Regression Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden

Mehr

Die Varianzanalyse. Analysis of Variance (ANOVA) Jonathan Harrington

Die Varianzanalyse. Analysis of Variance (ANOVA) Jonathan Harrington Die Varianzanalyse Analysis of Variance (ANOVA) Jonathan Harrington path = "Verzeichnis wo Sie anova1 gespeichert haben" attach(paste(path, "anova1", sep="/")) Variablen, Faktoren, Ebenen Faktoren oder

Mehr

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische

Mehr

Kovarianz, Korrelation, (lineare) Regression

Kovarianz, Korrelation, (lineare) Regression Kovarianz, Korrelation, (lineare) Regression Jonathan Harrington Die R-Befehle: reg.txt epg.txt (aus der Webseite) pfad = "Das Verzeichnis, wo die Daten gespeichert ist" edat = read.table(paste(pfad, "epg.txt",

Mehr

Bivariate Analyseverfahren

Bivariate Analyseverfahren Bivariate Analyseverfahren Bivariate Verfahren beschäftigen sich mit dem Zusammenhang zwischen zwei Variablen Beispiel: Konservatismus/Alter Zusammenhangsmaße beschreiben die Stärke eines Zusammenhangs

Mehr

Statistik Vorlesung 7 (Lineare Regression)

Statistik Vorlesung 7 (Lineare Regression) Statistik Vorlesung 7 (Lineare Regression) K.Gerald van den Boogaart http://www.stat.boogaart.de/ Statistik p.1/77 > Brustkrebs Chroma

Mehr