Eine Einführung in R: Lineare Regression

Ähnliche Dokumente
Eine Einführung in R: Das Lineare Modell

Eine Einführung in R: Lineare Regression

Eine Einführung in R: Varianzanalyse

Prognoseintervalle für y 0 gegeben x 0

Fragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression

Vorlesung: Statistik II für Wirtschaftswissenschaft

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Die Regressionsanalyse

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Lineare Regression Blockpraktikum zur Statistik mit R 28. März 2012 Sören Gröttrup Institut für Mathematische Statistik Universität Münster SS 2012

Übung V Lineares Regressionsmodell

Lineare Modelle in R: Klassische lineare Regression

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017

Lineare Regression in R, Teil 1

Statistik Vorlesung 7 (Lineare Regression)

1 Beispiel zur Methode der kleinsten Quadrate

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp

9. Lineare Regression

Musterlösung. Modulklausur Multivariate Verfahren

Ergänzungsmaterial zur Vorlesung. Statistik 2. Modelldiagnostik, Ausreißer, einflussreiche Beobachtungen

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

Das Lineare Regressionsmodell

Teil: lineare Regression

1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:

Schriftliche Prüfung (90 Minuten)

Statistik II Übung 1: Einfache lineare Regression

Multivariate Verfahren

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Statistik II Übung 1: Einfache lineare Regression

Kurs Empirische Wirtschaftsforschung

Statistik II. IV. Hypothesentests. Martin Huber

Diagnostik von Regressionsmodellen (1)

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Regressionsanalyse in R

Empirische Wirtschaftsforschung in R

Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS)

Abbildung 1: Dieses Quiz soll Ihnen helfen, die Residuenplots besser zu verstehen. Am Schluss kommen noch vermischte Aufgaben zur Wiederholung.

Vorlesung: Lineare Modelle. Verschiedene Typen von Residuen. Probleme bei der Regression und Diagnose. Prof. Dr. Helmut Küchenhoff.

6.2 Lineare Regression

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9.

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression

Ferienkurse Mathematik Sommersemester 2009

1. Erklären Sie den Unterschied zwischen einem einseitigen und zweiseitigen Hypothesentest.

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen

Einführung in einige Teilbereiche der Wirtschaftsmathematik für Studierende des Wirtschaftsingenieurwesens

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik

Eine Einführung in R: Dichten und Verteilungsfunktionen

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg

Vergleich von Gruppen I

1 Die Methode der Kleinsten Quadrate

Wiederholung Qualitätssicherung Drittvariablen. Regression II. Statistik I. Sommersemester Statistik I Regression II (1/33) Wiederholung

Statistik II. Regressionsanalyse. Statistik II

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Eine Einführung in R: Dichten und Verteilungsfunktionen

Übungen mit dem Applet. by Michael Gärtner

Bachelorprüfung: Mathematik 4 - Statistik (2 Stunden)

Mathematik III - Statistik für MT(Master)

Statistik II. IV. Hypothesentests. Martin Huber

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Analyse von Querschnittsdaten. Signifikanztests I Basics

Poisson Regression. Verallgemeinerte Lineare Modelle (GLMs)

3. Das einfache lineare Regressionsmodell

FORMELN IN. Referent: Daniel Laskow Betreuer: Eugen Betke Programmierung in R Arbeitsbereich Wissenschaftliches Rechnen Universität Hamburg

Wichtige Definitionen und Aussagen

Vorlesung Wirtschaftsstatistik 2 (FK ) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13

Mathematische Statistik Aufgaben zum Üben. Schätzer

Einführung in die Induktive Statistik: Varianzanalyse

Wiederholung und ein mehrfaktorielles Verfahren. Statistische Methoden in der Korpuslinguistik Heike Zinsmeister WS 2008/09

Statistik Einführung // Lineare Regression 9 p.2/72

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27

Multiple Regression Mais-NP Zweidimensionale lineare Regression Data Display Dreidimensionale lineare Regression Multiple Regression

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien

Drittvariablenkontrolle in der linearen Regression: Trivariate Regression

Einfaktorielle Varianzanalyse

Eine Einführung in R: Statistische Tests

1 Gliederung Zeitreihenökonometrie. Angewandte Ökonometrie (Folien) Zeitreihenökonometrie Universität Basel, FS 09. Dr. Sylvia Kaufmann.

Forschungsstatistik I

Arbeitsbuch zur deskriptiven und induktiven Statistik

3.1 Modell und Statistik Zusammenhang zwischen einer Zielgrösse Y und mehreren Eingangsgrössen X (1), X (2),..., X (m)

8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme)

Ziel der linearen Regression

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Kapitel 4: Binäre Regression

Auswertung und Lösung

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.

Statistik und Wahrscheinlichkeitsrechnung

1 Binäre Regression (I)

Klassifikation von Signifikanztests

Lineare Regression mit einem Regressor: Einführung

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO

Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen.

STATISTIK 2 Teil 1 Regressionsanalyse Von: Anne Schmidt. Anordnung von Zahlen in Zeilen und Spalten (Tabelle)

Übung Methodenlehre II, SS 2010

7. Lösungen weitere Übungsaufgaben Statistik für Ingenieure WiSe 16/17

Transkript:

Eine Einführung in R: Lineare Regression (basierend auf Vorarbeiten von Verena Zuber und Bernd Klaus) Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.nowick-lab.info/?page_id=365 17. Dezember 2013 (basierend auf Grundlagen Vorarbeiten III von Verena Zuber und 17. Bernd Dezember Klaus) 2013 ( Institut1 für / 29 Med

I. Ergänzungen zu Übung 2 (basierend auf Grundlagen Vorarbeiten III von Verena Zuber und 17. Bernd Dezember Klaus) 2013 ( Institut2 für / 29 Med

Weitere Tests in R chisq.test: χ 2 -Test fisher.test: Fisher-Test binom.test: Binomial-Test cor.test: Korrelationstest kruskal.test: Kruskal-Wallis-Test ks.test: Kolmogorov-Smirnov-Test shapiro.test: Shapiro-Wilk-Test (basierend auf Grundlagen Vorarbeiten III von Verena Zuber und 17. Bernd Dezember Klaus) 2013 ( Institut3 für / 29 Med

Bootstrap Verfahren Wenn die theoretische Verteilung der interessierenden Statistik nicht bekannt ist, können Bootstrapverfahren eingesetzt werden. Mögliche Anwendungen: Bootstrap Kondenzintervalle Bootstrap Tests Vorgehen: Aus der Originalstichprobe werden B Bootstrap-Stichproben der gleichen Gröÿe mit zurücklegen gezogen: x b = (x 1,..., x n), b = 1,...B. Dies entspricht einer Ziehung aus der empirischen Verteilungsfunktion. Für jede der B Stichproben kann die interessierende Statistik T berechnet werden. Dies ermöglicht die Abschätzung der Verteilung von T und damit die Schätzung von Quantilen und p-werten. (basierend auf Grundlagen Vorarbeiten III von Verena Zuber und 17. Bernd Dezember Klaus) 2013 ( Institut4 für / 29 Med

Bootstrap Beispiel: Kondenzintervall x<-rnorm(100) mean(x) Fragestellung: Bestimme das 95% Kondenzintervall für die Schätzung des Mittelwertes. t<-rep(na,n) for (i in 1:N){ t[i]<-mean(sample(x,length(x),replace=t)) } quantile(t,c(0.05,0.95)) (basierend auf Grundlagen Vorarbeiten III von Verena Zuber und 17. Bernd Dezember Klaus) 2013 ( Institut5 für / 29 Med

Lineare Einfachregression (basierend auf Grundlagen Vorarbeiten III von Verena Zuber und 17. Bernd Dezember Klaus) 2013 ( Institut6 für / 29 Med

Einleitung Ziel der Regressionsanalyse: Welchen Einuss hat eine Gröÿe X auf eine andere Zufallsvariable Y? Y : metrische Zielvariable, zu erklärende Variable, Regressand X : erklärende Variable, Regressor (zufällig oder deterministisch) Daten: n Realisierungen (y 1, x 1 ),..., (y n, x n ) Ziel der linearen Regression Die Lineare Regression untersucht, ob ein linearer Zusammenhang zwischen X und Y besteht. (basierend auf Grundlagen Vorarbeiten III von Verena Zuber und 17. Bernd Dezember Klaus) 2013 ( Institut7 für / 29 Med

Modell der Linearen Regression Y = β 0 + β 1 X + ε Y : Zielvariable, zu erklärende Variable, Regressand X : erklärende Variable, Regressor ε : unbeobachtbare Fehlervariable, unabhängig und identisch verteilt (in der Regel als N(0, σ)) zu schätzende Koezienten des Models: β 0, β 1 β 0 : Intercept β 1 : Regressionskoezient der Variable X Für i = 1,..., n Beobachtungen: y i = β 0 + β 1 x i + ε i i = 1,..., n (basierend auf Grundlagen Vorarbeiten III von Verena Zuber und 17. Bernd Dezember Klaus) 2013 ( Institut8 für / 29 Med

Annahmen: Lineare Regression Es besteht ein linearer Zusammenhang zwischen X und Y Y ist metrisch und normalverteilt (Kategorial: Logit Regression; Allgemeinere Verteilungen: GLM's) E(y i ) = β 0 + β 1 x i Var(y i ) = σ 2 Homoskedastizität, d.h. die Fehler ε i haben die gleiche Varianz: Var(ε i ) = σ 2 für alle i = 1,..., n Die Fehler ε i, mit i = 1,..., n, sind unabhängig (GegenBsp: Zeitreihendaten) Die Fehler ε sind unabhängig vom Wert der Zielvariable Y (basierend auf Grundlagen Vorarbeiten III von Verena Zuber und 17. Bernd Dezember Klaus) 2013 ( Institut9 für / 29 Med

Beispiel: Simulierte Daten X<-seq(1,6,0.01) epsilon<-rnorm(length(x), mean=0, sd=1) Y<-X+epsilon 0 1 2 3 4 5 6 7 0 2 4 6 X Y (basierend auf Vorarbeiten von Verena Zuber und Bernd Klaus) ( Institut für Med Grundlagen III 17. Dezember 2013 10 / 29

Schätzung der β i β 0 und β 1 können durch Minimierung der Summe des Quadratischen Fehlers geschätzt werden Kleinste Quadrate Schätzer: MLQ MLQ = n i=1( yi (β 0 + β 1 x i ) )2 min! Dies führt zu folgenden Schätzungen für β 0, β 1 und der getteten Wert Ŷ (Regressionsgerade): Schätzungen n i=1 ˆβ 1 = (x i x)(y i ȳ) cov(x,y ) n i=1 (x = i x) 2 var(x ) ˆβ 0 = Ȳ ˆβ 1 X Ŷ = ˆβ 0 + ˆβ 1 X (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 11 für / 29 Med

Testen des β-koezienten Der Regressionskoezient β 1 der Variable X ist ein Indikator für den linearen Zusammenhang von X und Y. Es gilt: Zusammenhang zwischen β 1 und cor(x, Y ) Daraus folgt: β 1 = cor(x, Y ) σ Y σ X β 1 < 0: negativer (linearer) Zusammenhang β 1 = 0: kein (linearer) Zusammenhang β 1 > 0: positiver (linearer) Zusammenhang Es gibt einen einfachen Test, der angibt, ob β 1 signikant ungleich Null ist, d.h. ob ein signikanter Zusammenhang zwischen X und Y besteht. (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 12 für / 29 Med

Zerlegung der Gesamtstreuung Die Maÿzahl R 2 dient als Hinweis darauf, wie gut ein Regressionsmodell zu den Daten passt. Die Idee hinter diesem Maÿ ist die sogenannte Streuungszerlegung: SQT = n (y i ȳ) 2 = i=1 n (y i ŷ i ) 2 + i=1 } {{ } SQR n (ŷ i ȳ) 2 i=1 } {{ } SQE SQT: Sum of Squares Total, die Gesamtstreuung (Var(Y )) SQE: Sum of Squares Explained, die durch das Modell erklärte Streuung SQR: Sum of Squares Residuals, die Rest- oder Residualstreuung (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 13 für / 29 Med

Bestimmtheitsmaÿ R 2 Liegen die Punkte (y 1, x 1 ),..., (y n, x n ) alle auf einer Geraden, so ist SQR= 0 und die Gesamtstreuung wäre gleich der erklärten Streuung. Das Bestimmtheitsmaÿ R 2 ist gegeben durch: Zerlegung des R 2 R 2 = SQE SQT = 1 SQR SQT [0, 1] Je gröÿer also das R 2 ist, desto besser passt das Modell zu den Daten. Dabei bedeuten: R 2 = 0: Die erklärte Streuung ist 0, d.h. das Modell ist extrem schlecht; X und Y sind nicht linear abhängig R 2 = 1: Die erklärte Streuung entspricht der Gesamtstreuung, das Modell passt perfekt (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 14 für / 29 Med

Multiple Regression (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 15 für / 29 Med

Mehrere erklärende Variablen Fragestellung: Wie ist der Einuss mehrerer Variablen X 1,..., X p auf eine Zielgröÿe Y? Realisierungen: (y 1, x 11,..., x 1p ),..., (y n, x n1,..., x np ) Modell der multiplen linearen Regression mit p erklärenden Gröÿen X = X 1,..., X p : Modell der multiplen linearen Regression Y = X β + ε y i = β 0 + p j=1 β jx ij + ε i i = 1,..., n, j = 1,..., p Dabei ist X = (x ij ) die sogenannte Designmatrix. Vorteil zur einfachen Regression: β j beschreibt den Zusammenhang der j.ten Variable zu Y bedingt auf alle übrigen j 1 Variablen (Kontrolle von ungewollten oder Scheineekten) (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 16 für / 29 Med

Least-Squares Schätzer β 0, β 1,..., β p können (analog zur einfachen linearen Regression) durch Minimierung der Summe des Quadratischen Fehlers geschätzt werden (Kleinste Quadrate oder Least-Squares): MLQ = n i=1( yi (β 0 + β 1 x 1i +... + β p x pi ) )2 min! Der Least-Squares Schätzer ergibt sich nach Umformen zu: ˆβ = (X T X ) 1 X T Y (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 17 für / 29 Med

Residuenanalyse Da die Residuen alle unterschiedliche Varianz besitzen, skaliert man sie auf einheitliche Varianz: r i,stud = r i ˆσ 1 h ii N(0, σ) Frage: Sind die Voraussetzungen für das lineare Modell erfüllt? Zu untersuchen sind: 1 Anpassung des Modells an die Daten: Residuen gegen gettete Wert Ŷ 2 Normalverteilung des Fehlers: QQ-Plot: Quantile der Residuen gegen die theoretische NV 3 Homoskedastizität des Fehlers: Standardisierte Residuen gegen gettete Wert Ŷ, wenn die geeignet mit H standardisierten Residuen abhängig von Ŷ sind, deutet dies auf ungleiche Varianzen der Fehler hin (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 18 für / 29 Med

Umsetzung in R (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 19 für / 29 Med

Beispieldaten: airquality Ozone: Mean ozone in parts per billion from 1300 to 1500 hours at Roosevelt Island Solar.R: Solar radiation in Langleys in the frequency band 4000-7700 Angstroms from 0800 to 1200 hours at Central Park Wind: Average wind speed in miles per hour at 0700 and 1000 hours at LaGuardia Airport Temp: Maximum daily temperature in degrees Fahrenheit at La Guardia Airport Mit diesen Daten kann untersucht werden, welchen Einuss Sonneneinstrahlung, Wind und Temperatur auf die Ozonwerte haben. (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 20 für / 29 Med

Beispiel in R Wir laden den Datensatz airquality data(airquality) Wir untersuchen das Modell: Ozone i = β 0 + β 1 Temp i + ε i... also die Abhängigkeit des Ozons von der Temperatur Aufruf der Funktion lm() test <- lm( formula= Ozone Temp, data= airquality) test ist ein Objekt der Klasse lm Ausgabe in R: Coefficients: (Intercept) Temp -146.995 2.429 (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 21 für / 29 Med

Scatterplot: Ozone Temp plot(temp,ozone) abline(test$coefficients, col=red) 60 70 80 90 0 50 100 150 Temp Ozone (basierend auf Vorarbeiten von Verena Zuber und Bernd Klaus) ( Institut für Med Grundlagen III 17. Dezember 2013 22 / 29

Modelldiagnose R 2 und andere Maÿe des Modells : summary(test) Estimate Std. Error t value Pr(> t ) (Intercept) -146.9955 18.2872-8.038 9.37e-13 Temp 2.4287 0.2331 10.418 < 2e-16 Multiple R-squared: 0.4877, Adjusted R-squared: 0.4832 Koezienten: test$coefficients Gettete Werte Ŷ : test$fitted.values Studentisierte Residuen: ls.diag(test)$std.res Hat-Matrix: ls.diag(test)$hat Verschiedene Diagnoseplots: plot(test) oder plot.lm(test) (u.a. Residuenanalyse) (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 23 für / 29 Med

Modelldiagnose in R I: Residuen gegen gettete Werte Residuen gegen gettete Werte Ŷ zur Untersuchung der Anpassung des Modells an die Daten Keine systematische Abweichung, z.b. Trend oder U-Form 0 20 40 60 80 50 0 50 100 Fitted values Residuals lm(ozone ~ Temp) Residuals vs Fitted 117 62 30 (basierend auf Vorarbeiten von Verena Zuber und Bernd Klaus) ( Institut für Med Grundlagen III 17. Dezember 2013 24 / 29

Modelldiagnose in R II: Residuen-QQ Plot der studentisierten (besondere Standardisierung) gegen die theoretischen (NV) Residuen zur Untersuchung der Normalverteilung des Fehlers Wenn die Residuen normalverteilt sind, sollten sie auf der gestrichelten Geraden liegen Normal Q Q 117 Standardized residuals 2 0 2 4 30 2 1 0 1 2 Theoretical Quantiles lm(ozone ~ Temp) 62 (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 25 für / 29 Med

Modelldiagnose in R III: Standardisierte Residuen gegen Ŷ Standardisierte, absolute Residuen gegen gettete Werte Ŷ zur Untersuchung der Homoskedastizität des Fehlers Keine systematische Abweichung, z.b. ansteigende Varianz 0 20 40 60 80 0.0 0.5 1.0 1.5 2.0 Fitted values Standardized residuals lm(ozone ~ Temp) Scale Location 117 62 30 (basierend auf Vorarbeiten von Verena Zuber und Bernd Klaus) ( Institut für Med Grundlagen III 17. Dezember 2013 26 / 29

Multiple Regression in R Wir untersuchen nun das Modell: Ozone i = β 0 + β 1 Temp i +β 2 Solar.R i + ε i... also die Abhängigkeit des Ozons von der Temperatur und der Sonneneinstrahlung Aufruf der Funktion lm() model2 <- lm( formula= Ozone Temp + Solar.R, data= airquality) Ausgabe in R: Coefficients: (Intercept) Temp Solar.R -145.70316 2.27847 0.05711 (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 27 für / 29 Med

Ausgabe von summary(model2): Estimate Std. Error t value Pr(> t ) (Intercept) -145.70316 18.44672-7.899 2.53e-12 Temp 2.27847 0.24600 9.262 2.22e-15 Solar.R 0.05711 0.02572 2.221 0.0285 Multiple R-squared: 0.5103, Adjusted R-squared: 0.5012 Interpretation: Solar.R besitzt ein β, das signikant von Null verschieden ist (p Wert 0.0285 < 0.05) Das β der Variable Temp verändert sich nur leicht durch die Aufnahme von Solar.R: von 2.4287 zu 2.27847 Das R 2 wird durch die Aufnahme von Solar.R nur noch leicht verbessert: von 0.4832 zu 0.5012 Durch die beiden Variablen Solar.R und Temp kann die Hälfte der Streuung der Ozonmessungen erklärt werden. (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 28 für / 29 Med

Spezikation der Regressionsvariablen lm(formula,...) formula: Hier muss das Modell bzw die Variablen des Modelles speziziert werden. Allgemeiner Aufbau der linearen Einfachregression formula= Y X Beispiel: formula= Ozone Temp Allgemeiner Aufbau der multiplen linearen Regression formula= Y X 1 + X 2 +... + X p Beispiel: formula= Ozone Temp + Solar.R (basierend auf Grundlagen Vorarbeiten III von Verena Zuber 17. unddezember Bernd Klaus) 2013( Institut 29 für / 29 Med