Mathematik III - Statistik für MT(Master)

Ähnliche Dokumente
4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Die Funktion f wird als Regressionsfunktion bezeichnet.

Statistik II für Betriebswirte Vorlesung 12

6.2 Lineare Regression

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Vorlesung: Statistik II für Wirtschaftswissenschaft

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

Regression und Korrelation

Musterlösung. Modulklausur Multivariate Verfahren

Multivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167

Einführung in einige Teilbereiche der Wirtschaftsmathematik für Studierende des Wirtschaftsingenieurwesens

Einführung in die computergestützte Datenanalyse

Einfaktorielle Varianzanalyse

Statistik Vorlesung 7 (Lineare Regression)

Statistik. Datenanalyse mit EXCEL und SPSS. R.01denbourg Verlag München Wien. Von Prof. Dr. Karlheinz Zwerenz. 3., überarbeitete Auflage

Statistik. Einführung in die com putergestützte Daten an alyse. Oldenbourg Verlag München B , überarbeitete Auflage

Tests einzelner linearer Hypothesen I

Statistik. Datenanalyse mit EXCEL und SPSS. Prof. Dr. Karlheinz Zwerenz. R.Oldenbourg Verlag München Wien. Von

Testklausur(1) Mathematik III, Teil Statistik

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Dabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen

a) Man bestimme ein 95%-Konfidenzintervall für den Anteil der Wahlberechtigten, die gegen die Einführung dieses generellen

Inhaltsverzeichnis. Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden

Bivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Klausurvorbereitung - Statistik

Lösung Aufgabe 1 (Regression) Es wurden in einer Befragung zwei metrische Merkmale X und Y erhoben. Betrachten Sie dazu die

Statistik für Ökonomen

1 Beispiel zur Methode der kleinsten Quadrate

Wichtige Definitionen und Aussagen

Übungen mit dem Applet. by Michael Gärtner

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50, ,5 51,7 48,8

Formelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade

Statistische Methoden in den Umweltwissenschaften

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017

Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19

Einführung in die Statistik

Statistische Messdatenauswertung

Inhaltsverzeichnis. 2 Kurzbeschreibung von SPSS Der SPSS-Dateneditor Statistische Analysen mit SPSS DieDaten...

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik

Die Familie der χ 2 (n)-verteilungen

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

Statistik-Klausur vom 11. Februar 2005

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003

Einfache Varianzanalyse für unabhängige Stichproben

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Versuchsplanung. Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling

Biometrische und Ökonometrische Methoden I! Lösungen 3

Einfache Varianzanalyse für abhängige

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.

Übung V Lineares Regressionsmodell

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Statistik für Ökonomen

Franz Kronthaler. Statistik angewandt. Datenanalyse ist (k)eine Kunst. mit dem R Commander. A Springer Spektrum

Lineare Regression mit einem Regressor: Einführung

Mathematik 2 für Naturwissenschaften

Einführung in die Induktive Statistik: Varianzanalyse

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS

Mitschrift zu KV Statistik 2 bei DI Petz

Statistische Methoden in den Umweltwissenschaften

Teil: lineare Regression

Stichwortverzeichnis. Ausgleichsgerade 177 Ausreißer 13, 40

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester 2009, Statistik mit SPSS

Statistik für das Psychologiestudium

Regression und Korrelation (Gurtner)

4.1 Problemstellung. E E i = 0 : Linearität, Additivität. 4 Residuen-Analyse 4.1. PROBLEMSTELLUNG 96. (a) (b) gleiche Varianz var E i = σ 2,

Statistik für. von. Prof. Dr. Josef Bleymüller. und. Prof. Dr. Rafael Weißbach. sowie. Dr. Günther Gehlert. und. Prof. Dr.

Klausur zu Statistik II

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2002

Chi-Quadrat Verfahren

Bivariate Regressionsanalyse

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Elementare Regressionsrechnung

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung

Inhaltsverzeichnis. Teil I Einführung

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

Test von Hypothesen: Signifikanz des Zusammenhangs (F-Test)

Karl Entacher. FH-Salzburg

Statistik I. Prof. Dr. H. Toutenburg

5.4.2 Kovarianz und Korrelation

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Vorlesung 8a. Kovarianz und Korrelation

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen

Hans-Friedrich Eckey / Reinhold Kosfeld / Christian Dreger. Statistik. Grundlagen - Methoden - Beispiele GABLER

2. Spezielle anwendungsrelevante Funktionen

Mathematik für Naturwissenschaften, Teil 2

Vorlesung 12a. Zerlegung der Varianz

Dr. I. Fahrner WiSe 2016/17 Fakultät Grundlagen Hochschule Esslingen Übungsblatt 2. Statistik

Kapitel 5 - Einfaktorielle Experimente mit festen und zufälligen Effekten

Anwendungen der Differentialrechnung

Inhaltsverzeichnis. Vorwort

Statistisches Methodenbuch

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Wahrscheinlichkeitstheorie und Statistik vom

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression

Transkript:

3. Regressionsanalyse Fachbereich Grundlagenwissenschaften Prof. Dr. Viola Weiß Wintersemester 0/03 Mathematik III - Statistik für MTMaster 3. Empirische Regressionsgerade Optimalitätskriterium: Die Summe der quadratischen Abweichungen in vertikaler Richtung zur Regressionsgeraden soll mimimal sein. Methode der kleinsten Quadrate Y = b 0 + b X Formeln zur Berechnung der Schätzwerte für b 0 und b siehe Formelsammlung bzw. Zusammenfassung der Formeln. 3. Güte der Anpassung Streuungszerlegung: SSY = n y i ȳ Gesamtstreuung Es gilt: SSY = SSŶ SSŶ = n ŷ i ȳ erklärte Streuung SSE = n y i ŷ i Reststreuung SSŶ + SSE = = SSY + SSE SSY Es ist B XY = SSŶ das Bestimmtheitsmaß. SSY B XY beschreibt den Anteil der durch die Regression erklärten Streuung an der Gesamtstreuung. Es gilt: 0 B XY B XY = r XY r XY empirischer Korrelationskoeffizient Formeln zur Berechnung der Schätzwerte für b 0 und b siehe Formelsammlung bzw. Zusammenfassung der Formeln. Test auf Modelladäquatheit : Nullhypothese: H 0 : Korrelationskoeffizient = 0 Testgröße: T = r XY n r XY Kritischer Bereich: K =, t n, t n,, Risiko 0 < < r XY empirischer Korrelationskoeffizient t n, -Quantil der t-verteilung n Freiheitsgraden

Test auf Modelladäquatheit : Globaltest aus der Streuungszerlegung analog zur Varianzanalyse Tabelle: Quadrat- Freiheits- tlere Testgröße summe grade Quadratsumme erklärte SSŶ MSŶ = SSŶ Rest SSE n MSE = SSE n T = MSŶ MSE gesamt SSY Nullhypothese: H 0 : eine lineare Regressionsfunktion erklärt den Zusammenhang zwischen X und Y nicht Testgröße: T = MSŶ MSE Kritischer Bereich: K = F,n,, Risiko 0 < < F,n, -Quantil der F-Verteilung,n Freiheitsgraden 3.3 Konfidenzintervalle und Tests für b 0 und b Konfidenzintervall für b : und Konfidenzintervall für b 0 : ˆb Schätzwert für b ŝ b ŝ b = ŝ n = ŝ x i x s X ˆb0 Schätzwert für b 0 n x i ŝ b0 ŝ b 0 = ŝ n n = ŝ x i x ŝ ŝ = n s X s X = ˆb ŝ b t n, ; ˆb + ŝ b t n, ˆb0 ŝ b0 t n, ; ˆb 0 + ŝ b0 t n, n + x s X n y i ŷ i = MSE n n x i n x x i x =

Risiko 0 < < -Quantil der t-verteilung n Freiheitsgraden t n, Mit einer Sicherheit von liegt b bzw. b 0 in dem entsprechenden Intervall. Tests für die Regressionskonstante b 0 : Nullhypothese Alternativhypothese Kritischer Bereich H 0 : b 0 = b H : b 0 b K = ; t n ; t n ; ; H 0 : b 0 b H : b 0 < b K = ; t n ; H 0 : b 0 b H : b 0 > b K = t n ; ; dabei ist b R, 0 und in allen drei Fällen verwendet man die Testgröße Tests für den Regressionskoeffizienten b : T = ˆb 0 b ŝ b0 analog Testgröße T = ˆb b ŝ b 3.3 Konfidenzintervalle für die Regressionsgerade Konfidenzintervall für die Regressionsgerade an fester Stelle x d.h. Konfidenzintervall für EY = b 0 + b x für festes x: ˆb0 + ˆb x ŝ Y t n, ; ˆb 0 + ˆb x + ŝ Y t n, Simultaner Konfidenzbereich für die gesamte Regressionsgerade ˆb0 + ˆb x ŝ Y F,n, ; ˆb 0 + ˆb x + ŝ Y F,n, Konfidenzintervall für Y für festes x d.h. Vorhersage- oder Prognoseintervall für die Zielgröße an der Stelle x: ˆb0 + ˆb x ŝ V t n, ; ˆb 0 + ˆb x + ŝ V t n, 3

Risiko 0 < < ŝ Y ŝ Y = ŝ n + ŝ V ŝ V = ŝ t n, + n + x x n x i x x x n x i x -Quantil der t-verteilung n Freiheitsgraden F,n, -Quantil der F-Verteilung,n Freiheitsgraden 3.4 Linearitätstest nach Fisher Voraussetzung: Mehrfachmessungen, d.h. für einige x-werte liegen mehrere y-werte vor. Idee: Streuungszerlegung wird weiter verfeinert, indem die Reststreuung SSE weiter zerlegt wird. Bezeichnungen: Meßwerte an der Stelle x i : y i,...,y ini i =,...,m und n +...n m = n Zerlegung der Reststreuung SSE: : SSE = m n i j= n i y ij ŷ i SSM = m ȳ i ŷ i = m n i ȳ i ŷ i j= n i SSE = m y ij ȳ i j= SSE = SSM + SSI bilden da: MSI = SSI Streuung der y-werte an den Meßstellen n m MSM = SSM Abweichung von der Linearität m Abweichung Gruppentel vom Prognosewert Linearitätstest nach Fisher: Nullhypothese: H 0 : es besteht ein linearer Zusammenhang Testgröße: T = MSM MSI Kritischer Bereich: K = F m,n m, ; m Anzahl x-werte Meßstellen Risiko 0 < < MSM, MSI siehe oben F m,n m, -Quantil der F-Verteilung m,n m Freiheitsgraden 4

3.5 Zusammenfassung der verwendeten Formeln einschließlich alternativer Berechnungsmöglichkeiten Hinweis: Das - Zeichen steht in allen Formeln für n. Grundlegende Formeln: Formel Quadratsumme s X s X = xi x = x i n x = x i x = x i n x s Y s Y = yi ȳ = yi nȳ SSY = y i ȳ = yi nȳ s XY s XY = xi xy i ȳ SXY = x i xy i ȳ = x i y i n xȳ = x i y i n xȳ xi xy i ȳ r XY r XY = r XY = xi x yi ȳ = s XY s X s Y SXY SSY Weitere Größen für Konfidenzintervalle, Tests und Prognosen: Regressionsparameter ˆb = n x i y i x i y i n x i x i x ˆb0 = i y i x i x i y i n x i x i s X, s Y, s XY, r XY ˆb = r XY s Y s X = s XY s X ˆb0 = ȳ ˆb x Restvarianz ŝ = n y i ŷ i ŝ = s Y r XY n n Streuungszerlegung Quadratsummen ˆb = SXY ŝ = SSY ˆb SXY n Total: SSY = y i ȳ SSY = s Y SSY Rest: SSE = y i ŷ i SSE = s Y r XY SSE = SSY ˆb SXY Erklärt: SSŶ = ŷ i ȳ SSŶ = s Y n ŝ SSŶ = ˆb SXY Streuungen für KI, Tests Anstieg: ŝ b = ŝ Absolutglied: ŝ b 0 = ŝ xi x ŝ b = ŝ s X x i n ŝ x i x b 0 = ŝ n + x s X ŝ b = ŝ ŝ b 0 = ŝ n + x 5