Statistik II für Betriebswirte Vorlesung 8

Größe: px
Ab Seite anzeigen:

Download "Statistik II für Betriebswirte Vorlesung 8"

Transkript

1 Statistik II für Betriebswirte Vorlesung 8 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 3. Dezember 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

2 7. Regressionsanalyse 7.1. Lineare Regression Während bei der Korrelationsanalyse eine qualitative Analyse von Zusammenhängen zwischen Merkmalen im Vordergrund stand, führt man bei der Regressionsanalyse eine quantitative Analyse von derartigen Zusammenhängen durch. Insbesondere sucht man im Rahmen einer Regressionsanalyse, z.b. auf der Basis von Beobachtungen (x 1, y 1 ),... (x n, y n ), nach einem konkreten funktionalen Zusammenhang, der die Abhängigkeit eines Merkmals Y von einer Merkmalsgröße X beschreibt. (einfache Regression) Im Beispiel 6.4 kann man z.b. die Frage stellen, ob ein funktionaler Zusammenhang zwischen den Variablen Jahresumsatz (Y ) und der Prädiktorvariablen Verkaufsfläche (X ) besteht? Gesucht ist also eine Funktion f, die aus der Prädiktorvariablen Verkaufsfläche (X ) eine Vorhersage für die abhängige Variable Jahresumsatz (Y ) liefert. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

3 Regression Daten: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ) Annahme: Es existiert ein kausaler Zusammenhang der Form y = f (x) zwischen der abhängigen Variable y und der Prädiktorvariable x. Weitere Annahme : Die Funktion f hat eine bestimmte Form. Beispiele: Lineare Regression (der Zusammenhang wird also durch eine Gerade beschrieben): y = b 0 + b 1 x, Quadratische Regression (der Zusammenhang wird durch eine Parabel beschrieben): y = b 0 + b 1 x + b 2 x 2, usw. Beachte: Der Zusammenhang ist in der Regel nicht exakt zu beobachten. Das Modell (Lineare Regression) lautet: Y = b 0 + b 1 x + ε Dabei bezeichnet ε eine zufällig Störgröße. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

4 Streudiagramm für die Daten aus Beispiel 6.4 Simple Regression - Jahresumsatz vs. Verkaufsfläche Dr. Andreas Dependent Wünsche variable: Jahresumsatz Statistik II für (Mio Betriebswirte Euro) Vorlesung 8 Version: 28. November

5 Die Methode der kleinsten Quadrate Daten: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ) Annahme: Es existiert ein linearer Zusammenhang: Y = b 0 + b 1 x + ε Gesucht ist diejenige Gerade, die den Zusammenhang zwischen Y und x am besten beschreibt. Bestimme die Gerade so, dass die Summe der quadrierten senkrechten Abstände zwischen der Gerade und den Daten minimal wird. Datum an der Stelle xi : y i Wert der Geraden an der Stelle xi : b 0 + b 1 x i Differenz: yi (b 0 + b 1 x i ) Minimiere: QS(b 0, b 1 ) = n (y i (b 0 + b 1 x i )) 2. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

6 Die Regressionsgerade Die Lösung des Extremwertproblems liefert Schätzer für die Steigung und den Achsenabschnitt der Geraden: n n (x i x)(y i y) x i y i nx y ˆb 1 = = = n n s Y r (x i x) 2 xi 2 nx 2 s X,Y, ˆb0 = y ˆb 1 x X und damit die Gleichung der geschätzten Regressionsgeraden ŷ = ˆb 0 + ˆb 1 x. Der Wert der geschätzten Regressionsgerade an der Stelle x i ist ŷ i = ˆb 0 + ˆb 1 x i. Die Abweichungen y i ŷ i nennt man Residuen. n Die Summe der Residuen ist Null, (y i ŷ i ) = 0. Die Regressionsgerade verläuft durch (x, y), den Schwerpunkt. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

7 Weitere Bezeichnungen und Bemerkungen Ein mögliche andere Parametrisierung ist a = b 0 und b = b 1. = Modellgleichung: Y = a + bx + ε. Ist eine funktionale Abhängigkeit der Größe Y von der Größe X gesucht, nennt man X und Y unter anderem auch: Regressor und Regressand, Einflussgröße und Wirkungsgröße, unabhängige Variable und abhängige Variable, Prädiktorvariable und Zielvariable, exogene Variable und endogene Variable. Der Name Regression ( Rückschritt ) geht auf Galton zurück. Ausgangspunkt war damals eine Untersuchung der Größe der Söhne (Variable Y ) im Zusammenhang mit der Größe der Väter (Variable X ) von Pearson. Galton schrieb damals: Each peculiarity in a man is shared by his kinsmen but on the average in a less degree. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

8 Beispiel 7.1 Jahresumsatz und Verkaufsfläche Fortsetzung vom Beispiel 6.4: Daten aus Bleymüller et al, Statistik für Wirtschaftswissenschaftler, 2004, Kap. 20. i Filiale x i Verkaufsfläche in Tsd. qm Jahresumsatz in Mio. e y i i x i y i i x i y i Berechnung de Regressionsgeraden in Statgraphics unter: Relate One Factor Simple Regression (Beziehungen Ein Faktor Einfache Regression). Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

9 Regressionsgerade im Beispiel 7.1 (Statgraphics) Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

10 Weitere Fragen zur Regression im Beispiel 7.1 Schätzer: ˆb 0 = 0.606, ˆb 1 = Fragen: Wie genau sind diese Schätzungen? Besteht ein (signifikanter) Einfluss der Verkaufsfläche auf den Jahresumsatz? H 0 : b 1 = 0 Wie gut beschreibt das lineare Regressionsmodell die Situation? Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

11 Genauigkeit der Schätzer für die Parameter Beachte: Vor der Datenerhebung sind ˆb 0 und ˆb 1 zufällig. Die mathematische Statistik (allgemeines lineares Modell) liefert Schätzer für die Varianzen von ˆb 0 und ˆb 1 n Schätzer für die Varianz von ˆb 0 : Schätzer für die Varianz von ˆb 1 : Dabei ist ˆσ 2 = s 2 Rest = 1 n 2 n (y i ŷ i ) 2 = 1 n 2 s 2 b 0 = s2 Rest n s 2 b 1 = s2 Rest n 1 n xi 2 n (x i x) 2 1 n (x i x) 2 n (y i (ˆb 0 + ˆb 1 x i )) 2 der Schätzer für die Varianz der Störgrößen. Je größer der Stichprobenumfang n, desto genauer sind die Schätzungen! Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

12 Streuungszerlegung Es gilt die Streuungszerlegung SST = SSE + SSR mit n SST = (y i y) 2, der Totalvariabilität (Totalvarianz); SSE = SSR = n (ŷ i y) 2, der erklärten Variabilität (erklärte Varianz); n (y i ŷ i ) 2, der Restvariabilität (Residualvarianz). Das Verhältnis B = SSE SST = 1 SSR SST heißt Bestimmtheitsmaß. Es gelten 0 B 1 und B = r 2 mit dem gewöhnlichen X,Y empirischen Korrelationskoeffizienten r X,Y. Je besser das Modell ist, desto kleiner ist die Residualvarianz, bzw. desto größer ist das Bestimmtheitsmaß B! Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

13 Das stochastische Modell Weiterführende statistische Aussagen, wie Konfidenzintervalle oder statistische Tests, basieren auf einem geeigneten stochastischen Modell. Üblicherweise nimmt man in dieser Situation an, dass Y i = b 0 + b 1 x i + ε i, i = 1,..., n, gilt, wobei die Werte x i (zunächst) deterministische, einstellbare Werte sind und die zufälligen Störgrößen durch unabhängige normalverteilte Zufallsgrößen ε i ( zufällige Fehler ) mit Eε i = 0 und Varε i = σ 2 (unbekannt, aber konstant) verursacht werden. Unter diesen Bedingungen sind ˆb 0 bzw. ˆb 1 erwartungstreue und konsistente Schätzfunktionen für die Modellparameter b 0 bzw. b 1. Die Standardabweichung σ der Fehler kann geschätzt werden durch SSR ˆσ = s Rest = n 2. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

14 Konfidenzintervalle zum Niveau 1 α für die Parameter Ein Konfidenzintervall für b 0 ist [ˆb 0 s b0 t n 2;1 α/2 ; ˆb0 + s b0 t n 2;1 α/2 ]. Ein Konfidenzintervall für b 1 ist [ˆb 1 s b1 t n 2;1 α/2 ; ˆb 1 + s b1 t n 2;1 α/2 ]. Ein [ Konfidenzintervall für die] Fehlervarianz [ σ 2 (n 2)ˆσ 2 (n 2)ˆσ 2 SSR χ 2 ; n 2;1 α/2 χ 2 = n 2;α/2 χ 2 n 2;1 α/2 ist ; SSR χ 2 n 2;α/2 ]. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

15 Konfidenzintervalle im Beispiel 7.1 Mit ˆb 0 = , sˆb 0 = , ˆb 1 = , sˆb 1 = (vgl. Statgraphics-Ergebnisse auf Folie 16) lauten die Konfidenzintervalle zum Konfidenzniveau 95% für: b 0 : [ ; ] und b 1 : [ ; ]. Mit SSR = ist die Punktschätzung für σ 2, der Varianz der Fehler: ˆσ 2 = 1 n 2 SSR = = (vgl. Statgraphics-Ergebnisse auf Folie 18) Damit ist das Konfidenzintervall für σ 2 zum Konfidenzniveau 95%: [ ; ]. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

16 Tests für die Parameter b 0 und b 1 Hypothesen: H 0 : b 0 = b 00, H A : b 0 b 00 ; bzw. H 0 : b 1 = b 10, H A : b 1 b 10. Testgrößen: T b0 = ˆb 0 b 00 s b0 bzw. T b1 = ˆb 1 b 10 s b1 Die Testgrößen sind unter H 0 t verteilt mit n 2 Freiheitsgraden. Kritischer Bereich (Niveau α) : K = {t R : t > t n 2;1 α/2 }. Analog können einseitige Tests durchgeführt werden. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

17 t-tests im Beispiel 7.1 mit Statgraphics Simple Regression - Jahresumsatz vs. Verkaufsfläche Dependent variable: Jahresumsatz (Mio Euro) Independent variable: Verkaufsfläche (1000 qm) Linear model: Y = a + b*x Coefficients Least Squares Standard T Parameter Estimate Error Statistic P-Value Intercept 0, , , ,0623 Slope 5, , ,6375 0,0000 Analysis of Variance Source Sum of Squares Df Mean Square F-Ratio P-Value Model 51, , ,08 0,0000 Residual 1, , Total (Corr.) 53, Test mit H 0 : b 0 = 0 gegen H A : b 0 0; ˆb0 = , p = > 0.05 = α H 0 wird nicht abgelehnt, d.h., man kann nicht darauf schließen, dass der Koeffizient b 0 signifikant von 0 verschieden ist. Correlation Coefficient = 0, R-squared = 96,8855 percent R-squared (adjusted for d.f.) = 96,5741 percent Standard Error of Est. = 0, Test mit H 0 : b 1 = 0 gegen H A : b 1 0; ˆb 1 = , p = < 0.05 = α H 0 wird abgelehnt, d.h., der Koeffizient ist signifikant von 0 verschieden. b 1 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

18 F-Test für die Hypothese H 0 : b 1 = 0 Es besteht also ein signifikanter Einfluss der Verkaufsfläche auf den Jahresumsatz. Die Hypothesen H 0 : b 1 = 0 gegen H A : b 1 0 können auch mit dem F-Test getestet werden. Dieser Test spielt z.b. im Modell der multiplen parameterlinearen Regression eine eigenständige Rolle. Testgröße: 1 1 T = SSE MSE = SSR MSR 1 n 2 Falls H 0 : b 1 = 0 gilt ist T F 1,n 2 und damit ist der kritische Bereich: K = {t : t > F 1,n 2;1 α }. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

19 Intercept 0, , , ,0623 F-Test Slope im Beispiel 5, mit 0, Statgraphics 17,6375 0,0000 Analysis of Variance Source Sum of Squares Df Mean Square F-Ratio P-Value Model 51, , ,08 0,0000 Residual 1, , Total (Corr.) 53, Correlation Coefficient 1 = 0, t = = R-squared = 96, percent = > 4.96 = F 1,10;0.95 R-squared (adjusted for d.f.) = 96,5741 percent = Standard H 0 wird Error abgelehnt. of Est. = 0, (Gleiches Ergebnis wie beim t-test.) Zusammenhang zum t-test: Ist t t n 2, dann ist t 2 F 1,n 2. Hier: = Zusammenhang zum Bestimmtheitsmaß B: Ist t die Realisierung der Testgröße des F-Tests, dann gilt: 1 n 2 t n 2 t = = = = B Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

20 Konfidenzintervalle für die Regressionsgerade Häufig möchte man jedoch Konfidenzintervalle für den Wert der Regressionsgerade an einer Stelle x (oder für ein Intervall von x Werten) bestimmen, d.h. für EY (x) = b 0 + b 1 x. Ein solches Konfidenzintervall zum Niveau 1 α kann berechnet werden durch [ ŷ(x) d(x) ; ŷ(x) + d(x) ] mit ŷ(x) = ˆb 0 + ˆb 1 x und d(x) = ˆσ t n 2,1 α/2 1 n (x x)2 +. n (x i x) 2 Für unterschiedliche Werte x erhält man unterschiedliche Abstände zwischen der oberen und unteren Grenze. Für alle x Werte betrachtet ergibt sich ein Konfidenzstreifen (Konfidenzschlauch), der an der Stelle x = x am schmalsten ist. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

21 Konfidenzstreifen im Beispiel (Statgraphics) Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

22 Prognoseintervalle für Y (x) Berechnet man ein zufälliges Intervall, welches mit einer vorgegebenen Wahrscheinlichkeit 1 α eine Realisierung von Y (x) = b 0 + b 1 x + ε überdeckt (Vorhersage für eine neue Beoabachtung an einer Stelle x), erhält man ein sogenanntes Prognoseintervall für Y (x) zum Niveau 1 α. Unter den gemachten Voraussetzungen berechnet man [ ŷ(x) d(x) ; ŷ(x) + d(x) ] mit ŷ(x) = ˆb 0 + ˆb 1 x und d(x) = ˆσ t n 2,1 α/ (x x)2 +. n n (x i x) 2 Bei Betrachtung beliebiger x Werte erhält man wieder einen Streifen um die Regressionsgerade, den Prognosestreifen. Er ist breiter als der zugehörige Konfidenzstreifen zum selben Niveau. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

23 Prognosestreifen im Beispiel (Statgraphics) Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

24 Konfidenz- und Prognosestreifen im Beispiel (Statgraphics) Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

25 Residualanalyse zur Überprüfung des Modells Ist der Modellansatz, insbesondere die Normalverteilungsannahme der zufälligen Fehler ε i, i = 1,..., n, richtig, dann sind die Residuen ˆε i = Y i ŷ i näherungsweise unabhängig und identisch normalverteilt. Diese Eigenschaft kann anschaulich grafisch (Residualanalyse) überprüft oder durch Anwendung statistischer Tests untersucht werden. Die Residualanalyse ist ein deskriptives Verfahren zur Überprüfung der Modellannahmen an ε 1 ;... ; ε n. Mögliche Teilschritte sind dabei: A: Streudiagramm der Daten mit der Regessionsgerade, B: Streudiagramm der Residuen gegen die vorhergesagten Werte ŷ i (oder z.b. auch gegen die Fallnummern der x i Werte), C: Normalverteilungs-Q-Q-Plot der Residuen, D: Histogramm der Residuen mit angepasster Normalverteilungsdichte. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

26 Streudiagramm und Regressionsgerade im Beispiel 7.1 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

27 Streudiagramm der Residuen im Beispiel 7.1 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

28 Normalverteilungs-Q-Q-Plot im Beispiel 7.1 (Statgraphics) Tests for Normality for RESIDUALS Dr. Andreas Wünsche Statistik Test II für Betriebswirte Statistic Vorlesung P-Value 8 Version: 28. November

29 Histogramm der Residuen im Beispiel 7.1 (Statgraphics) Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

30 Shapiro-Wilk-Test im Beispiel 7.1 (Statgraphics) Tests for Normality for RESIDUALS Test Statistic P-Value Shapiro-Wilk W 0, ,18088 Tests for Normality for RESIDUALS Test Statistic P-Value Shapiro-Wilk W 0, ,18088 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November

Statistik II für Betriebswirte Vorlesung 11

Statistik II für Betriebswirte Vorlesung 11 Statistik II für Betriebswirte Vorlesung 11 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 18. Januar 2017 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung

Mehr

Versuchsplanung und multivariate Statistik Sommersemester 2018

Versuchsplanung und multivariate Statistik Sommersemester 2018 Versuchsplanung und multivariate Statistik Sommersemester 2018 Vorlesung 11: Lineare und nichtlineare Modellierung I Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 6.6.2018

Mehr

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl

Mehr

Statistik II für Betriebswirte Vorlesung 11

Statistik II für Betriebswirte Vorlesung 11 Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 07. Januar 2019 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:

Mehr

Statistik II für Betriebswirte Vorlesung 12

Statistik II für Betriebswirte Vorlesung 12 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 12 11. Januar 2013 7.3. Multiple parameterlineare Regression Im Folgenden soll die

Mehr

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)

Mehr

6. Tutoriumsserie Statistik II

6. Tutoriumsserie Statistik II 6. Tutoriumsserie Statistik II 1. Aufgabe: Eine Unternehmensabteilung ist ausschließlich mit der Herstellung eines einzigen Produktes beschäftigt. Für 10 Perioden wurden folgende Produktmenge y und Gesamtkosten

Mehr

Prognoseintervalle für y 0 gegeben x 0

Prognoseintervalle für y 0 gegeben x 0 10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen

Mehr

11. weitere Übungsaufgaben Statistik II WiSe 2017/2018

11. weitere Übungsaufgaben Statistik II WiSe 2017/2018 11. weitere Übungsaufgaben Statistik II WiSe 2017/2018 1. Aufgabe: Bei 100 Fahrzeugen des gleichen Typs sind neben dem Preis (PREIS) auch die gefahrene Strecke (MEILEN) und die Anzahl der Werkstattbesuche

Mehr

Versuchsplanung und multivariate Statistik Sommersemester 2018

Versuchsplanung und multivariate Statistik Sommersemester 2018 Versuchsplanung und multivariate Statistik Sommersemester 2018 Vorlesung 12: Lineare und nichtlineare Modellierung II Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 13.6.2018

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Die Funktion f wird als Regressionsfunktion bezeichnet.

Die Funktion f wird als Regressionsfunktion bezeichnet. Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

1 Beispiel zur Methode der kleinsten Quadrate

1 Beispiel zur Methode der kleinsten Quadrate 1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25

Mehr

Biostatistik 101 Korrelation - Regressionsanalysen

Biostatistik 101 Korrelation - Regressionsanalysen Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 carl.herrmann@uni-heidelberg.de Korrelation Sind Alter und Blutdruck miteinander

Mehr

Einführung in die Induktive Statistik: Regressionsanalyse

Einführung in die Induktive Statistik: Regressionsanalyse Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse

Mehr

Schweizer Statistiktage, Aarau, 18. Nov. 2004

Schweizer Statistiktage, Aarau, 18. Nov. 2004 Schweizer Statistiktage, Aarau, 18. Nov. 2004 Qualitative Überprüfung der Modellannahmen in der linearen Regressionsrechnung am Beispiel der Untersuchung der Alterssterblichkeit bei Hitzeperioden in der

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula

Mehr

Statistik II für Betriebswirte Vorlesung 4

Statistik II für Betriebswirte Vorlesung 4 Statistik II für Betriebswirte Vorlesung 4 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 6. November 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 4 Version:

Mehr

Statistik II für Betriebswirte Vorlesung 11

Statistik II für Betriebswirte Vorlesung 11 Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 08. Januar 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:

Mehr

6.2 Lineare Regression

6.2 Lineare Regression 6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller

Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit

Mehr

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers 4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis

Mehr

Kurs Empirische Wirtschaftsforschung

Kurs Empirische Wirtschaftsforschung Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische

Mehr

Schätzung im multiplen linearen Modell VI

Schätzung im multiplen linearen Modell VI Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Deskriptive Beschreibung linearer Zusammenhänge

Deskriptive Beschreibung linearer Zusammenhänge 9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,

Mehr

Lineare Regression. Kapitel Regressionsgerade

Lineare Regression. Kapitel Regressionsgerade Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell

Mehr

Instrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen.

Instrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen. Gliederung Grundidee Einfaches lineares Modell KQ-Methode (Suche nach der besten Geraden) Einfluss von Ausreißern Güte des Modells (Bestimmtheitsmaß R²) Multiple Regression Noch Fragen? Lineare Regression

Mehr

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte

Mehr

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

2.5 Lineare Regressionsmodelle

2.5 Lineare Regressionsmodelle 2.5.1 Wiederholung aus Statistik I Gegeben Datenpunkte (Y i, X i ) schätze die beste Gerade Y i = β 0 + β 1 X i, i = 1,..., n. 2 Induktive Statistik 409 Bsp. 2.30. [Kaffeeverkauf auf drei Flohmärkten]

Mehr

Bachelorprüfung: Statistik (1 Stunde)

Bachelorprüfung: Statistik (1 Stunde) Prof. H.R. Künsch D-BIOL, D-CHAB Winter 2010 Bachelorprüfung: Statistik (1 Stunde) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt. Natels sind auszuschalten!

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

Statistik II für Betriebswirte Vorlesung 5

Statistik II für Betriebswirte Vorlesung 5 Statistik II für Betriebswirte Vorlesung 5 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. November 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 5 Version:

Mehr

Multiple Regression III

Multiple Regression III Multiple Regression III Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Überprüfung der Modellannahmen Residuen-Plot Normal-Q-Q-Plot Cook s Distanz-Plot Maßnahmen bei Abweichungen von Modellannahmen

Mehr

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem

Mehr

Statistik II für Betriebswirte Vorlesung 1

Statistik II für Betriebswirte Vorlesung 1 Statistik II für Betriebswirte Vorlesung 1 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. Oktober 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 1 Version:

Mehr

simple lineare Regression kurvilineare Regression Bestimmtheitsmaß und Konfidenzintervall

simple lineare Regression kurvilineare Regression Bestimmtheitsmaß und Konfidenzintervall Regression Korrelation simple lineare Regression kurvilineare Regression Bestimmtheitsmaß und Konfidenzintervall Zusammenhänge zw. Variablen Betrachtet man mehr als eine Variable, so besteht immer auch

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 11. Juli 016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests. 0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

V. Das lineare Regressionsmodell

V. Das lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Tino Conrad, M.Sc. Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2016 Übung zur

Mehr

Regression und Korrelation

Regression und Korrelation Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

Goethe-Universität Frankfurt

Goethe-Universität Frankfurt Goethe-Universität Frankfurt Fachbereich Wirtschaftswissenschaft PD Dr. Martin Biewen Dr. Ralf Wilke Sommersemester 2006 Klausur Statistik II 1. Alle Aufgaben sind zu beantworten. 2. Bitte runden Sie Ihre

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Ausgangsdaten Bundesliga 2008/2009 Gegeben: Daten zu den 18 Vereinen der ersten Bundesliga

Mehr

Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen

Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen 4 Multiple lineare Regression Heteroskedastische Störgrößen 4.10 Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen Ein approximatives

Mehr

Mathematik III - Statistik für MT(Master)

Mathematik III - Statistik für MT(Master) 3. Regressionsanalyse Fachbereich Grundlagenwissenschaften Prof. Dr. Viola Weiß Wintersemester 0/03 Mathematik III - Statistik für MTMaster 3. Empirische Regressionsgerade Optimalitätskriterium: Die Summe

Mehr

Musterlösung. Kind Blume (beredet) Blume (nicht beredet)

Musterlösung. Kind Blume (beredet) Blume (nicht beredet) Prüfung Statistik Sommer 2012 Musterlösung 1. (9 Punkte) F. Lauer möchte das Gerücht überprüfen, dass Blumen schneller wachsen, wenn man mit ihnen redet. Daher kauft sie acht identische Blumenzwiebeln,

Mehr

6.2 Regressionsanalyse I: Die lineare Einfachregression

6.2 Regressionsanalyse I: Die lineare Einfachregression 6.2 Regressionsanalyse I: Die lineare Einfachregression 6.2.1 Grundbegriffe und Hintergrund Bedeutung der Regression: Eines der am häufigsten verwendeten statistischen Verfahren. Vielfache Anwendung in

Mehr

Stochastik Praktikum Lineare Modelle

Stochastik Praktikum Lineare Modelle Stochastik Praktikum Lineare Modelle Thorsten Dickhaus Humboldt-Universität zu Berlin 06.10.2010 Übersicht 1 Einfache lineare Regression 2 Multiple lineare Regression 3 Varianzanalyse 4 Verallgemeinerte

Mehr

Lineare Modelle in R: Klassische lineare Regression

Lineare Modelle in R: Klassische lineare Regression Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)

Mehr

Statistik für Ingenieure Vorlesung 13

Statistik für Ingenieure Vorlesung 13 Statistik für Ingenieure Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 6. Februar 2018 5.1.4. Weitere ausgewählte statistische Tests a) Binomialtest Der Binomialtest

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn

Mehr

epg = read.table(file.path(pfadu, "epg.txt")) amp = read.table(file.path(pfadu, "dbdauer.txt"))

epg = read.table(file.path(pfadu, epg.txt)) amp = read.table(file.path(pfadu, dbdauer.txt)) Kovarianz, Korrela-on, (lineare) Regression Jonathan Harrington & Ulrich Reubold library(laece) epg = read.table(file.path(pfadu, "epg.txt")) amp = read.table(file.path(pfadu, "dbdauer.txt")) Kovarianz,

Mehr

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.

Mehr

Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.

Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression. Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, 10.07.017 Wahrscheinlichkeit und Statistik Patric Müller WBL

Mehr

Lineare Regression in R, Teil 1

Lineare Regression in R, Teil 1 Lineare Regression in R, Teil 1 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel October 6, 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools aus

Mehr

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

Zusammenfassung 11. Sara dos Reis.

Zusammenfassung 11. Sara dos Reis. Zusammenfassung 11 Sara dos Reis sdosreis@student.ethz.ch Diese Zusammenfassungen wollen nicht ein Ersatz des Skriptes oder der Slides sein, sie sind nur eine Sammlung von Hinweise zur Theorie, die benötigt

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen

Mehr

Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:

Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Aufgabe 1 (8=2+2+2+2 Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Die Zufallsvariable X bezeichne die Note. 1443533523253. a) Wie groß ist h(x 5)? Kreuzen

Mehr

Statistik II. Regressionsanalyse. Statistik II

Statistik II. Regressionsanalyse. Statistik II Statistik II Regressionsanalyse Statistik II - 23.06.2006 1 Einfachregression Annahmen an die Störterme : 1. sind unabhängige Realisationen der Zufallsvariable, d.h. i.i.d. (unabh.-identisch verteilt)

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden in Quantitative Methoden Mag. Dipl.Ing. Dr. Pantelis Christodoulides & Mag. Dr. Karin Waldherr SS 2011 Christodoulides / Waldherr in Quantitative Methoden- 2.VO 1/47 Historisches Regression geht auf Galton

Mehr

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse Einleitung Statistik Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Der Begriff Varianzanalyse (analysis of variance, ANOVA) taucht an vielen Stellen in der Statistik mit unterschiedlichen

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte)

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte) Aufgabe 3 (6 + 4 + 8 + 4 + 10 + 4 + 9 + 4 + 8 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe eines multiplen linearen Regressionsmodells soll auf

Mehr

Statistische Datenanalyse mit R, Korrelation und Regression. Dr. Andrea Denecke Leibniz Universität IT-Services

Statistische Datenanalyse mit R, Korrelation und Regression. Dr. Andrea Denecke Leibniz Universität IT-Services Statistische Datenanalyse mit R, Korrelation und Regression Dr. Andrea Denecke Leibniz Universität IT-Services Korrelationsanalyse Eine Korrelationsanalyse soll herausfinden Ob ein linearer Zusammenhang

Mehr

Dabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen

Dabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen Lineare Regression und Matrizen. Einführendes Beispiel Der im Kapitel Skalarprodukt gewählte Lösungsweg für das Problem der linearen Regression kann auch mit Matrizen formuliert werden. Die Idee wird zunächst

Mehr

EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN

EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN 1 EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN UFBAU 1 Historie 2 Anwendungen / Ziele 3 Lineare Regression/ Beispiel KQ 4 Nichtlineare Regression 5 Eigenschaften der Schätzer istorie früheste Form

Mehr

Varianzvergleiche bei normalverteilten Zufallsvariablen

Varianzvergleiche bei normalverteilten Zufallsvariablen 9 Mittelwert- und Varianzvergleiche Varianzvergleiche bei zwei unabhängigen Stichproben 9.3 Varianzvergleiche bei normalverteilten Zufallsvariablen Nächste Anwendung: Vergleich der Varianzen σa 2 und σ2

Mehr

Fragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression

Fragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression Fragen Welche Unsicherheitsfaktoren beeinflussen die Schätzung einer Regressionsgeraden? Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004

Mehr

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3. Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die

Mehr

Die Stochastischen Eigenschaften von OLS

Die Stochastischen Eigenschaften von OLS Die Stochastischen Eigenschaften von OLS Das Bivariate Modell Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Wiederholung

Mehr

Biometrieübung 10 Lineare Regression. 2. Abhängigkeit der Körpergröße von der Schuhgröße bei Männern

Biometrieübung 10 Lineare Regression. 2. Abhängigkeit der Körpergröße von der Schuhgröße bei Männern Biometrieübung 10 (lineare Regression) - Aufgabe Biometrieübung 10 Lineare Regression Aufgabe 1. Düngungsversuch In einem Düngeversuch mit k=9 Düngungsstufen x i erhielt man Erträge y i. Im (X, Y)- Koordinatensystem

Mehr

x t2 y t = 160, y = 8, y y = 3400 t=1

x t2 y t = 160, y = 8, y y = 3400 t=1 Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =

Mehr

3.3 Konfidenzintervalle für Regressionskoeffizienten

3.3 Konfidenzintervalle für Regressionskoeffizienten 3.3 Konfidenzintervalle für Regressionskoeffizienten Konfidenzintervall (Intervallschätzung): Angabe des Bereichs, in dem der "wahre" Regressionskoeffizient mit einer großen Wahrscheinlichkeit liegen wird

Mehr

Kapitel 10. Multikollinearität. Exakte Multikollinearität Beinahe Multikollinearität

Kapitel 10. Multikollinearität. Exakte Multikollinearität Beinahe Multikollinearität Kapitel 0 Multikollinearität Exakte Multikollinearität Beinahe Multikollinearität Exakte Multikollinearität Unser Modell lautet y = Xb + u, Dimension von X: n x k Annahme : rg(x) = k Wenn sich eine oder

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr