Statistik II für Betriebswirte Vorlesung 11

Größe: px
Ab Seite anzeigen:

Download "Statistik II für Betriebswirte Vorlesung 11"

Transkript

1 Statistik II für Betriebswirte Vorlesung 11 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 18. Januar 2017 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

2 7. Regressionsanalyse 7.1. Einleitung Während bei der Korrelationsanalyse eine qualitative Analyse von Zusammenhängen zwischen Merkmalen im Vordergrund stand, führt man bei der Regressionsanalyse eine quantitative Analyse von derartigen Zusammenhängen durch. Insbesondere sucht man im Rahmen einer Regressionsanalyse z.b. auf der Basis von Beobachtungen (x 1, y 1 ),... (x n, y n ) nach einem konkreten funktionalen Zusammenhang, der die Abhängigkeit eines Merkmals Y von einer Merkmalsgröße X (einfache Regression) (bei der multiplen Regression von mehreren Größen X 1,..., X k ) möglichst gut beschreibt, wobei ein Zufallseinfluss und damit eine Streuung der Werte mit berücksichtigt wird. Eine ganz andere Aufgabenstellung wäre z.b. die Bestimmung eines Interpolationspolynoms durch die gegebenen Punkte, bei dem man aber einen Zufallseinfluss in der Formel unberechtigterweise verewigen würde und oft sehr viele Parameter bestimmen muss. Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

3 Die Methode der kleinsten Quadrate Eine grundlegende Methode für die Regressionsanalyse ist die Methode der kleinsten Quadrate. Gegeben seien z.b. Punkte (x 1, y 1 ),..., (x n, y n ) und eine Klasse R von möglichen Regressionsfunktionen, so dass die funktionale Abhängigkeit der Größe y von der Größe x voraussichtlich gut durch eine Funktion aus dieser Klasse beschreibbar ist. Die Methode der kleinsten Quadrate besteht dann darin, aus R diejenige Funktion y = f (x) als empirische Regressionsfunktion zu den Daten auszuwählen, für die die Summe der Quadrate der Abstände zwischen den theoretischen Funktionswerten f (x i ) und den beobachteten Funktionswerten y i (jeweils bei den Argumenten x i, i = 1,..., n), d.h. die Summe der Abweichungsquadrate oder n Residual-Quadratsumme d = (y i f (x i )) 2 minimal wird. Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

4 Weitere Bezeichnungen und Bemerkungen Die Abweichungen y i f (x i ) (bei einer gewählten Funktion f (x)) nennt man Residuen. Ist eine funktionale Abhängigkeit der Größe Y von der Größe X gesucht, nennt man X auch Regressor, exogene Variable oder Einflussgröße. Die Größe Y wird auch Regressand, endogene Variable oder Wirkungsgröße genannt. Der Name Regression ( Rückschritt ) geht auf Galton zurück. Ausgangspunkt war damals eine Untersuchung der Größe der Söhne (Variable Y ) im Zusammenhang mit der Größe der Väter (Variable X ) von Pearson. Galton schrieb damals: Each peculiarity in a man is shared by his kinsmen but on the average in a less degree. Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

5 7.2. Einfache lineare Regression Gegeben seien Punkte (x 1, y 1 ),..., (x n, y n ). Die Abhängigkeit der y Werte von den x Werten soll bei der einfachen linearen Regression durch eine (affin-)lineare Funktion y = f (x) = a + bx beschrieben werden. Die Grafik der mit der Methode der kleinsten Quadrate geschätzten Regressionsfunktion nennt man dann Ausgleichsgerade oder Regressionsgerade. Zur Bestimmung der geschätzten Regressionsfunktion muss die Quadratsumme QS = QS(a, b) als Funktion der beiden Parameter (Variablen) minimiert werden, QS = QS(a, b) = n (y i f (x i )) 2 = n (y i a bx i ) 2. Als notwendige Bedingung müssen für die optimalen Werte (die Schätzwerte) â und ˆb die ersten partiellen Ableitungen der Funktion QS(a, b) nach a und b Null werden. Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

6 Die Regressionsgerade Man erhält als Schätzwerte der Koeffizienten n n (x i x)(y i y) x i y i nx y ˆb = = = n n s Y r (x i x) 2 xi 2 nx 2 s X,Y, X und damit die Gleichung der geschätzten Regressionsgeraden ŷ = â + ˆb x. Dann gelten mit den Schätzwerten ŷ i = â + ˆb x i n die Summe der Residuen ist Null, (y i ŷ i ) = 0 ; die Summe n x i(y i ŷ i ) ist Null; â = y ˆb x das arithmetische Mittel y der beobachteten y Werte ist gleich dem arithmetischen Mittel der geschätzten y Werte ŷ i = â + ˆbx i ; die Regressionsgerade verläuft durch den Schwerpunkt der Punktwolke mit den Koordinaten (x, y). Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

7 Beispiel 1 Jahresumsatz und Verkaufsfläche Daten aus Bleymüller et al, Statistik für Wirtschaftswissenschaftler, 2004, Kap. 20. i Filiale x i Verkaufsfläche in Tsd. qm Jahresumsatz in Mio. e y i i x i y i i x i y i Berechnung de Regressionsgeraden in Statgraphics unter: Relate One Factor Simple Regression (Beziehungen Ein Faktor Einfache Regression). Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

8 Regressionsgerade im Beispiel 1 (Statgraphics) Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

9 Streuungszerlegung Es gilt die Streuungszerlegung SST = SSE + SSR mit n SST = (y i y) 2, der Totalvariabilität (Totalvarianz); SSE = SSR = n (ŷ i y) 2, der erklärten Variabilität (erklärte Varianz); n (y i ŷ i ) 2, der Restvariabilität (Restvarianz). Das Verhältnis B = SSE SST = 1 SSR SST heißt Bestimmtheitsmaß. Es gelten 0 B 1 und B = r 2 mit dem gewöhnlichen X,Y empirischen Korrelationskoeffizienten r X,Y. Liegt der Wert des Bestimmtheitsmaßes nahe bei 1, deutet dies auf eine gute Beschreibung der Punktwolke durch die Regressionsgerade hin. Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

10 Das stochastische Modell Weiterführende statistische Aussagen, wie Konfidenzintervalle oder statistische Test, basieren auf einem geeigneten stochastischen Modell. Üblicherweise nimmt man in dieser Situation an, dass Y i = a + b x i + ε i, i = 1,..., n, gilt, wobei die Werte x i (zunächst) deterministische, einstellbare Werte sind und die zufälligen Schwankungen durch unabhängige normalverteilte Zufallsgrößen ε i ( zufällige Fehler ) mit Eε i = 0 und Varε i = σ 2 (unbekannt, aber konstant) verursacht werden. Unter diesen Bedingungen sind â bzw. ˆb erwartungstreue und konsistente Schätzfunktionen für die Modellparameter a bzw. b. Die Standardabweichung σ der Fehler kann geschätzt werden durch SSR ˆσ = s Rest = n 2. Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

11 Tests für die Parameter a und b Hypothesen: H 0 : a = a 0, H A : a a 0 ; bzw. H 0 : b = b 0, H A : b b 0. Testgrößen: T a = â a 0 mit s a = 1 s a n x 2 n ˆσ (x i x) 2 bzw. T b = ˆb b 0 s b mit s b = Die Testgrößen sind unter H 0 ˆσ = n (x i x) 2 ˆσ n 1 sx. t verteilt mit n 2 Freiheitsgraden. Kritischer Bereich (Niveau α) : K = {t R : t > t n 2;1 α/2 }. Analog können einseitige Tests durchgeführt werden. Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

12 Tests mit α = 0.05 im Beispiel 1 Zweiseitiger t Test mit H 0 : a = 0 : â = , p = H 0 wird nicht abgelehnt, d.h., man kann nicht darauf schließen, dass der Koeffizient a signifikant von 0 verschieden ist. Zweiseitiger t Test mit H 0 : b = 0 : ˆb = , p = H 0 wird abgelehnt, d.h., der Koeffizient b ist signifikant von 0 verschieden. F Test für das Modell (Varianzanalyse): H 0 : b = 0, H A : b 0, p = H 0 wird abgelehnt, d.h., der Koeffizient b ist signifikant von 0 verschieden. Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

13 Statgraphics-Ergebnisse Tests im Beispiel 1 Simple Regression - Jahresumsatz vs. Verkaufsfläche Dependent variable: Jahresumsatz (Mio Euro) Independent variable: Verkaufsfläche (1000 qm) Linear model: Y = a + b*x Coefficients Least Squares Standard T Parameter Estimate Error Statistic P-Value Intercept 0, , , ,0623 Slope 5, , ,6375 0,0000 Analysis of Variance Source Sum of Squares Df Mean Square F-Ratio P-Value Model 51, , ,08 0,0000 Residual 1, , Total (Corr.) 53, Correlation Coefficient = 0, R-squared = 96,8855 percent R-squared (adjusted for d.f.) = 96,5741 percent Standard Error of Est. = 0, Mean absolute error = 0, Durbin-Watson statistic = 2,05563 (P=0,4737) Lag 1 residual autocorrelation = -0, The StatAdvisor The output shows the results of fitting a linear model to describe the relationship between Jahresumsatz and Verkaufsfläche. The equation of the fitted model is Jahresumsatz = 0, ,22209*Verkaufsfläche Since the P-value in the ANOVA table is less than 0,05, there is a statistically significant relationship between Jahresumsatz and Verkaufsfläche at the 95,0% confidence level. The R-Squared statistic indicates that the model as fitted explains 96,8855% of the variability in Jahresumsatz. The correlation coefficient equals 0,984304, indicating a relatively strong relationship between the variables. The standard error of the estimate shows the standard deviation of the residuals to be 0, This value can be used to construct prediction limits for new observations by selecting the Forecasts option from the text menu. The mean absolute error (MAE) of 0, is the average value of the residuals. The Durbin-Watson (DW) statistic tests the residuals to determine if there is any significant correlation based on the order in which they occur in your data file. Since the P-value is greater than 0,05, there is no indication of serial autocorrelation in the residuals at the 95,0% confidence level. Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

14 Konfidenzintervalle zum Niveau 1 α für die Parameter Ein Konfidenzintervall für a ist [â s a t n 2;1 α/2 ; â + s a t n 2;1 α/2 ]. Ein Konfidenzintervall für b ist [ˆb s b t n 2;1 α/2 ; ˆb + s b t n 2;1 α/2 ]. Ein [ Konfidenzintervall für die] Fehlervarianz [ σ 2 (n 2)ˆσ 2 (n 2)ˆσ 2 SSR χ 2 ; n 2;1 α/2 χ 2 = n 2;α/2 χ 2 n 2;1 α/2 ist ; SSR χ 2 n 2;α/2 Simultane Konfidenzintervalle sind die folgenden. Das erste Intervall überdeckt a, das zweite b, wobei insgesamt das Niveau 1 α eingehalten [ wird : ] â 2sa 2 F 2;n 2;1 α ; â + 2s 2a F 2;n 2;1 α [ ] ˆb 2sb 2F 2;n 2;1 α ; ˆb + 2sb 2F 2;n 2;1 α. ]. Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

15 Konfidenzintervalle für die Regressionsgerade Häufig möchte man jedoch Konfidenzintervalle für den Wert der Regressionsgerade an einer Stelle x (oder für ein Intervall von x Werten) bestimmen, d.h. für EY (x) = a + bx. Ein solches Konfidenzintervall zum Niveau 1 α kann berechnet werden durch [ ŷ(x) d(x) ; ŷ(x) + d(x) ] mit ŷ(x) = â + ˆb x und d(x) = ˆσ t n 2,1 α/2 1 n (x x)2 +. n (x i x) 2 Für unterschiedliche Werte x erhält man unterschiedliche Abstände zwischen der oberen und unteren Grenze. Für alle x Werte betrachtet ergibt sich ein Konfidenzstreifen (Konfidenzschlauch), der an der Stelle x = x am schmalsten ist. Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

16 Konfidenzstreifen im Beispiel (Statgraphics) Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

17 Prognoseintervalle für Y (x) Berechnet man ein zufälliges Intervall, welches mit einer vorgegebenen Wahrscheinlichkeit 1 α eine Realisierung von Y (x) = a + bx + ε überdeckt, erhält man ein sogenanntes Prognoseintervall für Y (x) zum Niveau 1 α. Unter den gemachten Voraussetzungen berechnet man [ ŷ(x) d(x) ; ŷ(x) + d(x) ] mit ŷ(x) = â + ˆb x und d(x) = s Rest t n 2,1 α/ (x x)2 +. n n (x i x) 2 Bei Betrachtung beliebiger x Werte erhält man wieder einen Streifen um die Regressionsgerade, den Prognosestreifen. Er ist breiter als der zugehörige Kondidenzstreifen zum selben Niveau. Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

18 Prognosestreifen im Beispiel (Statgraphics) Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

19 Konfidenz- und Prognosestreifen im Beispiel (Statgraphics) Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

20 Residualanalyse zur Überprüfung des Modells Ist der Modellansatz, insbesondere die Normalverteilungsannahme der zufälligen Fehler ε i, i = 1,..., n, richtig, dann sind die Residuen ˆε i = Y i ŷ i näherungsweise unabhängig und identisch normalverteilt. Diese Eigenschaft kann anschaulich grafisch überprüft oder durch Anwendung statistischer Tests untersucht werden. Die grafische Darstellung der Residuen kann dabei bezüglich der Fallnummern, der x i Werte oder der geschätzten Werte ŷ i erfolgen. Bei bestimmten typischen Mustern in den Grafiken kann man dann unter Umständen auf spezielle Modellfehler schließen (siehe Literatur). Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

21 Residuendiagramm 1 im Beispiel (Statgraphics) Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

22 Residuendiagramm 2 im Beispiel (Statgraphics) Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

23 Residuendiagramm 3 im Beispiel (Statgraphics) Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

24 Einfache lineare Regression durch den Koordinatenursprung Bei bestimmten Problemstellungen ist es sinnvoll zu fordern, dass die Regressionsgerade durch den Koordinatenursprung geht. Man spricht dann auch von einer Regression ohne Absolutglied oder einer eigentlich-linearen Regression. Man erhält nun als Modellansatz Y i = b x i + ε i, i = 1,..., n ; als Schätzung für den Parameter b ˆb = n x iy i n x 2 i und als Schätzung für die Varianz der zufälligen Fehler ˆσ 2 = 1 n 1 n (y i ŷ i ) 2 mit ŷ i = ˆb x i. Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

25 Regressionsgerade ohne Absolutglied im Beispiel 1 (Statgraphics) Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

26 Transformationen auf Linearität Ist die gesuchte Abhängigkeitsfunktion eine nichtlineare Funktion (eine Gerade ist schlecht an die Daten anpassbar), kann man mitunter durch geeignete Variablentransformationen die Aufgabenstellung in eine der einfachen linearen Regression transformieren. Diese ist dann aber nicht äquivalent zur ursprünglichen Aufgabenstellung. Nichtlineare, in lineare transformierbare Funktionen sind z.b. y = αx β ln y = ln α + β ln x y = αe βx ln y = ln α + βx y = (α + βx) 1 y 1 = α + βx y = x(α + βx) 1 y 1 = αx 1 + β y = αe β/x ln y = ln α + βx 1 y = ( α + βe x) 1 y 1 = α + βe x Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung 11 Version: 16. Januar

Statistik II für Betriebswirte Vorlesung 8

Statistik II für Betriebswirte Vorlesung 8 Statistik II für Betriebswirte Vorlesung 8 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 3. Dezember 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version:

Mehr

Versuchsplanung und multivariate Statistik Sommersemester 2018

Versuchsplanung und multivariate Statistik Sommersemester 2018 Versuchsplanung und multivariate Statistik Sommersemester 2018 Vorlesung 11: Lineare und nichtlineare Modellierung I Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 6.6.2018

Mehr

Statistik II für Betriebswirte Vorlesung 11

Statistik II für Betriebswirte Vorlesung 11 Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 07. Januar 2019 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:

Mehr

Versuchsplanung und multivariate Statistik Sommersemester 2018

Versuchsplanung und multivariate Statistik Sommersemester 2018 Versuchsplanung und multivariate Statistik Sommersemester 2018 Vorlesung 12: Lineare und nichtlineare Modellierung II Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 13.6.2018

Mehr

Statistik II für Betriebswirte Vorlesung 12

Statistik II für Betriebswirte Vorlesung 12 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 12 11. Januar 2013 7.3. Multiple parameterlineare Regression Im Folgenden soll die

Mehr

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl

Mehr

Statistik II für Betriebswirte Vorlesung 11

Statistik II für Betriebswirte Vorlesung 11 Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 08. Januar 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:

Mehr

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)

Mehr

Prognoseintervalle für y 0 gegeben x 0

Prognoseintervalle für y 0 gegeben x 0 10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen

Mehr

6. Tutoriumsserie Statistik II

6. Tutoriumsserie Statistik II 6. Tutoriumsserie Statistik II 1. Aufgabe: Eine Unternehmensabteilung ist ausschließlich mit der Herstellung eines einzigen Produktes beschäftigt. Für 10 Perioden wurden folgende Produktmenge y und Gesamtkosten

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

1 Beispiel zur Methode der kleinsten Quadrate

1 Beispiel zur Methode der kleinsten Quadrate 1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25

Mehr

Die Funktion f wird als Regressionsfunktion bezeichnet.

Die Funktion f wird als Regressionsfunktion bezeichnet. Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht

Mehr

11. weitere Übungsaufgaben Statistik II WiSe 2017/2018

11. weitere Übungsaufgaben Statistik II WiSe 2017/2018 11. weitere Übungsaufgaben Statistik II WiSe 2017/2018 1. Aufgabe: Bei 100 Fahrzeugen des gleichen Typs sind neben dem Preis (PREIS) auch die gefahrene Strecke (MEILEN) und die Anzahl der Werkstattbesuche

Mehr

Mathematik III - Statistik für MT(Master)

Mathematik III - Statistik für MT(Master) 3. Regressionsanalyse Fachbereich Grundlagenwissenschaften Prof. Dr. Viola Weiß Wintersemester 0/03 Mathematik III - Statistik für MTMaster 3. Empirische Regressionsgerade Optimalitätskriterium: Die Summe

Mehr

Einführung in die Induktive Statistik: Regressionsanalyse

Einführung in die Induktive Statistik: Regressionsanalyse Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse

Mehr

Statistik II für Betriebswirte Vorlesung 5

Statistik II für Betriebswirte Vorlesung 5 Statistik II für Betriebswirte Vorlesung 5 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. November 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 5 Version:

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Statistik II für Betriebswirte Vorlesung 4

Statistik II für Betriebswirte Vorlesung 4 Statistik II für Betriebswirte Vorlesung 4 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 6. November 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 4 Version:

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Biostatistik 101 Korrelation - Regressionsanalysen

Biostatistik 101 Korrelation - Regressionsanalysen Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 carl.herrmann@uni-heidelberg.de Korrelation Sind Alter und Blutdruck miteinander

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Deskriptive Beschreibung linearer Zusammenhänge

Deskriptive Beschreibung linearer Zusammenhänge 9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

V. Das lineare Regressionsmodell

V. Das lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Tino Conrad, M.Sc. Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2016 Übung zur

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Statistik II für Betriebswirte Vorlesung 1

Statistik II für Betriebswirte Vorlesung 1 Statistik II für Betriebswirte Vorlesung 1 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 19. Oktober 2016 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Multiple Regression III

Multiple Regression III Multiple Regression III Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Überprüfung der Modellannahmen Residuen-Plot Normal-Q-Q-Plot Cook s Distanz-Plot Maßnahmen bei Abweichungen von Modellannahmen

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

Lineare Regression. Kapitel Regressionsgerade

Lineare Regression. Kapitel Regressionsgerade Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell

Mehr

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse Einleitung Statistik Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Der Begriff Varianzanalyse (analysis of variance, ANOVA) taucht an vielen Stellen in der Statistik mit unterschiedlichen

Mehr

Schweizer Statistiktage, Aarau, 18. Nov. 2004

Schweizer Statistiktage, Aarau, 18. Nov. 2004 Schweizer Statistiktage, Aarau, 18. Nov. 2004 Qualitative Überprüfung der Modellannahmen in der linearen Regressionsrechnung am Beispiel der Untersuchung der Alterssterblichkeit bei Hitzeperioden in der

Mehr

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers 4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis

Mehr

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.

Mehr

X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?

X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode? Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 11. Juli 016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

6.2 Lineare Regression

6.2 Lineare Regression 6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )

Mehr

Regression und Korrelation

Regression und Korrelation Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen

Mehr

Biometrieübung 10 Lineare Regression. 2. Abhängigkeit der Körpergröße von der Schuhgröße bei Männern

Biometrieübung 10 Lineare Regression. 2. Abhängigkeit der Körpergröße von der Schuhgröße bei Männern Biometrieübung 10 (lineare Regression) - Aufgabe Biometrieübung 10 Lineare Regression Aufgabe 1. Düngungsversuch In einem Düngeversuch mit k=9 Düngungsstufen x i erhielt man Erträge y i. Im (X, Y)- Koordinatensystem

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004

Mehr

Statistik für Ingenieure Vorlesung 13

Statistik für Ingenieure Vorlesung 13 Statistik für Ingenieure Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 6. Februar 2018 5.1.4. Weitere ausgewählte statistische Tests a) Binomialtest Der Binomialtest

Mehr

Bachelorprüfung: Statistik (1 Stunde)

Bachelorprüfung: Statistik (1 Stunde) Prof. H.R. Künsch D-BIOL, D-CHAB Winter 2010 Bachelorprüfung: Statistik (1 Stunde) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt. Natels sind auszuschalten!

Mehr

x t2 y t = 160, y = 8, y y = 3400 t=1

x t2 y t = 160, y = 8, y y = 3400 t=1 Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

2.5 Lineare Regressionsmodelle

2.5 Lineare Regressionsmodelle 2.5.1 Wiederholung aus Statistik I Gegeben Datenpunkte (Y i, X i ) schätze die beste Gerade Y i = β 0 + β 1 X i, i = 1,..., n. 2 Induktive Statistik 409 Bsp. 2.30. [Kaffeeverkauf auf drei Flohmärkten]

Mehr

Kurs Empirische Wirtschaftsforschung

Kurs Empirische Wirtschaftsforschung Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische

Mehr

Schätzung im multiplen linearen Modell VI

Schätzung im multiplen linearen Modell VI Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,

Mehr

Eine Einführung in R: Varianzanalyse

Eine Einführung in R: Varianzanalyse Eine Einführung in R: Varianzanalyse Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2011 Bernd Klaus, Verena Zuber Das

Mehr

6.2 Regressionsanalyse I: Die lineare Einfachregression

6.2 Regressionsanalyse I: Die lineare Einfachregression 6.2 Regressionsanalyse I: Die lineare Einfachregression 6.2.1 Grundbegriffe und Hintergrund Bedeutung der Regression: Eines der am häufigsten verwendeten statistischen Verfahren. Vielfache Anwendung in

Mehr

Lineare Regression in R, Teil 1

Lineare Regression in R, Teil 1 Lineare Regression in R, Teil 1 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel October 6, 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools aus

Mehr

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade

Mehr

Statistik II für Betriebswirte Vorlesung 1

Statistik II für Betriebswirte Vorlesung 1 Statistik II für Betriebswirte Vorlesung 1 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. Oktober 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 1 Version:

Mehr

Varianzvergleiche bei normalverteilten Zufallsvariablen

Varianzvergleiche bei normalverteilten Zufallsvariablen 9 Mittelwert- und Varianzvergleiche Varianzvergleiche bei zwei unabhängigen Stichproben 9.3 Varianzvergleiche bei normalverteilten Zufallsvariablen Nächste Anwendung: Vergleich der Varianzen σa 2 und σ2

Mehr

Musterlösung. Kind Blume (beredet) Blume (nicht beredet)

Musterlösung. Kind Blume (beredet) Blume (nicht beredet) Prüfung Statistik Sommer 2012 Musterlösung 1. (9 Punkte) F. Lauer möchte das Gerücht überprüfen, dass Blumen schneller wachsen, wenn man mit ihnen redet. Daher kauft sie acht identische Blumenzwiebeln,

Mehr

Dr. W. Kuhlisch Dresden, Institut für Mathematische Stochastik

Dr. W. Kuhlisch Dresden, Institut für Mathematische Stochastik Dr. W. Kuhlisch Dresden, 12. 08. 2014 Institut für Mathematische Stochastik Klausur Statistik für Studierende der Fachrichtungen Hydrologie und Altlasten/Abwasser zugelassene Hilfsmittel: Taschenrechner

Mehr

Vergleich von Gruppen I

Vergleich von Gruppen I Vergleich von Gruppen I t-test und einfache Varianzanalyse (One Way ANOVA) Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Der unverbundene t-test mit homogener Varianz Beispiel Modell Teststatistik

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests. 0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:

Mehr

Eine Einführung in R: Varianzanalyse

Eine Einführung in R: Varianzanalyse Eine Einführung in R: Varianzanalyse Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 13. Dezember 2012 Bernd Klaus, Verena Zuber,

Mehr

Instrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen.

Instrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen. Gliederung Grundidee Einfaches lineares Modell KQ-Methode (Suche nach der besten Geraden) Einfluss von Ausreißern Güte des Modells (Bestimmtheitsmaß R²) Multiple Regression Noch Fragen? Lineare Regression

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden in Quantitative Methoden Mag. Dipl.Ing. Dr. Pantelis Christodoulides & Mag. Dr. Karin Waldherr SS 2011 Christodoulides / Waldherr in Quantitative Methoden- 2.VO 1/47 Historisches Regression geht auf Galton

Mehr

Lineare Modelle in R: Klassische lineare Regression

Lineare Modelle in R: Klassische lineare Regression Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)

Mehr

Statistik II. Regressionsanalyse. Statistik II

Statistik II. Regressionsanalyse. Statistik II Statistik II Regressionsanalyse Statistik II - 23.06.2006 1 Einfachregression Annahmen an die Störterme : 1. sind unabhängige Realisationen der Zufallsvariable, d.h. i.i.d. (unabh.-identisch verteilt)

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn

Mehr

EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN

EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN 1 EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN UFBAU 1 Historie 2 Anwendungen / Ziele 3 Lineare Regression/ Beispiel KQ 4 Nichtlineare Regression 5 Eigenschaften der Schätzer istorie früheste Form

Mehr

Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen

Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen 4 Multiple lineare Regression Heteroskedastische Störgrößen 4.10 Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen Ein approximatives

Mehr

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen. Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf

Mehr

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

Fragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression

Fragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression Fragen Welche Unsicherheitsfaktoren beeinflussen die Schätzung einer Regressionsgeraden? Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München

Mehr

Klausur zu Biometrische und Ökonometrische Methoden und Ökologische Statistik

Klausur zu Biometrische und Ökonometrische Methoden und Ökologische Statistik TECHNISCHE UNIVERSITÄT MÜNCHEN - WEIHENSTEPHAN WS 96/97 MATHEMATIK UND STATISTIK, INFORMATIONS- UND DOKUMENTATIONSZENTRUM Klausur zu Biometrische und Ökonometrische Methoden und Ökologische Statistik 24.1.97,

Mehr

Statistisches Testen

Statistisches Testen Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall

Mehr

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3. Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die

Mehr

Eine Einführung in R: Das Lineare Modell

Eine Einführung in R: Das Lineare Modell Eine Einführung in R: Das Lineare Modell Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2009 Bernd Klaus, Verena Zuber

Mehr

B. Regressionsanalyse [progdat.sav]

B. Regressionsanalyse [progdat.sav] SPSS-PC-ÜBUNG Seite 9 B. Regressionsanalyse [progdat.sav] Ein Unternehmen möchte den zukünftigen Absatz in Abhängigkeit von den Werbeausgaben und der Anzahl der Filialen prognostizieren. Dazu wurden über

Mehr

Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.

Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression. Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, 10.07.017 Wahrscheinlichkeit und Statistik Patric Müller WBL

Mehr

Biostatistik 101 Korrelation - Regressionsanalysen

Biostatistik 101 Korrelation - Regressionsanalysen Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 carl.herrmann@uni-heidelberg.de Korrelation Sind Alter und Blutdruck miteinander

Mehr

Die Stochastischen Eigenschaften von OLS

Die Stochastischen Eigenschaften von OLS Die Stochastischen Eigenschaften von OLS Das Bivariate Modell Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Wiederholung

Mehr

Multiple Regression Mais-NP Zweidimensionale lineare Regression Data Display Dreidimensionale lineare Regression Multiple Regression

Multiple Regression Mais-NP Zweidimensionale lineare Regression Data Display Dreidimensionale lineare Regression Multiple Regression Multiple Regression! Zweidimensionale lineare Regression Modell Bestimmung der Regressionsebene Multiples Bestimmtheitsmaß Test des Bestimmtheitsmaßes Vertrauensintervalle für die Koeffizienten Test des

Mehr

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2002

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2002 Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2002 1. Ein Chemiestudent hat ein Set von 10 Gefäßen vor sich stehen, von denen vier mit Salpetersäure Stoff A), vier mit Glyzerin Stoff

Mehr

Konfidenz-, Prognoseintervalle und Hypothesentests II bei heteroskedastischen Störgrößen

Konfidenz-, Prognoseintervalle und Hypothesentests II bei heteroskedastischen Störgrößen Konfidenz-, Prognoseintervalle und Hypothesentests II bei heteroskedastischen Störgrößen Achtung! Bei der Verwendung von heteroskedastie-konsistenten Schätzern für V( β) muss unbedingt darauf geachtet

Mehr

Eine Einführung in R: Das Lineare Modell

Eine Einführung in R: Das Lineare Modell Eine Einführung in R: Das Lineare Modell Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 29. November 2012 Bernd Klaus, Verena Zuber,

Mehr

Teekonsum in den USA (in 1000 Tonnen), Nimmt den Wert 1 an für alle Perioden, Durchschnittlicher Preis des Tees in Periode t (in Tausend $/Tonne).

Teekonsum in den USA (in 1000 Tonnen), Nimmt den Wert 1 an für alle Perioden, Durchschnittlicher Preis des Tees in Periode t (in Tausend $/Tonne). Aufgabe 1 (5 Punkte) Gegeben sei ein lineares Regressionsmodell in der Form. Dabei ist y t = x t1 β 1 + x t β + e t, t = 1,..., 10 (1) y t : x t1 : x t : Teekonsum in den USA (in 1000 Tonnen), Nimmt den

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Ausgangsdaten Bundesliga 2008/2009 Gegeben: Daten zu den 18 Vereinen der ersten Bundesliga

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:

Mehr