Statistik II für Betriebswirte Vorlesung 8
|
|
- Jens Koenig
- vor 5 Jahren
- Abrufe
Transkript
1 Statistik II für Betriebswirte Vorlesung 8 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 3. Dezember 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
2 7. Regressionsanalyse 7.1. Lineare Regression Während bei der Korrelationsanalyse eine qualitative Analyse von Zusammenhängen zwischen Merkmalen im Vordergrund stand, führt man bei der Regressionsanalyse eine quantitative Analyse von derartigen Zusammenhängen durch. Insbesondere sucht man im Rahmen einer Regressionsanalyse, z.b. auf der Basis von Beobachtungen (x 1, y 1 ),... (x n, y n ), nach einem konkreten funktionalen Zusammenhang, der die Abhängigkeit eines Merkmals Y von einer Merkmalsgröße X beschreibt. (einfache Regression) Im Beispiel 6.4 kann man z.b. die Frage stellen, ob ein funktionaler Zusammenhang zwischen den Variablen Jahresumsatz (Y ) und der Prädiktorvariablen Verkaufsfläche (X ) besteht? Gesucht ist also eine Funktion f, die aus der Prädiktorvariablen Verkaufsfläche (X ) eine Vorhersage für die abhängige Variable Jahresumsatz (Y ) liefert. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
3 Regression Daten: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ) Annahme: Es existiert ein kausaler Zusammenhang der Form y = f (x) zwischen der abhängigen Variable y und der Prädiktorvariable x. Weitere Annahme : Die Funktion f hat eine bestimmte Form. Beispiele: Lineare Regression (der Zusammenhang wird also durch eine Gerade beschrieben): y = b 0 + b 1 x, Quadratische Regression (der Zusammenhang wird durch eine Parabel beschrieben): y = b 0 + b 1 x + b 2 x 2, usw. Beachte: Der Zusammenhang ist in der Regel nicht exakt zu beobachten. Das Modell (Lineare Regression) lautet: Y = b 0 + b 1 x + ε Dabei bezeichnet ε eine zufällig Störgröße. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
4 Streudiagramm für die Daten aus Beispiel 6.4 Simple Regression - Jahresumsatz vs. Verkaufsfläche Dr. Andreas Dependent Wünsche variable: Jahresumsatz Statistik II für (Mio Betriebswirte Euro) Vorlesung 8 Version: 28. November
5 Die Methode der kleinsten Quadrate Daten: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ) Annahme: Es existiert ein linearer Zusammenhang: Y = b 0 + b 1 x + ε Gesucht ist diejenige Gerade, die den Zusammenhang zwischen Y und x am besten beschreibt. Bestimme die Gerade so, dass die Summe der quadrierten senkrechten Abstände zwischen der Gerade und den Daten minimal wird. Datum an der Stelle xi : y i Wert der Geraden an der Stelle xi : b 0 + b 1 x i Differenz: yi (b 0 + b 1 x i ) Minimiere: QS(b 0, b 1 ) = n (y i (b 0 + b 1 x i )) 2. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
6 Die Regressionsgerade Die Lösung des Extremwertproblems liefert Schätzer für die Steigung und den Achsenabschnitt der Geraden: n n (x i x)(y i y) x i y i nx y ˆb 1 = = = n n s Y r (x i x) 2 xi 2 nx 2 s X,Y, ˆb0 = y ˆb 1 x X und damit die Gleichung der geschätzten Regressionsgeraden ŷ = ˆb 0 + ˆb 1 x. Der Wert der geschätzten Regressionsgerade an der Stelle x i ist ŷ i = ˆb 0 + ˆb 1 x i. Die Abweichungen y i ŷ i nennt man Residuen. n Die Summe der Residuen ist Null, (y i ŷ i ) = 0. Die Regressionsgerade verläuft durch (x, y), den Schwerpunkt. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
7 Weitere Bezeichnungen und Bemerkungen Ein mögliche andere Parametrisierung ist a = b 0 und b = b 1. = Modellgleichung: Y = a + bx + ε. Ist eine funktionale Abhängigkeit der Größe Y von der Größe X gesucht, nennt man X und Y unter anderem auch: Regressor und Regressand, Einflussgröße und Wirkungsgröße, unabhängige Variable und abhängige Variable, Prädiktorvariable und Zielvariable, exogene Variable und endogene Variable. Der Name Regression ( Rückschritt ) geht auf Galton zurück. Ausgangspunkt war damals eine Untersuchung der Größe der Söhne (Variable Y ) im Zusammenhang mit der Größe der Väter (Variable X ) von Pearson. Galton schrieb damals: Each peculiarity in a man is shared by his kinsmen but on the average in a less degree. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
8 Beispiel 7.1 Jahresumsatz und Verkaufsfläche Fortsetzung vom Beispiel 6.4: Daten aus Bleymüller et al, Statistik für Wirtschaftswissenschaftler, 2004, Kap. 20. i Filiale x i Verkaufsfläche in Tsd. qm Jahresumsatz in Mio. e y i i x i y i i x i y i Berechnung de Regressionsgeraden in Statgraphics unter: Relate One Factor Simple Regression (Beziehungen Ein Faktor Einfache Regression). Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
9 Regressionsgerade im Beispiel 7.1 (Statgraphics) Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
10 Weitere Fragen zur Regression im Beispiel 7.1 Schätzer: ˆb 0 = 0.606, ˆb 1 = Fragen: Wie genau sind diese Schätzungen? Besteht ein (signifikanter) Einfluss der Verkaufsfläche auf den Jahresumsatz? H 0 : b 1 = 0 Wie gut beschreibt das lineare Regressionsmodell die Situation? Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
11 Genauigkeit der Schätzer für die Parameter Beachte: Vor der Datenerhebung sind ˆb 0 und ˆb 1 zufällig. Die mathematische Statistik (allgemeines lineares Modell) liefert Schätzer für die Varianzen von ˆb 0 und ˆb 1 n Schätzer für die Varianz von ˆb 0 : Schätzer für die Varianz von ˆb 1 : Dabei ist ˆσ 2 = s 2 Rest = 1 n 2 n (y i ŷ i ) 2 = 1 n 2 s 2 b 0 = s2 Rest n s 2 b 1 = s2 Rest n 1 n xi 2 n (x i x) 2 1 n (x i x) 2 n (y i (ˆb 0 + ˆb 1 x i )) 2 der Schätzer für die Varianz der Störgrößen. Je größer der Stichprobenumfang n, desto genauer sind die Schätzungen! Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
12 Streuungszerlegung Es gilt die Streuungszerlegung SST = SSE + SSR mit n SST = (y i y) 2, der Totalvariabilität (Totalvarianz); SSE = SSR = n (ŷ i y) 2, der erklärten Variabilität (erklärte Varianz); n (y i ŷ i ) 2, der Restvariabilität (Residualvarianz). Das Verhältnis B = SSE SST = 1 SSR SST heißt Bestimmtheitsmaß. Es gelten 0 B 1 und B = r 2 mit dem gewöhnlichen X,Y empirischen Korrelationskoeffizienten r X,Y. Je besser das Modell ist, desto kleiner ist die Residualvarianz, bzw. desto größer ist das Bestimmtheitsmaß B! Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
13 Das stochastische Modell Weiterführende statistische Aussagen, wie Konfidenzintervalle oder statistische Tests, basieren auf einem geeigneten stochastischen Modell. Üblicherweise nimmt man in dieser Situation an, dass Y i = b 0 + b 1 x i + ε i, i = 1,..., n, gilt, wobei die Werte x i (zunächst) deterministische, einstellbare Werte sind und die zufälligen Störgrößen durch unabhängige normalverteilte Zufallsgrößen ε i ( zufällige Fehler ) mit Eε i = 0 und Varε i = σ 2 (unbekannt, aber konstant) verursacht werden. Unter diesen Bedingungen sind ˆb 0 bzw. ˆb 1 erwartungstreue und konsistente Schätzfunktionen für die Modellparameter b 0 bzw. b 1. Die Standardabweichung σ der Fehler kann geschätzt werden durch SSR ˆσ = s Rest = n 2. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
14 Konfidenzintervalle zum Niveau 1 α für die Parameter Ein Konfidenzintervall für b 0 ist [ˆb 0 s b0 t n 2;1 α/2 ; ˆb0 + s b0 t n 2;1 α/2 ]. Ein Konfidenzintervall für b 1 ist [ˆb 1 s b1 t n 2;1 α/2 ; ˆb 1 + s b1 t n 2;1 α/2 ]. Ein [ Konfidenzintervall für die] Fehlervarianz [ σ 2 (n 2)ˆσ 2 (n 2)ˆσ 2 SSR χ 2 ; n 2;1 α/2 χ 2 = n 2;α/2 χ 2 n 2;1 α/2 ist ; SSR χ 2 n 2;α/2 ]. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
15 Konfidenzintervalle im Beispiel 7.1 Mit ˆb 0 = , sˆb 0 = , ˆb 1 = , sˆb 1 = (vgl. Statgraphics-Ergebnisse auf Folie 16) lauten die Konfidenzintervalle zum Konfidenzniveau 95% für: b 0 : [ ; ] und b 1 : [ ; ]. Mit SSR = ist die Punktschätzung für σ 2, der Varianz der Fehler: ˆσ 2 = 1 n 2 SSR = = (vgl. Statgraphics-Ergebnisse auf Folie 18) Damit ist das Konfidenzintervall für σ 2 zum Konfidenzniveau 95%: [ ; ]. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
16 Tests für die Parameter b 0 und b 1 Hypothesen: H 0 : b 0 = b 00, H A : b 0 b 00 ; bzw. H 0 : b 1 = b 10, H A : b 1 b 10. Testgrößen: T b0 = ˆb 0 b 00 s b0 bzw. T b1 = ˆb 1 b 10 s b1 Die Testgrößen sind unter H 0 t verteilt mit n 2 Freiheitsgraden. Kritischer Bereich (Niveau α) : K = {t R : t > t n 2;1 α/2 }. Analog können einseitige Tests durchgeführt werden. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
17 t-tests im Beispiel 7.1 mit Statgraphics Simple Regression - Jahresumsatz vs. Verkaufsfläche Dependent variable: Jahresumsatz (Mio Euro) Independent variable: Verkaufsfläche (1000 qm) Linear model: Y = a + b*x Coefficients Least Squares Standard T Parameter Estimate Error Statistic P-Value Intercept 0, , , ,0623 Slope 5, , ,6375 0,0000 Analysis of Variance Source Sum of Squares Df Mean Square F-Ratio P-Value Model 51, , ,08 0,0000 Residual 1, , Total (Corr.) 53, Test mit H 0 : b 0 = 0 gegen H A : b 0 0; ˆb0 = , p = > 0.05 = α H 0 wird nicht abgelehnt, d.h., man kann nicht darauf schließen, dass der Koeffizient b 0 signifikant von 0 verschieden ist. Correlation Coefficient = 0, R-squared = 96,8855 percent R-squared (adjusted for d.f.) = 96,5741 percent Standard Error of Est. = 0, Test mit H 0 : b 1 = 0 gegen H A : b 1 0; ˆb 1 = , p = < 0.05 = α H 0 wird abgelehnt, d.h., der Koeffizient ist signifikant von 0 verschieden. b 1 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
18 F-Test für die Hypothese H 0 : b 1 = 0 Es besteht also ein signifikanter Einfluss der Verkaufsfläche auf den Jahresumsatz. Die Hypothesen H 0 : b 1 = 0 gegen H A : b 1 0 können auch mit dem F-Test getestet werden. Dieser Test spielt z.b. im Modell der multiplen parameterlinearen Regression eine eigenständige Rolle. Testgröße: 1 1 T = SSE MSE = SSR MSR 1 n 2 Falls H 0 : b 1 = 0 gilt ist T F 1,n 2 und damit ist der kritische Bereich: K = {t : t > F 1,n 2;1 α }. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
19 Intercept 0, , , ,0623 F-Test Slope im Beispiel 5, mit 0, Statgraphics 17,6375 0,0000 Analysis of Variance Source Sum of Squares Df Mean Square F-Ratio P-Value Model 51, , ,08 0,0000 Residual 1, , Total (Corr.) 53, Correlation Coefficient 1 = 0, t = = R-squared = 96, percent = > 4.96 = F 1,10;0.95 R-squared (adjusted for d.f.) = 96,5741 percent = Standard H 0 wird Error abgelehnt. of Est. = 0, (Gleiches Ergebnis wie beim t-test.) Zusammenhang zum t-test: Ist t t n 2, dann ist t 2 F 1,n 2. Hier: = Zusammenhang zum Bestimmtheitsmaß B: Ist t die Realisierung der Testgröße des F-Tests, dann gilt: 1 n 2 t n 2 t = = = = B Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
20 Konfidenzintervalle für die Regressionsgerade Häufig möchte man jedoch Konfidenzintervalle für den Wert der Regressionsgerade an einer Stelle x (oder für ein Intervall von x Werten) bestimmen, d.h. für EY (x) = b 0 + b 1 x. Ein solches Konfidenzintervall zum Niveau 1 α kann berechnet werden durch [ ŷ(x) d(x) ; ŷ(x) + d(x) ] mit ŷ(x) = ˆb 0 + ˆb 1 x und d(x) = ˆσ t n 2,1 α/2 1 n (x x)2 +. n (x i x) 2 Für unterschiedliche Werte x erhält man unterschiedliche Abstände zwischen der oberen und unteren Grenze. Für alle x Werte betrachtet ergibt sich ein Konfidenzstreifen (Konfidenzschlauch), der an der Stelle x = x am schmalsten ist. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
21 Konfidenzstreifen im Beispiel (Statgraphics) Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
22 Prognoseintervalle für Y (x) Berechnet man ein zufälliges Intervall, welches mit einer vorgegebenen Wahrscheinlichkeit 1 α eine Realisierung von Y (x) = b 0 + b 1 x + ε überdeckt (Vorhersage für eine neue Beoabachtung an einer Stelle x), erhält man ein sogenanntes Prognoseintervall für Y (x) zum Niveau 1 α. Unter den gemachten Voraussetzungen berechnet man [ ŷ(x) d(x) ; ŷ(x) + d(x) ] mit ŷ(x) = ˆb 0 + ˆb 1 x und d(x) = ˆσ t n 2,1 α/ (x x)2 +. n n (x i x) 2 Bei Betrachtung beliebiger x Werte erhält man wieder einen Streifen um die Regressionsgerade, den Prognosestreifen. Er ist breiter als der zugehörige Konfidenzstreifen zum selben Niveau. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
23 Prognosestreifen im Beispiel (Statgraphics) Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
24 Konfidenz- und Prognosestreifen im Beispiel (Statgraphics) Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
25 Residualanalyse zur Überprüfung des Modells Ist der Modellansatz, insbesondere die Normalverteilungsannahme der zufälligen Fehler ε i, i = 1,..., n, richtig, dann sind die Residuen ˆε i = Y i ŷ i näherungsweise unabhängig und identisch normalverteilt. Diese Eigenschaft kann anschaulich grafisch (Residualanalyse) überprüft oder durch Anwendung statistischer Tests untersucht werden. Die Residualanalyse ist ein deskriptives Verfahren zur Überprüfung der Modellannahmen an ε 1 ;... ; ε n. Mögliche Teilschritte sind dabei: A: Streudiagramm der Daten mit der Regessionsgerade, B: Streudiagramm der Residuen gegen die vorhergesagten Werte ŷ i (oder z.b. auch gegen die Fallnummern der x i Werte), C: Normalverteilungs-Q-Q-Plot der Residuen, D: Histogramm der Residuen mit angepasster Normalverteilungsdichte. Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
26 Streudiagramm und Regressionsgerade im Beispiel 7.1 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
27 Streudiagramm der Residuen im Beispiel 7.1 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
28 Normalverteilungs-Q-Q-Plot im Beispiel 7.1 (Statgraphics) Tests for Normality for RESIDUALS Dr. Andreas Wünsche Statistik Test II für Betriebswirte Statistic Vorlesung P-Value 8 Version: 28. November
29 Histogramm der Residuen im Beispiel 7.1 (Statgraphics) Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
30 Shapiro-Wilk-Test im Beispiel 7.1 (Statgraphics) Tests for Normality for RESIDUALS Test Statistic P-Value Shapiro-Wilk W 0, ,18088 Tests for Normality for RESIDUALS Test Statistic P-Value Shapiro-Wilk W 0, ,18088 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version: 28. November
Statistik II für Betriebswirte Vorlesung 11
Statistik II für Betriebswirte Vorlesung 11 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 18. Januar 2017 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung
MehrVersuchsplanung und multivariate Statistik Sommersemester 2018
Versuchsplanung und multivariate Statistik Sommersemester 2018 Vorlesung 11: Lineare und nichtlineare Modellierung I Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 6.6.2018
Mehr13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017
13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl
MehrStatistik II für Betriebswirte Vorlesung 11
Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 07. Januar 2019 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:
MehrStatistik II für Betriebswirte Vorlesung 12
Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 12 11. Januar 2013 7.3. Multiple parameterlineare Regression Im Folgenden soll die
Mehr7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien
Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)
Mehr6. Tutoriumsserie Statistik II
6. Tutoriumsserie Statistik II 1. Aufgabe: Eine Unternehmensabteilung ist ausschließlich mit der Herstellung eines einzigen Produktes beschäftigt. Für 10 Perioden wurden folgende Produktmenge y und Gesamtkosten
MehrPrognoseintervalle für y 0 gegeben x 0
10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen
Mehr11. weitere Übungsaufgaben Statistik II WiSe 2017/2018
11. weitere Übungsaufgaben Statistik II WiSe 2017/2018 1. Aufgabe: Bei 100 Fahrzeugen des gleichen Typs sind neben dem Preis (PREIS) auch die gefahrene Strecke (MEILEN) und die Anzahl der Werkstattbesuche
MehrVersuchsplanung und multivariate Statistik Sommersemester 2018
Versuchsplanung und multivariate Statistik Sommersemester 2018 Vorlesung 12: Lineare und nichtlineare Modellierung II Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 13.6.2018
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
MehrDie Funktion f wird als Regressionsfunktion bezeichnet.
Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht
MehrÜbung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
Mehr1 Beispiel zur Methode der kleinsten Quadrate
1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25
MehrBiostatistik 101 Korrelation - Regressionsanalysen
Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 carl.herrmann@uni-heidelberg.de Korrelation Sind Alter und Blutdruck miteinander
MehrEinführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
MehrSchweizer Statistiktage, Aarau, 18. Nov. 2004
Schweizer Statistiktage, Aarau, 18. Nov. 2004 Qualitative Überprüfung der Modellannahmen in der linearen Regressionsrechnung am Beispiel der Untersuchung der Alterssterblichkeit bei Hitzeperioden in der
MehrBeispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
MehrStatistik II für Betriebswirte Vorlesung 4
Statistik II für Betriebswirte Vorlesung 4 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 6. November 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 4 Version:
MehrStatistik II für Betriebswirte Vorlesung 11
Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 08. Januar 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:
Mehr6.2 Lineare Regression
6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrTeil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller
Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit
Mehr4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
MehrKurs Empirische Wirtschaftsforschung
Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische
MehrSchätzung im multiplen linearen Modell VI
Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrDeskriptive Beschreibung linearer Zusammenhänge
9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,
MehrLineare Regression. Kapitel Regressionsgerade
Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell
MehrInstrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen.
Gliederung Grundidee Einfaches lineares Modell KQ-Methode (Suche nach der besten Geraden) Einfluss von Ausreißern Güte des Modells (Bestimmtheitsmaß R²) Multiple Regression Noch Fragen? Lineare Regression
MehrStatistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II
Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte
Mehr11. Übungsblatt zur Vorlesung Ökonometrie SS 2014
Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer
MehrTeil: lineare Regression
Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge
Mehr2.5 Lineare Regressionsmodelle
2.5.1 Wiederholung aus Statistik I Gegeben Datenpunkte (Y i, X i ) schätze die beste Gerade Y i = β 0 + β 1 X i, i = 1,..., n. 2 Induktive Statistik 409 Bsp. 2.30. [Kaffeeverkauf auf drei Flohmärkten]
MehrBachelorprüfung: Statistik (1 Stunde)
Prof. H.R. Künsch D-BIOL, D-CHAB Winter 2010 Bachelorprüfung: Statistik (1 Stunde) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt. Natels sind auszuschalten!
MehrÜbung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
MehrStatistik II für Betriebswirte Vorlesung 5
Statistik II für Betriebswirte Vorlesung 5 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. November 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 5 Version:
MehrMultiple Regression III
Multiple Regression III Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Überprüfung der Modellannahmen Residuen-Plot Normal-Q-Q-Plot Cook s Distanz-Plot Maßnahmen bei Abweichungen von Modellannahmen
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
MehrStatistik II für Betriebswirte Vorlesung 1
Statistik II für Betriebswirte Vorlesung 1 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. Oktober 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 1 Version:
Mehrsimple lineare Regression kurvilineare Regression Bestimmtheitsmaß und Konfidenzintervall
Regression Korrelation simple lineare Regression kurvilineare Regression Bestimmtheitsmaß und Konfidenzintervall Zusammenhänge zw. Variablen Betrachtet man mehr als eine Variable, so besteht immer auch
MehrBeispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 11. Juli 016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.
0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:
Mehr6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
MehrV. Das lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Tino Conrad, M.Sc. Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2016 Übung zur
MehrRegression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
MehrStatistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrVarianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
MehrGoethe-Universität Frankfurt
Goethe-Universität Frankfurt Fachbereich Wirtschaftswissenschaft PD Dr. Martin Biewen Dr. Ralf Wilke Sommersemester 2006 Klausur Statistik II 1. Alle Aufgaben sind zu beantworten. 2. Bitte runden Sie Ihre
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Ausgangsdaten Bundesliga 2008/2009 Gegeben: Daten zu den 18 Vereinen der ersten Bundesliga
MehrKonfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen
4 Multiple lineare Regression Heteroskedastische Störgrößen 4.10 Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen Ein approximatives
MehrMathematik III - Statistik für MT(Master)
3. Regressionsanalyse Fachbereich Grundlagenwissenschaften Prof. Dr. Viola Weiß Wintersemester 0/03 Mathematik III - Statistik für MTMaster 3. Empirische Regressionsgerade Optimalitätskriterium: Die Summe
MehrMusterlösung. Kind Blume (beredet) Blume (nicht beredet)
Prüfung Statistik Sommer 2012 Musterlösung 1. (9 Punkte) F. Lauer möchte das Gerücht überprüfen, dass Blumen schneller wachsen, wenn man mit ihnen redet. Daher kauft sie acht identische Blumenzwiebeln,
Mehr6.2 Regressionsanalyse I: Die lineare Einfachregression
6.2 Regressionsanalyse I: Die lineare Einfachregression 6.2.1 Grundbegriffe und Hintergrund Bedeutung der Regression: Eines der am häufigsten verwendeten statistischen Verfahren. Vielfache Anwendung in
MehrStochastik Praktikum Lineare Modelle
Stochastik Praktikum Lineare Modelle Thorsten Dickhaus Humboldt-Universität zu Berlin 06.10.2010 Übersicht 1 Einfache lineare Regression 2 Multiple lineare Regression 3 Varianzanalyse 4 Verallgemeinerte
MehrLineare Modelle in R: Klassische lineare Regression
Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)
MehrStatistik für Ingenieure Vorlesung 13
Statistik für Ingenieure Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 6. Februar 2018 5.1.4. Weitere ausgewählte statistische Tests a) Binomialtest Der Binomialtest
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
Mehrepg = read.table(file.path(pfadu, "epg.txt")) amp = read.table(file.path(pfadu, "dbdauer.txt"))
Kovarianz, Korrela-on, (lineare) Regression Jonathan Harrington & Ulrich Reubold library(laece) epg = read.table(file.path(pfadu, "epg.txt")) amp = read.table(file.path(pfadu, "dbdauer.txt")) Kovarianz,
MehrBreusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.
MehrTeil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.
Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, 10.07.017 Wahrscheinlichkeit und Statistik Patric Müller WBL
MehrLineare Regression in R, Teil 1
Lineare Regression in R, Teil 1 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel October 6, 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools aus
MehrStatistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II
Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen
MehrTests einzelner linearer Hypothesen I
4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen
MehrZusammenfassung 11. Sara dos Reis.
Zusammenfassung 11 Sara dos Reis sdosreis@student.ethz.ch Diese Zusammenfassungen wollen nicht ein Ersatz des Skriptes oder der Slides sein, sie sind nur eine Sammlung von Hinweise zur Theorie, die benötigt
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
MehrDemokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik
Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen
MehrAufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:
Aufgabe 1 (8=2+2+2+2 Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Die Zufallsvariable X bezeichne die Note. 1443533523253. a) Wie groß ist h(x 5)? Kreuzen
MehrStatistik II. Regressionsanalyse. Statistik II
Statistik II Regressionsanalyse Statistik II - 23.06.2006 1 Einfachregression Annahmen an die Störterme : 1. sind unabhängige Realisationen der Zufallsvariable, d.h. i.i.d. (unabh.-identisch verteilt)
MehrEinführung in Quantitative Methoden
in Quantitative Methoden Mag. Dipl.Ing. Dr. Pantelis Christodoulides & Mag. Dr. Karin Waldherr SS 2011 Christodoulides / Waldherr in Quantitative Methoden- 2.VO 1/47 Historisches Regression geht auf Galton
MehrEinleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse
Einleitung Statistik Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Der Begriff Varianzanalyse (analysis of variance, ANOVA) taucht an vielen Stellen in der Statistik mit unterschiedlichen
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:
Mehr5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
MehrAufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte)
Aufgabe 3 (6 + 4 + 8 + 4 + 10 + 4 + 9 + 4 + 8 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe eines multiplen linearen Regressionsmodells soll auf
MehrStatistische Datenanalyse mit R, Korrelation und Regression. Dr. Andrea Denecke Leibniz Universität IT-Services
Statistische Datenanalyse mit R, Korrelation und Regression Dr. Andrea Denecke Leibniz Universität IT-Services Korrelationsanalyse Eine Korrelationsanalyse soll herausfinden Ob ein linearer Zusammenhang
MehrDabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen
Lineare Regression und Matrizen. Einführendes Beispiel Der im Kapitel Skalarprodukt gewählte Lösungsweg für das Problem der linearen Regression kann auch mit Matrizen formuliert werden. Die Idee wird zunächst
MehrEGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN
1 EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN UFBAU 1 Historie 2 Anwendungen / Ziele 3 Lineare Regression/ Beispiel KQ 4 Nichtlineare Regression 5 Eigenschaften der Schätzer istorie früheste Form
MehrVarianzvergleiche bei normalverteilten Zufallsvariablen
9 Mittelwert- und Varianzvergleiche Varianzvergleiche bei zwei unabhängigen Stichproben 9.3 Varianzvergleiche bei normalverteilten Zufallsvariablen Nächste Anwendung: Vergleich der Varianzen σa 2 und σ2
MehrFragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression
Fragen Welche Unsicherheitsfaktoren beeinflussen die Schätzung einer Regressionsgeraden? Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München
MehrAnalyse von Querschnittsdaten. Signifikanztests I Basics
Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004
MehrML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.
Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die
MehrDie Stochastischen Eigenschaften von OLS
Die Stochastischen Eigenschaften von OLS Das Bivariate Modell Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Wiederholung
MehrBiometrieübung 10 Lineare Regression. 2. Abhängigkeit der Körpergröße von der Schuhgröße bei Männern
Biometrieübung 10 (lineare Regression) - Aufgabe Biometrieübung 10 Lineare Regression Aufgabe 1. Düngungsversuch In einem Düngeversuch mit k=9 Düngungsstufen x i erhielt man Erträge y i. Im (X, Y)- Koordinatensystem
Mehrx t2 y t = 160, y = 8, y y = 3400 t=1
Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =
Mehr3.3 Konfidenzintervalle für Regressionskoeffizienten
3.3 Konfidenzintervalle für Regressionskoeffizienten Konfidenzintervall (Intervallschätzung): Angabe des Bereichs, in dem der "wahre" Regressionskoeffizient mit einer großen Wahrscheinlichkeit liegen wird
MehrKapitel 10. Multikollinearität. Exakte Multikollinearität Beinahe Multikollinearität
Kapitel 0 Multikollinearität Exakte Multikollinearität Beinahe Multikollinearität Exakte Multikollinearität Unser Modell lautet y = Xb + u, Dimension von X: n x k Annahme : rg(x) = k Wenn sich eine oder
Mehr0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
Mehr