Versuchsplanung und multivariate Statistik Sommersemester 2018

Größe: px
Ab Seite anzeigen:

Download "Versuchsplanung und multivariate Statistik Sommersemester 2018"

Transkript

1 Versuchsplanung und multivariate Statistik Sommersemester 2018 Vorlesung 12: Lineare und nichtlineare Modellierung II Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

2 4.1.2 Weitere Ergebnisse zu linearen Regressionsmodellen Bem. Ist die gesuchte Abhängigkeitsfunktion eine nichtlineare Funktion (eine Gerade ist schlecht an die Daten anpassbar), kann man mitunter durch geeignete Variablentransformationen die Aufgabenstellung in eine der einfachen linearen Regression transformieren. Diese ist dann aber eigentlich nicht äquivalent zur ursprünglichen Aufgabenstellung. Nichtlineare, in lineare transformierbare Funktionen sind z.b. y = αx β ln y = ln α + β ln x y = αe βx ln y = ln α + βx y = (α + βx) 1 y 1 = α + βx y = x(α + βx) 1 y 1 = αx 1 + β y = αe β/x ln y = ln α + βx 1 y = ( α + βe x) 1 y 1 = α + βe x Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

3 Matrix-Vektor-Form für die einfache lineare Regression Bem. Die Modellgleichungen für die einfache lineare Regression lauten y i = a + bx i + ε i, i = 1,..., n. In Matrix-Vektor-Form lauten diese Gleichungen mit y = x θ + ε y = (y1,..., y n ) T (Vektor der abhängigen Variablen), ε = (ε1,..., ε n ) T (Vektor der Residuen), θ = (a, b) T (Parametervektor, Vektor der Regressionskoeffizienten), 1 x 1 1 x 2 x = (Planmatrix, Designmatrix)... 1 x n Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

4 Normalgleichungssystem für die einfache lineare Regression Bem. Die Methode der kleinsten Quadrate besteht in der Bestimmung des Schätzvektors ˆθ durch ˆθ = arg min θ R 2(y x θ)t (y x θ) = arg min θ R 2 εt ε Beh. Ein in Bem definierter Vektor ˆθ ist Lösung des linearen Gleichungssystems (des Normalgleichungssystems) x T x θ = x T y. Ist die Matrix x T x regulär (invertierbar), dann existiert eine eindeutige Lösung ( 1 ˆθ = x x) T x T y. Die empirischen Regressionskoeffizienten (die Komponenten von ˆθ ) sind Linearkombinationen der Messwerte y 1,..., y n. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

5 Beispiel Fe-Bestimmung Bsp. Daten aus: Danzer, Hobert, Fischbacher, Jagemann, Chemometrik Grundlagen und Anwendungen, Springer, 2001, Tabelle 7.2, S Daten: Fe-Bestimmung, die mittels GF-AAS (Graphitrohr-Atomabsorbtionsspektrometrie) bei λ = nm über eine Variation der Einwage durchgeführt wurde. x i Masse in ng Peakhöhe y i i x i y i Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

6 Regressionsgerade im Beispiel Regressionsgerade: y = x. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

7 Residuenplot zum Beispiel (Regressionsgerade) Bestimmtheitsmaß: B = Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

8 Regressionsparabel im Beispiel Regressionsparabel: y = x x 2. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

9 Residuenplot zum Beispiel (Regressionsparabel) Bestimmtheitsmaß: B = Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

10 Gleichungssystem zur Bestimmung der Regressionsparabel Beh. Das lineare Gleichungssystem zur Bestimmung der Regressionsparabel (Ausgleichsparabel) y = â + ˆbx + ĉx 2 lautet n n n x i xi 2 i=1 i=1 n n n x i xi 2 xi 3 â y 1 ˆb = x 1... x n. i=1 i=1 i=1 n n n ĉ x xn 2 y n xi 2 i=1 xi 3 i=1 xi 4 i=1 oder x T x ˆθ = x T y mit x = y = (y 1,..., y n ) T x 1... x n x xn 2 T, ˆθ = (â, ˆb, ĉ) T und Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

11 Der Fall symmetrisch liegender Werte x i Bem. Liegen die Werte x i, i = 1,..., n, symmetrisch zu Null (dies kann ggf. durch eine affin lineare Transformation erreicht werden), ergeben sich einfachere Formeln, da dann n i=1 x p i = 0 für ein ungerades p gilt. Im Fall der einfachen linearen Regression erhält man so â = n i=1 y i n = y, ˆb = n i=1 x iy i n i=1 x 2 i. Für die Regressionsparabel erhält man in diesem Fall mit h 1 = n i=1 x i 2, h 2 = n i=1 x i 4, h 3 = nh 1 h 2 h1 3 die Formeln ( ) â = h n n 1 h 2 y i h 1 xi 2 y i, ˆb = nh 2 h 2 n 1 x i y i, h 3 h 3 i=1 i=1 i=1 ( ĉ = h 1 h 3 n n xi 2 y i h 1 i=1 ) n y i. i=1 Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

12 Das stochastische Modell (einfache lineare Regression) Für weiterführende statistische Aussagen wie Konfidenzintervalle oder Tests muss ein stochastisches Modell genutzt werden Modell Y i = a + bx i + ε i, i = 1,..., n, wobei die Werte x i deterministische, einstellbare Werte sind und der Zufallseinfluss (Messfehler bei der Messung der Größe y, nicht berücksichtigte Einflussgrößen, Fehler in der Wahl der Klasse der Regressionsfunktionen zufällige Fehler ) durch unabhängige normalverteilte Zufallsgrößen ε i mit E[ε i ] = 0 und Var[ε i ] = σ 2 (unbekannt, nicht von i abhängig) modelliert werden. Damit werden die beobachteten Werte als Realisierungen von Zufallsgrößen angesehen, wobei obige Gleichungen das stochastische Beobachtungsmodell (oder Messmodell) definieren. Die Koeffizienten a und b werden als deterministische, aber unbekannte Parameter angesehen (im Rahmen der klassischen mathematischen Statistik). Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

13 Eigenschaften der Schätzer für die Parameter a und b Beh. Unter den Voraussetzungen für Modell gelten: Die Kleinste-Quadrat-Schätzwerte ˆb bzw. â sind Realisierungen erwartungstreuer und konsistenter Schätzfunktionen ˆB = n (x i x)(y i Y ) i=1 = n (x i x) 2 i=1 n x i Y i nx Y i=1 für die Modellparameter b bzw. a., Â = Y n ˆBx xi 2 nx 2 Die Schätzfunktionen für â bzw. ˆb sind auch die besten linearen unverzerrten Schätzer (d.h. die linearen erwartungstreuen Schätzer mit kleinstmöglicher Varianz, BLUE, best linear unbiased estimator ) für die Modellparameter a bzw. b. i=1 Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

14 Schätzung der Fehlervarianz Beh. Unter den Voraussetzungen für Modell gilt: Die Fehlervarianz Var[ε i ] = σ 2 kann geschätzt werden durch ˆσ 2 = srest 2 = 1 n 2 SSR = 1 n (y i ŷ i ) 2. n 2 Der Schätzwert ist die Realisierung der erwartungstreuen Schätzfunktion ˆσ 2 = SRest 2 = 1 n 2 SSR = 1 n (Y i Ŷ i ) 2. n 2 (Der Nenner n 2 gewährleistet die Erwartungstreue, d.h. Unverzerrtheit, des Schätzers und hängt damit zusammen, dass 2 Parameter geschätzt werden und nicht als bekannte Werte vorliegen.) i=1 i=1 Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

15 Tests für die Parameter a und b Beh. Unter den Voraussetzungen für Modell gelten: Hypothesen: H 0 : a = a 0, H A : a a 0 bzw. H 0 : b = b 0, H A : b b 0. Testwerte: t = â a 0 s a mit s 2 a = ( 1 n + x 2 n i=1 (x i x) 2 ) ˆσ 2 bzw. t = ˆb b 0 mit sb 2 s = ˆσ 2 n b i=1 (x. i x) 2 Diese dazugehörigen Testgrößen sind unter H 0 t verteilt mit n 2 Freiheitsgraden. Kritischer Bereich zum Niveau α: K = {t R : t > t n 2;1 α/2 }. Analog können einseitige Tests durchgeführt werden. Unter den angegebenen Bedingungen gelten ] ( 1 Var[Â = n + x 2 ) ] n i=1 (x i x) 2 σ 2, Var[ ˆB = σ 2 n i=1 (x i x) 2. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

16 Konfidenzintervalle für die Parameter Beh. Unter den Voraussetzungen für Modell gelten: Ein Konfidenzintervall für a zum Niveau 1 α ist [â s a t n 2;1 α/2 ; â + s a t n 2;1 α/2 ]. Ein Konfidenzintervall für b zum Niveau 1 α ist [ˆb s b t n 2;1 α/2 ; ˆb + s a t n 2;1 α/2 ]. Ein Konfidenzintervall [ für die Fehlervarianz σ 2 zum Niveau ] 1 α ist (n 2)ˆσ 2 /χ 2 n 2;1 α/2 ; (n 2)ˆσ2 /χ 2 n 2;α/2. Simultane Konfidenzintervalle zum Niveau 1 α sind die folgenden. Das erste Intervall überdeckt a, das zweite b, wobei insgesamt das Niveau 1 α eingehalten wird: [ ] 2s 2a F 2;n 2;1 α â [ ˆb 2sa 2 F 2;n 2;1 α ; â + 2sb 2F 2;n 2;1 α; ˆb +, ] 2sb 2F 2;n 2;1 α. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

17 Konfidenzintervalle für die Regressionsgerade Häufig möchte man jedoch Konfidenzintervalle für den Wert der Regressionsgerade an einer Stelle x (oder für ein Intervall von x Werten) bestimmen, d.h. für E[Y (x)] = a + bx Beh. Ein solches Konfidenzintervall zum Niveau 1 α kann unter den Voraussetzungen für Modell berechnet werden durch [ŷ(x) d; ŷ(x) + d] mit ŷ(x) = â + ˆbx und d = s Rest t n 2,1 α/2 1 n + (x x) 2 n i=1 (x i x) 2. Für unterschiedliche Werte x erhält man unterschiedliche Abstände zwischen der oberen und unteren Grenze. Für alle x Werte betrachtet ergibt sich ein Konfidenzstreifen (Konfidenzschlauch), der an der Stelle x = x am schmalsten ist. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

18 Prognoseintervalle für Y (x) Berechnet man ein zufälliges Intervall, welches mit einer vorgegebenen Wahrscheinlichkeit 1 α eine Realisierung von Y (x) = a + bx + ε(x) überdeckt, erhält man ein sogenanntes Prognoseintervall für Y (x) zum Niveau 1 α Beh. Ein solches Prognoseintervall zum Niveau 1 α kann unter den Voraussetzungen für Modell berechnet werden durch [ŷ(x) d; ŷ(x) + d] mit ŷ(x) = â + ˆbx und d = s Rest t n 2,1 α/ n + (x x) 2 n i=1 (x i x) 2. Bei Betrachtung beliebiger x Werte erhält man wieder einen Streifen um die Regressionsgerade, den Prognosestreifen. Er ist breiter als der zugehörige Konfidenzstreifen zum selben Niveau. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

19 Konfidenzstreifen für Löslichkeitsdaten von NaNO Bsp. Regressionsgerade (blau), Konfidenzstreifen (rot), Prognosestreifen (grün), Mittelwertlinie (grau) für Daten aus Bsp (Konfidenzniveau 0.95) Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

20 Einfache lineare Regression durch den Koordinatenursprung Bem. Bei bestimmten Problemstellungen ist es sinnvoll zu fordern, dass die Regressionsgerade durch den Koordinatenursprung geht. Man spricht dann auch von einer Regression ohne Absolutglied oder einer eigentlich-linearen Regression. Man erhält nun als Modellansatz Y i = b x i + ε i, i = 1,..., n ; als Schätzung für den Parameter b n i=1 ˆb = x iy i n i=1 x i 2 und als Schätzung für die Varianz der zufälligen Fehler ˆσ 2 = 1 n 1 n (y i ŷ i ) 2 mit ŷ i = ˆb x i. i=1 Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

21 Regressionsgerade durch Nullpunkt im Beispiel Regressionsgerade: y = x. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

22 Residuenplot zum Beispiel lin. Regression durch 0 Bestimmtheitsmaß: B = Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

23 Residualanalyse zur Überprüfung des Modells Bem. Durch eine Analyse der Residuen ist eine Überprüfung der Modellannahmen möglich, z.b. bei der linearen Einfachregression. Zu den Modellannahmen gehören sowohl die Wahl der Klasse der Regressionsfunktionen als auch die Annahmen an die zufälligen Fehler: der Typ der Verteilung (oft Normalverteilung) und deren Parameter (Erwartungswerte gleich Null und konstante Varianzen Homoskedastizität) und Unabhängigkeit. Ist der Modellansatz, z.b. die Annahme einer Normalverteilung für die zufälligen Fehler ε i, i = 1,..., n, richtig, dann sind die Residuen ε i = Y i ŷ i approximativ unabhängig und identisch normalverteilt. Die Überprüfung der Modellannahmen mit Hilfe der Residuen kann durch statistische Tests erfolgen (z.b. Verteilungstests). Hinweise kann auch eine grafische Analyse liefern. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

24 Grafische Analyse der Residuen - Heteroskedastizität Bem. Bei bestimmten typischen Mustern in den Grafiken kann man dann unter Umständen auf spezielle Modellfehler schliessen. Vermutung, dass Fehlerzufallsgrößen unterschiedliche Varianzen besitzen (Heteroskedastizität). Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

25 Grafische Analyse der Residuen Vermutung: Fehlspezifikation der Regressionsfunktion, z.b. quadratische Regression oder Strukturbruch. Vermutung: richtige Spezifikation des Regressionsmodells und Homoskedastizitätsannahme erfüllt. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

26 Verschiedene Residuendarstellungen Bem. Die grafische Darstellung der Residuen kann z.b. bezüglich der Fallnummern, der x i Werte oder der geschätzten Werte ŷ i erfolgen. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

27 4.1.3 Multiple parameterlineare Regression Bem. Im Folgenden soll die Abhängigkeit eines Regressanden (einer Wirkungsgröße oder einer endogenenen Variablen) Y von mehreren Regressoren (Einflussgrößen oder exogenen Variablen) X 1,..., X m beschrieben werden, d.h. es soll gelten Y f (X 1,..., X m ) mit einer geeigneten Funktion f : R m R. Wir werden wieder annehmen, dass die Regressoren deterministisch sind (z.b. mit exakt einstellbaren Werten) und dies durch kleine Buchstaben x 1,..., x m in den Gleichungen kennzeichnen. Man erhält dann als Modellgleichung Y (x 1,..., x m ) = f (x 1,..., x m ) + ε mit einem zufälligen Fehler ε = ε(x 1,..., x m ). Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

28 Beispiele für parameterlineare Ansätze Bsp. Häufig werden bei solchen Aufgabenstellungen parameterlineare Ansätze verwendet, d.h. man setzt eine Beziehung Y (x 1,..., x m ) = a 1 f 1 (x 1,..., x m ) a r f r (x 1,..., x m ) + ε mit speziell gewählten, bekannten Funktionen f 1,..., f r und zu bestimmenden Koeffizienten (Parametern) a 1,..., a r voraus. Im eigentlich nichtmultiplen Fall m = 1 (nur eine Einflussgröße) gilt bei der polynomiellen Regression vom Grade k Y (x) = a 0 + a 1 x a k x k + ε. Der m faktorielle Ansatz ohne Wechselwirkungen Y (x 1,..., x m ) = a 0 + a 1 x a m x m + ε definiert die Ausgleichsebene (ebene Regression). Bem.: Eine Gleichung y = a 0 + a 1 x a m x m (Hyper-)Ebene im (m + 1) dimensionalen Raum. definiert eine Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

29 Fortsetzung Beispiele für parameterlineare Ansätze Als Beispiel eines m faktoriellen Ansatzes mit Wechselwirkungen werde hier noch der Fall einer multiplen quadratischen Regression vorgestellt: Y (x 1,..., x m ) = a 0 + a 1 x a m x m + a 12 x 1 x a m 1,m x m 1 x m + a 11 x a mm x 2 m + ε. Auch höhere Polynomgrade oder andere Funktionen der Variablen x 1,..., x m sind möglich und werden auch verwendet. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

30 Regressionsansatz in Vektorschreibweise Bem. Analog zu früheren Ausführungen ist es vorteilhaft, die Vektorschreibweise zu nutzen. Es seien x = (x 1,..., x m ) T = f(x) = (f 1 (x),..., f r (x)) T = x 1. x m, a = (a 1,..., a r ) T = f 1 (x). f r (x). Der parameterlineare Ansatz kann dann geschrieben werden als a 1. a r, Y (x) = a T f(x) + ε(x). (1) Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

31 Die Methode der kleinsten Quadrate Bem. Sind die (zufallsbeeinflussten) Wirkungen y i für i = 1,..., n an den Einflussstellen x i = (x i1,..., x ik ) T durch Messungen bestimmt worden, kann man mit Hilfe der Methode der kleinsten Quadrate eine geeignete Schätzung â des Vektors a der Regressionskoeffizienten im parameterlinearen Ansatz (1) finden. Die Schätzung â ist ein Vektor von Regressionskoeffizienten a, für n ( 2 den y i a T f(x i )) minimal wird. i=1 Die geschätzte Regressionsfunktion ist dann ŷ(x) = â 1 f 1 (x) â r f r (x) = â T f(x) = f(x) T â. Im Weiteren genutzte Bezeichnungen sind y = (y 1,..., y n ) T f = (f(x 1 ),..., f(x n )) T = f 1 (x 1 )... f r (x 1 )..... f 1 (x n )... f r (x n ). und Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

32 Das Normalgleichungssystem Beh. Die Schätzung â des Vektors a der Regressionskoeffizienten kann dann mit Hilfe des Normalgleichungssystems gefunden werden: f T f â = f T y. (2) Dies ist ein lineares Gleichungssystem zur Bestimmung der Komponenten von â. Ist die Matrix f T f regulär, dann ist (2) eindeutig auflösbar und es gilt ( 1 â = f f) T f T y. (3) Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

33 Eigenschaften der Schätzung Beh. Unter der Annahme, dass die beobachteten Werte y i Zufallsgrößen Realisierungen der Y i = a 1 f 1 (x i ) a r f r (x i ) + ε i sind, wobei die zufälligen Fehler ε i unabhängige normalverteilte Zufallsgrößen mit Erwartungswert 0 und konstanter Varianz σ 2 sind, ist die Schätzung â aus (3) erwartungstreu und konsistent. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

34 Beispiel Bsp. Bearbeitungszeit y, Durchmesser x 1 und Länge x 2 von Werkstücken (Quelle: Hartung, Elpelt, Klösener, Statistik Lehr- und handbuch der angewandten Statistik, Oldenbourg Verlag, 2009, Kap. 10, Tab. 9) Daten: y x x Gleichung der Regressionsebene y = x x 2. Bestimmheitsmaß: B = Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

35 Beobachtete versus geschätzte Werte im Beispiel Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

36 Residuenplot zum Beispiel Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

37 Streuungszerlegung Beh. und Def. Wie im Fall der einfachen linearen Regression gilt für den parameterlinearen Ansatz die Quadratsummenzerlegung (Streuungszerlegung) SST = SSE + SSR (bei Schätzung der Regressionskoeffizienten mit der Methode der kleinsten Quadrate). Dabei sind wieder n SST = (y i y) 2, die Totalvariabilität (Totalvarianz); SSE = SSR = i=1 n (ŷ i y) 2, die erklärte Variabilität (erklärte Varianz); i=1 n (y i ŷ i ) 2, die Restvariabilität (Restvarianz). i=1 Das Bestimmtheitsmaß ist B = SSE SST = 1 SSR SST = r 2 Y (f 1 (X),...,f r (X)). Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

38 Schätzung der Fehlervarianz Bem. Eine konstante Varianz der zufälligen Fehler ε i (und damit der Zufallsgrößen Y (x i ) kann analog zum Fall der einfachen linearen Regression durch ˆσ 2 = srest 2 = SSR n r geschätzt werden. Der Nenner n r ist durch die Schätzung von r Parametern bedingt. Für die folgenden Aussagen zu Konfidenzschätzungen und Tests setzen wir wieder voraus, dass die zufälligen Fehler ε i unabhängige normalverteilte Zufallsgrößen mit Erwartungswert 0 und konstanter Varianz σ 2 sind. Mit m i wird in den nächsten Folien das i te Diagonalelement der Matrix (f T f) 1 bezeichnet. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

39 Konfidenzschätzungen Bem. Konfidenzintervall zum Niveau 1 α für die Komponente a i von a : [ ] I = â i t n r;1 α/2 s 2Rest m i ; â i + t n r;1 α/2 srest 2 m i. Konfidenzintervall zum Niveau 1 α für die Regressionsfunktion f(x) T a : [ I = f(x) T â t n r;1 α/2 srest 2 f(x)t (f T f) 1 f(x) ; ] f(x) T â + t n r;1 α/2 srest 2 f(x)t (f T f) 1 f(x). Auch Prognoseintervalle können konstruiert werden. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

40 t Test für einzelnen Parameter Bem. Hypothesen: H 0 : a i = a (0) i, H A : a i a (0) i. Testgröße: T = âi a (0) i. srest 2 m i Diese Testgröße ist unter H 0 Kritischer Bereich zum Niveau α : t verteilt mit n r Freiheitsgraden. K = {t R : t > t n r;1 α/2 }. Analog können einseitige Tests durchgeführt werden. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

41 F Test für das Modell (Varianzanalyse) Bem. Wir setzen voraus, dass f 1 (x) = 1 gilt, d.h. a 1 im Modell. ist die Konstante Hypothesen: H 0 : a 2 =... = a r = 0, H A : a i 0 für ein i > 1. Testgröße: T = MSE MSR SSE SSR mit MSE =, MSR = r 1 n r. Diese Testgröße ist unter H 0 F verteilt mit (r 1; n r) Freiheitsgraden. Kritischer Bereich zum Niveau α : K = {t R : t > F r 1;n r;1 α }. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

42 t Test bezüglich der ganzen Regressionsfunktion Bem. Hypothesen: H 0 : d T a = c, H A : d T a c mit gegebenem Vektor d und reeller Zahl c. d T â c Testgröße: T =. srest 2 dt (f T f) 1 d Diese Testgröße ist unter H 0 t verteilt mit n r Freiheitsgraden. Kritischer Bereich zum Niveau α : K = {t R : t > t n r;1 α/2 }. Setzt man insbesondere d = f(x) für einen bestimmten Vektor x der Regressoren, so kann man damit testen, ob der Wert der Regressionsfunktion f (x) = a T f(x) an der Stelle x signifikant von c abweicht. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

43 F Test zur Modellüberprüfung Bem. Allgemein gilt, dass bei großen Werten der Restvarianz (der Restquadratsumme) das gewählte Modell schlecht ist. Ist eine gute Anpassung aber möglich, dann interessiert oft die Frage, ob auch schon ein kleineres Modell, d.h. ein Modell mit einer geringeren Anzahl von Ansatzfunktionen adäquat ist. Dieses kann für ein gewähltes großes Modell (r g Ansatzfunktionen, Restquadratsumme SSR g ) und ein gewähltes kleines Modell (r k Ansatzfunktionen, Restquadratsumme SSR k ) mit Hilfe eines F Tests überprüft werden. Hypothesen: H 0 : kleines Modell ist ausreichend, H A : kleines Modell ist nicht ausreichend. Testgröße: T = n r g SSR k SSR g. SSR g r k Kritischer Bereich (Niveau α): K = {t R : t > F rk ;n r g ;1 α}. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

44 4.2 Ergänzungen Bem. Gehen die zu bestimmenden Parameter nichtlinear in die Modellgleichung der Regressionsfunktion ein, muss das bei Nutzung der Methode der kleinsten Quadrate entstehende Minimierungsproblem mit Hilfe anderer, nichtlinearer Methoden, gelöst werden. In der Chemometrie hat man es öfters mit vielen Merkmalen (und nicht so vielen Beobachtungen) zu tun. In diesen Fällen kann zum Beispiel die Hauptkomponentenregression oder die Methode der partiellen kleinsten Quadrate ( partial least squares regression, PLS regression ) genutzt werden. Bei diesen Methoden werden als Regressoren nicht die urprünglichen Merkmale genutzt, sondern wenige, gut geeignete latente Variablen, die wieder linear mit den Beobachtungsvariablen zusammenhängen. Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

45 Beispielanwendung: Datensatz gasoline Bsp. Die Nutzung des R-Paketes pls wird z.b. in Mevik, Wehrens, Introduction to the pls Package, 2016, beschrieben. Ein Beispiel ist der Datensatz gasoline, wobei die Oktanzahl durch geeignete latente Variablen, basierend auf den NIR-Spektrenwerten, beschrieben werden sollen. Beispielhaft wird eine PLS-Regression mit 10 Komponenten berechnet. Die Werte der Anteile der erklärten Varianzen für die Gesamtdaten durch die berechneten Komponenten betragen Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

46 RMSEP-Grafik Beispiel (RMSEP: Root Mean Squared Error of Prediction) Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

47 Beobachtete versus geschätzte Werte im Beispiel Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

48 Ladungen im Beispiel 4.2.2, erste 2 Komponenten Prof. Dr. Hans-Jörg Starkloff Versuchsplanung & multivariate Statistik 12 Version

Statistik II für Betriebswirte Vorlesung 12

Statistik II für Betriebswirte Vorlesung 12 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 12 11. Januar 2013 7.3. Multiple parameterlineare Regression Im Folgenden soll die

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers 4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Die Funktion f wird als Regressionsfunktion bezeichnet.

Die Funktion f wird als Regressionsfunktion bezeichnet. Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3. Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die

Mehr

1 Beispiel zur Methode der kleinsten Quadrate

1 Beispiel zur Methode der kleinsten Quadrate 1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25

Mehr

Prognoseintervalle für y 0 gegeben x 0

Prognoseintervalle für y 0 gegeben x 0 10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

Zusammenfassung: Einfache lineare Regression I

Zusammenfassung: Einfache lineare Regression I 4 Multiple lineare Regression Multiples lineares Modell 41 Zusammenfassung: Einfache lineare Regression I Bisher: Annahme der Gültigkeit eines einfachen linearen Modells y i = β 0 + β 1 x i + u i, i {1,,

Mehr

Mathematik III - Statistik für MT(Master)

Mathematik III - Statistik für MT(Master) 3. Regressionsanalyse Fachbereich Grundlagenwissenschaften Prof. Dr. Viola Weiß Wintersemester 0/03 Mathematik III - Statistik für MTMaster 3. Empirische Regressionsgerade Optimalitätskriterium: Die Summe

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Vorlesung: Lineare Modelle

Vorlesung: Lineare Modelle Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen

Mehr

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem

Mehr

Regression und Korrelation

Regression und Korrelation Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

Kurs Empirische Wirtschaftsforschung

Kurs Empirische Wirtschaftsforschung Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische

Mehr

2.5 Lineare Regressionsmodelle

2.5 Lineare Regressionsmodelle 2.5.1 Wiederholung aus Statistik I Gegeben Datenpunkte (Y i, X i ) schätze die beste Gerade Y i = β 0 + β 1 X i, i = 1,..., n. 2 Induktive Statistik 409 Bsp. 2.30. [Kaffeeverkauf auf drei Flohmärkten]

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

6.2 Lineare Regression

6.2 Lineare Regression 6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004

Mehr

Statistikpraktikum. Carsten Rezny. Sommersemester Institut für angewandte Mathematik Universität Bonn

Statistikpraktikum. Carsten Rezny. Sommersemester Institut für angewandte Mathematik Universität Bonn Statistikpraktikum Carsten Rezny Institut für angewandte Mathematik Universität Bonn Sommersemester 2014 Mehrdimensionale Datensätze: Multivariate Statistik Multivariate Statistik Mehrdimensionale Datensätze:

Mehr

Dr. W. Kuhlisch Dresden, Institut für Mathematische Stochastik

Dr. W. Kuhlisch Dresden, Institut für Mathematische Stochastik Dr. W. Kuhlisch Dresden, 12. 08. 2014 Institut für Mathematische Stochastik Klausur Statistik für Studierende der Fachrichtungen Hydrologie und Altlasten/Abwasser zugelassene Hilfsmittel: Taschenrechner

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen

2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen .1. Stochastische ökonometrische Modelle.1 Einführung Ziele: - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen - Numerische Konkretisierung ökonomischer Modelle und deren Analse. . Variierende

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests. 0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

Klausur zu Statistik II

Klausur zu Statistik II GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel

Mehr

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander

Mehr

Lösung Übungsblatt 5

Lösung Übungsblatt 5 Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von

Mehr

Lineare Regression (Ein bisschen) Theorie

Lineare Regression (Ein bisschen) Theorie Kap. 6: Lineare Regression (Ein bisschen) Theorie Lineare Regression in Matrixform Verteilung des KQ-Schätzers Standardfehler für OLS Der Satz von Gauss-Markov Das allgemeine lineare Regressionsmodell

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

1. Lösungen zu Kapitel 7

1. Lösungen zu Kapitel 7 1. Lösungen zu Kapitel 7 Übungsaufgabe 7.1 Um zu testen ob die Störterme ε i eine konstante Varianz haben, sprich die Homogenitätsannahme erfüllt ist, sind der Breusch-Pagan-Test und der White- Test zwei

Mehr

Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller

Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn

Mehr

Die Regressionsanalyse

Die Regressionsanalyse Die Regressionsanalyse Zielsetzung: Untersuchung und Quantifizierung funktionaler Abhängigkeiten zwischen metrisch skalierten Variablen eine unabhängige Variable Einfachregression mehr als eine unabhängige

Mehr

Einführung in die Statistik

Einführung in die Statistik Einführung in die Statistik Analyse und Modellierung von Daten von Prof. Dr. Rainer Schlittgen Universität Hamburg 12., korrigierte Auflage Oldenbourg Verlag München Inhaltsverzeichnis 1 Statistische Daten

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

Statistik II für Betriebswirte Vorlesung 1

Statistik II für Betriebswirte Vorlesung 1 Statistik II für Betriebswirte Vorlesung 1 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 19. Oktober 2016 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 6. Juli 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 13 Version: 7. Juli

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden in Quantitative Methoden Mag. Dipl.Ing. Dr. Pantelis Christodoulides & Mag. Dr. Karin Waldherr SS 2011 Christodoulides / Waldherr in Quantitative Methoden- 2.VO 1/47 Historisches Regression geht auf Galton

Mehr

Klausur zur Vorlesung

Klausur zur Vorlesung Institut für Mathematische Stochastik WS 2006/2007 Universität Karlsruhe 12. Februar 2007 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Aufgabe 1 (15 Punkte) Klausur zur Vorlesung Statistik für Biologen

Mehr

Vorlesung: Lineare Modelle. Verschiedene Typen von Residuen. Probleme bei der Regression und Diagnose. Prof. Dr. Helmut Küchenhoff.

Vorlesung: Lineare Modelle. Verschiedene Typen von Residuen. Probleme bei der Regression und Diagnose. Prof. Dr. Helmut Küchenhoff. Vorlesung: Lineare Modelle Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München SoSe 205 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen.

Mehr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X

Mehr

Empirische Wirtschaftsforschung

Empirische Wirtschaftsforschung Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 6.. Herleitung des OLS-Schätzers

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen.

Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen. Kapitel 3 Schließende lineare Regression 3.1. Einführung induktiv Fragestellungen Modell Statistisch bewerten, der vorher beschriebenen Zusammenhänge auf der Basis vorliegender Daten, ob die ermittelte

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall

Mehr

Ökonometrie. Hans Schneeweiß. 3., durchgesehene Auflage. Physica-Verlag Würzburg-Wien 1978 ISBN

Ökonometrie. Hans Schneeweiß. 3., durchgesehene Auflage. Physica-Verlag Würzburg-Wien 1978 ISBN 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Hans Schneeweiß Ökonometrie 3., durchgesehene Auflage Physica-Verlag

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2002

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2002 Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2002 1. Ein Chemiestudent hat ein Set von 10 Gefäßen vor sich stehen, von denen vier mit Salpetersäure Stoff A), vier mit Glyzerin Stoff

Mehr

Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess

Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Name: Vorname: Matrikelnummer: Lösungsvorschlag zur Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik (Stochastik) Datum: 07.

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Ausgangsdaten Bundesliga 2008/2009 Gegeben: Daten zu den 18 Vereinen der ersten Bundesliga

Mehr

Lineare Regression mit einem Regressor: Einführung

Lineare Regression mit einem Regressor: Einführung Lineare Regression mit einem Regressor: Einführung Quantifizierung des linearen Zusammenhangs von zwei Variablen Beispiel Zusammenhang Klassengröße und Testergebnis o Wie verändern sich Testergebnisse,

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Die Familie der χ 2 (n)-verteilungen

Die Familie der χ 2 (n)-verteilungen Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +

Mehr

Statistik II für Betriebswirte Vorlesung 1

Statistik II für Betriebswirte Vorlesung 1 Statistik II für Betriebswirte Vorlesung 1 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. Oktober 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 1 Version:

Mehr

Die Familie der χ 2 (n)-verteilungen

Die Familie der χ 2 (n)-verteilungen Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.

Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression. Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, 10.07.017 Wahrscheinlichkeit und Statistik Patric Müller WBL

Mehr

Statistische Eigenschaften der OLS-Schätzer, Residuen,

Statistische Eigenschaften der OLS-Schätzer, Residuen, Statistische Eigenschaften der OLS-Schätzer, Residuen, Bestimmtheitsmaß Stichwörter: Interpretation des OLS-Schätzers Momente des OLS-Schätzers Gauss-Markov Theorem Residuen Schätzung von σ 2 Bestimmtheitsmaß

Mehr

Lineare Regression und Varianzanalyse

Lineare Regression und Varianzanalyse Lineare Regression und Varianzanalyse Von Prof. Dr. Fritz Pokropp Universität der Bundeswehr Hamburg R. Oldenbourg Verlag München Wien Inhaltsverzeichnis 1 Einleitung 1 1.1 Grundstruktur linearer Modelle

Mehr

Lineare Regression in R, Teil 1

Lineare Regression in R, Teil 1 Lineare Regression in R, Teil 1 Christian Kleiber Abt. Quantitative Methoden, WWZ, Universität Basel October 6, 2009 1 Vorbereitungen Zur Illustration betrachten wir wieder den Datensatz CASchools aus

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.

Mehr

Statistik II. Regressionsanalyse. Statistik II

Statistik II. Regressionsanalyse. Statistik II Statistik II Regressionsanalyse Statistik II - 23.06.2006 1 Einfachregression Annahmen an die Störterme : 1. sind unabhängige Realisationen der Zufallsvariable, d.h. i.i.d. (unabh.-identisch verteilt)

Mehr

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen. Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf

Mehr

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.

Mehr

Statistisches Testen

Statistisches Testen Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall

Mehr

3. Das einfache lineare Regressionsmodell

3. Das einfache lineare Regressionsmodell 3. Das einfache lineare Regressionsmodell Ökonometrie: (I) Anwendung statistischer Methoden in der empirischen Forschung in den Wirtschaftswissenschaften Konfrontation ökonomischer Theorien mit Fakten

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Klausur zu Statistik II

Klausur zu Statistik II Goethe-Universität Frankfurt Prof. Dr. Uwe Hassler FB Wirtschaftswissenschaften Sommersemester 2005 Klausur zu Statistik II Version B Bitte tragen Sie hier und auf den Lösungsblättern (oben links) Ihre

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

Interpretation von Testergebnissen I

Interpretation von Testergebnissen I 2 Wiederholung statistischer Grundlagen Schließende Statistik 2.3 Interpretation von Testergebnissen I Durch die Asymmetrie in den Fehlerwahrscheinlichkeiten 1. und 2. Art ist Vorsicht bei der Interpretation

Mehr

Analyse von Querschnittsdaten. Heteroskedastizität

Analyse von Querschnittsdaten. Heteroskedastizität Analyse von Querschnittsdaten Heteroskedastizität Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004 03.11.2004

Mehr

5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung

5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung 5 Konfidenzschätzung 5. Einige Grundbegriffe zur Konfidenzschätzung Diesem Kapitel liegt das parametrische Modell {X, B X, P } mit P {P Θ} zugrunde. {Θ, B Θ } sei ein Meßraum über Θ und µ ein σ-finites

Mehr

Statistik für Ingenieure Vorlesung 13

Statistik für Ingenieure Vorlesung 13 Statistik für Ingenieure Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 6. Februar 2018 5.1.4. Weitere ausgewählte statistische Tests a) Binomialtest Der Binomialtest

Mehr

Als lineare Regressionsaufgabe, d. h., Regression von Y auf X, ergibt sich nun:

Als lineare Regressionsaufgabe, d. h., Regression von Y auf X, ergibt sich nun: 5 Regression Oft interessiert uns der Zusammenhang zwischen zwei Merkmalen X und Y einer Einheit, etwa, wie Gewicht und Größe von Menschen voneinander abhängen. Einfach zu sagen, je größer, desto schwerer

Mehr

Einführung in die Statistik

Einführung in die Statistik Einführung in die Statistik Analyse und Modellierung von Daten Von Prof. Dr. Rainer Schlittgen 4., überarbeitete und erweiterte Auflage Fachbereich Materialwissenschaft! der Techn. Hochschule Darmstadt

Mehr

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Typisierung der stetigen theoretischen Verteilungen Bibliografie:

Mehr

3.1 Punktschätzer für Mittelwert µ und Varianz σ 2. Messungen x 1,..., x N, die unabhängig voneinander auf gleiche Weise gewonnen worden sind

3.1 Punktschätzer für Mittelwert µ und Varianz σ 2. Messungen x 1,..., x N, die unabhängig voneinander auf gleiche Weise gewonnen worden sind Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 3.1 3.1 Punktschätzer für Mittelwert µ und Varianz σ 2 Messungen x 1,..., x N, die unabhängig voneinander auf gleiche Weise gewonnen worden

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr