Statistik II für Betriebswirte Vorlesung 12

Größe: px
Ab Seite anzeigen:

Download "Statistik II für Betriebswirte Vorlesung 12"

Transkript

1 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung Januar 2013

2 7.3. Multiple parameterlineare Regression Im Folgenden soll die Abhängigkeit eines Regressanden (einer Wirkungsgröße oder einer endogenenen Variablen) Y von mehreren Regressoren (Einflussgrößen oder exogenen Variablen) X 1,..., X k beschrieben werden, d.h. es soll gelten Y f(x 1,..., X k ) mit einer geeigneten Funktion f : R k R. Wir werden größtenteils wieder annehmen, dass die Regressoren deterministisch sind (z.b. mit exakt einstellbaren Werten) und dies durch kleine Buchstaben x 1,..., x k in den Gleichungen kennzeichnen. Man erhält dann als Modellgleichung Y (x 1,..., x k ) = f(x 1,..., x k ) + ε(x 1,..., x k ) mit einem zufälligen Fehler ε (der im Allgemeinen abhängig von den Werten x 1,..., x k ist). Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 1

3 Parameterlineare Ansätze Häufig werden bei solchen Aufgabenstellungen parameterlineare Ansätze verwendet, d.h. man setzt eine Beziehung Y (x 1,..., x k ) = a 1 f 1 (x 1,..., x k ) a r f r (x 1,..., x k ) (1) + ε(x 1,..., x k ) mit speziell gewählten, bekannten Funktionen f 1,..., f r und zu bestimmenden Koeffizienten (Parametern) a 1,..., a r (die linear in die Gleichung eingehen) voraus. Die einfache lineare Regression mit der Modellgleichung Y (x) = a + bx + ε(x) ist ein Spezialfall davon, dort gelten k = 1, r = 2, f 1 (x) = 1, f 2 (x) = x, a 1 = a, a 2 = b. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 2

4 Beispiele für parameterlineare Ansätze Im eigentlich nichtmultiplen Fall k = 1 (nur eine Einflussgröße) gilt bei der quadratischen Regression Y (x) = a + bx + cx 2 + ε(x) und allgemeiner bei der polynomialen Regression vom Grade m Y (x) = a 0 + a 1 x a m x m + ε(x). Der k faktorielle Ansatz ohne Wechselwirkungen Y (x 1,..., x k ) = a 0 + a 1 x a k x k + ε(x 1,..., x k ) wird zur Bestimmung der Ausgleichsebene (für die ebene Regression) genutzt. Bem.: Eine Gleichung der Form y = a 0 + a 1 x a k x k definiert eine (Hyper-)Ebene im (k + 1) dimensionalen Raum von Punkten mit Koordinaten (x 1,..., x k, y). Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 3

5 Weitere Beispiele für parameterlineare Ansätze Als Beispiel eines k faktoriellen Ansatzes mit Wechselwirkungen werde hier noch der Fall einer multiplen quadratischen Regression vorgestellt: Y (x 1,..., x k ) = a 0 + a 1 x a k x k + a 12 x 1 x a k 1,k x k 1 x k + a 11 x a kk x 2 k + ε(x 1,..., x k ). Auch höhere Polynomgrade oder andere Funktionen der Variablen x 1,..., x k sind möglich und werden auch verwendet. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 4

6 Regressionsansatz in Vektorschreibweise Es ist vorteilhaft, die Vektorschreibweise zu nutzen. Es seien x = (x 1,..., x k ) T = x 1. x k f(x) = (f 1 (x),..., f r (x)) T =, a = (a 1,..., a r ) T = f 1 (x). f r (x). Der parameterlineare Ansatz kann dann geschrieben werden als a 1. a r, Y (x) = a T f(x) + ε(x), (2) wobei die Definition der Multiplikation von Vektoren (als Spezialfall der Matrixmultiplikation oder als Skalarprodukt) genutzt wird. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 5

7 Die Methode der kleinsten Quadrate Sind die (zufallsbeeinflussten) Wirkungen y i für i = 1,..., n an den Einflussstellen x i = (x 1i,..., x ki ) T durch Messungen bestimmt wurden, kann man mit Hilfe der Methode der kleinsten Quadrate eine geeignete Schätzung â des Vektors a der Regressionskoeffizienten im parameterlinearen Ansatz (2) finden. Die Schätzung â ist ein Vektor von Regressionskoeffizienten a, für den n ( yi a T f(x i ) ) 2 minimal wird. i=1 Die geschätzte Regressionsfunktion ist dann ŷ(x) = â 1 f 1 (x) â r f r (x) = â T f(x) = f(x) T â. Im Weiteren genutzte Bezeichnungen sind y = (y 1,..., y n ) T und F = ( f(x 1 ),..., f(x n ) ) f 1 (x 1 )... f r (x 1 ) T = f 1 (x n )... f r (x n ) Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 6

8 Das Normalgleichungssystem Die Schätzung â des Vektors a der Regressionskoeffizienten kann dann mit Hilfe des sogenannten Normalgleichungssystems gefunden werden: F T F â = F T y. (3) Dies ist ein lineares Gleichungssystem zur Bestimmung der Komponenten von â. Ist die Matrix F T F regulär, dann ist (3) eindeutig auflösbar und es gilt â = ( F T F ) 1 F T y. (4) Sind in dem parameterlinearen Ansatz (1) die zufälligen Fehler ε(x i ) unabhängige normalverteilte Zufallsgrößen mit Erwartungswert 0 und konstanter Varianz σ 2, dann ist die Schätzung â aus (4) erwartungstreu und konsistent. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 7

9 Beispiel Jahresumsatz Daten aus Bleymüller et al, Statistik für Wirtschaftswissenschaftler. i Filiale x 1i Verkaufsfläche in Tsd. qm x 2i Passantenfrequenz in Tsd. Passanten pro Tag Jahresumsatz in Mio. e y i i x 1i x 2i y i i x 1i x 2i y i Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 8

10 Fortsetzung Beispiel Jahresumsatz Wir wählen als Ansatz mit x = (x 1, x 2 ) T Y (x) = a 0 + a 1 x 1 + a 2 x 2 + ε(x) = (a 0, a 1, a 2 ) Dann erhält man F T = F T F = â T = ( 0.83, 4.74, 0.175), also als geschätzte Regressionsfunktion ŷ(x 1, x 2 ) = x x 2. 1 x 1 x 2,, + ε(x). Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 9

11 Streuungszerlegung Wie im Fall der einfachen linearen Regression gilt für den parameterlinearen Ansatz die Quadratsummenzerlegung (Streuungszerlegung) SST = SSE + SSR (bei Schätzung der Regressionskoeffizienten mit der Methode der kleinsten Quadrate). Dabei sind wieder n SST = (y i y) 2, die Totalvariabilität (Totalvarianz); SSE = SSR = i=1 n (ŷ i y) 2, die erklärte Variabilität (erklärte Varianz); i=1 n (y i ŷ i ) 2, die Restvariabilität (Restvarianz). i=1 Das Bestimmtheitsmaß ist B = SSE SST = 1 SSR SST = r2 Y (f 1 (X),...,f. r(x)) Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 10

12 Schätzung der Fehlervarianz Eine konstante Varianz der zufälligen Fehler ε(x i ) (und damit der Zufallsgrößen Y (x i ) kann analog zum Fall der einfachen linearen Regression durch ˆσ 2 = s 2 Rest = SSR n r geschätzt werden. Der Nenner n r ist durch die Schätzung von r Parametern bedingt. Für die folgenden Aussagen zu Konfidenzschätzungen und Tests setzen wir wieder voraus, dass die zufälligen Fehler ε(x i ) unabhängige normalverteilte Zufallsgrößen mit Erwartungswert 0 und konstanter Varianz σ 2 sind. Mit m i wird in den nächsten Folien das i te Diagonalelement der Matrix (F T F ) 1 bezeichnet. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 11

13 Konfidenzschätzungen Konfidenzintervall zum Niveau 1 α für die Komponente a i von a: ] I = [â i t n r;1 α/2 s 2Rest m i ; â i + t n r;1 α/2 s 2 Rest m i Konfidenzintervall zum Niveau 0.95 für a 2 im Beispiel: â 2 = 0.175; s 2 Rest = = ; m 2 = 0.029; t 9;0.975 = I = [0.074; 0.276]. Konfidenzintervall zum Niveau 1 α für die Regressionsfunktion f(x) T a: I = [f(x) T â t n r;1 α/2 s 2 Rest f(x)t (F T F ) 1 f(x) ; ] f(x) T â + t n r;1 α/2 s 2 Rest f(x)t (F T F ) 1 f(x). Auch Prognoseintervalle können konstruiert werden. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 12

14 t Test für einzelnen Parameter Hypothesen: H 0 : a i = a (0) i, H A : a i a (0) i. Testgröße: T = âi a (0) i s 2 Rest m i. Diese Testgröße ist unter H 0 t verteilt mit n r Freiheitsgraden. Kritischer Bereich zum Niveau α: K = {t R : t > t n r;1 α/2 }. Analog können einseitige Tests durchgeführt werden. Test mit H 0 : a 2 = 0, H A : a 2 0, α = 0.05 im Beispiel = 3.89 > 2.26 = t 9;0.975 H 0 wird abgelehnt, d.h. der Koeffizient a 2 (der die Abhängigkeit des Umsatzes von der Passantenfrequenz beschreibt) ist signifikant verschieden von 0. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 13

15 F Test für das Modell (Varianzanalyse) Wir setzen voraus, dass f 1 (x) = 1 gilt, d.h. a 1 die Konstante im Modell ist. Hypothesen: H 0 : a 2 =... = a r = 0, H A : a i 0 für ein i > 1. Testgröße: T = MSE MSR mit MSE = SSE SSR, MSR = r 1 n r. Diese Testgröße ist unter H 0 F verteilt mit (r 1; n r) Freiheitsgraden. Kritischer Bereich zum Niveau α: K = {t R : t > F r 1;n r;1 α }. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 14

16 t Test bezüglich der ganzen Regressionsfunktion Hypothesen: H 0 : a T f(x) = c, H A : a T f(x) c. a T f(x) c Testgröße: T =. s 2 Rest f(x)t (F T F ) 1 f(x) Diese Testgröße ist unter H 0 t verteilt mit n r Freiheitsgraden. Kritischer Bereich zum Niveau α: K = {t R : t > t n r;1 α/2 }. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 15

17 Beispiel: Test auf optimale Skalenelastizität Ein Produktionsprozess mit den Produktionsfaktoren x i werde durch die Cobb-Douglas-Produktionsfunktion beschrieben: ỹ = e β0 x β xβ k k. Durch die Variablentransformation y = ln ỹ, x i = ln x i, i = 1,..., k, erhält man die Beziehung y = β 0 + β 1 x β k x k. Die Größen β 1,..., β k sind die Produktionselastizitäten und ε = β β k ist die Skalenelastizität. Eine Steigerung der Produktionsfaktoren um a % bewirkt ( dann eine Steigerung der Produktionsmenge von ỹ auf ỹ 1 + a ) ε. 100 Dann interessiert die Hypothese H 0 : ε = β β k = 1 (es liegen keine positive oder negative Skaleneffekte vor). Der entsprechende Test ist ein Spezialfall des vorherigen Tests, hier gelten f(x) = (0, 1, 1,..., 1) T und c = 1. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 16

18 F Test zur Modellüberprüfung Allgemein gilt, dass bei großen Werten der Restvarianz (der Restquadratsumme) das gewählte Modell schlecht ist. Ist eine gute Anpassung aber möglich, dann interessiert oft die Frage, ob auch schon ein kleineres Modell, d.h. ein Modell mit einer geringeren Anzahl von Ansatzfunktionen adäquat ist. Dieses kann für ein gewähltes großes Modell (r g Ansatzfunktionen, Restquadratsumme SSR g ) und ein gewähltes kleines Modell (r k Ansatzfunktionen, Restquadratsumme SSR k ) mit Hilfe eines F Tests überprüft werden. Hypothesen: H 0 : kleines Modell ist ausreichend. Testgröße: T = n r g SSR k SSR g. r k SSR g Kritischer Bereich zum Niveau α: K = {t R : t > F rk ;n r g;1 α}. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 17

19 Weiteres Beispiel Daten aus Bleymüller et al, Statistik für Wirtschaftswissenschaftler, Aufgabe i Beobachtungszeitraum x i Produktionsmenge (in Tsd. Stück) y i Gesamtkosten (in Tsd. e) i x i y i i x i y i Gesuchte Regressionsfunktion: ŷ(x) = â 1 + â 2 x + â 3 x 2 + â 4 x 3 bzw. entsprechendes Polynom 2. Grades. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 18

20 Fortsetzung Beispiel: Statgraphics-Ergebnisse Mit Statgraphics geschätztes Regressionspolynom 3. Grades ŷ = x x x 3 mit Restvariabilität SSR g = Mit Statgraphics geschätztes Regressionspolynom 2. Grades ŷ = x x 2 mit Restvariabilität SSR k = Wert der Testgröße t = = Quantil der F Verteilung F 3;6;0.95 = H 0 : kleines Modell (Polynom 2. Grades) ist ausreichend wird abgelehnt. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 19

Statistik II für Betriebswirte Vorlesung 11

Statistik II für Betriebswirte Vorlesung 11 Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 07. Januar 2019 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:

Mehr

Versuchsplanung und multivariate Statistik Sommersemester 2018

Versuchsplanung und multivariate Statistik Sommersemester 2018 Versuchsplanung und multivariate Statistik Sommersemester 2018 Vorlesung 12: Lineare und nichtlineare Modellierung II Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 13.6.2018

Mehr

Statistik II für Betriebswirte Vorlesung 8

Statistik II für Betriebswirte Vorlesung 8 Statistik II für Betriebswirte Vorlesung 8 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 3. Dezember 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version:

Mehr

Versuchsplanung und multivariate Statistik Sommersemester 2018

Versuchsplanung und multivariate Statistik Sommersemester 2018 Versuchsplanung und multivariate Statistik Sommersemester 2018 Vorlesung 11: Lineare und nichtlineare Modellierung I Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 6.6.2018

Mehr

Statistik II für Betriebswirte Vorlesung 11

Statistik II für Betriebswirte Vorlesung 11 Statistik II für Betriebswirte Vorlesung 11 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 18. Januar 2017 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung

Mehr

Mathematik III - Statistik für MT(Master)

Mathematik III - Statistik für MT(Master) 3. Regressionsanalyse Fachbereich Grundlagenwissenschaften Prof. Dr. Viola Weiß Wintersemester 0/03 Mathematik III - Statistik für MTMaster 3. Empirische Regressionsgerade Optimalitätskriterium: Die Summe

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

Die Funktion f wird als Regressionsfunktion bezeichnet.

Die Funktion f wird als Regressionsfunktion bezeichnet. Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 11. Juli 016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Statistik II für Betriebswirte Vorlesung 1

Statistik II für Betriebswirte Vorlesung 1 Statistik II für Betriebswirte Vorlesung 1 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. Oktober 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 1 Version:

Mehr

Einführung in die Induktive Statistik: Regressionsanalyse

Einführung in die Induktive Statistik: Regressionsanalyse Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse

Mehr

Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen. 0 sonst.

Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen. 0 sonst. Aufgabe 1 (2 + 4 + 2 + 1 Punkte) Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen X und Y : { 2x + 2y für 0.5 x 0.5, 1 y 2 f(x, y) = 3 0 sonst. a) Berechnen

Mehr

Schätzung im multiplen linearen Modell VI

Schätzung im multiplen linearen Modell VI Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula

Mehr

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl

Mehr

Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie

Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Sommersemester 2018 Kapitel 8: Elemente der mathematischen Statistik Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik

Mehr

Lineare Regression. Kapitel Regressionsgerade

Lineare Regression. Kapitel Regressionsgerade Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Untersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. x y

Untersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. x y Aufgabe 1 Untersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. (( )) 3x x (a) Sei f : R 2 R 3 mit f = 2y + x y x y ( ) 4 (b) Sei f : R R 2 mit f(x) = x + 1 (( )) ( ) x x y (c) Sei

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Statistik II für Betriebswirte Vorlesung 4

Statistik II für Betriebswirte Vorlesung 4 Statistik II für Betriebswirte Vorlesung 4 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 6. November 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 4 Version:

Mehr

x(n x) cm 2 ) zweier Betonsorten wird überprüft. Dabei ergaben Sorte 1 185 186 184 186 185 187 186 187 185 Sorte 2 183 182 185 182 181 179

x(n x) cm 2 ) zweier Betonsorten wird überprüft. Dabei ergaben Sorte 1 185 186 184 186 185 187 186 187 185 Sorte 2 183 182 185 182 181 179 . Aufgabe: Zwei bis drei Millionen deutsche Haushalte sind überschuldet. Einer der Hauptgründe für die Überschuldung privater Haushalte ist eine gescheiterte Selbstständigkeit. In einer Stichprobe von

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

Deskriptive Beschreibung linearer Zusammenhänge

Deskriptive Beschreibung linearer Zusammenhänge 9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,

Mehr

ELEMENTARE EINFÜHRUNG IN DIE MATHEMATISCHE STATISTIK

ELEMENTARE EINFÜHRUNG IN DIE MATHEMATISCHE STATISTIK DIETER RASCH ELEMENTARE EINFÜHRUNG IN DIE MATHEMATISCHE STATISTIK MIT 53 ABBILDUNGEN UND 111 TABELLEN ZWEITE, BERICHTIGTE UND ERWEITERTE AUFLAGE s-~v VEB DEUTSCHER VERLAG DER WISSENSCHAFTEN BERLIN 1970

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Statistik II für Betriebswirte Vorlesung 11

Statistik II für Betriebswirte Vorlesung 11 Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 08. Januar 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

Varianzvergleiche bei normalverteilten Zufallsvariablen

Varianzvergleiche bei normalverteilten Zufallsvariablen 9 Mittelwert- und Varianzvergleiche Varianzvergleiche bei zwei unabhängigen Stichproben 9.3 Varianzvergleiche bei normalverteilten Zufallsvariablen Nächste Anwendung: Vergleich der Varianzen σa 2 und σ2

Mehr

Statistik I für Betriebswirte Vorlesung 5

Statistik I für Betriebswirte Vorlesung 5 Statistik I für Betriebswirte Vorlesung 5 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 7. Mai 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 5 Version: 30. April

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

Statistik in Geodäsie, Geoinformation und Bauwesen

Statistik in Geodäsie, Geoinformation und Bauwesen Wilhelm Benning Statistik in Geodäsie, Geoinformation und Bauwesen 2., überarbeitete und erweiterte Auflage Herbert Wichmann Verlag Heidelberg Matrix-Theorie 1 1.1 Matrizen und Vektoren 1 1.2 Matrixverknüpfungen

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall

Mehr

Die Stochastischen Eigenschaften von OLS

Die Stochastischen Eigenschaften von OLS Die Stochastischen Eigenschaften von OLS Das Bivariate Modell Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Wiederholung

Mehr

Zusammenfassung: Einfache lineare Regression I

Zusammenfassung: Einfache lineare Regression I 4 Multiple lineare Regression Multiples lineares Modell 41 Zusammenfassung: Einfache lineare Regression I Bisher: Annahme der Gültigkeit eines einfachen linearen Modells y i = β 0 + β 1 x i + u i, i {1,,

Mehr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X

Mehr

Dabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen

Dabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen Lineare Regression und Matrizen. Einführendes Beispiel Der im Kapitel Skalarprodukt gewählte Lösungsweg für das Problem der linearen Regression kann auch mit Matrizen formuliert werden. Die Idee wird zunächst

Mehr

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer

Mehr

Inhaltsverzeichnis. Vorwort

Inhaltsverzeichnis. Vorwort Vorwort 1 Die Grundlagen 15 Alles variiert 16 Signifikanz Gute und schlechte Hypothesen 18 Nullhypothesen 18 19 Interpretation Statistisches Modellieren 20 Maximale Wahrscheinlichkeit 21 Versuchsanordnung

Mehr

Beziehungen zwischen Verteilungen

Beziehungen zwischen Verteilungen Kapitel 5 Beziehungen zwischen Verteilungen In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.t. schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie

Mehr

Versuchsplanung. Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling

Versuchsplanung. Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling Versuchsplanung Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling Gliederung Grundlagen der Varianzanalyse Streuungszerlegung und Modellschätzer Modellannahmen und Transformationen

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers 4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis

Mehr

Statistik II für Betriebswirte Vorlesung 5

Statistik II für Betriebswirte Vorlesung 5 Statistik II für Betriebswirte Vorlesung 5 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. November 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 5 Version:

Mehr

Kapitel 19 Partialbruchzerlegung

Kapitel 19 Partialbruchzerlegung Kapitel 19 Partialbruchzerlegung Mathematischer Vorkurs TU Dortmund Seite 1 / 15 Zur Erinnerung wiederholen wir Definition 4.5 [part] Es sei n N 0 und a 0, a 1,..., a n R mit a n 0. Dann heißt die Funktion

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

Prognoseintervalle für y 0 gegeben x 0

Prognoseintervalle für y 0 gegeben x 0 10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Studiengang Schließende Statistik Sommersemester Aufgabenstellung und Ergebnisse

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Studiengang Schließende Statistik Sommersemester Aufgabenstellung und Ergebnisse Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Studiengang Schließende Statistik Sommersemester 2010 Aufgabenstellung und Ergebnisse Prof. Dr. Ralph Friedmann / Dr. Martin Becker Hinweise für die Klausurteilnehmer

Mehr

Statistikpraktikum. Carsten Rezny. Sommersemester Institut für angewandte Mathematik Universität Bonn

Statistikpraktikum. Carsten Rezny. Sommersemester Institut für angewandte Mathematik Universität Bonn Statistikpraktikum Carsten Rezny Institut für angewandte Mathematik Universität Bonn Sommersemester 2014 Mehrdimensionale Datensätze: Multivariate Statistik Multivariate Statistik Mehrdimensionale Datensätze:

Mehr

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte

Mehr

6. Tutoriumsserie Statistik II

6. Tutoriumsserie Statistik II 6. Tutoriumsserie Statistik II 1. Aufgabe: Eine Unternehmensabteilung ist ausschließlich mit der Herstellung eines einzigen Produktes beschäftigt. Für 10 Perioden wurden folgende Produktmenge y und Gesamtkosten

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 6. Aufgabe 6.1. Dr. V. Gradinaru K. Imeri. Herbstsemester 2018.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 6. Aufgabe 6.1. Dr. V. Gradinaru K. Imeri. Herbstsemester 2018. Dr. V. Gradinaru K. Imeri Herbstsemester 8 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 6 Aufgabe 6. Multiple Choice: Online abzugeben. 6.a) (i) Welche der folgenden

Mehr

EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN

EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN 1 EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN UFBAU 1 Historie 2 Anwendungen / Ziele 3 Lineare Regression/ Beispiel KQ 4 Nichtlineare Regression 5 Eigenschaften der Schätzer istorie früheste Form

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Regression und Korrelation

Regression und Korrelation Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,

Mehr

Grundlagen der Mathematik, der Statistik und des Operations Research für Wirtschaftswissenschaftler

Grundlagen der Mathematik, der Statistik und des Operations Research für Wirtschaftswissenschaftler Grundlagen der Mathematik, der Statistik und des Operations Research für Wirtschaftswissenschaftler Von Professor Dr. Gert Heinrich 3., durchgesehene Auflage R.Oldenbourg Verlag München Wien T Inhaltsverzeichnis

Mehr

3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate

3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate 31 und 31 und (), Methode der 33 Das allgemeine (), Methode der kleinsten Quadrate 36 Kovarianzanalyse 37 Modelle mit Messwiederholungen 1 / 85 Eine grundsätzliche Bemerkung zu Beginn Es bestehen viele

Mehr

3. Lineare Ausgleichsrechnung

3. Lineare Ausgleichsrechnung 3 Lineare Ausgleichsrechnung 1 Ausgleichsrechnung (1) Definition 31 (Ausgleichsproblem) Gegeben sind n Wertepaare (x i,y i ), i = 1,,n mit x i x j für i j Gesucht ist eine stetige Funktion f, die in einem

Mehr

x t2 y t = 160, y = 8, y y = 3400 t=1

x t2 y t = 160, y = 8, y y = 3400 t=1 Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

Statistik II für Betriebswirte Vorlesung 1

Statistik II für Betriebswirte Vorlesung 1 Statistik II für Betriebswirte Vorlesung 1 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 19. Oktober 2016 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung

Mehr

Statistik II. Regressionsanalyse. Statistik II

Statistik II. Regressionsanalyse. Statistik II Statistik II Regressionsanalyse Statistik II - 23.06.2006 1 Einfachregression Annahmen an die Störterme : 1. sind unabhängige Realisationen der Zufallsvariable, d.h. i.i.d. (unabh.-identisch verteilt)

Mehr

Die n-dimensionale Normalverteilung

Die n-dimensionale Normalverteilung U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung

Mehr

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................

Mehr

Statistik II für Betriebswirte Vorlesung 2

Statistik II für Betriebswirte Vorlesung 2 Statistik II für Betriebswirte Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 26. Oktober 2016 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung

Mehr

Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller

Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit

Mehr

Übungsscheinklausur,

Übungsscheinklausur, Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

Überbestimmte Systeme, Datenmodelle, Polynomiale Regression

Überbestimmte Systeme, Datenmodelle, Polynomiale Regression Überbestimmte Systeme, Datenmodelle, Polynomiale Regression 6. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 26. April 2018 Überbestimmte Systeme,

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Statistik II. Statistische Tests. Statistik II

Statistik II. Statistische Tests. Statistik II Statistik II Statistische Tests Statistik II - 5.5.2006 1 Ausgangslage Wir können Schätzen (z.b. den Erwartungswert) Wir können abschätzen, wie zuverlässig unsere Schätzungen sind: In welchem Intervall

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie

Mehr

Vorkurs: Mathematik für Informatiker

Vorkurs: Mathematik für Informatiker Vorkurs: Mathematik für Informatiker Teil 3 Wintersemester 2016/17 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2016 Steven Köhler Wintersemester 2016/17 Inhaltsverzeichnis Teil 1 Teil

Mehr

6.1 Definition der multivariaten Normalverteilung

6.1 Definition der multivariaten Normalverteilung Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer

Mehr

Statistik II. Weitere Statistische Tests. Statistik II

Statistik II. Weitere Statistische Tests. Statistik II Statistik II Weitere Statistische Tests Statistik II - 19.5.2006 1 Überblick Bisher wurden die Test immer anhand einer Stichprobe durchgeführt Jetzt wollen wir die statistischen Eigenschaften von zwei

Mehr

Mathematik 2 Probeprüfung 1

Mathematik 2 Probeprüfung 1 WWZ Wirtschaftswissenschaftliche Fakultät der Universität Basel Dr. Thomas Zehrt Bitte in Druckbuchstaben ausfüllen: Name Vorname Mathematik 2 Probeprüfung 1 Zeit: 90 Minuten, Maximale Punktzahl: 72 Zur

Mehr

Datenmodelle, Regression

Datenmodelle, Regression Achte Vorlesung, 15. Mai 2008, Inhalt Datenmodelle, Regression Anpassen einer Ausgleichsebene Polynomiale Regression rationale Approximation, Minimax-Näherung MATLAB: polyfit, basic fitting tool Regression

Mehr

Multivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167

Multivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167 Multivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.167 Multivariate Regression Verfahren zur Prüfung des gemeinsamen linearen Einflusses mehrerer unabhängiger Variablen auf eine

Mehr

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Studiengang Schließende Statistik Sommersemester Namensschild

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Studiengang Schließende Statistik Sommersemester Namensschild Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Studiengang Schließende Statistik Sommersemester 2010 Namensschild Prof. Dr. Ralph Friedmann / Dr. Martin Becker Hinweise für die Klausurteilnehmer ˆ

Mehr

Vorbereitung auf 3. Übungsblatt (Präsenzübungen) - Lösungen

Vorbereitung auf 3. Übungsblatt (Präsenzübungen) - Lösungen Prof Dr Rainer Dahlhaus Statistik 1 Wintersemester 2016/2017 Vorbereitung auf Übungsblatt (Präsenzübungen) - Lösungen Aufgabe P9 (Prognosen und Konfidenzellipsoide in der linearen Regression) Wir rekapitulieren

Mehr

6.2 Lineare Regression

6.2 Lineare Regression 6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )

Mehr