Statistik II für Betriebswirte Vorlesung 12
|
|
- Joseph Geisler
- vor 7 Jahren
- Abrufe
Transkript
1 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung Januar 2013
2 7.3. Multiple parameterlineare Regression Im Folgenden soll die Abhängigkeit eines Regressanden (einer Wirkungsgröße oder einer endogenenen Variablen) Y von mehreren Regressoren (Einflussgrößen oder exogenen Variablen) X 1,..., X k beschrieben werden, d.h. es soll gelten Y f(x 1,..., X k ) mit einer geeigneten Funktion f : R k R. Wir werden größtenteils wieder annehmen, dass die Regressoren deterministisch sind (z.b. mit exakt einstellbaren Werten) und dies durch kleine Buchstaben x 1,..., x k in den Gleichungen kennzeichnen. Man erhält dann als Modellgleichung Y (x 1,..., x k ) = f(x 1,..., x k ) + ε(x 1,..., x k ) mit einem zufälligen Fehler ε (der im Allgemeinen abhängig von den Werten x 1,..., x k ist). Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 1
3 Parameterlineare Ansätze Häufig werden bei solchen Aufgabenstellungen parameterlineare Ansätze verwendet, d.h. man setzt eine Beziehung Y (x 1,..., x k ) = a 1 f 1 (x 1,..., x k ) a r f r (x 1,..., x k ) (1) + ε(x 1,..., x k ) mit speziell gewählten, bekannten Funktionen f 1,..., f r und zu bestimmenden Koeffizienten (Parametern) a 1,..., a r (die linear in die Gleichung eingehen) voraus. Die einfache lineare Regression mit der Modellgleichung Y (x) = a + bx + ε(x) ist ein Spezialfall davon, dort gelten k = 1, r = 2, f 1 (x) = 1, f 2 (x) = x, a 1 = a, a 2 = b. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 2
4 Beispiele für parameterlineare Ansätze Im eigentlich nichtmultiplen Fall k = 1 (nur eine Einflussgröße) gilt bei der quadratischen Regression Y (x) = a + bx + cx 2 + ε(x) und allgemeiner bei der polynomialen Regression vom Grade m Y (x) = a 0 + a 1 x a m x m + ε(x). Der k faktorielle Ansatz ohne Wechselwirkungen Y (x 1,..., x k ) = a 0 + a 1 x a k x k + ε(x 1,..., x k ) wird zur Bestimmung der Ausgleichsebene (für die ebene Regression) genutzt. Bem.: Eine Gleichung der Form y = a 0 + a 1 x a k x k definiert eine (Hyper-)Ebene im (k + 1) dimensionalen Raum von Punkten mit Koordinaten (x 1,..., x k, y). Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 3
5 Weitere Beispiele für parameterlineare Ansätze Als Beispiel eines k faktoriellen Ansatzes mit Wechselwirkungen werde hier noch der Fall einer multiplen quadratischen Regression vorgestellt: Y (x 1,..., x k ) = a 0 + a 1 x a k x k + a 12 x 1 x a k 1,k x k 1 x k + a 11 x a kk x 2 k + ε(x 1,..., x k ). Auch höhere Polynomgrade oder andere Funktionen der Variablen x 1,..., x k sind möglich und werden auch verwendet. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 4
6 Regressionsansatz in Vektorschreibweise Es ist vorteilhaft, die Vektorschreibweise zu nutzen. Es seien x = (x 1,..., x k ) T = x 1. x k f(x) = (f 1 (x),..., f r (x)) T =, a = (a 1,..., a r ) T = f 1 (x). f r (x). Der parameterlineare Ansatz kann dann geschrieben werden als a 1. a r, Y (x) = a T f(x) + ε(x), (2) wobei die Definition der Multiplikation von Vektoren (als Spezialfall der Matrixmultiplikation oder als Skalarprodukt) genutzt wird. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 5
7 Die Methode der kleinsten Quadrate Sind die (zufallsbeeinflussten) Wirkungen y i für i = 1,..., n an den Einflussstellen x i = (x 1i,..., x ki ) T durch Messungen bestimmt wurden, kann man mit Hilfe der Methode der kleinsten Quadrate eine geeignete Schätzung â des Vektors a der Regressionskoeffizienten im parameterlinearen Ansatz (2) finden. Die Schätzung â ist ein Vektor von Regressionskoeffizienten a, für den n ( yi a T f(x i ) ) 2 minimal wird. i=1 Die geschätzte Regressionsfunktion ist dann ŷ(x) = â 1 f 1 (x) â r f r (x) = â T f(x) = f(x) T â. Im Weiteren genutzte Bezeichnungen sind y = (y 1,..., y n ) T und F = ( f(x 1 ),..., f(x n ) ) f 1 (x 1 )... f r (x 1 ) T = f 1 (x n )... f r (x n ) Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 6
8 Das Normalgleichungssystem Die Schätzung â des Vektors a der Regressionskoeffizienten kann dann mit Hilfe des sogenannten Normalgleichungssystems gefunden werden: F T F â = F T y. (3) Dies ist ein lineares Gleichungssystem zur Bestimmung der Komponenten von â. Ist die Matrix F T F regulär, dann ist (3) eindeutig auflösbar und es gilt â = ( F T F ) 1 F T y. (4) Sind in dem parameterlinearen Ansatz (1) die zufälligen Fehler ε(x i ) unabhängige normalverteilte Zufallsgrößen mit Erwartungswert 0 und konstanter Varianz σ 2, dann ist die Schätzung â aus (4) erwartungstreu und konsistent. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 7
9 Beispiel Jahresumsatz Daten aus Bleymüller et al, Statistik für Wirtschaftswissenschaftler. i Filiale x 1i Verkaufsfläche in Tsd. qm x 2i Passantenfrequenz in Tsd. Passanten pro Tag Jahresumsatz in Mio. e y i i x 1i x 2i y i i x 1i x 2i y i Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 8
10 Fortsetzung Beispiel Jahresumsatz Wir wählen als Ansatz mit x = (x 1, x 2 ) T Y (x) = a 0 + a 1 x 1 + a 2 x 2 + ε(x) = (a 0, a 1, a 2 ) Dann erhält man F T = F T F = â T = ( 0.83, 4.74, 0.175), also als geschätzte Regressionsfunktion ŷ(x 1, x 2 ) = x x 2. 1 x 1 x 2,, + ε(x). Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 9
11 Streuungszerlegung Wie im Fall der einfachen linearen Regression gilt für den parameterlinearen Ansatz die Quadratsummenzerlegung (Streuungszerlegung) SST = SSE + SSR (bei Schätzung der Regressionskoeffizienten mit der Methode der kleinsten Quadrate). Dabei sind wieder n SST = (y i y) 2, die Totalvariabilität (Totalvarianz); SSE = SSR = i=1 n (ŷ i y) 2, die erklärte Variabilität (erklärte Varianz); i=1 n (y i ŷ i ) 2, die Restvariabilität (Restvarianz). i=1 Das Bestimmtheitsmaß ist B = SSE SST = 1 SSR SST = r2 Y (f 1 (X),...,f. r(x)) Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 10
12 Schätzung der Fehlervarianz Eine konstante Varianz der zufälligen Fehler ε(x i ) (und damit der Zufallsgrößen Y (x i ) kann analog zum Fall der einfachen linearen Regression durch ˆσ 2 = s 2 Rest = SSR n r geschätzt werden. Der Nenner n r ist durch die Schätzung von r Parametern bedingt. Für die folgenden Aussagen zu Konfidenzschätzungen und Tests setzen wir wieder voraus, dass die zufälligen Fehler ε(x i ) unabhängige normalverteilte Zufallsgrößen mit Erwartungswert 0 und konstanter Varianz σ 2 sind. Mit m i wird in den nächsten Folien das i te Diagonalelement der Matrix (F T F ) 1 bezeichnet. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 11
13 Konfidenzschätzungen Konfidenzintervall zum Niveau 1 α für die Komponente a i von a: ] I = [â i t n r;1 α/2 s 2Rest m i ; â i + t n r;1 α/2 s 2 Rest m i Konfidenzintervall zum Niveau 0.95 für a 2 im Beispiel: â 2 = 0.175; s 2 Rest = = ; m 2 = 0.029; t 9;0.975 = I = [0.074; 0.276]. Konfidenzintervall zum Niveau 1 α für die Regressionsfunktion f(x) T a: I = [f(x) T â t n r;1 α/2 s 2 Rest f(x)t (F T F ) 1 f(x) ; ] f(x) T â + t n r;1 α/2 s 2 Rest f(x)t (F T F ) 1 f(x). Auch Prognoseintervalle können konstruiert werden. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 12
14 t Test für einzelnen Parameter Hypothesen: H 0 : a i = a (0) i, H A : a i a (0) i. Testgröße: T = âi a (0) i s 2 Rest m i. Diese Testgröße ist unter H 0 t verteilt mit n r Freiheitsgraden. Kritischer Bereich zum Niveau α: K = {t R : t > t n r;1 α/2 }. Analog können einseitige Tests durchgeführt werden. Test mit H 0 : a 2 = 0, H A : a 2 0, α = 0.05 im Beispiel = 3.89 > 2.26 = t 9;0.975 H 0 wird abgelehnt, d.h. der Koeffizient a 2 (der die Abhängigkeit des Umsatzes von der Passantenfrequenz beschreibt) ist signifikant verschieden von 0. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 13
15 F Test für das Modell (Varianzanalyse) Wir setzen voraus, dass f 1 (x) = 1 gilt, d.h. a 1 die Konstante im Modell ist. Hypothesen: H 0 : a 2 =... = a r = 0, H A : a i 0 für ein i > 1. Testgröße: T = MSE MSR mit MSE = SSE SSR, MSR = r 1 n r. Diese Testgröße ist unter H 0 F verteilt mit (r 1; n r) Freiheitsgraden. Kritischer Bereich zum Niveau α: K = {t R : t > F r 1;n r;1 α }. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 14
16 t Test bezüglich der ganzen Regressionsfunktion Hypothesen: H 0 : a T f(x) = c, H A : a T f(x) c. a T f(x) c Testgröße: T =. s 2 Rest f(x)t (F T F ) 1 f(x) Diese Testgröße ist unter H 0 t verteilt mit n r Freiheitsgraden. Kritischer Bereich zum Niveau α: K = {t R : t > t n r;1 α/2 }. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 15
17 Beispiel: Test auf optimale Skalenelastizität Ein Produktionsprozess mit den Produktionsfaktoren x i werde durch die Cobb-Douglas-Produktionsfunktion beschrieben: ỹ = e β0 x β xβ k k. Durch die Variablentransformation y = ln ỹ, x i = ln x i, i = 1,..., k, erhält man die Beziehung y = β 0 + β 1 x β k x k. Die Größen β 1,..., β k sind die Produktionselastizitäten und ε = β β k ist die Skalenelastizität. Eine Steigerung der Produktionsfaktoren um a % bewirkt ( dann eine Steigerung der Produktionsmenge von ỹ auf ỹ 1 + a ) ε. 100 Dann interessiert die Hypothese H 0 : ε = β β k = 1 (es liegen keine positive oder negative Skaleneffekte vor). Der entsprechende Test ist ein Spezialfall des vorherigen Tests, hier gelten f(x) = (0, 1, 1,..., 1) T und c = 1. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 16
18 F Test zur Modellüberprüfung Allgemein gilt, dass bei großen Werten der Restvarianz (der Restquadratsumme) das gewählte Modell schlecht ist. Ist eine gute Anpassung aber möglich, dann interessiert oft die Frage, ob auch schon ein kleineres Modell, d.h. ein Modell mit einer geringeren Anzahl von Ansatzfunktionen adäquat ist. Dieses kann für ein gewähltes großes Modell (r g Ansatzfunktionen, Restquadratsumme SSR g ) und ein gewähltes kleines Modell (r k Ansatzfunktionen, Restquadratsumme SSR k ) mit Hilfe eines F Tests überprüft werden. Hypothesen: H 0 : kleines Modell ist ausreichend. Testgröße: T = n r g SSR k SSR g. r k SSR g Kritischer Bereich zum Niveau α: K = {t R : t > F rk ;n r g;1 α}. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 17
19 Weiteres Beispiel Daten aus Bleymüller et al, Statistik für Wirtschaftswissenschaftler, Aufgabe i Beobachtungszeitraum x i Produktionsmenge (in Tsd. Stück) y i Gesamtkosten (in Tsd. e) i x i y i i x i y i Gesuchte Regressionsfunktion: ŷ(x) = â 1 + â 2 x + â 3 x 2 + â 4 x 3 bzw. entsprechendes Polynom 2. Grades. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 18
20 Fortsetzung Beispiel: Statgraphics-Ergebnisse Mit Statgraphics geschätztes Regressionspolynom 3. Grades ŷ = x x x 3 mit Restvariabilität SSR g = Mit Statgraphics geschätztes Regressionspolynom 2. Grades ŷ = x x 2 mit Restvariabilität SSR k = Wert der Testgröße t = = Quantil der F Verteilung F 3;6;0.95 = H 0 : kleines Modell (Polynom 2. Grades) ist ausreichend wird abgelehnt. Prof. Dr. Hans-Jörg Starkloff (TUBAF) Statistik II für Betriebswirte Vorlesung 12 19
Statistik II für Betriebswirte Vorlesung 11
Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 07. Januar 2019 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:
MehrVersuchsplanung und multivariate Statistik Sommersemester 2018
Versuchsplanung und multivariate Statistik Sommersemester 2018 Vorlesung 12: Lineare und nichtlineare Modellierung II Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 13.6.2018
MehrStatistik II für Betriebswirte Vorlesung 8
Statistik II für Betriebswirte Vorlesung 8 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 3. Dezember 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version:
MehrVersuchsplanung und multivariate Statistik Sommersemester 2018
Versuchsplanung und multivariate Statistik Sommersemester 2018 Vorlesung 11: Lineare und nichtlineare Modellierung I Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 6.6.2018
MehrStatistik II für Betriebswirte Vorlesung 11
Statistik II für Betriebswirte Vorlesung 11 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 18. Januar 2017 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung
MehrMathematik III - Statistik für MT(Master)
3. Regressionsanalyse Fachbereich Grundlagenwissenschaften Prof. Dr. Viola Weiß Wintersemester 0/03 Mathematik III - Statistik für MTMaster 3. Empirische Regressionsgerade Optimalitätskriterium: Die Summe
MehrTests einzelner linearer Hypothesen I
4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen
MehrDie Funktion f wird als Regressionsfunktion bezeichnet.
Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 11. Juli 016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrStatistik II für Betriebswirte Vorlesung 1
Statistik II für Betriebswirte Vorlesung 1 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. Oktober 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 1 Version:
MehrEinführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
MehrGegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen. 0 sonst.
Aufgabe 1 (2 + 4 + 2 + 1 Punkte) Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen X und Y : { 2x + 2y für 0.5 x 0.5, 1 y 2 f(x, y) = 3 0 sonst. a) Berechnen
MehrSchätzung im multiplen linearen Modell VI
Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
Mehr13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017
13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl
MehrStochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie
Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Sommersemester 2018 Kapitel 8: Elemente der mathematischen Statistik Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik
MehrLineare Regression. Kapitel Regressionsgerade
Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrUntersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. x y
Aufgabe 1 Untersuchen Sie, ob die folgenden Abbildungen linear oder nicht linear sind. (( )) 3x x (a) Sei f : R 2 R 3 mit f = 2y + x y x y ( ) 4 (b) Sei f : R R 2 mit f(x) = x + 1 (( )) ( ) x x y (c) Sei
MehrStatistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrStatistik II für Betriebswirte Vorlesung 4
Statistik II für Betriebswirte Vorlesung 4 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 6. November 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 4 Version:
Mehrx(n x) cm 2 ) zweier Betonsorten wird überprüft. Dabei ergaben Sorte 1 185 186 184 186 185 187 186 187 185 Sorte 2 183 182 185 182 181 179
. Aufgabe: Zwei bis drei Millionen deutsche Haushalte sind überschuldet. Einer der Hauptgründe für die Überschuldung privater Haushalte ist eine gescheiterte Selbstständigkeit. In einer Stichprobe von
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
MehrAnwendungen der Differentialrechnung
KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle
MehrDeskriptive Beschreibung linearer Zusammenhänge
9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,
MehrELEMENTARE EINFÜHRUNG IN DIE MATHEMATISCHE STATISTIK
DIETER RASCH ELEMENTARE EINFÜHRUNG IN DIE MATHEMATISCHE STATISTIK MIT 53 ABBILDUNGEN UND 111 TABELLEN ZWEITE, BERICHTIGTE UND ERWEITERTE AUFLAGE s-~v VEB DEUTSCHER VERLAG DER WISSENSCHAFTEN BERLIN 1970
MehrKlausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min
Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,
MehrEine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
MehrStatistik II für Betriebswirte Vorlesung 11
Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 08. Januar 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
MehrBeispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
MehrVarianzvergleiche bei normalverteilten Zufallsvariablen
9 Mittelwert- und Varianzvergleiche Varianzvergleiche bei zwei unabhängigen Stichproben 9.3 Varianzvergleiche bei normalverteilten Zufallsvariablen Nächste Anwendung: Vergleich der Varianzen σa 2 und σ2
MehrStatistik I für Betriebswirte Vorlesung 5
Statistik I für Betriebswirte Vorlesung 5 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 7. Mai 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 5 Version: 30. April
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
Mehr0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
MehrStatistik in Geodäsie, Geoinformation und Bauwesen
Wilhelm Benning Statistik in Geodäsie, Geoinformation und Bauwesen 2., überarbeitete und erweiterte Auflage Herbert Wichmann Verlag Heidelberg Matrix-Theorie 1 1.1 Matrizen und Vektoren 1 1.2 Matrixverknüpfungen
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrInferenz im multiplen Regressionsmodell
1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall
MehrDie Stochastischen Eigenschaften von OLS
Die Stochastischen Eigenschaften von OLS Das Bivariate Modell Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Wiederholung
MehrZusammenfassung: Einfache lineare Regression I
4 Multiple lineare Regression Multiples lineares Modell 41 Zusammenfassung: Einfache lineare Regression I Bisher: Annahme der Gültigkeit eines einfachen linearen Modells y i = β 0 + β 1 x i + u i, i {1,,
MehrDWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
MehrDabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen
Lineare Regression und Matrizen. Einführendes Beispiel Der im Kapitel Skalarprodukt gewählte Lösungsweg für das Problem der linearen Regression kann auch mit Matrizen formuliert werden. Die Idee wird zunächst
Mehr11. Übungsblatt zur Vorlesung Ökonometrie SS 2014
Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer
MehrInhaltsverzeichnis. Vorwort
Vorwort 1 Die Grundlagen 15 Alles variiert 16 Signifikanz Gute und schlechte Hypothesen 18 Nullhypothesen 18 19 Interpretation Statistisches Modellieren 20 Maximale Wahrscheinlichkeit 21 Versuchsanordnung
MehrBeziehungen zwischen Verteilungen
Kapitel 5 Beziehungen zwischen Verteilungen In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.t. schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie
MehrVersuchsplanung. Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling
Versuchsplanung Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling Gliederung Grundlagen der Varianzanalyse Streuungszerlegung und Modellschätzer Modellannahmen und Transformationen
MehrMultivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
Mehr4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
MehrStatistik II für Betriebswirte Vorlesung 5
Statistik II für Betriebswirte Vorlesung 5 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. November 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 5 Version:
MehrKapitel 19 Partialbruchzerlegung
Kapitel 19 Partialbruchzerlegung Mathematischer Vorkurs TU Dortmund Seite 1 / 15 Zur Erinnerung wiederholen wir Definition 4.5 [part] Es sei n N 0 und a 0, a 1,..., a n R mit a n 0. Dann heißt die Funktion
Mehr6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
MehrPrognoseintervalle für y 0 gegeben x 0
10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen
MehrStatistik für Ingenieure Vorlesung 3
Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind
MehrWirtschaftswissenschaftliches Prüfungsamt Bachelor-Studiengang Schließende Statistik Sommersemester Aufgabenstellung und Ergebnisse
Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Studiengang Schließende Statistik Sommersemester 2010 Aufgabenstellung und Ergebnisse Prof. Dr. Ralph Friedmann / Dr. Martin Becker Hinweise für die Klausurteilnehmer
MehrStatistikpraktikum. Carsten Rezny. Sommersemester Institut für angewandte Mathematik Universität Bonn
Statistikpraktikum Carsten Rezny Institut für angewandte Mathematik Universität Bonn Sommersemester 2014 Mehrdimensionale Datensätze: Multivariate Statistik Multivariate Statistik Mehrdimensionale Datensätze:
MehrStatistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II
Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte
Mehr6. Tutoriumsserie Statistik II
6. Tutoriumsserie Statistik II 1. Aufgabe: Eine Unternehmensabteilung ist ausschließlich mit der Herstellung eines einzigen Produktes beschäftigt. Für 10 Perioden wurden folgende Produktmenge y und Gesamtkosten
MehrLineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 6. Aufgabe 6.1. Dr. V. Gradinaru K. Imeri. Herbstsemester 2018.
Dr. V. Gradinaru K. Imeri Herbstsemester 8 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 6 Aufgabe 6. Multiple Choice: Online abzugeben. 6.a) (i) Welche der folgenden
MehrEGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN
1 EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN UFBAU 1 Historie 2 Anwendungen / Ziele 3 Lineare Regression/ Beispiel KQ 4 Nichtlineare Regression 5 Eigenschaften der Schätzer istorie früheste Form
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
MehrStatistik für Ingenieure Vorlesung 5
Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrRegression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,
MehrGrundlagen der Mathematik, der Statistik und des Operations Research für Wirtschaftswissenschaftler
Grundlagen der Mathematik, der Statistik und des Operations Research für Wirtschaftswissenschaftler Von Professor Dr. Gert Heinrich 3., durchgesehene Auflage R.Oldenbourg Verlag München Wien T Inhaltsverzeichnis
Mehr3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate
31 und 31 und (), Methode der 33 Das allgemeine (), Methode der kleinsten Quadrate 36 Kovarianzanalyse 37 Modelle mit Messwiederholungen 1 / 85 Eine grundsätzliche Bemerkung zu Beginn Es bestehen viele
Mehr3. Lineare Ausgleichsrechnung
3 Lineare Ausgleichsrechnung 1 Ausgleichsrechnung (1) Definition 31 (Ausgleichsproblem) Gegeben sind n Wertepaare (x i,y i ), i = 1,,n mit x i x j für i j Gesucht ist eine stetige Funktion f, die in einem
Mehrx t2 y t = 160, y = 8, y y = 3400 t=1
Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =
MehrKapitel VI - Lage- und Streuungsparameter
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie
MehrStatistik II für Betriebswirte Vorlesung 1
Statistik II für Betriebswirte Vorlesung 1 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 19. Oktober 2016 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung
MehrStatistik II. Regressionsanalyse. Statistik II
Statistik II Regressionsanalyse Statistik II - 23.06.2006 1 Einfachregression Annahmen an die Störterme : 1. sind unabhängige Realisationen der Zufallsvariable, d.h. i.i.d. (unabh.-identisch verteilt)
MehrDie n-dimensionale Normalverteilung
U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung
MehrStatistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................
MehrStatistik II für Betriebswirte Vorlesung 2
Statistik II für Betriebswirte Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 26. Oktober 2016 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung
MehrTeil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller
Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit
MehrÜbungsscheinklausur,
Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...
Mehr4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax
MehrÜberbestimmte Systeme, Datenmodelle, Polynomiale Regression
Überbestimmte Systeme, Datenmodelle, Polynomiale Regression 6. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 26. April 2018 Überbestimmte Systeme,
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
MehrStatistik II. Statistische Tests. Statistik II
Statistik II Statistische Tests Statistik II - 5.5.2006 1 Ausgangslage Wir können Schätzen (z.b. den Erwartungswert) Wir können abschätzen, wie zuverlässig unsere Schätzungen sind: In welchem Intervall
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
MehrVorkurs: Mathematik für Informatiker
Vorkurs: Mathematik für Informatiker Teil 3 Wintersemester 2016/17 Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de 2 c 2016 Steven Köhler Wintersemester 2016/17 Inhaltsverzeichnis Teil 1 Teil
Mehr6.1 Definition der multivariaten Normalverteilung
Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer
MehrStatistik II. Weitere Statistische Tests. Statistik II
Statistik II Weitere Statistische Tests Statistik II - 19.5.2006 1 Überblick Bisher wurden die Test immer anhand einer Stichprobe durchgeführt Jetzt wollen wir die statistischen Eigenschaften von zwei
MehrMathematik 2 Probeprüfung 1
WWZ Wirtschaftswissenschaftliche Fakultät der Universität Basel Dr. Thomas Zehrt Bitte in Druckbuchstaben ausfüllen: Name Vorname Mathematik 2 Probeprüfung 1 Zeit: 90 Minuten, Maximale Punktzahl: 72 Zur
MehrDatenmodelle, Regression
Achte Vorlesung, 15. Mai 2008, Inhalt Datenmodelle, Regression Anpassen einer Ausgleichsebene Polynomiale Regression rationale Approximation, Minimax-Näherung MATLAB: polyfit, basic fitting tool Regression
MehrMultivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167
Multivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.167 Multivariate Regression Verfahren zur Prüfung des gemeinsamen linearen Einflusses mehrerer unabhängiger Variablen auf eine
MehrWirtschaftswissenschaftliches Prüfungsamt Bachelor-Studiengang Schließende Statistik Sommersemester Namensschild
Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Studiengang Schließende Statistik Sommersemester 2010 Namensschild Prof. Dr. Ralph Friedmann / Dr. Martin Becker Hinweise für die Klausurteilnehmer ˆ
MehrVorbereitung auf 3. Übungsblatt (Präsenzübungen) - Lösungen
Prof Dr Rainer Dahlhaus Statistik 1 Wintersemester 2016/2017 Vorbereitung auf Übungsblatt (Präsenzübungen) - Lösungen Aufgabe P9 (Prognosen und Konfidenzellipsoide in der linearen Regression) Wir rekapitulieren
Mehr6.2 Lineare Regression
6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )
Mehr