5 Allgemeine Verfahren zum Testen von Hypothesen

Größe: px
Ab Seite anzeigen:

Download "5 Allgemeine Verfahren zum Testen von Hypothesen"

Transkript

1 5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ). Die Verteilung von X hängt von einem Parametervektor θ ab, dessen wahrer Wert unbekannt ist. Problem: Schätze θ 1. Schritt: Berechnen der Likelihoodfunktion L(θ) Stetige Verteilung mit multivariater Dichtefunktion f( x) f( x θ): L(θ) L(x 1,..., x n θ) = f(x 1 θ) f(x 2 θ) f(x n θ) Log-Likelihoodfunktion: ln L(θ) = n ln f(x i θ) 2. Schritt: Maximieren von ln L(θ) Maximum Likelihood Schätzung ˆθ 51

2 Beispiel 1: X 1,..., X n Zufallsstichprobe mit X N d (µ, Σ). Zu schätzen ist θ = (µ, Σ) Dann gilt L(µ, Σ) = 2πΣ n/2 exp( 1 2 ln L(µ, Σ) = n 2 ln 2πΣ 1 2 n n ( X i µ) T Σ 1 (X i µ)) ( X i µ) T Σ 1 (X i µ) Mit S := n 1 n S = n 1 n n (X i X)(X i X) T lässt sich die Log-Likelihoodfunktion in folgende Form umschreiben: ln L(µ, Σ) = n 2 ln 2πΣ n 2 spur(σ 1 S) n 2 ( X µ) T Σ 1 ( X µ) Resultierende Maximum Likelihood Schätzer: ˆµ = X, ˆΣ = S 52

3 Beispiel 2: Regression unter der Annahme multivariater Normalität Regressionsmodell mit normalverteilten Fehlertermen ɛ i N(0, σ 2 ): Y i = β 0 + p β j X ij + ɛ i j=1 Y i N(β 0 + p β j X ij, σ 2 ) j=1 Log-Likelihoodfunktion: ln L(β, σ 2 ) = n 2 ln(2πσ2 ) 1 2 n (Y i β 0 p j=1 β jx ij ) 2 σ 2 ˆβ maximiert die Likelihoodfunktion genau dann, wenn ˆβ die Summe der Quadrate n (Y i β 0 p j=1 β jx ij ) 2 minimiert. Der Kleinste-Quadrate Schätzer ˆβ = ( ˆβ 0,..., ˆβ p ) T der Maximum Likelihood Schätzer von β. ist auch 53

4 Inferenz für Likelihood Schätzer Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ). Die Verteilung von X hängt von einem Parametervektor θ = (θ 1,....θ k ) ab, dessen wahrer Wert unbekannt ist. Man beachte, dass die Likelihoodfunktion L(θ) von den Daten abhängt, L(θ) L(θ X 1,..., X n ), und daher selbst zufällig ist. Score Funktion: l(θ) = θ ln L(θ) Die Score Funktion hängt wiederum von den Daten ab, l(θ) l(θ X 1,..., X n ) Fisher Informations Matrix: J(θ) = E ( l(θ)l(θ) T ) = COV (l(θ)) Beispiel: X N(µ, σ 2 I), σ 2 bekannt l(µ) = µ = 1 2σ 2 ln L(µ) µ = n σ 2 ( X µ) n (X i µ) T (X i µ) J(µ) = n2 σ 4 COV ( X µ) = n σ 2 I 54

5 Man betrachte nun die Dierenz ˆθ θ zwischen dem Maximum Likelihood Schätzer und dem wahren Wert des Parametervektors. Unter einigen Regularitätsbedingungen gilt für groÿe Stichprobengröÿe n approximativ ˆθ θ N(0, J(θ) 1 ) Resultat von Cramer Rao: Für jeden alternativen Schätzer θ von θ gilt COV ( θ) J(θ) 1, d.h. die Matrix COV ( θ) J(θ) 1 ist positiv semidenit. Dies bedeutet insbesondere, dass für die Schätzer der einzelnen Komponenten des Parametervektors gilt. var( θ j ) (J(θ) 1 ) jj var(ˆθ j ), j = 1,..., k, J(θ) 1 lässt sich durch J(ˆθ) 1 konsistent schätzen Approximatives 1 α Kondenzintervall für θ j : ˆθ j ± z 1 α/2 (J(θ) 1 ) jj 55

6 Beispiel: X N(µ, σ 2 I), σ 2 bekannt. Dann gilt J(θ) 1 = σ2 n I Kondenzintervall: Xj ± z 1 α/2 σ n Beispiel 2: Regression (Fehlervarianz σ 2 bekannt) l(β) = ln L(µ) β = 1 n p 2σ 2 (Y i β 0 β j X ij ) 2 β j=1 1 = 1 n Xi1 p σ 2 (Y i β 0 β j X ij ). j=1 J(β) = 1 σ 2 X ip 1 = 1 n Xi1 σ 2. n X ip ɛ i 1 Xi1 (1, X i1,..., X ip ) = 1. σ 2 XT X X ip und J(β) 1 = σ 2 (X T X) 1. 56

7 5.2 Der Likelihood-Quotienten Test Der Likelihood Ansatz liefert ein allgemeines Verfahren zur Konstruktion von Parameterschätzern. Er lässt sich jedoch ebenfalls in allgemeiner Weise zum Testen von Hypothesen verwenden. Dies führt auf die sogenannten Likelihood-Quotienten Tests. Verteilung einer Stichprobe {X i },...,n hängt von einem Parametervektor θ ab L(θ) Likelihood Funktion Testproblem: H 0 : θ Ω 0, wobei Ω 0 q 0 -dimensionaler Raum; es sind q 0 unbekannte Parameterwerte zu schätzen gegen H 1 : θ Ω 1, wobei Ω 1 q 1 -dimensionaler Raum, q 1 > q 0 ; es sind q 1 > q 0 unbekannte Paramterwerte zu schätzen Beispiel: X 1,..., X n i.i.d., X i N(µ, σ 2 ), σ 2 bekannt H 0 : µ {µ 0 } q 0 = 0, es ist kein unbekannter Parameter zu schätzen H 1 : µ µ 0 q 1 = 1, ein unbekannter Paramter 57

8 ˆθ 0 maximiere L(θ) über alle θ Ω 0 ˆθ 1 maximiere L(θ) über alle θ Ω 1 Teststatistik (Likelihood-Quotienten Test): ( ) L(ˆθ 0 ) T = 2 ln L(ˆθ 1 ) Resultat der mathematischen Statistik: n groÿ, H 0 wahr: T χ 2 q 1 q 0 Ablehung von H 0, falls T χ 2 q 1 q 0 ;1 α klein) (bzw. p-wert zu Beispiel: X i N(µ, σ 2 ), σ 2 bekannt Unter H 0 : µ {µ 0 }: ˆµ 0 = µ 0 Unter H 1 : µ IR\{µ 0 }: ˆµ = X T = 2 ln L(µ 0 ) + 2 ln L( X) = n( X µ 0 ) 2 Unter H 0 : T χ 2 1 σ 2 58

9 Anmerkungen: In dem angebenen Beispiel ist der Likelihood- Quotient unter H 0 auch für kleinen Stichproben- umfang n exakt χ 2 -verteilt. Im Allgemeinen beruht der Likelihood-Quotienten Test jedoch auf einer asymptotischen Approximation (n groÿ) der Verteilung der Teststatistik. In manchen Anwendung gibt es nit exakte Teststatistiken, die asymptotisch mit einem Likelihood-Quotienten Test übereinstimmen. Auch in komplexen Situationen lässt sich der Likelihood- Quotient mit Hilfe von numerischen Verfahren aus den Daten berechnen. Ein wesentlicher Punkt ist eine korrekte Bestimmung der Freiheitsgrade q 1 q 0 der χ 2 -Verteilung. Die jeweiligen Werte q 0, q 1 beziehen sich auf die Anzahl der eektiv zu schätzenden Parameter, d.h. auf die Dimension der Räume Ω 0 und Ω 1. Beispiel: Zwei unbekannte Parameter θ = (θ 1, θ 2 ) unter H 0, Nebenbedingung θ 1 + θ 2 = 1. Ω 0 ist dann der eindimensionale Raum aller θ = (θ 1, θ 2 ) mit θ 1 + θ 2 = 1. Eektiv ist nur ein einziger Parameter zu schätzen, denn bei gegebenem θ 1 erhält man θ 2 aus θ 2 = 1 θ 1. Es gilt dann q 0 = 1 59

10 Beispiel 1: Inferenz für den Mittelwert einer multivariaten Normalverteilung Zufallsstichprobe: X 1,..., X n unabhängig und identisch verteilt, X i N d (µ, Σ) Testproblem: H 0 : µ = µ 0 gegen H 1 : µ µ 0 1) Σ bekannt: Likelihood-Quotienten Test Ω 0 = {µ 0 } ˆµ 0 = µ 0, q 0 = 0 Ω 1 = IR d ˆµ 1 = X, q 1 = d Likelihood-Quotient ( ) L(ˆµ0 ) T = 2 ln L(ˆµ 1 ) = n( X µ 0 ) T Σ 1 ( X µ 0 ) unter H 0 : T χ 2 d (dies gilt auch für kleinen Stichprobenumfang n) Ablehnung von H 0, falls T χ 2 d;1 α 510

11 Beispiel 2: Regression Full Model: Y i = β 0 + β 1 X i β p X ip + ɛ i Ŷ F i = ˆβ 0 + β 1 X i ˆβ p X ip Reduced Model: Y i = β 0 + β 1 X i β q X iq + ɛ i, q < p Ŷ R i = ˆβ 0 + β 1X i ˆβ q X iq Sei σ 2 = var(ɛ i ) bekannt. Man erhält dann ( L( T = 2 ln ˆβ ) ) L( ˆβ) = 1 n σ 2 (Y i Ŷ i R ) 2 1 n σ 2 (Y i Ŷ i F ) 2 = 1 σ 2 n (Y F i Ŷ R i ) 2 Unter H 0 : β q+1 =... = β p = 0 gilt approximativ T χ 2 p q Zur Erinnerung: Unter H 0 F = mit ˆσ 2 = 1 n p 1 n (Y F i Ŷ R i ) 2 /(p q) ˆσ 2 n (Y i Ŷ F i ) 2 F p q,n p 1 n groÿ: Es lässt sich zeigen, dass ˆσ 2 σ 2 sowie (approximativ) (p q) F χ 2 p q 511

12 5.3 Hotellings T 2 Hotellings T 2 Statistik wird zum Testen von Hypothesen bezüglich des Vektors der Mittelwerte einer multivariaten Normalverteilung verwendet. Asymptotisch (n groÿ) sind die resultierenden Testverfahren äquivalent zu einem Likelihood- Quotienten Test. Hotellings T 2 erlaubt jedoch auch bei kleinen Stichprobengröÿen eine exakte Berechnung von kritischen Werten. Seien X 1,..., X n i.i.d, X i N d (µ, Σ) und S = 1 n 1 i (X i X)(X i X) T. Dann gilt T 2 H = n( X µ) T S 1 ( X µ) T 2 (d, n 1), wobei T 2 (d, n 1) Hotellings T 2 -Verteilung mit d und n 1 Freiheitsgraden bezeichnet. Kritische Werte lassen sich mit Hilfe der Beziehung berechnen Spezialfall d = 1: TH 2 i (X i X) 2 1 n 1 n d (n 1)d T 2 H = F d,n d = n( X µ) 2 S 2 T (1, n 1), S 2 = Man beachte, dass n( X µ) S t n 1, und dass das Quadrat einer t n 1 -verteilten Variablen eine F -Verteilung mit 1 und n-1 Freiheitsgraden besitzt. Hotellings T 2.Verteilung kann also als Verallgemeinerung der t-verteilung angesehen werden Hypothesentest: H 0 : µ = µ 0 gegen H 1 : µ µ 0 512

13 Teststatistik: T 2 = n d (n 1)d n( X µ 0 ) T S 1 ( X µ 0 ) Unter H 0 : T 2 F d,n d Ablehnung von H 0, falls T 2 F d,n d;1 α Beispiel: Schweizer Banknoten Datensatz von 200 Schweizer Banknoten. 100 davon sind echt, 100 Banknoten sind gefälscht. d = 6 dimensionaler Beobachtungsvektor: X 1 - Länge der Banknote X 2 - Höhe der Banknote (links) X 3 - Höhe der Banknote (rechts) X 4 - Abstand des inneren Rahmens von der Unterkante X 5 - Abstand des inneren Rahmens von der Oberkante X 6 - Länge der Bilddiagonale bekannter wahrer Mittelwert der echten Banknoten µ 0 = (214.9, 129.9, 129.7, 8.3, 10.1, 141.5) T geschätzter Mittelwert der gefälschten Banknoten X = (214.8, 130.3, 130.2, 10.5, 11.1, 139.4) T Empirische Kovarianzmatrix 513

14 S = T 2 H = n( X µ 0 ) T S 1 ( X µ 0 ) = T 2 = n d (n 1)d T H 2 = = > F 6,94,0.999 =

15 Konstruktion von simultanen Kondenzintervallen für µ: Resultat der linearen Algebra: Für jede symmetrische d s Matrix A und jeden Vektor c IR d gilt c T Ac λ 1 c T c, wobei λ 1 der gröÿte Eigenwert von A ist. Man beachte: Ist A 0, so gilt λ 1 spur(a). Anwendung: Für jeden Vektor a IR d, a 0 erhält man mit c := S 1/2 a (a T ( X µ)) 2 a T Sa = (ct S 1/2 ( X µ)) 2 c T c = ct S 1/2 ( X µ)( X µ) T S 1/2 c c T c spur(s 1/2 ( X µ)( X µ) T S 1/2 ) = ( X µ) T S 1 ( X µ) Sei K α : (n 1)d n(n d) F d,n d;1 α. Hieraus folgt, dass für alle α > 0 1 α = P [ ( X µ) T S 1 ( X ] µ) K α [ (a T ( P X µ)) 2 a T Sa ] K α für alle a IR d, a 0 515

16 Bezeichnen a 1 = (1, 0,..., 0) T,..., a d = (0, 0,..., 1) T die d verschiedenen Einheitsvektoren, so gilt insbesondere P [ (a T i ( X µ)) 2 s 2 i K α für alle i = 1,..., d ] 1 α, wobei s 2 i = at i Sa i = 1 n 1 j (X ij X i ) 2 Simultane Kondenzintervalle für µ i, i = 1,..., d: µ i = X i ± s i Kα Beispiel: Simultane Kondenzintervalle für die Mittelwerte der gefälschten Banknoten: µ µ µ µ µ µ

17 5.4 Inferenz für lineare Hypothesen Seien X 1,..., X n i.i.d, X i N d (µ, Σ) und S = 1 n 1 i (X i X)(X i X) T. Man betrachte nun eine lineare Transformation Y = CX für eine q d-matrix C (q d). Die Matrix CΣC T sei invertierbar. Es gilt Y = CX N q (Cµ, CΣC T ) und Man erhält dann n(c X Cµ) T (CΣC T ) 1 (C X Cµ) χ 2 q n q (n 1)q n(c X Cµ) T (CSC T ) 1 (C X Cµ) }{{} T 2 (q,n 1) F q,n q Anwendung: Multivariates Verfahren der Varianzanalyse mit Messwiederholungen Messungen der Reaktionen eines Individuums (Versuchseinheit) auf jede von i = 1,..., c verschiedenen Stufen eines Faktors n zufällig ausgewählte Individuen Beobachtungen Y ij, i = 1,..., c Faktorstufen; j = 1,..., n Individuen Für jedes Individuum wird Y j = (Y 1j, Y 2j,..., Y cj ) als Vektor von Beobachtungen aufgefasst, Y j N c (µ, Σ), µ = (µ 1,..., µ c ) T 517

18 Nullhypothese (kein Eekt der Faktorstufen): H 0 : µ 1 = µ 2 = = µ c Die Nullhypothese lässt sich umschreiben in die Form: H 0 : Cµ = 0 für die (c 1) c Matrix C := Teststatistik: F = n(n c + 1) (n 1)(c 1) (CȲ Cµ)T (CSC T ) 1 (CȲ Cµ) mit Ȳ = 1 n Y j und S := 1 n 1 n j=1 (Y j Ȳ )(Y j Ȳ )T. Unter H 0 : F F c 1,n c+1 Ablehnung, falls F beob zu groÿ 518

19 Beispiel: Für n = 40 zufällig ausgewählte Kinder wurde jeweils das Vokabular in c = 4 aufeinanderfolgenden Schuljahren mit Hilfe eines Tests überprüft (Klassen 8-11) Beobachtungen: Y j = (Y 1j,..., Y 4j ) T, j = 1,..., n Nullhypothese: µ 1 =..., µ 4 bzw H 0 : Cµ = 0, C := Es ergab sich: Ablehnung von H 0. Ȳ = (1.086; 2.544; 2.851; 3.420) S = F beob = > 26.5 = F 3,37;0.99 Simultane 95% Kondenzintervalle: 1.96 µ 1 µ µ 2 µ µ 3 µ

Lösung Übungsblatt 5

Lösung Übungsblatt 5 Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von

Mehr

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion 4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr

Vorlesung: Lineare Modelle

Vorlesung: Lineare Modelle Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests. 0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:

Mehr

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011 Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben

Mehr

Fortgeschrittene Ökonometrie: Maximum Likelihood

Fortgeschrittene Ökonometrie: Maximum Likelihood Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,

Mehr

Statistik II. Version A. 1. Klausur Sommersemester 2011 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik II. Version A. 1. Klausur Sommersemester 2011 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik II Version A 1. Klausur Sommersemester 2011 Hamburg, 27.07.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................

Mehr

LS-Schätzer. SSE(β) = (y µ) t (y µ) = y t y 2β t X t y + β t X t Xβ. Minimiere SSE(β) bzgl. β: Minimum definiert durch

LS-Schätzer. SSE(β) = (y µ) t (y µ) = y t y 2β t X t y + β t X t Xβ. Minimiere SSE(β) bzgl. β: Minimum definiert durch LS-Schätzer Sei µ = Xβ mit rg(x) = p und β = (β 1,..., β p ) t SSE(β) = (y µ) t (y µ) Minimiere SSE(β) bzgl. β: = y t y 2β t X t y + β t X t Xβ β SSE(β) = 2Xt y + 2X t Xβ. Minimum definiert durch X t X

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Einführung in die Induktive Statistik: Regressionsanalyse

Einführung in die Induktive Statistik: Regressionsanalyse Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 22 Übersicht Weitere Hypothesentests in der Statistik 1-Stichproben-Mittelwert-Tests 1-Stichproben-Varianz-Tests 2-Stichproben-Tests Kolmogorov-Smirnov-Test

Mehr

Die Stochastischen Eigenschaften von OLS

Die Stochastischen Eigenschaften von OLS Die Stochastischen Eigenschaften von OLS Das Bivariate Modell Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Wiederholung

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

Einführung in die statistische Testtheorie II

Einführung in die statistische Testtheorie II 1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur

Mehr

Konfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt

Konfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt Konfidenzintervalle Annahme: X 1,..., X n iid F θ. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt P θ (U θ O) = 1 α, α (0, 1). Das Intervall [U, O] ist ein Konfidenzintervall

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Frequentisten und Bayesianer. Volker Tresp

Frequentisten und Bayesianer. Volker Tresp Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

Lineare Regression. Kapitel Regressionsgerade

Lineare Regression. Kapitel Regressionsgerade Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell

Mehr

Die partielle Likelihood-Funktion

Die partielle Likelihood-Funktion Die partielle Likelihood-Funktion Roger Züst 12. Juni 26 1 Repetition: Maximum-Likelihood-Methode Hat man n unabhängige Beobachtungen x 1, x 2,..., x n einer Zufallsvariablen X und eine Familie von möglichen

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9. 7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

x t2 y t = 160, y = 8, y y = 3400 t=1

x t2 y t = 160, y = 8, y y = 3400 t=1 Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

Stochastik Praktikum Parametrische Schätztheorie

Stochastik Praktikum Parametrische Schätztheorie Stochastik Praktikum Parametrische Schätztheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 05.10.2010 Prolog Momentenmethode X : Ω 1 Ω Zufallsgröße, die Experiment beschreibt. Ein statistisches

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Einfaktorielle Varianzanalyse

Einfaktorielle Varianzanalyse Kapitel 16 Einfaktorielle Varianzanalyse Im Zweistichprobenproblem vergleichen wir zwei Verfahren miteinander. Nun wollen wir mehr als zwei Verfahren betrachten, wobei wir unverbunden vorgehen. Beispiel

Mehr

6. Statistische Hypothesentests

6. Statistische Hypothesentests 6. Statistische Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von

Mehr

2.5 Lineare Regressionsmodelle

2.5 Lineare Regressionsmodelle 2.5.1 Wiederholung aus Statistik I Gegeben Datenpunkte (Y i, X i ) schätze die beste Gerade Y i = β 0 + β 1 X i, i = 1,..., n. 2 Induktive Statistik 409 Bsp. 2.30. [Kaffeeverkauf auf drei Flohmärkten]

Mehr

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers 4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis

Mehr

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3. Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:

Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Aufgabe 1 (8=2+2+2+2 Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Die Zufallsvariable X bezeichne die Note. 1443533523253. a) Wie groß ist h(x 5)? Kreuzen

Mehr

Nachklausur Mathematik für Biologen WS 08/09

Nachklausur Mathematik für Biologen WS 08/09 Aufgabe 1: (5 Punkte) In einer diploiden Population beobachten wir die Ausprägung eines bestimmten Gens, das zwei Allele V und W annimmt. Somit besitzt jedes Individuum V V, V W oder W W als Genotyp. Die

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Grundidee. χ 2 Tests. Ausgangspunkt: Klasseneinteilung der Beobachtungen in k Klassen. Grundidee. Annahme: Einfache Zufallsstichprobe (X 1,..., X n ).

Grundidee. χ 2 Tests. Ausgangspunkt: Klasseneinteilung der Beobachtungen in k Klassen. Grundidee. Annahme: Einfache Zufallsstichprobe (X 1,..., X n ). Grundidee χ 2 -Anpassungstest χ 2 -Unabhängigkeitstest χ 2 -Homogenitätstest χ 2 Tests Grundidee Ausgangspunkt: Klasseneinteilung der Beobachtungen in k Klassen Annahme: Einfache Zufallsstichprobe (X 1,,

Mehr

2.Tutorium Multivariate Verfahren

2.Tutorium Multivariate Verfahren 2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

Schätzung im multiplen linearen Modell VI

Schätzung im multiplen linearen Modell VI Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben

Mehr

6.1 Definition der multivariaten Normalverteilung

6.1 Definition der multivariaten Normalverteilung Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu

Mehr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X

Mehr

4 Statistik normalverteilter Daten

4 Statistik normalverteilter Daten 4 Statistik normalverteilter Daten 4.1 Eine Stichprobe a Die drei Grundfragen. Die schliessende Statistik bildet die Brücke zwischen den Wahrscheinlichkeitsmodellen, die unser Denken strukturieren, und

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Dr. Stan Lai und Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer

Mehr

Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte

Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann Probe-Klausur zur Vorlesung Ökonometrie Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte (die eigentliche Klausur wird

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Diese Selbstkontrollarbeit bezieht sich auf die Kapitel 1 bis 4 der Kurseinheit 1 (Multivariate Statistik) des Kurses Multivariate Verfahren (883). Hinweise:

Mehr

5.8 Anpassungstests. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 389 / 419

5.8 Anpassungstests. W. Kössler (IfI HU Berlin) Werkzeuge der empirischen Forschung 389 / 419 5.8 8.1 Einführung empirische Verteilungsfunktion 8.2 EDF- Kolmogorov-Smirnov-Test Anderson-Darling-Test Cramer-von Mises-Test 8.3 Anpassungstest auf Normalverteilung - Shapiro-Wilk-Test 8.4. auf weitere

Mehr

(G)LM. 24. November 2009

(G)LM. 24. November 2009 (G)LM 24 November 29 Dies ist eine kurze Zusammenfassung der Grundlagen von linearen Modellen, sowie aufbauend darauf von generalisierten linearen Modellen Sie dient lediglich zum Einstieg und zur knappen

Mehr

D-CHAB Frühlingssemester 2017 T =

D-CHAB Frühlingssemester 2017 T = D-CHAB Frühlingssemester 17 Grundlagen der Mathematik II Dr Marcel Dettling Lösung 13 1) Die relevanten Parameter sind n = 3, x = 1867, σ x = und µ = 18 (a) Die Teststatistik T = X µ Σ x / n ist nach Annahme

Mehr

6. Statistische Schätzung von ARIMA Modellen

6. Statistische Schätzung von ARIMA Modellen 6. Statistische Schätzung von ARIMA Modellen Vorschau: ARIMA Modelle Modellidentifikation verschiedene Schätzverfahren Modelldiagnostik Fallstudien Zeitreihenanalyse 1 6.1 ARIMA Modelle Bisher: ARMA(p,q)-Modelle:

Mehr

Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen

Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen Kapitel 9 Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen 9 Definitionen, Eigenschaften Wir betrachten jetzt p Zufallsvariablen X, X 2,, X p Alle Definitionen, Notationen und Eigenschaften

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

6.2 Lineare Regression

6.2 Lineare Regression 6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann. 8. Übungsblatt zur Vorlesung Ökonometrie

Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann. 8. Übungsblatt zur Vorlesung Ökonometrie Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann 8. Übungsblatt zur Vorlesung Ökonometrie Aufgabe 1: In der Vorlesung haben wir das lineare Regressionsproblem als statistisches Problem formuliert:

Mehr

2 Klassische statistische Verfahren unter Normalverteilungs-Annahme

2 Klassische statistische Verfahren unter Normalverteilungs-Annahme 7 Klassische statistische Verfahren unter Normalverteilungs-Annahme. χ s, t s, F r,s -Verteilung a) N,..., N s uiv N (0, ) Verteilung von Y := N +... + N s heißt Chi-Quadrat-Verteilung mit s Freiheitsgraden

Mehr

Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller

Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit

Mehr

Blockpraktikum zur Statistik mit R

Blockpraktikum zur Statistik mit R Blockpraktikum zur Statistik mit R 08. Oktober 2010 Till Breuer, Sebastian Mentemeier und Matti Schneider Institut für Mathematische Statistik Universität Münster WS 2010/11 Gliederung 1 Ein-Stichproben-Fall

Mehr

3.2 Maximum-Likelihood-Schätzung

3.2 Maximum-Likelihood-Schätzung 291 Die Maximum-Likelihood-Schätzung ist die populärste Methode zur Konstruktion von Punktschätzern bei rein parametrischen Problemstellungen. 292 3.2.1 Schätzkonzept Maximum-Likelihood-Prinzip: Finde

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes) 3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f

Mehr

Statistik. Andrej Depperschmidt. Sommersemester 2016

Statistik. Andrej Depperschmidt. Sommersemester 2016 Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Goethe-Universität Frankfurt

Goethe-Universität Frankfurt Goethe-Universität Frankfurt Fachbereich Wirtschaftswissenschaft PD Dr. Martin Biewen Dr. Ralf Wilke Sommersemester 2006 Klausur Statistik II 1. Alle Aufgaben sind zu beantworten. 2. Bitte runden Sie Ihre

Mehr

Klausur zu Statistik II

Klausur zu Statistik II GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel

Mehr

Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch

Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Die Maximum-Likelihood-Methode

Die Maximum-Likelihood-Methode Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Inferenzstatistik in Regressionsmodellen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für

Mehr

Die Familie der χ 2 (n)-verteilungen

Die Familie der χ 2 (n)-verteilungen Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +

Mehr

Die Familie der χ 2 (n)-verteilungen

Die Familie der χ 2 (n)-verteilungen Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +

Mehr