Statistik IV. Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II

Größe: px
Ab Seite anzeigen:

Download "Statistik IV. Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II"

Transkript

1 Statistik IV Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II Prof. Dr. Torsten Hothorn Institut für Statistik Ludwig Maximilians Universität München L A TEX-Satz von Dipl.-Stat. Andreas Böck 25. Februar 2011

2 Kapitel 1 Grundlagen des statistischen Schließens 1.1 Grundbegriffe und Problemstellung Definition 1.1 (Beobachtung, Stichprobe) Ist ω Ω 1 ein beobachtetes Elementarereignis, so heißt x = X( ω) = (X 1 ( ω),..., X n ( ω)) eine Stichprobe vom Stichprobenumfang n mit Beobachtungen x 1 = X 1 ( ω),..., x n = X n ( ω). Definition 1.2 (Verteilungsannahme) Sei P X,I eine Menge von Verteilungen, die für die Zufallsvariable X im Prinzip in Betracht kommen: Dann heißt P X,I Verteilungsannahme. P X,I = {P X,i i I}. Definition 1.3 (Parameter, Parameterraum) Sei Θ R k und g : Θ P X,I bijektiv mit P X,ϑ = g(ϑ) für ϑ Θ. Dann heißt ϑ Parameter der Verteilung P X,ϑ, g heißt Parametrisierung von P X,I (=: P X,Θ ) und P X,Θ heißt k-parametrige Verteilungsannahme mit Parameterraum Θ. Definition 1.4 (Stichprobenraum, statistischer Raum) (X, σ(x ), P X,Θ ) heißt statistischer Raum, (X, σ(x )) heißt Stichprobenraum. 1.2 Schätzer und ihre Eigenschaften Definition 1.5 (Stichprobenfunktion, Statistik) Eine meßbare Funktion t : X R k heißt Stichprobenfunktion oder Statistik. Definition 1.6 (Schätzen, Schätzfunktion, Schätzwert) Sei Θ R k und t : X R k eine Statistik. Dann heißt t Schätzer oder Schätzfunktion für ϑ Θ und ϑ = t(x) heißt Schätzwert für ϑ Θ. Definition 1.7 (parametrische Funktion) Eine Abbildung g : Θ R l heißt parametrische Funktion. Definition 1.8 Sei Θ R k, g : R k R l eine parametrische Funktion und t : X R l eine Statistik. Dann ist t ein Schätzer für g(ϑ) und ĝ(ϑ) = t(x) dessen Schätzwert. 1

3 1.3. EXPONENTIALFAMILIEN 2 Definition 1.9 (Erwartungstreue, Verzerrung) Sei T = t X und t ein Schätzer für g(ϑ). Dann heißt b g (ϑ) = E ϑ (T ) g(ϑ) die Verzerrung (engl. bias) von t, wobei E ϑ (T ) = t dp X,ϑ. Falls b g (ϑ) = 0, also E ϑ (T ) = g(ϑ), so heißt t erwartungstreu oder unverzerrt (engl. unbiased) für g(ϑ). Definition 1.10 (Schätzverfahren) Für n N sei jeweils t n : R n R l eine Schätzfunktion für g(ϑ). Dann heißt die Menge {t n n N} Schätzverfahren für g(ϑ). Definition 1.11 (asymptotisch erwartungstreu, Konsistenz) Sei X n = (X 1,..., X n ), eine Folge von Stichproben, P Xn,Θ die Verteilungsannahme, ϑ Θ und g eine parametrische Funktion, sowie {t n n N} ein Schätzverfahren. Dann heißt die Folge von Zufallsvariablen T n = t n X n, n N ˆ asymptotisch erwartungstreu für g(ϑ) : lim E ϑ(t n ) = g(ϑ) ϑ Θ n ˆ schwach konsistent für g(ϑ) : P g(ϑ) T n ˆ stark konsistent für g(ϑ) : T n f.s. g(ϑ) Satz 1.12 Sei t : R n R ein Schätzer für ϑ Θ R. Dann gilt: P ϑ ( t(x) ϑ < ɛ) 1 1 ɛ 2 E ( ϑ (t(x) ϑ) 2 ) Der Ausdruck E ϑ ((t(x) ϑ) 2 ) := MSE(t, ϑ) heißt mittlerer quadratischer Fehler (mean squared error). Definition 1.13 Seien t 1 : R n R und t 2 : R n R Schätzer für θ Θ R. Dann heißt t 1 mindestens so gut wie t 2, wenn gilt MSE(t 1, ϑ) MSE(t 2, ϑ) ϑ Θ Satz 1.14 (Bias-Varianz-Zerlegung) 1.3 Exponentialfamilien MSE(t, ϑ) = V ϑ (t(x)) + (E ϑ (t(x)) ϑ }{{} bias b(t,ϑ) Definition 1.15 (Exponentialfamilie) Eine Verteilungsfamilie P X,Θ = {f(x; ϑ) ϑ Θ} (d.h., die Dichten existieren) heißt k-parametrige Exponentialfamilie wenn sich die Dichten f(x; ϑ) bzgl. (des oder eines geeigneten dominierenden Maßes) ν auf die folgende Gestalt bringen lassen: k f(x, ϑ) = c(ϑ) b(x) exp γ j (ϑ) t j (x) j=1 ) 2

4 1.3. EXPONENTIALFAMILIEN 3 mit und } t j : X R t = (t 1,..., t k ) b : X R + γ j : Θ R γ = (γ 1,..., γ k ) c : Θ R + meßbar γ = γ(ϑ) heißt natürlicher Parameter dieser Exponentialfamilie mit natürlichem Parameterraum γ(θ) = {γ(ϑ) ϑ Θ} R k. Satz 1.16 Folgende Verteilungsfamilien sind Exponentialfamilien: a) {Exp(λ) λ > 0} Exponentialverteilung b) {B(1, p) p [0, 1]} Bernoulliverteilung c) {B(n, p) p [0, 1]} Binomialverteilung d) {P (λ) λ > 0} Poissonverteilung e) { N(µ, σ 2 0) µ R } Normalverteilung f) { N(µ 0, σ 2 ) σ 2 > 0 } Normalverteilung Satz 1.17 Sei P X,ϑ = f( ; ϑ) ν Maß mit Dichte f bzgl. ν (in der Regel ν = λ oder ν = µ z ). Sei nun ν(b) := b(x) dν(x) (B X ) (also ν = b ν), dann gilt B wobei bzgl. mit γ 0 (ϑ) = log(c(ϑ)) P X,ϑ = f ν f(x, ϑ) = c(ϑ) exp(γ(ϑ) t(x)) f(x, ϑ) = exp(γ 0 (ϑ) + γ(ϑ) t(x)) Definition 1.18 Eine Exponentialfamilie heißt strikt k-parametrig, wenn ihre Dichten in der Form von Def oder Satz 1.17 darstellbar sind, und zusätzlich die Funktionen t 0 1, t 1,..., t k sowie γ 0 1, γ 1,..., γ k linear unabhängig sind (außer auf Nullmengen). Satz 1.19 Sei X 1 : Ω 1 R und P X1,Θ eine k-parametrige Exponentialfamilie mit Funktionen c, b, γ und t. Dann gilt: P X,Θ mit X = (X 1,..., X n ) u.i.v. ist ebenfalls k-parametrige Exponentialfamilie mit Funktionen c n (ϑ) = c(ϑ) n b n (x 1,..., x n ) = γ n (ϑ) = γ(ϑ) t n (x 1,..., x n ) = n b(x i ) i=1 n ( t 1 (x i ),..., t k (x i ) ) i=1

5 1.4. INVARIANTE VERTEILUNGSFAMILIEN 4 Definition 1.20 (natürliche Parametrisierung) Sei γ = γ(ϑ) und c(γ) derart, daß gilt: c(γ) = c(ϑ). Dann heißt die k-parametrige Exponentialfamilie in kanonischer Form dargestellt mit Dichte bezüglich ν. Satz 1.21 Der natürliche Parameterraum ist konvex. f(x; γ) = c(γ) exp(γ t(x)) Satz 1.22 Sei P X,Θ eine k-parametrige Exponentialfamilie in γ und T = t(x). Dann bildet P T,Θ ebenfalls eine k-parametrige Exponentialfamilie in γ und der Identität. Satz 1.23 Sei P X,Θ eine k-parametrige Exponentialfamilie in γ und T = t(x). Dann besitzt die Statistik T Momente beliebig hoher Ordnung, diese sind als Funktion von γ beliebig oft nach γ differenzierbar; die Ableitungen dürfen durch Differentiation unter dem betreffenden Integral gebildet werden. 1.4 Invariante Verteilungsfamilien Definition 1.24 (Invarianz) Sei X = (X 1,..., X n ) eine Stichprobe und P X,Θ = {P X,ϑ ϑ Θ} die Familie von Verteilungen von X. Sei G eine Klasse von Transformationen des Stichprobenraumes g : X X, wobei g bijektiv und g, g 1 meßbar sind. Dann ist die Verteilung der ZV g(x) P g(x),ϑ (B) = P X,ϑ (g 1 (B)) B σ(x ) und P g(x),θ die zugehörige Verteilungsannahme. Diese heißt invariant gegenüber der Klasse G von Transformationen, falls P g(x),θ = P X,Θ g G. 1.5 Suffizienz Definition 1.25 (Suffiziente Statistik) Sei X = (X 1,..., X n ) eine Stichprobe und P X,Θ = {P X,ϑ ϑ Θ} eine Verteilungsannahme sowie t : X R k eine Statistik. Dann heißt T = t X suffizient für P X,Θ (oder einfach für ϑ), wenn die bedingte Verteilung P X T =t(x) definiert durch P X T =t(x) (B) = P(X 1 (B) (t X) 1 (t(x))) P((t X) 1 (t(x))) unabhängig von ϑ ist (deren Existenz vorausgesetzt; dies ist mit X = R n aber der Fall).

6 1.6. DIE FISHER-INFORMATION 5 Definition 1.26 (bedingter Erwartungswert) Seien X und Y Zufallsvariablen mit Randverteilungen P X = f X ν X und P Y = f Y ν Y sowie bedingte Verteilungen P X Y =y = f X Y =y ν X. Dann ist der bedingte Erwartungswert von g(x) gegeben Y = y als Funktion von y definiert durch E(g(X) Y = y) = g(x) dp X Y =y (x) = g(x)f X Y =y (x y) dν X (x) Satz 1.27 (Satz vom iterierten Erwartungswert) E Y (E X Y (X Y )) = E X (X) Satz 1.28 (Faktorisierungssatz von Fisher und Neyman) Sei X = (X 1,..., X n ) eine Stichprobe und P X,Θ = {f(x; ϑ) ϑ Θ} eine Verteilungsannahme, so gilt für eine Statistik T = t X (t : R n R k ) T ist suffizient für ϑ g : Θ Rk R h : R n R f(x; ϑ) = g(ϑ, t(x)) h(x). Satz 1.29 Sei P X,Θ eine k-parametrige Exponentialfamilie mit Dichten } meßbar so daß f X (x; ϑ) = c(ϑ) b(x) exp(γ(ϑ) t(x)) t X ist suffizient für ϑ Θ. 1.6 Die Fisher-Information Definition 1.30 (Fisher Regularität) Sei P X,Θ = {f(x; ϑ) ϑ Θ R} mit den folgenden Regularitätseigenschaften R1) Die Dichten f(x; ϑ) existieren (d.h. P X,ϑ = f ν). R2) Θ ist offenes Intervall. R3) Der Träger C := {x f(x; ϑ) > 0} ist unabhängig von ϑ. R4) f(x; ϑ) 2 f(x; ϑ) 2 ϑ x C. dν(x) = dν(x) = Dann heißt die Verteilungsfamilie P X,Θ Fisher-regulär. Definition 1.31 (Scorefunktion) S(ϑ; x) = log f(x; ϑ) f(x; ϑ)dν(x) = 0 f(x; ϑ) dν(x) = 0 = f(x;ϑ) f(x; ϑ) heißt Scorefunktion der Beobachtung x und die Zufallsvariable S(ϑ; X) heißt Scorefunktion der Stichprobe X.

7 1.6. DIE FISHER-INFORMATION 6 Satz 1.32 Unter Fisher-Regularität gilt: E ϑ S(ϑ; X) = 0 V ϑ S(ϑ; X) = E ϑ S(ϑ; X) Definition 1.33 (Fisher-Information) Sei P X,Θ = {f(x; ϑ) ϑ Θ} Fisher-regulär und x C (dem Träger von f). Dann heißt I(ϑ; x) := S(ϑ; x) die Fisher-Information der Beobachtung x über den Parameter ϑ. Der Erwartungswert der Zufallsvariable I(ϑ; X) heißt Erwartete Fisher-Information I X (ϑ) der Stichprobe X: I X (ϑ) = E ϑ I(ϑ; X) = E ϑ S(ϑ; X) = V ϑs(ϑ; X) Satz 1.34 Sei X = (X 1,..., X n ) u.i.v. und I Xi (ϑ) die erwartete Fisher-Information von X i. Dann gilt: I X (ϑ) = n I Xi (ϑ) i=1 Satz 1.35 (Cramèr-Rao-Ungleichung) Sei P X,Θ Fisher regulär und t : X R ein erwartungstreuer Schätzer für ϑ Θ. Falls für die ZV T = t X gilt so folgt Cov(T, S(ϑ; X)) = 1 V ϑ (T ) 1 I X (ϑ).

8 Kapitel 2 Punktschätzungen 2.1 Maximum-Likelihood-Schätzung Definition 2.1 (Likelihood) Sei X = (X 1,..., X n ) mit Verteilungsannahme P X,Θ existieren), dann heißt die Funktion = {f(x; ϑ) ϑ Θ} (d.h., die Dichten L : Θ X R + ϑ L(ϑ; x) = f(x; ϑ) die Likelihoodfunktion für ein festes x X (= R n üblicherweise). Definition 2.2 (Maximum- Likelihood- Schätzer) Sei X = (X 1,..., X n ) und P X,Θ die zugehörige Verteilungsannahme (siehe Def. 2.1). Dann heißt der Schätzer t ML : R n R k x t ML (x) = ϑ ML := argmax L(ϑ; x) ϑ Θ der Maximum-Likelihood-Schätzer für ϑ Θ R k. Definition 2.3 (Log- Likelihood) heißt Log- Likelihoodfunktion. l(ϑ; x) = log L(ϑ; x) = log f(x; ϑ) Satz 2.4 (Konsistenz des ML-Schätzers) Sei X = (X 1,..., X n ) mit R1-R4 und C1,C2. Dann existiert eine Folge von Statistiken ϑ n = t ML (X), definiert über S( ϑ n ; x = (x 1,..., x n )) = 0 und I( ϑ n, (x,..., x n )) > 0 (also potentiell lokale Maxima der Likelihood) so daß gilt: ( ϑ n ist schwach konsistent). ϑ n P ϑ (X PX,ϑ ) Korollar 2.5 Es gelten die Annahmen von Satz 2.4; wenn S( ϑ n ; x) = 0 eindeutige Nullstelle ist, so gilt: i) ϑ n P ϑ 7

9 2.1. MAXIMUM-LIKELIHOOD-SCHÄTZUNG 8 i)) ϑ n f.s. ϑ ML (d.h. die Lösung der Scoregleichung führt zum Maximum-Likelihood-Schätzer mit Wahrscheinlichkeit 1 für n ). Satz 2.6 (Invarianz des ML-Schätzers) Seien die Bedingungen von Satz 2.4 erfüllt und g(ϑ) eine stetige parametrische Funktion. Dann gilt: ĝ(ϑ) n = g( ϑ n ) ist ein konsistenter Schätzer für g(ϑ). Satz 2.7 (Verteilung der Scorefunktion) Sei X = (X 1,..., X n ) u.i.v. und S(ϑ; X) die zugehörige Scorefunktion. Dann gilt: 1 n S(ϑ; X) D N(0, I X1 (ϑ)) Satz 2.8 (Quadratische Approximation der Log-Likelihood) l(ϑ; x) l( ϑ ML ; x) 1 2 I( ϑ ML ; x)(ϑ ϑ ML ) 2 Satz 2.9 (asymptotische Normalität des ML-Schätzers) Sei X = (X 1,..., X n ) u.i.v. mit Verteilungsannahme P X,Θ = {f(x; ϑ) ϑ Θ} (Fisher-regulär). Weiterhin gelte: C1, C2 sowie C3) x C (Träger von f) ist f(x; ϑ) mindestens dreimal stetig differenzierbar. C4) Für den wahren Parameterwert ϑ 0 existiert eine Funktion M ϑ0 (x) und eine Konstante c(ϑ 0 ) so daß 3 l(ϑ; x) 3 ϑ M ϑ 0 (x) x C, (ϑ ϑ 0 ) < x(ϑ 0 ) sowie E ϑ0 (M ϑ (X)) <. Dann gilt für jede konsistente Folge von ZV ϑ n = t Score (X) (siehe Satz 2.4) wobei 0 < I X1 (ϑ 0 ) < n( ϑn ϑ 0 ) D N(0, 1 I X1 (ϑ 0 ) ) Satz 2.10 Sei ϑ n Schätzer für ϑ und g eine diffbare parametrische Funktion. Dann gilt ( ( ) ( ) ) 2 D g(ϑ) n g( ϑ n ) g(ϑ) N 0, I 1 X 1 (ϑ) Satz 2.11 Unter den Annahmen von Satz 2.9 gilt ebenso n( ϑn ϑ) n( ϑn ϑ) n( ϑn ϑ) D N (0, I X1 ( ϑ n ) 1) D N ( 0, I(ϑ, X) 1) D N (0, I( ϑ n, X) 1)

10 2.2. M-SCHÄTZUNG M-Schätzung Definition 2.12 (M-Schätzer) Sei X = (X 1,..., X n ) u.i.v. mit X i F; X i R p. Sei ψ : R p R k R eine Funktion, so daß für den wahren Parameter ϑ gilt: E ψ(x 1, ϑ) = ψ(x, ϑ) df(x) = 0 Dann heißt ϑ mit M-Schätzer. n i=1 ( ψ X i, ϑ ) = 0 Satz 2.13 Sei X = (X 1,..., X n ); ψ(x, ϑ) monoton in ϑ und in ϑ stetig. Dann gilt für die Lösung der Schätzgleichung ϑ n : n ψ(x i, ϑ) =! 0 ϑ n P ϑ. Satz 2.14 (asymptotische Normalität des M-Schätzers) i=1 n ( ϑn ϑ 0 ) D N(0, V (ϑ0 )) Satz 2.15 (Sandwich Schätzer) V ( ϑ n ) = Â( ϑ n ) 1 B( ϑn )Â( ϑ n ) 1 P V (ϑ0 ) mit Â( ϑ n ) = 1 n B( ϑ n ) = 1 n n ψ(x i, ϑ n ) ϑ n n ψ(x i, ϑ n )ψ(x i, ϑ n ) i=1 i=1

11 Kapitel 3 Inferenzkonzepte 3.1 Parametertests Definition 3.1 (Testproblem) Sei ϑ R k Parameter und Θ R k der zugehörige Parameterraum. Dann heißt H 0 : ϑ Θ 0 vs. H 1 : ϑ Θ 1 mit Θ = Θ 0 Θ 1, Θ 0 Θ 1 = Θ 0, Θ 1 Statistisches Testproblem. H 0 heißt (Null)hypothese, H 1 Alternative. Definition 3.2 (einfache, einseitige und zweiseitige Hypothesen) H 0 : ϑ Θ 0 vs. H 1 : ϑ Θ 1 Θ 0 = 1 : einfache Hypothese, sonst: zusammengesetzte Hypothese Θ 1 = 1 : einfache Alternative, sonst: zusammengesetze Alternative Bei skalaren Parametern unterscheidet man noch einseitiges Testproblem zweiseitiges Testproblem Definition 3.3 (statistischer Test) H 0 : ϑ ϑ 0 vs. H 1 : ϑ > ϑ 0 rechtsseitige Alternative H 0 : ϑ ϑ 0 vs. H 1 : ϑ < ϑ 0 linksseitige Altervative H 0 : ϑ = ϑ 0 vs. H 1 : ϑ ϑ 0 φ : X {0, 1} heißt nichtrandomisierter Test. ( X Stichprobenraum) (meßbar) φ R : X [0, 1] (meßbar) heißt randomisierter Test. Definition 3.4 (kritischer Bereich) heißt kritischer Bereich oder Ablehnbereich. K heißt Annahmebereich. K := {x X φ(x) = 1} 10

12 3.1. PARAMETERTESTS 11 Definition 3.5 (Fehlerarten) ϑ Θ 0, φ(x) = 1... ϑ Θ 1, φ(x) = 0... Fehler erster Art Fehler zweiter Art Definition 3.6 (Gütefunktion) β φ (ϑ) := P ϑ (φ(x) = 1) = E ϑ φ(x) = φ(x) dp X,ϑ (x) heißt Gütefunktion des Tests φ. Diese Funktion beschreibt die Wahrscheinlichkeit, die Nullhypothese H 0 : ϑ Θ 0 abzulehnen für eine Stichprobe X = (X 1,... X n ) aus der Verteilung P X,ϑ. Definition 3.7 (Niveau-α-Test) Ein Test φ mit der Eigenschaft β φ (ϑ) α ϑ Θ 0 heißt Niveau-α-Test. D.h., die Wahrscheinlichkeit für den Fehler erster Art ist maximal α (0, 1). Definition 3.8 (Macht, Power) heißt Macht oder Powerfunktion des Tests. β φ (ϑ) ϑ Θ 1 Definition 3.9 (Bester Test) Seien φ und φ Niveau-α-Test für das TP H 0 vs. H 1. Dann heißt φ mindestens so gut wie φ wenn gilt: β φ (ϑ) β φ (ϑ) ϑ Θ 1. Gilt diese Beziehung für alle beliebigen Niveau-α-Tests φ, so heißt φ gleichmäßig bester Test (uniformly most powerful, UMP). Definition 3.10 (Unverfälschter Test) Ein Niveau-α-Test φ heißt unverfälscht, wenn gilt β φ (ϑ 0 ) β φ (ϑ 1 ) ϑ 0 Θ 0 und ϑ 1 Θ 1 Ein Niveau-α-Test φ heißt gleichmäßig bester unverfälschter (auch: unverzerrter) Test, wenn er gleichmäßig bester Test unter allen unverfälschten Niveau-α-Tests ist. Definition 3.11 (Teststatistik) Für Tests der Form φ(x) = { 1 T (X) > k 0 T (X) k heißt die Statistik T : X R Teststatistik und deren Verteilung unter den Bedingungen der Nullhypothese P Θ0 (T (X) k) Prüfverteilung. Definition 3.12 (Konfidenzintervall) Die Funktion C : X R 2, x C(x) = [C(x), C(x)] heißt Konfidenzintervall für ϑ zum Niveau 1 α falls gilt P ϑ (ϑ C(X)) = P ϑ (C(X) ϑ C(X)) 1 α ϑ Θ.

13 3.2. WALD-, LIKELIHOOD-QUOTIENTEN- UND SCORE-TEST 12 Definition 3.13 (Gütekriterien für Konfidenzintervalle) Ein Konfidenzintervall C(X) heißt unverzerrt (unbiased), wenn gilt P ϑ (ϑ C(X)) P ϑ (ϑ C(X)) ϑ ϑ Ein Konfidenzintervall C(X) ist besser als ein Konfidenzintervall C(X) (beide zum Niveau 1 α) wenn E ϑ (C(X) C(X)) < E ϑ ( C(X) C(X)) d.h., wenn die erwartete Länge kleiner ist. 3.2 Wald-, Likelihood-Quotienten- und Score-Test Satz 3.14 (Wald-Test) Sei X = (X 1,..., X n ) u.i.v. und ϑ n ein Schätzer für ϑ mit der Eigenschaft n ( ϑn ϑ) D N ( 0, I 1 X 1 (ϑ) ) Dann ist der Test (Wald-Teststatistik) ein approximativer Niveau-α-Test für das Test- mit W (X) = ϑ n b q n ϑ 0 I 1 X (ϑ 1 0) problem φ W (X) = { 1 W (X) u 1 α/2 0 sonst H 0 : ϑ = ϑ 0 vs. H 1 : ϑ ϑ 0 Definition 3.15 (Likelihood-Quotienten-Test) Ein Test basierend auf der Teststatistik heißt Likelihood-Quotienten-Test für Satz 3.16 (Verteilung von LQ) LQ(X) = L( ϑ n ; X) max ϑ Θ 0 L(ϑ; X) H 0 ; ϑ Θ 0 vs. H 1 : ϑ Θ 1 Definition 3.17 (Score-Test, LM-Test) Ein Test basierend auf der Teststatistik 2 log (LQ(X)) D χ 2 1 LM(X) = S(ϑ 0, X) n IX1 (ϑ 0 ) heißt Score-Test oder Lagrange-Multiplier-Test für H 0 : ϑ = ϑ 0 vs. H 1 : ϑ ϑ 0. Satz 3.18 (Verteilung von LM) LM(X) D N(0, 1) Satz 3.19 (asymptotische Äquivalenz von W und LM) LM(X) W (X) P 0

14 3.3. BAYES-INFERENZ Bayes-Inferenz Definition 3.20 (Priori-Verteilung) Sei ϑ P ϑ mit Dichte f ϑ (ϑ) eine ZV. P ϑ heißt Priori-Verteilung. Definition 3.21 (Posteriori-Verteilung) Sei X P X ϑ eine ZV mit auf ϑ = ϑ bedingter Verteilung und X = x eine Realisation von X. Dann heißt die Dichte der bedingten Verteilung von ϑ gegeben X = x f ϑ X=x (ϑ X = x) = f X ϑ (x ϑ) f ϑ (ϑ) fx ϑ (x ϑ)f ϑ (ϑ) dν(ϑ) Posteriori-Dichte und die bedingte Verteilung ϑ X = x Posteriori-Verteilung. Definition 3.22 (Posteriori-Punktschätzer) Posteriori-Erwartungswert: E(ϑ X = x) = ϑ f ϑ X (ϑ X = x) dν(ϑ) Posteriori-Modus: Posteriori-Median Mod(ϑ X = x) = argmax f ϑ X (ϑ X = x) ϑ Median(ϑ X = x) Definition 3.23 (Kredibilitätsintervall) Ein Intervall [b, b] mit f ϑ x (ϑ x) dν(ϑ) = 1 α [b,b] heißt (1 α)-kredibilitätsintervall. Gilt weiterhin f ϑ x (ϑ X = x) f ϑ x (ϑ X = x) ϑ [b, b] und ϑ / [b, b] so heißt [b, b] highest posterior density interval HPD- Intervall. Satz 3.24 f ϑ (ϑ) = const Mod(ϑ X = x) = ϑ ML Satz 3.25 Sei ϑ Θ, Θ höchstens abzählbar, also Θ = {ϑ 1, ϑ 2,...}. Sei ϑ t der wahre Parameter (also P Xn,ϑ t, wobei X n die n-dimensionale Stichprobe ist). Dann gilt X n lim f(ϑ t X n = x) = 1 n lim f(ϑ i X n = x) = 0 n und i t

15 Literaturverzeichnis William F. Trench. Introduction to Real Analysis. William F. Trench, Free Edition 1.03 edition, ISBN URL index.shtml. 14

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011 Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben

Mehr

Statistische Entscheidungsmodelle

Statistische Entscheidungsmodelle 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Statistische Entscheidungsmodelle Von o. Prof. Dipl.-Vw. Dr. Gerhard

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

2.2 Klassische Testtheorie

2.2 Klassische Testtheorie 2.2 Klassische Testtheorie iel: Finde Test zum Niveau mit optimaler Güte (Power) für 2 1. Dabei ist n finit. 2.2.1 Problemstellung Sei der Parameterraum; die Hypothesen seien H 0 : 2 0 vs. H 1 : 2 1, mit

Mehr

Konfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt

Konfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt Konfidenzintervalle Annahme: X 1,..., X n iid F θ. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt P θ (U θ O) = 1 α, α (0, 1). Das Intervall [U, O] ist ein Konfidenzintervall

Mehr

Signifikanztests Optimalitätstheorie

Signifikanztests Optimalitätstheorie Kapitel Signifikanztests Optimalitätstheorie Randomisierte Tests In einem statistischen Modell M, A, P ϑ sei ein Testproblem gegeben: H : ϑ Θ gegen H : ϑ Θ ; wobei also durch Θ Θ Θ eine Zerlegung des Parameterbereichs

Mehr

11 Testen von Hypothesen

11 Testen von Hypothesen Testen von Hypothesen Ausgehend von einem statistischen Modell X, B,P ϑ,x, ϑ Θ, interessiert manchmal nicht der genaue Wert des unbekannten Parameters ϑ, sondern lediglich, ob ϑ in einer echten Teilmenge

Mehr

5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung

5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung 5 Konfidenzschätzung 5. Einige Grundbegriffe zur Konfidenzschätzung Diesem Kapitel liegt das parametrische Modell {X, B X, P } mit P {P Θ} zugrunde. {Θ, B Θ } sei ein Meßraum über Θ und µ ein σ-finites

Mehr

2.2 Klassische Testtheorie

2.2 Klassische Testtheorie 192 2.2.1 Problemstellung Ziel: Finde Test zum Niveau mit optimaler Güte (Power) für 2 1.Dabeiistn finit. Problemstellung: I Sei der Parameterraum; die Hypothesen seien H 0 : 2 0 vs. H 1 : 2 1, mit 0 \

Mehr

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe 1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe Nachdem eine Stichprobe X 1,..., X n gezogen wurde berechnen wir gewöhnlich irgendwelchen Wert damit. Sei dies T = T (X 1,..., X n, wobei T auch

Mehr

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare 17.1.3 Die Momentenmethode Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare Lösungen. Sei ϑ = (ϑ 1,...,ϑ s ) der unbekannte, s-dimensionale

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

6. Statistische Hypothesentests

6. Statistische Hypothesentests 6. Statistische Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von

Mehr

Einführung in die statistische Testtheorie

Einführung in die statistische Testtheorie 1 Seminar Simulation und Bildanalyse mit Java von Benjamin Burr und Philipp Orth 2 Inhalt 1. Ein erstes Beispiel 2. 3. Die Gütefunktion 4. Gleichmäßig beste Tests (UMP-Tests) 1 Einführendes Beispiel 3

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr

Stochastik Praktikum Testtheorie

Stochastik Praktikum Testtheorie Stochastik Praktikum Testtheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 11.10.2010 Definition X: Zufallsgröße mit Werten in Ω, (Ω, F, (P ϑ ) ϑ Θ ) statistisches Modell Problem: Teste H 0 : ϑ

Mehr

Einführung in die statistische Testtheorie II

Einführung in die statistische Testtheorie II 1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Stochastik Praktikum Parametrische Schätztheorie

Stochastik Praktikum Parametrische Schätztheorie Stochastik Praktikum Parametrische Schätztheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 05.10.2010 Prolog Momentenmethode X : Ω 1 Ω Zufallsgröße, die Experiment beschreibt. Ein statistisches

Mehr

A Kurzskript: Stochastische Majorisierung und Testtheorie

A Kurzskript: Stochastische Majorisierung und Testtheorie A Kurzskript: Stochastische Majorisierung und Testtheorie A.1 Stochastische Majorisierung Denition A.1 (stochastisch gröÿer) Seien Q und P zwei W'Maÿe auf (R, B). Dann heiÿt Q stochastisch gröÿer als P

Mehr

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes) 3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f

Mehr

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, (

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, ( Kapitel 4 Konfidenzbereiche Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden Teil-Parameter

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie

Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Sommersemester 2018 Kapitel 8: Elemente der mathematischen Statistik Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

7. Hypothesentests. Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang. X habe die unbekannte VF F X (x)

7. Hypothesentests. Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang. X habe die unbekannte VF F X (x) 7. Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von X 350 Bisher:

Mehr

Schätzen und Testen I in 90 Minuten. 8. Februar 2010

Schätzen und Testen I in 90 Minuten. 8. Februar 2010 Schätzen und Testen I in 90 Minuten 8. Februar 2010 1. Einführung in statistische Modelle und Inferenzkonzepte 2. Klassische Schätz- und Testtheorie 3. Likelihood-Inferenz 4. Bayes-Inferenz 5. Einführung

Mehr

Mathematische Statistik Teil III Testen

Mathematische Statistik Teil III Testen Mathematische Statistik Teil III Testen R. Kovacevic 1 1 Institut für Statistik und Decision Support Systeme Universität Wien Wintersemester 2009 Dieses Werk ist urheberrechtlich geschützt. Jede Vervielfältigung

Mehr

Punktschätzer Optimalitätskonzepte

Punktschätzer Optimalitätskonzepte Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +

Mehr

5. Elemente Statistischer Inferenz

5. Elemente Statistischer Inferenz 5. Elemente Statistischer Inferenz Ziel der Statistik ist es, unter bestimmten Annahmen Aussagen über unbekannte Parameter θ Θ zu machen, nachdem Beobachtungen X gemacht wurden. Dabei unterscheidet man

Mehr

3.3 Methoden zur Evaluierung von Schätzern

3.3 Methoden zur Evaluierung von Schätzern 3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood

Mehr

Induktive Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung

Induktive Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Induktive Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben

Mehr

Formelsammlung zur Vorlesung Schätzen und Testen I

Formelsammlung zur Vorlesung Schätzen und Testen I Schätzen und Testen I WS 2008/09 Ludwig Fahrmeir, Christian Heumann, Christiane Dargatz Formelsammlung zur Vorlesung Schätzen und Testen I 1 Einführung in statistische Modelle und Inferenzkonzepte 1.1

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9. 7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe

Mehr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 5: Aufgaben zu den Kapiteln 9 bis 12

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 5: Aufgaben zu den Kapiteln 9 bis 12 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 0) Teil 5: Aufgaben zu den Kapiteln 9 bis Aufgaben zu Kapitel 9 Zu Abschnitt 9. Ü9.. Es sei ψ : R R stetig differenzierbar.

Mehr

Allgemeines zu Tests. Statistische Hypothesentests

Allgemeines zu Tests. Statistische Hypothesentests Statistische Hypothesentests Allgemeines zu Tests Allgemeines Tests in normalverteilten Grundgesamtheiten Asymptotische Tests Statistischer Test: Verfahren Entscheidungsregel), mit dem auf Basis einer

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Dr. Stan Lai und Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer

Mehr

Kapitel VI - Maximum-Likelihood-Schätzfunktionen

Kapitel VI - Maximum-Likelihood-Schätzfunktionen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VI - Maximum-Likelihood-Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)

Mehr

Praktikum zur Statistik

Praktikum zur Statistik mit R Institut für Mathematische Statistik Universität Münster 7. Oktober 2010 Gliederung 1 Testtheorie: Ziel und Überblick Testtheorie Andere Entscheidungsprobleme 2 3 4 p-wert, Binomialtest Mittelwertvergleiche:

Mehr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X

Mehr

Frequentisten und Bayesianer. Volker Tresp

Frequentisten und Bayesianer. Volker Tresp Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben

Mehr

Klausur Stochastik und Statistik 31. Juli 2012

Klausur Stochastik und Statistik 31. Juli 2012 Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf

Mehr

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander

Mehr

Suffizienz und Vollständigkeit

Suffizienz und Vollständigkeit KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt

Mehr

Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch

Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,

Mehr

Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung

Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Induktive Statistik Prof. Dr. W.-D.

Mehr

Kapitel XI - Operationscharakteristik und Gütefunktion

Kapitel XI - Operationscharakteristik und Gütefunktion Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XI - Operationscharakteristik und Gütefunktion Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten

Mehr

5 Allgemeine Verfahren zum Testen von Hypothesen

5 Allgemeine Verfahren zum Testen von Hypothesen 5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).

Mehr

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion 4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Konfidenzbereiche. Kapitel Grundlagen. Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus,

Konfidenzbereiche. Kapitel Grundlagen. Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, Kapitel 4 Konfidenzbereiche 4.1 Grundlagen Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden

Mehr

1. Übungsblatt zur Statistik III - Schätzen und Testen

1. Übungsblatt zur Statistik III - Schätzen und Testen 1. Übungsblatt zur Aufgabe 1 (4 Punkte): Ein Würfel mit unbekannter Anzahl k IN von Seiten wird fünf mal geworfen mit folgendem Ergebnis: 7, 2, 11, 4, 10. Geben Sie zwei verschiedene sinnvolle Punktschätzfunktionen

Mehr

Statistik. Andrej Depperschmidt. Sommersemester 2016

Statistik. Andrej Depperschmidt. Sommersemester 2016 Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i

Mehr

Einführung in die Induktive Statistik: Testen von Hypothesen

Einführung in die Induktive Statistik: Testen von Hypothesen Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte

Mehr

Mathematische Statistik Gliederung zur Vorlesung im Wintersemester 2006/07

Mathematische Statistik Gliederung zur Vorlesung im Wintersemester 2006/07 Mathematische Statistik Gliederung zur Vorlesung im Wintersemester 26/7 Markus Reiß Universität Heidelberg reiss@statlab.uni-heidelberg.de VORLÄUFIGE FASSUNG: 9. Februar 27 Inhaltsverzeichnis 1 Einführende

Mehr

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Wintersemester 2012/13. Namensschild. Dr.

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Wintersemester 2012/13. Namensschild. Dr. Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Wintersemester 2012/13 Namensschild Dr. Martin Becker Hinweise für die Klausurteilnehmer ˆ Kleben Sie bitte sofort Ihr Namensschild

Mehr

2. Prinzipien der Datenreduktion

2. Prinzipien der Datenreduktion 2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Kapitel 3 Schließende Statistik

Kapitel 3 Schließende Statistik Bemerkung 3.34: Die hier betrachteten Konfidenzintervalle für unbekannte Erwartungswerte sind umso schmaler, je größer der Stichprobenumfang n ist, je kleiner die (geschätzte) Standardabweichung σ (bzw.

Mehr

Stochastik I - Formelsammlung

Stochastik I - Formelsammlung Stochastik I - Formelsammlung Ereignis Ergebnisraum: Ω von Julian Merkert, Wintersemester 2005/06, Prof. Bäuerle Ereignisse und Wahrscheinlichkeiten Ereignis: A Ω Elementarereignis: {ω}, ω Ω A B := AB

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

Erwartungstreue Schätzer

Erwartungstreue Schätzer KAPITEL 4 Erwartungstreue Schätzer Ein statistisches Modell ist ein Tripel (X, A, (P θ ) θ Θ ), wobei X (genannt der Stichprobenraum) die Menge aller möglichen Stichproben, A eine σ Algebra auf X, und

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

1. Übungsblatt. n i=1 X i und von ˆσ 2 = 1 n 1

1. Übungsblatt. n i=1 X i und von ˆσ 2 = 1 n 1 1. Übungsblatt 1. Es sei (X, Y ) ein zweidimensionaler Zufallsvektor mit Y L 2. Folgere aus den Eigenschaften der bedingten Erwartung, dass der Ausdruck E[(Y g(x)) 2 ] für messbare Funktionen g : R R mit

Mehr

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und Übersicht über die Vorlesung Teil : Deskriptive fru@hephy.oeaw.ac.at VO 42.090 http://tinyurl.com/tu42090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4:

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei

Mehr

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60 WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach

Mehr

Man kann also nicht erwarten, dass man immer den richtigen Wert trifft.

Man kann also nicht erwarten, dass man immer den richtigen Wert trifft. 2.2.2 Gütekriterien Beurteile die Schätzfunktionen, also das Verfahren an sich, nicht den einzelnen Schätzwert. Besonders bei komplexeren Schätzproblemen sind klar festgelegte Güteeigenschaften wichtig.

Mehr

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung

Mehr

Kapitel 4.3 Testen von Verteilungshypothesen. Stochastik SS

Kapitel 4.3 Testen von Verteilungshypothesen. Stochastik SS Kapitel 4.3 Testen von Verteilungshypothesen Stochastik SS 2017 1 Beispiele 1) Landwirt wird Verfahren zur Änderung des Geschlechtsverhältnisses von Nutztieren angeboten, so dass z.b. mehr Kuhkälber als

Mehr

Schätzer und Konfidenzintervalle

Schätzer und Konfidenzintervalle Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl

Mehr

Lösung Übungsblatt 5

Lösung Übungsblatt 5 Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

Statistische Tests Übersicht

Statistische Tests Übersicht Statistische Tests Übersicht Diskrete Stetige 1. Einführung und Übersicht 2. Das Einstichprobenproblem 3. Vergleich zweier unabhängiger Gruppen (unverbundene Stichproben) 4. Vergleich zweier abhängiger

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Kapitel XIV - Anpassungstests

Kapitel XIV - Anpassungstests Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIV - Anpassungstests Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh 2. Grundannahme:

Mehr

Kapitel V - Erwartungstreue Schätzfunktionen

Kapitel V - Erwartungstreue Schätzfunktionen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel V - Erwartungstreue Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

3.2 Maximum-Likelihood-Schätzung

3.2 Maximum-Likelihood-Schätzung 291 Die Maximum-Likelihood-Schätzung ist die populärste Methode zur Konstruktion von Punktschätzern bei rein parametrischen Problemstellungen. 292 3.2.1 Schätzkonzept Maximum-Likelihood-Prinzip: Finde

Mehr