Statistik IV. Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II
|
|
- Gesche Eberhardt
- vor 7 Jahren
- Abrufe
Transkript
1 Statistik IV Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II Prof. Dr. Torsten Hothorn Institut für Statistik Ludwig Maximilians Universität München L A TEX-Satz von Dipl.-Stat. Andreas Böck 25. Februar 2011
2 Kapitel 1 Grundlagen des statistischen Schließens 1.1 Grundbegriffe und Problemstellung Definition 1.1 (Beobachtung, Stichprobe) Ist ω Ω 1 ein beobachtetes Elementarereignis, so heißt x = X( ω) = (X 1 ( ω),..., X n ( ω)) eine Stichprobe vom Stichprobenumfang n mit Beobachtungen x 1 = X 1 ( ω),..., x n = X n ( ω). Definition 1.2 (Verteilungsannahme) Sei P X,I eine Menge von Verteilungen, die für die Zufallsvariable X im Prinzip in Betracht kommen: Dann heißt P X,I Verteilungsannahme. P X,I = {P X,i i I}. Definition 1.3 (Parameter, Parameterraum) Sei Θ R k und g : Θ P X,I bijektiv mit P X,ϑ = g(ϑ) für ϑ Θ. Dann heißt ϑ Parameter der Verteilung P X,ϑ, g heißt Parametrisierung von P X,I (=: P X,Θ ) und P X,Θ heißt k-parametrige Verteilungsannahme mit Parameterraum Θ. Definition 1.4 (Stichprobenraum, statistischer Raum) (X, σ(x ), P X,Θ ) heißt statistischer Raum, (X, σ(x )) heißt Stichprobenraum. 1.2 Schätzer und ihre Eigenschaften Definition 1.5 (Stichprobenfunktion, Statistik) Eine meßbare Funktion t : X R k heißt Stichprobenfunktion oder Statistik. Definition 1.6 (Schätzen, Schätzfunktion, Schätzwert) Sei Θ R k und t : X R k eine Statistik. Dann heißt t Schätzer oder Schätzfunktion für ϑ Θ und ϑ = t(x) heißt Schätzwert für ϑ Θ. Definition 1.7 (parametrische Funktion) Eine Abbildung g : Θ R l heißt parametrische Funktion. Definition 1.8 Sei Θ R k, g : R k R l eine parametrische Funktion und t : X R l eine Statistik. Dann ist t ein Schätzer für g(ϑ) und ĝ(ϑ) = t(x) dessen Schätzwert. 1
3 1.3. EXPONENTIALFAMILIEN 2 Definition 1.9 (Erwartungstreue, Verzerrung) Sei T = t X und t ein Schätzer für g(ϑ). Dann heißt b g (ϑ) = E ϑ (T ) g(ϑ) die Verzerrung (engl. bias) von t, wobei E ϑ (T ) = t dp X,ϑ. Falls b g (ϑ) = 0, also E ϑ (T ) = g(ϑ), so heißt t erwartungstreu oder unverzerrt (engl. unbiased) für g(ϑ). Definition 1.10 (Schätzverfahren) Für n N sei jeweils t n : R n R l eine Schätzfunktion für g(ϑ). Dann heißt die Menge {t n n N} Schätzverfahren für g(ϑ). Definition 1.11 (asymptotisch erwartungstreu, Konsistenz) Sei X n = (X 1,..., X n ), eine Folge von Stichproben, P Xn,Θ die Verteilungsannahme, ϑ Θ und g eine parametrische Funktion, sowie {t n n N} ein Schätzverfahren. Dann heißt die Folge von Zufallsvariablen T n = t n X n, n N ˆ asymptotisch erwartungstreu für g(ϑ) : lim E ϑ(t n ) = g(ϑ) ϑ Θ n ˆ schwach konsistent für g(ϑ) : P g(ϑ) T n ˆ stark konsistent für g(ϑ) : T n f.s. g(ϑ) Satz 1.12 Sei t : R n R ein Schätzer für ϑ Θ R. Dann gilt: P ϑ ( t(x) ϑ < ɛ) 1 1 ɛ 2 E ( ϑ (t(x) ϑ) 2 ) Der Ausdruck E ϑ ((t(x) ϑ) 2 ) := MSE(t, ϑ) heißt mittlerer quadratischer Fehler (mean squared error). Definition 1.13 Seien t 1 : R n R und t 2 : R n R Schätzer für θ Θ R. Dann heißt t 1 mindestens so gut wie t 2, wenn gilt MSE(t 1, ϑ) MSE(t 2, ϑ) ϑ Θ Satz 1.14 (Bias-Varianz-Zerlegung) 1.3 Exponentialfamilien MSE(t, ϑ) = V ϑ (t(x)) + (E ϑ (t(x)) ϑ }{{} bias b(t,ϑ) Definition 1.15 (Exponentialfamilie) Eine Verteilungsfamilie P X,Θ = {f(x; ϑ) ϑ Θ} (d.h., die Dichten existieren) heißt k-parametrige Exponentialfamilie wenn sich die Dichten f(x; ϑ) bzgl. (des oder eines geeigneten dominierenden Maßes) ν auf die folgende Gestalt bringen lassen: k f(x, ϑ) = c(ϑ) b(x) exp γ j (ϑ) t j (x) j=1 ) 2
4 1.3. EXPONENTIALFAMILIEN 3 mit und } t j : X R t = (t 1,..., t k ) b : X R + γ j : Θ R γ = (γ 1,..., γ k ) c : Θ R + meßbar γ = γ(ϑ) heißt natürlicher Parameter dieser Exponentialfamilie mit natürlichem Parameterraum γ(θ) = {γ(ϑ) ϑ Θ} R k. Satz 1.16 Folgende Verteilungsfamilien sind Exponentialfamilien: a) {Exp(λ) λ > 0} Exponentialverteilung b) {B(1, p) p [0, 1]} Bernoulliverteilung c) {B(n, p) p [0, 1]} Binomialverteilung d) {P (λ) λ > 0} Poissonverteilung e) { N(µ, σ 2 0) µ R } Normalverteilung f) { N(µ 0, σ 2 ) σ 2 > 0 } Normalverteilung Satz 1.17 Sei P X,ϑ = f( ; ϑ) ν Maß mit Dichte f bzgl. ν (in der Regel ν = λ oder ν = µ z ). Sei nun ν(b) := b(x) dν(x) (B X ) (also ν = b ν), dann gilt B wobei bzgl. mit γ 0 (ϑ) = log(c(ϑ)) P X,ϑ = f ν f(x, ϑ) = c(ϑ) exp(γ(ϑ) t(x)) f(x, ϑ) = exp(γ 0 (ϑ) + γ(ϑ) t(x)) Definition 1.18 Eine Exponentialfamilie heißt strikt k-parametrig, wenn ihre Dichten in der Form von Def oder Satz 1.17 darstellbar sind, und zusätzlich die Funktionen t 0 1, t 1,..., t k sowie γ 0 1, γ 1,..., γ k linear unabhängig sind (außer auf Nullmengen). Satz 1.19 Sei X 1 : Ω 1 R und P X1,Θ eine k-parametrige Exponentialfamilie mit Funktionen c, b, γ und t. Dann gilt: P X,Θ mit X = (X 1,..., X n ) u.i.v. ist ebenfalls k-parametrige Exponentialfamilie mit Funktionen c n (ϑ) = c(ϑ) n b n (x 1,..., x n ) = γ n (ϑ) = γ(ϑ) t n (x 1,..., x n ) = n b(x i ) i=1 n ( t 1 (x i ),..., t k (x i ) ) i=1
5 1.4. INVARIANTE VERTEILUNGSFAMILIEN 4 Definition 1.20 (natürliche Parametrisierung) Sei γ = γ(ϑ) und c(γ) derart, daß gilt: c(γ) = c(ϑ). Dann heißt die k-parametrige Exponentialfamilie in kanonischer Form dargestellt mit Dichte bezüglich ν. Satz 1.21 Der natürliche Parameterraum ist konvex. f(x; γ) = c(γ) exp(γ t(x)) Satz 1.22 Sei P X,Θ eine k-parametrige Exponentialfamilie in γ und T = t(x). Dann bildet P T,Θ ebenfalls eine k-parametrige Exponentialfamilie in γ und der Identität. Satz 1.23 Sei P X,Θ eine k-parametrige Exponentialfamilie in γ und T = t(x). Dann besitzt die Statistik T Momente beliebig hoher Ordnung, diese sind als Funktion von γ beliebig oft nach γ differenzierbar; die Ableitungen dürfen durch Differentiation unter dem betreffenden Integral gebildet werden. 1.4 Invariante Verteilungsfamilien Definition 1.24 (Invarianz) Sei X = (X 1,..., X n ) eine Stichprobe und P X,Θ = {P X,ϑ ϑ Θ} die Familie von Verteilungen von X. Sei G eine Klasse von Transformationen des Stichprobenraumes g : X X, wobei g bijektiv und g, g 1 meßbar sind. Dann ist die Verteilung der ZV g(x) P g(x),ϑ (B) = P X,ϑ (g 1 (B)) B σ(x ) und P g(x),θ die zugehörige Verteilungsannahme. Diese heißt invariant gegenüber der Klasse G von Transformationen, falls P g(x),θ = P X,Θ g G. 1.5 Suffizienz Definition 1.25 (Suffiziente Statistik) Sei X = (X 1,..., X n ) eine Stichprobe und P X,Θ = {P X,ϑ ϑ Θ} eine Verteilungsannahme sowie t : X R k eine Statistik. Dann heißt T = t X suffizient für P X,Θ (oder einfach für ϑ), wenn die bedingte Verteilung P X T =t(x) definiert durch P X T =t(x) (B) = P(X 1 (B) (t X) 1 (t(x))) P((t X) 1 (t(x))) unabhängig von ϑ ist (deren Existenz vorausgesetzt; dies ist mit X = R n aber der Fall).
6 1.6. DIE FISHER-INFORMATION 5 Definition 1.26 (bedingter Erwartungswert) Seien X und Y Zufallsvariablen mit Randverteilungen P X = f X ν X und P Y = f Y ν Y sowie bedingte Verteilungen P X Y =y = f X Y =y ν X. Dann ist der bedingte Erwartungswert von g(x) gegeben Y = y als Funktion von y definiert durch E(g(X) Y = y) = g(x) dp X Y =y (x) = g(x)f X Y =y (x y) dν X (x) Satz 1.27 (Satz vom iterierten Erwartungswert) E Y (E X Y (X Y )) = E X (X) Satz 1.28 (Faktorisierungssatz von Fisher und Neyman) Sei X = (X 1,..., X n ) eine Stichprobe und P X,Θ = {f(x; ϑ) ϑ Θ} eine Verteilungsannahme, so gilt für eine Statistik T = t X (t : R n R k ) T ist suffizient für ϑ g : Θ Rk R h : R n R f(x; ϑ) = g(ϑ, t(x)) h(x). Satz 1.29 Sei P X,Θ eine k-parametrige Exponentialfamilie mit Dichten } meßbar so daß f X (x; ϑ) = c(ϑ) b(x) exp(γ(ϑ) t(x)) t X ist suffizient für ϑ Θ. 1.6 Die Fisher-Information Definition 1.30 (Fisher Regularität) Sei P X,Θ = {f(x; ϑ) ϑ Θ R} mit den folgenden Regularitätseigenschaften R1) Die Dichten f(x; ϑ) existieren (d.h. P X,ϑ = f ν). R2) Θ ist offenes Intervall. R3) Der Träger C := {x f(x; ϑ) > 0} ist unabhängig von ϑ. R4) f(x; ϑ) 2 f(x; ϑ) 2 ϑ x C. dν(x) = dν(x) = Dann heißt die Verteilungsfamilie P X,Θ Fisher-regulär. Definition 1.31 (Scorefunktion) S(ϑ; x) = log f(x; ϑ) f(x; ϑ)dν(x) = 0 f(x; ϑ) dν(x) = 0 = f(x;ϑ) f(x; ϑ) heißt Scorefunktion der Beobachtung x und die Zufallsvariable S(ϑ; X) heißt Scorefunktion der Stichprobe X.
7 1.6. DIE FISHER-INFORMATION 6 Satz 1.32 Unter Fisher-Regularität gilt: E ϑ S(ϑ; X) = 0 V ϑ S(ϑ; X) = E ϑ S(ϑ; X) Definition 1.33 (Fisher-Information) Sei P X,Θ = {f(x; ϑ) ϑ Θ} Fisher-regulär und x C (dem Träger von f). Dann heißt I(ϑ; x) := S(ϑ; x) die Fisher-Information der Beobachtung x über den Parameter ϑ. Der Erwartungswert der Zufallsvariable I(ϑ; X) heißt Erwartete Fisher-Information I X (ϑ) der Stichprobe X: I X (ϑ) = E ϑ I(ϑ; X) = E ϑ S(ϑ; X) = V ϑs(ϑ; X) Satz 1.34 Sei X = (X 1,..., X n ) u.i.v. und I Xi (ϑ) die erwartete Fisher-Information von X i. Dann gilt: I X (ϑ) = n I Xi (ϑ) i=1 Satz 1.35 (Cramèr-Rao-Ungleichung) Sei P X,Θ Fisher regulär und t : X R ein erwartungstreuer Schätzer für ϑ Θ. Falls für die ZV T = t X gilt so folgt Cov(T, S(ϑ; X)) = 1 V ϑ (T ) 1 I X (ϑ).
8 Kapitel 2 Punktschätzungen 2.1 Maximum-Likelihood-Schätzung Definition 2.1 (Likelihood) Sei X = (X 1,..., X n ) mit Verteilungsannahme P X,Θ existieren), dann heißt die Funktion = {f(x; ϑ) ϑ Θ} (d.h., die Dichten L : Θ X R + ϑ L(ϑ; x) = f(x; ϑ) die Likelihoodfunktion für ein festes x X (= R n üblicherweise). Definition 2.2 (Maximum- Likelihood- Schätzer) Sei X = (X 1,..., X n ) und P X,Θ die zugehörige Verteilungsannahme (siehe Def. 2.1). Dann heißt der Schätzer t ML : R n R k x t ML (x) = ϑ ML := argmax L(ϑ; x) ϑ Θ der Maximum-Likelihood-Schätzer für ϑ Θ R k. Definition 2.3 (Log- Likelihood) heißt Log- Likelihoodfunktion. l(ϑ; x) = log L(ϑ; x) = log f(x; ϑ) Satz 2.4 (Konsistenz des ML-Schätzers) Sei X = (X 1,..., X n ) mit R1-R4 und C1,C2. Dann existiert eine Folge von Statistiken ϑ n = t ML (X), definiert über S( ϑ n ; x = (x 1,..., x n )) = 0 und I( ϑ n, (x,..., x n )) > 0 (also potentiell lokale Maxima der Likelihood) so daß gilt: ( ϑ n ist schwach konsistent). ϑ n P ϑ (X PX,ϑ ) Korollar 2.5 Es gelten die Annahmen von Satz 2.4; wenn S( ϑ n ; x) = 0 eindeutige Nullstelle ist, so gilt: i) ϑ n P ϑ 7
9 2.1. MAXIMUM-LIKELIHOOD-SCHÄTZUNG 8 i)) ϑ n f.s. ϑ ML (d.h. die Lösung der Scoregleichung führt zum Maximum-Likelihood-Schätzer mit Wahrscheinlichkeit 1 für n ). Satz 2.6 (Invarianz des ML-Schätzers) Seien die Bedingungen von Satz 2.4 erfüllt und g(ϑ) eine stetige parametrische Funktion. Dann gilt: ĝ(ϑ) n = g( ϑ n ) ist ein konsistenter Schätzer für g(ϑ). Satz 2.7 (Verteilung der Scorefunktion) Sei X = (X 1,..., X n ) u.i.v. und S(ϑ; X) die zugehörige Scorefunktion. Dann gilt: 1 n S(ϑ; X) D N(0, I X1 (ϑ)) Satz 2.8 (Quadratische Approximation der Log-Likelihood) l(ϑ; x) l( ϑ ML ; x) 1 2 I( ϑ ML ; x)(ϑ ϑ ML ) 2 Satz 2.9 (asymptotische Normalität des ML-Schätzers) Sei X = (X 1,..., X n ) u.i.v. mit Verteilungsannahme P X,Θ = {f(x; ϑ) ϑ Θ} (Fisher-regulär). Weiterhin gelte: C1, C2 sowie C3) x C (Träger von f) ist f(x; ϑ) mindestens dreimal stetig differenzierbar. C4) Für den wahren Parameterwert ϑ 0 existiert eine Funktion M ϑ0 (x) und eine Konstante c(ϑ 0 ) so daß 3 l(ϑ; x) 3 ϑ M ϑ 0 (x) x C, (ϑ ϑ 0 ) < x(ϑ 0 ) sowie E ϑ0 (M ϑ (X)) <. Dann gilt für jede konsistente Folge von ZV ϑ n = t Score (X) (siehe Satz 2.4) wobei 0 < I X1 (ϑ 0 ) < n( ϑn ϑ 0 ) D N(0, 1 I X1 (ϑ 0 ) ) Satz 2.10 Sei ϑ n Schätzer für ϑ und g eine diffbare parametrische Funktion. Dann gilt ( ( ) ( ) ) 2 D g(ϑ) n g( ϑ n ) g(ϑ) N 0, I 1 X 1 (ϑ) Satz 2.11 Unter den Annahmen von Satz 2.9 gilt ebenso n( ϑn ϑ) n( ϑn ϑ) n( ϑn ϑ) D N (0, I X1 ( ϑ n ) 1) D N ( 0, I(ϑ, X) 1) D N (0, I( ϑ n, X) 1)
10 2.2. M-SCHÄTZUNG M-Schätzung Definition 2.12 (M-Schätzer) Sei X = (X 1,..., X n ) u.i.v. mit X i F; X i R p. Sei ψ : R p R k R eine Funktion, so daß für den wahren Parameter ϑ gilt: E ψ(x 1, ϑ) = ψ(x, ϑ) df(x) = 0 Dann heißt ϑ mit M-Schätzer. n i=1 ( ψ X i, ϑ ) = 0 Satz 2.13 Sei X = (X 1,..., X n ); ψ(x, ϑ) monoton in ϑ und in ϑ stetig. Dann gilt für die Lösung der Schätzgleichung ϑ n : n ψ(x i, ϑ) =! 0 ϑ n P ϑ. Satz 2.14 (asymptotische Normalität des M-Schätzers) i=1 n ( ϑn ϑ 0 ) D N(0, V (ϑ0 )) Satz 2.15 (Sandwich Schätzer) V ( ϑ n ) = Â( ϑ n ) 1 B( ϑn )Â( ϑ n ) 1 P V (ϑ0 ) mit Â( ϑ n ) = 1 n B( ϑ n ) = 1 n n ψ(x i, ϑ n ) ϑ n n ψ(x i, ϑ n )ψ(x i, ϑ n ) i=1 i=1
11 Kapitel 3 Inferenzkonzepte 3.1 Parametertests Definition 3.1 (Testproblem) Sei ϑ R k Parameter und Θ R k der zugehörige Parameterraum. Dann heißt H 0 : ϑ Θ 0 vs. H 1 : ϑ Θ 1 mit Θ = Θ 0 Θ 1, Θ 0 Θ 1 = Θ 0, Θ 1 Statistisches Testproblem. H 0 heißt (Null)hypothese, H 1 Alternative. Definition 3.2 (einfache, einseitige und zweiseitige Hypothesen) H 0 : ϑ Θ 0 vs. H 1 : ϑ Θ 1 Θ 0 = 1 : einfache Hypothese, sonst: zusammengesetzte Hypothese Θ 1 = 1 : einfache Alternative, sonst: zusammengesetze Alternative Bei skalaren Parametern unterscheidet man noch einseitiges Testproblem zweiseitiges Testproblem Definition 3.3 (statistischer Test) H 0 : ϑ ϑ 0 vs. H 1 : ϑ > ϑ 0 rechtsseitige Alternative H 0 : ϑ ϑ 0 vs. H 1 : ϑ < ϑ 0 linksseitige Altervative H 0 : ϑ = ϑ 0 vs. H 1 : ϑ ϑ 0 φ : X {0, 1} heißt nichtrandomisierter Test. ( X Stichprobenraum) (meßbar) φ R : X [0, 1] (meßbar) heißt randomisierter Test. Definition 3.4 (kritischer Bereich) heißt kritischer Bereich oder Ablehnbereich. K heißt Annahmebereich. K := {x X φ(x) = 1} 10
12 3.1. PARAMETERTESTS 11 Definition 3.5 (Fehlerarten) ϑ Θ 0, φ(x) = 1... ϑ Θ 1, φ(x) = 0... Fehler erster Art Fehler zweiter Art Definition 3.6 (Gütefunktion) β φ (ϑ) := P ϑ (φ(x) = 1) = E ϑ φ(x) = φ(x) dp X,ϑ (x) heißt Gütefunktion des Tests φ. Diese Funktion beschreibt die Wahrscheinlichkeit, die Nullhypothese H 0 : ϑ Θ 0 abzulehnen für eine Stichprobe X = (X 1,... X n ) aus der Verteilung P X,ϑ. Definition 3.7 (Niveau-α-Test) Ein Test φ mit der Eigenschaft β φ (ϑ) α ϑ Θ 0 heißt Niveau-α-Test. D.h., die Wahrscheinlichkeit für den Fehler erster Art ist maximal α (0, 1). Definition 3.8 (Macht, Power) heißt Macht oder Powerfunktion des Tests. β φ (ϑ) ϑ Θ 1 Definition 3.9 (Bester Test) Seien φ und φ Niveau-α-Test für das TP H 0 vs. H 1. Dann heißt φ mindestens so gut wie φ wenn gilt: β φ (ϑ) β φ (ϑ) ϑ Θ 1. Gilt diese Beziehung für alle beliebigen Niveau-α-Tests φ, so heißt φ gleichmäßig bester Test (uniformly most powerful, UMP). Definition 3.10 (Unverfälschter Test) Ein Niveau-α-Test φ heißt unverfälscht, wenn gilt β φ (ϑ 0 ) β φ (ϑ 1 ) ϑ 0 Θ 0 und ϑ 1 Θ 1 Ein Niveau-α-Test φ heißt gleichmäßig bester unverfälschter (auch: unverzerrter) Test, wenn er gleichmäßig bester Test unter allen unverfälschten Niveau-α-Tests ist. Definition 3.11 (Teststatistik) Für Tests der Form φ(x) = { 1 T (X) > k 0 T (X) k heißt die Statistik T : X R Teststatistik und deren Verteilung unter den Bedingungen der Nullhypothese P Θ0 (T (X) k) Prüfverteilung. Definition 3.12 (Konfidenzintervall) Die Funktion C : X R 2, x C(x) = [C(x), C(x)] heißt Konfidenzintervall für ϑ zum Niveau 1 α falls gilt P ϑ (ϑ C(X)) = P ϑ (C(X) ϑ C(X)) 1 α ϑ Θ.
13 3.2. WALD-, LIKELIHOOD-QUOTIENTEN- UND SCORE-TEST 12 Definition 3.13 (Gütekriterien für Konfidenzintervalle) Ein Konfidenzintervall C(X) heißt unverzerrt (unbiased), wenn gilt P ϑ (ϑ C(X)) P ϑ (ϑ C(X)) ϑ ϑ Ein Konfidenzintervall C(X) ist besser als ein Konfidenzintervall C(X) (beide zum Niveau 1 α) wenn E ϑ (C(X) C(X)) < E ϑ ( C(X) C(X)) d.h., wenn die erwartete Länge kleiner ist. 3.2 Wald-, Likelihood-Quotienten- und Score-Test Satz 3.14 (Wald-Test) Sei X = (X 1,..., X n ) u.i.v. und ϑ n ein Schätzer für ϑ mit der Eigenschaft n ( ϑn ϑ) D N ( 0, I 1 X 1 (ϑ) ) Dann ist der Test (Wald-Teststatistik) ein approximativer Niveau-α-Test für das Test- mit W (X) = ϑ n b q n ϑ 0 I 1 X (ϑ 1 0) problem φ W (X) = { 1 W (X) u 1 α/2 0 sonst H 0 : ϑ = ϑ 0 vs. H 1 : ϑ ϑ 0 Definition 3.15 (Likelihood-Quotienten-Test) Ein Test basierend auf der Teststatistik heißt Likelihood-Quotienten-Test für Satz 3.16 (Verteilung von LQ) LQ(X) = L( ϑ n ; X) max ϑ Θ 0 L(ϑ; X) H 0 ; ϑ Θ 0 vs. H 1 : ϑ Θ 1 Definition 3.17 (Score-Test, LM-Test) Ein Test basierend auf der Teststatistik 2 log (LQ(X)) D χ 2 1 LM(X) = S(ϑ 0, X) n IX1 (ϑ 0 ) heißt Score-Test oder Lagrange-Multiplier-Test für H 0 : ϑ = ϑ 0 vs. H 1 : ϑ ϑ 0. Satz 3.18 (Verteilung von LM) LM(X) D N(0, 1) Satz 3.19 (asymptotische Äquivalenz von W und LM) LM(X) W (X) P 0
14 3.3. BAYES-INFERENZ Bayes-Inferenz Definition 3.20 (Priori-Verteilung) Sei ϑ P ϑ mit Dichte f ϑ (ϑ) eine ZV. P ϑ heißt Priori-Verteilung. Definition 3.21 (Posteriori-Verteilung) Sei X P X ϑ eine ZV mit auf ϑ = ϑ bedingter Verteilung und X = x eine Realisation von X. Dann heißt die Dichte der bedingten Verteilung von ϑ gegeben X = x f ϑ X=x (ϑ X = x) = f X ϑ (x ϑ) f ϑ (ϑ) fx ϑ (x ϑ)f ϑ (ϑ) dν(ϑ) Posteriori-Dichte und die bedingte Verteilung ϑ X = x Posteriori-Verteilung. Definition 3.22 (Posteriori-Punktschätzer) Posteriori-Erwartungswert: E(ϑ X = x) = ϑ f ϑ X (ϑ X = x) dν(ϑ) Posteriori-Modus: Posteriori-Median Mod(ϑ X = x) = argmax f ϑ X (ϑ X = x) ϑ Median(ϑ X = x) Definition 3.23 (Kredibilitätsintervall) Ein Intervall [b, b] mit f ϑ x (ϑ x) dν(ϑ) = 1 α [b,b] heißt (1 α)-kredibilitätsintervall. Gilt weiterhin f ϑ x (ϑ X = x) f ϑ x (ϑ X = x) ϑ [b, b] und ϑ / [b, b] so heißt [b, b] highest posterior density interval HPD- Intervall. Satz 3.24 f ϑ (ϑ) = const Mod(ϑ X = x) = ϑ ML Satz 3.25 Sei ϑ Θ, Θ höchstens abzählbar, also Θ = {ϑ 1, ϑ 2,...}. Sei ϑ t der wahre Parameter (also P Xn,ϑ t, wobei X n die n-dimensionale Stichprobe ist). Dann gilt X n lim f(ϑ t X n = x) = 1 n lim f(ϑ i X n = x) = 0 n und i t
15 Literaturverzeichnis William F. Trench. Introduction to Real Analysis. William F. Trench, Free Edition 1.03 edition, ISBN URL index.shtml. 14
Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011
Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben
MehrStatistische Entscheidungsmodelle
2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Statistische Entscheidungsmodelle Von o. Prof. Dipl.-Vw. Dr. Gerhard
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
Mehr2.2 Klassische Testtheorie
2.2 Klassische Testtheorie iel: Finde Test zum Niveau mit optimaler Güte (Power) für 2 1. Dabei ist n finit. 2.2.1 Problemstellung Sei der Parameterraum; die Hypothesen seien H 0 : 2 0 vs. H 1 : 2 1, mit
MehrKonfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt
Konfidenzintervalle Annahme: X 1,..., X n iid F θ. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt P θ (U θ O) = 1 α, α (0, 1). Das Intervall [U, O] ist ein Konfidenzintervall
MehrSignifikanztests Optimalitätstheorie
Kapitel Signifikanztests Optimalitätstheorie Randomisierte Tests In einem statistischen Modell M, A, P ϑ sei ein Testproblem gegeben: H : ϑ Θ gegen H : ϑ Θ ; wobei also durch Θ Θ Θ eine Zerlegung des Parameterbereichs
Mehr11 Testen von Hypothesen
Testen von Hypothesen Ausgehend von einem statistischen Modell X, B,P ϑ,x, ϑ Θ, interessiert manchmal nicht der genaue Wert des unbekannten Parameters ϑ, sondern lediglich, ob ϑ in einer echten Teilmenge
Mehr5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung
5 Konfidenzschätzung 5. Einige Grundbegriffe zur Konfidenzschätzung Diesem Kapitel liegt das parametrische Modell {X, B X, P } mit P {P Θ} zugrunde. {Θ, B Θ } sei ein Meßraum über Θ und µ ein σ-finites
Mehr2.2 Klassische Testtheorie
192 2.2.1 Problemstellung Ziel: Finde Test zum Niveau mit optimaler Güte (Power) für 2 1.Dabeiistn finit. Problemstellung: I Sei der Parameterraum; die Hypothesen seien H 0 : 2 0 vs. H 1 : 2 1, mit 0 \
MehrParameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),
Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
Mehr1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe
1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe Nachdem eine Stichprobe X 1,..., X n gezogen wurde berechnen wir gewöhnlich irgendwelchen Wert damit. Sei dies T = T (X 1,..., X n, wobei T auch
MehrDie Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare
17.1.3 Die Momentenmethode Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare Lösungen. Sei ϑ = (ϑ 1,...,ϑ s ) der unbekannte, s-dimensionale
MehrStatistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
Mehr6. Statistische Hypothesentests
6. Statistische Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von
MehrEinführung in die statistische Testtheorie
1 Seminar Simulation und Bildanalyse mit Java von Benjamin Burr und Philipp Orth 2 Inhalt 1. Ein erstes Beispiel 2. 3. Die Gütefunktion 4. Gleichmäßig beste Tests (UMP-Tests) 1 Einführendes Beispiel 3
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
MehrStochastik Praktikum Testtheorie
Stochastik Praktikum Testtheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 11.10.2010 Definition X: Zufallsgröße mit Werten in Ω, (Ω, F, (P ϑ ) ϑ Θ ) statistisches Modell Problem: Teste H 0 : ϑ
MehrEinführung in die statistische Testtheorie II
1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrStochastik Praktikum Parametrische Schätztheorie
Stochastik Praktikum Parametrische Schätztheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 05.10.2010 Prolog Momentenmethode X : Ω 1 Ω Zufallsgröße, die Experiment beschreibt. Ein statistisches
MehrA Kurzskript: Stochastische Majorisierung und Testtheorie
A Kurzskript: Stochastische Majorisierung und Testtheorie A.1 Stochastische Majorisierung Denition A.1 (stochastisch gröÿer) Seien Q und P zwei W'Maÿe auf (R, B). Dann heiÿt Q stochastisch gröÿer als P
Mehr3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)
3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f
MehrWir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, (
Kapitel 4 Konfidenzbereiche Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden Teil-Parameter
Mehr6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
MehrStochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie
Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Sommersemester 2018 Kapitel 8: Elemente der mathematischen Statistik Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Mehr7. Hypothesentests. Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang. X habe die unbekannte VF F X (x)
7. Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von X 350 Bisher:
MehrSchätzen und Testen I in 90 Minuten. 8. Februar 2010
Schätzen und Testen I in 90 Minuten 8. Februar 2010 1. Einführung in statistische Modelle und Inferenzkonzepte 2. Klassische Schätz- und Testtheorie 3. Likelihood-Inferenz 4. Bayes-Inferenz 5. Einführung
MehrMathematische Statistik Teil III Testen
Mathematische Statistik Teil III Testen R. Kovacevic 1 1 Institut für Statistik und Decision Support Systeme Universität Wien Wintersemester 2009 Dieses Werk ist urheberrechtlich geschützt. Jede Vervielfältigung
MehrPunktschätzer Optimalitätskonzepte
Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte
Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +
Mehr5. Elemente Statistischer Inferenz
5. Elemente Statistischer Inferenz Ziel der Statistik ist es, unter bestimmten Annahmen Aussagen über unbekannte Parameter θ Θ zu machen, nachdem Beobachtungen X gemacht wurden. Dabei unterscheidet man
Mehr3.3 Methoden zur Evaluierung von Schätzern
3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood
MehrInduktive Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung
Induktive Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrEinführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen
Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben
MehrFormelsammlung zur Vorlesung Schätzen und Testen I
Schätzen und Testen I WS 2008/09 Ludwig Fahrmeir, Christian Heumann, Christiane Dargatz Formelsammlung zur Vorlesung Schätzen und Testen I 1 Einführung in statistische Modelle und Inferenzkonzepte 1.1
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
Mehr7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.
7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe
MehrLösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 5: Aufgaben zu den Kapiteln 9 bis 12
Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 0) Teil 5: Aufgaben zu den Kapiteln 9 bis Aufgaben zu Kapitel 9 Zu Abschnitt 9. Ü9.. Es sei ψ : R R stetig differenzierbar.
MehrAllgemeines zu Tests. Statistische Hypothesentests
Statistische Hypothesentests Allgemeines zu Tests Allgemeines Tests in normalverteilten Grundgesamtheiten Asymptotische Tests Statistischer Test: Verfahren Entscheidungsregel), mit dem auf Basis einer
MehrStatistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg
Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Dr. Stan Lai und Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer
MehrKapitel VI - Maximum-Likelihood-Schätzfunktionen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VI - Maximum-Likelihood-Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)
MehrPraktikum zur Statistik
mit R Institut für Mathematische Statistik Universität Münster 7. Oktober 2010 Gliederung 1 Testtheorie: Ziel und Überblick Testtheorie Andere Entscheidungsprobleme 2 3 4 p-wert, Binomialtest Mittelwertvergleiche:
MehrDWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
MehrFrequentisten und Bayesianer. Volker Tresp
Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben
MehrKlausur Stochastik und Statistik 31. Juli 2012
Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf
MehrKapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren
Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander
MehrSuffizienz und Vollständigkeit
KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt
MehrModellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch
Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,
MehrKapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Induktive Statistik Prof. Dr. W.-D.
MehrKapitel XI - Operationscharakteristik und Gütefunktion
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XI - Operationscharakteristik und Gütefunktion Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo
MehrWahrscheinlichkeitsrechnung und Statistik
10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten
Mehr5 Allgemeine Verfahren zum Testen von Hypothesen
5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).
Mehr4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion
4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
MehrKonfidenzbereiche. Kapitel Grundlagen. Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus,
Kapitel 4 Konfidenzbereiche 4.1 Grundlagen Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden
Mehr1. Übungsblatt zur Statistik III - Schätzen und Testen
1. Übungsblatt zur Aufgabe 1 (4 Punkte): Ein Würfel mit unbekannter Anzahl k IN von Seiten wird fünf mal geworfen mit folgendem Ergebnis: 7, 2, 11, 4, 10. Geben Sie zwei verschiedene sinnvolle Punktschätzfunktionen
MehrStatistik. Andrej Depperschmidt. Sommersemester 2016
Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i
MehrEinführung in die Induktive Statistik: Testen von Hypothesen
Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte
MehrMathematische Statistik Gliederung zur Vorlesung im Wintersemester 2006/07
Mathematische Statistik Gliederung zur Vorlesung im Wintersemester 26/7 Markus Reiß Universität Heidelberg reiss@statlab.uni-heidelberg.de VORLÄUFIGE FASSUNG: 9. Februar 27 Inhaltsverzeichnis 1 Einführende
MehrWirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Wintersemester 2012/13. Namensschild. Dr.
Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Schließende Statistik Wintersemester 2012/13 Namensschild Dr. Martin Becker Hinweise für die Klausurteilnehmer ˆ Kleben Sie bitte sofort Ihr Namensschild
Mehr2. Prinzipien der Datenreduktion
2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrKapitel 3 Schließende Statistik
Bemerkung 3.34: Die hier betrachteten Konfidenzintervalle für unbekannte Erwartungswerte sind umso schmaler, je größer der Stichprobenumfang n ist, je kleiner die (geschätzte) Standardabweichung σ (bzw.
MehrStochastik I - Formelsammlung
Stochastik I - Formelsammlung Ereignis Ergebnisraum: Ω von Julian Merkert, Wintersemester 2005/06, Prof. Bäuerle Ereignisse und Wahrscheinlichkeiten Ereignis: A Ω Elementarereignis: {ω}, ω Ω A B := AB
Mehr1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...
Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............
MehrErwartungstreue Schätzer
KAPITEL 4 Erwartungstreue Schätzer Ein statistisches Modell ist ein Tripel (X, A, (P θ ) θ Θ ), wobei X (genannt der Stichprobenraum) die Menge aller möglichen Stichproben, A eine σ Algebra auf X, und
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
Mehr1. Übungsblatt. n i=1 X i und von ˆσ 2 = 1 n 1
1. Übungsblatt 1. Es sei (X, Y ) ein zweidimensionaler Zufallsvektor mit Y L 2. Folgere aus den Eigenschaften der bedingten Erwartung, dass der Ausdruck E[(Y g(x)) 2 ] für messbare Funktionen g : R R mit
MehrStatistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und
Übersicht über die Vorlesung Teil : Deskriptive fru@hephy.oeaw.ac.at VO 42.090 http://tinyurl.com/tu42090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4:
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
Mehr1.3 Wiederholung der Konvergenzkonzepte
1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche
Mehr5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrWahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen
Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei
MehrMusterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60
WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach
MehrMan kann also nicht erwarten, dass man immer den richtigen Wert trifft.
2.2.2 Gütekriterien Beurteile die Schätzfunktionen, also das Verfahren an sich, nicht den einzelnen Schätzwert. Besonders bei komplexeren Schätzproblemen sind klar festgelegte Güteeigenschaften wichtig.
Mehrdie wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen
Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung
MehrKapitel 4.3 Testen von Verteilungshypothesen. Stochastik SS
Kapitel 4.3 Testen von Verteilungshypothesen Stochastik SS 2017 1 Beispiele 1) Landwirt wird Verfahren zur Änderung des Geschlechtsverhältnisses von Nutztieren angeboten, so dass z.b. mehr Kuhkälber als
MehrSchätzer und Konfidenzintervalle
Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl
MehrLösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
Mehr1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
MehrStatistische Tests Übersicht
Statistische Tests Übersicht Diskrete Stetige 1. Einführung und Übersicht 2. Das Einstichprobenproblem 3. Vergleich zweier unabhängiger Gruppen (unverbundene Stichproben) 4. Vergleich zweier abhängiger
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrKapitel XIV - Anpassungstests
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIV - Anpassungstests Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh 2. Grundannahme:
MehrKapitel V - Erwartungstreue Schätzfunktionen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel V - Erwartungstreue Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
Mehr5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
Mehr3.2 Maximum-Likelihood-Schätzung
291 Die Maximum-Likelihood-Schätzung ist die populärste Methode zur Konstruktion von Punktschätzern bei rein parametrischen Problemstellungen. 292 3.2.1 Schätzkonzept Maximum-Likelihood-Prinzip: Finde
Mehr