Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301

Größe: px
Ab Seite anzeigen:

Download "Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301"

Transkript

1 Bayes Inferenz Schätzen und Testen von Hypothesen Helga Wagner Bayes Statistik WS 2010/11 301

2 Bayes Punktschätzung Entscheidungstheoretischer Ansatz: Wahl des Punktschätzers ist eine Aktion, die möglicherweise mit einem Verlust verbunden ist Eine Verlustfunktion l(a, ϑ) quantifiziert den Verlust, der entsteht, wenn ϑ durch a geschätzt wird. Üblicherweise ist der Verlust 0, wenn a = ϑ, d.h. und l(a,ϑ) ist monoton wachsend in ϑ. l(a,a) = 0. Für gegebene Daten y sind ϑ und damit auch l(a, ϑ) Zufallsvariable. Helga Wagner Bayes Statistik WS 2010/11 302

3 Bayes Punktschätzung Der erwartete Verlust bezüglich der Posteriori-Verteilung ist E(l(a, ϑ) y) = l(a, ϑ)p(ϑ y) dϑ. Eine Aktion a, die den posteriori erwarteten Verlust minimiert, heisst Bayes- Aktion. Ein Bayes-Schätzer ˆϑ(y) von ϑ minimiert den erwarteten Verlust E(l(ˆϑ(y),ϑ) y). Helga Wagner Bayes Statistik WS 2010/11 303

4 Exkurs: Grundbegriffe der statistischen Entscheidungstheorie Daten y: statistisches Modell mit Stichprobenverteilung p(y ϑ) und ϑ Θ Menge von Aktionen A Verlustfunktion l(a, ϑ) l : A Θ R (a, ϑ) l(a, ϑ) Entscheidungsregel d(y), die den Stichprobenraum Y auf die Menge der Aktionen A abbildet d : Y A y d(y) Helga Wagner Bayes Statistik WS 2010/11 304

5 Exkurs: Grundbegriffe der statistischen Entscheidungstheorie Die Eigenschaften der Entscheidungsregel werden charakterisiert durch die Risikofunktion R(d,ϑ) = l(d(y), ϑ)p(y ϑ)dy Da die Risikofunktion als Erwartungswert über den Stichprobenraum definiert ist, wird sie auch frequentistisches Risiko genannt. Mit einer apriori-verteilung π(ϑ) auf dem Parameterraum Θ ist das Bayes-Risiko r(d,π) = R(d, ϑ)π(ϑ)dϑ Eine Entscheidungsregel, die das Bayes-Risiko minimiert, heisst Bayes-Regel, d.h. d π = arg inf d D r(d,π) Die (frequentistische) Bayes-Regel bedingt auf Daten y ist die Bayes-Aktion. Helga Wagner Bayes Statistik WS 2010/11 305

6 Exkurs: Grundbegriffe der statistischen Entscheidungstheorie Einen Schätzer, der das Bayes-Risiko r(d, π) minimiert, erhält man wegen r(d,π) = Y Θ l(d(y), ϑ y)π(ϑ y)dϑ p(y)dy = Y r(d, π y)p(y)dy, wenn für jedes y Y, d(y) so gewählt wird, dass r(d,π y) minimiert wird. Reguläre Bayes-Schätzer sind zulässig, d.h. es gibt keinen weiteren Schätzer d (y) mit folgenden Eigenschaften: R(d,ϑ) R(d,ϑ) für alle ϑ Θ und es existiert mindestens ein ϑ Θ mit R(d,ϑ) < R(d,ϑ). Helga Wagner Bayes Statistik WS 2010/11 306

7 Quadratische Verlustfunktion Für die quadratische Verlustfunktion l(ˆϑ(y),ϑ) = (ˆϑ(y) ϑ) (ˆϑ(y) ϑ), ist der optimale Schätzer ˆϑ(y) ist der Posteriori Erwartungswert µ = E(ϑ y). Helga Wagner Bayes Statistik WS 2010/11 307

8 Quadratische Verlustfunktion Beweis: Es ist l(a,ϑ) = (a µ ϑ+µ) (a µ ϑ+µ) = = (a µ) (a µ) 2(ϑ µ) (a µ)+(ϑ µ) (ϑ µ), Der Erwartungswert bezüglich der Posteriori-Dichte ist E(l(a,ϑ) y) = (a µ) (a µ)+e((ϑ µ) (ϑ µ) y). Das Minimum wird an der Stelle a = µ angenommen und das minimale Risiko ist gleich der Spur der Varianz-Kovarianz-Matrix tr(var(ϑ y)). Helga Wagner Bayes Statistik WS 2010/11 308

9 Lineare Verlustfunktionen Für die asymmetrische Verlustfunktion des Einparameter-Problems l(ˆϑ(y),ϑ) = { c l (ϑ ˆϑ(y)), ˆϑ(y) < ϑ, c r (ˆϑ(y) ϑ), ˆϑ(y) > ϑ, mit postiven Konstanten c l,c r ist der optimale Schätzer das c l /(c r + c l )- Perzentil der Posteriori-Verteilung. Spezialfall c l = c r = 1: Die Verlustfunktion ist die absolute Abweichung l(ˆϑ(y),ϑ) = ˆϑ(y) ϑ und der optimale Punktschätzer ist der Posteriori-Median. Helga Wagner Bayes Statistik WS 2010/11 309

10 Lineare Verlustfunktionen Beweis: Bezeichne P(ϑ y) die Verteilungsfunktion der Posteriori-Verteilung, dann ist E(l(a, ϑ) y) = a c r (a ϑ)p(ϑ y)dϑ + a c l (ϑ a)p(ϑ y)dϑ = Wegen d dx b(x) a(x) g(x,t)dt = b(x) a(x) dg(x, t) dx dt + g(x,b(x)) db(x) dx g(x,a(x))da(x) dx ergibt Ableiten nach a : d E(l(a, ϑ) y) da a = c r p(ϑ y)dϑ + 0 c l p(ϑ y)dϑ 0 = = c r P(a y) c l (1 P(a y)) = 0. a Helga Wagner Bayes Statistik WS 2010/11 310

11 Die Null-Eins-Verlustfunktion Der optimale Punktschätzer bezüglich der Null-Eins-Verlustfunktion l(ˆϑ(y),ϑ) = { 0, wenn ˆϑ(y) ϑ ε, 1, wenn ˆϑ(y) ϑ > ε ist für eine unimodale Posteriori-Verteilung im Grenzfall ε 0 der Modus ϑ der Posteriori-Verteilung ( maximum aposteriori estimate = MAP). Beweis: a ε a+ε E(l(a, ϑ) y) = p(ϑ y)dϑ + a+ε p(ϑ y)dϑ = 1 a ε p(ϑ y)dϑ Der erwartete Verlust ist minimal, wenn der Wert des Integrals maximal wird. Dies ist für eine unimodale Posteriori-Verteilung und kleines ε eine ε-umgebung um den Modus der Verteilung. Helga Wagner Bayes Statistik WS 2010/11 311

12 Die Null-Eins-Verlustfunktion Unter der flachen Priori-Verteilung ist der MAP gleich dem ML-Schätzer. Wegen logp(ϑ y) = c+logp(y ϑ)+logp(ϑ) maximiert der MAP die pönalisierte Likelihood mit Penalty log p(ϑ). Helga Wagner Bayes Statistik WS 2010/11 312

13 Eigenschaften von Bayes Punktschätzern Bayes Schätzer unter quadratischer Verlustfunktion sind i.a. nicht unverzerrt. Beispiel: Mittelwert der Normalverteilung m n = (1 ω)m 0 +ωȳ Aber: Erwartungstreue bedeutet eine Mittelung über die Stichprobenverteilung Posteriori-Modus und Posteriori-Erwartungswert sind nicht invariant bezüglich streng monotoner Transformation. Helga Wagner Bayes Statistik WS 2010/11 313

14 HPD-Bereiche 100%(1 α)- HPD-Bereiche haben minimale Länge unter allen 100%(1 α)-kredibilitätsbereiche müssen nicht zusammenhängend, d.h. ein Intervall, sein sind nicht invariant bei streng monotonen Transformationen Gleichendige 100%(1 α)-kredibilitätsintervalle sind invariant bezüglich streng monotoner Transformation. Helga Wagner Bayes Statistik WS 2010/11 314

15 Testen von Hypothesen: Entscheidungstheoretischer Ansatz Daten y: statistisches Modell mit Stichprobenverteilung p(y ϑ) und ϑ Θ Hypothesen: H 0 : ϑ Θ 0 und H 1 : ϑ Θ 1 Θ 0 und Θ 1 = Θ c 0 bilden eine Zerlegung des Parameterraumes Θ Inferenz über δ = 1 Θ1 (ϑ) Aktionen A = {0,1} Verlustfunktion: Null-Eins-Verlust l(δ,a) = { 0 a = δ 1 a δ Helga Wagner Bayes Statistik WS 2010/11 315

16 Testen von Hypothesen: Entscheidungstheoretischer Ansatz Posteriori erwarteter Verlust E(l(a,δ)) = a p(ϑ y)dϑ+(1 a) p(ϑ y)dϑ = Θ 0 Θ 1 = ap(ϑ Θ 0 y)+(1 a)p(ϑ Θ 1 y) Minimieren des posteriori erwarteten Verlustes: a = { 1 wenn P(ϑ Θ 1 y) > sonst Es wird also die Hypothese mit der größeren Wahrscheinlichkeit gewählt. Helga Wagner Bayes Statistik WS 2010/11 316

17 Testen von Hypothesen: Entscheidungstheoretischer Ansatz Bei unterschiedlichem Verlust der möglichen Fehler, d.h. der Verlustfunktion 0 a = δ l(a,δ) = c 0 a = 1,δ = 0 c 1 a = 0,δ = 1 ist der posteriori erwartete Verlust E(l(a,δ)) = c 0 ap(ϑ Θ 0 y)+(1 a)c 1 P(ϑ Θ 1 y) Er wird minimiert durch a = { 1 wenn P(ϑ Θ1 y) > c 0 c 0 +c 1 = 1 1+c 1 /c 0 0 sonst Helga Wagner Bayes Statistik WS 2010/11 317

18 Testen von exakten Hypothesen Testen von exakten Hypothesen, z.b.: H 0 : ϑ = ϑ 0 und H 1 : ϑ ϑ 0 ist mit stetigen Priori-Verteilungen nicht möglich = Priori-Verteilung als Mischung eines Dirac Maßes δ ϑ0 (ϑ) auf ϑ 0,und einer stetigen Komponente ξ(ϑ) p(ϑ) = πδ ϑ0 (ϑ)+(1 π)ξ(ϑ) Die Posteriori-Wahrscheinlichkeit für ϑ = ϑ 0 ist P(ϑ = ϑ 0 y) = wobei m 1 (y) = p(y ϑ)ξ(ϑ)dϑ ist. p(y ϑ 0 )π ( p(y ϑ 0 )π +(1 π)m 1 (y) = 1+ 1 π m 1 (y) ) 1 π p(y ϑ 0 ) Helga Wagner Bayes Statistik WS 2010/11 318

19 Testen von exakten Hypothesen Beispiel: Test von H 0 : µ = 0 für N ( µ,σ 2) Priori-Verteilung: p(µ) = πδ 0 +(1 π)ξ(µ), ξ(µ) = f(µ N ( 0,τ 2) ) Es gilt: m 1 (y) = p(y µ)p(µ) p(µ y) = (2πσ 2 ) n/2 ( M n /τ 2 exp 1 ) 2 ( yi/σ 2 2 m 2 n/m n ) mit M n = (n/σ 2 +1/τ 2 ) 1 und m n = M n nȳ/σ 2 Helga Wagner Bayes Statistik WS 2010/11 319

20 Testen von exakten Hypothesen und daher m 1 (y) p(y µ = 0) = ( 1 M n /τ 2 exp 2 (m2 n/m n )) = σ 2 ( σ 2 +nτ 2 exp ȳ 2 n 2 τ 2 ) 2σ 2 (σ 2 +nτ 2 ) Für n = 1 gilt P(µ = 0 y) = ( 1+ 1 π σ 2 ( π σ 2 +τ 2 exp y 2 τ 2 2σ 2 (σ 2 +τ 2 ) )) 1 Helga Wagner Bayes Statistik WS 2010/11 320

21 Testen von exakten Hypothesen Tabelle 16: Einfluß der Priori-Varianz τ 2 : P(µ = 0 y,τ 2 ) für verschiedene Werte von y und τ 2 (π = 0.5, σ 2 = 1) τ 2 0 z 0.75 =0.67 z 0.9 =1.28 z = 1.96 z = y Lindley-Paradoxon: lim P(µ = 0 y,τ 2 ) 1 τ 2 Helga Wagner Bayes Statistik WS 2010/11 321

22 Bayes Inferenz Asymptotik Helga Wagner Bayes Statistik WS 2010/11 322

23 Diskrete Asymptotik Sei ϑ Θ = {ϑ 1,ϑ 2,...,} mit Priori-Verteilung p(ϑ i ) = P(ϑ = ϑ i ) =: p i ϑ t der wahre Parameter. Die Kullbeck-Leibler-Diskrepanz zwischen p(y ϑ t ) und p(y ϑ i ) ist für alle i t. p(y ϑ t )log p(y ϑ t) p(y ϑ i ) dy = E(logp(y ϑ t) p(y ϑ i ) ) > 0 Wenn y = (y 1,...,y n ) eine Stichprobe aus p(y ϑ t ) ist, gilt lim p(ϑ t y) = 1 n lim p(ϑ i y) = 0 für alle i t n Helga Wagner Bayes Statistik WS 2010/11 323

24 Diskrete Asymptotik Beweis: für festes n ist p(ϑ i y) = p(y ϑ i)p i p(y) = n p i j=1 i p n i j=1 = exp(log(p i) + S i ) i exp(log(p i) + S i ) p(y j ϑ i ) p(y j ϑ t ) p(y j ϑ i ) p(y j ϑ t ) = mit S i = k j=1 log p(y j ϑ i ) p(y j ϑ t ). Aus dem Gesetz der grossen Zahlen folgt lim n 1 n S i = p(y ϑ t )log p(y ϑ { t) = 0 für i = t p(y ϑ i ) dy < 0 für i t Helga Wagner Bayes Statistik WS 2010/11 324

25 Diskrete Asymptotik und daher Damit gilt aber lim n S i lim p(ϑ t y) = n { = 0 für j = t für i t. { 1 für i = t 0 für i t Ist ϑ t / Θ dann konvergiert die Posteriori-Verteilung zu jenem ϑ i Θ, das die kleinste Kullback-Leibler-Distanz zum wahren Modell hat. Helga Wagner Bayes Statistik WS 2010/11 325

26 Stetige Asymptotik θ true =0.02 θ true = N=25 N= N=100 N= N=400 N= Abbildung 35: Posteriori-Dichte eines Anteils ϑ bei verschiedenen Stichprobenumfängen unter der flachen Priori-Verteilung (volle Linie) und der B(2, 4)-Priori (strichliert) für zwei verschiedene Werte von ϑ Helga Wagner Bayes Statistik WS 2010/11 326

27 Stetige Asymptotik θ true =0.02 θ true = N= N= Abbildung 36: Posteriori-Dichte eines Anteils ϑ für eine Stichprobe der Größe n = 10 6 unter der flachen Priori-Verteilung für zwei verschiedene Werte von ϑ Helga Wagner Bayes Statistik WS 2010/11 327

28 Stetige Asymptotik Für eine i.i.d. Stichprobe y = (y 1,...,y n ) mit Stichprobenverteilung p(y ϑ) ist die logarithmierte Posteriori-Verteilung logp(ϑ y) = logp(ϑ)+logp(y ϑ) Taylor-Reihenentwicklung um Priori-Modus m 0 bzw. ML-Schätzer ˆϑ: logp(ϑ) logp(m 0 ) 1 2 (ϑ m 0) H 0 (ϑ m 0 ) logp(y ϑ) logp(y ˆϑ) 1 2 (ϑ ˆϑ) H(ˆϑ)(ϑ ˆϑ) wobei H 0 und H(ˆϑ) die jeweilige Hesse-Matrix am Modus bzw. an der Stelle des ML-Schätzers ist: H(ϑ) = 1 ( 2 logp(y ˆϑ) ) 2 ϑ i ϑ j Helga Wagner Bayes Statistik WS 2010/11 328

29 Stetige Asymptotik Bem: H(ˆϑ) ist die beobachtete Fisher-Information Unter Regularitätsbedingungen ist dann asymptotisch p(ϑ y) exp ( 1 2 (ϑ m n) H n (ϑ m n ) ) wobei H n = H 0 +H(ˆϑ) m n = H 1 n (H 0 m 0 +H(ˆϑ)ˆϑ) Für großes n ist also die Posteriori-Verteilung annähernd eine Normalverteilung: ϑ y N ( ) m n,h 1 n Helga Wagner Bayes Statistik WS 2010/11 329

30 Stetige Asymptotik Für großes n ist die (feste) Priori-Präzision klein im Vergleich zur beobachteten Fisher-Information, daher gilt ϑ y N (ˆϑ,H(ˆϑ) 1 ) Der ML-Schätzer kann also als asymptotischer Bayes-Schätzer interpretiert werden! Helga Wagner Bayes Statistik WS 2010/11 330

31 Stetige Asymptotik Weitere Approximationen: Die beobachtete Fisher-Information kann durch die erwartete Fisher- Information ersetzt werden: ϑ y N (ˆϑ,nI(ˆϑ) 1 ) Ersetzen des ML-Schätzers durch den Posteriori Modus ϑ : p(ϑ y) N ( ϑ,(n H(ϑ )) 1). Helga Wagner Bayes Statistik WS 2010/11 331

32 Stetige Asymptotik Bemerkungen: Regularitätsbedingungen: Parameter ϑ true liegt nicht am Rande des Parameterraums - garantiert, dass Informationsmatrix positiv definit ist für kleine Stichproben ist die Priori-Verteilung nicht vernachlässigbar asymptotische Normalverteilung oft erst für sehr große Stichproben Umparameterisierung kann bessere Approximation ergeben Helga Wagner Bayes Statistik WS 2010/11 332

33 Posteriori Dichte eines Anteils Für einen Anteil ϑ ist die Likelihood und damit p(y ϑ) = ϑ y (1 ϑ) 1 y logp(y ϑ) = ylogϑ+(1 y)log(1 ϑ), d 2 logp(y ϑ) dϑ 2 Die erwartete Fisher-Information ist = y ϑ 2 1 y (1 ϑ) 2. I(ϑ) = E y ( d2 logp(y ϑ) ) = E dϑ 2 y ( Y ϑ + 1 Y 2 (1 ϑ) 2) = 1 ϑ(1 ϑ). Helga Wagner Bayes Statistik WS 2010/11 333

34 Posteriori Dichte eines Anteils θ true =0.02 θ true = N=25 1 N= N=100 2 N= N= N= Abbildung 37: Logarithmus der Posteriori-Dichte eines Anteils ϑ (für zwei verschiedene Werte) für verschiedene Stichprobengrößen n bei flacher Prioriverteilung (volle Linie) im Vergleich zur quadrat. Approximation um den Posteriori-Modus (strichliert) Helga Wagner Bayes Statistik WS 2010/11 334

35 Empirische Bayes-Verfahren Empirische Bayes-Verfahren sind eine Kombination von Bayes und Likelihood- Verfahren, die insbesondere für Random Effects Modelle verwendet werden. Beispiel Eye Tracking: Modell P(Y = y µ) = n P(Y i = y i µ i ), Y i P(µ i ). i=1 mit Priori-Verteilung µ i G(a 0,b 0 ) Empirischer Bayes Ansatz: die Parameter der Heterogenitätsverteilung (Priori- Verteilung) werden nicht fixiert, sondern aus den Daten geschätzt. im Gegensatz dazu: vollständige Bayes-Analyse: Hyper-Priori-Verteilung auf Parameter der Priori-Verteilung Helga Wagner Bayes Statistik WS 2010/11 335

36 Beispiel: Eye Tracking Posteriori-Verteilung: y i NegBin(a 0,b 0 ) Schätzer für die Parameter der Priori-Verteilung â 0 und ˆb 0 werden durch numerische Maximierung der Posteriori-Verteilung bestimmt â 0 = und ˆb 0 = Berechnung von E(µ i x i ) = â0+y i ˆb0 +1 Helga Wagner Bayes Statistik WS 2010/11 336

37 Beispiel: Eye Tracking subjektspezifischer Parameter * * * ** ** * ** **** ** **** *** ***** **** *********************** ********************************************** Nr. der Person Abbildung 38: Eye Tracking, ML-Schätzer (Kreis, schwarz) und empirisische Bayes-Schätzer (Stern, blau) für die subjektspezifischen Parameter. Die blaue Linie gibt den ML-Schätzer des Priori-Erwartungswertes â 0 /ˆb 0 an. Helga Wagner Bayes Statistik WS 2010/11 337

Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194

Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194 Bayes Prognose Helga Wagner Bayes Statistik WS 2010/11 194 Prognose einer weiteren Beobachtung Verkehrssicherheitsdaten Senioren: Wieviele Senioren werden in Linz im kommenden Monat getötet oder schwerverletzt?

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Das Bayes'sche Prinzip

Das Bayes'sche Prinzip Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem

Mehr

Punktschätzer Optimalitätskonzepte

Punktschätzer Optimalitätskonzepte Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

BAYES SCHE STATISTIK

BAYES SCHE STATISTIK BAES SCHE STATISTIK FELIX RUBIN EINFÜHRUNG IN DIE STATISTIK, A.D. BARBOUR, HS 2007 1. Einführung Die Bayes sche Statistik gibt eine weitere Methode, um einen unbekannten Parameter θ zu schätzen. Bisher

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

3.3 Methoden zur Evaluierung von Schätzern

3.3 Methoden zur Evaluierung von Schätzern 3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu

Mehr

Errata für: Methoden der statistischen Inferenz: Likelihood und Bayes

Errata für: Methoden der statistischen Inferenz: Likelihood und Bayes Errata für: Methoden der statistischen Inferenz: Likelihood und Bayes Leonhard Held 9. Juli 2009 2 Einführung 1. Auf Seite 9, muss es in Abschnitt 1.2.8, Zeile 6-7 richtig heissen: Wir werden nur die

Mehr

Einführung in die statistische Testtheorie II

Einführung in die statistische Testtheorie II 1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1 Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Hauptseminar - Methoden der experimentellen Teilchenphysik WS 2011/2012 Fabian Hoffmann 2. Dezember 2011 Inhaltsverzeichnis 1 Einleitung

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

Statistik. Andrej Depperschmidt. Sommersemester 2016

Statistik. Andrej Depperschmidt. Sommersemester 2016 Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i

Mehr

Frequentistische Statistik und Bayessche Statistik. Volker Tresp

Frequentistische Statistik und Bayessche Statistik. Volker Tresp Frequentistische Statistik und Bayessche Statistik Volker Tresp 1 Frequentistische Statistik 2 Herangehensweise Die Naturwissenschaft versucht es, der Natur Gesetzmäßigkeiten zu entringen: F = ma Gesetze

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander

Mehr

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3. Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die

Mehr

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß

Mehr

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und Übersicht über die Vorlesung Teil : Deskriptive fru@hephy.oeaw.ac.at VO 42.090 http://tinyurl.com/tu42090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4:

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom Institut für Stochastik WS 009/10 Karlsruher Institut für Technologie (KIT) Dr. B. Klar Klausur Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom 08.0.010 Musterlösungen Aufgabe

Mehr

Schätzung von Parametern

Schätzung von Parametern Schätzung von Parametern Schätzung von Parametern Quantitative Wissenschaft: Messung von Parametern Gemessene Werte weichen durch (statistische und systematische) Messfehler vom wahren Wert des Parameters

Mehr

Bayes Inferenz. Helga Wagner Bayes Statistik WS 2010/11 245

Bayes Inferenz. Helga Wagner Bayes Statistik WS 2010/11 245 Bayes Inferenz Helga Wagner Bayes Statistik WS 2010/11 245 Statistische Inferenz Beobachtungen: Daten y = (y 1,...,y n ) Y Annahme: Daten werden von einem (stochastischen) Modell spezifiziert durch einen

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler 6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Grundgesamtheit und Stichprobe

Grundgesamtheit und Stichprobe Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U

Mehr

Übungsscheinklausur,

Übungsscheinklausur, Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Inferenzstatistik in Regressionsmodellen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für

Mehr

Grundgesamtheit und Stichprobe

Grundgesamtheit und Stichprobe Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Statistik. Anton Klimovsky. 10. Dezember 2015

Statistik. Anton Klimovsky. 10. Dezember 2015 Statistik Anton Klimovsky 10. Dezember 2015 Wozu brauchen wir Statistik? Datenflut in allen Wissenschaften. Technologie+Wissenschaft liefern (Un)Mengen von Daten. Die Daten kommen aus Experimenten, Messungen,

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood

Mehr

Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:

Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Aufgabe 1 (8=2+2+2+2 Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Die Zufallsvariable X bezeichne die Note. 1443533523253. a) Wie groß ist h(x 5)? Kreuzen

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.

Mehr

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion 4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,

Mehr

Korollar 116 (Grenzwertsatz von de Moivre)

Korollar 116 (Grenzwertsatz von de Moivre) Ein wichtiger Spezialfall das Zentralen Grenzwertsatzes besteht darin, dass die auftretenden Zufallsgrößen Bernoulli-verteilt sind. Korollar 116 (Grenzwertsatz von de Moivre) X 1,..., X n seien unabhängige

Mehr

Die Maximum-Likelihood-Methode

Die Maximum-Likelihood-Methode Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Mehr

Markov Chain Monte Carlo Verfahren. Helga Wagner Bayes Statistik WS 2010/11 407

Markov Chain Monte Carlo Verfahren. Helga Wagner Bayes Statistik WS 2010/11 407 Markov Chain Monte Carlo Verfahren Helga Wagner Bayes Statistik WS 2010/11 407 Einführung Simulationsbasierte Bayes-Inferenz erfordert Ziehungen aus der Posteriori- Verteilung MCMC-Verfahren ermöglichen

Mehr

Suffizienz und Vollständigkeit

Suffizienz und Vollständigkeit KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

2.2 Klassische Testtheorie

2.2 Klassische Testtheorie 192 2.2.1 Problemstellung Ziel: Finde Test zum Niveau mit optimaler Güte (Power) für 2 1.Dabeiistn finit. Problemstellung: I Sei der Parameterraum; die Hypothesen seien H 0 : 2 0 vs. H 1 : 2 1, mit 0 \

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral

Mehr

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60 WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler Philipp Sibbertsen Hartmut Lehne Statistik Einführung für Wirtschafts- und Sozialwissenschaftler 2., überarbeitete Auflage 4^ Springer Gabler Inhaltsverzeichnis Teil I Deskriptive Statistik 1 Einführung

Mehr

1 Diskriminanzanalyse

1 Diskriminanzanalyse Multivariate Lineare Modelle SS 2008 1 Diskriminanzanalyse 1. Entscheidungstheorie 2. DA für normalverteilte Merkmale 3. DA nach Fisher 1 Problemstellungen Jedes Subjekt kann einer von g Gruppen angehören

Mehr

Kapitel V - Erwartungstreue Schätzfunktionen

Kapitel V - Erwartungstreue Schätzfunktionen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel V - Erwartungstreue Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

Vorlesung: Lineare Modelle

Vorlesung: Lineare Modelle Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei

Mehr

1.4 Stichproben aus einer Normalverteilung

1.4 Stichproben aus einer Normalverteilung 1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungen stetiger Zufallsvariablen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

Statistik. von Peter Pfaffelhuber Version: 26. Juni Einführung 2

Statistik. von Peter Pfaffelhuber Version: 26. Juni Einführung 2 Statistik von Peter Pfaffelhuber Version: 26. Juni 2010 Inhaltsverzeichnis 0 Einführung 2 1 Punktschätzer 5 1.1 Unverzerrte und konsistente Schätzer....................... 5 1.2 Risikofunktion...................................

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Einführung in die statistische Testtheorie

Einführung in die statistische Testtheorie 1 Seminar Simulation und Bildanalyse mit Java von Benjamin Burr und Philipp Orth 2 Inhalt 1. Ein erstes Beispiel 2. 3. Die Gütefunktion 4. Gleichmäßig beste Tests (UMP-Tests) 1 Einführendes Beispiel 3

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

Maximum-Likelihood Schätzung

Maximum-Likelihood Schätzung Maximum-Likelihood Schätzung VL Forschungsmethoden 1 Wiederholung Einführung: Schätzung 2 Likelihood-Schätzung und Generalisiertes Lineares Modell Zufallsverteilungen 3 Lernziele 1 Grundzüge der Likelihood-Schätzung

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Auswahl von Schätzfunktionen

Auswahl von Schätzfunktionen Auswahl von Schätzfunktionen Worum geht es in diesem Modul? Überblick zur Punktschätzung Vorüberlegung zur Effizienz Vergleich unserer Schätzer für My unter Normalverteilung Relative Effizienz Einführung

Mehr

Statistik für Informatiker, SS Verteilungen mit Dichte

Statistik für Informatiker, SS Verteilungen mit Dichte 1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches

Mehr

Kapitel VI - Maximum-Likelihood-Schätzfunktionen

Kapitel VI - Maximum-Likelihood-Schätzfunktionen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VI - Maximum-Likelihood-Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

10 Transformation von Zufallsvariablen

10 Transformation von Zufallsvariablen 10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :

Mehr

Inhaltsverzeichnis DESKRIPTIVE STATISTIK. 1 Grundlagen Grundbegriffe Skalen... 15

Inhaltsverzeichnis DESKRIPTIVE STATISTIK. 1 Grundlagen Grundbegriffe Skalen... 15 Inhaltsverzeichnis 1 Grundlagen... 13 1.1 Grundbegriffe...13 1.2 Skalen... 15 DESKRIPTIVE STATISTIK 2 Eindimensionale Häufigkeitsverteilungen...16 2.1 Häufigkeiten... 16 2.1.1 Grundbegriffe... 16 2.1.2

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt. Normalverteilung Diskrete Stetige f(x) = 1 2πσ 2 e 1 2 ((x µ)2 σ 2 ) Gauß 91 / 169 Normalverteilung Diskrete Stetige Satz: f aus (1) ist Dichte. Beweis: 1. f(x) 0 x R und σ > 0. 2. bleibt z.z. lim F(x)

Mehr

SozialwissenschaftlerInnen II

SozialwissenschaftlerInnen II Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr