Konjugierte Analyse einfacher Modelle Poisson-Modelle. Helga Wagner Bayes Statistik WS 2010/11 31

Größe: px
Ab Seite anzeigen:

Download "Konjugierte Analyse einfacher Modelle Poisson-Modelle. Helga Wagner Bayes Statistik WS 2010/11 31"

Transkript

1 Konjugierte Analyse einfacher Modelle Poisson-Modelle Helga Wagner Bayes Statistik WS 2010/11 31

2 Example: Verkehrssicherheitsdaten 6 Time Series Plot 15 Time Series Plot Month Month x Abbildung 1: Verkehrssicherheitsdaten oben: Anzahl von schwerverletzten oder getöteten Fussgängern in Linz, Kinder von 6 bis 10 Jahren (links) und Senioren über 65 (rechts) unten: Anzahl von Personen (Exponierte) in der jeweiligen Altersgruppe Helga Wagner Bayes Statistik WS 2010/11 32

3 Die Poisson-Verteilung Zufallsvariable Y mitwerten in dem diskreten StichprobenraumY = {0,1,2,...} werden häufig mit der Poissonverteilung modelliert Y P(µ), wenn P(Y = y µ) = µy y! e µ, für {0,1,2,...} Wahrscheinlichkeitsfunktion p(y µ): p(y µ) = f P (y;µ) = µy y! e µ. Momente: E(Y µ) = Var(Y µ) = µ Helga Wagner Bayes Statistik WS 2010/11 33

4 Die Stichprobenverteilung Beobachtungen: Zähldaten y = (y 1,...,y n ) y = (y 1,...,y n ) sind n i.i.d. (= independent identically distributed) Beobachtungen einer P (µ)-verteilung y = (y 1,...,y n ) ist die Realisierung einer n-dimensionalen Zufallsvariablen Y = (Y 1,...,Y n ) mit Stichprobenverteilung P(Y = y µ) über dem Stichprobenraum Y n mit folgenden Eigenschaften: P(Y = y µ) = = p(y µ) = n P(Y i = y i µ), Y i P (µ) i=1 n p(y i µ) = i=1 n ( µ y i i=1 y i! e µ ) = µ ny e nµ n i=1 1 y i!. Helga Wagner Bayes Statistik WS 2010/11 34

5 Lernen aus den Daten Welchen Wert hat µ, die erwartete Anzahl getöteter oder schwerverletzter Personen? Schätzung Wie ist die Unsicherheit der Schätzung von µ zu quantifizieren Schätzfehler Wieviele Personen werden im kommenden Monat getötet oder schwer verletzt werden? Vorhersage Ist das stochastische Modell passend? Modellkritik Alle diese Fragen können mit der Posteriori-Verteilung beantwortet werden. Helga Wagner Bayes Statistik WS 2010/11 35

6 Bestimmen der Posteriori-Verteilung Nach dem Satz von Bayes ist die Posteriori-Verteilung für ϑ = µ gegeben als: Für die Likelihood Funktion gilt p(µ y) p(y µ)p(µ), µ R + p(y µ) µ ny e nµ, wenn alle Konstanten, die nicht von µ abhängen, weggelassen werden. Als Funktion des Parameter µ ist die Likelihood proportional zur Dichte der G(ny + 1, n)-verteilung. Helga Wagner Bayes Statistik WS 2010/11 36

7 Die Gamma-Verteilung Für x G(a, b), ist die Wahrscheinlichkeitsdichte gegeben als f G (x;a,b) = ba Γ(a) xa 1 e bx x a 1 e bx Die Momente der Gamma-Verteilung sind E(x) = a b und Var(x) = a b 2. Helga Wagner Bayes Statistik WS 2010/11 37

8 Bestimmen der Posteriori-Verteilung Mit einer flachen Priori-Verteilung p(µ) constant ist die posteriori-verteilung p(µ y) p(y µ) = µ ny e nµ = die Posteriori-Verteilung ist die Gamma-Verteilung µ y G(a n,b n ) mit: a n = ny +1, und b n = n. (3) Die Parameter der Posteriori-Verteilung hängen von den Daten nur durch die Zahl der Beobachtungen n und die Gesamtsumme der Zähldaten ny ab. Helga Wagner Bayes Statistik WS 2010/11 38

9 Beispiel: Verkehrssicherheitsdaten Senioren: n = 192 und y = 5.25, daher: µ y G(1009,192) Abbildung 2: Verkehrssicherheitsdaten Senioren modelliert als i.i.d. P(µ) links: Posterior Dichte p(µ y) unter der Priori-Verteilung p(µ) constant rechts: Posteriori Verteilungsfunktion mit 0.05, 0.5 und 0.95-Perzentilen Helga Wagner Bayes Statistik WS 2010/11 39

10 Beispiel: Verkehrssicherheitsdaten Keine Information/Vorstellung über den Parameter µ vor Beobachtung der Daten, aber die Likelihood erhöht das Wissen über µ deutlich. Die Posteriori-Verteilung ist eine Wahrscheinlichkeitsverteilung, obwohl die Priori-Verteilung uneigentlich ist auf einem relativ kleinen Bereiches des Parameterraumes Θ = R + konzentriert, obwohl die a-priori-verteilung p(µ) flach ist Helga Wagner Bayes Statistik WS 2010/11 40

11 Parameterschätzung Zur Parameterschätzung können verschiedene Lagemaßzahlen der Posteriori- Verteilung verwendet werden: der Posteriori-Modus (a n 1)/b n = y = 5.25 ist auch der Maximum-Likelihood-Schätzer der Erwartungswert der Posteriori-Verteilung (posterior mean) E(µ y) = a n /b n = y +1/n = der Posteriori-Median, d.h. das 0.5-Perzentil der G(ny + 1, n)-verteilung ergibt Jeder dieser Schätzer ist der optimale Schätzer bezüglich einer bestimmten Verlustfunktion Helga Wagner Bayes Statistik WS 2010/11 41

12 Kredibilitätsintervall Aus der Verteilungsfunktion der Posteriori-Verteilung kann man ein Intervall [µ L,µ U ] bestimmen, das den Parameter µ mit hoher Wahrscheinlichkeit (1 α) enthält. Derartige Intervalle nennt man Kredibilitätsintervalle. Für einen skalaren, stetigen Parameter θ mit stetigem Parameterraum gilt folgende Definition: Ein Intervall I = [θ L,θ U ], für das gilt θu θ L p(θ y)dθ = 1 α, nennt man (1 α)%-kredibilitätsintervall bzw. auch Bayesianisches (1 α)%- Konfidenzintervall. Helga Wagner Bayes Statistik WS 2010/11 42

13 Kredibilitätsintervall Das (1 α)%-kreditibilitäts-intervall ist nicht eindeutig: Ein gleichendiges (1 α)%-kredibilitätsintervall erhält man mit dem α/2- und dem 1 α/2-perzentil der Posteriori-Verteilung. Ein (1 α)%-kredibilitätsintervall I heisst HPD (highest posterior density interval), wenn für alle θ I und alle θ / I gilt p(θ y) p( θ y) HPD-Intervalle enthalten also die Parameterwerte mit höherer Posteriori- Dichte. Sie sind jedoch i.a. schwerer zu bestimmen als gleichendige Kredibilitätsintervalle. Helga Wagner Bayes Statistik WS 2010/11 43

14 Beispiel: Verkehrssicherheitsdaten Die Unsicherheit der Schätzung von µ kann durch ein Kredibilitätsintervall oder ein Streuungsmaß der Posteriori-Verteilung ausgedrückt werden, z.b. Das gleichendige 95% Kredibilitätsintervall für µ ist das Intervall[4.931, 5.579] die Posteriori-Varianz Var(µ y) = 1009/(192) 2 = die Posteriori-Standardabweichung SD(µ y) = Var(µ y) = Helga Wagner Bayes Statistik WS 2010/11 44

15 Wahl der Prior-Verteilung Eine geschlossene Form der Posteriori-Verteilung erhält man, wie wir gesehen haben, unter einer flachen Priori-Verteilung, d.h. aus der Likelihood-Funktion. Eine einfache Wahl der Priori-Verteilung ergibt sich, wenn man diese so wählt, dass die Posteriori-Verteilung zur selben Verteilungsfamilie gehört. Konjugierte Priori-Verteilungen: Eine Klasse G von Priori-Verteilungen heisst (natürlich) konjugiert bezüglich der Likelihoodfunktion p(y ϑ), falls die Posteriori-Verteilung p(ϑ y) für alle p(ϑ) G zur Klasse G gehört. Für iid Beobachtungen aus einer Poisson-Verteilung ist die Klasse der konjugierten Priori-Verteilungen die Familie der G(a 0,b 0 )-Verteilungen. Helga Wagner Bayes Statistik WS 2010/11 45

16 Wahl der Prior-Verteilung Eine Priori-Verteilung p(ϑ) heisst eigentlich (proper), wenn gilt: Θ p(ϑ)dϑ = 1 bzw. p(ϑ) = 1 Θ Die konjugierte Gamma Priori-Verteilung ist eigentlich, wenn a 0 > 0 and b 0 > 0. Helga Wagner Bayes Statistik WS 2010/11 46

17 Konjugierte Analyse Unter einer konjugierten Gamma-Priori-Verteilung, ist die Posteriori-Verteilung von µ p(µ y) µ ny e nµ µ a 0 1 e b 0µ wieder eine Gamma-Verteilung µ y G(a n,b n ) mit Parametern a n = a 0 + b n = b 0 +n. n y i = a 0 +ny i=1 Die Priori-Verteilung liefert ebensoviel Information über µ wie b 0 Beobachtungen mit Mittelwert m 0 = a 0 /b 0. Helga Wagner Bayes Statistik WS 2010/11 47

18 Effekt der Priori-Verteilung Der Posteriori-Mittelwert ist ein gewichteter Durchschnitt des Stichprobenmittels y und des Mittels der Priori-Verteilung m 0 : E(µ y) = a n b n = a 0+ny b 0 +n == = b 0 b 0 +n m 0+ n b 0 +n y = = (1 ω) m 0 +ω y Helga Wagner Bayes Statistik WS 2010/11 48

19 Effekt der Priori-Verteilung Das Gewicht des Priori-Mittels m 0, wächst für festes n mit b 0. (1 ω) = b 0 /(b 0 +n) Mit wachsendem Stichprobenumfang n (und festem b 0 ), konvergiert das Gewicht des Stichprobenmittels ω = n/(b 0 +n) gegen 1, d.h. der Einfluß der Parameter der Priori-Verteilung verschwindet. Helga Wagner Bayes Statistik WS 2010/11 49

20 Effekt der Priori-Verteilung Bei keiner bzw. wenig Vorinformation über die Parameter, soll die Priori-Verteilung uninformativ sein. Eine (leicht) datenbasierte Wahl der Priori-Verteilung ergibt sich mit m 0 = y b 0 klein, z.b Der Einfluss der Priori-Verteilung wird durch eine Sensitivitätsanalyse überprüft. Helga Wagner Bayes Statistik WS 2010/11 50

21 Effekt der Priori-Verteilung Abbildung 3: Verkehrssicherheitsdaten Senioren; i.i.d. P (µ) Sensitivität der Posteriori-Verteilung von µ bezüglich verschiedener G(b 0 m 0,b 0 )-Priori-Verteilungen. links: m 0 = y, b 0 = 0.5,1,2 (blau, grün,rot) rechts: b 0 = 0.5, m 0 = 1,5,10 (blau, grün,rot) Helga Wagner Bayes Statistik WS 2010/11 51

22 Effekt der Priori-Verteilung Tabelle 1: Verkehrssicherheitsdaten Senioren;, i.i.d. P(µ) Sensitivität der 95% Kredibilitätsintervalle bezüglich verschiedener G(b 0 m 0,b 0 ) -Priori-Verteilungen (m 0 ist das Priori-Mittel) m 0 = 1 m 0 = 5 m 0 y m 0 = 7 m 0 = 10 b 0 = 0.01 (4.93,5.58) (4.93,5.58) (4.93,5.58) (4.93,5.58) (4.93,5.58) b 0 = 0.1 (4.93,5.58) (4.93,5.58) (4.93,5.58) (4.93,5.58) (4.93,5.58) b 0 = 0.5 (4.92,5.57) (4.93,5.58) (4.93,5.58) (4.94,5.58) (4.94,5.59) b 0 = 1 (4.91,5.56) (4.93,5.58) (4.93,5.58) (4.94,5.59) (4.96,5.60) b 0 = 2 (4.89,5.53) (4.93,5.57) (4.93,5.58) (4.95,5.60) (4.98,5.63) Helga Wagner Bayes Statistik WS 2010/11 52

23 Berücksichtigung der Zahl der Exponierten Sei λ das Risiko eines Fußgängers, in einem Monat getötet oder schwer verletzt zu werdenunde i diezahlderfußgängerdiediesemrisikoinmonatiausgesetztsind Die Zahl Y i der getöteten oder schwer veletzten Fußgänger in Monat i, ist eine Zufallsvariable Y i BiNom(e i,λ) Da das Risiko λ sehr klein, ist kann die Binomialverteilung durch die Poissonverteilung angenähert werden BiNom(e i,λ) P (µ i ), mit µ i = λe i Helga Wagner Bayes Statistik WS 2010/11 53

24 Berücksichtigung der Zahl der Exponierten Wenn die Zahl der Exponierten über die Beobachtungsperiode konstant e i e 0 ist, dann sind die Beobachtungen y 1,...,y N i.i.d. Poisson verteilt mit µ = λe. Wenn sich die Zahl der Exponierten über die Zeit ändert, dann sind y 1,...,y n zwar noch u.a., aber nicht identisch verteilt. Die Likelihood- Funktion ist gegeben als p(y λ) = wobei n e = n i=1 e i. n p(y i λ) = i=1 n ( (λei ) y i i=1 y i! e λe i ) = λ ny e ne λ n i=1 e y i i y i!, (4) Der Kern der Likelihood entspricht der Dichte einer Gamma-Verteilung, daher ist die konjugierte Priori-Verteilung für das Risiko ebenfalls eine Gamma-Verteilung λ G(a e 0,b e 0) Helga Wagner Bayes Statistik WS 2010/11 54

25 Berücksichtigung der Zahl der Exponierten Aus dem Satz von Bayes erhält man λ y G(a e n,b e n), mit n a e n = a e 0+ y i = a e 0+ny b e n = b e 0+ i=1 n e i = b e 0+n e i=1 Helga Wagner Bayes Statistik WS 2010/11 55

26 Effekt der Priori-Verteilung Der Posteriori-Mittelwert von λ ist E(λ y) = ae n b e n = ae 0+ny b e 0 +ne = be 0 b e 0 +neme 0+ 1 b e 0 +neˆλ n, (5) wobei m e 0 = a e 0/b e 0 das a priori erwartete Risiko E(λ) und ˆλ n der Schätzer für das Risiko aus den Daten ist. ˆλ n = n i=1 y i n i=1 e i = y e. Der Posteriori-Mittelwert ist also wieder ein gewichtetes Mittel, und zwar des aus den Daten geschätzten Riskos ˆλ n und des apriori erwarteten Risikos m e 0. Helga Wagner Bayes Statistik WS 2010/11 56

27 Effekt der Priori-Verteilung Das Gewicht des a priori erwarteten Risikos m e 0, 1 ω e = b 0 b 0 +n e wächst bei fester Zahl von.beobachteten Expositionsmonaten n e mit b e 0. Mit n e konvergiert das Gewicht des geschätzen Risikos ω e = n e /(b e 0+n e ) gegen 1 und der Einfluß der a priori-parameter verschwindet. Wahl von m e 0 bei fehlender Information: m e 0 = ˆλ n Helga Wagner Bayes Statistik WS 2010/11 57

28 Beispiel: Verkehrssicherheitsdaten Kinder 6-10 Suffiziente Statistiken zur Bestimmung der Gamma-Posteriori-Verteilung für das Risiko sind n n y i = 353 und e i = i=1 Für m e 0 = ˆλ n ist das Posteriori-Mittel identisch mit dem Risiko in der Stichprobe: 2.08 per Expositionsjahren. Unter einer flachen Priori-Verteilung erhält man als 95%- Kredibilitätsintervall für das Risiko λ (aus den and Perzentilen der Gamma-Posteriori- Verteilung) pro Expositionsmonaten. i=1 Helga Wagner Bayes Statistik WS 2010/11 58

29 Beispiel: Verkehrssicherheitsdaten Kinder x x x x 10 4 Abbildung 4: Verkehrssicherheitsdaten Kinder 6-10, ua. P (λe i ) Posteriori-Verteilung des Risikos λ unter verschiedenen G(b e 0 me 0,be 0 )-Priori-Verteilungen links: m e 0 = ˆλ n und b e 0 rechts: b e 0 = 1 und me 0 Es ist kein Unterschied ersichtlich! = 0.5,1,10 (blau, grün,rot) = 1,2,3 pro (blau, grün,rot) Helga Wagner Bayes Statistik WS 2010/11 59

30 Modellierung eines Strukturbruches Am 1. Oktober 1994 trat in Österreich eine Gesetzesänderung in Kraft, die den Vorrang von Fußgängern regelt: Fußgängern, die einen Zebrastreifen benützen möchten, muß ein gefahrloses Überqueren ermöglicht werden. Hatte diese Gesetzesänderung einen Effekt? Modellierung mit möglichem Strukturbruch in Monat i 0 = 94 (Oktober 1994): Mit einem Strukturbruch in i 0 sind y = (y 1,...,y n ) Realisierungen von u.a. aber nicht identisch verteilten Zufallsvariablen Y = (Y 1,...,Y n ), P(Y = y µ) = n P(Y i = y i µ i ), Y i P(µ i ). i=1 Helga Wagner Bayes Statistik WS 2010/11 60

31 Modellierung eines Strukturbruches In einem Strukturbruch-Modell kann sich µ i in i = i 0 ändern: { µ 1, i < i 0, µ i = µ 2, i i 0. = Problem mit 2 Parametern ϑ = (µ 1,µ 2 ). Die Stichprobenverteilung ist gegeben durch p(y µ 1,µ 2 ) = i 0 1 i=1 ( µ1 y i y i! e µ 1 ) n i=i 0 ( µ2 y i ) y i! e µ 2, Helga Wagner Bayes Statistik WS 2010/11 61

32 Modellierung eines Strukturbruches Als Funktion der Parameter µ 1 and µ 2 ist die Likelihood proportional zu p(y µ 1,µ 2 ) µ 1 n 1 y 1 e n 1µ 1 µ 2 n 2 y 2 e n 2µ 2, wenn y 1 und y 2 die Stichprobenmittel vor und nach dem Strukturbruch sind, y 1 = 1 i 0 1 n 1 i=1 y i, y 2 = 1 n 2 n i=i 0 y i, und n 1 = i 0 1 und n 2 = n i Anzahl der Beobachtungen in beiden Perioden angeben. Helga Wagner Bayes Statistik WS 2010/11 62

33 Modellierung eines Strukturbruches Mit dem Satz von Bayes ergibt sich p(µ 1,µ 2 y) p(y µ 1,µ 2 )p(µ 1,µ 2 ), Unter a priori-unabhängigkeit von µ 1 und µ 2 p(µ 1,µ 2 ) = p(µ 1 )p(µ 2 ) sind µ 1 und µ 2 auch a posteriori ua. n p(µ 1,µ 2 y) = p(µ 1 y)p(µ 2 y) µ 1 y 1 1 e n 1µ 1 n p(µ 1 ) µ 2 y 2 2 e n 2µ 2 p(µ 2 ) Helga Wagner Bayes Statistik WS 2010/11 63

34 Modellierung eines Strukturbruches Sind µ 1 und µ 2 apriori ua. mit µ i G(a 0,i,b 0,i ) dann ist µ 1 y G(a n,1,b n,1 ), µ 2 y G(a n,2,b n,2 ), mit den Parametern a n,1 = a 0,1 +n 1 y 1, b n,1 = b 0,1 +n 1, a n,2 = a 0,2 +n 2 y 2, b n,2 = b 0,2 +n 2. Helga Wagner Bayes Statistik WS 2010/11 64

35 Modellierung eines Strukturbruches Das 95% -Kredibilitätsintervall von µ 1 kann aus der marginalen Posteriori-Dichte p(µ 1 y) (z.b. mit dem und Perzentil der G(a N,1,b N,1 )-Verteilung) bestimmt werden Interpretation: Das Risiko liegt mit einer Wahrscheinlichkeit von 95% in diesem Kredibilitäts-Intervall. Frequentische Bereichsschätzung: 95% Konfidenzintervall asymptotisch: Anzahl der Beobachtungen n 1 vor dem Strukturbruch ist fest exakt: wiederholte Stichprobenziehung? Helga Wagner Bayes Statistik WS 2010/11 65

36 Strukturbruch: Wahl der a priori-verteilung Die flache Priori-Verteilung p(µ 1,µ 2 ) constant erhältman mit a 0,1 = a 0,2 = 1 und b 0,1 = b 0,2 = 0. Eine etwas auf die Daten gestützte Wahl der Priori-Verteilung ist µ 1 G(b 0 y,b 0 ), µ 2 G(b 0 y,b 0 ) mit kleinem Wert für b 0 ( z.b. b 0 = 0.5 ). Damit ist a priori E(µ 2 µ 1 ) = 0. Helga Wagner Bayes Statistik WS 2010/11 66

37 Beispiel: Verkehrssicherheitsdaten µ µ µ 1 µ Abbildung 5: Verkehrssicherheitsdaten Kinder 6-10 modelliert ua. Poissonverteilt mit Strukturbruch im Oktober 1994 (i 0 = 94) mit flacher Priori-Verteilung; Darstellung der bivariaten Dichte der Posteriori-Verteilung p(µ 1,µ 2 y) Der Bereich mit hoher Posterior-Dichte liegt unterhalb der Linie µ 1 = µ 2 = risikovermindernder Interventionseffekt Helga Wagner Bayes Statistik WS 2010/11 67

38 Beispiel: Verkehrssicherheitsdaten Inferenz über absolute Veränderung δ 1 = µ 2 µ 1 und relative Veränderung in Prozent: δ 2 = 100(µ 2 µ 1 )/µ 1 : Die Posteriori-Dichten p(δ 1 y) und p(δ 2 y) haben keine einfache geschlossene Form = Approximation mittels Simulation Erzeuge zufällige Ziehungen (µ 1 (m),µ 2 (m) ),m = 1,...,M aus der gemeinsamen Posteriori-Verteilung p(µ 1,µ 2 y) (Produkt von zwei Gamma- Verteilungen) Erzeuge zufällige Ziehungen von δ 1 und δ 2 mit δ 1 (m) = µ 2 (m) µ 1 (m) δ (m) 2 = 100 µ 2 (m) (m) µ 1. µ (m) 1 Helga Wagner Bayes Statistik WS 2010/11 68

39 Beispiel: Verkehrssicherheitsdaten µ 2 µ (µ 2 µ 1 )/µ 1 Abbildung 6: Verkehrssicherheitsdaten Kinder 6-10 modelliert ua. Poissonverteilt mit Strukturbruch im Oktober 1994 (i 0 = 94) und flacher Priori-Verteilung; oben: 2000 zufällige Werte aus der Posterori-Dichte (µ 1,µ 2 y); Ziehungen von µ 1 (links) und µ 2 (rechts) unten: Kerndichteschätzer für p(δ 1 y) (links) und p(δ 2 y) (rechts) Helga Wagner Bayes Statistik WS 2010/11 69

40 Beispiel: Verkehrssicherheitsdaten Der Posteriori-Erwartungswert E(δ 1 y) bzw. E(δ 2 y) kann durch den Mittelwert der Ziehungen geschätzt werden: E(δ 1 y) 1 M M δ 1 (m), E(δ 2 y) 1 M M δ 2 (m). m=1 m=1 Aus den Perzentilen der Folgen δ 1,m = 1,...,M and δ 2 (m),m = 1,...,M kann ein Kredibilitäts-Intervall für δ 1 und δ 2 bestimmt werden. Die Posteriori-Dichten von δ 1 und δ 2 sind (von 0) nach links verschoben = Evidenz für einen (risikomindernden) Effekt der Gesetzesänderung auf die erwartete Anzahl von getöteten oder schwerverletzten Kindern Helga Wagner Bayes Statistik WS 2010/11 70

41 Beispiel: Eye Tracking Augenbewegungsanomalien bei 101 schizophrenen Patienten (Escobar and West, 1998) frequency counts Abbildung 7: Eye Tracking, Histogramm der Beobachtungen Helga Wagner Bayes Statistik WS 2010/11 71

42 Ein einfaches hierarchisches Modell Für die Daten erhält man einen Mittelwert y = 3.52 und eine Stichprobenvarianz von s 2 y = 35.89, d.h. große Überdispersion = i.i.d. Poisson-Modell nicht gut geeignet extreme Alternative: jede Beobachtung y i ist Realisierung einer P(µ i )-Verteilung mit Mittel µ i = n unbekannte Parameter µ = (µ 1,...,µ n ). y = (y 1,...,y n ) sind Realisierungen einer Folge von u.a. aber nicht identisch verteilten Zufallsvariablen Y = (Y 1,...,Y n ) P(Y = y µ) = n P(Y i = y i µ i ), Y i P(µ i ). i=1 Helga Wagner Bayes Statistik WS 2010/11 72

43 Ein einfaches hierarchisches Modell Die Wahrscheinlichkeitsdichte p(y µ) ist gegeben als p(y µ) = n p(y i µ i ) = i=1 n i=1 ( µi y i ) y i! e µ i. p(y µ) ist die Likelihood-Funktion von µ Schätzung der gesamten Folge der n Parameter µ = (µ 1,...,µ n ) Θ = (R + ) n Das Modell ist saturiert (Anzahl der Parameter = Anzahl der Beobachtungen) = ML Schätzung: ˆµ i = y i? Pönalisierte ML-Schätzung: Glättung durch Einführen einer Straffunktion, die große Differenzen zwischen den Paramtern bestraft Helga Wagner Bayes Statistik WS 2010/11 73

44 Ein einfaches hierarchisches Modell Bayesianische Schätzung:Glättung durch Annahmeeiner Struktur auf µ 1,...,µ n. Diese Struktur wird durch eine gemeinsame Wahrscheinlichkeitsverteilung p(µ 1,...,µ n ) spezifiziert. Eine einfache Struktur für Querschnittsdaten ergibt sich mit der Annahme, dass die verschiedenen Mittel µ i u.a. aus einer gemeinsamen Verteilung p(µ i ) gezogen wurden. p(µ 1,...,µ n ) = n p(µ i ). i=1 Diese Verteilung kann von weiteren Parametern abhängen. Eine einfache Wahl für p(µ i ) ist die natürliche konjugierte Priori-Verteilung µ i G(a 0,b 0 ). Helga Wagner Bayes Statistik WS 2010/11 74

45 Ein einfaches hierarchisches Modell Für feste Werte von a 0 and b 0 ist die gemeinsame Posteriori-Verteilung p(µ 1,...,µ n y) nach dem Satz von Bayes gegeben p(µ 1,...,µ n y) p(y µ 1,...,µ n )p(µ 1,...,µ n ) n ( y µi i µ a 0 y i! e µ i i 1 b a ) 0 0 e b 0µ i. a 0! i=1 µ 1,...,µ n sind a posteriori u.a. Für alle i,i = 1,...,n, ist die Posteriori von µ i die G(a 0 +y i,b 0 +1)- Verteilung. Diese ist für beliebiges y i eigentlich, sofern a 0 > 0 und b 0 > 0. Helga Wagner Bayes Statistik WS 2010/11 75

46 Einfluss der Priori-Verteilung Der posteriori Mittelwert von µ i ist E(µ i y i ) = b 0 b 0 +1 µ+ 1 b 0 +1 y i, wobei µ = a 0 /b 0 den Priori-Mittelwert bezeichnet. Wird µ i durch denposteriorierwartungswertgeschätzt, sowird jedebeobachtung y i zum Mittel der Priori-Verteilung gezogen (Shrinkage). Der Parameter b 0 wirkt als Glättungskonstante. Mit wachsendem b 0 ist µ i stärker an das Priori-Mittel µ gebunden. Für b 0, ergibt sich das i.i.d. Modell mit Mittel µ Mit fallendem b 0 wird die Bindung der µ i an µ loser: Mit b 0 0 sind die Mittelwerte µ i unverbunden. Helga Wagner Bayes Statistik WS 2010/11 76

47 Die marginale Verteilung Die marginale Verteilung von y i p(y i ) = + R p(y i µ i )p(µ i )dµ i kann für µ i G(a 0,b 0 ) analytisch bestimmt werden. Dann ist mit α = a 0 und β = b 0. y i NegBin(α,β) Helga Wagner Bayes Statistik WS 2010/11 77

48 Die Negative Binomialverteilung Die Wahrscheinlichkeitsfunktion der NegBin(α, β)-verteilung ist p(x;α,β) = ( α+x 1 α 1 ) ( β ) α ( 1 ) x β +1 β +1 Ihre Momente sind E(X) = α β und Var(x) = α β2(β +1) Für die Parameter der negativen Binomialverteilung gibt es keine natürlich konjugierte Priori-Verteilung p(α, β), daher ist keine geschlossene Bayes-Analyse möglich = MCMC-Verfahren Helga Wagner Bayes Statistik WS 2010/11 78

Bayesianische Modellwahl. Helga Wagner Bayes Statistik WS 2010/11 161

Bayesianische Modellwahl. Helga Wagner Bayes Statistik WS 2010/11 161 Bayesianische Modellwahl Helga Wagner Bayes Statistik WS 2010/11 161 Modellwahl Problem der Modellwahl: Welches von K möglichen Modellen M 1,...,M K ist für die Daten y am besten geeignet? Klassisch: LQ-Test

Mehr

Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194

Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194 Bayes Prognose Helga Wagner Bayes Statistik WS 2010/11 194 Prognose einer weiteren Beobachtung Verkehrssicherheitsdaten Senioren: Wieviele Senioren werden in Linz im kommenden Monat getötet oder schwerverletzt?

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes) 3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301

Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Inferenz Schätzen und Testen von Hypothesen Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Punktschätzung Entscheidungstheoretischer Ansatz: Wahl des Punktschätzers ist eine Aktion, die möglicherweise

Mehr

1. Eigenschaften einer Zufallsstichprobe

1. Eigenschaften einer Zufallsstichprobe 1. Eigenschaften einer Zufallsstichprobe 1.1 Grundkonzepte Definition 1.1.1: Man nennt die Zufallsvariablen X 1,..., X n zufällige Stichprobe oder Zufallsstichprobe vom Umfang n aus der Population (Grundgesamtheit)

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik

Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1 Verteilungen Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1.1 Diskrete Verteilungen Helga Wagner und Gero Walter Binomialverteilung: Y BiNom (n, π) Parameter: n > 0, π [0, 1] Wahrscheinlichkeitsfunktion:

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu

Mehr

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben

Mehr

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe 1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe Nachdem eine Stichprobe X 1,..., X n gezogen wurde berechnen wir gewöhnlich irgendwelchen Wert damit. Sei dies T = T (X 1,..., X n, wobei T auch

Mehr

Numerische Methoden der Bayes-Inferenz. Helga Wagner Bayes Statistik WS 2010/11 338

Numerische Methoden der Bayes-Inferenz. Helga Wagner Bayes Statistik WS 2010/11 338 Numerische Methoden der Bayes-Inferenz Helga Wagner Bayes Statistik WS 2010/11 338 Nichtkonjugierte Analyse Bei bekannter Likelihood und Priori-Verteilung kann die nichtnormierte Dichte der Posteriori-Verteilung

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch

Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,

Mehr

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9. 7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Statistics, Data Analysis, and Simulation SS 2015

Statistics, Data Analysis, and Simulation SS 2015 Mainz, 2. Juli 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Konjugierte Prior Konjugierte Prior

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Mainz, 26. Juni 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Statistische Inferenz

Statistische Inferenz Statistische Inferenz Prinzip der statistischen Inferenz Datensätze = Stichproben aus einer Gesamtpopulation Beispiel : Messung der Körpertemperatur von 106 gesunden Individuen man vermutet, dass sie repräsentativ

Mehr

Credibility Theory. Christoph Chlubna. 10. Januar / 18

Credibility Theory. Christoph Chlubna. 10. Januar / 18 10. Januar 2012 1 / 18 Gliederung 1 Was ist 2 Das Problem der Risikobewertung 3 Das individuelle Risiko 4 Die verschiedenen Prämienarten 5 Die Risikofunktion 6 Die Prämie im einfachen Modell 2 / 18 Gliederung

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.19 (allgemeines Theorem von Bayes)

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.19 (allgemeines Theorem von Bayes) 3.4 Bayes-Verfahren 202 3.4.1 Begrifflicher Hintergrund Satz 3.19 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Zulassungsprüfung Stochastik,

Zulassungsprüfung Stochastik, Zulassungsprüfung Stochastik, 5.5. Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß auf

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

i =1 i =2 i =3 x i y i 4 0 1

i =1 i =2 i =3 x i y i 4 0 1 Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1 Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

Schätzer und Konfidenzintervalle

Schätzer und Konfidenzintervalle Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Statistik: Klassisch oder Bayes

Statistik: Klassisch oder Bayes Wolfgang Tschirk Statistik: Klassisch oder Bayes Zwei Wege im Vergleich 4Q Springer Spektrum Inhaltsverzeichnis 1 Einleitung 1 1.1 Beschreibende und schließende Statistik 1 1.2 Schließende Statistik: Klassik

Mehr

(Reine) Bayes-Punktschätzung

(Reine) Bayes-Punktschätzung 233 3.4.3 (Reine) Bayes-Punktschätzung Def. 3.33 (MPD-Schätzung) Gegeben eine Beobachtung x und die posteriori Verteilung mit Dichte bzw. Wahrscheinlichkeitsfunktion π(ϑ x) heißt ϑ mit π(ˆϑ x) = max ϑ

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 6. Juli 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 13 Version: 7. Juli

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Statistik II für Wirtschaftswissenschaftler

Statistik II für Wirtschaftswissenschaftler Fachbereich Mathematik 20.04.2017 Dr. Hefter & Dr. Herzwurm Übungsblatt 0 Keine Abgabe. Gegeben seien die Mengen A 1 =, A 2 = {1}, A 3 = {1, 1}, A 4 = {1, 3}, A 5 = {1, 2, 4}, A 6 = {1, 2, 3, 4}. a) Bestimmen

Mehr

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................

Mehr

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212 1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,

Mehr

Stochastik Praktikum Parametrische Schätztheorie

Stochastik Praktikum Parametrische Schätztheorie Stochastik Praktikum Parametrische Schätztheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 05.10.2010 Prolog Momentenmethode X : Ω 1 Ω Zufallsgröße, die Experiment beschreibt. Ein statistisches

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................

Mehr

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion 4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Zusammenfassung PVK Statistik

Zusammenfassung PVK Statistik Zusammenfassung PVK Statistik (Diese Zusammenfassung wurde von Carlos Mora erstellt. Die Richtigkeit der Formeln ist ohne Gewähr.) Verteilungen von diskreten Zufallsvariablen Beschreibung Binomialverteilung

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

Statistik für NichtStatistiker

Statistik für NichtStatistiker Statistik für NichtStatistiker Zufall und Wahrscheinlichkeit von Prof. Dr. Karl Bosch 5., verbesserte Auflage R. Oldenbourg Verlag München Wien Inhaltsverzeichnis 1. ZufalLsexperimente und zufällige Ereignisse

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion f(x) =

Mehr

2 Aufgaben aus [Teschl, Band 2]

2 Aufgaben aus [Teschl, Band 2] 20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:

Mehr

Das Bayes'sche Prinzip

Das Bayes'sche Prinzip Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem

Mehr

Uwe Hassler. Statistik im. Bachelor-Studium. Eine Einführung. für Wirtschaftswissenschaftler. ^ Springer Gabler

Uwe Hassler. Statistik im. Bachelor-Studium. Eine Einführung. für Wirtschaftswissenschaftler. ^ Springer Gabler Uwe Hassler Statistik im Bachelor-Studium Eine Einführung für Wirtschaftswissenschaftler ^ Springer Gabler 1 Einführung 1 2 Beschreibende Methoden univariater Datenanalyse 5 2.1 Grundbegriffe 5 2.2 Häufigkeitsverteilungen

Mehr

Institut für Stochastik, SoSe K L A U S U R , 13:

Institut für Stochastik, SoSe K L A U S U R , 13: Institut für Stochastik, SoSe 2014 Mathematische Statistik Paravicini/Heusel 1. K L A U S U R 12.7.2014, 13:00-16.00 Name: Geburtsdatum: Vorname: Matrikelnummer: Übungsgruppe bei: Studiengang & angestrebter

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}. Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

Statistik für Bachelorund Masterstudenten

Statistik für Bachelorund Masterstudenten Walter Zucchini Andreas Schlegel Oleg Nenadic Stefan Sperlich Statistik für Bachelorund Masterstudenten Eine Einführung für Wirtschaftsund Sozialwissenschaftler 4y Springer 1 Der Zufall in unserer Welt

Mehr

Grundlagen der schließenden Statistik

Grundlagen der schließenden Statistik Grundlagen der schließenden Statistik Schätzer, Konfidenzintervalle und Tests 1 46 Motivation Daten erhoben (Umfrage, Messwerte) Problem: Bei Wiederholung des Experiments wird man andere Beobachtungen

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation

Mehr

Heute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung

Heute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung Heute Die Binomialverteilung Poissonverteilung Approximation der Binomialverteilung durch die Normalverteilung Arbeiten mit Wahrscheinlichkeitsverteilungen Die Binomialverteilung Man werfe eine Münze n

Mehr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 5: Aufgaben zu den Kapiteln 9 bis 12

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 5: Aufgaben zu den Kapiteln 9 bis 12 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 0) Teil 5: Aufgaben zu den Kapiteln 9 bis Aufgaben zu Kapitel 9 Zu Abschnitt 9. Ü9.. Es sei ψ : R R stetig differenzierbar.

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 11. November 2010 1 Erwartungswert und Varianz Erwartungswert Varianz und Streuung Rechenregeln Binomialverteilung

Mehr

Aufgabe (12 Punkte) Sei A A eine σ-algebra. (a) Man zeige: Ist X : Ω R A -messbar, dann ist X A-messbar. (b) Gilt die Umkehrung von (a)?

Aufgabe (12 Punkte) Sei A A eine σ-algebra. (a) Man zeige: Ist X : Ω R A -messbar, dann ist X A-messbar. (b) Gilt die Umkehrung von (a)? Am 5. Mai 2007 wurde zum dritten Mal eine stochastische Eingangsprüfung durchgeführt. Insgesamt konnten maximal 56 Punkte erreicht werden, zum Bestehen der Prüfung waren mindestens 26 Punkte notwendig.

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel

Mehr

Goethe-Universität Frankfurt

Goethe-Universität Frankfurt Goethe-Universität Frankfurt Fachbereich Wirtschaftswissenschaft PD Dr. Martin Biewen Dr. Ralf Wilke Sommersemester 2006 Klausur Statistik II 1. Alle Aufgaben sind zu beantworten. 2. Bitte runden Sie Ihre

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 9. Dezember 2010 1 Konfidenzintervalle Idee Schätzung eines Konfidenzintervalls mit der 3-sigma-Regel Grundlagen

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

Man kann also nicht erwarten, dass man immer den richtigen Wert trifft.

Man kann also nicht erwarten, dass man immer den richtigen Wert trifft. 2.2.2 Gütekriterien Beurteile die Schätzfunktionen, also das Verfahren an sich, nicht den einzelnen Schätzwert. Besonders bei komplexeren Schätzproblemen sind klar festgelegte Güteeigenschaften wichtig.

Mehr

Statistik für Ingenieure und Naturwissenschaftler

Statistik für Ingenieure und Naturwissenschaftler Sheldon M. Ross Statistik für Ingenieure und Naturwissenschaftler 3. Auflage Aus dem Amerikanischen übersetzt von Carsten Heinisch ELSEVIER SPEKTRUM AKADEMISCHER VERLAG Spektrum Inhalt Vorwort zur dritten

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Bayesianische FDR (Teil 1)

Bayesianische FDR (Teil 1) Bayesianische FDR (Teil 1) Mareile Große Ruse Seminar Multiples Testen 08.11.2010 Übersicht Übersicht Übersicht Alternative: Übersicht Alternative: Übersicht Alternative: Bedingte Wahrscheinlichkeit (Ω,

Mehr

Statistische Inferenz

Statistische Inferenz Statistische Inferenz Prinzip der statistischen Inferenz Datensätze = Stichproben aus einer Gesamtpopulation (meistens) Beispiel : Messung der Körpertemperatur von 106 gesunden Individuen man vermutet,

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung

Mehr