Markov Chain Monte Carlo Verfahren. Helga Wagner Bayes Statistik WS 2010/11 407
|
|
- Irmgard Stein
- vor 6 Jahren
- Abrufe
Transkript
1 Markov Chain Monte Carlo Verfahren Helga Wagner Bayes Statistik WS 2010/11 407
2 Einführung Simulationsbasierte Bayes-Inferenz erfordert Ziehungen aus der Posteriori- Verteilung MCMC-Verfahren ermöglichen es, aus komplizierten, auch hochdimensionalem Verteilungen zu ziehen Idee: Erzeugen einer Markovkette, deren stationäre Verteilung die Posteriori- Verteilung ist: Die generierten Ziehungen ϑ (m),m = 1,...,M sind dann voneinander abhängig. Nach dem Ergodensatz konvergiert das Mittel 1 M M m=1 g(ϑ (m) ) gegen den Posteriori-Erwartungswert E(g(ϑ) y) = g(ϑ)p(ϑ y)dϑ. Helga Wagner Bayes Statistik WS 2010/11 408
3 Markov Chain Monte Carlo Verfahren Wiederholung: Markov-Ketten Helga Wagner Bayes Statistik WS 2010/11 409
4 Markov-Ketten Ein zeitdiskreter stochastischer Prozess Y = {Y t,t N 0 } mit abzählbarem Zustandsraum S heisst Markov-Kette, wenn P(Y t = k Y 0 = j 0,Y 1 = j 1,...,Y t 1 = j t 1 ) = P(Y t = k Y t 1 = j t 1 ). für alle t 0 und für alle k,j 0,...,j t 1 S gilt. Helga Wagner Bayes Statistik WS 2010/11 410
5 Markov-Ketten P(Y t+1 = k Y t = j) heisst einschrittige Übergangswahrscheinlichkeit. DieMarkovketteisthomogen,wenndieÜbergangswahrscheinlichkeitenP(Y t+1 = k Y t = j) nicht von t abhängen p jk = P(Y t+1 = k Y t = j) = P(Y 1 = k Y 0 = j) Die Matrix P = (p jk ) heisst Übergangsmatrix. Helga Wagner Bayes Statistik WS 2010/11 411
6 Irreduzible Markovketten Eine Markov-Kette heisst irreduzibel, falls für alle j, k S eine positive Zahl 1 t < existiert, sodass P(Y t = k Y 0 = j) > j, d.h. Zustand k ist von Zustand j in einer endlichen Zahl von Schritten erreichbar. Die Periode eines Zustands k ist der grösste gemeinsame Teiler der Zeitpunkte n, zu denen eine Rückkehr möglich ist: d(k) = GGT{t 1 : P(Y t = k Y 0 = k) > 0} Falls alle Zustände einer Markov-Kette die Periode 1 haben, nennt man die Markov-Kette aperiodisch. Helga Wagner Bayes Statistik WS 2010/11 412
7 Rückkehrverhalten Die Wahrscheinlichkeit dafür, dass eine in k startende homogene Markov-Kette irgendwann wieder nach k zurückkehrt, d.h. f kk = P(Y t = k;y t 1 k,...,y 1 k Y 0 = k) t=1 heisst Rückkehrwahrscheinlichkeit, und T kk = min(t 1 : Y t = k Y 0 = i) Rückkehrzeit (Rekurrenzzeit) des Zustandes k. Der Zustand k heisst rekurrent, falls f kk = 1 Ein rekurrenter Zustand k ist positiv rekurrent, falls E(T kk ) < bzw. nullrekurrent, falls E(T kk ) nicht exisitiert. Helga Wagner Bayes Statistik WS 2010/11 413
8 Irreduzible Markovketten Eine diskrete Wahrscheinlichkeitsverteilung π heisst invariante Verteilung der homogenen Markovkette Y t bzw. ihrer Übergangsmatrix P, wenn gilt: π = πp. Die invariante Verteilung einer irreduziblen Markovkette ist eindeutig, wenn alle Zustände positiv rekurrent sind. Helga Wagner Bayes Statistik WS 2010/11 414
9 Ergodische Markovketten Eine Markov-Kette heisst ergodisch, wenn die Zustandsverteilung π t von Y t für jede beliebige Startverteilung π 0 gegen dieselbe Wahrscheinlichkeitsverteilung π konvergiert: lim t πt = lim π 0 P t = π. t Die Grenzverteilung einer ergodischen Markov-Kette ist π die invariante Verteilung π = lim t π t = lim t ( π t P ) = ( lim πt) P = πp. t Helga Wagner Bayes Statistik WS 2010/11 415
10 Ergodische Markovketten Eine homogene Markov-Kette mit Übergangsmatrix P ist ergodisch, wenn sie irreduzibel und aperiodisch ist. Die Zustandsverteilung einer irreduziblen und aperiodischen, homogenen Markovkette konvergiert daher gegen die stationäre Verteilung π. Eine ergodische Markov-Kette wird asymptotisch stationär, d.h. der Einfluss der Startverteilung geht verloren. Helga Wagner Bayes Statistik WS 2010/11 416
11 Ergodische Markovketten Sei P die Übergangsmatrix einer irreduziblen, aperiodischen Markovkette und π ihre stationäre Verteilung. Ist Γ die Übergangsmatrix der Markovkette bei Zeitumkehr, d.h. dann gilt die sogenannte detailed Balance. γ kj = P(Y t = j Y t+1 = k), π k γ kj = π j p jk, (47) Umgekehrt folgt aus der detailed Balance-Bedingung(47) dass π die stationäre Verteilung von P ist. Helga Wagner Bayes Statistik WS 2010/11 417
12 Markov Chain Monte-Carlo Methoden Mit der Übergangsmatrix P einer irreduziblen, aperiodischen Markovkette, deren stationäre Verteilung π ist, können Zufallszahlen Y π folgendermaßen erzeugt werden: Wahl eines beliebigen Startwertes y (0) Simulation der Realisierungen einer Markovkette der Länge M mit Übergangsmatrix P, d.h. (y (1),...,y (M) ) Ab einem gewissen Index t geht der Einfluß der Startverteilung verloren und daher gilt approximativ y (m) π, für m = t,...,m Diese Ziehungen sind zwar identisch, aber nicht unabhängig verteilt. (y (1),...y (t) ) ist der sogenannte Burn-In. Helga Wagner Bayes Statistik WS 2010/11 418
13 Allgemeine Markovkette Erweiterung auf Markovketten mit stetigem Zustandsraum: Allgemeine Markovkette Ein zeitdiskreter stochastischer Prozess Y = {Y t,t N 0 } mit Zustandsraum S heisst (allgemeine) Markov-Kette, wenn die Markov-Eigenschaft P(Y t A Y 0 A 0,Y 1 A 1,...,Y t 2 A t 2,Y t 1 = x) = P(Y t A Y t 1 = x) für beliebige y S und beliebige A 0,A 1,...,A t 2,A S gilt Die Markovkette heisst homogen, falls die Wahrscheinlichkeiten P(Y t A Y t 1 = x) nicht vom Zeitpunkt t abhängen. Helga Wagner Bayes Statistik WS 2010/11 419
14 Übergangskern Ist Y eine homogene Markovkette, so ist ihr Übergangskern. P(x,A) = P(Y t A Y t 1 = x) = P(Y 1 A Y 0 = x) Für eine Markovkette mit endlichem Zustandsaum ist P(x, A) durch die Übergangswahrscheinlichkeitenp j,k,d.h.durchdieübergangsmatrixbestimmt. Ist S = R, so ist der Übergangskern durch die Übergangsdichte p(x,y) mit bestimmt. P(x,A) = A p(x, y)dy Helga Wagner Bayes Statistik WS 2010/11 420
15 Grenzverteilung Eine Verteilung Π auf S mit Dichte π(x) heisst invariant für den Übergangskern P(x,A) genau dann wenn für alle A S gilt Π(A) = P(x, A)π(x)dx. Eine allgemeinen Markovkette ist irreduzibel, wenn von beliebigen Startwert x 0 aus jede Menge A mit Π(A) > 0 mit positiver Wahrscheinlichkeit in einer endlichen Zahl von Schritten erreicht werden kann. {E 1,...,E m 1 } bilden einen m-zyklus, wenn P(x,E i+1 mod m ) = 1 für alle x E i S und alle i. Die Periode d der Markovkette ist der größte Wert m, für den ein m-zyklus existiert und die Kette ist aperiodisch, wenn d = 1. Helga Wagner Bayes Statistik WS 2010/11 421
16 Grenzverteilung Ist Y eine irreduzible, aperiodische Markovkette mit Übergangskern P und invarianter Verteilung π, so ist π eindeutig und es gilt mit t wobei P t (x,.) π(.) 0 P t (x,.) π(.) = 2sup A P t (x,a) π(a) Helga Wagner Bayes Statistik WS 2010/11 422
17 Wahl des Übergangskernes Die Anwendung der MCMC Methoden basiert darauf, zur vorgegebenen Verteilung π(ϑ) = p(ϑ y) eine Markovkette mit Übergangskern P und invarianter Verteilung π zu finden. Für eine irreduzible Markovkette mit gegebenem Übergangskern P ist die invariante Verteilung π eindeutig, nicht aber umgekehrt: Zu einer gegebenen Verteilung π gibt es nicht nur einen Übergangskern mit π als invarianter Verteilung Beispiel: Für eine ( homogene Markov-Kette ) mit zwei Zuständen sei die Übergangsmatrix 1 p p P = mit 0 < p < 1 und 0 < q < 1 und π = (π,1 π) die q 1 q stationäre Verteilung. Das Gleichungssystem für p und q ist unterbestimmt und hat daher unendlich viele Lösungen. Helga Wagner Bayes Statistik WS 2010/11 423
18 Wahl des Übergangskernes Es gibt daher viele Möglichkeiten einen Übergangskern P(ϑ old,a) zu konstruieren, der die notwendige Bedingung Π(A) = P(ϑ old,a)π(ϑ old )dϑ old. (48) mit erfüllt. Üblicherweise benutzt werden π(ϑ) = p(ϑ y) Metropolis-Hastings-Algorithmus (Hastings, 1970; Chib and Greenberg, 1995) Gibbs Sampling (Geman and Geman, 1984; Casella and George, 1992) Helga Wagner Bayes Statistik WS 2010/11 424
19 MCMC zur Bayes-Inferenz Mit Ziehungen ϑ (1),...,ϑ (M) aus einer allgemeinen Markovkette mit stationärer Verteilung π(ϑ) = p(ϑ y) = p(y ϑ)p(ϑ) p(y) kann der Posteriori-Erwartungswert E(g(ϑ) y) = g(ϑ)p(ϑ y)dϑ durch den Mittelwert approximiert werden. ĝ(ϑ) = ϑ 1 M M m=1 g(ϑ (m) ) Helga Wagner Bayes Statistik WS 2010/11 425
20 MCMC zur Bayes-Inferenz Aufgrund der Abhängigkeit der Ziehungen ist die Varianz dieses Schätzers nicht wie bei unabhängigen Ziehungen Var(g)/M sondern E((ĝ(ϑ) E(g(ϑ))) 2 ) = 1 M Ω 0(g). (49) Ω 0 (g) ist die Spektraldichte des Prozesses g(ϑ (m) ) und es gilt (Geweke, 1992): τ = Ω 0(g) Var(g) = 1+2 Dabei ist ρ s die Autokorrelation des Prozesses g(ϑ (m) ) zum Lag s. s=1 ρ s. Helga Wagner Bayes Statistik WS 2010/11 426
21 MCMC zur Bayes-Inferenz τ heisst Ineffizienzfaktor. Je grösser der Ineffizienzfaktor τ, desto ineffizienter ist das Verfahren. Da die Ziehungen üblicherweise positiv korreliert sind, ist τ > 1, d.h. MCMC Ziehungen sind weniger effizient als i.i.d. Ziehungen. Die effektive Stichprobengröße M/τ gibt an, wievielen ua. Ziehungen die M Ziehungen aus der Markov-Kette entsprechen. Annähernd ua. Ziehungen erhält man, wenn nur jeder k te Wert der Stichprobe, also ϑ (1),ϑ (k+1),... zur Inferenz benutzt wird (Verdünnung, thinning). Helga Wagner Bayes Statistik WS 2010/11 427
22 Markov Chain Monte Carlo Verfahren Metropolis-Hastings-Algorithmus Helga Wagner Bayes Statistik WS 2010/11 428
23 Metropolis-Hastings-Algorithmus Im Metropolis-Hastings-Algorithmus wird der Übergangskern der Markovkette erzeugt, indem ausgehend von ϑ (m 1) = ϑ old eine Ziehung aus einer Vorschlagsdichte q(ϑ old,ϑ new ) = q(ϑ new ϑ old ) erfolgt. Der Wert ϑ new wird mit Wahrscheinlichkeit ( α(ϑ new ϑ old ) = α(ϑ old,ϑ new ) = min 1, p(ϑnew y)q(ϑ old ϑ new ) ) p(ϑ old y) q(ϑ new ϑ old ) akzeptiert, d.h. ϑ (m) = ϑ new sonst wird ϑ old beibehalten, dh. ϑ (m) = ϑ old. Dieser Algorithmus erzeugt eine homogene Markovkette. Helga Wagner Bayes Statistik WS 2010/11 429
24 Metropolis-Hastings-Algorithmus Ein Übergang von x = ϑ old nach z = ϑ new ϑ old findet statt, wenn ϑ new ausgehend von ϑ old vorgeschlagen wird und ϑ new akzeptiert wird, sonst bleibt die Kette in x = ϑ old. Der Übergangskern der Markovkette ist also P(x,A) = p(x,z)dz +r(x)δ x (A) A mit und p(x,z) = { q(x,z)α(x,z) x z r(x) = 1 0 sonst p(x, z)dz. Helga Wagner Bayes Statistik WS 2010/11 430
25 Die invariante Verteilung Die Posteriori-Verteilung p(ϑ y) ist die invariante Verteilung der Markovkette. Wir zeigen zunächst, dass die detailed balance Bedingung p(x y)p(x, z) = p(z y)p(z, x) gilt: p(x y)p(x, z) = p(x y)q(x, z)α(x, z) = p(x y)q(x, z) min (1, p(z y)q(z,x) ) p(x y)q(x, z) ( ) = min p(x y)q(x, z), p(z y)q(z, x) = = p(z y)q(z, x) min ( p(x y)q(x,z) p(z y)q(z,x),1 ) = = = p(z y)p(z, x) Helga Wagner Bayes Statistik WS 2010/11 431
26 Die invariante Verteilung p(x y) ist die invariante Verteilung: P(x,A)p(x y)dx = = = A = ( A A A ) p(x, z)dz p(x y)dx + ( p(x,z)p(x y)dx) dz + ( p(z,x)p(z y)dx) dz + (1 r(z))p(z y)dz + A p(z y)dz = P(A y) A A A r(x)p(x y)dx = r(x)δ x (A)p(x y)dx = r(x)p(x y)dx = r(x)p(x y)dx = Helga Wagner Bayes Statistik WS 2010/11 432
27 Anwendung des MH-Algorithmus Die Akzeptanzwahrscheinlichkeit kann berechnet werden als α(ϑ new ϑ old ) = min = min ( 1, p(ϑnew y)q(ϑ old ϑ new ) p(ϑ old y) q(ϑ new ϑ old ) = ( 1, p(y ϑnew )p(ϑ new )q(ϑ old ϑ new ) ) p(y ϑ old )p(ϑ old )q(ϑ new ϑ old ) = Die Normierungskonstante p(y) muss also zur Anwendung des MH- Algortihmus nicht bekannt sein. Für die Konvergenz des Algorithmus ist Irreduzibilität und Aperiodizität der Markov-Kette erforderlich. Diese Eigenschaften sind theoretisch schwer zu überprüfen = Analyse der Ziehungen Helga Wagner Bayes Statistik WS 2010/11 433
28 Wahl der Vorschlagsdichte Grundsätzlich liefert praktisch jede Vorschlagsdichte Ziehungen aus der gewünschten Verteilung (Tierney, 1994), allerdings hängt die Effizienz von der gewählten Vorschlagsdichte ab. Die Vorschlagsdichte soll so gewählt werden, dass daraus leicht Zufallszahlen erzeugt werden können die Akzeptanzraten nicht zu klein sind Helga Wagner Bayes Statistik WS 2010/11 434
29 Wahl der Vorschlagsdichte Independence Proposal Die Vorschlagsdichte ist u.a. vom aktuellen Wert, d.h. q(ϑ new ϑ old ) = q(ϑ new ). Die Akzeptanzwahrscheinlichkeit beträgt α(ϑ new ϑ old ) = min ( 1, p(ϑnew y)q(ϑ old ) ) p(ϑ old y) q(ϑ new ) Ein einfacher Spezialfall ergibt sich, wenn die Vorschlagsdichte die Zielverteilung p(ϑ y) ist. Dann wird jeder Vorschlag akzeptiert. Helga Wagner Bayes Statistik WS 2010/11 435
30 Wahl der Vorschlagsdichte Random Walk Proposal Die Vorschlagsdichte ist ein Random Walk d.h. d.h. q(ϑ new ϑ old ) = f(ϑ new ϑ old ). ϑ new = ϑ old +ε, ε f, Für einen symmetrischen Random Walk ist die Akzeptanzwahrscheinlichkeit ( α(ϑ new ϑ old ) = min 1, p(ϑnew y) ) p(ϑ old y) ( = min 1, p(y ϑnew )p(ϑ new ) p(y ϑ old )p(ϑ old ) ) Ein Vorschlag ϑ new mit p(ϑ new y) > p(ϑ old y) wird immer akzeptiert. Helga Wagner Bayes Statistik WS 2010/11 436
31 Normal Random Walk Eine übliche Wahl ist die Vorschlagsdichte ϑ new N ( ) ϑ old,c, mit fester Varianz-Kovarianzmatrix C. kleine Skala = kleine Schritte ϑ new ϑ old mit i.a. hohen Akzeptanzraten, aber hohen Autokorrelationen. Extremfall C 0: Akzeptanzrate von 1, τ große Skala = große Schritte ϑ new ϑ old mit Vorschlägen oft in den Enden der Verteilung und daher kleinen Akzeptanzraten Helga Wagner Bayes Statistik WS 2010/11 437
32 Multivariate Zielverteilung Anwendung des MH-Algorithmus zum Ziehen eines multivariate Parametern ϑ ist ineffizient, wenn Vorschläge für den gesamten Parameter niedrige Akzeptanzraten haben. Eine Alternative besteht darin, Metropolis-Hastings-Schritte für die einzelnen Komponenten durchzuführen, d.h. einen Vorschlag jeweils nur für eine Komponente ϑ j zu machen. Die Komponenten können in einer festen oder in einer zufälligen Reihenfolge aufdatiert werden. Helga Wagner Bayes Statistik WS 2010/11 438
33 Eye Tracking: MH-Algorithmus Modell: y i NegBin(θ,β), d.h. p(y i ;θ,β) = ( θ +y i 1 θ 1 ) ( β ) θ ( 1 ) yi β +1 β +1 Ua. Priori-Verteilungen: θ G(1,1), β G(1,0) Algorithmus: 2- Block Sampler Wähle einen Startwerte für θ (0) und ziehe (a) β (m) aus p(β θ (m 1),y) (b) θ (m) aus p(θ β (m),y). Helga Wagner Bayes Statistik WS 2010/11 439
34 Eye Tracking: MH-Algorithmus Die bedingten Dichten sind gegeben als ( β ) nθ ( 1 ) y i p(β θ,y) p(y θ,β)p(θ,β) β +1 β +1 p(θ β,y) p(y θ,β)p(θ,β) ( ) θ +y i 1 ( β ) nθexp( θ) θ 1 β +1 i Für den transformierten Parameter π = β/(1 + β) hat die bedingte Dichte p(π θ, y) den Kern einer Beta-Verteilung: p(π θ,y) π nθ (1 π) y i 1 (1 π) 2 Vorschlag π B(nθ +1, y i 1) mit Akzeptanzrate 1 möglich Helga Wagner Bayes Statistik WS 2010/11 440
35 Eye Tracking: MH-Algorithmus Log-Normal Random walk Proposal für θ, d.h. logθ new N ( logθ old,c ) : Erzeuge θ new = exp(logθ old + Cε) ε N (0,1). Damit ist q(θ new θ old ) = 1/θ new. Akzeptiere θ new wenn für u U [0,1] gilt log(u) log(α(θ new θ old ) = min(0,h(θ new π,y) h(θ old π,y) mit h(θ π,y) = log(p(θ β,y)θ)+c = = i log(γ(θ+y i )) nlog(γ(θ))+nθlog(π) θ+log(θ) Helga Wagner Bayes Statistik WS 2010/11 441
36 Eye Tracking: MH-Algorithmus Abhängigkeit der Akzeptanzrate von der Varianz der Vorschlagsdichte C Akzeptanzrate Helga Wagner Bayes Statistik WS 2010/11 442
37 Eye Tracking: MH-Algorithmus 2 Posterior Draws for α 2 Posterior Draws for α 2 Posterior Draws for α Abbildung 45: Posteriori-Ziehungen von α für verschiedene Vorschlagsdichten (links C = 2, Mitte: C = 0.02, rechts: C = 0.3) Helga Wagner Bayes Statistik WS 2010/11 443
38 Eye Tracking: MH-Algorithmus Einfluß des Startwertes 2 Posterior Draws for α 0.5 Posterior Draws for β Abbildung 46: Posteriori-Ziehungen von α (links) und β (rechts) für verschiedene Startwerte α (0) and β (0) Helga Wagner Bayes Statistik WS 2010/11 444
39 SFr Wechselkurs-Daten: MH-Algorithmus ( Modell: y i t ) ν µ,σ 2 mit bekanntem ν = 4 Priori-Verteilung: p(µ,σ 2 ν). Algorithmus: Single Move Sampler Wähle einen Startwert für σ 2,(0) und ziehe für m = 1,...,M (a) µ (m) aus p(µ σ 2,(m 1),y): Normal Random Walk Vorschlag (b) σ 2,(m) aus p(σ 2 µ (m),y): Log-Normal Random Walk Vorschlag Die ersten M 0 Ziehungen (Burn-In) werden zur Schätzung nicht verwendet. Helga Wagner Bayes Statistik WS 2010/11 445
40 SFr Wechselkurs-Daten: MH-Algorithmus Die bedingten Dichten sind gegeben als p(µ σ 2,y) p(y µ,σ 2 )p(µ,σ 2 ) p(α β,y) p(y µ,σ 2 )p(µ,σ 2 ) p(y µ,σ 2,ν) ist die Likelihood des Student t-modells. Helga Wagner Bayes Statistik WS 2010/11 446
41 SFr Wechselkurs-Daten: MH-Algorithmus Sampling-Schritte: (a) Der Vorschlag µ new N ( µ (m 1),c 2 µ) wird akzeptiert, wenn wobei u 1 U [0,1] u 1 p(y µnew,σ 2,(m 1),ν)p(µ new,σ 2,(m 1) ν) p(y µ (m 1),σ 2,(m 1),ν)p(µ (m 1),σ 2,(m 1) ν), (b) Vorgeschlagen wird logσ (2,new) N ( logσ 2,(m 1),c 2 s). Der Vorschlag σ (2,new) wird akzeptiert, wenn u 2 p(y µ(m),σ (2,new),ν)p(µ (m),σ (2,new) ν)σ (2,new) p(y µ (m),σ 2,(m 1),ν)p(µ (m),σ 2,(m 1) ν)σ 2,(m 1), wobei u 2 U [0,1] Helga Wagner Bayes Statistik WS 2010/11 447
42 SFr Wechselkurs-Daten: MH-Algorithmus Tuning: Wahl der Standardabweichungen c µ and c s der Vorschlagsdichten Ziehen mit verschiedenen Werten der Standardabweichung von verschiedenen Startwerten Bestimmen von Akzeptanzrate (acc) Ineffizienzfaktor (ineff) Helga Wagner Bayes Statistik WS 2010/11 448
43 SFr Wechselkurs-Daten: MH-Algorithmus 0.6 acc: ineff: σ σ Iteration m acc: Iteration m acc: Lag 1 ineff: Lag 1 ineff: σ Iteration m Lag Abbildung 47: SFr Wechselkurs-Daten, t 4 ( µ,σ 2 ) : je 2 Pfade für Posteriori-Ziehungen von σ 2. Oben: c s = 0.01, Mitte: c s = 0.1, unten: c s = 1 Helga Wagner Bayes Statistik WS 2010/11 449
44 SFr Wechselkurs-Daten: MH-Algorithmus Sowohl zu hohe als auch zu niedrige Akzeptanzraten führen zu einem ineffizienten Sampler: = Wahl c s = 0.1 Für c µ = 0.05 ist die Akzeptanzrate ca. 25%, der Ineffizienzfaktor 6 (geringe Abhängigkeit von der Vorschlagsdichte für σ 2. Burn-In: erste 1000 Werte Aus den letzten 4000 Ziehungen werden Posteriori-Erwartungswert und HPD- Intervalle (approximativ) bestimmt Parameter Posteriori-Erwartungswert 95%-HPD-Intervall µ ; [-0.017, 0.026] σ 2 ν/(ν 2) 0.6 [ 0.56, 0.64] Helga Wagner Bayes Statistik WS 2010/11 450
45 SFr Wechselkurs-Daten: MH-Algorithmus 40 Posterior of µ 20 Posterior of σ 2 ν/(ν 2) µ σ 2 ν/(ν 2) Abbildung 48: SFr Wechselkurs-Daten, t 4 ( µ,σ 2 ), Priori: p(µ,σ 2 ) 1/σ 2 : Posteriori-Dichten für µ und σ 2 ν/(ν 2) Helga Wagner Bayes Statistik WS 2010/11 451
46 MH-Algorithmus für die Parameter der Student-Verteilung ( Modell: y i t ) ν µ,σ 2 Priori-Verteilung: p(µ,σ 2, ν). Algorithmus: Single Move Sampler Wähle einen Startwerte für σ 2,(0) und ν (0) und und ziehe für m = 1,...,M (a) µ (m) aus p(µ σ 2,(m 1),ν (m 1),y): Normal Random Walk Vorschlag (b) σ 2,(m) aus p(σ 2 µ (m),ν (m 1),y): Log-Normal Random Walk Vorschlag (c) ν (m) aus p(ν µ (m),σ 2,(m) y): Log-Normal Random Walk Vorschlag Die ersten M 0 Ziehungen (Burn-In) werden zur Schätzung nicht verwendet. Helga Wagner Bayes Statistik WS 2010/11 452
47 MH-Algorithmus für die Parameter der Student-Verteilung Schritt (a) und (b) sind wie im Fall ν bekannt (c) Vorgeschlagen wird logν new N ( logν (m 1),c 2 ν). Der Vorschlag ν new wird akzeptiert, wenn u 3 p(y µ (m),σ 2,(m),ν new )p(µ (m),σ 2,(m),ν new )ν new p(y µ (m),σ 2,(m),ν (m 1) )p(µ (m),σ 2,(m),ν (m 1) )ν (m 1) wobei u 3 U [0,1]. p(y µ,σ 2,ν) ist die Likelihood des Student-Modells. Helga Wagner Bayes Statistik WS 2010/11 453
48 Ziehen aus einer uneigentlichen Posteriori-Verteilung Was passiert bei Implementierung des MH-Algorithmus mit uneigentlicher Posteriori-Verteilung, z.b. p(ν) = 1/ν? Für die Priori-Verteilung p(ν) = 1/ν hängt die Akzeptenzrate nur von den Werten der Likelihood ab. Diese ist in den Enden der Verteilung jedoch praktisch konstant in ν: Liegen sowohl ν old and der Vorschlag ν new in den Enden = Akzeptanzwahrscheinlichkeit 1 Sampler bleibt in den Enden bis ein Wert aus dem modalen Bereich der Likelihood vorgeschlagen wird Helga Wagner Bayes Statistik WS 2010/11 454
49 Ziehen aus einer uneigentlichen Posteriori-Verteilung Sei ν old ein Wert aus dem modalen Bereich. Die Wahrscheinlichkeit dafür, dass ein Wert aus den Enden der Verteilung vorgeschlagen und akzeptiert wird ist R(ν old ) c N(µ,σ 2 ) p(y ν old,µ,σ 2 ), wobei c N (µ,σ 2 ) die Likelihood unter dem Normalmodell ist (ν ). Je kleiner R(ν old ) desto geringer ist das Risiko, dass der Sampler in den Enden der Verteilung hängen bleibt Helga Wagner Bayes Statistik WS 2010/11 455
50 Ziehen aus einer uneigentlichen Posteriori-Verteilung 4.5 Data Set 1 (ν 0 =1) acc: Posterior of ν ν Iteration m x ν Data Set 1 (ν 0 =1) acc: Posterior of σ σ Iteration m x σ 2 Abbildung 49: Daten 1: 1000 Werte t 3 (0,1). links: MCMC Ziehungen für ν und σ 2 Rechts: Posteriori -Verteilungen p(ν y) und p(σ 2 y) unter den Priori-Verteilungen p(ν) = 1/ν (strichliert) und ν U [0, 200] (voll) Die Posteriori-Verteilung ist uneigentlich für p(ν) = 1/ν! Helga Wagner Bayes Statistik WS 2010/11 456
51 Ziehen aus einer uneigentlichen Posteriori-Verteilung Data Set 2 (ν 0 =1) acc: Data Set 2 (ν 0 = 200) acc: ν 1000 ν Iteration m Iteration m Abbildung 50: Daten 2: 1000 Werte t 10 (0,1). MCMC Ziehungen von ν. Links: Priori p(ν) = 1/ν; rechts: U [0, 200]-Prior jeweils mit Startwert ν (0) = 100, und σ 2,(0) = 10) Helga Wagner Bayes Statistik WS 2010/11 457
52 Ziehen aus einer uneigentlichen Posteriori-Verteilung 10 x Data Set 3 (ν 0 =1) acc: Data Set 3 (ν 0 = 200) acc: ν Iteration m ν Iteration m Abbildung 51: Daten 3: 1000 Werte t 100 (0,1)MCMC Ziehungen von ν. Links: Priori p(ν) = 1/ν; rechts: U [0, 200]-Prior jeweils mit wahrem Wert als Startwert Helga Wagner Bayes Statistik WS 2010/11 458
53 Anwendung: SFr Wechselkurs-Daten Likelihood ν σ Abbildung 52: SFr Wechselkurs-Daten: Likelihood des t ν ( 0,σ 2 ) -Modells mit ν und σ 2 unbekannt Helga Wagner Bayes Statistik WS 2010/11 459
54 Anwendung: SFr Wechselkurs-Daten Log Likelihood ν σ Abbildung 53: SFr Wechselkurs-Daten:Log-likelihood des t ν ( 0,σ 2 ) -Modells mit ν und σ 2 unbekannt Helga Wagner Bayes Statistik WS 2010/11 460
55 Anwendung: SFr Wechselkurs-Daten 4000 log L(y ν, σ 2 fixed) 1 L(y ν, σ 2 fixed) 4500 σ 2 = σ 2 = σ 2 = σ 2 = σ 2 = ν σ 2 = ν Abbildung 54: SFr Wechselkurs-Daten: Likelihood- und Log-Likelihood-Profile für verschiedene Werte von σ 2 Helga Wagner Bayes Statistik WS 2010/11 461
56 Anwendung: SFr Wechselkurs-Daten acc: x acc: ν ν Iteration m Iteration m Abbildung 55: SFr Wechselkurs-Daten: MCMC Ziehungen aus der uneigentlichen Posteriori-Verteilung. Startwerte: ν (0) = 4, verschiedene Startwerte für σ (2,0). Links: σ (2,0) zwischen 1 und 10, rechts: σ (2,0) = 100 Helga Wagner Bayes Statistik WS 2010/11 462
57 Anwendung: SFr Wechselkurs-Daten 1 Posterior of ν ν Abbildung 56: SFr Wechselkurs-Daten: Posteriori-Dichten von ν unter Priori p(ν) = (1/ν) n 0. Voll: eigentliche Posteriori für n 0 = 2, strichliert: uneigentliche Posteriori für n 0 = 0 Helga Wagner Bayes Statistik WS 2010/11 463
58 Anwendung: SFr Wechselkurs-Daten 40 Posterior of µ 25 Posterior of σ 2 ν/(ν 2) µ σ 2 ν/(ν 2) Abbildung 57: SFr Wechselkurs-Daten, Posteriori-Dichten von µ und σ 2 unter Priori p(ν) = (1/ν) n 0. Voll: eigentliche Posteriori für n 0 = 2, strichliert: uneigentliche Posteriori für n 0 = 0. Strichpunkt: ν = 4 fest Helga Wagner Bayes Statistik WS 2010/11 464
Der Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrStochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrEndliche Markov-Ketten - eine Übersicht
Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrKapitel 3 Markov-Ketten
Kapitel 3 Markov-Ketten 3.1 Grundlegende Eigenschaften, Beispiele 3.1 Grundlegende Eigenschaften, Beispiele Diskreter Parameterraum (Zeit) T = N 0. Zustandsraum S meist diskret (3.1-3.6), manchmal auch
Mehr16.3 Rekurrente und transiente Zustände
16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht
MehrBayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194
Bayes Prognose Helga Wagner Bayes Statistik WS 2010/11 194 Prognose einer weiteren Beobachtung Verkehrssicherheitsdaten Senioren: Wieviele Senioren werden in Linz im kommenden Monat getötet oder schwerverletzt?
MehrBayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301
Bayes Inferenz Schätzen und Testen von Hypothesen Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Punktschätzung Entscheidungstheoretischer Ansatz: Wahl des Punktschätzers ist eine Aktion, die möglicherweise
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrEinführung in die Theorie der Markov-Ketten. Jens Schomaker
Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch
MehrStudiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit.
Studiengang Diplom-Mathematik DIPLOMARBEIT Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit eingereicht von Christina Gunkel am 3. Juni 2008 Erste Gutachterin: Zweiter Gutachter:
MehrEinführung in Markoff-Ketten
Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die
MehrMCMC. Ausarbeitung zum Seminar: The Top 10 Algorithms. Claudia Spellecchia Dübendorf, Schweiz Matrikelnummer
MCMC Ausarbeitung zum Seminar: The Top 10 Algorithms Claudia Spellecchia Dübendorf, Schweiz claudisp@student.ethz.ch Matrikelnummer 04-722-583 Abgabe der Arbeit: 13.03.2008 INHALTSVERZEICHNIS 1 Inhaltsverzeichnis
MehrBedingt unabhängige Zufallsvariablen
7. Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Benannt nach Andrei A. Markov [856-9] Einige Stichworte: Markov-Ketten Definition Eigenschaften Konvergenz Hidden Markov Modelle Sei X
MehrEin Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr
Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,
MehrPartition Modelling. Sebastian Keim, Benedikt Jahn. Seminar. Stochastische Geometrie und ihre Anwendungen - Zufällige Netzwerke, 2008
Sebastian Keim, Benedikt Jahn Seminar Stochastische Geometrie und ihre Anwendungen - Zufällige Netzwerke, 2008 1 Motivation 2 3 4 5 6 1 Motivation 2 3 4 5 6 aus der Schadenversicherung - der Orkan Kyrill
MehrTeil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation
Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit
MehrDer Ergodensatz. Hendrik Hülsbusch
Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen
MehrWahrscheinlichkeitsverteilungen
Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet
MehrSimulationsmethoden in der Bayes-Statistik
Simulationsmethoden in der Bayes-Statistik Hansruedi Künsch Seminar für Statistik, ETH Zürich 6. Juni 2012 Inhalt Warum Simulation? Modellspezifikation Markovketten Monte Carlo Simulation im Raum der Sprungfunktionen
MehrStatistics, Data Analysis, and Simulation SS 2015
Mainz, May 12, 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler
MehrW-Rechnung und Statistik für Ingenieure Übung 11
W-Rechnung und Statistik für Ingenieure Übung 11 Aufgabe 1 Ein Fahrzeugpark enthält 6 Fahrzeuge. Jedes Fahrzeug hat die Wahrscheinlichkeit p = 0.1 (bzw. p = 0.3), dass es kaputt geht. Pro Tag kann nur
MehrStatistik. Andrej Depperschmidt. Sommersemester 2016
Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i
Mehr1 A dp = P(A B). (1.3)
Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare
Mehr80 7 MARKOV-KETTEN. 7.1 Definition und Eigenschaften von Markov-Ketten
80 7 MARKOV-KETTEN 7 Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Sei X = (X 0, X, X 2,...) eine Folge von diskreten Zufallsvariablen, die alle Ausprägungen in einer endlichen bzw. abzählbaren
MehrEinführung in die Bayes-Statistik
Einführung in die Bayes-Statistik Volker Schmid, Clara Happ 27. 30. März 2017 Institut für Statistik Ludwig Maximilians Universität München 1 Inhaltsverzeichnis 1 Der Satz von Bayes 3 1.1 Wahrscheinlichkeitsrechnung......................
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrPr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
MehrMarkov Ketten und Bonus Malus Systeme
Grund Stoch Markov Ketten Bonus Malus Probleme L 1 / 46 Markov Ketten und Bonus Malus Systeme Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden TU Wien 19. Mai 2010
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrBAYES SCHE STATISTIK
BAES SCHE STATISTIK FELIX RUBIN EINFÜHRUNG IN DIE STATISTIK, A.D. BARBOUR, HS 2007 1. Einführung Die Bayes sche Statistik gibt eine weitere Methode, um einen unbekannten Parameter θ zu schätzen. Bisher
MehrKapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren
Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander
Mehr1.3 Wiederholung der Konvergenzkonzepte
1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
MehrDWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr
2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,
MehrExact Sampling: Der Propp-Wilson-Algorithmus
Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München gerstel@in.tum.de Zusammenfassung Der Propp-Wilson-Algorithmus liefert
MehrDie Kopplung von Markovketten und die Irrfahrt auf dem Torus
Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag 20.05.20 Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung
0 Einführung 1 Wahrscheinlichkeitsrechnung Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung Motivation und Hinführung Der wahre Anteil der rot-grün Wähler 009 war genau
MehrVorlesung: Lineare Modelle
Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen
MehrKapitel 5: Markovketten
Kapitel 5: Markovketten Definition 5.1 Bezeichnungen Bsp. 5.1 Definition 5.2 Eine Fam. (X i ) i I von ZV en X i : Ω E auf (Ω, F, P) mit Werten im messb. Raum (E, E) heißt Stochastischer Prozess. E Zustandsraum
MehrLösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten
Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage
MehrSchwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik
Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrEinführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1
Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrKapitel 4: Irreduzible und aperiodische Markov Ketten 1
Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)
SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013
MehrZeitstetige Markov-Prozesse: Einführung und Beispiele
Zeitstetige Markov-Prozesse: Einführung und Beispiele Simone Wielart 08.12.10 Inhalt Q-Matrizen und ihre Exponentiale Inhalt Q-Matrizen und ihre Exponentiale Zeitstetige stochastische Prozesse Inhalt Q-Matrizen
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrStationäre Maße und Zeitmittel
Stationäre Maße und Zeitmittel Clara Strohm SS 2003 Seminar Wahrscheinlichkeitstheorie Wir untersuchen im folgenden das Langzeitverhalten in diesem Fall gleichmäßige Konvergenz im Césaro-Mittel diskreter,
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrBayes Inferenz. Helga Wagner Bayes Statistik WS 2010/11 245
Bayes Inferenz Helga Wagner Bayes Statistik WS 2010/11 245 Statistische Inferenz Beobachtungen: Daten y = (y 1,...,y n ) Y Annahme: Daten werden von einem (stochastischen) Modell spezifiziert durch einen
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
MehrWahrscheinlichkeitsrechnung und Statistik
5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften
MehrGibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells
Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren
Mehr7. Stochastische Prozesse und Zeitreihenmodelle
7. Stochastische Prozesse und Zeitreihenmodelle Regelmäßigkeiten in der Entwicklung einer Zeitreihe, um auf zukünftige Entwicklung zu schließen Verwendung zu Prognosezwecken Univariate Zeitreihenanalyse
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
MehrLösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrDas Bayes'sche Prinzip
Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem
MehrBrownsche Bewegung. M. Gruber. 19. März Zusammenfassung
Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische
MehrStatistik - Fehlerrechnung - Auswertung von Messungen
Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler
MehrÜbungsaufgaben Lösungen
Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij
Mehr2.1 Importance sampling: Metropolis-Algorithmus
Kapitel 2 Simulationstechniken 2.1 Importance sampling: Metropolis-Algorithmus Eine zentrale Fragestellung in der statistischen Physik ist die Bestimmung von Erwartungswerten einer Observablen O in einem
Mehr3 Markov-Eigenschaft der Brownschen Bewegung
Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t
MehrFolie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrDie Abbildung zeigt die Kette aus dem "
½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau
MehrVertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 3: Lineares Modell, Klassifikation, PCA Randolf Altmeyer January 9, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
Mehr5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung
5 Konfidenzschätzung 5. Einige Grundbegriffe zur Konfidenzschätzung Diesem Kapitel liegt das parametrische Modell {X, B X, P } mit P {P Θ} zugrunde. {Θ, B Θ } sei ein Meßraum über Θ und µ ein σ-finites
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrMultivariate Verteilungen
Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrNachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!!
Nachholklausur zur Vorlesung Schätzen und Testen I 04. April 2013 Volker Schmid, Ludwig Bothmann, Julia Sommer Aufgabe 1 2 3 4 5 6 Punkte Note Bitte ausfüllen und unterschreiben!!! Name, Vorname: Matrikelnummer:
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
MehrWahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme
Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder
MehrBrownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung
Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
MehrSimulation von Zufallsvariablen und Punktprozessen
Simulation von Zufallsvariablen und Punktprozessen 09.11.2009 Inhaltsverzeichnis 1 Einleitung 2 Pseudozufallszahlen 3 Punktprozesse Zufallszahlen Definition (Duden): Eine Zufallszahl ist eine Zahl, die
MehrKapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen
Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion
MehrParameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),
Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu
Mehr7 Zufallszahlen, Simulation
7 Zufallszahlen, Simulation Es ist nützlich, Folgen von i.i.d. R[0, 1]-verteilten Zufallszahlen auf einem Rechner erzeugen zu können vgl. Simulation, Monte-Carlo-Verfahren). Letztere sind i.a. keine echten
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrSpezielle stetige Verteilungen
Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für
MehrGEODÄTISCHES INSTITUT HANNOVER
Alexander Dorndorf, M.Sc. GEODÄTISCHES INSTITUT HANNOVER Entwicklung eines robusten Bayesschen Ansatzes für klein-redundante Ausgleichungsmodelle Motivation Funktionaler Zusammenhang: h = β 0 + β 1 x +
MehrBrownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung
Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
MehrPunktschätzer Optimalitätskonzepte
Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,
MehrStatistik für Informatiker, SS Verteilungen mit Dichte
1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
Mehr