Markov Chain Monte Carlo Verfahren. Helga Wagner Bayes Statistik WS 2010/11 407

Größe: px
Ab Seite anzeigen:

Download "Markov Chain Monte Carlo Verfahren. Helga Wagner Bayes Statistik WS 2010/11 407"

Transkript

1 Markov Chain Monte Carlo Verfahren Helga Wagner Bayes Statistik WS 2010/11 407

2 Einführung Simulationsbasierte Bayes-Inferenz erfordert Ziehungen aus der Posteriori- Verteilung MCMC-Verfahren ermöglichen es, aus komplizierten, auch hochdimensionalem Verteilungen zu ziehen Idee: Erzeugen einer Markovkette, deren stationäre Verteilung die Posteriori- Verteilung ist: Die generierten Ziehungen ϑ (m),m = 1,...,M sind dann voneinander abhängig. Nach dem Ergodensatz konvergiert das Mittel 1 M M m=1 g(ϑ (m) ) gegen den Posteriori-Erwartungswert E(g(ϑ) y) = g(ϑ)p(ϑ y)dϑ. Helga Wagner Bayes Statistik WS 2010/11 408

3 Markov Chain Monte Carlo Verfahren Wiederholung: Markov-Ketten Helga Wagner Bayes Statistik WS 2010/11 409

4 Markov-Ketten Ein zeitdiskreter stochastischer Prozess Y = {Y t,t N 0 } mit abzählbarem Zustandsraum S heisst Markov-Kette, wenn P(Y t = k Y 0 = j 0,Y 1 = j 1,...,Y t 1 = j t 1 ) = P(Y t = k Y t 1 = j t 1 ). für alle t 0 und für alle k,j 0,...,j t 1 S gilt. Helga Wagner Bayes Statistik WS 2010/11 410

5 Markov-Ketten P(Y t+1 = k Y t = j) heisst einschrittige Übergangswahrscheinlichkeit. DieMarkovketteisthomogen,wenndieÜbergangswahrscheinlichkeitenP(Y t+1 = k Y t = j) nicht von t abhängen p jk = P(Y t+1 = k Y t = j) = P(Y 1 = k Y 0 = j) Die Matrix P = (p jk ) heisst Übergangsmatrix. Helga Wagner Bayes Statistik WS 2010/11 411

6 Irreduzible Markovketten Eine Markov-Kette heisst irreduzibel, falls für alle j, k S eine positive Zahl 1 t < existiert, sodass P(Y t = k Y 0 = j) > j, d.h. Zustand k ist von Zustand j in einer endlichen Zahl von Schritten erreichbar. Die Periode eines Zustands k ist der grösste gemeinsame Teiler der Zeitpunkte n, zu denen eine Rückkehr möglich ist: d(k) = GGT{t 1 : P(Y t = k Y 0 = k) > 0} Falls alle Zustände einer Markov-Kette die Periode 1 haben, nennt man die Markov-Kette aperiodisch. Helga Wagner Bayes Statistik WS 2010/11 412

7 Rückkehrverhalten Die Wahrscheinlichkeit dafür, dass eine in k startende homogene Markov-Kette irgendwann wieder nach k zurückkehrt, d.h. f kk = P(Y t = k;y t 1 k,...,y 1 k Y 0 = k) t=1 heisst Rückkehrwahrscheinlichkeit, und T kk = min(t 1 : Y t = k Y 0 = i) Rückkehrzeit (Rekurrenzzeit) des Zustandes k. Der Zustand k heisst rekurrent, falls f kk = 1 Ein rekurrenter Zustand k ist positiv rekurrent, falls E(T kk ) < bzw. nullrekurrent, falls E(T kk ) nicht exisitiert. Helga Wagner Bayes Statistik WS 2010/11 413

8 Irreduzible Markovketten Eine diskrete Wahrscheinlichkeitsverteilung π heisst invariante Verteilung der homogenen Markovkette Y t bzw. ihrer Übergangsmatrix P, wenn gilt: π = πp. Die invariante Verteilung einer irreduziblen Markovkette ist eindeutig, wenn alle Zustände positiv rekurrent sind. Helga Wagner Bayes Statistik WS 2010/11 414

9 Ergodische Markovketten Eine Markov-Kette heisst ergodisch, wenn die Zustandsverteilung π t von Y t für jede beliebige Startverteilung π 0 gegen dieselbe Wahrscheinlichkeitsverteilung π konvergiert: lim t πt = lim π 0 P t = π. t Die Grenzverteilung einer ergodischen Markov-Kette ist π die invariante Verteilung π = lim t π t = lim t ( π t P ) = ( lim πt) P = πp. t Helga Wagner Bayes Statistik WS 2010/11 415

10 Ergodische Markovketten Eine homogene Markov-Kette mit Übergangsmatrix P ist ergodisch, wenn sie irreduzibel und aperiodisch ist. Die Zustandsverteilung einer irreduziblen und aperiodischen, homogenen Markovkette konvergiert daher gegen die stationäre Verteilung π. Eine ergodische Markov-Kette wird asymptotisch stationär, d.h. der Einfluss der Startverteilung geht verloren. Helga Wagner Bayes Statistik WS 2010/11 416

11 Ergodische Markovketten Sei P die Übergangsmatrix einer irreduziblen, aperiodischen Markovkette und π ihre stationäre Verteilung. Ist Γ die Übergangsmatrix der Markovkette bei Zeitumkehr, d.h. dann gilt die sogenannte detailed Balance. γ kj = P(Y t = j Y t+1 = k), π k γ kj = π j p jk, (47) Umgekehrt folgt aus der detailed Balance-Bedingung(47) dass π die stationäre Verteilung von P ist. Helga Wagner Bayes Statistik WS 2010/11 417

12 Markov Chain Monte-Carlo Methoden Mit der Übergangsmatrix P einer irreduziblen, aperiodischen Markovkette, deren stationäre Verteilung π ist, können Zufallszahlen Y π folgendermaßen erzeugt werden: Wahl eines beliebigen Startwertes y (0) Simulation der Realisierungen einer Markovkette der Länge M mit Übergangsmatrix P, d.h. (y (1),...,y (M) ) Ab einem gewissen Index t geht der Einfluß der Startverteilung verloren und daher gilt approximativ y (m) π, für m = t,...,m Diese Ziehungen sind zwar identisch, aber nicht unabhängig verteilt. (y (1),...y (t) ) ist der sogenannte Burn-In. Helga Wagner Bayes Statistik WS 2010/11 418

13 Allgemeine Markovkette Erweiterung auf Markovketten mit stetigem Zustandsraum: Allgemeine Markovkette Ein zeitdiskreter stochastischer Prozess Y = {Y t,t N 0 } mit Zustandsraum S heisst (allgemeine) Markov-Kette, wenn die Markov-Eigenschaft P(Y t A Y 0 A 0,Y 1 A 1,...,Y t 2 A t 2,Y t 1 = x) = P(Y t A Y t 1 = x) für beliebige y S und beliebige A 0,A 1,...,A t 2,A S gilt Die Markovkette heisst homogen, falls die Wahrscheinlichkeiten P(Y t A Y t 1 = x) nicht vom Zeitpunkt t abhängen. Helga Wagner Bayes Statistik WS 2010/11 419

14 Übergangskern Ist Y eine homogene Markovkette, so ist ihr Übergangskern. P(x,A) = P(Y t A Y t 1 = x) = P(Y 1 A Y 0 = x) Für eine Markovkette mit endlichem Zustandsaum ist P(x, A) durch die Übergangswahrscheinlichkeitenp j,k,d.h.durchdieübergangsmatrixbestimmt. Ist S = R, so ist der Übergangskern durch die Übergangsdichte p(x,y) mit bestimmt. P(x,A) = A p(x, y)dy Helga Wagner Bayes Statistik WS 2010/11 420

15 Grenzverteilung Eine Verteilung Π auf S mit Dichte π(x) heisst invariant für den Übergangskern P(x,A) genau dann wenn für alle A S gilt Π(A) = P(x, A)π(x)dx. Eine allgemeinen Markovkette ist irreduzibel, wenn von beliebigen Startwert x 0 aus jede Menge A mit Π(A) > 0 mit positiver Wahrscheinlichkeit in einer endlichen Zahl von Schritten erreicht werden kann. {E 1,...,E m 1 } bilden einen m-zyklus, wenn P(x,E i+1 mod m ) = 1 für alle x E i S und alle i. Die Periode d der Markovkette ist der größte Wert m, für den ein m-zyklus existiert und die Kette ist aperiodisch, wenn d = 1. Helga Wagner Bayes Statistik WS 2010/11 421

16 Grenzverteilung Ist Y eine irreduzible, aperiodische Markovkette mit Übergangskern P und invarianter Verteilung π, so ist π eindeutig und es gilt mit t wobei P t (x,.) π(.) 0 P t (x,.) π(.) = 2sup A P t (x,a) π(a) Helga Wagner Bayes Statistik WS 2010/11 422

17 Wahl des Übergangskernes Die Anwendung der MCMC Methoden basiert darauf, zur vorgegebenen Verteilung π(ϑ) = p(ϑ y) eine Markovkette mit Übergangskern P und invarianter Verteilung π zu finden. Für eine irreduzible Markovkette mit gegebenem Übergangskern P ist die invariante Verteilung π eindeutig, nicht aber umgekehrt: Zu einer gegebenen Verteilung π gibt es nicht nur einen Übergangskern mit π als invarianter Verteilung Beispiel: Für eine ( homogene Markov-Kette ) mit zwei Zuständen sei die Übergangsmatrix 1 p p P = mit 0 < p < 1 und 0 < q < 1 und π = (π,1 π) die q 1 q stationäre Verteilung. Das Gleichungssystem für p und q ist unterbestimmt und hat daher unendlich viele Lösungen. Helga Wagner Bayes Statistik WS 2010/11 423

18 Wahl des Übergangskernes Es gibt daher viele Möglichkeiten einen Übergangskern P(ϑ old,a) zu konstruieren, der die notwendige Bedingung Π(A) = P(ϑ old,a)π(ϑ old )dϑ old. (48) mit erfüllt. Üblicherweise benutzt werden π(ϑ) = p(ϑ y) Metropolis-Hastings-Algorithmus (Hastings, 1970; Chib and Greenberg, 1995) Gibbs Sampling (Geman and Geman, 1984; Casella and George, 1992) Helga Wagner Bayes Statistik WS 2010/11 424

19 MCMC zur Bayes-Inferenz Mit Ziehungen ϑ (1),...,ϑ (M) aus einer allgemeinen Markovkette mit stationärer Verteilung π(ϑ) = p(ϑ y) = p(y ϑ)p(ϑ) p(y) kann der Posteriori-Erwartungswert E(g(ϑ) y) = g(ϑ)p(ϑ y)dϑ durch den Mittelwert approximiert werden. ĝ(ϑ) = ϑ 1 M M m=1 g(ϑ (m) ) Helga Wagner Bayes Statistik WS 2010/11 425

20 MCMC zur Bayes-Inferenz Aufgrund der Abhängigkeit der Ziehungen ist die Varianz dieses Schätzers nicht wie bei unabhängigen Ziehungen Var(g)/M sondern E((ĝ(ϑ) E(g(ϑ))) 2 ) = 1 M Ω 0(g). (49) Ω 0 (g) ist die Spektraldichte des Prozesses g(ϑ (m) ) und es gilt (Geweke, 1992): τ = Ω 0(g) Var(g) = 1+2 Dabei ist ρ s die Autokorrelation des Prozesses g(ϑ (m) ) zum Lag s. s=1 ρ s. Helga Wagner Bayes Statistik WS 2010/11 426

21 MCMC zur Bayes-Inferenz τ heisst Ineffizienzfaktor. Je grösser der Ineffizienzfaktor τ, desto ineffizienter ist das Verfahren. Da die Ziehungen üblicherweise positiv korreliert sind, ist τ > 1, d.h. MCMC Ziehungen sind weniger effizient als i.i.d. Ziehungen. Die effektive Stichprobengröße M/τ gibt an, wievielen ua. Ziehungen die M Ziehungen aus der Markov-Kette entsprechen. Annähernd ua. Ziehungen erhält man, wenn nur jeder k te Wert der Stichprobe, also ϑ (1),ϑ (k+1),... zur Inferenz benutzt wird (Verdünnung, thinning). Helga Wagner Bayes Statistik WS 2010/11 427

22 Markov Chain Monte Carlo Verfahren Metropolis-Hastings-Algorithmus Helga Wagner Bayes Statistik WS 2010/11 428

23 Metropolis-Hastings-Algorithmus Im Metropolis-Hastings-Algorithmus wird der Übergangskern der Markovkette erzeugt, indem ausgehend von ϑ (m 1) = ϑ old eine Ziehung aus einer Vorschlagsdichte q(ϑ old,ϑ new ) = q(ϑ new ϑ old ) erfolgt. Der Wert ϑ new wird mit Wahrscheinlichkeit ( α(ϑ new ϑ old ) = α(ϑ old,ϑ new ) = min 1, p(ϑnew y)q(ϑ old ϑ new ) ) p(ϑ old y) q(ϑ new ϑ old ) akzeptiert, d.h. ϑ (m) = ϑ new sonst wird ϑ old beibehalten, dh. ϑ (m) = ϑ old. Dieser Algorithmus erzeugt eine homogene Markovkette. Helga Wagner Bayes Statistik WS 2010/11 429

24 Metropolis-Hastings-Algorithmus Ein Übergang von x = ϑ old nach z = ϑ new ϑ old findet statt, wenn ϑ new ausgehend von ϑ old vorgeschlagen wird und ϑ new akzeptiert wird, sonst bleibt die Kette in x = ϑ old. Der Übergangskern der Markovkette ist also P(x,A) = p(x,z)dz +r(x)δ x (A) A mit und p(x,z) = { q(x,z)α(x,z) x z r(x) = 1 0 sonst p(x, z)dz. Helga Wagner Bayes Statistik WS 2010/11 430

25 Die invariante Verteilung Die Posteriori-Verteilung p(ϑ y) ist die invariante Verteilung der Markovkette. Wir zeigen zunächst, dass die detailed balance Bedingung p(x y)p(x, z) = p(z y)p(z, x) gilt: p(x y)p(x, z) = p(x y)q(x, z)α(x, z) = p(x y)q(x, z) min (1, p(z y)q(z,x) ) p(x y)q(x, z) ( ) = min p(x y)q(x, z), p(z y)q(z, x) = = p(z y)q(z, x) min ( p(x y)q(x,z) p(z y)q(z,x),1 ) = = = p(z y)p(z, x) Helga Wagner Bayes Statistik WS 2010/11 431

26 Die invariante Verteilung p(x y) ist die invariante Verteilung: P(x,A)p(x y)dx = = = A = ( A A A ) p(x, z)dz p(x y)dx + ( p(x,z)p(x y)dx) dz + ( p(z,x)p(z y)dx) dz + (1 r(z))p(z y)dz + A p(z y)dz = P(A y) A A A r(x)p(x y)dx = r(x)δ x (A)p(x y)dx = r(x)p(x y)dx = r(x)p(x y)dx = Helga Wagner Bayes Statistik WS 2010/11 432

27 Anwendung des MH-Algorithmus Die Akzeptanzwahrscheinlichkeit kann berechnet werden als α(ϑ new ϑ old ) = min = min ( 1, p(ϑnew y)q(ϑ old ϑ new ) p(ϑ old y) q(ϑ new ϑ old ) = ( 1, p(y ϑnew )p(ϑ new )q(ϑ old ϑ new ) ) p(y ϑ old )p(ϑ old )q(ϑ new ϑ old ) = Die Normierungskonstante p(y) muss also zur Anwendung des MH- Algortihmus nicht bekannt sein. Für die Konvergenz des Algorithmus ist Irreduzibilität und Aperiodizität der Markov-Kette erforderlich. Diese Eigenschaften sind theoretisch schwer zu überprüfen = Analyse der Ziehungen Helga Wagner Bayes Statistik WS 2010/11 433

28 Wahl der Vorschlagsdichte Grundsätzlich liefert praktisch jede Vorschlagsdichte Ziehungen aus der gewünschten Verteilung (Tierney, 1994), allerdings hängt die Effizienz von der gewählten Vorschlagsdichte ab. Die Vorschlagsdichte soll so gewählt werden, dass daraus leicht Zufallszahlen erzeugt werden können die Akzeptanzraten nicht zu klein sind Helga Wagner Bayes Statistik WS 2010/11 434

29 Wahl der Vorschlagsdichte Independence Proposal Die Vorschlagsdichte ist u.a. vom aktuellen Wert, d.h. q(ϑ new ϑ old ) = q(ϑ new ). Die Akzeptanzwahrscheinlichkeit beträgt α(ϑ new ϑ old ) = min ( 1, p(ϑnew y)q(ϑ old ) ) p(ϑ old y) q(ϑ new ) Ein einfacher Spezialfall ergibt sich, wenn die Vorschlagsdichte die Zielverteilung p(ϑ y) ist. Dann wird jeder Vorschlag akzeptiert. Helga Wagner Bayes Statistik WS 2010/11 435

30 Wahl der Vorschlagsdichte Random Walk Proposal Die Vorschlagsdichte ist ein Random Walk d.h. d.h. q(ϑ new ϑ old ) = f(ϑ new ϑ old ). ϑ new = ϑ old +ε, ε f, Für einen symmetrischen Random Walk ist die Akzeptanzwahrscheinlichkeit ( α(ϑ new ϑ old ) = min 1, p(ϑnew y) ) p(ϑ old y) ( = min 1, p(y ϑnew )p(ϑ new ) p(y ϑ old )p(ϑ old ) ) Ein Vorschlag ϑ new mit p(ϑ new y) > p(ϑ old y) wird immer akzeptiert. Helga Wagner Bayes Statistik WS 2010/11 436

31 Normal Random Walk Eine übliche Wahl ist die Vorschlagsdichte ϑ new N ( ) ϑ old,c, mit fester Varianz-Kovarianzmatrix C. kleine Skala = kleine Schritte ϑ new ϑ old mit i.a. hohen Akzeptanzraten, aber hohen Autokorrelationen. Extremfall C 0: Akzeptanzrate von 1, τ große Skala = große Schritte ϑ new ϑ old mit Vorschlägen oft in den Enden der Verteilung und daher kleinen Akzeptanzraten Helga Wagner Bayes Statistik WS 2010/11 437

32 Multivariate Zielverteilung Anwendung des MH-Algorithmus zum Ziehen eines multivariate Parametern ϑ ist ineffizient, wenn Vorschläge für den gesamten Parameter niedrige Akzeptanzraten haben. Eine Alternative besteht darin, Metropolis-Hastings-Schritte für die einzelnen Komponenten durchzuführen, d.h. einen Vorschlag jeweils nur für eine Komponente ϑ j zu machen. Die Komponenten können in einer festen oder in einer zufälligen Reihenfolge aufdatiert werden. Helga Wagner Bayes Statistik WS 2010/11 438

33 Eye Tracking: MH-Algorithmus Modell: y i NegBin(θ,β), d.h. p(y i ;θ,β) = ( θ +y i 1 θ 1 ) ( β ) θ ( 1 ) yi β +1 β +1 Ua. Priori-Verteilungen: θ G(1,1), β G(1,0) Algorithmus: 2- Block Sampler Wähle einen Startwerte für θ (0) und ziehe (a) β (m) aus p(β θ (m 1),y) (b) θ (m) aus p(θ β (m),y). Helga Wagner Bayes Statistik WS 2010/11 439

34 Eye Tracking: MH-Algorithmus Die bedingten Dichten sind gegeben als ( β ) nθ ( 1 ) y i p(β θ,y) p(y θ,β)p(θ,β) β +1 β +1 p(θ β,y) p(y θ,β)p(θ,β) ( ) θ +y i 1 ( β ) nθexp( θ) θ 1 β +1 i Für den transformierten Parameter π = β/(1 + β) hat die bedingte Dichte p(π θ, y) den Kern einer Beta-Verteilung: p(π θ,y) π nθ (1 π) y i 1 (1 π) 2 Vorschlag π B(nθ +1, y i 1) mit Akzeptanzrate 1 möglich Helga Wagner Bayes Statistik WS 2010/11 440

35 Eye Tracking: MH-Algorithmus Log-Normal Random walk Proposal für θ, d.h. logθ new N ( logθ old,c ) : Erzeuge θ new = exp(logθ old + Cε) ε N (0,1). Damit ist q(θ new θ old ) = 1/θ new. Akzeptiere θ new wenn für u U [0,1] gilt log(u) log(α(θ new θ old ) = min(0,h(θ new π,y) h(θ old π,y) mit h(θ π,y) = log(p(θ β,y)θ)+c = = i log(γ(θ+y i )) nlog(γ(θ))+nθlog(π) θ+log(θ) Helga Wagner Bayes Statistik WS 2010/11 441

36 Eye Tracking: MH-Algorithmus Abhängigkeit der Akzeptanzrate von der Varianz der Vorschlagsdichte C Akzeptanzrate Helga Wagner Bayes Statistik WS 2010/11 442

37 Eye Tracking: MH-Algorithmus 2 Posterior Draws for α 2 Posterior Draws for α 2 Posterior Draws for α Abbildung 45: Posteriori-Ziehungen von α für verschiedene Vorschlagsdichten (links C = 2, Mitte: C = 0.02, rechts: C = 0.3) Helga Wagner Bayes Statistik WS 2010/11 443

38 Eye Tracking: MH-Algorithmus Einfluß des Startwertes 2 Posterior Draws for α 0.5 Posterior Draws for β Abbildung 46: Posteriori-Ziehungen von α (links) und β (rechts) für verschiedene Startwerte α (0) and β (0) Helga Wagner Bayes Statistik WS 2010/11 444

39 SFr Wechselkurs-Daten: MH-Algorithmus ( Modell: y i t ) ν µ,σ 2 mit bekanntem ν = 4 Priori-Verteilung: p(µ,σ 2 ν). Algorithmus: Single Move Sampler Wähle einen Startwert für σ 2,(0) und ziehe für m = 1,...,M (a) µ (m) aus p(µ σ 2,(m 1),y): Normal Random Walk Vorschlag (b) σ 2,(m) aus p(σ 2 µ (m),y): Log-Normal Random Walk Vorschlag Die ersten M 0 Ziehungen (Burn-In) werden zur Schätzung nicht verwendet. Helga Wagner Bayes Statistik WS 2010/11 445

40 SFr Wechselkurs-Daten: MH-Algorithmus Die bedingten Dichten sind gegeben als p(µ σ 2,y) p(y µ,σ 2 )p(µ,σ 2 ) p(α β,y) p(y µ,σ 2 )p(µ,σ 2 ) p(y µ,σ 2,ν) ist die Likelihood des Student t-modells. Helga Wagner Bayes Statistik WS 2010/11 446

41 SFr Wechselkurs-Daten: MH-Algorithmus Sampling-Schritte: (a) Der Vorschlag µ new N ( µ (m 1),c 2 µ) wird akzeptiert, wenn wobei u 1 U [0,1] u 1 p(y µnew,σ 2,(m 1),ν)p(µ new,σ 2,(m 1) ν) p(y µ (m 1),σ 2,(m 1),ν)p(µ (m 1),σ 2,(m 1) ν), (b) Vorgeschlagen wird logσ (2,new) N ( logσ 2,(m 1),c 2 s). Der Vorschlag σ (2,new) wird akzeptiert, wenn u 2 p(y µ(m),σ (2,new),ν)p(µ (m),σ (2,new) ν)σ (2,new) p(y µ (m),σ 2,(m 1),ν)p(µ (m),σ 2,(m 1) ν)σ 2,(m 1), wobei u 2 U [0,1] Helga Wagner Bayes Statistik WS 2010/11 447

42 SFr Wechselkurs-Daten: MH-Algorithmus Tuning: Wahl der Standardabweichungen c µ and c s der Vorschlagsdichten Ziehen mit verschiedenen Werten der Standardabweichung von verschiedenen Startwerten Bestimmen von Akzeptanzrate (acc) Ineffizienzfaktor (ineff) Helga Wagner Bayes Statistik WS 2010/11 448

43 SFr Wechselkurs-Daten: MH-Algorithmus 0.6 acc: ineff: σ σ Iteration m acc: Iteration m acc: Lag 1 ineff: Lag 1 ineff: σ Iteration m Lag Abbildung 47: SFr Wechselkurs-Daten, t 4 ( µ,σ 2 ) : je 2 Pfade für Posteriori-Ziehungen von σ 2. Oben: c s = 0.01, Mitte: c s = 0.1, unten: c s = 1 Helga Wagner Bayes Statistik WS 2010/11 449

44 SFr Wechselkurs-Daten: MH-Algorithmus Sowohl zu hohe als auch zu niedrige Akzeptanzraten führen zu einem ineffizienten Sampler: = Wahl c s = 0.1 Für c µ = 0.05 ist die Akzeptanzrate ca. 25%, der Ineffizienzfaktor 6 (geringe Abhängigkeit von der Vorschlagsdichte für σ 2. Burn-In: erste 1000 Werte Aus den letzten 4000 Ziehungen werden Posteriori-Erwartungswert und HPD- Intervalle (approximativ) bestimmt Parameter Posteriori-Erwartungswert 95%-HPD-Intervall µ ; [-0.017, 0.026] σ 2 ν/(ν 2) 0.6 [ 0.56, 0.64] Helga Wagner Bayes Statistik WS 2010/11 450

45 SFr Wechselkurs-Daten: MH-Algorithmus 40 Posterior of µ 20 Posterior of σ 2 ν/(ν 2) µ σ 2 ν/(ν 2) Abbildung 48: SFr Wechselkurs-Daten, t 4 ( µ,σ 2 ), Priori: p(µ,σ 2 ) 1/σ 2 : Posteriori-Dichten für µ und σ 2 ν/(ν 2) Helga Wagner Bayes Statistik WS 2010/11 451

46 MH-Algorithmus für die Parameter der Student-Verteilung ( Modell: y i t ) ν µ,σ 2 Priori-Verteilung: p(µ,σ 2, ν). Algorithmus: Single Move Sampler Wähle einen Startwerte für σ 2,(0) und ν (0) und und ziehe für m = 1,...,M (a) µ (m) aus p(µ σ 2,(m 1),ν (m 1),y): Normal Random Walk Vorschlag (b) σ 2,(m) aus p(σ 2 µ (m),ν (m 1),y): Log-Normal Random Walk Vorschlag (c) ν (m) aus p(ν µ (m),σ 2,(m) y): Log-Normal Random Walk Vorschlag Die ersten M 0 Ziehungen (Burn-In) werden zur Schätzung nicht verwendet. Helga Wagner Bayes Statistik WS 2010/11 452

47 MH-Algorithmus für die Parameter der Student-Verteilung Schritt (a) und (b) sind wie im Fall ν bekannt (c) Vorgeschlagen wird logν new N ( logν (m 1),c 2 ν). Der Vorschlag ν new wird akzeptiert, wenn u 3 p(y µ (m),σ 2,(m),ν new )p(µ (m),σ 2,(m),ν new )ν new p(y µ (m),σ 2,(m),ν (m 1) )p(µ (m),σ 2,(m),ν (m 1) )ν (m 1) wobei u 3 U [0,1]. p(y µ,σ 2,ν) ist die Likelihood des Student-Modells. Helga Wagner Bayes Statistik WS 2010/11 453

48 Ziehen aus einer uneigentlichen Posteriori-Verteilung Was passiert bei Implementierung des MH-Algorithmus mit uneigentlicher Posteriori-Verteilung, z.b. p(ν) = 1/ν? Für die Priori-Verteilung p(ν) = 1/ν hängt die Akzeptenzrate nur von den Werten der Likelihood ab. Diese ist in den Enden der Verteilung jedoch praktisch konstant in ν: Liegen sowohl ν old and der Vorschlag ν new in den Enden = Akzeptanzwahrscheinlichkeit 1 Sampler bleibt in den Enden bis ein Wert aus dem modalen Bereich der Likelihood vorgeschlagen wird Helga Wagner Bayes Statistik WS 2010/11 454

49 Ziehen aus einer uneigentlichen Posteriori-Verteilung Sei ν old ein Wert aus dem modalen Bereich. Die Wahrscheinlichkeit dafür, dass ein Wert aus den Enden der Verteilung vorgeschlagen und akzeptiert wird ist R(ν old ) c N(µ,σ 2 ) p(y ν old,µ,σ 2 ), wobei c N (µ,σ 2 ) die Likelihood unter dem Normalmodell ist (ν ). Je kleiner R(ν old ) desto geringer ist das Risiko, dass der Sampler in den Enden der Verteilung hängen bleibt Helga Wagner Bayes Statistik WS 2010/11 455

50 Ziehen aus einer uneigentlichen Posteriori-Verteilung 4.5 Data Set 1 (ν 0 =1) acc: Posterior of ν ν Iteration m x ν Data Set 1 (ν 0 =1) acc: Posterior of σ σ Iteration m x σ 2 Abbildung 49: Daten 1: 1000 Werte t 3 (0,1). links: MCMC Ziehungen für ν und σ 2 Rechts: Posteriori -Verteilungen p(ν y) und p(σ 2 y) unter den Priori-Verteilungen p(ν) = 1/ν (strichliert) und ν U [0, 200] (voll) Die Posteriori-Verteilung ist uneigentlich für p(ν) = 1/ν! Helga Wagner Bayes Statistik WS 2010/11 456

51 Ziehen aus einer uneigentlichen Posteriori-Verteilung Data Set 2 (ν 0 =1) acc: Data Set 2 (ν 0 = 200) acc: ν 1000 ν Iteration m Iteration m Abbildung 50: Daten 2: 1000 Werte t 10 (0,1). MCMC Ziehungen von ν. Links: Priori p(ν) = 1/ν; rechts: U [0, 200]-Prior jeweils mit Startwert ν (0) = 100, und σ 2,(0) = 10) Helga Wagner Bayes Statistik WS 2010/11 457

52 Ziehen aus einer uneigentlichen Posteriori-Verteilung 10 x Data Set 3 (ν 0 =1) acc: Data Set 3 (ν 0 = 200) acc: ν Iteration m ν Iteration m Abbildung 51: Daten 3: 1000 Werte t 100 (0,1)MCMC Ziehungen von ν. Links: Priori p(ν) = 1/ν; rechts: U [0, 200]-Prior jeweils mit wahrem Wert als Startwert Helga Wagner Bayes Statistik WS 2010/11 458

53 Anwendung: SFr Wechselkurs-Daten Likelihood ν σ Abbildung 52: SFr Wechselkurs-Daten: Likelihood des t ν ( 0,σ 2 ) -Modells mit ν und σ 2 unbekannt Helga Wagner Bayes Statistik WS 2010/11 459

54 Anwendung: SFr Wechselkurs-Daten Log Likelihood ν σ Abbildung 53: SFr Wechselkurs-Daten:Log-likelihood des t ν ( 0,σ 2 ) -Modells mit ν und σ 2 unbekannt Helga Wagner Bayes Statistik WS 2010/11 460

55 Anwendung: SFr Wechselkurs-Daten 4000 log L(y ν, σ 2 fixed) 1 L(y ν, σ 2 fixed) 4500 σ 2 = σ 2 = σ 2 = σ 2 = σ 2 = ν σ 2 = ν Abbildung 54: SFr Wechselkurs-Daten: Likelihood- und Log-Likelihood-Profile für verschiedene Werte von σ 2 Helga Wagner Bayes Statistik WS 2010/11 461

56 Anwendung: SFr Wechselkurs-Daten acc: x acc: ν ν Iteration m Iteration m Abbildung 55: SFr Wechselkurs-Daten: MCMC Ziehungen aus der uneigentlichen Posteriori-Verteilung. Startwerte: ν (0) = 4, verschiedene Startwerte für σ (2,0). Links: σ (2,0) zwischen 1 und 10, rechts: σ (2,0) = 100 Helga Wagner Bayes Statistik WS 2010/11 462

57 Anwendung: SFr Wechselkurs-Daten 1 Posterior of ν ν Abbildung 56: SFr Wechselkurs-Daten: Posteriori-Dichten von ν unter Priori p(ν) = (1/ν) n 0. Voll: eigentliche Posteriori für n 0 = 2, strichliert: uneigentliche Posteriori für n 0 = 0 Helga Wagner Bayes Statistik WS 2010/11 463

58 Anwendung: SFr Wechselkurs-Daten 40 Posterior of µ 25 Posterior of σ 2 ν/(ν 2) µ σ 2 ν/(ν 2) Abbildung 57: SFr Wechselkurs-Daten, Posteriori-Dichten von µ und σ 2 unter Priori p(ν) = (1/ν) n 0. Voll: eigentliche Posteriori für n 0 = 2, strichliert: uneigentliche Posteriori für n 0 = 0. Strichpunkt: ν = 4 fest Helga Wagner Bayes Statistik WS 2010/11 464

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Kapitel 3 Markov-Ketten

Kapitel 3 Markov-Ketten Kapitel 3 Markov-Ketten 3.1 Grundlegende Eigenschaften, Beispiele 3.1 Grundlegende Eigenschaften, Beispiele Diskreter Parameterraum (Zeit) T = N 0. Zustandsraum S meist diskret (3.1-3.6), manchmal auch

Mehr

16.3 Rekurrente und transiente Zustände

16.3 Rekurrente und transiente Zustände 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht

Mehr

Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194

Bayes Prognose. Helga Wagner Bayes Statistik WS 2010/11 194 Bayes Prognose Helga Wagner Bayes Statistik WS 2010/11 194 Prognose einer weiteren Beobachtung Verkehrssicherheitsdaten Senioren: Wieviele Senioren werden in Linz im kommenden Monat getötet oder schwerverletzt?

Mehr

Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301

Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Inferenz Schätzen und Testen von Hypothesen Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Punktschätzung Entscheidungstheoretischer Ansatz: Wahl des Punktschätzers ist eine Aktion, die möglicherweise

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Studiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit.

Studiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit. Studiengang Diplom-Mathematik DIPLOMARBEIT Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit eingereicht von Christina Gunkel am 3. Juni 2008 Erste Gutachterin: Zweiter Gutachter:

Mehr

Einführung in Markoff-Ketten

Einführung in Markoff-Ketten Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die

Mehr

MCMC. Ausarbeitung zum Seminar: The Top 10 Algorithms. Claudia Spellecchia Dübendorf, Schweiz Matrikelnummer

MCMC. Ausarbeitung zum Seminar: The Top 10 Algorithms. Claudia Spellecchia Dübendorf, Schweiz Matrikelnummer MCMC Ausarbeitung zum Seminar: The Top 10 Algorithms Claudia Spellecchia Dübendorf, Schweiz claudisp@student.ethz.ch Matrikelnummer 04-722-583 Abgabe der Arbeit: 13.03.2008 INHALTSVERZEICHNIS 1 Inhaltsverzeichnis

Mehr

Bedingt unabhängige Zufallsvariablen

Bedingt unabhängige Zufallsvariablen 7. Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Benannt nach Andrei A. Markov [856-9] Einige Stichworte: Markov-Ketten Definition Eigenschaften Konvergenz Hidden Markov Modelle Sei X

Mehr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,

Mehr

Partition Modelling. Sebastian Keim, Benedikt Jahn. Seminar. Stochastische Geometrie und ihre Anwendungen - Zufällige Netzwerke, 2008

Partition Modelling. Sebastian Keim, Benedikt Jahn. Seminar. Stochastische Geometrie und ihre Anwendungen - Zufällige Netzwerke, 2008 Sebastian Keim, Benedikt Jahn Seminar Stochastische Geometrie und ihre Anwendungen - Zufällige Netzwerke, 2008 1 Motivation 2 3 4 5 6 1 Motivation 2 3 4 5 6 aus der Schadenversicherung - der Orkan Kyrill

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Simulationsmethoden in der Bayes-Statistik

Simulationsmethoden in der Bayes-Statistik Simulationsmethoden in der Bayes-Statistik Hansruedi Künsch Seminar für Statistik, ETH Zürich 6. Juni 2012 Inhalt Warum Simulation? Modellspezifikation Markovketten Monte Carlo Simulation im Raum der Sprungfunktionen

Mehr

Statistics, Data Analysis, and Simulation SS 2015

Statistics, Data Analysis, and Simulation SS 2015 Mainz, May 12, 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler

Mehr

W-Rechnung und Statistik für Ingenieure Übung 11

W-Rechnung und Statistik für Ingenieure Übung 11 W-Rechnung und Statistik für Ingenieure Übung 11 Aufgabe 1 Ein Fahrzeugpark enthält 6 Fahrzeuge. Jedes Fahrzeug hat die Wahrscheinlichkeit p = 0.1 (bzw. p = 0.3), dass es kaputt geht. Pro Tag kann nur

Mehr

Statistik. Andrej Depperschmidt. Sommersemester 2016

Statistik. Andrej Depperschmidt. Sommersemester 2016 Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i

Mehr

1 A dp = P(A B). (1.3)

1 A dp = P(A B). (1.3) Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare

Mehr

80 7 MARKOV-KETTEN. 7.1 Definition und Eigenschaften von Markov-Ketten

80 7 MARKOV-KETTEN. 7.1 Definition und Eigenschaften von Markov-Ketten 80 7 MARKOV-KETTEN 7 Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Sei X = (X 0, X, X 2,...) eine Folge von diskreten Zufallsvariablen, die alle Ausprägungen in einer endlichen bzw. abzählbaren

Mehr

Einführung in die Bayes-Statistik

Einführung in die Bayes-Statistik Einführung in die Bayes-Statistik Volker Schmid, Clara Happ 27. 30. März 2017 Institut für Statistik Ludwig Maximilians Universität München 1 Inhaltsverzeichnis 1 Der Satz von Bayes 3 1.1 Wahrscheinlichkeitsrechnung......................

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

Markov Ketten und Bonus Malus Systeme

Markov Ketten und Bonus Malus Systeme Grund Stoch Markov Ketten Bonus Malus Probleme L 1 / 46 Markov Ketten und Bonus Malus Systeme Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden TU Wien 19. Mai 2010

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

BAYES SCHE STATISTIK

BAYES SCHE STATISTIK BAES SCHE STATISTIK FELIX RUBIN EINFÜHRUNG IN DIE STATISTIK, A.D. BARBOUR, HS 2007 1. Einführung Die Bayes sche Statistik gibt eine weitere Methode, um einen unbekannten Parameter θ zu schätzen. Bisher

Mehr

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

Exact Sampling: Der Propp-Wilson-Algorithmus

Exact Sampling: Der Propp-Wilson-Algorithmus Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München gerstel@in.tum.de Zusammenfassung Der Propp-Wilson-Algorithmus liefert

Mehr

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag 20.05.20 Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung 0 Einführung 1 Wahrscheinlichkeitsrechnung Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung Motivation und Hinführung Der wahre Anteil der rot-grün Wähler 009 war genau

Mehr

Vorlesung: Lineare Modelle

Vorlesung: Lineare Modelle Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen

Mehr

Kapitel 5: Markovketten

Kapitel 5: Markovketten Kapitel 5: Markovketten Definition 5.1 Bezeichnungen Bsp. 5.1 Definition 5.2 Eine Fam. (X i ) i I von ZV en X i : Ω E auf (Ω, F, P) mit Werten im messb. Raum (E, E) heißt Stochastischer Prozess. E Zustandsraum

Mehr

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1 Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1 Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013

Mehr

Zeitstetige Markov-Prozesse: Einführung und Beispiele

Zeitstetige Markov-Prozesse: Einführung und Beispiele Zeitstetige Markov-Prozesse: Einführung und Beispiele Simone Wielart 08.12.10 Inhalt Q-Matrizen und ihre Exponentiale Inhalt Q-Matrizen und ihre Exponentiale Zeitstetige stochastische Prozesse Inhalt Q-Matrizen

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Stationäre Maße und Zeitmittel

Stationäre Maße und Zeitmittel Stationäre Maße und Zeitmittel Clara Strohm SS 2003 Seminar Wahrscheinlichkeitstheorie Wir untersuchen im folgenden das Langzeitverhalten in diesem Fall gleichmäßige Konvergenz im Césaro-Mittel diskreter,

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Bayes Inferenz. Helga Wagner Bayes Statistik WS 2010/11 245

Bayes Inferenz. Helga Wagner Bayes Statistik WS 2010/11 245 Bayes Inferenz Helga Wagner Bayes Statistik WS 2010/11 245 Statistische Inferenz Beobachtungen: Daten y = (y 1,...,y n ) Y Annahme: Daten werden von einem (stochastischen) Modell spezifiziert durch einen

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren

Mehr

7. Stochastische Prozesse und Zeitreihenmodelle

7. Stochastische Prozesse und Zeitreihenmodelle 7. Stochastische Prozesse und Zeitreihenmodelle Regelmäßigkeiten in der Entwicklung einer Zeitreihe, um auf zukünftige Entwicklung zu schließen Verwendung zu Prognosezwecken Univariate Zeitreihenanalyse

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Das Bayes'sche Prinzip

Das Bayes'sche Prinzip Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem

Mehr

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische

Mehr

Statistik - Fehlerrechnung - Auswertung von Messungen

Statistik - Fehlerrechnung - Auswertung von Messungen Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler

Mehr

Übungsaufgaben Lösungen

Übungsaufgaben Lösungen Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij

Mehr

2.1 Importance sampling: Metropolis-Algorithmus

2.1 Importance sampling: Metropolis-Algorithmus Kapitel 2 Simulationstechniken 2.1 Importance sampling: Metropolis-Algorithmus Eine zentrale Fragestellung in der statistischen Physik ist die Bestimmung von Erwartungswerten einer Observablen O in einem

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Die Abbildung zeigt die Kette aus dem "

Die Abbildung zeigt die Kette aus dem ½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 3: Lineares Modell, Klassifikation, PCA Randolf Altmeyer January 9, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung

5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung 5 Konfidenzschätzung 5. Einige Grundbegriffe zur Konfidenzschätzung Diesem Kapitel liegt das parametrische Modell {X, B X, P } mit P {P Θ} zugrunde. {Θ, B Θ } sei ein Meßraum über Θ und µ ein σ-finites

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!!

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!! Nachholklausur zur Vorlesung Schätzen und Testen I 04. April 2013 Volker Schmid, Ludwig Bothmann, Julia Sommer Aufgabe 1 2 3 4 5 6 Punkte Note Bitte ausfüllen und unterschreiben!!! Name, Vorname: Matrikelnummer:

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder

Mehr

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Simulation von Zufallsvariablen und Punktprozessen

Simulation von Zufallsvariablen und Punktprozessen Simulation von Zufallsvariablen und Punktprozessen 09.11.2009 Inhaltsverzeichnis 1 Einleitung 2 Pseudozufallszahlen 3 Punktprozesse Zufallszahlen Definition (Duden): Eine Zufallszahl ist eine Zahl, die

Mehr

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion

Mehr

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu

Mehr

7 Zufallszahlen, Simulation

7 Zufallszahlen, Simulation 7 Zufallszahlen, Simulation Es ist nützlich, Folgen von i.i.d. R[0, 1]-verteilten Zufallszahlen auf einem Rechner erzeugen zu können vgl. Simulation, Monte-Carlo-Verfahren). Letztere sind i.a. keine echten

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Spezielle stetige Verteilungen

Spezielle stetige Verteilungen Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für

Mehr

GEODÄTISCHES INSTITUT HANNOVER

GEODÄTISCHES INSTITUT HANNOVER Alexander Dorndorf, M.Sc. GEODÄTISCHES INSTITUT HANNOVER Entwicklung eines robusten Bayesschen Ansatzes für klein-redundante Ausgleichungsmodelle Motivation Funktionaler Zusammenhang: h = β 0 + β 1 x +

Mehr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Punktschätzer Optimalitätskonzepte

Punktschätzer Optimalitätskonzepte Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,

Mehr

Statistik für Informatiker, SS Verteilungen mit Dichte

Statistik für Informatiker, SS Verteilungen mit Dichte 1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr