16.3 Rekurrente und transiente Zustände

Größe: px
Ab Seite anzeigen:

Download "16.3 Rekurrente und transiente Zustände"

Transkript

1 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht wird. Es gilt: f i (0) = 0 und f i (1) = p ii. Sei i fest und seien k = 1,...,n B k = {X k = i,x ν i ν = 1,...,k 1 X 0 = i} B n+1 = {System befand sich während der ersten n Schritte nie im Zustand i}. 717 W.Kössler, Humboldt-Universität zu Berlin

2 Offenbar n+1 l=1 B l = Ω, B l B l = (l l ). Dann gilt p ii (n) = P(X n = i X 0 = i) = = n+1 k=1 P(X n = i B k ) P(B k ) n f i (k)p ii (n k) + P(X n = i B n+1 ) P(B n+1 ) k=1 718 W.Kössler, Humboldt-Universität zu Berlin

3 Wegen P(X n = i B n+1 ) = 0 folgt p ii (n) = n k=1 f i (k) p ii (n k) (n 1). Damit läßt sich f i (k) rekursiv berechnen: f i (0) = 0, f i (1) = p ii p ii (2) = f i (1) p ii (1) + f i (2) p ii (0) = p 2 ii + f i (2) f i (2) = p ii (2) p 2 ii ( pii (2) = p ik p ki pii) 2. k 719 W.Kössler, Humboldt-Universität zu Berlin

4 Wirbezeichnen mit F i := j=1 f i (j) die Wkt., daß man irgendwann in den Zustand i zurückkehrt. Def. 63 Ein Zustand i S heißt rekurrent, wenn F i = 1 gilt. Ist dagegen F i < 1, so heißt er transient. Bemerkung: Wir werden in der Vorlesung einige der folgenden Beweise weglassen. Satz 68 Zustand i rekurrent er wird unendlich oft erreicht mit Wkt. 1. Zustand i transient er kann höchstens endlich oft erreicht werden. 720 W.Kössler, Humboldt-Universität zu Berlin

5 Beweis: Sei r i (k) die Wkt., dass die MK mindestens k mal nach i zurückkehrt. r i (k) = P(k-1 mal zurück erstmals nach n Schritten zurück) = n=1 P(nach n Schritten das erste Mal nach i zurück) f i (n)r i (k 1) n=1 = r i (k 1) r i (k) = F k i = r i (k 1)F i f i (n) n=1 721 W.Kössler, Humboldt-Universität zu Berlin

6 Ist i rekurrent, also F i = 1, dann ist r i (k) = 1 k N. Sei i transient, d.h. F i < 1. Sei Z i die Anzahl der Besuche in i. P(Z i = k) = F k i (1 F i ) geometrische Verteilung mit Parameter (1 F i ). EZ i = 1 1 F i < 722 W.Kössler, Humboldt-Universität zu Berlin

7 Satz 69 Ein Zustand i ist genau dann rekurrent, wenn gilt: p ii (n) =. n=0 Er ist genau dann transient, wenn n=0 p ii (n) < ist. Beweis: (für einen anderen Beweis siehe z.b. Mathar/Pfeifer, Satz 3.2.1). Erinnerung: p ii (n) = n k=1 f i (k) p ii (n k) (n 1) Multiplizieren diese Gleichung mit z n und summieren über n: 723 W.Kössler, Humboldt-Universität zu Berlin

8 P i (z) := = p ii (n)z n n=1 ) f i (k) p ii (n k) n z n( n=1 k=1 = zf i (1) p ii (1 1) +z 2( f i (1) p ii (2 1) + f i (2) p ii (2 2) ) +z 3( f i (1) p ii (3 1) + f i (2) p ii (3 2) + f i (3) p ii (3 3) ) z n( f i (1) p ii (n 1) f i (n) p ii (0) W.Kössler, Humboldt-Universität zu Berlin

9 ( = zf i (1) 1 + = ( +z 2 f i (2) ( +z n f i (n) 1 + ν=1 ν=1 ) z ν p ii (ν) ν=1 ) z ν p ii (ν) ) z ν p ii (ν) +... z ν f i (ν) (1 + P i (z) ) ν=1 = F i (z) (1 + P i (z) ) 725 W.Kössler, Humboldt-Universität zu Berlin

10 wobei F i (z) := z ν f i (ν). ν=1 Die Fkt. F i (z) und P i (z) sind analytisch für z < 1. F i (z) = P i(z) 1 + P i (z), P i(z) = F i(z) 1 F i (z) lim F i(z) = F i (1) = F i = z 1 f i (ν) ν=1 ist die Wkt. für eine Rückkehr nach i. Sei lim P i(z) = P i = p ii (n) = z 1 n=1 726 W.Kössler, Humboldt-Universität zu Berlin

11 Daraus folgt d.h. i ist rekurrent. F i = lim z 1 P i (z) 1 + P i (z) = 1, Sei umgekehrt F i = 1. Dann folgt P i = lim z 1 P i (z) = 1 1 lim z 1 F i (z) =. Der zweite Teil des Satzes ist die Kontraposition des ersten Teils. Folg. 11 Sei i transient. dann F i = P i 1 + P i < W.Kössler, Humboldt-Universität zu Berlin

12 Diese beiden Aussagen können zum Beweis des folgenden Lemmas verwendet werden. Lemma 70 Ist ein Zustand i rekurrent (transient) und kommuniziert er mit einem Zustand j (i j), so ist auch der Zustand j rekurrent (transient). Beweis: 1. Sei i j. Dann existieren m,k > 0: p ij (k) > 0 und p ji (m) > 0. Für alle n N gilt: p jj (m + n + k) = ( p jk (m)p k l(n) ) p lj (k) l k = p jl (m + n)p lj (k) l p ji (m)p ii (n)p ij (k) (l = i). 728 W.Kössler, Humboldt-Universität zu Berlin

13 Daraus folgt (da i rekurrent) p jj (m + n + k) p ji (m)p ij (k) p ii (n) =. n=1 n=1 2. Sei i j. und i transient. Ang, j wäre rekurrent, dann wäre nach 1. auch i rekurrent. Wid. Folg. 12 Eine irreduzible MARKOFF sche Kette mit endlich vielen Zuständen hat nur rekurrente Zustände. Beweis: Mindestens ein Zustand muß rekurrent sein. Da alle Zustände miteinander kommunizieren, sind alle Zustände rekurrent. 729 W.Kössler, Humboldt-Universität zu Berlin

14 Bsp. 117 (Random walk, eindim. Fall) Der Zustandsraum ist S = Z. Die Übergangswahrscheinlichkeiten sind p i,i+1 p i,i 1 := p := 1 p p ij := 0, falls i j 1. D.h. Übergänge zwischen Zuständen, die einen Abstand ungleich Eins zueinander haben, sind nicht möglich. Die 730 W.Kössler, Humboldt-Universität zu Berlin

15 Übergangsmatrix M hat folgende Gestalt: p p 0 p 0... M = p 0 p p Offenbar kommunizieren alle Zustände miteinander. Ist somit ein Zustand rekurrent, so sind es alle. Und umgekehrt. 731 W.Kössler, Humboldt-Universität zu Berlin

16 Es genügt also zu untersuchen: n=1 p 00 (n). Dazu siehe den Abschnitt Irrfahrten! n=1 p 00(n) =, wenn p = W.Kössler, Humboldt-Universität zu Berlin

17 Bsp. 118 (Random walk, zwei- und dreidim. Fall) Im zweidimensionalen Fall haben wir in jedem Zustand vier mögliche Übergänge, denen die Wahrscheinlichkeiten p 1,p 2,p 3 und p 4 zugeordnet werden. DieZustände sind rekurrent, wenn p 1 = p 2 = p 3 = p 4 = 1 gilt. 4 Im dreidimensionalen Fall sind in jedem Punkt im dreidimensionalen ganzzahligen Gitter sechs Übergänge möglich. Auch wenn p 1 =... = p 6 = 1, so sind alle Zustände 6 transient. Dazu siehe den Abschnitt Irrfahrten! 733 W.Kössler, Humboldt-Universität zu Berlin

18 (die folgenden drei Seiten können überlesen werden.) Sei jetzt der Zustand i Startzustand (fest) und Y 1 = # Schritte bis zur ersten Rückkehr nach i Y 2 = # Schritte bis zur zweiten Rückkehr Y k = # Schritte bis zur k-ten Rückkehr P(Y 1 < ) = F i Y 1 = = Y 2 =, d.h. {Y 1 = } {Y 2 = } = P(Y 2 < Y 1 < ) = F i 734 W.Kössler, Humboldt-Universität zu Berlin

19 Sei jetzt F i < 1. = P(Y 2 < ) = P(Y 2 < Y 1 < ) P(Y 1 < ) = F 2 i P(Y k < ) = F k i k=1 P(Y k < ) = k=1 F k i < Folg. 13 i transient = nach unendlich vielen Schritten tritt i höchstens endlich oft mit Wkt. 1 ein. 735 W.Kössler, Humboldt-Universität zu Berlin

20 Beweis: Nach dem Lemma von Borel-Cantelli gilt k=1 P(A k ) < = P(lim sup A n ) = 0. Mit A k = {Y k < }, B n = k n A k folgt 0 = P(lim sup A n ) = P(limB n ) = lim P(B n ) = P(B) B = {unendlich viele der A k,k = 1, 2,...,treten ein} B = {endlich viele dera k,k = 1, 2,..., treten ein} P(B) = W.Kössler, Humboldt-Universität zu Berlin

21 Folg. 14 Sei jetzt i rekurrent, d.h. F i = 1. = i wird unendlich oft erreicht. Beweis: Für beliebiges k gilt: P(Y k < ) = 1. Y = # der Rückkehren nach i bei unendlich vielen Schritten. {Y k < } {Y k} P(Y = ) = lim k P(Y k) = lim k P(Y k < ) = W.Kössler, Humboldt-Universität zu Berlin

22 16.4 Grenzverteilungen Def. 64 Ein Zustand i heißt periodisch mit der Periode d, falls d größter gemeinsamer Teiler aller der Zahlen n Z + ist, für die p ii (n) > 0 gilt. Ist d = 1, so heißt der Zustand i aperiodisch. Falls für alle Zahlen n Z + p ii (n) = 0 gilt, so setzen wir d :=. Satz 71 Es sei i S ein periodischer Zustand mit Periode d. Desweiteren kommuniziere er mit einem weiteren Zustand j (i j). Dann hat auch der Zustand j die Periode d. Beweis: Nach Voraussetzung ist i periodischer Zustand mit Periode d. Folglich lassen sich alle Zahlen k mit p ii (k) > W.Kössler, Humboldt-Universität zu Berlin

23 durch k = k 0 d, für eine Zahl k 0, darstellen. Da die Zustände i und j miteinander kommunizieren, existieren weitere Zahlen n und m, so daß gilt: p ij (n) > 0 und p ji (m) > 0. Daraus folgt mit Hilfe der Rekursion von CHAPMAN KOLMOGOROFF: p ii (n + m) = l S p il (n) p li (m) p ij (n) p ji (m) > 0 Folglich ist d Teiler der Summe n + m. 739 W.Kössler, Humboldt-Universität zu Berlin

24 Es gelte nun p jj (r) > 0 für ein gewisses r. Dann gilt: p ii (n + m + r) = p il (n) p ls (r) p si (m) l,s S p ij (n) p jj (r) p ji (m) > 0 Wir stellen also fest: d teilt m + n + r d teilt m + n d teilt r. Folglich ist der Zustand j periodisch mit Periode d, wobei gilt: d d. Da die Relation symmetrisch ist, gilt auch: j i. 740 W.Kössler, Humboldt-Universität zu Berlin

25 Mit der gleichen Beweisführung wie oben können wir dann zeigen, daß gilt: d d. Daraus folgt: Die Zustände i und j haben die gleiche Periodenlänge. Es sei nun i ein Zustand aus dem Zustandsraum S. Wir betrachten die folgende Zufallsgröße: n... Y :. f i (1) f i (2)... f i (n)... Wir definieren die mittlere Rückkehrzeit in den Zustand i: µ i := n=1 n f i (n) = EY. 741 W.Kössler, Humboldt-Universität zu Berlin

26 Def. 65 Es sei i ein Zustand aus dem Zustandsraum S. Der Zustand i heißt positiv rekurrent, falls µ i < gilt. Ist dagegen µ i =, so nennen wir den Zustand i Null rekurrent. Es gelten für einen beliebigen Zustand i die folgenden Zusammenhänge (ohne Beweis): µ i < genau dann, wenn lim n p ii (n) > 0; µ i = genau dann, wenn lim p ii (n) = 0. n Ist der Zustand i positiv rekurrent und aperiodisch, so gilt: 1 µ i = lim p ii(n). n 742 W.Kössler, Humboldt-Universität zu Berlin

27 Def. 66 Eine MARKOFF sche Kette {X t } t T heißt ergodisch, falls der Zustandsraum S nur aus positiv rekurrenten und aperiodischen Zuständen besteht. Satz 72 (Ergodensatz) Eine homogene MARKOFF sche Kette {X t } t T ist genau dann irreduzibel und ergodisch, wenn für alle Zustände i S gilt: p j := lim n p ij (n) > 0. Außerdem gilt µ j = 1 p j und {p j } ist eindeutig bestimmt durch: p j = i=1 p i p ij. 743 W.Kössler, Humboldt-Universität zu Berlin

28 {p i } heißt stationäre oder Finalverteilung. Die stationäre Verteilung kann also nach obiger Gleichung ermittelt werden. p = p 1. = M T... p 2 p j p 1 p 2 p j. Also gilt: M T p = p = λ p mit λ = 1. Eigenwertgleichung für den Eigenwert 1. p ist Eigenvektor zum Eigenwert 1. Bem. 28 M und M T haben dieselben Eigenwerte. 744 W.Kössler, Humboldt-Universität zu Berlin

29 Folg. 15 Sei M die Übergangsmatrix einer MARKOFF schen Kette mit endlich vielen Zuständen (in der Form, in der die Äquivalenzklassen ablesbar sind) Dann gilt: Die Vielfachheit des Eigenwertes 1 ist gleich der Anzahl der rekurrenten Äquivalenzklassen. Beweis: Jede Teilübergangsmatrix von Äquivalenzklassen hat den einfachen Eigenwert 1 (Finalverteilung eindeutig!) Bsp. 119 Wir betrachten eine MARKOFF sche Kette über einem dreielementigen Zustandsraum, die die folgende 745 W.Kössler, Humboldt-Universität zu Berlin

30 Übergangsmatrix M besitzt: M = Äquivalenzklassen: {1, 2}, {3}. Wir ermitteln die Eigenwerte: 0 = det(m λ I) 1 λ = λ λ = (1 λ) [( 1 2 λ) (1 4 λ) 3 8 ] 746 W.Kössler, Humboldt-Universität zu Berlin

31 Der erste Eigenwert: λ 1 = 1. Weiter: 0 = ( 1 2 λ) (1 4 λ) 3 8 = λ + λ2 3 8 = λ λ 1 4 λ 2,3 = 3 8 ± = 3 8 ± λ 2 = = 1 λ 3 = W.Kössler, Humboldt-Universität zu Berlin

32 Also: Eigenwerte: λ 1 = λ 2 = 1 und λ 3 = 1. Der Eigenwert 4 1 hat folglich die Häufigkeit 2, und somit gibt es zwei rekurrente Äquivalenzklassen. Folg. 16 Falls p ij = j p ij = 1 i so sind die stationären Verteilungen einer endlichen irreduziblen Markoffschen Kette Gleichverteilungen. 748 W.Kössler, Humboldt-Universität zu Berlin

33 Beweis: Es gilt für die stationäre Verteilung (p 1,...,p n ): p i p ij = p j = p j p ij i Daraus folgt j (p i p j )p ij = 0, insbesondere i i (p i p j0 )p ij0 = 0, j 0 = min j Wegen (p i p j0 ) 0 folgt p j0 = p i i, d.h. p i = 1 n. Folg. 17 Ist die Übergangsmatrix einer endlichen irreduziblen Markoffschen Kette symmetrisch so sind die stationären Verteilungen Gleichverteilungen. i p j 749 W.Kössler, Humboldt-Universität zu Berlin

34 Veranschaulichung von limp jj (n) = 1 µ j und des Ergodensatzes {X t }: homogene Markoffsche Kette j: rekurrenter Zustand, X 0 = j (j fest). 1, falls X k = j Y k = 0, sonst. P(Y k = 1) = p jj (k), EY k = p jj (k) 750 W.Kössler, Humboldt-Universität zu Berlin

35 Anzahl der Wiederkehrzeitpunkte im Zeitraum 1,...,N N k=1 Y k = k N. Beobachtete mittlere Anzahl der Wiederkehrpunkte pro Schritt (im Zeitraum 1,...,N) k N N Ek N N = 1 N E( N = 1 N N p jj (n) n=1 n=1 Y k ) = 1 N N n=1 EY k 751 W.Kössler, Humboldt-Universität zu Berlin

36 Mittlere beobachtete Wiederkehrzeit im Zeitraum 1,...,N N k N µ j = Andererseits: 1 N N n=1 p jj (n) N 1 µ j lim n p jj(n) = p j = 1 N N n=1 p jj (n) N p j = 1 µ j. 752 W.Kössler, Humboldt-Universität zu Berlin

37 Abschätzung der Konvergenzgeschwindigkeit c(n 0 ) := sup i,j p im (n 0 ) p jm (n 0 ) m Für n n 0 gilt: c(n) > 0. Satz 73 Sei c(n 0 ) > 0 für ein gewisses n 0. dann existiert lim p j(n) = p j, j = 1, 2,... n und es gilt für alle Anfangsverteilungen {p 0 j}: p j (n) p j C e Dn, 753 W.Kössler, Humboldt-Universität zu Berlin

38 wobei C = 1 1 c(n 0 ), D = 1 n 0 ln 1 1 c(n o ) Beweis: Rosanov, Zufällige Prozesse p j (n) = P(X n = j) = i p 0 ip ij (n) 754 W.Kössler, Humboldt-Universität zu Berlin

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

Zwei Spieler werfen abwechselnd eine (nicht manipulierte)

Zwei Spieler werfen abwechselnd eine (nicht manipulierte) 5 Klassische Beispiele 5.1 Ruin des Spielers Zwei Spieler werfen abwechselnd eine (nicht manipulierte) Münze. Fällt Kopf, so erhält Spieler A den vereinbarten Einsatz (1 Euro) von Spieler B, anderenfalls

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Bsp. 120 Ein-Prozessorsystem mit mehreren E/A-Einheiten.

Bsp. 120 Ein-Prozessorsystem mit mehreren E/A-Einheiten. Bsp. 20 Ein-Prozessorsystem mit mehreren E/A-Einheiten. Ein Programm. das sich in der CPU befindet, geht mit Wkt. q i in die I/O-Einheit i über, oder endet (mit Wkt. q 0 ) und macht Platz für ein neues

Mehr

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij. 8 Markov-Ketten 8.1 Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

5 Zufallsvariablen, Grundbegriffe

5 Zufallsvariablen, Grundbegriffe II. Zufallsvariablen 5 Zufallsvariablen, Grundbegriffe Def. 12 Es seien (Ω 1, E 1,P 1 ) und (Ω 2, E 2,P 2 ) Wahrscheinlichkeitsräume. Eine Abbildung X : Ω 1 Ω 2 heißt E 1 E 2 meßbar, falls für alle Ereignisse

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,

Mehr

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle). 77 Markowketten 77 Motivation Der Zustand eines Systems zur Zeit n N werde durch eine Zufallsvariable X n beschrieben und soll nur von X n abhängen (nicht jedoch von früheren Zuständen X n, X n 3, ) Wir

Mehr

10 Markow-Ketten. Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen

10 Markow-Ketten. Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen 10 Markow-Ketten Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen 10.1 Lineare Differenzengleichungen Unter einer homogenen linearen Differenzengleichung der Ordnung r verstehen wir eine

Mehr

4.2 Moment und Varianz

4.2 Moment und Varianz 4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p

Mehr

Seminar über Markovketten

Seminar über Markovketten Universität Siegen Fachbereich Mathematik Seminar über Markovketten Sommersemester 003 Dozent Dr. Edgar Kaufmann Seminarteilnehmer Tobias Kegel Alexander Luke Uwe Nowak Übergangswahrscheinlichkeiten höherer

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω = {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω = 2 3 = 8 = N

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 6 Langzeitverhalten, stationäre Masse Multiplikation von Rechts! Literatur Kapitel 6 * Grimmett & Stirzaker: Kapitel 6.4 * Krengel: 6. 6. Motivation Um die nachfolgenden

Mehr

Einführung in Markoff-Ketten

Einführung in Markoff-Ketten Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die

Mehr

10 Transformation von Zufallsvariablen

10 Transformation von Zufallsvariablen 10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013

Mehr

DisMod-Repetitorium Tag 3

DisMod-Repetitorium Tag 3 DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität

Mehr

Stochastische Prozesse Stoffzusammenfassung

Stochastische Prozesse Stoffzusammenfassung Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 7. August 2018 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt

Mehr

1 A dp = P(A B). (1.3)

1 A dp = P(A B). (1.3) Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare

Mehr

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen

Mehr

DIPLOMARBEIT. Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung

DIPLOMARBEIT. Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung Studiengang Diplom-Mathematik mit Schwerpunkt Biowissenschaften DIPLOMARBEIT Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung von: Christina Boll geb. Wolf

Mehr

Die Abbildung zeigt die Kette aus dem "

Die Abbildung zeigt die Kette aus dem ½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen. Bsp (3-maliges Werfen einer Münze) Menge der Elementarereignisse:

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen. Bsp (3-maliges Werfen einer Münze) Menge der Elementarereignisse: 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen Bsp. 1.19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz, zzw,zwz,wzz,zww,wzw,wwz,www}. Dabei gilt: Ω 2 3 8 N. Wir definieren

Mehr

Bedingt unabhängige Zufallsvariablen

Bedingt unabhängige Zufallsvariablen 7. Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Benannt nach Andrei A. Markov [856-9] Einige Stichworte: Markov-Ketten Definition Eigenschaften Konvergenz Hidden Markov Modelle Sei X

Mehr

Diskrete Wahrscheinlichkeitstheorie

Diskrete Wahrscheinlichkeitstheorie SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil VI Markov-Ketten Markov-Ketten Markov-Ketten

Mehr

3.4 Anwendung bedingter Wahrscheinlichkeiten

3.4 Anwendung bedingter Wahrscheinlichkeiten 3.4 Anwendung bedingter Wahrscheinlichkeiten Bsp. 23 Betrachtet werden mehrere Kanonen. Für i N bezeichne A i das Ereignis, daß Kanone i einen Schuß abgibt. A sei das Ereignis, daß ein Treffer erzielt

Mehr

Stationäre Maße und Zeitmittel

Stationäre Maße und Zeitmittel Stationäre Maße und Zeitmittel Clara Strohm SS 2003 Seminar Wahrscheinlichkeitstheorie Wir untersuchen im folgenden das Langzeitverhalten in diesem Fall gleichmäßige Konvergenz im Césaro-Mittel diskreter,

Mehr

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage

Mehr

Kapitel 5: Markovketten

Kapitel 5: Markovketten Kapitel 5: Markovketten Definition 5.1 Bezeichnungen Bsp. 5.1 Definition 5.2 Eine Fam. (X i ) i I von ZV en X i : Ω E auf (Ω, F, P) mit Werten im messb. Raum (E, E) heißt Stochastischer Prozess. E Zustandsraum

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 25 Überblick Überblick Metropolis-Algorithmus

Mehr

3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur

3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur 3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur Ein Zustand j ist erreichbar von i (i j), falls P i (X t = j für ein t 0) > 0. i j, wenn i erreichbar von j und j erreichbar von i ist. Die

Mehr

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse 2 Halbgruppen von Übergangswahrscheinlichkeiten Markov-Prozesse Im Folgenden sei (X, B) ein (polnischer) Messraum und T = [0, ) oder T = N 0 Definition 21 Eine Familie (P t ) t T von (X, B) mit Übergangswahrscheinlichkeiten

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Kapitel 12: Markov-Ketten

Kapitel 12: Markov-Ketten Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 21.01.2016 Kapitel 12: Markov-Ketten Ab jetzt betrachten wir stochastische Prozesse (X n ) n N0 mit 1. diskreter Zeit N 0 = {0,1,2,...},

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω 2 3 8 N Wir definieren

Mehr

Studiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit.

Studiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit. Studiengang Diplom-Mathematik DIPLOMARBEIT Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit eingereicht von Christina Gunkel am 3. Juni 2008 Erste Gutachterin: Zweiter Gutachter:

Mehr

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9 Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

15.3 Statistische Tests von Pseudozufallszahlen

15.3 Statistische Tests von Pseudozufallszahlen 15.3 Statistische Tests von Pseudozufallszahlen Def. 52 Ein Test ist eine Entscheidungsvorschrift, die über die Akzeptanz genau einer von zwei alternativen Hypothesen entscheidet. Bsp. 109 (Analogie zur

Mehr

3. Prozesse mit kontinuierlicher Zeit

3. Prozesse mit kontinuierlicher Zeit 3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess

Mehr

Markov-Ketten 1. Definition 2.1

Markov-Ketten 1. Definition 2.1 Marov-Ketten Definition 2. Sei P eine -Matrix mit Elementen {P i,j : i, j,...,}. Ein Zufallsprozess (X 0, X,...) mit endlichem Zustandsraum S{s,...,s } heißt homogene Marov-Kette mit Übergangsmatrix P,

Mehr

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient 11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}

Mehr

15 Grundlagen der Simulation

15 Grundlagen der Simulation 15 Grundlagen der Simulation 15.1 Einführung Komplexe Problemstellungen, die einer analytischen Behandlung nur sehr schwer oder gar nicht zugänglich sind Lösung von diskreten (oder analytischen) Optimierungsaufgaben,

Mehr

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 5.6.2013 8. Unabhängigkeit von Zufallsgrößen, Erwartungswert und Varianz 8.1

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1 Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme

Mehr

Vorstellung der Kopplung bei Markovketten

Vorstellung der Kopplung bei Markovketten Vorstellung der Kopplung bei Markovketten Leonie Weinhold 13. Mai 2011 1 Einleitung In der Wahrscheinlichkeitstheorie und ihren Anwendungen ist die Coupling- Methode ein wichtiges Instrument, um z.b. Aussagen

Mehr

7.4 Charakteristische Funktionen

7.4 Charakteristische Funktionen 7.4 Charakteristische Funktionen Def. 25 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx

Mehr

6.4 Poisson-Verteilung

6.4 Poisson-Verteilung 6.4 Poisson-Verteilung Sei {N t } t T eine Menge von Zufallsvariablen (ein stochastischer Prozeß ) mit folgenden Eigenschaften: V1: Zuwächse sind unabhängig, dh. die Zufallsvariablen N t+h N t und N t

Mehr

Klausur zur Vorlesung,,Algorithmische Mathematik II

Klausur zur Vorlesung,,Algorithmische Mathematik II Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese

Mehr

4 Funktionenfolgen und normierte Räume

4 Funktionenfolgen und normierte Räume $Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei

Mehr

Übung ln(p) x aus dem Primzahlsatz π(x) x/ ln(x) folgt. Gehen Sie dabei wie folgt vor: i) p x

Übung ln(p) x aus dem Primzahlsatz π(x) x/ ln(x) folgt. Gehen Sie dabei wie folgt vor: i) p x Übung 0 Übung 0 Zeigen Sie, dass der Primzahlsatz π(x) x/ ln(x) aus p x ln(p) x folgt Übung 02 Zeigen Sie, dass p x ln(p) x aus dem Primzahlsatz π(x) x/ ln(x) folgt Gehen Sie dabei wie folgt vor: i) p

Mehr

Eigenwerte und Netzwerkanalyse. Page Rank

Eigenwerte und Netzwerkanalyse. Page Rank A Google versucht die Bedeutung von Webseiten mithilfe des sogenannten zu ermitteln. Der einer Seite basiert ausschließlich auf der Verweisstruktur des Webs. Der Inhalt einer Seite hat dagegen keinen direkten

Mehr

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion

Mehr

Markov Ketten und Bonus Malus Systeme

Markov Ketten und Bonus Malus Systeme Grund Stoch Markov Ketten Bonus Malus Probleme L 1 / 46 Markov Ketten und Bonus Malus Systeme Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden TU Wien 19. Mai 2010

Mehr

Endliche Markov-Ketten

Endliche Markov-Ketten Endliche Markov-Ketten Michael Krühler 24. Oktober 2013 Inhaltsverzeichnis 1 Einführung 2 1.1 Mathematische Einführung......................... 2 1.2 Interpretation................................. 3 2

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Chr.Nelius: Zahlentheorie (WS 2006/07) ggt und kgv

Chr.Nelius: Zahlentheorie (WS 2006/07) ggt und kgv ChrNelius: Zahlentheorie (WS 2006/07) 8 3 ggt und kgv Wir erinnern uns hoffentlich an die folgenden Definitionen des ggt s und des kgv s zweier ganzer Zahlen (31) DEF: Eine ganze Zahl g heißt größter gemeinsamer

Mehr

Kapitel 4 Diskrete Markov-Prozesse

Kapitel 4 Diskrete Markov-Prozesse Kapitel 4 Diskrete Markov-Prozesse 4.1 Definition und grundlegende Eigenschaften 4.1 Definition und grundlegende Eigenschaften Stetige Zeit aber weiterhin diskreter Zustandsraum. Beispiele: Klinische Studien,

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung

Mehr

Thema: Totalvariationabstand, Kopplung und Mischzeiten

Thema: Totalvariationabstand, Kopplung und Mischzeiten Technische Universität Berlin Thema: Totalvariationabstand, Kopplung und Mischzeiten Ausarbeitung zum Seminar Moderne Anwendung von Markovketten Name: Nina Kamswich Matrikelnummer: 33677 Fachbereich: Mathematik

Mehr

5.3 Diskrete zufällige Variablen

5.3 Diskrete zufällige Variablen 5.3 Diskrete zufällige Variablen X(ω) { x 1,x 2,x 3,... } X : x 1 x 2 x 3 x n p 1 p 2 p 3 p n p i = P(X = x i ) > 0, i = 1, 2, 3,... Die Funktion f(x i ) = p i heißt Wahrscheinlichkeitsfunktion. i=1 p

Mehr

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. 12 Ungleichungen Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. Dann gilt: min c R E(X c)2 = Var X. Beweis: Für alle reellen Zahlen c R gilt: E(X

Mehr

7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X].

7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X]. 7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := gilt G X(1) = Pr[X = k] s k = E[s X ], k=0 k Pr[X = k] = E[X]. k=1 DWT 7.1 Einführung 182/476 Beispiel 73 Sei X binomialverteilt

Mehr

Klausur,,Algorithmische Mathematik II

Klausur,,Algorithmische Mathematik II Institut für angewandte Mathematik Sommersemester 03 Andreas Eberle Matthias Erbar / Jan Maas Klausur Algorithmische Mathematik II Musterlösung. (Zufallsvariablen und ihre Verteilung a Wir nehmen an dass

Mehr

80 7 MARKOV-KETTEN. 7.1 Definition und Eigenschaften von Markov-Ketten

80 7 MARKOV-KETTEN. 7.1 Definition und Eigenschaften von Markov-Ketten 80 7 MARKOV-KETTEN 7 Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Sei X = (X 0, X, X 2,...) eine Folge von diskreten Zufallsvariablen, die alle Ausprägungen in einer endlichen bzw. abzählbaren

Mehr

Satz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung

Satz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung Satz von Borel-Cantelli Limes inferior von Mengen Limes superior von Mengen Stetigkeit Konvergenz von Zufallsvariablen Kolmogorow-Ungleichung Tschebyschow-Ungleichung Konvergenzkriterien Starkes Gesetz

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 8. Vorlesung - 2017 Bemerkung: Sei X = (X 1,..., X n ) Zufallsvektor. Der n dimensionale Vektor ( ) E(X ) = E(X 1 ),..., E(X n ) ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N (0,

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag 20.05.20 Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis

Mehr

Übungsaufgaben Lösungen

Übungsaufgaben Lösungen Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij

Mehr

p k (1 p) n k s k = (1 p + ps) n. k p(1 p) k 1 s k ((1 p)s) k 1 =

p k (1 p) n k s k = (1 p + ps) n. k p(1 p) k 1 s k ((1 p)s) k 1 = Binomialverteilung Für X Bin(n, p) gilt nach der binomischen Formel G X (s) = E[s X ] = n ( ) n p k (1 p) n k s k = (1 p + ps) n. k Geometrische Verteilung Sei X eine geometrisch verteilte Zufallsvariable

Mehr

Suchmaschinen und Markov-Ketten 1 / 42

Suchmaschinen und Markov-Ketten 1 / 42 Suchmaschinen und Markov-Ketten 1 / 42 Zielstellung 1 Wir geben einen kurzen Überblick über die Arbeitsweise von Suchmaschinen für das Internet. Eine Suchmaschine erwartet als Eingabe ein Stichwort oder

Mehr

Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie-

Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie- 1 Vorbemerkungen Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie- benen Vektoren. Wird die Matrix A = ( a 1,..., a n ) mit dem Vektor c = c 1. c n multipliziert,

Mehr

Bem. 6 Die charakterische Funktion existiert.

Bem. 6 Die charakterische Funktion existiert. 4.4 Charakteristische Funktionen Def. 2.14 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx

Mehr

Y = g 2 (U 1,U 2 ) = 2 ln U 1 sin 2πU 2

Y = g 2 (U 1,U 2 ) = 2 ln U 1 sin 2πU 2 Bsp. 72 (BOX MÜLLER Transformation) Es seien U 1 und U 2 zwei unabhängige, über dem Intervall [0, 1[ gleichverteilte Zufallsgrößen (U i R(0, 1), i = 1, 2), U = (U 1,U 2 ) T ein zufälliger Vektor. Wir betrachten

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation. Propp-Wilson-Algorithmus

Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation. Propp-Wilson-Algorithmus Technische Universität Berlin Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation Propp-Wilson-Algorithmus Lisa Brust Matrikelnummer: 330793 Master Mathematik 30. Juni 2016

Mehr

Erneuerungs- und Semi-Markov-Prozesse

Erneuerungs- und Semi-Markov-Prozesse Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Für den Poisson-Prozess und (reguläre) diskrete Markov-Prozesse impliziert die Markov-Eigenschaft, dass die Zwischenzeiten bzw. Verweildauern exponentialverteilt

Mehr

2 Kombinatorik. 56 W.Kössler, Humboldt-Universität zu Berlin

2 Kombinatorik. 56 W.Kössler, Humboldt-Universität zu Berlin 2 Kombinatorik Aufgabenstellung: Anzahl der verschiedenen Zusammenstellungen von Objekten. Je nach Art der zusätzlichen Forderungen, ist zu unterscheiden, welche Zusammenstellungen als gleich, und welche

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 stheorie: Grundbegriffe Prof. Dr. Achim Klenke http://www.aklenke.de 5. Vorlesung: 25.11.2011 1/33 Inhalt 1 Zufallsvariablen 2 Ereignisse 3 2/33 Zufallsvariablen Eine Zufallsvariable

Mehr

Markovketten. Vorlesungsskript. Universität Freiburg. Andrej Depperschmidt. Sommersemester 2016

Markovketten. Vorlesungsskript. Universität Freiburg. Andrej Depperschmidt. Sommersemester 2016 Markovketten Andrej Depperschmidt Vorlesungsskript Universität Freiburg Sommersemester 2016 Version: 20. Juni 2016 1 Einleitung Markovprozesse ist eine für viele Anwendungen wichtige Klasse von stochastischen

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr