Endliche Markov-Ketten - eine Übersicht

Ähnliche Dokumente
Einführung in die Theorie der Markov-Ketten. Jens Schomaker

16.3 Rekurrente und transiente Zustände

Einführung in Markoff-Ketten

Die Abbildung zeigt die Kette aus dem "

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1

LANGZEITVERHALTEN VON MARKOW-KETTEN

LANGZEITVERHALTEN VON MARKOW-KETTEN

Trennende Markov Ketten

DIPLOMARBEIT. Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung

Eigenwerte und Diagonalisierung

Ljapunov Exponenten. Reiner Lauterbach

Stochastik I. Vorlesungsmitschrift

6 Hauptachsentransformation

2 Zufallsvariable, Verteilungen, Erwartungswert

Zusammenfassung der Lebesgue-Integrationstheorie

DynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

3.6 Eigenwerte und Eigenvektoren

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus

1 A dp = P(A B). (1.3)

Lineare Algebra I (WS 13/14)

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Kapitel 11. Bilinearformen über beliebigen Bilinearformen

1 0 1, V 3 = M, und λ A = λa

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

Absolute Stetigkeit von Maßen

Kapitel 5 KONVERGENZ

Lineare Abhängigkeit

σ-algebren, Definition des Maßraums

7.2 Moment und Varianz

Gesetze der großen Zahlen

Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie

Mathematische Ökonometrie

Euklidische und unitäre Vektorräume

4 Affine Koordinatensysteme

Stochastik. 1. Wahrscheinlichkeitsräume

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

2 Die Dimension eines Vektorraums

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Grundbegriffe der Wahrscheinlichkeitsrechnung

37 Gauß-Algorithmus und lineare Gleichungssysteme

9 Schnell mischende Markov-Ketten

Etwas Topologie. Handout zur Vorlesung Semi-Riemannsche Geometrie, SS 2004 Dr. Bernd Ammann

Iterative Verfahren, Splittingmethoden

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Abschlussprüfung StoP FS 2014

Matrizen, Determinanten, lineare Gleichungssysteme

Populationsentwicklung

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

3.3 Eigenwerte und Eigenräume, Diagonalisierung

1 Angeordnete Körper. 1.1 Anordnungen und Positivbereiche

Kap. 10: Folgen und Reihen. Eine Funktion a : N Ñ R

5 Erwartungswerte, Varianzen und Kovarianzen

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Kongruenz modulo g definiert auf K[x] eine Äquivalenzrelation g : h g f h f ist durch g teilbar, und [f] g ist die Äquivalenzklasse von f.

Aufgaben zu Kapitel 15

2 Euklidische Vektorräume

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Lineare Algebra und analytische Geometrie I

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die

Konvergenz im quadratischen Mittel - Hilberträume

Maße auf Produkträumen

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Lösungen zu Übungsblatt 9

Lineare Algebra I Zusammenfassung

Konvergenz, Filter und der Satz von Tychonoff

ε δ Definition der Stetigkeit.

STOCHASTIK A&B PHILIP HERRMANN

Fraktale Geometrie. 9: Metrische äußere Maße II. Universität Regensburg Sommersemester Daniel Heiß:

Klausur zur Vorlesung,,Algorithmische Mathematik II

Thema 3 Folgen, Grenzwerte

Proseminar Lineare Algebra II, SS 11. Blatt

Einführung in die Analysis

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Übungen zur Linearen Algebra 1

n=1 a n mit reellen Zahlen a n einen

Topologische Aspekte: Eine kurze Zusammenfassung

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

7 KONVERGENTE FOLGEN 35. inf M = Infimum von M. bezeichnet haben. Definition. Sei (a n ) n N eine beschränkte Folge in R. Dann heißt.

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom

Kapitel 6 Martingale

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

4. Vektorräume und Gleichungssysteme

Definition 3.1. Sei A X. Unter einer offenen Überdeckung von A versteht man eine Familie (U i ) i I offener Mengen U i X mit U i

Übungen zur Linearen Algebra 1

Kapitel 3. Konvergenz von Folgen und Reihen

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

Kapitel 15. Aufgaben. Verständnisfragen

MC-Serie 11: Eigenwerte

Mathematische Erfrischungen III - Vektoren und Matrizen

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

Definition 153 Sei n eine fest gewählte ganze Zahl 0. Für jedes l Z heißt die Menge

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

KONSTRUKTION VON MASSEN

Mathematik I. Vorlesung 7. Folgen in einem angeordneten Körper

Topologische Begriffe

Transkript:

Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und Sätzen, mit welchen man auch im Blockseminar zur Wahrscheinlichkeitstheorie konfrontiert wird bzw. werden könnte. Wer eine ausführlichere Darstellung bzw. Einführung wünscht, die sich dennoch schnell erarbeiten lässt, dem sei die oben genannte Quelle nahegelegt. Im Folgenden sei Z eine beliebige endliche Menge, stillschweigend ausgestattet mit ihrer Potenzmenge als σ-algebra. Die Elemente aus R Z bzw. R Z Z verstehen wir als Zeilenvektoren bzw. als quadratische Matrizen, wobei eine beliebige Anordnung der Indexmenge Z zugrunde gelegt sei. Definition 1. Wir definieren: 1) Ein Vektor µ = (µ z ) z Z R Z heißt Wahrscheinlichkeitsvektor, falls gilt: i) z Z : µ z 0 ii) z Z µ z = 1 2) Eine Matrix Q = (q z,z ) z,z Z R Z Z heißt stochastische Matrix, falls ihre Zeilen Wahrscheinlichkeitsvektoren sind, d.h. falls gilt: i) z,z Z : q z,z 0 ii) z Z : z Z q z,z = 1 Definition 2. Ein stochastischer Prozess (X n ) n N0 mit Zustandsraum Z heißt endliche Markov-Kette, falls er die Markov-Eigenschaft erfüllt, dh. falls gilt: P(X n+1 = z n+1 (X 0,...,X n ) = (z 0,...,z n )) = P(X n+1 = z n+1 X n = z n ) für alle n N und alle z 0,...,z n+1 mit P((X 0,...,X n ) = (z 0,...,z n )) > 0. Die endliche Markov-Kette heißt homogen, falls für alle z,z Z ein q z,z R existiert, sodass für alle n N mit P(X n = z) > 0 gilt: P(X n+1 = z X n = z) = q z,z Anmerkung. Im Folgenden betrachten wir nur noch homogene endliche Markov-Ketten mit Zustandsraum Z und nennen diese schlichtweg Markov-Kette. Definition 3. Sei (X n ) n N0 eine Markov-Kette, so heißt eine stochastische Matrix Q R Z Z Übergangsmatrix dieser Kette, falls für alle z,z Z gilt: Ist n N 0 beliebig mit P(X n = z) > 0, so folgt P(X n+1 = z X n = z) = q z,z. 1

Anmerkung. Im Kontext einer Markov-Kette (X n ) n N0 bezeichnen wir mit Q stets ihre Übergangsmatrix. Ferner setzen wir n N 0 : µ (n) := P Xn, also die Verteilung der Kette zum Zeitpunkt n. Die Verteilung µ (0) bezeichnet man auch als Startverteilung der Markov-Kette. Die so definierten Verteilungen (µ (n) ) n N0 identifizieren wir auch stets mit entsprechenden Wahrscheinlichkeitsvektoren aus R Z. Lemma 4. Eine Markov-Kette (X n ) n N0 besitzt die folgenden Eigenschaften: i) Für alle n,l N 0 gilt: µ (n+l) = µ (n) Q l ii) Für alle n N und z 0,...,z n Z gilt: P ((X 0,...,X n ) = (z 0,...,z n )) = µ (0) z 0 q z0,z 1 q zn 1,z n. Anmerkung. Eine Markov-Kette (bzw. die Verteilung einer Markov-Kette) ist also eindeutig bestimmt durch ihre Anfangsverteilung µ (0) sowie ihre Übergangsmatrix Q. Ferner nennt man für alle l N die Matrix Q l auch l-schritt-übergangsmatrix. Wir schreiben dann Q l = (q (l) z,z ) z,z Z. Definition 5. Eine stochastische Matrix Q R Z Z heißt irreduzibel, falls z,z Z : n > 0 : (q (n) z,z ) > 0 und aperiodisch, falls z Z : ggt{n > 0 q (n) z,z > 0} = 1. Definition 6. Eine Markov-Kette heißt irreduzibel bzw. aperiodisch, falls ihre Übergangsmatrix diese Eigenschaft erfüllt. Anmerkung. Markov-Ketten, welche sowohl irreduzibel, als auch aperiodisch sind, sind in der Theorie und in den Anwendungen extrem wichtig. Irreduzibilität bedeutet, dass die Kette von jedem Zustand z Z ausgehend jeden Zustand z Z mit positiver Wahrscheinlichkeit nach einer positiven Anzahl von Schritten erreicht. Aperiodizität bedeutet zum einen, dass die Markov-Kette ausgehend von einem Zustand z Z nach einer positiven Anzahl von Schritten mit positiver Wahrscheinlichkeit in diesen Zustand zurückkehren kann, und dass jene möglichen Rückkehrzeitpunkte nicht periodisch sind, das heißt nicht in einer Menge der Form {d,2d,...} für ein d 2 liegen. Bemerkung 7. Viele der folgenden Aussagen werden wir für stochastische Matrizen Q formulieren. Die Aussagen gelten dann also für alle Markov-Ketten mit Übergangsmatrix Q und beliebiger Anfangsverteilung µ (0). 2

Lemma 8. Sei Q eine irreduzible stochastische Matrix mit einem positiven Diagonalelement. Dann ist Q aperiodisch. Anmerkung. Die Diagonalelemente einer Übergangsmatrix einer Markov-Kette nennt man auch Verweilwahrscheinlichkeiten, da diese gerade die Wahrscheinlichkeit angeben, dass die Kette im nächsten Schritt im aktuellen Zustand stehen bleibt. Hat man also eine irreduzible Markov-Kette mit mindestens einer positiven Verweilwahrscheinlichkeit, so ist sie auch aperiodisch. Im Folgenden nennen wir einen Vektor oder eine Matrix positiv, falls alle Einträge positiv sind. Lemma 9. Für jede stochastische Matrix Q R Z Z sind folgende Aussagen äquivalent: i) Q ist irreduzibel und aperiodisch ii) iii) n > 0 : Q n ist positiv N > 0 : n N : Q n ist positiv Definition 10. Sei Q R Z Z eine stochastische Matrix. Ein Wahrscheinlichkeitsvektor µ R Z mit µ Q = µ heißt stationäre Verteilung oder invariantes Maß der Matrix Q (bzw. einer Markov-Kette mit Übergangsmatrix Q). Anmerkung. Die Verteilungen P Xn einer Markov-Kette zu den Zeiten n N 0 stimmen genau dann überein, wenn die Anfangsverteilung der Kette eine stationäre Verteilung der Übergangsmatrix der Kette ist. Die Gleichverteilung auf Z ist offenbar genau dann eine stationäre Verteilung von Q, wenn auch die Spaltensummen von Q gleich eins sind. Solche Übergangsmatrizen werden auch als doppelt-stochastisch bezeichnet. Symmetrische stochastische Matrizen sind z.b. stets doppelt-stochastisch. Definition 11. Eine stochastische Matrix Q = (q z,z ) R Z Z (bzw. eine Markov-Kette mit jener Übergangsmatrix) heißt reversibel, falls ein Wahrscheinlichkeitsvektor µ R Z existiert, der die detailed-balance-gleichungen erfüllt, das heißt z,z Z : µ z q z,z = µ z q z,z. In diesem Fall sagt man auch, Q (bzw. eine Markov-Kette mit Übergangsmatrix Q) sei reversibel bzgl. µ. Lemma 12. Sei Q reversibel bezüglich µ. Dann ist µ eine invariante Verteilung von Q. Anmerkung. Ist Q symmetrisch, dann auch reversibel bzgl. der Gleichverteilung auf Z. 3

Satz 13. Zu jeder irreduziblen und aperiodischen Matrix Q existiert eine positive stationäre Verteilung. Satz 14. Sei Q R Z Z eine irreduzible und aperiodische stochastische Matrix und sei µ R Z eine stationäre Verteilung von Q. Dann existieren Konstanten c > 0 und α (0, 1), sodass sup (µ (0) Q n ) z µ z c α n z Z für jeden Wahrscheinlichkeitsvektor µ (0) R Z und alle n N gilt. Definition 15. Seien µ und ν beliebige Wahrscheinlichkeitsverteilungen auf Z, dann definiert man den Totalvariationsabstand zwischen µ und ν durch µ ν T V := sup µ(a) ν(a) A Z Anmerkung. Der Totalvariationabstand bildet eine Metrik auf der Menge aller Wahrscheinlichkeitsverteilungen auf Z, d.h. man kann von Konvergenz in Totalvariation sprechen. Corollar 16. 1. Ergodensatz: Jede irreduzible und aperiodische Matrix Q besitzt eine eindeutig bestimmte stationäre Verteilung µ. Diese ist positiv, und die Folge der Verteilungen µ (n) jeder Markov-Kette mit Übergangsmatrix Q konvergiert für jede Anfangsverteilung µ (0) exponentiell schnell gegen µ in Totalvariation. Genauer existieren Konstanten c > 0 sowie α (0,1), sodass für alle n N 0 gilt: µ (n) µ T V = sup µ (n) (A) µ(a) c α n A Z Definition 17. Das Gleichgewichtsmaß µ einer Markov-Kette (X n ) n N0 gibt die Langzeitverteilung dieser an und ist definiert durch µ(z) = lim n P(X n = z X 0 = z ) z,z Z, falls dies wohldefiniert ist, d.h. der Grenzwert auf der rechten Seite nicht von z abhängt. Falls alle Voraussetzungen für den 1. Ergodensatz erfüllt sind, so ist das Gleichgewichtsmaß genau die stationäre Verteilung der Markov-Kette, es gilt also µ = µ. Satz 18. 2. Ergodensatz: Sei (X n ) n N0 eine irreduzible und aperiodische Markov-Kette mit stationärer Verteilung µ R Z. Für jede Abbildung f : Z R gilt fast sicher 1 lim n n n k ) = k=1f(x f(z)µ z z Z 4

Anmerkung. Man beachte in der Aussage des 2. Ergodensatzes, dass rechts der µ- Erwartungswert von f steht (also E µ f) und denke an das starke Gesetz der großen Zahlen. Satz 19. Sei die stochastische Matrix Q R Z Z irreduzibel, aperiodisch und reversibel bzgl. ihrer stationären Verteilung µ. Dann gilt: i) Q besitzt nur reelle Eigenwerte. ii) Q besitzt den Eigenwert 1. Jener ist einfach und dominiert betraglich alle anderen Eigenwerte strikt. Definition 20. Sei X = (X n ) n N0 eine irreduzible, aperiodische und bzgl. µ reversible Markov-Kette mit Übergangsmatrix Q R Z Z. Dann gilt für die (nicht notwendigerweise verschiedenen) Eigenwerte (λ z ) z Z nach geeineter Nummerierung: 1 = λ 1 > λ 2 λ 3... λ Z > 1 Wir setzen nun (X) := 1 λ 2 und nennen diesen Wert Spektrallücke von X. Ferner setzen wir (X) := 1 max(λ 2, λ Z ) und nennen diesen Wert absolute Spektrallücke von X. Satz 21. Sei X = (X n ) n N0 eine irreduzible, aperiodische und bzgl. µ reversible Markov- Kette. Dann gilt (X) (0,1) und es existiert ein c > 0 sodass für alle n N 0 gilt : P Xn µ T V c (1 (X)) n Satz 22. Sei X = (X n ) n N0 eine irreduzible, aperiodische und bzgl. µ reversible Markov- Kette sowie f : Z R eine Funktion. Dann gilt ein zentraler Grenzwertsatz im folgenden Sinne: ( ) 1 n d n f(x i ) E µ f N(0,V a n µf) für n i=1 wobei für die asymptotische Varianz V a µf (0, ) gilt: V a µf ( ) 2 V µ f (X) Hierbei ist (X) die Spektrallücke der Kette X. 5