Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Ähnliche Dokumente
Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr)

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Diskrete Wahrscheinlichkeitstheorie

16.3 Rekurrente und transiente Zustände

Klausur: Diskrete Strukturen I

Angewandte Stochastik

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Markov-Ketten Proseminar: Das virtuelle Labor Ariane Wietschke

Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

15. September 2010 Prof. Dr. W. Bley. Universität Kassel Klausur SS 2010 Diskrete Strukturen I (Informatik) Name:... Matr.-Nr.:... Viel Erfolg!

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

3. Prozesse mit kontinuierlicher Zeit

Der Metropolis-Hastings Algorithmus

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes

Stochastik I. Vorlesungsmitschrift

Endliche Markov-Ketten - eine Übersicht

Zentralübung zur Vorlesung Diskrete Strukturen

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr)

Diskrete Mathematik 1

1 A dp = P(A B). (1.3)

Kapitel II - Wahrscheinlichkeitsraum

Zentralübung zur Vorlesung Theoretische Informatik

Satz 16 (Multiplikationssatz)

KAPITEL 5. Erwartungswert

Grundlagen der Wahrscheinlichkeitstheorie

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die

Unabhängigkeit KAPITEL 4

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza)

Johannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule, Berlin Friedrich-Schiller-Gymnasium, Königs Wusterhausen

Einführung und Grundlagen

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Einführung in die Theoretische Informatik

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 1

Zentralübung zur Vorlesung Diskrete Strukturen

Lineare Differenzengleichungen

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

Endliche Markov-Ketten

Matrizen. Nicht nur eine Matrix, sondern viele 0,5 0,2 0,3 A 0,2 0,7 0,1

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Einführung in Markoff-Ketten

Übungsaufgaben Lösungen

Markovketten. Vorlesungsskript. Universität Freiburg. Andrej Depperschmidt. Sommersemester 2016

Satz 16 (Multiplikationssatz)

Grundbegriffe der Wahrscheinlichkeitsrechnung

Statistik für Ingenieure Vorlesung 2

Woche 2: Zufallsvariablen

Einführung in die Wahrscheinlichkeitsrechnung

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Weihnachtsaufgaben. a) Welche Urnenmodelle gibt es? Stelle zu jedem Modell ein konkretes Beispiel auf, welches durch dieses Modell beschrieben wird.

Kapitel 5: Markovketten

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza)

15.5 Stetige Zufallsvariablen

Diskrete Wahrscheinlichkeitstheorie TUM Sommersemester 2012 Dozent: Javier Esparza. Janosch Maier 25. Juli 2012

W-Rechnung und Statistik für Ingenieure Übung 11

Hidden Markov Modelle

Einführung in die Theoretische Informatik

Markovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse

Zentralübung Diskrete Wahrscheinlichkeitstheorie

Stochastische Prozesse

Kapitel 6. Irrfahrten und Bernoullischemata

Teil II. Wahrscheinlichkeitsrechnung

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse

Stochastik. 1. Wahrscheinlichkeitsräume

Markov-Ketten 1. Definition 2.1

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Signalverarbeitung 2. Volker Stahl - 1 -

Mathematik für Informatiker III im WS 05/06 Musterlösung zur 4. Übung

DynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten

Wiederholungsklausur DWT

Elemente der Stochastik (SoSe 2016) 10. Übungsblatt

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Algorithmen und Datenstrukturen

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1

2 Zufallsvariable und Verteilungsfunktionen

(x x j ) R m [x] (3) x x j x k x j. R m [x]. (4)

Kapitel I Diskrete Wahrscheinlichkeitsräume

2.2 Ereignisse und deren Wahrscheinlichkeit

2 Zufallsvariable, Verteilungen, Erwartungswert

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Studiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit.

Software Engineering Ergänzung zur Vorlesung

Terminologie Stochastischer Prozesse

Kapitel 4 Diskrete Markov-Prozesse

Stochastische Unabhängigkeit. 01. Dezember 2014

Übungsaufgaben, Statistik 1

BACHELORARBEIT. Markov-Ketten und ihre Greensche Funktion. Jasmin Riegler. Wien, Jänner 2013

Transkript:

SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013 ZÜ DWT

ZÜ IV Übersicht: 1. Thema: Markov-Ketten: Übergangszeit Erwartete Übergangszeit Erwartete Rückkehrzeit Ankunftswahrscheinlichkeit Rückkehrwahrscheinlichkeit 2. Vorbereitung auf HA Blatt 4: ZÜ DWT 1/25

1. Thema: Markov-Ketten Vorbemerkungen: Markov-Ketten sind Thema in den TA 3.1 und TA 4.2, und insbesondere in der HA 4.1. Man beachte, dass diskrete zeithomogene Markov-Ketten in der Regel durch Markov-Diagramme definiert werden. In den Diagrammen werden nur positive Übergangswahrscheinlichkeiten eingetragen. Alle übrigen Übergänge haben die Wahrscheinlichkeit 0. ZÜ DWT 1 Thema: Markov-Ketten 2/25

Beispiel 1: Markov-Diagramme als endliche Automaten 0 2 0 0 2 3 1 2 1 3 3 Mit Q = Σ entsprechen die akzeptierten Wörter in diesem Automat genau den Pfaden im folgenden Markov-Diagramm vom Zustand 0 in den Zustand 3. 1/2 1/2 1/2 0 1/2 1/2 1 2 1/2 3 1 ZÜ DWT 1 Thema: Markov-Ketten 3/25

Zentrale Begriffe: Folge von Zufallsvariablen (X t ) t N0 heißt eine Markov-Kette mit diskreter Zeit, wenn die,,markov-bedingung erfüllt ist. Im zeithomogenen Fall bedeutet dies in etwa, dass die Markov-Kette mit einem Markov-Diagramm definiert werden kann, so dass also die Übergangswahrscheinlichkeiten lediglich von den momentanen Zuständen abhängen. Der Zustandsraum sei S. ZÜ DWT 1 Thema: Markov-Ketten 4/25

Beispiel 2: Zufallsvariable (Z i ) i N0 der TA 3.1. Die Verteilungsdichte f Zi einer Zufallsvariablen Z i wird aus Z 0 errechnet durch Matrixmultiplikation f Zi = f Z0 P i. wobei P die Übergangsmatrix des definierenden Markov-Diagramms sei. f Zi wird hier als Zeilenvektor von Wahrscheinlichkeiten für die Annahme der einzelnen Zustände aufgefasst. Zusätzlich muss die Anfangsverteilung für Z 0 gegeben sein. ZÜ DWT 1 Thema: Markov-Ketten 5/25

Für Beispiel 1: P = 1 2 1 2 0 0 1 1 2 0 2 0 1 2 1 0 0 2 0 0 0 1 ZÜ DWT 1 Thema: Markov-Ketten 6/25

Man beachte, dass die Ergebnisse, die von Markov-Ketten angenommen werden, unendliche Zustandsfolgen (s 0, s 1,..., s n,... ) S N 0 = Ω sind. Eine endliche Folge von Zuständen beschreibt jeweils ein Ereignis als Menge von Zustandsfolgen, die diese von X 0 aus durchlaufen. Präfixfreie Mengen von Zustandsfolgen beschreiben disjunkte Ereignismengen. Hinweis für zukünftige Wahrscheinlichkeitsbegriffe bzw. W keitsräume: Man hat hier keine Elementarereignisse. ZÜ DWT 1 Thema: Markov-Ketten 7/25

Die diskreten Zufallsvariablen T i,j bzw. T i für i, j N 0 mit T i,j = min{n 1 ; X n = j, wenn X 0 = i}, T i = min{n 1 ; X n = i, wenn X 0 = i}, heißen Übergangszeit bzw. Rückkehrzeit. Es gilt: Beispiel: Pr[T i,j = n] = Pr[[i j] j=1 n ] (Def. siehe Vorlesung). Zufallsvariable W der TA 3.1(c), die die Anzahl der Würfe zählt, bis man vom Zustand a aus im Zustand d angelangt ist. ZÜ DWT 1 Thema: Markov-Ketten 8/25

Man beachte: T i,j und T i sind bedingte Zufallsvariable, die für Markovketten mit X 0 i undefiniert bleiben können, weil die Gesamtheit dieser Markov-Ketten mit X 0 i in dem durch X 0 = i bedingten Wahrscheinlichkeitsraum ein Ereignis mit Wahrscheinlichkeit 0 darstellt. Wir entfernen aus Ω alle Ergebnisfolgen mit X 0 i und definieren den bedingten Ergebnisraum Ω (X0 =i) = Ω \ {(X t ) t N0 ; X 0 i}. Dann gelten T i,j : Ω (X0 =i) N 0 {+ } und T i : Ω (X0 =i) N 0 {+ }. ZÜ DWT 1 Thema: Markov-Ketten 9/25

Die Dichtefunktionen f Ti,j und f Ti haben also den Definitionsbereich N 0 {+ }. Im Allgemeinen gilt f Ti,j (+ ) 0 und f Ti (+ ) 0. ZÜ DWT 1 Thema: Markov-Ketten 10/25

1.1 Ankunfts- und Rückkehrwahrscheinlichkeit Auf die Zufallsvariablen T i,j und T i stützen sich die Begriffe Ankunftswahrscheinlichkeit bzw. Rückkehrwahrscheinlichkeit f i,j bzw. f i. Es gelten f i,j = Pr[T i,j < + ] und f i = Pr[T i < + ]. ZÜ DWT 1.1 Ankunfts- und Rückkehrwahrscheinlichkeit 11/25

Die folgenden Eigenschaften einer Markov-Kette hängen ausschließlich von der Struktur des Übergangsdiagramms ab. (Siehe auch Satz 32 der Vorlesung!) Man beachte, dass in das Übergangsdiagramm nur Pfeile mit positiven Übergangswahrscheinlichkeiten eingetragen werden dürfen. Eigenschaften: f i = 0, 0 < f i < 1, f i = 1, f i,j = 0, 0 < f i,j < 1, f i,j = 1. ZÜ DWT 1.1 Ankunfts- und Rückkehrwahrscheinlichkeit 12/25

f i,j = 0 bzw. f i = 0: Es gibt keinen Pfad vom Knoten i nach Knoten j bzw. von i zurück auf sich selbst. f i,j = 1 bzw. f i = 1: Jeder bei i beginnende Pfad kann zu einem Pfad bis zu j bzw. zu i zurück verlängert werden. 0 < f i,j < 1 bzw. 0 < f i < 1: Die vorausgegangenen Eigenschaften treffen nicht zu. ZÜ DWT 1.1 Ankunfts- und Rückkehrwahrscheinlichkeit 13/25

Abgeleitete Eigenschaften für Zustände i S: i ist transient, falls f i < 1. i ist rekurrent, falls f i = 1. i ist absorbierend, falls f i,j = 0 für alle j i gilt. Bemerkung: Auch die Eigenschaften,,irreduzibel,,,periodisch und,,aperiodisch hängen ausschließlich von der Struktur des Übergangsdiagramms ab. Folglich gilt Gleiches auch für die Eigenschaft,,ergodisch. ZÜ DWT 1.1 Ankunfts- und Rückkehrwahrscheinlichkeit 14/25

Berechnung der Ankunfts- und Rückkehrwahrscheinlichkeiten: Bei gegebener zeithomogener diskreter Markov-Kette (Übergangsmatrix) können alle f i,j und f i durch folgendes Verfahren gefunden werden: 1. Man bestimme, für welche i, j die Gleichungen f i,j = 0, f i,j = 1 bzw. f i = 0, f i = 1 gelten. 2. Man löse für die verbleibenden Wahrscheinlichkeiten die Gleichungen f i,j = p i,j + k j p i,k f k,j falls i j, f i = p i,i + k i p i,k f k,i. Bemerkung: Wir können die Gleichungen,,zeilenweise lösen. ZÜ DWT 1.1 Ankunfts- und Rückkehrwahrscheinlichkeit 15/25

1.2 Erwartungswerte von T i,j und T i Erwartete Übergangszeit: h i,j := E[T i,j ]. Erwartete Rückkehrzeit: h i := E[T i ]. Beispiel: HA 3.1(c), TA 4.2 Es gilt: Falls S <, dann existieren die Erwartungswerte h i,j bzw. h i genau dann, wenn f i,j = 1 bzw. f i = 1 gilt. Die Berechnung erfolgt mit Gleichungssystem h i,j = 1 + k j p i,k h k,j falls i j, h i = 1 + k i p i,k h k,i. ZÜ DWT 1.2 Erwartungswerte von T i,j und T i 16/25

2. Vorbereitung auf HA von Blatt 4 Markov-Diagramm HA 4.1 (siehe Beispiel 1) Tipps zu HA 4.1(b) Tipps zu HA 4.1(c), Berechnung mit Gleichungssystem ZÜ DWT 2 Vorbereitung auf HA von Blatt 4 17/25

2.1 Tipps zu HA 4.1(b) Für das Markov-Diagramm in Beispiel 1 berechnen wir mit Zuständen q 0 = 0, q 1 = 1, q 2 = 2, q 3 = 3 für alle n N 0 die Mengen bzw. Mengengrößen A 0 (n) = [q 0 q 0 ] n, A 1 (n) = [q 0 q 1 ] n, A 2 (n) = [q 0 q 2 ] n und A 3 (n) = [q 0 q 3 ] q 3=1 n wie folgt. ZÜ DWT 2.1 Tipps zu HA 4.1(b) 18/25

Einige Anfangswerte: A 0 (0) = 1, A 0 (1) = 1, A 0 (2) = 2, A 1 (0) = 0, A 1 (1) = 1, A 1 (2) = 2, A 2 (0) = 0, A 2 (1) = 0, A 2 (2) = 1, A 3 (0) = 0, A 3 (1) = 0, A 3 (2) = 0. Rekursionsgleichungen: A 0 (n) = A 0 (n 1) + A 1 (n 1), A 1 (n) = A 0 (n 1), A 2 (n) = A 1 (n 1) + A 2 (n 1), A 3 (n) = A 2 (n 1). ZÜ DWT 2.1 Tipps zu HA 4.1(b) 19/25

Eliminationsschritt nach: A 0 (n) = A 0 (n 1) + A 0 (n 2), A 2 (n) = A 2 (n 1) + A 0 (n 2). Mit Elimination des inhomonogenen Anteils A 0 für die Rekursion von A 2 nach Vorlesung DS folgt: A 2 (n) = A 2 (n 1) + A 0 (n 2), A 2 (n + 1) = A 2 (n) + A 0 (n 1), A 2 (n + 1) + A 2 (n) = A 2 (n) + A 2 (n 1) + A 0 (n), A 2 (n + 1) = A 2 (n 1) + A 0 (n), A 2 (n + 2) = A 2 (n + 1) + A 0 (n), A 2 (n + 2) A 2 (n + 1) = A 2 (n + 1) A 2 (n 1), A 2 (n + 3) = 2A 2 (n + 2) A 2 (n). ZÜ DWT 2.1 Tipps zu HA 4.1(b) 20/25

Zusammenfassung: A 0 (n) ist offenbar die Folge der Fibonacci-Zahlen. A 2 (n) genügt der Rekursion A 2 (n + 3) 2A 2 (n + 2) + A 2 (n) = 0. Diese homogene Rekursion 3. Ordnung löst man üblicherweise mit den Methoden aus DS wie folgt: Charakteristisches Polynom: z 3 2z 2 + 1 = 0 mit den Nullstellen 1 und α 1/2 = 1± 5 2 z 3 2z 2 + 1 = (z 1)(z 2 z 1) = (z 1)(z α 1 )(z α 1 ). ZÜ DWT 2.1 Tipps zu HA 4.1(b) 21/25

Es gibt nun die entsprechende geschlossene Darstellung aller Lösungen. Zu beachten ist, dass die Wahrscheinlichkeit für jeden Pfad der Länge n + 1 im obigen Fall des Markov-Diagramms gleich dem Wert ( 1 2) n+1 ist. ZÜ DWT 2.1 Tipps zu HA 4.1(b) 22/25

2.2 Tipps zu HA 4.1(c), Berechnung mit Gleichungssystem Zur Kontrolle berechnen wir h 0,3 = E[W ] wie in Abschnitt 1.2. h 0,3 = 1 + k 3 p 0,k h k,3 = 1 + p 0,0 h 0,3 + p 0,1 h 1,3 + p 0,2 h 2,3 d.h. = 1 + 1 2 h 0,3 + 1 2 h 1,3 + 0 h 2,3, h 0,3 = 1 + 1 2 h 0,3 + 1 2 h 1,3. ZÜ DWT 2.2 Tipps zu HA 4.1(c), Berechnung mit Gleichungssystem 23/25

Gleichung für h 1,3 : h 1,3 = 1 + k 3 p 1,k h k,3 = 1 + p 1,0 h 0,3 + p 1,1 h 1,3 + p 1,2 h 2,3 d.h. = 1 + 1 2 h 0,3 + 0 h 1,3 + 1 2 h 2,3, h 1,3 = 1 + 1 2 h 0,3 + 1 2 h 2,3. ZÜ DWT 2.2 Tipps zu HA 4.1(c), Berechnung mit Gleichungssystem 24/25

Gleichung für h 2,3 : h 2,3 = 1 + k 3 p 2,k h k,3 = 1 + p 2,0 h 0,3 + p 2,1 h 1,3 + p 2,2 h 2,3 = 1 + 0 h 0,3 + 0 h 1,3 + 1 2 h 2,3 = 1 + 1 2 h 2,3. Es folgt h 2,3 = 2. Durch Elimination folgt h 0,3 = 8. ZÜ DWT 2.2 Tipps zu HA 4.1(c), Berechnung mit Gleichungssystem 25/25