Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Ähnliche Dokumente
Vorlesung 12b. Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen. Teil 1

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie

Einführung in Markoff-Ketten

16.3 Rekurrente und transiente Zustände

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1

Angewandte Stochastik

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Der Metropolis-Hastings Algorithmus

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

Der Ergodensatz. Hendrik Hülsbusch

Stochastik I. Vorlesungsmitschrift

Klausur,,Algorithmische Mathematik II

Kapitel 12: Markov-Ketten

Endliche Markov-Ketten - eine Übersicht

Diskrete Strukturen. Sebastian Thomas RWTH Aachen 1. Februar 2017 Vorlesung 21

Stochastische Prozesse

Randomisierte Algorithmen

Bsp. 120 Ein-Prozessorsystem mit mehreren E/A-Einheiten.

Wahrscheinlichkeitsrechnung und Statistik

2 Zufallsvariable und Verteilungsfunktionen

Kapitel 5: Markovketten

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

2 Zufallsvariable, Verteilungen, Erwartungswert

Seminar über Markovketten

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Zeitstetige Markov-Prozesse: Einführung und Beispiele

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

1.5 Mehrdimensionale Verteilungen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).

Einführung und Grundlagen

Vorlesung 13a. Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen. Teil 2

In diesem Kapitel bestimmen wir die multiplikative Struktur der Einheitengruppe (Z/Z) von Z/Z für eine beliebige positive Zahl Z >0.

Statistik für Ingenieure Vorlesung 2

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Stochastische Prozesse

Vorlesung 15a. Quellencodieren und Entropie

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Studienbegleitende Prüfung Stochastik 2

Woche 2: Zufallsvariablen

KAPITEL 5. Erwartungswert

Universität Leipzig, SoSo 2013

Thema: Totalvariationabstand, Kopplung und Mischzeiten

Zur Zykelschreibweise von Permutationen

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

1 A dp = P(A B). (1.3)

Seminar zur. Zahlentheorie. Prof. Dr. T. Wedhorn. Vortrag zum Thema. Euklidische und faktorielle Ringe Peter Picht. und.

Vorlesung 3. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Bedingte Wahrscheinlichkeiten und Unabhängigkeit

Vorlesung 2b. Diskrete Zufallsvariable. und ihre Verteilungen

Woche 2: Zufallsvariablen

Diskrete Strukturen. Sebastian Thomas RWTH Aachen Wahrscheinlichkeitstheorie

Dr. Regula Krapf Sommersemester Beweismethoden

K3 (Diskrete) Zufallsvariablen 3.1 Basis

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Übung zur Vorlesung Diskrete Mathematik (MAT.107) Blatt Beispiellösungen Abgabefrist:

Stoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Hauptklausur zur Stochastik für Lehramt

Mathematik 2 für Bauingenieure

Institut für Analysis WiSe 2018/2019 Prof. Dr. Dirk Hundertmark Dr. Markus Lange. Analysis 1. Aufgabenzettel 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

3 Primzahlen. j,... stets Primzahlen. 3.1 Satz. Jedes a > 1 ist als Produkt von Primzahlen darstellbar (Primfaktorzerlegung. n=1

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Zufallsvariable: Verteilungen & Kennzahlen

Übungsblatt 10 Musterlösung

Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation. Propp-Wilson-Algorithmus

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Statistik I für Betriebswirte Vorlesung 4

Modelle für Vorgänge mit zufälligem Ergebnis und Kombinatorik Teil 2

Statistik I für Betriebswirte Vorlesung 3

Beispiel 27 (Beweis durch Widerspruch) Satz 28 3 ist irrational, d. h. Beweis: Widerspruchsannahme: 3 Q.

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Randomisierte Algorithmen

Zufallsvariablen: Die allgemeine Definition

7 Bedingte Erwartungswerte und Bedingte Verteilungen

Kapitel 7. Martingale 1

Unabhängigkeit und bedingte Wahrscheinlichkeiten

6: Diskrete Wahrscheinlichkeit

Vorlesung 14. Gemeinsame Entropie und bedingte Entropie

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus

Kapitel N. Wahrscheinlichkeitsrechnung

Einführung in die Diskrete Mathematik

STOCHASTISCHE PROZESSE. Vorlesungsskript

Praktikum Einführung in die Mathematik 1 WS 2010/2011 Blatt 2 Lösungen

Vorkurs Mathematik und Informatik Mengen, natürliche Zahlen, Induktion

Prüfungsvorbereitungskurs Höhere Mathematik 3

Mathematik III. Produkt-Präringe

Transkript:

Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen Gitter Wanderer auf dem Gitter Z 2 = {(i, j): i, j Z } Start zur Zeit t = 0 im Ursprung (0, 0) Zur Zeit t = 1 ist unser Wanderer in einen der Punkte (1, 0), ( 1, 0), (0, 1), (0, 1) gehüpft. Dabei wird das Ziel mit Gleichverteilung gewählt. Genau so wird im folgenden mit gleicher Ws. einer der vier Nachbarn gewählt: Wenn der Wanderer zur Zeit t in (i, j) ist, so ist er zur Zeit t + 1 mit je Ws. 1/4 in einem der Punkte (i + 1, j), (i 1, j), (i, j + 1), (i, j 1). 2. Polyas Urnenschema Zur Zeit t = 0 befinden sich r 0 > 0 rote Kugeln und s 0 > 0 schwarze Kugeln in einer Urne. Es wird zufällig eine Kugel gewählt. Diese wird zurückgelegt zusammen mit einer weiteren Kugel gleicher Farbe, so daß zur Zeit t = 1 mit Ws. r 0 /(r 0 + s 0 ) in der Urne r 0 + 1 rote und s 0 schwarze Kugeln liegen mit Ws. s 0 /(r 0 + s 0 ) in der Urne s 0 + 1 schwarze und r 0 rote Kugeln liegen Genau so verfahren wir zu jedem diskreten Zeitpunkt t N. Zur Zeit t N 0 befinden sich also r 0 + s 0 + t Kugeln in der Urne. Sind zur Zeit t genau r rote und s schwarze Kugeln in der Urne, so sind zur Zeit t + 1 mit Ws. r/(r + s) genau r + 1 rote und s schwarze Kugeln und mit Ws. s/(r + s) genau s + 1 schwarze und r rote Kugeln in der Urne.

3. Einfaches Warteschlangenmodell Eintreffende Kunden an einem Schalter Start mit beliebiger Anzahl an Kunden zur Zeit t = 0. Im Zeitintervall (t 1, t] treffen mit Ws. p i genau i neue Kunden ein (t N, i N 0 ). Wenn zur Zeit t 1 mindestens ein Kunde am Schalter ansteht, so wird im Zeitintervall (t 1, t] genau ein Kunde bedient. Der Kunde, der bedient wird, verläßt die Warteschlange und tritt an den Schalter. Wir studieren die Anzahl X t der Kunden, die vor dem Schalter warten (und noch nicht bedient werden). Gemeinsamkeiten dieser Beispiele Zu jedem Zeitpunkt t N 0 haben wir eine Zufallsgröße X t, die Werte in einem Zustandsraum S annimmt. Dabei ist S höchstens abzählbar. Irrfahrt: S = Z 2 Urnenschema: S = {(r, s): r, s 1} Warteschlange: S = N 0 Der zufällige Übergang von X t zu X t+1 ist gegeben durch die bedingte Ws. P (X t+1 = y X t = x) x, y S. Diese Ws. hängt in den Beispielen nicht von t ab. Beachte: y S p(x, y) = 1. p(x, y) := P (X t+1 = y X t = x) Die Verteilung von X t+1 hängt nur von X t ab, nicht von der gesamten Vergangenheit X 0, X 1,..., X t. 2

13.2 Definitionen Definition (Stochastische Matrix) Sei S eine abzählbare Menge. Eine Matrix P = (p(x, y)) x,y S mit p(x, y) [0, 1] für alle x, y S und p(x, y) = 1 heißt stochastische Matrix. y S Beispiele Irrfahrt: { p((i, j), (k, l)) = 1/4 falls i k + j l = 1 p((i, j), (k, l)) = 0 sonst Urnenschema: p((r, s), (r + 1, s)) = r/(r + s) p((r, s), (r, s + 1)) = s/(r + s) p((r, s), ( r, s)) = 0 in allen anderen Fällen Warteschlange: p(0, i) = p i für i 0 p(k, k + i 1) = p i für i 0, k > 0 p(k, l) = 0 in allen anderen Fällen Definition (Markoffkette) Eine Folge von Zufallsgrößen X 0, X 1, X 2,... mit Werten in einer höchstens abzählbaren Menge S heißt Markoffkette mit Zustandsraum S und stochastischer Matrix P = (p(x, y)) x,y S, wenn P (X t+1 = x t+1 X 0 = x 0,..., X t = x t ) = P (X t+1 = x t+1 X t = x t ) = p(x t, x t+1 ) für alle t N 0 and alle x 0,..., x t+1 S gilt. Wir nennen P die Matrix der Übergangswahrscheinlichkeiten. Satz Für alle t N 0 und alle x 0,..., x t S gilt P (X 0 = x 0,..., X t = x t ) = P (X 0 = x 0 ) p(x s 1, x s ). Beweis (per Induktion über t) Für t = 0 ist die Aussage klar. Gelte daher die Behauptung für t 0. Induktionsschluß von t auf t + 1: 3

Definition Falls P (X 0 = x 0,..., X t = x t ) = 0, so ist nach Induktionsvoraussetzung P (X 0 = x 0 ) p(x s 1, x s ) = 0. Daraus folgt P (X 0 = x 0 ) t+1 p(x s 1, x s ) = 0. Sei nun P (X 0 = x 0,..., X t = x t ) > 0. Dann gilt P (X 0 = x 0,..., X t+1 = x t+1 ) = P (X 0 = x 0,..., X t = x t )P (X t+1 = x t+1 X 0 = x 0,..., X t = x t ) [ ] = P (X 0 = x 0 ) p(x s 1, x s ) p(x t, x t+1 ) = P (X 0 = x 0 ) t+1 p(x s 1, x s ). ν(x) = P (X 0 = x) heißt Startverteilung der Markoffkette X 0, X 1, X 2,.... Beispiele Irrfahrt: ν((0, 0)) = 1 und ν((i, j)) = 0 für (i, j) (0, 0) Urnenschema: Gegeben sind r 0 und s 0. Dann ist ν((r 0, s 0 )) = 1 und ν((r, s)) = 0 für alle (r, s) (r 0, s 0 ). Warteschlange: Gegeben sei ein beliebige Verteilung Q auf N 0, d.h. Zahlen q i 0, i N 0, mit qi = 1. Wir setzen ν(i) = q i. Rechenregel Aus folgt P (X 0 = x 0,..., X t = x t ) = ν(x 0 ) p(x s 1, x s ). P (X t = x t ) = ν(x 0 ) p(x s 1, x s ). x 0,x 1,...,x t 1 S Notation (n-stufige Übergangswahrscheinlichkeiten) p (0) (x, y) = { 1 falls x = y 0 sonst p (1) (x, y) = p(x, y) Für n 2: p (n) (x, y) = p(x, x 1 )p(x 1, x 2 )... p(x n 1, y) x 1,...,x n 1 S 4

13.3 Gleichgewichtsverteilung Definition (Gleichgewichtsverteilung / stationäre Verteilung) Sei P = (p(x, y)) x,y S eine stochastische Matrix und π eine Verteilung auf S. Gilt π(x)p(x, y) = π(y) y S, x S so heißt π stationäre Verteilung oder Gleichgewichtsverteilung für die durch P und eine beliebige Startverteilung ν beschriebene Markoffkette X 0, X 1, X 2,.... Wir sagen auch, daß π die Gleichgewichtsverteiling der Matrix P ist. Bemerkung Eine Gleichgewichtsverteilung ist ein Linkseigenvektor zur Matrix P. Beispiel (Gleichgewichtsverteilung muß nicht existieren) Betrachte das Urnenschema. Annahme: Es ex. eine Gleichgewichtsverteilung π. Wir zeigen: Dann ist π((r, s)) = 0 für alle (r, s). Sei n = r + s. Für n = 2, also r = s = 1, gilt p(( r, s), (1, 1)) = 0 für alle ( r, s), also π((1, 1)) = π(( r, s))p(( r, s), (1, 1)) = 0. ( r, s) N 2 Induktionsschluß von n auf n + 1: Gelte π(r, s) = 0 für alle (r, s) mit r + s n, und sei nun r + s = n + 1. Bemerkungen Für ( r, s) mit r + s n ist immer p(( r, s), (r, s)) = 0. Daraus folgt bereits π((r, s)) = ( r, s) N 2 π(( r, s))p(( r, s), (r, s)) = 0, weil für jeden Summanden entweder π(( r, s)) = 0 oder p(( r, s), (r, s)) = 0 gilt. Auch für die Irrfahrt aus unseren Beispielen existiert keine Gleichgewichtsverteilung. Für die Warteschlange aus unseren Beispielen mit p 0 > 0 und p 0 + p 1 < 1 existiert eine Gleichgewichtsverteilung genau dann, wenn i=0 ip i < 1 (erwartete Anzahl eintreffender Kunden pro Zeiteinheit). Satz Ist der Zustandsraum S endlich, so existiert mindestens eine Gleichgewichtsverteilung. 5

Beispiele (Eindeutigkeit der Gleichgewichtsverteilung?) Die Matrix P = ( ) 1 0 hat jede beliebige Wahrscheinlichkeitsverteilung π als Gleichgewichts- 0 1 verteilung. Die Matrix P = ( ) 0 1 hat eine eindeutige Gleichgewichtsverteilung, nämlich π = (1/2, 1/2). 1 0 Satz Ist die Startverteilung ν gleich der Gleichgewichtsverteilung π, so gilt P (X t = x) = π(x) x S t N 0. (vgl. Rechenregel ) Frage Unter welchen Voraussetzungen gilt P (X t = x) π(x) für t? 6