Stochastische Prozesse

Ähnliche Dokumente
Stochastische Prozesse

Wahrscheinlichkeitstheorie und Statistik vom

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

Stochastische Prozesse

Klausur zur Vorlesung

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Stochastische Prozesse

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Kapitel 5: Markovketten

Lösungen 4.Übungsblatt

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 1

Serie 4 2 = 10. ) ist). Dann gilt für alle n n 0

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

6. Übungsblatt zur Einführung in die Stochastik

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Einführung in Markoff-Ketten

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Einführung in die Stochastik 6. Übungsblatt

Der Metropolis-Hastings Algorithmus

16.3 Rekurrente und transiente Zustände

Klausur vom

Lösungshinweise zu den Hausaufgaben:

Probeklausur Statistik II

3.4 Anwendung bedingter Wahrscheinlichkeiten

Hausaufgaben. zur Vorlesung. Vollständige Induktion. 1. Beweist folgende Formeln (zu beweisen ist nur die Gleichheit mit dem. i=1 (4 + i)!

Unabhängigkeit KAPITEL 4

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Übungen Abgabetermin: Freitag, , 10 Uhr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Der Ergodensatz. Hendrik Hülsbusch

Einführung und Grundlagen

Stochastische Prozesse

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

Nachklausur zur Vorlesung

Woche 2: Zufallsvariablen

7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen

Klausur: Diskrete Strukturen I

p k (1 p) n k s k = (1 p + ps) n. k p(1 p) k 1 s k ((1 p)s) k 1 =

Klausur zur Vorlesung

Grundlagen und Diskrete Strukturen Aufgaben zur Vorbereitung der Klausur

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus

Klausur zur Vorlesung Stochastik II

Lösungen zum 9. Übungsblatt zur Vorlesung Höhere Mathematik II für biw/ciw/mach/mage/vt

(8 + 2 Punkte) = = 0.75

Übungsaufgaben Lösungen

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Markov Ketten und Bonus Malus Systeme

Einführung in Quantitative Methoden

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Kapitel XI - Die n-fache unabhängige Wiederholung eines Experiments

Probearbeit 13.1 Schuljahr 2010/11 Kernfach Mathematik

1 Übersicht Induktion

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das

Kapitel 6. Irrfahrten und Bernoullischemata

Zeitstetige Markov-Prozesse: Einführung und Beispiele

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Grundlagen der Wahrscheinlichkeitstheorie

2 Zufallsvariable, Verteilungen, Erwartungswert

Scheinklausur zur Vorlesung Stochastik II

Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)

KAPITEL 5. Erwartungswert

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben

Einführung in die Algebra

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Klausur zur Vorlesung,,Algorithmische Mathematik II

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein

Höhere Mathematik I für die Fachrichtung Informatik. Lösungsvorschläge zum 4. Übungsblatt

Statistik für Ingenieure Vorlesung 4

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1

5 Binomial- und Poissonverteilung


13 Grenzwertsätze Das Gesetz der großen Zahlen

Statistik für Ingenieure Vorlesung 2

Institut für Stochastik, SoSe K L A U S U R , 13:

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

DIPLOMARBEIT. Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung

15. September 2010 Prof. Dr. W. Bley. Universität Kassel Klausur SS 2010 Diskrete Strukturen I (Informatik) Name:... Matr.-Nr.:... Viel Erfolg!

Weihnachtsaufgaben. a) Welche Urnenmodelle gibt es? Stelle zu jedem Modell ein konkretes Beispiel auf, welches durch dieses Modell beschrieben wird.

Transkript:

INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die Generation 0 einer Population bestehe aus einem Individuum, das sich mit Wahrscheinlichkeit p k in k Nachfahren teilt (k N). Jeder dieser Nachfahren der Generation 1 teilt sich wiederum unabhängig von den anderen Individuen gemäß der Verteilung (p k ) k N in eine zufällige Anzahl von Nachfahren. Die Zufallsvariable X n beschreibe die Anzahl der Individuen der n-ten Generation (n N 0 ). Zeigen Sie, dass (X n ) n N0 eine Markovkette ist, und geben Sie die zugehörige Übergangswahrscheinlichkeitsfunktion von Generation n nach Generation n + 1 an. Lösung: X n+1,j sei die Anzahl der Individuen der n + 1-ten Generation, die vom j-ten Mitglied der Generation n abstammen. Die (X n+1,j ) sind also alle unabhängig und identisch verteilt mit Verteilung (p k ) k N. Die Anzahl der Individuen der n + 1-ten Generation ist nun gegeben durch X n X n+1 X n+1,j (n N 0 ). Damit folgt j1 P (X n+1 k n+1 X 0 k 0,..., X n k n ) P ( k n j1 X n+1,j k n+1 ) P (X n+1 k n+1 X n k n ). (X n ) ist also eine Markovkette mit Übergangswahrscheinlichkeitsfunktion ( Xn ) ( k ) p n,n+1 (k, l) P (X n+1 l X n k) P X n+1,j l X n k P X n+1,j l für k 1 und l k, sonst ist p n,n+1 (k, l) 0. j1 j1 Aufgabe 2: (Success Run) Ein Basketballspieler verwandelt einen Freiwurf mit Trefferwahrscheinlichkeit p 0.7 unabhängig von früheren Versuchen. In einer Folge von Freiwürfen sei X n die Anzahl der unmittelbar vor dem (n + 1)-ten Wurf erzielten Treffer, die nicht durch einen Fehlwurf unterbrochen werden (Success Run). Zeigen Sie, dass (X n ) n N0 eine Markovkette bildet und geben Sie die zugehörige Übergangswahrscheinlichkeitsfunktion an.

Lösung: Sei X n die Anzahl der unmittelbar vor dem (n + 1)-ten Wurf erzielten Treffer, die nicht durch einen Fehlwurf unterbrochen wurden. Desweiteren sei Y n der Ausgang des n-ten Wurfes (n 1). Dabei ist 1, falls der n te Wurf Treffer, Y n 0, falls der n te Wurf kein Treffer. Es sei U : N 0 0, 1} N 0 und U(x, y) x + y, falls y 1, 0, falls y 0. Somit ist X 0 0 und X n U(X n 1, Y n ) für n 1 und (X n ) eine Markovkette mit Übergangswahrscheinlichkeitsfunktion p n,n+1 (k, l) P(X n+1 l X n k) 0.7, l k + 1, P(U(k, Y n+1 ) l) 0., l 0, 0, sonst. Aufgabe : Das Wetter in Karlsruhe an aufeinanderfolgenden Tagen sei beschrieben durch eine Markovkette X : (X n ) n N0 mit dem Zustandsraum E 1, 2, }, deren Zustände wir wie folgt interpretieren: 1 regnerisch, 2 bewölkt, sonnig. Heute sei es bewölkt, d.h. es sei P(X 0 2) 1. Die Übergangswahrscheinlichkeiten seien gegeben durch IP(X n+1 l X n k) l 1 2 1 0. 0.7 0 k 2 0. 0. 0.4 0.1 0. 0.6 a) Wie groß ist die Wahrscheinlichkeit, dass es übermorgen regnet? b) Wie entwickelt sich das Wetter nach n Tagen? Berechnen Sie mit einem geeigneten Programm P(X n k) für n 1,..., 100 und k E. c) Welche Vermutungen kann man den in b) gewonnenen Daten entnehmen? Lösung: Gemäß Satz 2.10 ist die Übergangswahrscheinlichkeitsfunktion p : p n,n+1 von Stufe n nach Stufe n + 1 durch die oben angegebene, von n unabhängige Matrix gegeben, also p(k, l) l 1 2 1 0. 0.7 0 k 2 0. 0. 0.4 0.1 0. 0.6

a) Gesucht ist die bedingte Wahrscheinlichkeit P(X 2 1 X 0 2) P(X 0 2, X 2 1) P(X 0 2) P(X 0 2)1 k1 P(X 0 2, X 1 k, X 2 1) (2.11) P(X 0 2) p(2, k) p(k, 1) 1 0. 0. + 1 0. 0. + 1 0.4 0.1 0.22 k1 b) Sei n N 0 beliebig. Wegen (2.12) aus Satz 2.10 gilt P(X n+1 l X n k) p(k, l) und damit P(X n+1 l) k E P(X n k, X n+1 l) k E P(X n k) p(k, l), l E, hier also immer ( ) P(X n+1 l) P(X n 1) p(1, l) + P(X n 2) p(2, l) + P(X n ) p(, l) für l 1, 2,. Die Wahrscheinlichkeiten P(X n k) lassen sich also gemäß ( ) leicht rekursiv berechnen. Wir erhalten mit P(X 0 2) 1 für n 0, 1,..., 15 P(X n k) k 1 2 0 0.0 1.0 0.0 1 0. 0. 0.4 2 0.22 0.42 0.6 0.228 0.88 0.84 4 0.222 0.912 0.856 5 0.22288 0.8928 0.8784 6 0.22242 0.89152 0.88416 7 0.22217 0.8897 0.88710 8 0.222258 0.88927 0.88815 9 0.22227 0.8890 0.88860 10 0.222228 0.88895 0.88877 11 0.222225 0.88891 0.88884 12 0.22222 0.88890 0.88887 1 0.22222 0.88889 0.88888 14 0.222222 0.88889 0.88889 15 0.222222 0.88889 0.88889 Für n 16 ändert sich an diesen auf 6 Stellen gerundeten Werten nichts mehr. Ähnliche Wahrscheinlichkeiten erhält man, wenn man mit P(X 0 1) 1 oder mit P(X 0 ) 1 startet. Unabhängig von der Startverteilung scheinen die Wahrscheinlichkeiten immer gegen die gleiche Grenzverteilung zu konvergieren. c) Man kommt daher zu der Vermutung: Egal, welche Verteilung X 0 besitzt, gilt immer lim n P(X n 1) 2 9 Später werden wir diese Vermutung verifizieren. und lim n P(X n 2) lim n P(X n ) 7 18.

Aufgabe 4: Sei X wie in Aufgabe. X : (X 2 n ) n N0 ist bekanntlich wieder eine Markovkette mit Zustandsraum E. Bestimmen Sie eine Übergangswahrscheinlichkeitsfunktion für X von Stufe n nach n + 1, n N 0. Lösung: Wir lösen die Aufgabe zuerst allgemein. Wegen Korollar 2.6 ist X selbst eine Markovkette. Gesucht ist eine Übergangswahrscheinlichkeitsfunktion p n,n+1 : E 2 [0, 1] mit (2.12) P(X n+1 k n+1 X n k n ) p n,n+1(k n, k n+1 ), falls P(X n k n ) > 0, also p n,n+1(k, l) P(X 2n+2 l X 2n k) P(X 2n k, X 2n+2 l) P(X 2n k) j E P(X 2n k, X 2n+1 j, X 2n+2 l) P(X 2n k) (2.11) j E P(X 2n k) p 2n,2n+1 (k, j) p 2n+1,2n+2 (j, l) P(X 2n k) j E p 2n,2n+1 (k, j) p 2n+1,2n+2 (j, l), sobald P(X n k) P(X 2n k) > 0. Dies bedeutet aber, dass (allgemein) durch p n,n+1(k, l) : j E p 2n,2n+1 (k, j) p 2n+1,2n+2 (j, l), k, l E eine geeignete Übergangswahrscheinlichkeitsfunktion für X von Stufe n nach n + 1 definiert ist. Unter den Voraussetzungen von Aufgabe ist p n,n+1 p unabhängig von n und mit p (k, l) : p(k, j) p(j, l), k, l 1, 2, j1 gilt hier p n,n+1(k, l) p (k, l) unabhängig von n, explizit p (k, l) l 1 2 1 0.0 0.42 0.28 k 2 0.22 0.42 0.6 0.18 0.4 0.48 Aufgabe 5: Sei X (X n ) n N0 eine Markovkette mit Zustandsraum E und Übergangswahrscheinlichkeitsfunktionen p n,n+1 von Stufe n nach n + 1. Berechnen Sie bei bekanntem p 0 (k) : P(X 0 k), k E für beliebiges n N die Wahrscheinlichkeitsfunktion p n von X n, d.h. p n (k) : P(X n k), k E.

Lösung: (vergl. Beweis zu Satz 2.10.) Mit Fallunterscheidung folgt p n (k) : P(X n k) (2.11) (k 0,...,k n 1 ) E n P(X 0 k 0,..., X n 1 k n 1, X n k) n 1 P(X 0 k 0 ) p j 1,j (k j 1, k j ) p n 1,n (k n 1, k) (k 0,...,k n 1 ) E n j1 n 1 p 0 (k 0 ) p j 1,j (k j 1, k j ) p n 1,n (k n 1, k). (k 0,...,k n 1 ) E n j1 Aufgabe 6: In dieser Aufgabe soll gezeigt werden, dass Funktionen von Markovketten nicht immer Markovketten sind. Sei X (X n ) n N0 ein stochastischer Prozess mit Zustandsraum E 1, 2, }, mit P(X 0 k) 1, k 1, 2, und mit P(X n+1 k n+1 X 0 k 0,..., X n k n ) P(X n+1 k n+1 X n k n ) 1, falls k n 1, k n+1 2 oder k n 2, k n+1 oder k n, k n+1 1 0, sonst für alle n N 0, sobald P(X 0 k 0,..., X n k n ) > 0. a) Begründen Sie, dass X eine Markovkette ist. b) Bestimmen Sie P(X n k) für n N und k E. c) Sei Y n : 1, falls X n 1 0, sonst für n N 0. Begründen Sie, dass Y (Y n ) n N0 Markovkette ist. keine Lösung: a) Die Markov-Eigenschaft folgt unmittelbar aus den Voraussetzungen und Satz 2.5. b) Sei p n,n+1 : E 2 [0, 1] definiert durch p n,n+1 (k n, k n+1 ) : p(k n, k n+1 ) : 1, falls k n 1, k n+1 2 oder k n 2, k n+1 oder k n, k n+1 1 0, sonst. Dann gilt (2.10) aus Satz 2.10. Insbesondere ist (ein weiterer Nachweis von a)) X eine Markovkette mit (2.12) ( ) P(X n+1 k n+1 X n k n ) p(k n, k n+1 ), falls P(X n k n ) > 0. p ist also eine Übergangswahrscheinlichkeitsfunktion von Stufe n nach n + 1 (unabhängig von n).

Wir zeigen mit vollständiger Induktion über n ( ) P(X n k) 1, k 1, 2,. Für n 0 gilt dies nach Voraussetzung. Gilt ( ) für n N 0, so gilt wegen ( ) und der Formel von der totalen Wahrscheinlichkeit ([SI], Satz.12) P(X n+1 1) k E P(X n+1 1 X n k) P(X n k) P(X n+1 1 X n ) P(X n ) 1 1 1 und genauso P(X n+1 2) P(X n+1 ) 1. Damit gilt ( ) auch für n + 1. c) Wir nehmen an, dass (Y n ) n N0 eine Markovkette ist. Wegen b) gilt stets P(Y n 0) 2 und P(Y n 1) 1. Aus Satz 2.10 (2.11) und b) folgt P(Y 0 0, Y 1 0) P(X 0 2, X 1 2) + P(X }} 0 2, X 1 ) }} 0 1/ + P(X 0, X 1 2) + P(X }} 0, X 1 ) 1 }} > 0 0 0 und wegen P(X 0 2, X 1, X 2 2) P(X 0 2, X 1, X 2 ) 0 auch P(Y 0 0, Y 1 0, Y 2 0) 0. Daher gilt P(Y 2 0 Y 0 0, Y 1 0) P(Y 0 0, Y 1 0, Y 2 0) P(Y 0 0, Y 1 0) 0. Aber genauso wie oben folgt wegen Korollar 2.6 und P(Y 1 0, Y 2 0) 1 > 0 P(Y 2 0 Y 1 0) P(Y 1 0, Y 2 0) P(Y 1 0) 1/ 2/ 1 2 0. (Y n ) n N0 ist also keine Markovkette im Gegensatz zur Annahme.