Einführung in die Theorie stochastischer Prozesse



Ähnliche Dokumente
Statistische Thermodynamik I Lösungen zur Serie 1

Beispiel Zusammengesetzte Zufallsvariablen

Ausarbeitung des Seminarvortrags zum Thema


W-Rechnung und Statistik für Ingenieure Übung 11

BONUS MALUS SYSTEME UND MARKOV KETTEN

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = ,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Data Mining: Einige Grundlagen aus der Stochastik

Statistik I für Betriebswirte Vorlesung 5

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

Lineare Gleichungssysteme

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50, ,5 51,7 48,8

Markovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse

1 Mathematische Grundlagen

Stochastische Eingangsprüfung,

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

DIFFERENTIALGLEICHUNGEN

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand

q = 1 p = k k k = 0, 1,..., = [ ] = 0.678

Box-and-Whisker Plot -0,2 0,8 1,8 2,8 3,8 4,8

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Primzahlen und RSA-Verschlüsselung

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Monte-Carlo Simulation

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Aufgabe 1. Zunächst wird die allgemeine Tangentengleichung in Abhängigkeit von a aufgestellt:

Kevin Caldwell. 18.April 2012

Charakteristikenmethode im Beispiel

Binäre abhängige Variablen

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Informationsblatt Induktionsbeweis

Mengensysteme, Wahrscheinlichkeitsmaße

Physik 4, Übung 8, Prof. Förster

$ % + 0 sonst. " p für X =1 $

R ist freie Software und kann von der Website.

13.5 Der zentrale Grenzwertsatz

Bei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses.

Statistik II für Betriebswirte Vorlesung 2

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

Die Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist

Verteilungsmodelle. Verteilungsfunktion und Dichte von T

Rekursionen (Teschl/Teschl )

Modulabschlussklausur Analysis II

Das Black-Scholes Marktmodell

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

Vorkurs Mathematik Übungen zu Differentialgleichungen

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall

i x k k=1 i u i x i v i 1 0, ,08 2 0, ,18 3 0, ,36 4 0, ,60 5 1, ,00 2,22 G = n 2 n i=1

Melanie Kaspar, Prof. Dr. B. Grabowski 1

Biologische und Molekulare Systeme 2

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Schleswig-Holstein Kernfach Mathematik

Kapitel 3: Etwas Informationstheorie

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Wahrscheinlichkeitstheorie. Zapper und

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Einführung in die Algebra

Im Jahr t = 0 hat eine Stadt Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Zeichen bei Zahlen entschlüsseln

Universität Bonn, Institut für Angewandte Mathematik. WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW

Coupon Collector's-Problem (Sammelbilderproblem) Name: Walter Wolf Matrikelnr.: Dozent: Dr. W. Kössler

Leseprobe. Wilhelm Kleppmann. Versuchsplanung. Produkte und Prozesse optimieren ISBN: Weitere Informationen oder Bestellungen unter

7 Rechnen mit Polynomen

Statistik I für Betriebswirte Vorlesung 11

Grundbegriffe der Informatik

B 2. " Zeigen Sie, dass die Wahrscheinlichkeit, dass eine Leiterplatte akzeptiert wird, 0,93 beträgt. (genauerer Wert: 0,933).!:!!

Extrema von Funktionen in zwei Variablen

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

Theoretische Grundlagen der Informatik WS 09/10

Lineare Differentialgleichungen erster Ordnung erkennen

Mathematik des Hybriden Monte-Carlo. Marcus Weber. Zuse Institute Berlin

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse Lösung 10 Punkte

Berechnung der Erhöhung der Durchschnittsprämien

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

Der Zwei-Quadrate-Satz von Fermat

Modellbildungssysteme: Pädagogische und didaktische Ziele

9. Schätzen und Testen bei unbekannter Varianz

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x y = x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775,

Klausur zur Vorlesung Stochastische Modelle in Produktion und Logistik im SS 09

Quantilsschätzung als Werkzeug zur VaR-Berechnung

Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse

Kugel-Fächer-Modell. 1fach. 3fach. Für die Einzelkugel gibt es 3 Möglichkeiten. 6fach. 3! Möglichkeiten

Grundlagen der Theoretischen Informatik, SoSe 2008

Professionelle Seminare im Bereich MS-Office

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die

1 topologisches Sortieren

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Stochastische Modelle

RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG

y P (Y = y) 1/6 1/6 1/6 1/6 1/6 1/6

3.3 Eigenwerte und Eigenräume, Diagonalisierung

Absolute Stetigkeit von Maßen

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten

Rekursionen. Georg Anegg 25. November Methoden und Techniken an Beispielen erklärt

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Transkript:

Einführung in die Theorie stochastischer Prozesse Dr. Ingo Röder, IMISE, Universität Leipzig Folie 247

Stochastische Prozesse, Grundlagen Motivation Warum Modellierung mittels stochastischer Prozesse? Sind Differentialgleichungen nicht hinreichend? Beantwortung dieser Frage hängt von der konkreten Modellierungsfragestellung (Detaillierungsgrad) ab. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 248

Stochastische Prozesse, Grundlagen Motivation Mittelwert mitunter zur Beschreibung ungeeignet... Dr. Ingo Röder, IMISE, Universität Leipzig Folie 249

Stochastische Prozesse, Grundlagen Motivation Mittelwert nicht die einzige interessierende Charakterisierung einer Zielgröße man denke an u.a. die Variabilität 0 5 10 15 20 0 5 10 15 20 2 4 6 8 10 Index (a) 2 4 6 8 10 Index (b) Dr. Ingo Röder, IMISE, Universität Leipzig Folie 250

Stochastische Prozesse, Grundlagen Motivation Warum Modellierung mittels stochastischer Prozesse? Sind Differentialgleichungen nicht hinreichend? (a) (b) Dr. Ingo Röder, IMISE, Universität Leipzig Folie 251

Stochastische Prozesse, Grundlagen Ereignisse / Wahrscheinlichkeiten Es sei Ω der Raum der Elementarereignisse (ω), d.h. aller möglichen Ereignisse eines Zufallsexperiments (auch: Grundgesamtheit) (Geeignete) Teilmengen A i von Ω werden als Ereignisse bezeichnet wenn ω A i ist das Ereignis A i eingetroffen Jedem Ereignis A i wird eine Wahrscheinlichkeit (P(A i )) zugeordnet, wobei gilt P( ) = 0 P(A i ) P(Ω) = 1 P( i A i ) = i P(A i), A i,i = 1, 2,... mit A i A j = Dr. Ingo Röder, IMISE, Universität Leipzig Folie 252

Stochastische Prozesse, Grundlagen Zufallsvariablen (ZV) Eine Zufallsvariable X ordnet einem Ereignis A i eine Zahl zu, d.h. X : Ω R Beipiel: gerade / ungerade Augenzahl beim Würfeln Ereignis Elementarereignisse Wert der Zufallsvariblen ungerade {1, 3, 5} 1 gerade {2, 4, 6} 2 Dr. Ingo Röder, IMISE, Universität Leipzig Folie 253

Stochastische Prozesse, Grundlagen diskret: Wahrscheinlichkeitsverteilung p(x i ) = P {X = x i } = a i (i = 1, 2,...)... Einzelwahrscheinlichkeit (W.-funktion) F(x) = P {X x} = x i x p(x i)... Verteilungsfunktion stetig: p(x) = P {X = x} = 0 x F(x) = P {X x} = x f(ξ)dξ mit f(x) = d dx F(x)... Einzelwahrscheinlichkeit... Verteilungsfunktion... Wahrscheinlichkeitsdichte Dr. Ingo Röder, IMISE, Universität Leipzig Folie 254

Stochastische Prozesse, Grundlagen Gemeinsame Verteilung: Mehrdimensionale Verteilung (stetig) F XY (x, y) = F(x,y) = P {X x und Y y} = Randverteilungen: x y f xy (ξ, ν)dξdν F X (x) = lim y F XY (x, y) F Y (y) = lim x F XY (x, y) diskreter Fall analog (Summe anstatt Intergral) Dr. Ingo Röder, IMISE, Universität Leipzig Folie 255

Stochastische Prozesse, Grundlagen Unabhängigkeit Man nennt zwei Ereignisse A und B unabhängig, wenn gilt: P {A B} = P {A} P {B}. Analog kann man dies für Zufallsvariablen X und Y formulieren: Wenn für alle Paare (x, y) gilt: F XY (x, y) = F X (x) F Y (y), so nennt man die Zufallsvariablen X und Y unabhängig. In stetigen Fall gilt damit außerdem: f XY (x, y) = f X (x) f Y (y), x,y. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 256

Stochastische Prozesse, Grundlagen Bedingte Wahrscheinlichkeit P {A B} = P {A and B}, P {B} > 0 P {B} diskret: p X Y (x y) = p XY (x, y) p Y (y) stetig: f X Y (x y) = f XY (x, y) f Y (y) Dr. Ingo Röder, IMISE, Universität Leipzig Folie 257

Stochastische Prozesse, Grundlagen Gesetz der Totalen Wahrscheinlichkeit P {A} = n P {A B i }P {B i } i=1 für Ω = n i=1b i und B i B j, i j Ω B 1 B B B 2 3 4 B5 B 6 A Dr. Ingo Röder, IMISE, Universität Leipzig Folie 258

Stochastische Prozesse, Grundlagen Satz von Bayes P {B i A} = P(A B i )P(B i ) n j=1 P {A B j}p {B j } für Ω = n j=1b j und B i B j, i j Ω B 1 B B B 2 3 4 B5 B 6 A Dr. Ingo Röder, IMISE, Universität Leipzig Folie 259

Stochastische Prozesse, Grundlagen diskret: Verteilungskenngrößen / Momente E[X n ] = i stetig: x n i p(x i) bzw. allgemeiner E[g(X)] = i g(x i )p(x i ) E[X n ] = + x n f(x)dx bzw. allgemeiner E[g(X)] = + g(x)f(x)dx andere allgemeine Schreibweise: E[g(X)] = + g(x)df(x) Dr. Ingo Röder, IMISE, Universität Leipzig Folie 260

Stochastische Prozesse, Grundlagen Erwartungswert diskret: E[X] = i x i p(x i ) stetig: E[X] = + xf(x)dx andere Schreibweise: E[X] =< X > Dr. Ingo Röder, IMISE, Universität Leipzig Folie 261

Stochastische Prozesse, Grundlagen diskret: Varianz V ar[x] = E[(X E[X]) 2 ] = i (x i E[X]) 2 p(x i ) stetig: V ar[x] = E[(X E[X]) 2 ] = + (x E[X]) 2 f(x)dx allgemein gilt: E[(X E[X]) 2 ] = E[X 2 ] E[X] 2 Dr. Ingo Röder, IMISE, Universität Leipzig Folie 262

Stochastische Prozesse, Grundlagen Kovarianz Cov[X, Y ] = E[(X E[X])(Y E[Y ])] = E[XY ] E[X]E[Y ] X und Y nennt man unkorreliert wenn Cov[XY ] = 0. (Korrelationskoeffizient nach Pearson: r = Cov[X,Y ] SD X SD Y ) Es gilt: X,Y unabhängig Y,X unkorreliert; aber nicht: Y,X unkorreliert X, Y unabhängig. (z.b. exakt nichtlinearer Zusammenhang) Dr. Ingo Röder, IMISE, Universität Leipzig Folie 263

Stochastische Prozesse, Grundlagen Charakteristische Funktion (CF) einer ZV X G(k) = E[e ikx ] = I e ikx f(x) dx Fourier-Transformierte einer (Dichte-)Funktion f(x). (für diskrete ZV wird die Dichte durch die Wkt.-funktion und das Intergral durch eine Summe ersetzt.) Falls alle Momente existieren liefert eine Entwicklung der obigen Exponentialfunktion i n G(k) = n! kn E[X n ] n=0 Dr. Ingo Röder, IMISE, Universität Leipzig Folie 264

Stochastische Prozesse, Grundlagen Berechnung der Momente mit Hilfe der CF Ist die G(k) bekannt, so können die Momente der Verteilung mit Hilfe der entsprechenden Ableitungen der CF berechnet werden: d n G(k) dk n k=0 = i n E[X n ] andere Bezeichnung der CF: Erzeugende Funktion der Momente Dr. Ingo Röder, IMISE, Universität Leipzig Folie 265

Stochastische Prozesse, Grundlagen Berechnung der Momente mit Hilfe der CF Beispiel: Normalverteilung Die CF der Normalverteilung lautet G(k) = e iµk 1 2 σ2 k 2. Aus bzw. G (k) k=0 = (iµ σ 2 k)e iµk 1 2 σ2 k 2 k=0 = iµ G (k) k=0 = ( (iµ σ 2 k) 2 σ 2) e iµk 1 2 σ2 k 2 k=0 = µ 2 σ 2 folgt mit V ar[x] = E[X 2 ] (E[X]) 2 E[X] = µ und V ar[x] = σ 2. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 266

Stochastische Prozesse, Grundlagen Binomialverteilung... beschreibt die Verteilung der Erfolgsanzahl Y bei n-maliger (unabhängiger) Realisierung einer 0-1(Nichterfolg-Erfolg)-verteilten Zufallsvariable mit Erfolgswahrscheinlichkeit p. p Y (k) = P {Y = k} = n! k!(n k)! pk (1 p) n k, für 0, 1,...,n. E[Y ] = np V ar[y ] = np(1 p) Dr. Ingo Röder, IMISE, Universität Leipzig Folie 267

Stochastische Prozesse, Grundlagen Poissonverteilung... beschreibt die Verteilung der Erfolgsanzahl Y bei unendlicher (sehr großer) Realisierungszahl einer 0-1(Nichterfolg-Erfolg)-verteilten Zufallsvariable mit (sehr) kleiner Erfolgswahrscheinlichkeit p. ( Gesetz der seltenen Ereignisse / Law of rare events ) p Y (k) = λk e λ, für 0,1,... (λ = np = const.) k! E[Y ] = V ar[y ] = λ Dr. Ingo Röder, IMISE, Universität Leipzig Folie 268

Stochastische Prozesse, Grundlagen Gleichverteilung... beschreibt das gleichmäßige Auftreten einer stetigen Zufallsvariablen Y über dem Intervall [a, b]. f Y (y) = { 1 b a für a y b 0 sonst E[Y ] = 1 (a + b) 2 V ar[y ] = 1 (b a)2 12 Dr. Ingo Röder, IMISE, Universität Leipzig Folie 269

Stochastische Prozesse, Grundlagen Normalverteilung... beschreibt z.b. die Verteilung der Summe (X) von vielen unabhängigen Zufallsgrößen von denen keine einen dominaten Effekt hat. (vereinfachte Formulierung des Zentralen Grenzwertsatzes ) φ(x; µ,σ 2 ) = 1 e (x µ)2 2σ 2 2πσ für x E[X] = µ V ar[x] = σ 2 Dr. Ingo Röder, IMISE, Universität Leipzig Folie 270

Stochastische Prozesse, Grundlagen Exponentialverteilung... beschreibt z.b. die Eintrittszeiten T von Systemausfällen bei Vorliegen einer konstanter Ausfallrate λ. (Eigenschaft der Gedächtnislosigkeit ) f T (t) = { λe λt für t 0 0 sonst E[T] = 1 λ V ar[t] = 1 λ 2 Dr. Ingo Röder, IMISE, Universität Leipzig Folie 271

Stochastische Prozesse, Grundlagen Einschub: Delta-Distribution (Dirac-Delta) Dirac-Delta Distribution δ(x x 0 ) ist definiert durch δ(x x 0 ) = { 0 für x x0 für x = x 0, so dass für jede Funktion f(x) gilt f(x)δ(x x 0 )dx = f(x 0 ). Für f(x) 1 gilt δ(x x 0 )dx = 1. Die Delta-Distribution repräsentiert eine Verteilung, welche die gesamte Wahrscheinlichkeitsmasse in einen Punkt konzentriert (Einpunktverteilung). Dr. Ingo Röder, IMISE, Universität Leipzig Folie 272

Stochastische Prozesse, Grundlagen Einschub: Delta-Distribution (Dirac-Delta) Das diskrete Analogon zur Dirac-Delta Distribution ist das sogenannte Kronecker Symbol δ i,j : δ i,j = { 0 für i j 1 für i = j Dr. Ingo Röder, IMISE, Universität Leipzig Folie 273

Stochastische Prozesse, Grundlagen Gleichverteilte Zufallszahlen Computer (als deterministische Maschine ) kann nur Pseudozufallszahlen erzeugen Anforderungen an diese Pseudozufallszahlen so gut wie unabhängig hinreichend gleichverteilt (in gegebenem Intervall) Güte der Pseudozufallszahlen abhängig vom Erzeugungsalgorithmus z.b. r n+1 = (ar n + b)mod m (Folge von Pseudozufallszahlen aus dem Intervall [0, m]); η n = r n /m (Pseudozufallszahl aus [0,1]); Wahl von (m, a,b) z.b. (2 47, 513, 297410973) und Startwert r 0 z.b. abhängig von Uhrzeit Dr. Ingo Röder, IMISE, Universität Leipzig Folie 274

Stochastische Prozesse, Grundlagen Zufallszahlen anderer Verteilungen Invertierungsverfahren Gesucht sei eine Zufallsvariable Y mit Dichte f(y) und Verteilungsfunktion F(y) = f(y)dy. Wenn X einer Gleichverteilung auf [0,1] folgt, dann erhält man Y aus y = F 1 (x). Praktikabilität hängt von der Berechenbarkeit von F bzw. F 1 ab. (Herleitung siehe Honerkamp, 1990, S. 21) Dr. Ingo Röder, IMISE, Universität Leipzig Folie 275

Stochastische Prozesse, Grundlagen Zufallszahlen anderer Verteilungen Beispiel: Invertierungsverfahren Gesucht: exponentialverteilte Zufallsgröße Y, d.h. f(y) = λe λy bzw. F(y) = 1 e λy. Damit sind die y = 1 λ ln(1 x) bzw. y = 1 λ ln(x), mit x gleichverteilt über [0, 1], exponentialverteilt mit Parameter λ. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 276

Stochastische Prozesse, Grundlagen Zufallszahlen anderer Verteilungen Box-Muller Methode Gesucht: normalverteilte Zufallsgröße Y Problem: Verteilungsfunktion nicht geschlossen invertierbar Es kann allerdings gezeigt werden (Verallgemeinerung des Transformationsverfahrens auf den mehrdimensionalen Fall), dass für 2 unabhängige Realisierungen x 1,x 2 einer auf [0, 1] gleichverteilten ZV X gilt: y 1 = 2 lnx 1 cos(2πx 2 ) y 2 = 2 lnx 1 sin(2πx 2 ) sind Realisierungen einer standardnormalverteilten ZV Y. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 277

Stochastische Prozesse, Grundlagen Zufallszahlen anderer Verteilungen Verwerfungsmethode (1) Weitere Methode, die nicht Berechnung der Umkehrfunktion F 1 erfordert. Gesucht sei Zufallsgröße Y mit Dichte f(y) im Intervall I. Man suche eine Dichtefunktion f(y) für die sich leicht entsprechend verteilte ZV berechnen lassen und für welche gilt: C f(y) f(y). y ~ C f(x) f(x) a b x Dr. Ingo Röder, IMISE, Universität Leipzig Folie 278

Stochastische Prozesse, Grundlagen Zufallszahlen anderer Verteilungen Verwerfungsmethode (2) Erzeuge Punkte (x, y), die im Gebiet unter C f(x) gleichverteilt sind, d.h. wähle x aus Verteilung f(x) und y aus Gleichverteilung in [0, C f(x)]. Akzeptiere (x, y) wenn y f(x), andernfalls verwerfe (x, y) und wähle neues Paar. Die akzeptierten x i folgen dann der gewünschten Verteilung f(x). y (x,y) verwerfen (x,y) akzeptieren ~ C f(x) f(x) a b x Dr. Ingo Röder, IMISE, Universität Leipzig Folie 279

Stochastische Prozesse, Grundlagen Zufallszahlen anderer Verteilungen Verwerfungsmethode (3) Dichtefunktion der gesuchten Verteilung muss bekannt und berechenbar sein Methode nur effizient, wenn C f(x) nahe bei f(x) liegt Renormierung möglich: betrachte y/c f(x) und erzeuge y aus Gleichverteilung in [0, 1] akzeptiere (x, y) wenn y f(x)/c f(x) Dr. Ingo Röder, IMISE, Universität Leipzig Folie 280

Markov Prozesse Dr. Ingo Röder, IMISE, Universität Leipzig Folie 281

Markov-Prozesse Stochastischer Prozess Als stochastischen Prozess X(t) bezeichnet man eine Folge von ZV X t1,...,x ti,... mit zeitabhängiger Dichtefunktion p ti (x) = p 1 (x, t i ). Die ZV X ti, i = 1,... sind hierbei im Allgemeinen nicht unabhängig. (Abhängigkeit ist Ausdruck der zeitlichen Dynamik von X(t).) Bezeichnung der gemeinsamen Verteilung der X ti : p ti,t j (x 1, x 2 ),p ti,t j,t k (x 1,x 2, x 3 ),... p ti,t j (x 1, x 2 )dx 1 dx 2 sei die Wahrscheinlichkeit, dass X 1 einen Wert in [x 1, x 1 + dx 1 ] und X 2 einen Wert in [x 2,x 2 + dx 2 ] annimmt. (Schreibweise: statt p ti,t j (x 1,x 2 ) wird oft p 2 (x 1,t 1 ;x 2,t 2 ) verwendet) Dr. Ingo Röder, IMISE, Universität Leipzig Folie 282

Markov-Prozesse Zeitliche Unabhängigkeit Das Fehlen einer statistischen Abhängigkeit und damit einer zeitlichen Dynamik führt zu p 2 (x 1,t 1 ; x 2,t 2 ) = p 1 (x 1, t 1 )p 1 (x 2,t 2 ). Diese Faktorisierung gilt für alle höheren gemeinsamen Verteilungen. Für die Kovarianzfunktion gilt damit E[(X ti E[X ti ])(X tj E[X tj ])] = 0, für i j Dr. Ingo Röder, IMISE, Universität Leipzig Folie 283

Markov-Prozesse Weißes Rauschen Ist p(x,t) eine stationäre Dichte, d.h. p 1 (x, t) p 1 (x), so spricht man von unabhängig, identisch verteilten ZV X(t) IID (independent, identically distributed) Ist weiterhin p 1 (x) die Dichte der Normalverteilung mit Erwartungswert 0 und Varianz σ 2, so bezeichnet man den Prozess als Weißes Rauschen X(t) = η(t) WN(0, σ 2 ) (White Normal) mit E[η(t)] = 0 und Cov[η(t)η(t )] = σ 2 (t) für t = t und 0 sonst. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 284

Markov-Prozesse Markov Bedingung Falls folgende Abhängigkeit zwischen verschiedenen Zeitpunkten vorliegt p n (x n,t n x n 1, t n 1 ;...;x 1,t 1 ) = p 2 (x n,t n x n 1, t n 1 ), d.h. die Zukunft des Prozesses hängt nur von der Gegenwart und nicht von der Vergangenheit ab, so bezeichnet man den Prozess als Markov- Prozess (MP). Ist die als Übergangswahrscheinlichkeit bezeichnete bedingte Wahrscheinlichkeit p 2 (x, t x, t ) nur von der Differenz t t und nicht von t selbst abhängig, so nennt man den Markov-Prozess homogen. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 285

Markov-Prozesse Chapman-Kolmogorov Gleichung (1) Ein Markov-Prozess X(t),(t t i ) ist eindeutig durch p 1 (x i,t i ) und p 2 (x j+1, t j+1 x j,t j ), (j i) bestimmt. Alle gemeinsamen Verteilungen p n, (n > 2) sind durch p 1 und p 2 bestimmbar. Z.B. gilt für t 1 < t 2 < t 3 : p 3 (x 1, t 1 ;x 2, t 2 ;x 3, t 3 ) = p 2 (x 3, t 3 x 2,t 2 ; x 1,t 1 ) p 2 (x 2,t 2 ; x 1,t 1 ) = p 2 (x 3, t 3 x 2,t 2 ) p 2 (x 2,t 2 x 1, t 1 ) p 1 (x 1, t 1 ). Integration dieser Gleichung über x 2 liefert p 2 (x 3,t 3 ; x 1,t 1 ) = p 3 (x 3, t 3 ;x 2, t 2 ;x 1, t 1 )dx 2 = p 2 (x 3, t 3 x 2,t 2 ) p 2 (x 2,t 2 x 1, t 1 ) p 1 (x 1, t 1 )dx 2 Dr. Ingo Röder, IMISE, Universität Leipzig Folie 286

Markov-Prozesse Aufgrund von folgt damit auch Chapman-Kolmogorov Gleichung (2) p 2 (x 3,t 3 x 1,t 1 ) = p 2 (x 3,t 3 x 1,t 1 ) = p 2(x 3, t 3 ;x 1, t 1 ) p 1 (x 1,t 1 ) p 2 (x 3, t 3 x 2,t 2 ) p 2 (x 2,t 2 x 1, t 1 ) dx 2. (143) Diese Gleichung nennt man Chapman-Kolmogorov-Gleichung. Sie muss für die Übergangswahrscheinlickeit eines jeden Markov- Prozesses gelten. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 287

Markov-Prozesse Markov Ketten Ist ein Markov-Prozess auf diskrete Zustände beschränkt (diskreter Zustandsraum), so spricht man von einer Markov-Kette (MK). Hier Beschränkung auf MK mit stationären Übergangswahrscheinlichkeiten, d.h. die Ein-Schritt-Übergangswahrscheinlichkeiten hängen nicht vom Zeitpunkt ab: P {X t+1 = j X t = i} = p(j,t + 1 i,t) = p(j i) = p ij Diese Wahrscheinlichkeiten werden in einer Übergangsmatrix P zusammengefasst P = p 00 p 01 p 10 p 11... mit p ij 0 für i,j = 0,1, 2,... und j=0 p ij = 1 für i = 0,1, 2,... Dr. Ingo Röder, IMISE, Universität Leipzig Folie 288

Markov-Prozesse First-step Analyse (1) Betrachte eine MK X n mit den Zuständen 0, 1, 2 und folgender Übergangsmatrix P = 1 0 0 a b c 0 0 1 mit a,b, c > 0 und a + b + c = 1. Die Zustände 0 und 2 sind sogenannte absorbierende Zustände, da der Prozess in diesen festgehalten wird. Folgende Fragen sollen untersucht werden: 1. In welchen der Zustände (0 oder 2) läuft der Prozess? bzw. 2. Wie lange braucht der Prozess im Mittel dazu? Dr. Ingo Röder, IMISE, Universität Leipzig Folie 289

Markov-Prozesse First-step Analyse (2) Die Zeit bis zum Erreichen der Zustände 0 oder 2 ist T = min{n 0; X n = 0 or X n = 2} Gesucht sind u = P {X T = 0 X 0 = 1} und ν = E[T X 0 = 1]. Man betrachtet nun die möglichen Zustände nach einem Schritt: X 1 = 0 : tritt mit Wahrscheinlickeit a ein T = 1 und X T = 0 X 1 = 2 : tritt mit Wahrscheinlickeit c ein T = 1 und X T = 2 X 1 = 1 : tritt mit Wahrscheinlickeit b ein Prozess wird fortgesetzt Dr. Ingo Röder, IMISE, Universität Leipzig Folie 290

Markov-Prozesse First-step Analyse (3) P {X T = 0 X 1 = 0} = 1, P {X T = 0 X 1 = 1} = u,p {X T = 0 X 1 = 2} = 0 Aus Gesetz der Totalen Wahrscheinlichkeit und Markov-Eigenschaft (siehe auch Chapman-Kolmogorov Gleichung) folgt u = P {X T = 0 X 0 = 1} 2 = P {X T = 0 X 0 = 1,X 1 = k} P {X 1 = k X 0 = 1} = k=0 2 P {X T = 0 X 1 = k} P {X 1 = k X 0 = 1} k=0 = 1 a + u b + 0 c Dr. Ingo Röder, IMISE, Universität Leipzig Folie 291

Markov-Prozesse First-step Analyse (4) Aus u = 1 a + u b + 0 c erhält man die Gleichung u = a + b u und damit P {X T = 0 X 0 = 1} = u = = a 1 b a a + c da a + b + c = 1. Damit ist die Wahrscheinlichkeit, ausgehend vom Zustand 1 nach Zustand 0 zu gelangen, gleich der Wahrscheinlichkeit von Zustand 1 nach Zustand 0 zu wechseln unter der Bedingung, dass nur Übergänge nach den Zuständen 0 und 2 betrachtet werden. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 292

Markov-Prozesse First-step Analyse (5) Für den Erwartungswert der Absorbtionszeit T gilt T 1: für X 1 = 0 oder 2 kein weiterer Schritt nötig falls X 1 = 1 sind weitere ν = E[T X 0 = 1] Schritte nötig Wichtung dieser Möglichkeiten mit ihren Eintrittswahrscheinlichkeiten liefert ν = E[T X 0 = 1] = 1 + a 0 + b ν + c 0 = 1 + b ν (144) ν = 1 1 b Dr. Ingo Röder, IMISE, Universität Leipzig Folie 293

Markov-Prozesse Beispiele für Markov-Ketten: Eindimensionaler Random-Walk z.b. Bewegung eines Partikels auf einer Linie, d.h. innerhalb eines Zeitschritts behält das Partikel entweder seine Position (i) oder es wechselt zur linken (i 1) bzw. rechten (i + 1) Nachbarposition. Übergangsmatrix (Zustandsraum: alle nichtnegativen, ganzen Zahlen) P = 0 1 2 i 1 i i + 1 0 r 0 p 0 0 0 1 q 1 r 1 p 1 0 2 0 q 2 r 2 0.... i 0 q i r i p i 0....... Dr. Ingo Röder, IMISE, Universität Leipzig Folie 294

Markov-Prozesse Beispiel für Markov-Ketten: Gambler s Ruin (1) Wir betrachten jetzt einen speziellen Random Walk: Andere Interpretation dieses Prozesses: Der Prozess X n beschreibt den Gewinn eines Spieler A und N X n den Gewinn eines Gegenspielers B, d.h. Der Gesamteinsatz des Spieles ist N; Ein Gewinn für A ist immer ein äquivalenter Verlust für B und umgekehrt. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 295

Markov-Prozesse Beispiel für Markov-Ketten: Gambler s Ruin (2) Die Übergangsmatrix lautet: P = 0 1 2 3 N 1 N 0 1 0 0 0 0 0 1 q 0 p 0 0 0 2 0 q 0 p 0 0....... N 1 0 0 0 0 0 p N 0 0 0 0... 0 1 Dr. Ingo Röder, IMISE, Universität Leipzig Folie 296

Markov-Prozesse Beispiel für Markov-Ketten: Gambler s Ruin (3) Gesucht ist für diesen Prozess nunmehr die Wahrscheinlichkeit des Ruins von Spieler A (Sieg von B). Es sei T = min{n 0;X n = 0 or X n = N} die zufällige Zeit des Spielendes. Das Ereignis Ruin von A kann somit geschrieben werden als X T = 0. Die Wahrscheinlichkeit dieses Ereignisses beim Startzustand k ist u k = P {X T = 0 X 0 = k} Dr. Ingo Röder, IMISE, Universität Leipzig Folie 297

Markov-Prozesse Beispiel für Markov-Ketten: Gambler s Ruin (4) Die first step Analyse gibt die folgenden Gleichungen u k = pu k+1 + qu k 1, für k = 1,...,N 1 und u 0 = 1 bzw. u N = 0 Dr. Ingo Röder, IMISE, Universität Leipzig Folie 298

Markov-Prozesse Beispiel für Markov-Ketten: Gambler s Ruin (5) Die Gleichungen u k = pu k+1 + qu k 1 für k = 1,...,N 1 können mit Hilfe der Differenzen x k = u k u k 1 für k = 1,...,N und unter Ausnutzung von p + q = 1 und damit u k = (p + q)u k = pu k + qu k auch wie folgt geschrieben werden (Hinweis: setze u k = pu k + qu k ): k = 1 : 0 = p(u 2 u 1 ) q(u 1 u 0 ) = px 2 qx 1 ; k = 2 : 0 = p(u 3 u 2 ) q(u 2 u 1 ) = px 3 qx 2 ;. k = N 1 : 0 = p(u N u N 1 ) q(u N 1 u N 2 ) = px N qx N 1 ; Dr. Ingo Röder, IMISE, Universität Leipzig Folie 299

Markov-Prozesse Beispiel für Markov-Ketten: Gambler s Ruin (6) Umstellung dieser Gleichungen ergibt x 2 = (q/p)x 1 ; x 3 = (q/p)x 2 = (q/p) 2 x 1 ;. x k = (q/p)x k 1 = (q/p) k 1 x 1 ;. x N = (q/p)x N 1 = (q/p) N 1 x 1 ; (145) Dr. Ingo Röder, IMISE, Universität Leipzig Folie 300

Markov-Prozesse Beispiel für Markov-Ketten: Gambler s Ruin (7) Anwendung der Differenz-Definition x k = u k u k 1 zusammen mit den Randbedingungen u 0 = 1 und u N = 0 und der kumulativen Aufsummierung liefert: x 1 = u 1 1, x 2 = u 2 u 1, x 1 + x 2 = u 2 1,. x k = u k u k 1, x 1 + + x k = u k 1,. x N = 0 u N 1, x 1 + + x N = u N 1 = 1. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 301

Markov-Prozesse Beispiel für Markov-Ketten: Gambler s Ruin (8) Daraus folgt nun u k = 1 + x 1 + x 2 + + x k = 1 + x 1 + (q/p)x 1 + + (q/p) k 1 x 1 = 1 + [1 + (q/p) + + (q/p) k 1 ]x 1. Mit u N = 0 folgt x 1 = 1/{1 + (q/p) + + (q/p) N 1 } und damit u k = 1 1 + (q/p) + + (q/p)k 1 1 + (q/p) + + (q/p) N 1. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 302

Markov-Prozesse Beispiel für Markov-Ketten: Gambler s Ruin (9) Ausnutzung der Summenvorschrift einer geometrischen Reihe 1 + (q/p) +... + (q/p) k 1 = liefert das gesuchte Ergebnis u k = { k falls p = q = 1/2 1 (q/p) k 1 (q/p) falls p q 1 (k/n) = (N k)/n falls p = q = 1/2 1 1 (q/p)k 1 (q/p) N = (q/p)k (q/p) N 1 (q/p) N falls p q Dr. Ingo Röder, IMISE, Universität Leipzig Folie 303

Markov-Prozesse Beispiel für Markov-Ketten: HSC (1) Dr. Ingo Röder, IMISE, Universität Leipzig Folie 304

Markov-Prozesse Beispiel für Markov-Ketten: HSC (2) S S S S D D S S D S D S S (A) (B) (C) Eintrittswahrscheinlichkeiten: (A) - p; (B) - q; (C) - r Betrachtung von zwei Modellversionen möglich: 1. (A)+(B)+(C) mit p + q + r = 1 bzw. 2. (A)+(B) mit p + q = 1 (nur diese letzte wird im folgenden betrachtet.) Dr. Ingo Röder, IMISE, Universität Leipzig Folie 305

Markov-Prozesse Beispiel für Markov-Ketten: HSC (3) Die Übergangsmatrix für das p q-modell lautet P = 0 1 2 3 4 0 1 0 0 0 0 1 q 0 p 0 0 2 q 2 0 2pq 0 q 2 3 q 3 0 3pq 2 0 3p 2 q 4 q 4 0 4pq 3 0 6p 2 q 2..... Die Elemente der Übergangsmatrix berechnet man allgemein mittels: P ij = ( ) j i i/2 p2 q j 2 i für i Z 2j 0 (mit Zs r Menge der geraden ganzen Zahlen im Intervall (r,s)) und 0 sonst. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 306

Markov-Prozesse Beispiel für Markov-Ketten: HSC (4) Aus der gegebenen (Einschritt-)Übergangsmatrix können jetzt die Wahrscheinlichkeiten beliebiger Mehrschrittübergänge berechnet werden. Die Übergangsmatrix für n Generationschritte (P (n) ) ergibt sich aus P n (n-malige Matrixmultiplikation von P mit sich selbst), wobei P die gegebene Einschrittübergangsmatrix ist: P n = P [(n 2) mal ] P; d.h. für die Elemente dieser Matrix gilt: P (n) ij = Prob(X n = j X 0 = i) = k=0 P ik P (n 1) kj Dr. Ingo Röder, IMISE, Universität Leipzig Folie 307

Markov-Prozesse Beispiel für Markov-Ketten: HSC (5) Zur Berechnung der Aussterbewahrscheinlichkeit der Stammzellpopulation kann man die bereits bekannte First step Methode verwenden: Wahrscheinlichkeit für Differenzierung einer Stammzelle nach n Generationen P (n) 10 = q 1 + p P (n 1) 20. Unter Beachtung der Unabhängigkeit verschiedener Zellen, erhält man weiterhin (n 1) = q 1 + p (P 10 ) 2 bzw. P (n) 10 P (n) i0 = ( q 1 + p (P (n 1) 10 ) 2) i Dr. Ingo Röder, IMISE, Universität Leipzig Folie 308

Markov-Prozesse Beispiel für Markov-Ketten: HSC (6) Aufbauend auf diesen Resultaten ist es auch möglich asymptotische Aussterbewahrscheinlichkeit der Stammzellpopulation (P ( ) 10 = lim n P (n) 10 bzw. P ( ) i0 = lim n P (n) i0 ) anzugeben: P ( ) 10 = { 1 für p 0.5 (1 p)/p für p 0.5 bzw. P ( ) i0 = { 1 für p 0.5 ((1 p)/p) i für p 0.5 Dr. Ingo Röder, IMISE, Universität Leipzig Folie 309

Markov-Prozesse Beispiel für Markov-Ketten: HSC (8) Eine alternative Beschreibung des obigen Beispiel kann dadurch erreicht werden, dass die folgende Annahme getroffen wird: Pro Zeitschritt agiert jeweils nur eine Zelle; d.h. sie teilt sich entweder symmetrische oder aber sie differenziert in eine andere Zellart Diese Beschreibung setzt sehr kleine Zeitschritte voraus, da ansonsten obige Annahme unrealistisch ist. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 310

Markov-Prozesse Beispiel für Markov-Ketten: HSC (9) Diese Beschreibung führt zum bekannten Problem des Gambler s ruin. Beachte allerdings: Für wenig Zellen ist die Annahme kleiner Zeitschritte (bei denen immer eine Aktion (Zellgeburt oder -tod) realisiert wird nicht geeignet, da hierbei u.u. unrealistisch kurze Zellzykluszeiten auftreten würden; D.h. diese Beschreibung einer asynchronen Zellentwicklung nur für hinreichend große Zellpopulationen geeignet; Für eine andere (allgemeinere) Form der Modellierung asynchroner Zellentwicklung wird auf eine spätere Vorlesung verwiesen (MK mit stetigen Eintrittszeiten). Dr. Ingo Röder, IMISE, Universität Leipzig Folie 311

Markov-Prozesse Verzweigungsprozesse Angenommene Situation: Ein Organismus erzeugt in seinem Leben eine zufällige Anzahl ξ von Nachkommen: P {ξ = k} = p k, k = 1, 2,... Unter vereinfachenden Annahmen, dass alle betrachteten Organismen die gleiche Lebensdauer haben, die Nachkommen am Ende des Lebens erzeugt werden und die Organismen sich nicht gegenseitig beeinflussen, kann man die Populationsgröße in der nten Generation als spezielle Markov-Kette (Verzweigungsprozess) {X n } beschreiben. Sie ergibt sich unter den getroffenen Annahmen aus der Summe der Nachkommen der einzelnen Organismen: X n = ξ (n) 1 + ξ (n) 2 + + ξ (n) X n. Gesuchte Größen: z.b. erwartete Populationsröße bzw. deren Variabilität in der nten Generation; Aussterbewahrscheinlichkeit der Population. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 312

Markov-Prozesse Beispiel für Verzweigungsprozess (1) Es sei µ = E[ξ] bzw. σ 2 = V ar[ξ] der Erwartungswert bzw. die Varianz der Nachkommen -Verteilung eines mutierten Gens. Weiterhin sei M(n) und V (n) der Erwartungswert bzw. die Varianz der Populationsgröße X n des Gens in der Generation n unter der Anfangsbedingung X 0 = 1 (d.h. Start der Betrachtung bei einer Mutation). Aus den Beziehungen E[X] = µν, V ar[x] = νσ 2 + µ 2 τ 2 zur Berechnung von Erwartungswert und Varianz einer zufälligen Summe X = ξ 1 + ξ 2 +... + ξ N mit E[ξ k ] = µ,v ar[ξ k ] = σ 2, E[N] = ν, V ar[n] = τ 2 (Herleitung siehe Taylor, 1998, Seite 72/73) folgt nun: Dr. Ingo Röder, IMISE, Universität Leipzig Folie 313

Markov-Prozesse und Beispiel für Verzweigungsprozess (2) M(n + 1) = µm(n) V (n + 1) = σ 2 M(n) + µ 2 V (n). Ausgehend von der Anfangsbedingung X 0 = 1 und damit M(0) = 1 bzw. V (0) = 0 erhält man M(1) = µ,m(2) = µm(1) = µ 2 bzw. im Allgemeinen M(n) = µ n, für n = 0, 1,... Damit vergrößert bzw. verkleinert sich die mittlere Populationsgröße für µ > 1 bzw. µ < 1 und bleibt konstant für µ = 1. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 314

Markov-Prozesse Beispiel für Verzweigungsprozess (3) Einsetzen von M(n) = µ n in obige Bildungsvorschrift der Varianz ergibt: V (n + 1) = σ 2 µ n + µ 2 V (n). V (0) = 0 V (1) = σ 2,V (2) = σ 2 µ + µ 2 V (1) = σ 2 µ + σ 2 µ 2 bzw. für n > 2 V (n) = σ 2 [µ n 1 + µ n + + µ 2n 2 ] = σ 2 µ n 1 [1 + µ + + µ n 1 ] { n für µ = 1 = σ 2 µ n 1 1 µ n 1 µ für µ 1. Damit vergrößert bzw. verkleinert sich die Varianz gemäß einer geometrischen Vorschrift für µ > 1 bzw. µ < 1 und vergrößert sich linear für µ = 1. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 315

Markov-Prozesse Beispiel für Verzweigungsprozess (4) Die Aussterbewahrscheinlichkeit des mutierten Gens kann man unter Anwendung einer first-step Analyse wie folgt ermitteln: Es sei T die zufällige Zeit des Aussterbens der Population, d.h. T ist der erste Zeitpunkt n für den X n = 0 gilt (beachte: 0 ist absorbierender Zustand, d.h. X k = 0, k n). Weiterhin sei u n = P {T n} = P {X n = 0} die Wahrscheinlichkeit für ein Aussterben zu oder vor dem Zeitpunkt der n-ten Generation. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 316

Markov-Prozesse Beispiel für Verzweigungsprozess (5) Ausgehend von der gemachten Annahme, dass der Prozess mit einem mutierten Gen startet (X 0 = 1) folgt, dass die Population in n Generationen ausstirbt, wenn alle Offspring -Populationen dieses Gens in n 1 Generationen ausgestorben sind. Die Zahl der von dem mutierten Gen erzeugten Nachkommen in der ersten Generation sei ξ (0) 1 = k. Unter der Annahme, dass alle Nachkommen identische statistische Eigenschaften (wie die Eltern -Generation) haben und voneinander unabhängig sind, folgt u n = p k (u n 1 ) k, n = 1, 2,... und u 0 = 0 k=0 Hierbei ist p k die Wahrscheinlichkeit, k Nachkommen zu erzeugen. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 317

Markov-Prozesse Beispiel für Verzweigungsprozess (6) Angenommen im konkreten Fall sei die Wahrscheinlichkeit für das Auftreten von 0 Nachkommen gleich 1 4 und für zwei Nachkommen 3 4. Dann folgt aus der obigen Rekursionvorschrift für u n u n = 1 4 + 3 4 (u n 1) 2 = 1 + 3(u n 1) 2. 4 Beginnend mit u 0 = 0 erhält man: u 1 = 0.25, u 2 = 0.2969, u 3 = 0.3161, u 4 = 0.3249, u 5 = 0.3292, u 6 = 0.3313, u 7 = 0.3323, u 8 = 0.3328, u 9 = 0.3331, u 10 = 0.3332. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 318

Markov-Prozesse Kurzzeiteigenschaften Stochastischer Prozesse Chapman-Kolomogorov-Gleichung beschreibt funktionale Beziehung für Übergangswahrscheinlichkeiten eines Markov-Prozesses Die Übergangswahrscheinlichkeiten für allgemeine, endliche Zeiten sind im Gegensatz zu sehr kurzen Zeiten (oft aus dem physikalischen/biologischen Zusammenhang ableitbar) meist nicht bekannt Dr. Ingo Röder, IMISE, Universität Leipzig Folie 319

Markov-Prozesse Markov-Prozesse in stetiger Zeit Im Weiteren gehen wir in unseren Betrachtungen zu Markov-Prozessen in stetiger Zeit über. Auch hier beschränken wir uns zunächst auf diskrete Zustandsräume (Markov-Ketten). Der Einfachheit halber betrachten wir hierbei wiederum stationäre Prozesse, welche darüberhinaus auf den Zustandsraum der positiven ganzen Zahlen beschränkt sein sollen, d.h. {X(t);0 t < } mit P {X(t + u) = j X(u) = i} = P ij (t), i = 0,1, 2,... Dr. Ingo Röder, IMISE, Universität Leipzig Folie 320

Markov-Prozesse Poisson Prozesse (1) Ein Poisson Prozess mit Intensität (oder Rate) λ > 0 ist ein ganzzahliger stochastischer Prozess {X(t); 0 t} für den gilt: 1. für jeweils zwei Zeitpunkte t 0 = 0 < t 1 < t 2 < t n, sind die Zuwächse X(t 1 ) X(t 0 ), X(t 2 ) X(t 1 ),,X(t n ) X(t n 1 ) unabhängige Zufallsvariablen. 2. für s 0 und t > 0 hat X(s + t) X(s) eine Poisson Verteilung, d.h. P {X(s + t) X(s) = k} = (λt)k exp λt k! für k = 0, 1, 3. X(0) = 0 Für einen solchen Poisson Prozess X(t) mit Rate λ > 0 folgt: E[X(t)] = λt und V ar[x(t)] = σ 2 X(t) = λt Dr. Ingo Röder, IMISE, Universität Leipzig Folie 321

Markov-Prozesse Poisson Prozesse (2) Eine andere Formulierung eines Poisson Prozesses kann wie folgt gegeben werden: 1. P {X(t + h) X(t) = 1 X(t) = x} = λh + o(h) as h 0, 2. P {X(t + h) X(t) = 0 X(t) = x} = 1 λh + o(h) as h 0 (x = 0, 1, 2,...), 3. X(0) = 0. Aus diesen Eigenschaften folgt, dass der Prozess nur Zuwächse erlaubt. In diesem Sinne ist der Poisson Prozess ein spezieller sogenannter reiner Geburtsprozess (pure birth process). Dr. Ingo Röder, IMISE, Universität Leipzig Folie 322

Markov-Prozesse Geburtsprozesse Reine Geburtsprozesse ergeben sich als Verallgemeinerung des Poisson Prozesses, in dem Sinne, dass die Zuwachsrate vom aktuellen Zustand abhängig sein kann: 1. P {X(t + h) X(t) = 1 X(t) = k} = λ k h + o 1,k (h) as h 0. 2. P {X(t + h) X(t) = 0 X(t) = k} = 1 λ k h + o 2,k (h) as h 0. 3. P {X(t + h) X(t) < 0 X(t) = k} = 0 (k 0). Dr. Ingo Röder, IMISE, Universität Leipzig Folie 323

Markov-Prozesse Yule Prozess (1) Der Yule Prozess beschreibt das Wachstum einer Population, in welcher jedes Mitglied eine Wahrscheinlichkeit zur Geburt eines neuen Mitglieds von βh + o(h), (β > 0) während eines Zeitintervalls der Länge h hat. Unter der Annahme der Unabhängigkeit der Populationsmitglieder, erhält man: P {X(t + h) X(t) = 1 X(t) = n} = ( ) n [βh + o(h)][1 βh + o(h)] n 1 1 = nβh + o n (h), d.h. beim Yule Prozess ist die Zuwachsrate λ n = nβ. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 324

Markov-Prozesse Yule Prozess (2) Anders ausgedrückt, die totale Geburtsrate in der Population ist direkt proportional zur Populationsgröße, wobei der konstante Proportionalitätsfaktor der individuellen Geburtsrate β entspricht. Somit ist der Yule Prozess das stochastische Analogon des deterministischen Populationswachstumsmodells, welches mittels der Differentialgleichung dy dy dt = ay beschrieben wird. Hierbei ist die Wachstumsrate dt proportional zur Populationsgröße. Im stochastischen Modell ist der infinitesimale Zuwachs dy ersetzt durch die Wahrscheinlichkeit des Zuwachses um eine Einheit innerhalb des infinitesimalen Zeitintervalls dt. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 325

Markov-Prozesse Todesprozesse Analog zu reinen Geburtsprozessen kann man auch reine Todesprozesse betrachten: 1. P {X(t + h) = k 1 X(t) = k} = µ k h + o(h), k = 1,...,N. 2. P {X(t + h) = k X(t) = k} = 1 µ k h + o(h), k = 1,...,N. 3. P {X(t + h) > k X(t) = k} = 0, k = 0,1,...,N. µ k ist die Sterbe- oder Ausfallrate, welche während des Zustandes k wirksam ist. Als Komplement zum Yule Prozess bezeichnet man einen Todesprozess mit Ausfallraten, die proportional zur Populationsgröße sind, als linearen Todesprozess. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 326

Markov-Prozesse Geburts- und Todesprozesse (1) Eine gemeinsame Betrachtung der bis jetzt betrachteten reinen Geburtsbzw. Todesprozesse führt zwangsläufig zu deren Kombination und damit zum sogenannten Geburts- und Todesprozess (birth and death process). In diesem allgemeinen Fall kann ein Prozess, welcher sich zur Zeit t im Zustand n befindet, nach einer zufälligen Zeit entweder in den Zustand n 1 oder n + 1 wechseln. Damit kann ein solcher Geburts- und Todesprozess auch als zeitstetiges Analogon zum Random Walk angesehen werden. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 327

Markov-Prozesse Geburts- und Todesprozesse (2) Zur Beschreibung eines Geburts- und Todesprozesses gelten (wiederum unter der Annahme, dass es sich um einen Markov Prozess auf den Zuständen 0, 1, 2,... handelt und dass die Übergangswahrscheinlichkeiten P ij (h) stationär sind, d.h. P ij (h) = P {X(t + h) = j X(t) = i} für alle t 0.) die folgenden Vereinbarungen: 1. P i,i+1 (h) = λ i h + o(h) as h 0, i 0. 2. P i,i 1 (h) = µ i h + o(h) as h 0,i 1. 3. P i,i (h) = 1 (λ i + µ i )h + o(h) as h 0,i 0. 4. P ij (0) = δ ij. 5. µ 0 = 0,λ 0 > 0, µ i, λ i > 0, i = 1, 2,... Dr. Ingo Röder, IMISE, Universität Leipzig Folie 328

Markov-Prozesse Geburts- und Todesprozesse (3) Die folgende Matrix nennt man infinitesimalen Generator des Geburts- und Todesprozesses A = λ 0 λ 0 0 0 µ 1 (λ 1 + µ 1 ) λ 1 0 0 µ 2 (λ 2 + µ 2 ) λ 2 0. 0. µ 2. (λ 2 + µ 2 ). Die Parameter λ i und µ i werden als infinitesimale Geburts- bzw. Sterberate bezeichnet. Da P ij Wahrscheinlichkeiten sind, gilt weiterhin P ij (h) 0 und j=0 P ij(h) 1. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 329

Markov-Prozesse Geburts- und Todesprozesse (4) Setzt man die Gültigkeit der Markov-Eigenschaft voraus, kann man auch für diese zeitstetigen Prozesse die Chapman-Kolmogorov Gleichung angeben. Sie lautet: P ij (t + s) = P ik (t)p kj (s). k=0 Diese Gleichung sagt aus, dass man die Wahrscheinlichkeit in der Zeit t+s vom Zustand i nach Zustand j zu wechseln, folgender Maßen ausdrücken kann: Zunächst (in der Zeit t) wechsle man von i in irgendeinen Zwischenzustand k und danach (in der verbleibenden Zeit s) von diesem nach Zustand j. Die Gesamtwahrscheinlichkeit von i nach j zu wechseln, ergibt sich dann als Summe über alle möglichen Zwischenzustände k. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 330

Markov-Prozesse Geburts- und Todesprozesse (5) Bis jetzt wurden lediglich Aussagen über die Übergangswahrscheinlichkeiten P ij (t) gemacht. Wenn man allerdings die Wahrscheinlichkeit dafür angeben will, dass sich der Prozess zum Zeitpunkt t im Zustand n befindet (X(t) = n), so ist es nötig noch einen Startzustand, bzw. allgemeiner seine Verteilung, zu spezifizieren: P {X(t) = n} = q i P in (t), i=0 wobei q i = P {X(0) = i}. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 331

Markov-Prozesse Geburts- und Todesprozesse (6) Unter Ausnutzung der gemachten Annahmen, ist man in der Lage, die Verteilung der Aufenthaltszeiten des Prozesses im Zustand i (S i ) zu bestimmen. In anderen Worten, man bestimmt die Verteilung der Zeiten S i, dass der Prozess das erste mal den Zustand i verlässt, gegeben dass er sich derzeit im Zustand i befinde. Dazu bezeichne man P {S i t} = G i (t). Man kann zeigen, dass unter der Markov-Eigenschaft für h 0 die folgenden Beziehungen gelten: G i (t + h) = G i (t)g i (h) = G i (t)[p ii (h) + o(h)] = G i (t)[1 (λ i + µ i )h + o(h)] Dr. Ingo Röder, IMISE, Universität Leipzig Folie 332

Markov-Prozesse Geburts- und Todesprozesse (7) Eine Umstellung dieser Gleichung liefert G i (t + h) G i (t) h = (λ i + µ i )G i (t) + o(1) so dass G i (t) = (λ i + µ i )G i (t) gilt. Unter der Anfangsbedingung G i (0) = 1 erhält man für diese Gleichung die Lösung G i (t) = exp[ (λ i + µ i )t], d.h. S i folgt einer Exponentialverteilung mit Erwartungswert (λ i + µ i ) 1. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 333

Markov-Prozesse Geburts- und Todesprozesse (8) Damit erhält man die folgende Charakterisierung eines Geburts- und Todesprozesses: Der Prozess X(t) verweilt eine zufällige, mit Parameter (λ i + µ i ) exponentialverteilte Zeit in einem gegeben Zustand i und wechselt danach entweder λ mit Wahrscheinlichkeit i λ i +µ i in den Zustand i+1 oder mit Wahrscheinlichkeit µ i λ i +µ i in den Zustand i 1. Diese Entwicklung erfolgt analog einen Random Walk mit der Unterscheidung, dass die Zustandswechsel nunmehr nicht zu festen sondern zu zufälligen Zeiten realisiert werden. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 334

Markov-Prozesse Brownschen Bewegung / Wiener Prozess (1) Historischer Abriss: Beobachtung der unregelmäßigen Bewegung von Getreidepollen in Wasser durch Robert Brown im Jahre 1827; Beschreibung vieler weiterer solcher Phänomene und Entdeckung, dass dieser Prozess z.b. abhängig ist von der Wärmezufuhr und der Viskosität der Flüssigkeit. Erste Erklärung allerdings erst durch Albert Einstein im Jahre 1905: Bewegung resultiert aus Zusammenstößen der Pollen mit Wassermolekülen; Umfassende mathematische Beschreibung der Brownschen Bewegung als stochastischer Prozess durch Norbert Wiener im Jahre 1923. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 335

Markov-Prozesse Brownschen Bewegung / Wiener Prozess (2) Der Wiener Prozess {W(t);t 0} ist ein Beispiel für einen zeitstetigen Markov Prozess über einem stetigen Zustandsraum mit folgenden Eigenschaften: 1. Die Zuwächse W(s + t) W(s) sind normalverteilt mit Erwartungswert 0 und Varianz σ 2 t, wobei σ 2 > 0 fest vorgegeben sei. 2. Für jedes Paar disjunkter Intervalle (t 1,t2], (t 3,t4] mit 0 t 1 < t 2 t 3 < t 4 sind die Zuwächse W(t 4 ) W(t 3 ) und W(t 2 ) W(t 1 ) unabhängige Zufallsvariablen. Gleiches gilt für n disjunkte Zeitintervalle, wobei n eine beliebige positive, ganze Zahl sei. 3. W(0) = 0, und W(t) ist eine stetige Funktion der Zeit t. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 336

Markov-Prozesse Brownschen Bewegung / Wiener Prozess (3) e (x x Damit ergibt sich: p 2 (x, t x, t ) 2 1 ) = 2(t t ), t > t. 2π(t t ) Typische Realisierungen eines Wiener Prozesses: Dr. Ingo Röder, IMISE, Universität Leipzig Folie 337

Markov-Prozesse Brownschen Bewegung / Wiener Prozess (4) Die resultierenden Wahrscheinlichkeitsdichten lauten: p 1 (x,t) = 1 2πt e x2 /2t. Diese Gauß-Dichte (für t 0) strebt für t 0 gegen eine Dirac-Distribution. D.h. startet man einen Wiener Prozess mit einer Einpunktverteilung, so wird sich die Verteilung der Zustände mit der Zeit immer mehr ausdehnen. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 338

Simulationsmethoden Simulation von Trajektorien Mit Hilfe von Simulationsalgorithmen lassen sich Trajektorien eines stochastischen Prozesses erzeugen. Die Erzeugung N solcher Realisierungen liefert Stichprobe von Umfang N, aus welcher man Kenngrößen des stoch. Prozesses schätzen kann. Es werden zwei grundlegende Simulationsmethoden unterschieden fester Zeitschritt stochastischer Zeitschritt Zur Vereinfachung werden im Folgenden nur Einschritt-Markov- Prozesse, im Speziellen der eindim. Random Walk betrachtet (für Anwendung auf allgemeinere Prozesse wie z.b. Yule Prozess siehe Übung). Dr. Ingo Röder, IMISE, Universität Leipzig Folie 339

Simulationsmethoden Simulation mit festem Zeitschritt (1) Zu vorgegebenen Zeitschritten wird abgefragt, ob der Prozess im derzeitigen Zustand verbleibt oder ob er in einen anderen Zustand wechselt. Zeitschritte müssen hinreichend klein sein, um die Feinstruktur der Dynamik zu erkennen. Die Wahl des Zeitschrittes kann auch vom aktuellen Zustand abhängig sein. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 340

Simulationsmethoden Simulation mit festem Zeitschritt (2) Zustand zur Zeit t sei n und die Wahrscheinlichkeit im Zeitschritt dt in Zustand n 1 zu wechseln sei r(n)dt bzw. g(n)dt für Wechsel nach n + 1. Damit ist die Gesamtwahrscheinlichkeit innerhalb von dt den Zustand zu wechseln [r(n) + g(n)]dt. im Falle eines Zustandswechsels ist die Wahrscheinlichkeit für Sprung nach n 1 gleich y 1 = r(n) r(n)+g(n) bzw. 1 y 1 = g(n) r(n)+g(n) und für Sprung nach n + 1. Beachte: dt ist so klein zu wählen, dass [r(n) + g(n)]dt < 1 gilt! Dr. Ingo Röder, IMISE, Universität Leipzig Folie 341

Simulationsmethoden Simulation mit festem Zeitschritt (3) Die Wahrscheinlichkeit eines Zustandswechsels von n nach n sei Algorithmus: w n ndt = w n n u 0 (n) u 0(n)dt mit u 0 = r(n) + g(n) 1. Ziehe Zufallszahl ξ 1 gleichverteilt in [0, 1]. Wenn ξ 1 > u 0 (n)dt (entspricht Wahrscheinlichkeit 1 u 0 (n)dt) findet keine Zustandswechsel statt und man setze t = t + dt. 2. Wenn ξ 1 u 0 (n)dt ziehe weitere [0, 1]-verteilte Zufallszahl ξ 2. Ist ξ 2 r(n)/u 0 so setzt man den Zustand n = n 1 ansonsten n = n+1. Setze weiterhin t = t + dt. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 342

Simulationsmethoden Simulation mit festem Zeitschritt (4) Im Allgemeinen sind Sprünge zu mehr als zwei Zuständen möglich. Man setze u 0 (n) = n n w n n, so dass u 0 (n)dt die Wahrscheinlichkeit eines Zustandswechsels (in beliebigen von n verschiedenen Zustand) ist. Bestimme eine Unterteilung von [0,1] der Form [0,y 1,...,y α 1,y α,...,1], wobei α 1 die Anzahl der möglichen Zielzustände ist und die Größe des Teilintervalls [y α 1,y α ] proportional zu w αn gewählt wird. Der Zustand n ergibt sich nun entsprechend der Zugehörigkeit der Zufallszahl ξ 2 zu einem der Teilintervalle y α 1 ξ 2 y α. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 343

Simulationsmethoden Simulation mit stochastischem Zeitschritt (1) Im Gegensatz zur Methode mit festem Zeitschritt wird die Schrittweite hier von der Dynamik des Prozesses selbst geregelt. Die Wahrscheinlichkeit, dass ein Zustandswechsel nach genau m + 1 Zeitschritten dt stattfindet, kann berechnet werden mit p = (1 u 0 dt) m u 0 dt, d.h. in den ersten m Schritten verweilt der Prozess in einem Zustand und wechselt im (m + 1). Schritt. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 344

Simulationsmethoden Simulation mit stochastischem Zeitschritt (2) Sei (m + 1)dt = t und damit dt = t/(m + 1), so folgt p = [1 u 0t m + 1 ]m u 0 dt. Der Grenzübergang dt 0 bei festem t (damit auch m ) und e k = lim i (1 k/i) i liefert p = u 0 e u 0t dt. D.h. die Zeit bis zum Zustandswechsel ist exponentialverteilt, wobei u 0 = u 0 (n) = n n w n n die Wahrscheinlichkeit eines beliebigen Zustandswechsels ist. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 345

Simulationsmethoden Algorithmus: Simulation mit stochastischem Zeitschritt (3) 1. Ziehe Zufallszahl ξ 1 gleichverteilt in [0, 1] und bestimme den Zeitpunkt des nächsten Zustandswechsels t = t + dt gemäß dt = 1 u 0 (n) ln(ξ 1). 2. Wähle den Zustand n entsprechend dem Algorithmus für feste Schrittweite. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 346

Simulationsmethoden Vor- und Nachteile einer festen gegenüber einer stochastischen Schrittweite Methode mit festem Zeitschritt ist manchmal schneller, da sie nicht die Berechnung des Logarithmus der ZV erfordert. u 0 (n)dt 1 muss beachtet werden. Abhängigkeit der Übergangsraten von n kann eine gewählte Schrittweite zu groß (Übersehen der Dynamik) bzw. zu klein (Ineffizienz) werden lassen. Abhängigkeit der Simulationsgüte von der Schrittweite. Zunehmende Anzahl der Zeitschritte führt zu Annäherung der Simulation an das exakte Ergebnis. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 347

Simulationsmethoden Gillespie-Algorithmus (1) Nicht nur offensichtlich stochastische Prozesse können mittels der vorgestellten Methoden behandelt werden; Im Folgenden Anwendung des vorgestellten Formalismus auf chemische Reaktionsgleichungen Die vorgestellte Methode basiert auf: Danile T. Gillespie (1977), Exact Stochastic Simulation of Coupled Chemical Reactions, J. of Phys. Cemistry 81(25): 2340-2361. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 348

Simulationsmethoden Gillespie-Algorithmus (2) Klassische Beschreibung chemischer Reaktionen mittels deterministischer Ratengleichungen; Allerdings liegen chem. Reaktionen letztendlich Interaktionen einzelner diskreter Moleküle zugrunde, was zeigt, dass kontinuierliche Beschreibung nur eine Approximation darstellt; Ggf. bedeutsame Fluktuationen auf der Ebene molekularer Ereignisse werden nicht repräsentiert (z.b. Betrachtung geringer Molekülzahlen) Dr. Ingo Röder, IMISE, Universität Leipzig Folie 349

Simulationsmethoden Gillespie-Algorithmus (3) Ausgangspunkt für Betrachtung ist wieder die Vorstellung, dass eine chem. Reaktion auf Zusammenstößen von Molekülen beruht (kinetische Stoßtheorie); Diese Zusammenstöße treten in einem System, welches sich in einem thermodynamischen Gleichgewicht befindet, zufällig auf; Betrachte also die Wahrscheinlichkeit eines solchen Zusammenstoßes: Dr. Ingo Röder, IMISE, Universität Leipzig Folie 350

Simulationsmethoden Gillespie-Algorithmus (4) Das Kollisions-Volumen beschreibt den Bereich, in dem innerhalb eines Zeitintervalls δt ein Zusammenstoß der Moleküle auftreten kann. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 351

Simulationsmethoden Gillespie-Algorithmus (5) Um die Rate des Zusammenstoßes zu erhalten würde man formal die Anzahl der Moleküle (vom Typ 2) innerhalb des Kollisions-Volumens δv coll im Zeitintervall δt bestimmen und den Grenzwert für kleine Zeiten (d.h. für lim δt 0 ) berechnen; Da es allerdings nur ganze Moleküle gibt (d.h. für kleine Zeiten können in δv coll entweder 1 oder 0 Moleküle liegen), ist es besser hier anstatt einer Rate die Wahrscheinlichkeit des Vorhandenseins eines Moleküls in δv coll anzugeben; Dr. Ingo Röder, IMISE, Universität Leipzig Folie 352

Simulationsmethoden Gillespie-Algorithmus (6) Bei Systemen im thermodynamischen Gleichgewicht kann man davon ausgehen, dass die Moleküle gleichmäßig innerhalb eines betrachteten Volumens V verteilt sind; Damit ist die Wahrscheinlichkeit ein Molekül von Typ 2 innerhalb von δv coll anzutreffen δv coll /V (dies gilt in gleicher Weise für den Grenzfall infinitesimaler Volumina); Mittelung dieser Wahrscheinlichkeit über die Geschwindigkeitsverteilungen der Molküle vom Typ 1 und 2 führt auf die mittlere Wahrscheinlichkeit, dass ein spezielles 1-2-Molekülpaar innerhalb von δt zusammenstößt δv coll /V = V 1 πr 12 v 12 δt (146) Dr. Ingo Röder, IMISE, Universität Leipzig Folie 353

Simulationsmethoden Gillespie-Algorithmus (7) Wenn sich nun innerhalb des Volumens V X 1 Moleküle der Substanz 1 und X 2 Moleküle der Substanz 2 aufhalten, ergibt dies insgesamt X 1 X 2 unterschiedliche 1-2-Molekülpaare; Damit ist, unter Nutzung der mittleren Wahrscheinlichkeit für einen speziellen Zusammenstoß (146), die mittlere Wahrscheinlichkeit für irgendeinen 1-2-Zusammenstoß X 1 X 2 V 1 πr 12 v 12 δt (147) D.h. obwohl die Anzahl der Zusammenstöße in V innerhalb des infinitesimalen Zeitabschnitts δt nicht angegeben werden kann, so ist dies in Dr. Ingo Röder, IMISE, Universität Leipzig Folie 354

Simulationsmethoden rigoroser Art und Weise für die Wahrscheinlichkeit eines Zusammenstoßes möglich. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 355

Simulationsmethoden Gillespie-Algorithmus (8) Ausgehend von bisherigen Betrachtungen ist es möglich eine chemische Reaktion mittels Reaktionswahrscheinlichkeit pro Zeitschritt anstatt Reaktionsrate zu charakterisieren; Betrachte dazu die Reaktion R 1 : S 1 + S 2 2S 1 In Analogie zu (146) kann man Konstante c 1 (die nur von physikalischen Eigenschaften der Moleküle und der Systemtemperatur abhängt) angeben, so dass c 1 dt die mittlere Wahrscheinlichkeit für eine R 1 -Reaktion eines speziellen 1-2 Molekülpaares in dt angibt Damit ist X 1 X 2 c 1 dt die mittlere Gesamtwahrscheinlichkeit für eine R 1 - Reaktion innerhalb von dt. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 356

Simulationsmethoden Gillespie-Algorithmus (9) Zur stochastischen Beschreibung einer chemischen Reaktiongleichung muss noch der Zusammenhang von deterministischer Reaktionsrate k 1 und stochastischer Reaktionswahrscheinlichkeit c 1 beschrieben werden; Für die Reaktion R 1 : S 1 + S 2 2S 1 kann man zeigen, dass gilt: k 1 = V c 1 < X 1 X 2 > / < X 1 >< X 2 >. (siehe T. Gillespie (1976), J.Comput.Phys.22) Da im Kontext deterministischer Betrachtungen der Reaktionskinetik kein Unterschied zwischen dem Mittelwert eines Produktes und dem Produkt der Mittelwerte besteht, betrachtet man auch die einfachere Beziehung k 1 = V c 1. Dr. Ingo Röder, IMISE, Universität Leipzig Folie 357