8 Markov-Kette mit kontinuierlicher Zeit

Ähnliche Dokumente
5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

Eigenwerte und Diagonalisierung

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

16.3 Rekurrente und transiente Zustände

3.6 Eigenwerte und Eigenvektoren

37 Gauß-Algorithmus und lineare Gleichungssysteme

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

Inverse Matrix. 1-E Ma 1 Lubov Vassilevskaya

Mathematische Erfrischungen III - Vektoren und Matrizen

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Allgemeines Gleichungssystem mit zwei Gleichungen und zwei Variablen. Der erste Index bezeichnet die Nummer der Zeile, der zweite die der Spalte.

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

5 Eigenwerte und die Jordansche Normalform

Lösungen zum 5. Aufgabenblatt

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

3.4 Der Gaußsche Algorithmus

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Matrizen, Determinanten, lineare Gleichungssysteme

4 Lineare Algebra (Teil 2): Quadratische Matrizen

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Einführung in Markoff-Ketten

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge

Anleitung zu Blatt 4 Differentialgleichungen I für Studierende der Ingenieurwissenschaften

Elementare Beweismethoden

Tutorium Mathematik II, M Lösungen

(Allgemeine) Vektorräume (Teschl/Teschl 9)

9.2 Invertierbare Matrizen

MC-Serie 11: Eigenwerte

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren

4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung

Wirtschaftsmathematik Formelsammlung

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Mathematik Matrizenrechnung

1 Fraktale Eigenschaften der Koch-Kurve

LANGZEITVERHALTEN VON MARKOW-KETTEN

( ) Lineare Gleichungssysteme

4 Vorlesung: Matrix und Determinante

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

2.4 Die Länge von Vektoren

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Satz 16 (Multiplikationssatz)

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Mathematischer Vorkurs Lösungen zum Übungsblatt 5

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

Brückenkurs Mathematik

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

LANGZEITVERHALTEN VON MARKOW-KETTEN

R C 1s =0, C T 1

Lösung zu den Testaufgaben zur Mathematik für Chemiker II (Analysis)

Lineare Algebra II 6. Übungsblatt

Länge eines Vektors und Abstand von zwei Punkten 2. 4 = 6. Skalarprodukt und Winkel zwischen Vektoren

4.4. Rang und Inversion einer Matrix

4.3 Anwendungen auf Differentialgleichungen

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

Populationsentwicklung

Folgen, Reihen, Grenzwerte u. Stetigkeit

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Bestimmung einer ersten

DynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten

1 Zahlentheorie. 1.1 Kongruenzen

Vorlesung: Analysis I für Ingenieure

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

Kleine Formelsammlung zu Mathematik für Ingenieure IIA

Lineare Differenzengleichungen und Polynome. Franz Pauer

Musterlösung Höhere Mathematik I/II Di. Aufgabe 1 (11 Punkte) Geben Sie die Matrixbeschreibung der Quadrik

Vorkurs Mathematik B

6 Eigenwerte und Eigenvektoren

Lineare Algebra und Numerische Mathematik für D-BAUG

Euklidische und unitäre Vektorräume

1 A dp = P(A B). (1.3)

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Angewandte Mathematik und Programmierung

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen

Axiomatische Beschreibung der ganzen Zahlen

Mathematische Grundlagen der Ökonomie Übungsblatt 8

Determinanten. a e b f a c b d. b) x = , y = c) zu einem Spaltenvektor das Vielfache des anderen Spaltenvektors addiert wird,

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

Lineare Abhängigkeit

Würfelspiele und Zufall

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Kapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung

5 Potenzreihenansatz und spezielle Funktionen

Corinne Schenka Vorkurs Mathematik WiSe 2012/13

Komplexe Funktionen. für Studierende der Ingenieurwissenschaften Technische Universität Hamburg-Harburg. Reiner Lauterbach. Universität Hamburg

Proseminar Lineare Algebra II, SS 11. Blatt

7.8. Die Regel von l'hospital

Iterative Verfahren, Splittingmethoden

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Analysis I - Einige Lösungen und Ergänzungen

A2.3 Lineare Gleichungssysteme

Die Abbildung zeigt die Kette aus dem "

DEUTSCHE SCHULE MONTEVIDEO BIKULTURELLES DEUTSCH-URUGUAYISCHES ABITUR ( AUF SPANISCH )

Caputo fraktionale Differentialgleichungen. 1 Riemann Liouville fraktionale Differentialgleichungen

Laplace-Transformation

Diskrete und Schnelle Fourier Transformation. Patrick Arenz

Serie 10: Inverse Matrix und Determinante

Transkript:

8 Markov-Kette mit kontinuierlicher Zeit In den vorhergehenden Kapiteln haben wir Markov-Ketten behandelt, bei denen die Zustandsänderungen in diskreten, äquidistanten Zeitpunkten stattfanden. In weiteren Kapiteln wollen wir nun unsere Studien dahingehend erweitern, dass im im Prozess in zufälligen Zeitpunkten Übergenge vorkommen können. 8.1 Markov-Kette mit kontinuierlicher Zeit Das erste Problem, das uns hier begegnet, besteht darin, dass wir einen Prozess mit N Zuständen mit einer Zufallszeit zwischen den Übergängen beschreiben sollen. 8.1.1 Definition: Ein stochastischer Prozess Xt t 0 mit dem diskreten Zustandsraum E heißt Markov- Kette mit kontinuierlicher Zeit, wenn für alle s t und Zustände i, j E Xt j Xs i, Xu xu, 0 u s Xt j Xs i. d.h. wenn, bildlich gesprochen, die Zukunft nur von der Gegenwart, nicht aber von der Vergangenheit abhängt. Obige Eigenschaft nennt man Markov-Eigenschaft (Gedächtnislosigkeit) des stochastischen Prozesses. 8.1.2 Definition: Der Ausdruck Xt j Xs i p i j s, t, 0 s t, 0 p i j s, t 1 heißt Übergangswahrscheinlichkeit von i nach j. 8.1.3 Definition: Falls die bedingte Wahrscheinlichkeit p i j s, t nur von der Differenz t s abhängt, d.h Xt j Xs i Xt s j X0 i p i j t s dann heißt die Markov-Kette mit kontinuierlicher Zeit homogen. Wir schreiben die Übergangswahrscheinlichkeiten wieder in Übergangsmatrizen Pt : p i j t zusammen. 8.1. Definition: Die endliche unendliche Matrix der Übergangswahrscheinlichkeiten p 11 t p 12 t... Pt p i j t i, j E p 21 t p 22 t............ heißt die Übergangsmatrix. 8.1. Definition: Für jede Markov-Kette mit kontinuierlicher Zeit gilt j E p i j t 1, i E

2 08_Markov_Kette_mit_kontinuierlicher_Zeit.nb Normierungseigenschaft, dann heißt die Übergangsmtrix Pt heißt stochastische Matrix. Die Überlegung zeigt, dass die wesentlichen Parameter des Prozesses Übergangsraten anstatt Übergangswahrscheinlichkeiten sind. 8.1.6 Definition: Nennen wir a i j die Übergangsrate im Prozess vom Zustand i zum Zustand j für i j, i, j E. Die Grösse a i j wird folgt definiert: In einem kurzen Zeitraum t wird ein Prozess, welcher sich im Zustand i befindet, einen Übergang zum Zustand j mit einer Wahrscheinlichkeit a i j t, i j, machen, d.h. wobei a i i j i a i j, Xt t j Xt i p i j t a i j t o t, i j 1 a i i t o t, i j, p i j t p i j t1 a i j : lim t0, i j, und a i i : lim t0. t t Die Wahrscheinlichkeit für zwei mehr Übergänge ist von der Ordnung t 2 von höherer Ordnung und wird gleich Null gesetzt, wenn t genügend klein ist. Die Beziehung zwischen dieser Definition und den Annahmen des Poisson-Prozesses sollte klar sein. Wir werden nur diejenigen Prozesse betrachten, für die die Übergangsraten a i j konstant sind. Das ist eine äquivalente Annahme zur Annahme im diskreten Fall, dass die Übergangswahrscheinlichkeiten sich mit der Zeit nicht ändern. 8.1.7 Definition: Marix A heißt infinitesimale Generator (Intensitätsmatrix) von der Markov-Kette Xt t 0. Wir können nun die kontinuierliche Markov-Kette durch eine Intensitätsmatrix A mit komponenten a i j beschreiben. Die Matrix A ist für sich iteressant. Die ausserhalb der Diagonale liegenden Elemente von A werden durch Übergangsraten des Prozesses gegeben. Die Diagonalelemente von A sind durch die Gleichungen (8.2) a i i j i a i j gegeben. Dies ergibt, dass sich die Zeilen von A zu Null addieren, N j 1 ai j 0. Wie früher schon erwähnt wurde, nennt man eine Matrix, deren Reihen sich zu Null addieren, eine Differentialmatrix. Wie wir sehen, ist die Differentialmatrix A eng verwandt mit der stochastischen Matrix Pt, A lim t0 P ti t 8.2 Zustandswahrscheinlichkeiten 8.2.1 Definition: Der Ausdruck Xt i Π i t, i E, t 0. bezeichnet die Zustandswahrscheinlichkeit von i E zum Zeitpunkt t, Das ist die Wahrscheinlichkeit dafür, dass sich das System zur Zeit t nach dem start des Prozesses im Zustand

08_Markov_Kette_mit_kontinuierlicher_Zeit.nb 3 i E befindet. Die Wahrscheinlichkeit Π i t ist analog zu Π i n. Bezeichnen wir mit Πt Π 1 t, Π 2 t,..., Π N t den Zeilenvektor der Zustandswahrscheinlichkeiten zur Zeit t. 8.2.2 Satz (Chapman-Kolmogorov Vorwärts Differentialgleichungen): Für Zustandswarscheinlichkeiten gilt das System von Differentialgleichungen (8.) Πt Πt A t Beweis: Wir können die Zustandswahrscheinlichkeiten zur Zeit t in Beziehung setzen zu denjenigen zur Zeit t t, wobei t eine kurze Zeitspanne ist, durch die Gleichungen (8.1) Π j t t Π j t 1 i j a j i t i j Π i t a i j t, j E. Es gibt zwei sich gegenseitig ausschliessende Wege, auf denen das System den Zustand j im Zeitpunkt t t besetzen kann. Erstens kann es zur Zeit t im Zustand j gewesen sein und keine Übergänge im Zeitabschnitt t durchgeführt haben. Für diese Ereignisse bestehen die Wahrscheinlichkeiten Π i t bzw. 1 i j a j i t, weil wir voraussetzen, dass die Wahrscheinlichkeit für mehrfache Übergänge von höherem Grade als t und vernachlässigbar ist, und weil die Wahrscheinlichkeit dafür, keinen Übergang in t zu machen, 1 minus der Wahrscheinlichkeit dafür, einen Übergang in t zu irgendeinem Zustand i j zu machen, ist. Die andere Art, auf die sich das System im Zustand j E zur Zeit t t befinden könnte, wäre, dass man zur Zeit t im Zustand i j gewesen wäre und während der Zeit t einen Übergang von i zum Zustand j gemacht hätte. Für diese Ereignisse haben wir die Wahrscheinlichkeit Π i t bzw. a i j t. Die Wahrscheinlichkeiten müssen über alle i, die nicht gleich j sind, multipliziert znd addiert werden, da das System von irgendeinem anderen Zustand i nach j hätte gelangen können. Damit haben wir gezeigt, wie die Gleichung (8.1) entstanden ist. Wenn wir jetzt die Gleichung a j j i j a j i in Gleichung (8.1) einsetzen, haben wir Π j t t Π j t 1 a j j t i j Π i t a i j t, j E N Π j t t Π j t Πi t a i j t. i 1 Nachdem wir beide Seite dieser Gleichun durch t dividiert und den Grenzwert für t 0 gebildet haben, erhalten wir (8.3) t Π N jt Πi t a i j, j E. i 1 Die Gleichungen (8.3) bilden ein System von N linearen Differentialgleichungen mit konstanten Koeffitienten, welche die Zustandswahrscheinlcihkeiten mit der Matrix A der Übergangsraten in Verbindung bringen. Die Anfangsbedingungen Π i 0, i E, müssen festgelegt werden, wenn man eine Lösung erhalten will. Die Gleichungen (8.3) können in Matrixschreibweise wie folgt dargestelt werden Πt Πt A. t

08_Markov_Kette_mit_kontinuierlicher_Zeit.nb Wir sehen, dass die Matrix A der Übergangsraten für kontinuierliche Prozesse die gleiche Rolle spielt wie die Übergangsmatrix P für diskrete Prozesse. Jedoch haben wir nun ein System von Differentialgleichungen t Π jt N i 1 Πi t a i j anstatt eines System von Differenzengleichungen. Π j n 1 N i 1 Πi n p i j. 8.2.3 Definition: Man sagt, eine Markov-Kette mit kontinuierlicher Zeit besitzt die Grenzverteilung Π i, i E, wenn lim t Π i t Π i. Wir werden eine Markov-Kette, deren Grenzverteilung unabhängig von den Anfangsbedingungen ist, als ergodisch bezeichnen. Für ergodische Markov-Kette können wir die Grösse Π i, i E, definieren als die Wahrscheinlichkeit dafür, dass das System nach nach unendlich vielen Übergängen im Zustand i ist. Demzufolge gilt für den Zeilenvektor Π mit den Komponenten Π i Π lim t Πt. Man nennt ihn den Vektor der Grenzzustandswahrscheinlichkeiten. Wenden wir diese Beziehung für den Ausdruck aus dem Satz 8.2.2 an, erhält man also 8.2. Satz: Für ergodische Markov-Kette genügt der Vektor Π der folgenden Gleichung 0 Π A mit der Normierungseigenschaft Π i 1. i E Beweis: Im folgenden Abschnitt wollen wir die Anwendung der Laplace-Transformation bei der Lösung des durch die Gleichung (8.) beschriebenen kontinuierlichen Markov-Ketten behandeln. Wir werden feststellen, dass die Kenntnisse über den diskreten Markov-Kette uns für die neue Arbeit sehr von Nutzen sein werden. 8.3 Die Laplace-Transformation 8.3.1 Definition: Die Laplace-Transformierte einer Zeitfunktion f t, die für t 0 gleich Null ist, wir definiert durch (8.) fs 0 f t e s t t, Res 0. Die Laplace-Transformierte existiert für jede Zeitfunktion, die nicht stärker als exponentiell zunimmt.

08_Markov_Kette_mit_kontinuierlicher_Zeit.nb 1.3.2 Beispiel: Bestrachten wir die Funktion f t e a t, t 0 und f t 0, t 0. Gesucht ist die entsprechende Laplace-Transformierte. Lösung: Gleichung (8.) liefert fs 0 e a t e s t t 0 e sa t t 1 sa. Der Leser sollte unbedingt mit dem Inhalte der nächsten Tabelle vertraut sein, da davon in Beispielen und Beweisen ausführlich Gebrauch gemacht wird. Funktion f t f 1 t f 2 t k f t, k Konst t f t Laplace Transformierte fs f 1 s f 2 s k fs s fs f 0 e a t 1 sa 1 1 s t e a t 1 sa 2 t e a t f t 1 s 2 fs a 8. Lösung der kontinuierlichen Markov-Kette mit Hilfe der Laplace- Transformation Der kontinuierliche Markov-Kette wird dargestellt durch die Gleichung (8.). Somit könnte man erwarten, dass bei der Lösung solcher Prozesse sich die Laplace-Transformation als nützlich erweist. Wir wollen die Laplace- Transformierte des Vektors der Zustandswahrscheinlichkeiten Πt Π 1 t, Π 2 t,... mit s 1 s, 2 s,... bezeichnen. Die Laplace-Transformierte einer Matrix von Zeitfunktionen ist die Matrix der Laplace-Transformierten der einzelnen Zeitfunktionen. 8..1 Satz: Für die Laplace-Transformierte s des Vektors Πt gilt (8.6) s Π0 s I A 1. Dabei ist I die Einheitsmatrix. Beweis: Wenn wir die Laplace-Transformierte der Gleichung (8.)

6 08_Markov_Kette_mit_kontinuierlicher_Zeit.nb bilden, erhalten wir Schliesslich haben wir Πt Πt A t s s Π0 s A s s I A Π0. s Π0 s I A 1. Die Laplace-Transformierte des Vektors der Zustandswahrscheinlichkeiten ist somit gleich dem Anfangsvektor der Zustandswahrscheinlichkeiten von rechts multipliziert mit der Inversen der Matrix s I A. Die Matrix s I A 1 ist im kontinuierlichen Prozess das Gegenstück zu der Matrix I z P 1. Wir werden feststellen, dass analoge Eigenschaften zu denjenigen von I z P 1 bestehen und dass die Matrix s I A 1 zur völligen Lösung des kontinuierlichen Markov-Ketten führt. Die Untersuchung zeigt, dass die Lösung der Gleichung (8.) (8.7) Πt Π0 e A t ergibt, wobei die Matrixfunktion e A t als die Potenzreihe I t A t2 2 A2 t3 3 A3... zu interpretieren ist, die gegen e A t konvergiert. Für dieskrete Prozesse ergaben die Gleichungen (siehe Satz 1.2.3) (1.) Πn Π0 P n, n 0. Angenommen, wir möchten die Matrix A für den kontinuierlichen Prozess bestimmen, der zur Zeit t 0, 1, 2,... die gleichen Zustandswahrscheinlichkeiten aufweist wie der diskrete Prozess, der durch P gegeben ist, wobei eine Zeiteinheit als die Zeit für einen Übergang des diskreten Prozessed definiert wird. Bein vergleich der Gleichungen (8.7) und (1.) mit t n sehen wir dann, dass e A P (8.8) A ln P wird. Wir behandeln nun das Problem des Spielzeugfabrikanten. Wir erinnern uns an die ursprüngliche Politik des Spielzeugfabrikanten mit der Übergangsmatrix 1 1 P 2 2 2 3. Angenommen, wir wollen nun den kontinuierlichen Prozess bestimmen, der dieselben Zustandswahrscheinlichkeiten am Ende jeder Woche für eine willkürliche Startposition hat. Dann müssen wir die Gleichung (8.8)

08_Markov_Kette_mit_kontinuierlicher_Zeit.nb 7 lösen, um die Matrix A zu bestimmen. Wenn die Matrix P diagonalisierbar, dann wobei P' V 1 PV, P' Λ 1 0 0 Λ 2 eine diagonale Matrix, deren diagonale Elemente Eigenwerte von P sind und V Matrix von Eigenvektoren von P (jede Spalte von V ist ein Eigenvektor von P). Aus der Beziehung ln P' ln Λ 1 0 0 ln Λ 2 erhält man ln P Vln P'V 1. es Eigensystem12, 12, 2, 3 Vm Transposees2; Pm DiagonalMatrixLoges1; Vm.Pm.InverseVm MatrixForm 1, 1, 1, 1,, 1 10 Log10 Log10 Log10 Log10 Also finden wir ln 10 A. ln 10 Da vom rechnerischen Standpunkt aus der konstante Faktor störend wirkt, können wir ebensogut ein Problem, das analog zum Problem des Spielzeugfabrikanten ist, lösen, das jedoch nicht durch die Konstanten, die für die vollständige Übereinstimmung, die wir soeben beschrieben haben, nötig sind, belastet ist. Für A schreiben wir einfach (8.) A. Wir behandeln nun das Problem Das Dilemma des Werkmeisters. Da wir die völlige Übereinstimmung preisgeben, sollten wir uns auch gleichzeitig zu einer Änderung der Probleminterpretation entschliessen. Wir wollen diese neue Problem Das Dilemma des Werkmeisters nennen. Ein Werkmeister einer Werkstatt besitzt eine unzuverlässige Maschine, die entweder läuft (Zustand 1) still steht (Zustand 2). Das Verhalten dieser Maschine beschreibt man mit Hilfe von einer Markov-Kette mit kontinuierlicher Zeit Xt t 0. Wenn sie in Betrieb ist, besteht eine Wahrscheinlichkeit von t, dass sie innerhalb eines kurzen Zeitraumes t aussetzt, Xt t 2 Xt 1 t o t. Wenn sie still steht, besteht die Wahrscheinlichkeit von t, dass sie in der Zeit t repariert sein wird,.

8 08_Markov_Kette_mit_kontinuierlicher_Zeit.nb Somit erhalten wir die Matrix der Übergangsraten (Gleichung (8.)). Die Annahmen über das Aussetzen und die Reparatur sind äquivalent dazu, dass die Betriebszeit der Maschine zwischen den Unterbrüchen exponential mit einem Mittelwert von 1 und die Reparaturzeit exponential mit dem Mittelwert 1 verteilt ist. Wenn wir als Zeiteinheit 1 Stunde nehmen, so erwarten wir einen Ausfall nach 12 Minuten, und eine Reparatur sollte erwartungsgemäss 1 Minuten dauern. Die Standard-Abweichung der Betriebs- und Reparaturzeiten beträgt ebenfalls 12 bzw. 1 Minuten. Im Problem des werkmeisters möchten wir zum Beispiel die Wahrscheinlichkeit dafür bestimmen, dass die Maschine zur Zeit t läuft, wenn sie in Betrieb ist zur Zeit t 0. Um eine solche Frage zu beantworten, müssen wir die Gleichung (8.6) auf die Matrix (8.) anwenden. Wir finden: s s I A s s s I A 1 ss ss Die Partialbruchzerlegung ergibt: s I A 1 s s s s s I A 1 1 s ss s ss s. s s 1 s s Die Matrix Ht sei das inverse Bild bezüglich der Laplace-Transformation von s I A 1. Dann wird die Gleichung (8.6) mittels der inversen Transformation zu (8.10) Πt Π0 Ht. Der Vergleich der Gleichungen (8.7) und (8.10) zeigt, dass Ht ein geschlossener Ausdruck für e A t ist:. Ht e A t e t. Der Vektor der Zustandswahrscheinlichkeiten Πt ergibt sich durch Multiplikation von rechts des Vektors der Anfangsverteilung Π0 mit der Matrix Ht. Ist die Maschine zur Zeit t 0 in Betrieb, so dass dann ist Π0 1, 0, Πt, e t, Π 1 t e t, Π 2 t e t. Π 1 t und Π 2 t bestehen aus einer konstanten Grösse und einem exponentiell abfallenden Teil. Der konstante Teil stellt die Grenzwahrscheinlichkeit dar, wenn t sehr gross wird. Die Wahrscheinlichkeit, dass die Maschine in Betrie bleibt, Π 1 t, fällt somit exponentiell von 1 auf, wenn t zunimmt. Die Zeitkonstante für diese exponen-

08_Markov_Kette_mit_kontinuierlicher_Zeit.nb tielle abnahme ist 1. Ähnlich verhält es sich, wenn die Maschine bei t 0 still steht, also Π0 0, 1 ist und Πt, e t,, so dass Π 1 t e t, Π 2 t e t. 8..2 Bemerkung: Man beachte, dass die Wahrscheinlichkeit dafür, dass die Maschine in Betrib ist, von 0 zu ihrem Grenzwert Prozesses sind exponentiell aufsteigt, wenn t gross wird. Die Grenzwahrscheinlichkeiten des Π 1 bzw. Π 2 für die Zustände 1 bzw. 2. Sie sind unabhängig vom zustand des Systems zur Zeit t 0. Die Ähnlichkeit zwischen den diskreten und kontinuierlichen Markov-Ketten ist nun offensichtlich. Beide haben Grenzwahrscheinlichkeiten und transiente Wahrscheinlichkeitskomponenten. Die transienten Anteile im diskreten Fall waren geometrisch, im kontinuierlichen Fall sin sie exponentiell. 8..3 Bemerkung: Die Matrix s I A 1 wird immer einen Teil 1 mal eine stochastische Matrix S haben. Das ist richtig, weil s ein Faktor der s Detrminante von s I A ist. Eine Differentialmatrix hat immer einen Eigenwert, der gleich Null ist. Die stochastische Matrix S ist die Matrix der Vektoren der Grenzwahrscheinlichkeiten ebenso wie im diskreten Fall. Die i-te zeile von S gibt die Grenzverteilung des Prozesses an, wenn er im i-ten Zustand gestartet wird. Die Bemerkungen über die ergodischen Klassen gelten auch für den kontinuierlichen Prozess. Die verbleibenden summanden von s I A 1 stellen die transienten Komponenten der form e a t, t e a t, usw. dar, die für grosse t verschwinden. Die Matrizen, mit denen diese Komponenten multipliziert werden, sind selber Differentialmatrizen. Bezeichnen wir den transienten Teil von s I A 1 mit s, dann haben wir den Satz: 8.. Satz: Für die Matrix s I A 1 gild folgende Darstellung: (8.11) s I A 1 1 S s s Ht S Tt. Dabei ist I die Einheitsmatrix, S die stochastische Matrix der Grenzwahrscheinlichkeiten und Tt die transienten Wahrscheinlichkeitskomponenten.

10 08_Markov_Kette_mit_kontinuierlicher_Zeit.nb Beweis: Für das Problem des Werkmasters ist S, Tt e t. Die Zeilen von S sind identisch, weil der Prozess eine ergodische Klasse hat. Es ist nicht notwendig, s I A 1 zu berechnen, wenn nur nach den Grenzwahrscheinlichkeiten gefragt ist. Nach dem satz 8.2., ergibt sich ΠA 0, N i 1 Πi 1 Π 1 Π 2 0 Π 1 Π 2 0 Π 1 Π 2 1. Die Lösung diser Gleichungen ist Π 1, Π 2 in Übereinstimmung mit unseren früheren Resultaten.