Werner Sandmann: Modellierung und Analyse 4 1. Kapitel 4. Markovketten

Größe: px
Ab Seite anzeigen:

Download "Werner Sandmann: Modellierung und Analyse 4 1. Kapitel 4. Markovketten"

Transkript

1 Werner Sandmann: Modellierung und Analyse 4 1 Kapitel 4 Markovketten

2 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 2 Abschnitt 4.1 Grundlagen

3 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 3 Einordnung Abstrakte Modellbeschreibung High-Level Modellierungsparadigma Warteschlangenmodell, Petrinetz, Prozeßalgebra Automatenmodell, Transitionssystem Analyse Stochastischer Prozeß Nicht Markovscher stochastischer Prozeß Gedächtnislos? Nein Ja Markovprozeß Markovkette Zustandsraum diskret Analyse Analyse

4 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 4 Stochastischer Prozeß Definition: Stochastischer Prozeß Ein stochastischer Prozeß ist eine Familie von Zufallsvariablen (X t ) t T auf einem Wahrscheinlichkeitsraum (Ω, A, P) mit Werten in einer Menge S. Menge T heißt Indexmenge oder Parametermenge. Indizes t T interpretiert als Zeiten Indexmenge T überabzählbar: Prozess (zeit)stetig = (zeit)kontinuierlich, Indexmenge T abzählbar: Prozeß (zeit)diskret. Menge S heißt Zustandsraum. Werte der ZV X t interpretiert als Zustände eines Systems Zustandsraum S überabzählbar: Prozeß zustandsstetig Zustandsraum S abzählbar: Prozeß zustandsdiskret, heißt Kette. Abbildung t X t (ω) heißt Pfad oder Trajektorie oder Realisierung.

5 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 5 Klassen stochastischer Prozesse Einfache weitere Klassifizierung möglich gemäß der Abhängigkeiten der X t : Einfachster Fall: Folge unabhängiger (ggf. identisch verteilter) Zufallsvariablen. Zweiteinfachster Fall: Abhängigkeit nur vom aktuellen Zustand Markovprozeß. Diverse weitere Klassifizierungsmöglichkeiten... Wichtige Klassen stochastischer Prozesse (z.t. überlappend) Markovprozesse, Markovketten, Semi Markovprozesse Zählprozesse Ankunftsprozesse Kapitel 4 (Konventionelle Lastmodelle) Erneuerungsprozesse Ankunftsprozesse Kapitel 4 (Konv. Lastmodelle) Markovsche Zähl-/Erneuerungsprozesse Kapitel 5 (Netzlastmodelle) Fraktale Prozesse, Autoregressive Prozesse Kapitel 5 (Netzlastmodelle) Geburts-/Todesprozesse Kapitel 6 (Elementare Markovsche Modelle) Quasi-Geburts-/Todesprozesse Kapitel 10 (Matrixanalytische Methoden) Regenerative Prozesse Kapitel 11 (Diskrete Simulation)

6 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 6 Markoveigenschaft Definition: Markoveigenschaft, Markovprozeß Ein stochastischer Prozeß (X t ) t T heißt Markovprozeß (MP), genau dann, wenn für alle t 0 < t 1 <... < t n+1, t i T und x 0,..., x n+1 S, n IN : P(X tn+1 = x n+1 X tn = x n,..., X t0 = x 0 ) = P(X tn+1 = x n+1 X tn = x n ). Diese Eigenschaft heißt Markoveigenschaft. Definition: Markovkette Ein Markovprozeß mit endlichem oder abzählbarem (also diskretem) Zustandsraum heißt Markovkette (MK). Interpretationen Markovprozesse (insbesondere Markovketten) sind gedächtnislos. Der Folgezustand hängt nur vom aktuellen Zustand ab. Die Vorgeschichte des Prozesses spielt keine Rolle.

7 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 7 Klassifizierung von Markovprozessen Markovprozesse klassifiziert nach Parametermenge und Zustandsraum Parameter- Zustandsraum menge diskret stetig (Zeit ) Diskrete Markovkette (Zeit ) Diskreter Markovprozeß diskret Discrete Time Markov Chain Discrete Time Markov Process stetig (DTMC) (Zeit ) Stetige Markovkette (DTMP) (Zeit ) Stetiger Markovprozeß Continuous Time Markov Chain Continuous Time Markov Process (CTMC) Zustandsraum endlich: endliche Markovkette Für Markovketten zur Vereinfachung oft OBdA S IN (CTMP) endlich: typischerweise S = {0, 1,..., S} oder S = {1, 2,..., S} abzählbar unendlich: typischerweise S = IN 0 oder S = IN +

8 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 8 Zustandswahrscheinlichkeiten Sprechweise/Interpretation Falls X t = i für t T, i S, ist die Markovkette zur Zeit t im Zustand i. Definition: Transiente Zustandswahrscheinlichkeit Die Wahrscheinlichkeit, daß eine Markovkette zur Zeit t T in einem Zustand i S ist, heißt transiente Zustandswahrscheinlichkeit von i zur Zeit t, π (t) i := P(X t = i). Definition: Transiente Verteilung Der Vektor π (t) = (π (t) 0, π(t) 1,...) der transienten Zustandswahrscheinlichkeiten heißt transiente Wahrscheinlichkeitsverteilung oder kürzer transiente Verteilung der Markovkette zur Zeit t.

9 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 9 Übergangswahrscheinlichkeiten Definition: Transiente Übergangswahrscheinlichkeiten Für beliebige t 1, t 2 T mit t 1 < t 2 heißen die Wahrscheinlichkeiten, daß die Markovkette zur Zeit t 1 in einem Zustand i S und zur Zeit t 2 in einem Zustand j S ist, transiente Übergangswahrscheinlichkeiten (ÜWK) p ij (t 1, t 2 ) := P(X t2 = j X t1 = i). Beachte insbesondere: Übergangswahrscheinlichkeiten sind bedingte Wahrscheinlichkeiten. WK nichtnegativ, also für t 1, t 2 T mit t 1 < t 2 und i, j S : p ij (t 1, t 2 ) 0. Bedingte WK ist W Verteilung, also j S p ij (t 1, t 2 ) = 1.

10 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 10 Pfadwahrscheinlichkeiten Pfade/Realisierungen/Trajektorien Direkte Folgerung aus der Markoveigenschaft Pfadwahrscheinlichkeiten: WK für Pfade (x 0, x 1,..., x n ), n 0 sind gegeben durch und bilden die Verteilung der (n + 1)-dimensionalen ZV (X t0, X t1,..., X tn ) Für alle x 0,..., x n S und t 0, t 1,..., t n, n IN mit t 0 < t 1 < < t n P(X t0 = x 0,..., X tn = x n ) = π x (0) n 1 0 k=0 p xk x k+1 (t k, t k+1 ) = P(X t0 = x 0 )p x0 x 1 (t 0, t 1 )p x1 x 2 (t 1, t 2 ) p xn 1 x n (t n 1, t n ).

11 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 11 Reisen über Zwischenstationen Einfache Überlegungen Reist man in einer gewissen Zeit von einem Zustand zu einem anderen Zustand, dann besucht man zwischendurch weitere Zustände. Startet man zur Zeit t 1 in i und landet man zur Zeit t 2 in j, war man also zu einer Zwischenzeit s, t 1 < s < t 2 in irgendeinem Zwischenzustand k. Die WK, zur Zeit t 1 in i und zur Zeit t 2 in j zu sein, kann also zusammengesetzt werden: WK zur Zeit t 1 in i und zur Zeit s in irgendeinem k zu sein multipliziert mit WK zur Zeit s in besagtem k und zur Zeit t 2 in j zu sein. Zwischenzustand k ist beliebig und auf verschiedenen Wegen sind verschiedene Zwischenzustände möglich Produkt der WK muß über alle Zwischenzustände summiert werden. Genau dieser Zusammenhang wird in den Chapman Kolmogorov Gleichungen ausgedrückt.

12 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 12 Chapman Kolmogorov Gleichungen Satz: Chapman Kolmogorov Gleichungen Für beliebige i, j S und t 1, s, t 2 T mit t 1 < s < t 2 gilt p ij (t 1, t 2 ) = k S p ik (t 1, s)p kj (s, t 2 ). Beweis: später für spezielle Markovketten. Oder als Übung ;-) Beachte aber Chapman Kolmogorov Gleichungen gelten für jede Art von Markovketten.

13 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 13 Abschnitt 4.2 Diskrete Markovketten

14 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten Grundbegriffe Bereits eingeführt Markovkette (MK): Markovprozeß mit diskretem Zustandsraum. (Zeit ) Diskrete MK: MK mit diskreter Indexmenge (Parametermenge). Wir lassen den Zusatz (Zeit ) meist weg, da 1. klar ist, daß diskrete MK eine MK mit diskreter Indexmenge ist, 2. die Interpretation als Zeiten zwar üblich und nützlich, formal aber nicht notwendig ist. Üblicherweise Parametermenge T = IN und Zeitparameter n IN. Damit Definition: Diskrete Markovkette Ein stochastischer Prozeß (X n ) n IN mit diskretem Zustandsraum S heißt zeitdiskrete Markovkette (Discrete Time Markov Chain, DTMC) oder kurz diskrete Markovkette, falls für alle n IN und x 0,..., x n+1 S gilt P(X n+1 = x n+1 X n = x n,..., X 0 = x 0 ) = P(X n+1 = x n+1 X n = x n ).

15 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 15 Zustandswahrscheinlichkeiten Analog zum allgemeinen Fall jetzt mit den Notationen für diskrete MK: Transiente Zustandswahrscheinlichkeit von j zur Zeit n : π (n) j := P(X n = j). Transiente Verteilung zur Zeit n : π (n) = (π (n) 0, π(n) 1,...). Speziell Anfangszustandswahrscheinlichkeiten π (0) 0, π(0) 1,... ; Anfangsverteilung π(0). Zustandsübergänge (Transitionen) finden zu diskreten Zeitpunkten statt Interpretationen für diskrete Markovkette: Zeitliche Entwicklung einer diskreten MK verläuft in Schritten. Zustand zur Zeit n IN ist Zustand nach n Übergängen nach n Schritten.

16 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 16 Übergangswahrscheinlichkeiten Wiederum analog zum allgemeinen Fall, nun in diskreten Schritten: Wahrscheinlichkeit dafür, zur Zeit n (also nach n Schritten) im Zustand i und zur Zeit n + m (also nach m weiteren Schritten) im Zustand j zu sein. Für diskrete Markovketten mit Zustandsraum S und i, j S, n, m IN Transiente m Schritt Übergangswahrscheinlichkeiten p (m) ij (n) := p ij (n, n + m) = P(X n+m = j X n = i). Transiente 1 Schritt Übergangswahrscheinlichkeiten p ij (n) := p (1) ij (n) = P(X n+1 = j X n = i). Kurz: Transiente Übergangswahrscheinlichkeiten.

17 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 17 Homogene diskrete Markovketten Definition: Stationäre Übergangswahrscheinlichkeiten Übergangswahrscheinlichkeiten einer diskreten Markovkette heißen stationär, wenn sie nicht von der Zeit abhängen. Stationäre m Schritt ÜWK: für alle n, m IN 0 P(X n+m = j X n = i) = P(X m = j X 0 = i) =: p (m) ij. Stationäre 1 Schritt ÜWK: für alle n IN 0 P(X n+1 = j X n = i) = P(X 1 = j X 0 = i) =: p ij. Definition: Homogene diskrete Markovkette Eine diskrete Markovkette heißt homogen, wenn alle Übergangswahrscheinlichkeiten stationär sind.

18 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 18 Übergangsmatrizen Stationäre ÜWK werden zusammengefaßt in Übergangsmatrizen. m Schritt Übergangsmatrix Matrix der m Schritt ÜWK (1 Schritt ) Übergangsmatrix Matrix der 1 Schritt ÜWK P (m) = (p (m) ij ) i,j S : P (m) = p (m) 00 p (m) 01 p (m) p (m) 10 p (m) 11 p (m) P = (p ij ) i,j S : p 00 p 01 p P = p 10 p 11 p Unendlicher Zustandsraum: Übergangsmatrix unendlich. Endlicher Zustandsraum S : Übergangsmatrix endliche S S Matrix.

19 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 19 Stochastische Matrizen Nach Definition von ÜWK gilt: Übergangsmatrizen haben nur nichtnegative Elemente und Zeilensumme 1. Matrizen mit dieser Eigenschaft heißen stochastische Matrizen. Also: Übergangsmatrizen homogener diskreter Markovketten sind stochastische Matrizen. Für m Schritt-Übergangsmatrizen P (m) p (m) ij 0, i, j S und Für Übergangsmatrix P analog p ij 0, i, j S und j S p (m) ij = 1, i S. p ij = 1, i S. j S Übergangsmatrizen bilden eine Halbgruppe bezüglich der Matrixmultiplikation, d.h. das Produkt von Übergangsmatrizen ist wieder eine Übergangsmatrix (Beweis: Übung?).

20 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 20 Graphische Darstellung Homogene diskrete Markovketten können als gerichtete Graphen interpretiert werden. Knoten: Zustände Kanten: von i S nach j S, falls p ij > 0; beschriftet mit p ij. Direkte Interpretation als beschriftetes Transitionssystem (Labelled Transition System, LTS) Graphische Darstellung durch Zustandsübergangsdiagramm in der für Graphen üblichen Weise, hier Beispiel ohne Beschriftung:

21 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 21 Chapman Kolmogorov Gleichungen Satz: Chapman Kolmogorov Gleichungen Mit den eingeführten Notationen für homogene diskrete MK p (l+m) ij = k S p (l) ik p(m) kj, l, m IN 0. Spezialfall p (m) ij = k S p (m 1) ik p kj, m IN +. In Matrixschreibweise P (l+m) = P (l) P (m) bzw. P (m) = P (m 1) P. Somit ist die Matrix der m Schritt Übergangswahrscheinlichkeiten die m te Potenz der 1 Schritt Übergangsmatrix, und wir können daher P m schreiben.

22 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 22 Beweis p (l+m) ij = P(X l+m = j X 0 = i) = k S P(X l+m = j, X l = k X 0 = i) = k S P(X l+m = j X l = k, X 0 = i)p(x l = k X 0 = i) Markov = k S P(X l+m = j X l = k)p(x l = k X 0 = i) = k S p (l) ik p(m) kj

23 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 23 Pfadwahrscheinlichkeiten Es folgt direkt eine Vorschrift zur Berechnung der Verteilung von X n, also der transienten Zustandswahrscheinlichkeiten π (n) i zur Zeit n : Vektoriteration oder Potenzmethode ( numerische Verfahren). Pfadwahrscheinlichkeiten π (n) = π (0) P n = π (n 1) P. WK eines Pfadsegmentes (x i,..., x n ) P(X i = x i,..., X n = x n ) = P(X i = x i ) n 1 k=i p xk,x k+1, 0 i n, WK eines zur Zeit 0 beginnenden Pfades (x 0,..., x n ) p(x 0,..., x n ) := P(X 0 = x 0,..., X n = x n ) = π x (0) n 1 0 k=0 p xk,x k+1.

24 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 24 Verweildauern Fragestellung: Wie lange (wieviele Schritte) verweilt die Markovkette in einem Zustand? Das Verweilen in einem Zustand i S läßt sich als Bernoulli Experiment mit Erfolgswahrscheinlichkeit p ii interpretieren. Verweildauer ist also geometrisch verteilt mit Parameter p ii. Dies ist auch plausibel, da die Übergangswahrscheinlichkeiten nur vom aktuellen Zustand und nicht von der Vorgeschichte und insbesondere auch nicht von der bereits im Zustand verweilten Zeit abhängen. Zur Erinnerung Die geometrische Verteilung ist die einzige diskrete Verteilung mit der Eigenschaft der Gedächtnislosigkeit.

25 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 25 Eindeutige Beschreibung Wodurch wird eine homogene diskrete Markovkette beschrieben? Gestartet wird in einem Anfangszustand gemäß einer Anfangsverteilung. Zustände ändern sich gemäß der stationären ÜWK. Damit klar, daß zur Beschreibung die Angabe der Übergangswahrscheinlichkeiten und der Anfangsverteilung ausreichen. Somit gilt Satz: Eine homogene diskrete Markovkette ist eindeutig beschrieben durch eine Anfangsverteilung und eine Übergangsmatrix.

26 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 26 Langzeitverhalten Gegeben sei homogene diskrete Markovkette mit Zustandsraum S, Übergangsmatrix P und beliebiger Anfangsverteilung. Definition: Grenzverteilung Die Markovkette hat eine Grenzverteilung π = (π 0, π 1,...), falls j S : lim n π (n) j = π j. Definition: Stationäre Verteilung Die Markovkette hat eine stationäre Verteilung π = (π 0, π 1,...), falls π = πp, also j S : π j = π i p ij und i S π i = 1. i S

27 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 27 Zusammenhänge Plausibilität Langzeitverhalten und stationäre Verteilung? Sei π = (π 0, π 1,...) stationäre Verteilung. Dann gilt offensichtlich für die transienten Zustandswahrscheinlichkeiten π (0) j = π j, j S = π (n) j = π j für alle n IN. Eine Grenzverteilung ist immer stationär, die Umkehrung gilt im allgemeinen nicht. Stationäre Verteilungen sind im allgemeinen nicht eindeutig. Gesucht: Bedingungen für die Existenz von Grenzverteilungen, die Eindeutigkeit stationärer Verteilungen. abhängig von bestimmten Eigenschaften der Markovkette Klassifizierungen.

28 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten Klassifizierungen Definition: Erreichbarer Zustand Ein Zustand j S heißt erreichbar von einem Zustand i S, in Zeichen i j, falls es möglich ist, in einer endlichen Anzahl von Schritten vom Zustand i in den Zustand j zu gelangen, also i j : n IN : p (n) ij > 0. Die Relation ist offensichtlich transitiv. Definition: Kommunizierende Zustände Zwei Zustände i, j S kommunizieren, in Zeichen i j, falls sie wechselseitig voneinander erreichbar sind, also i j : i j j i.

29 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 29 Irreduzible Markovketten Definition: Irreduzible Markovkette Eine homogene diskrete Markovkette heißt irreduzibel, falls alle Zustände kommunizieren, d.h. jeder Zustand von jedem anderen Zustand erreichbar ist, also (i, j) S 2 n IN : p (n) ij > 0. Bemerkung Die Relation ist eine Äquivalenzrelation. Zustandsraum kann in Äquivalenzklassen partitioniert werden. Alternative Definition irreduzibler Markovketten: eine Markovkette ist genau dann irreduzibel, wenn es genau eine Äquivalenzklasse bezüglich gibt.

30 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 30 Rekurrenz Definition: n Schritt Rekurrenzwahrscheinlichkeit Für alle Zustände i S heißt die Wahrscheinlichkeit für die erste Rückkehr nach i in genau n IN Schritten, also f (n) i := P(X n = i X n 1 i,..., X 1 i, X 0 = i), die n Schritt Rekurrenzwahrscheinlichkeit von i. Definition: Rekurrenzwahrscheinlichkeit Die Wahrscheinlichkeit, nach Verlassen eines Zustands i jemals wieder zurückzukehren, heißt Rekurrenzwahrscheinlichkeit und ist gegeben durch f i := f (n) i. n=1

31 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 31 Zustandsklassifizierungen Definition: Transienter/Rekurrenter Zustand Ein Zustand i S heißt transient, falls f i < 1 und rekurrent, falls f i = 1. Definition: Mittlere Rekurrenzzeit Für rekurrente Zustände i S heißt die mittlere Rekurrenzzeit. m i := n=1 nf (n) i Definition: Positiv rekurrenter Zustand, Nullrekurrenter Zustand Ein Zustand i S heißt positiv rekurrent, falls m i < und nullrekurrent sonst.

32 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 32 Charakterisierung der Markovkette Satz: Für irreduzible homogene diskrete Markovketten gilt genau eine der Aussagen alle Zustände sind positiv rekurrent, alle Zustände sind nullrekurrent, alle Zustände sind transient. Folgerungen Die Eigenschaften eines einzelnen Zustands charakterisieren also den gesamten Zustandsraum. Bei der Untersuchung von Rekurrenz und Transienz genügt es also, nur einen leicht handhabbaren Zustand zu betrachten. Man spricht daher auch von rekurrenten, positiv rekurrenten, nullrekurrenten und transienten Markovketten.

33 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 33 Periodizität Definition: Periode eines Zustands Für einen Zustand i S heißt die Periode von i. Falls n IN + : p (n) ii transient. ggt({n IN : p (n) ii > 0}) = 0, dann sei d(i) := 0. Der Zustand i ist dann Definition: Periodischer/Aperiodischer/Ergodischer Zustand Ein rekurrenter Zustand i S heißt periodisch, falls d(i) > 1 und aperiodisch, falls d(i) = 1. Er heißt ergodisch, falls er aperiodisch und positiv rekurrent ist. Bemerkung: Ein Zustand i S mit p ii > 0 hat Periode 1, ist also aperiodisch.

34 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 34 Ergodisch und Absorbierend Definition: Periodische/Aperiodische/Ergodische Markovkette Eine homogene DTMC heißt aperiodisch, falls alle Zustände aperiodisch sind und periodisch, sonst. Sie heißt ergodisch, falls sie irreduzibel und aperiodisch ist und alle Zustände positiv rekurrent sind. Bemerkung: Eine endliche irreduzible aperiodische homogene DTMC ist also immer ergodisch, da alle Zustände positiv rekurrent sind. Definition: Absorbierender Zustand, Absorbierende Markovkette Ein Zustand i S heißt absorbierend, falls kein anderer Zustand von i aus erreicht werden kann, also p ii = 1. Eine homogene DTMC heißt absorbierend, falls ihr Zustandsraum mindestens einen absorbierenden Zustand enthält. Bemerkung: Es ist klar, daß eine absorbierende Markovkette nicht irreduzibel und somit auch nicht ergodisch ist.

35 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 35 Zusammenhänge Satz: Für jede aperiodische homogene DTMC existiert eine Grenzverteilung π. Für jede irreduzible aperiodische homogene DTMC ist die Grenzverteilung π unabhängig von der Anfangsverteilung. Für jede ergodische homogene DTMC ist die Grenzverteilung π eindeutige stationäre Verteilung. Diese eindeutige stationäre Verteilung kann mittels des Gleichungssystems π = πp mit Normierungsbedingung, also j S : π j = π i p ij, und π i = 1 i S i S berechnet werden oder, falls die (endlichen) mittleren Rekurrenzzeiten m i bekannt sind, über die Beziehung j S : π j = 1 m j.

36 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten Absorbierende diskrete Markovketten Absorbierende diskrete Markovketten Offensichtlich keine eindeutige stationäre Verteilung. Man landet irgendwann in einem absorbierenden Zustand. Häufig eingesetzt zur Modellierung von Systemen mit Fehlern. Beispiel: Ruin eines Spielers (Gambler s Ruin) Spieler A hat Startkapital a Euro, Spieler B hat Startkapital b Euro. Spieler A gewinnt eine Spielrunde mit WK p, Spieler B mit WK q := 1 p. Der Verlierer einer Runde zahlt dem Gewinner jeweils 1 Euro. Das Spiel dauert so lange, bis einer der Spieler ruiniert ist; aus der Sicht von Spieler A also bis er 0 oder c := a + b Euro besitzt.

37 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 37 Random Walk Das Spiel kann modelliert werden als Random Walk mit zwei absorbierenden Rändern: Homogene diskrete Markovkette (X n ) n IN mit Zustandsraum S = {0,..., c} Absorbierende Zustände 0 und c bzw. rekurrente Klassen {0} und {c}, X n = Kapital von Spieler A nach n Spielrunden. { +1 mit WK p, Sei Z n+1 = (Bernoulli-verteilte ZV). 1 mit WK q X n+1 = X n + Z n+1. Sei T die Spieldauer, also der erste Zeitpunkt n, an dem X n = 0 oder X n = c gilt. Gewinn-WK für Spieler A bei Startkapital a f a = P(X T = c X 0 = a), die Absorptionswahrscheinlichkeit für den Zustand c bei Start in Zustand a. Dies können wir leicht von Hand berechnen.

38 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 38 Berechnung der Gewinn-WK für Spieler A Idee: Berechne f i für alle i {0,..., c}. Rekurrenz: Also f 0 = 0, f c = 1, f i = pf i+1 + qf i 1 für i {1,..., c 1}. f i+1 f i = q p (f i f i 1 ) für i {1,..., c 1}. Im Einzelnen f 2 f 1 = q p (f 1 f 0 ) = q p f 1, f 3 f 2 = q p (f 2 f 1 ) = ( ) 2 q f 1, p. f c f c 1 = q p (f c 1 f c 2 ) = ( ) c 1 q f 1. p

39 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 39 Berechnung der Gewinn-WK Fortsetzung Addition ergibt für i > 1 bzw. f i f 1 = f i = ( q p + ( ) 2 q + + p 1 ( q p )i 1 q f 1, falls p q, p i f 1, falls p = q. ( ) ) i 1 q f 1 p f c f 1 = 1 f 1 = ( q p + ( ) 2 q + + p ( ) ) i 1 q f 1 f 1 = p 1 q p 1 ( q p q, p )c, 1 c, p = q.

40 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 40 Gewinn-WK und Spieldauer Damit f i = 1 ( q p )i 1 ( q falls p q p )c, i c falls p = q. Die WK für Gewinn von Spieler A und Gewinn von Spieler B summieren sich zu 1 WK, daß das Spiel unendlich lange dauert, ist 0 (Übung?). Wie lange dauert das Spiel? Mittlere Spieldauer: m i = E[T X 0 = i] (Spieler A beginnt mit Startkapital i). Rekurrenz: m 0 = m c = 0, m i = 1 + p m i+1 + q m i 1 für i {1,..., c 1}. Ähnlich zur Berechnung der Absorptionswahrscheinlichkeiten erhält man Mittlere Zeit bis zur Absorption: m i = i(c i) (Übung?).

41 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 41 Verallgemeinerung Unterteilung der Übergangsmatrix P einer absorbierenden Markovkette so, daß ( ) I 0 P =, R Q wobei die Zustände nach absorbierenden und transienten sortiert werden (also ggf. Umnumerierung von Zuständen). R beschreibt Übergänge von transienten zu absorbierenden Zuständen. Q beschreibt Übergänge zwischen transienten Zustände. I ist die Einheitsmatrix (da man aus einem absorbierenden Zustand nicht wieder herauskommt ). Offensichtlich Man landet nach endlich vielen Schritten in einem absorbierenden Zustand. lim Q k = 0. k

42 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 42 Fundamentalmatrix absorbierender Markovketten Bezeichnungen Sei n ij die mittlere Anzahl von Besuchen im transienten Zustand j, bevor die Markovkette in den absorbierenden Zustand übergeht, wenn im Zustand i gestartet wurde. Sei T die Menge der transienten Zustände. Sei A die Menge der absorbierenden Zustände. Dann gilt n ij = δ ij + k T p ik n kj. In Matrixschreibweise (I Q) N = I N = I + Q N N = (I Q) 1. Definition: N heißt Fundamentalmatrix der absorbierenden Markovkette.

43 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 43 Bamberger Wetter In Bamberg sind an einem Tag drei Wetterlagen möglich Regen(R), schöner Tag(D) und Schnee(S). Es gibt niemals zwei aufeinanderfolgende schöne Tage. Modelliert mit einer Markovkette erhält man folgende Übergangsmatrix: R 1 2 R D S D S Wieviele Tage dauert es im Mittel bis zum ersten Regentag? (von einem beliebigen Starttag aus)

44 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 44 Mittlere Zeit bis Regen Markovkette mit Übergangsmatrix und nun absorbierendem Zustand R R D S R D S Dabei ergibt sich N durch D D 4 3 S 4 3. S Also ist z.b. die mittlere Anzahl von schönen Tagen bis zu einem Regentag 4 3 schönem Wetter gestartet wurde., wenn mit

45 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 45 Bamberger Wetter Absorptionszeiten Mittlere Absorptionszeiten Sei τ i die mittlere Anzahl von Schritten bis zur Absorption, wenn im Zustand i gestartet wurde. Es gilt τ i = n ij. j T Im Beispiel ergibt sich (Vektor der τ i ) Also τ = ( ). Es regnet im Mittel nach 8 3 ausgegangen wurde. Es regnet im Mittel nach 10 3 wurde. Tagen zum ersten Mal, wenn von einem schönen Tag Tagen zum ersten Mal, wenn von Schnee ausgegangen

46 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.2 Diskrete Markovketten 4 46 Absorptionswahrscheinlichkeiten Absorptionswahrscheinlichkeiten Sei b ij die Wahrscheinlichkeit, daß die Markovkette im transienten Zustand i startet und im absorbierenden Zustand j endet. Dann gilt b ij = p ij p ik b kj, i T, j A. k T B = R + Q B B = (I Q) 1 R = N R = k T n ik p kj. Sei m ij die mittlere Anzahl von Schritten, die man braucht, um den Zustand j zum ersten Mal zu erreichen, wenn man im Zustand i gestartet ist. Diese Werte ergeben sich leicht für alle j, wenn man aus j einen absorbierenden Zustand macht, denn dann gilt m ij = τ i.

47 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 47 Abschnitt 4.3 Stetige Markovketten

48 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten Grundbegriffe Wir erinnern uns Markovkette (MK): Markovprozeß mit diskretem Zustandsraum. (Zeit ) Stetige MK: MK mit stetiger (kontinuierlicher) Indexmenge (Parametermenge). Üblicherweise Parametermenge T = IR + und Zeitparameter t IR +. Weitere Bezeichnungen (ZWK, ÜWK) dann genau wie bei den allgemeinen Definitionen. Zustandsübergänge (Transitionen) also zu beliebigen Zeitpunkten möglich Interpretation für stetige Markovkette: Zeitentwicklung einer stetigen MK verläuft stetig (kontinuierlich). MK verweilt gewisse Zeit in einem Zustand und springt dann in anderen Zustand, Markoveigenschaft (Gedächtnislosigkeit) exponentiell verteilte Verweildauer. Im Unterschied zu diskreten MK nicht festgelegt, wieviele Übergänge nach einer bestimmten Zeit auftreten, keine diskreten Schritte.

49 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 49 Homogene stetige Markovketten Definition: Stationäre Übergangswahrscheinlichkeiten Übergangswahrscheinlichkeiten einer stetigen Markovkette heißen stationär, wenn sie nicht von den Zeitpunkten sondern nur von der Länge des betrachteten Zeitraums, also der Zeitdifferenz, abhängen, d.h. t 1, t 2, h IR + p ij (t 1, t 1 + h) = P(X t1 +h = j X t1 = i) = P(X t2 +h = j X t2 = i) = p ij (t 2, t 2 + h). WK, in einem Zeitraum der Länge h vom Zustand i in den Zustand j zu gelangen: p ij (h) := p ij (t, t + h) = P(X t+h = j X t = i), i, j S, t, h IR +. Definition: Homogene stetige Markovkette Eine stetige Markovkette heißt homogen, falls alle Übergangswahrscheinlichkeiten stationär sind.

50 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 50 Übergangsmatrizen WK, in einem Zeitraum der Länge h vom Zustand i in den Zustand j zu gelangen (s.o.): p ij (h) := p ij (t, t + h) = P(X t+h = j X t = i), i, j S, t, h IR +. Analog zum diskreten Fall (vergleichbar mit m Schritt ÜWK) ÜWK zusammengefaßt in Übergangsmatrizen (jetzt abhängig von Zeitdauer) P(h) = p 00 (h) p 01 (h) p 02 (h)... p 10 (h) p 11 (h) p 12 (h) Übergangsmatrizen sind stochastische Matrizen, es gilt also p ij (h) 0, i, j S und. p ij (h) = 1, i S. j S

51 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 51 Chapman Kolmogorov Gleichungen Chapman Kolmogorov Gleichungen Für h 1, h 2 IR + In Matrixschreibweise p ij(h 1 + h 2 ) = p ik (h 1 )p kj (h 2 ). k S P(h 1 + h 2 ) = P(h 1 )P(h 2 ). Definition: Stetige Halbgruppe von Übergangsmatrizen Eine Menge {P(h) : h 0} von Übergangsmatrizen heißt stetige Halbgruppe von Übergangsmatrizen (Transition Semigroup), falls alle darin enthaltenen Matrizen die Chapman Kolmogorov Gleichungen erfüllen und lim P(h) = P(0) = I h 0 (I ist Einheitsmatrix).

52 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 52 Lokale Charakteristika Satz: Ist {P(h) : h 0} stetige Halbgruppe von Übergangsmatrizen einer stetigen Markovkette, dann existieren für alle Zustände i, j S die Grenzwerte 1 p q i := lim ii (h) h 0 h [0, ], p ij (h) q ij := lim h 0 h [0, ), i j. Definition: Lokale Charakteristika Mit q ii := q i heißen die q ij lokale Charakteristika der Halbgruppe oder der stetigen Markovkette.

53 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 53 Generatormatrix Definition: Generatormatrix, Ratenmatrix, Intensitätsmatrix Die Matrix Q = (q ij ) i,j S heißt Generatormatrix, Ratenmatrix, infinitesimaler Generator oder Intensitätsmatrix der stetigen Markovkette, also Q = lim h 0 P(h) P(0) h = lim h 0 1 (P(h) I). h Sind alle Einträge von Q endlich, dann Generatormatrix/Ratenmatrix/Intensitätsmatrix beschränkt, zugrundeliegende Halbgruppe und stetige Markovkette stabil. Zugrundeliegende Halbgruppe und stetige Markovkette konservativ, wenn für alle Zustände i S : q ii = q i = j S,j i Im folgenden nur stabile konservative stetige Markovketten. q ij ( Zeilensumme 0).

54 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 54 Interpretationen Warum Generatormatrix? Für Q gilt exp((h 1 + h 2 )Q) = exp(h 1 Q) exp(h 2 Q) eine stetige Halbgruppe von Übergangsmatrizen mit (exp ist Exponentialfunktion) P(h) = exp(hq) und h = h 1 + h 2 erfüllt die Chapman Kolmogorov Gleichungen ( Übung). In diesem Sinne generiert Q also die Übergangsmatrizen. Warum Ratenmatrix? Stetige Markovkette betritt Zustand i zur Zeit t, verweilt exponentiell mit Parameter (Rate) q i verteilte Zeitdauer, wechselt dann mit Sprung-WK p ij in den Zustand j.

55 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 55 Weitere Interpretation: Race Stetige Markovkette betritt Zustand i zur Zeit t, wechselt zur Zeit t + T ij in den Zustand j, T ij exponentiell verteilte ZV mit Parameter (Rate) q ij, alle ZV T ij, i j unabhängig, ebenso unabhängig von Vorgeschichte, Wettrennen (Race) zur Bestimmung des nächsten Zustands (vgl. Wecker bei PN): j ist Zustand mit T ij = min i k {T ik }. Daher heißen die q ij, i j auch Übergangsraten. Beachte Minimum exponentiell verteilter ZV ist wieder exponentiell verteilt. Parameter ist Summe der einzelnen Parameter. konsistent mit vorheriger Interpretation.

56 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 56 Eindeutige Beschreibung und Graphische Darstellung Analog zum diskreten Fall Eine homogene stetige Markovkette ist eindeutig bestimmt durch eine Generatormatrix und eine Anfangsverteilung. Graphische Darstellung als gerichteter Graph Knoten: Zustände Kanten: von i S nach j S, falls q ij > 0; beschriftet mit q ij. Direkte Interpretation als beschriftetes Transitionssystem (Labelled Transition System, LTS) Graphische Darstellung auch hier durch Zustandsübergangsdiagramm. Beachte Anders als im diskreten Fall Gemäß Definition der Generatormatrix mit q ii 0 für alle i S keine Kanten, die Schleifen von einem Zustand in sich selbst (self loops) darstellen. (Es gibt aber auch Varianten der Definition mit self loops.)

57 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 57 Struktursatz Homogene stetige Markovkette mit Generatormatrix Q, X 0, X 1, X 2,... die Zustände, die nacheinander angenommen werden, τ 0, τ 1, τ 2,... die Verweildauern in den Zuständen. Dann gilt (X n ) n IN ist eine homogene diskrete Markovkette mit den ÜWK q ij, falls i j, q ii < 0, q ii p ij = 0, falls i j, q ii = 0 oder i = j, q ii < 0, 1, falls i = j, q ii = 0. Die τ i sind unabhängig, und τ i hängt nur von X i ab. Ist der erreichte Zustand j, also X i = j, dann ist τ i exponentiell verteilt mit Parameter q jj. (X n ) n IN heißt (die der stetigen Markovkette) eingebettete diskrete Markovkette. Die ÜWK p ij sind die Verzweigungswahrscheinlichkeiten in die möglichen Folgezustände, wenn in ein Übergang aus einem Zustand i heraus stattfindet.

58 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 58 Anmerkungen und Eigenschaften Aus Q kann für alle h die Matrix P(h) berechnet werden. Die stetige Halbgruppe von Übergangsmatrizen ist das stetige Analogon zu den Iterierten der Übergangsmatrix im diskreten Fall. Die Generatormatrix hat in dem Sinne kein direktes Analogon, sie ist eine stetige Notation, die Ableitungen enthält. Nach Definition P(h) P(0) Q = lim, h 0 h d.h. Generatormatrix ist die Ableitung der Matrixfunktion h P(h) an der Stelle 0. Im Gegensatz zum diskreten Fall ist die direkte Berechnung transienter Zustandswahrscheinlichkeiten aus den Chapman Kolmogorov Gleichungen schwierig. Stattdessen: Transformation in lineares Differentialgleichungssystem (DGS) und Berechnung unter Zuhilfenahme der Generatormatrix.

59 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 59 Beweis des Struktursatzes Der im Struktursatz definierte Prozeß ist eine stetige Markovkette stetige Zeit (stetige Parametermenge) diskreter Zustandsraum Dazu: Nachweis der Gedächtnislosigkeit Generatormatrix Q ist die im Struktursatz definierten Generatormatrix überein. Gedächtnislosigkeit Sei τ i exponentiell verteilt mit Parameter q > 0. ( ) ( P(τ i > t + h τ i t) = qe qx dx / t+h = e q(t+h) e qt = e qh = P(τ i > h). t ) qe qx dx

60 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 60 Beweis Fortsetzung Seien nun P(h) die Übergangsmatrizen des Prozesses. Zu zeigen lim h 0 1 (P(h) I) = Q. h OBdA starte Prozeß zur Zeit 0 in Zustand i. Sei A(0, h) die Anzahl der Sprünge im Intervall [0, h]. Dann gilt mit q i = q ii p ii (h) = P(A(0, h) = 0) = P(τ 1 > h) = q i e q ix dx = e q ih. h

61 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 61 Beweis Fortsetzung P(A(0, h) = 1) = j i q ij q i P(τ 1 h, τ 1 + τ 2 > h) = j i q ij h e q is q j e q ju du ds 0 h s = hq ij e qih + j i,q i =q j = hq ij e qih + j i,q j =q i q i q j q ij q j q i (e q ih e q jh ) q j q i q ij he min(qi,qj) h + o(h) = h j q ij + o(h) = q i h + o(h).

62 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 62 Beweis Fortsetzung Einschub: Bemerkungen o(h) Restfunktion mit Es gilt e ah e bh b a lim h 0 o(h) h = 0. = h e min(a,b) h + o(h). Wegen des bisher Gezeigten und e ax = 1 + ax + o(h) gilt P(A(0, h) > 1) = 1 P(A(0, h) = 0) P(A(0, h) = 1) = 1 e qih q i h + o(h) = o(h).

63 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 63 Beweis Fortsetzung p ij (h) = k 1 P(X(h) = u j A(0, h) = k) = q ij q i P(A(0, h) = 1) + = q ij h + o(h) + o(h). P(X(h) = u j A(0, h) = k) k=2 Insgesamt also jetzt (endlich) lim h 0 1 h p ij(h) = q ij, lim h 0 1 h (p ii(h) 1) = q i = q ii.

64 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 64 Kolmogorov Vorwärts/Rückwärts DGS Aus den Eigenschaften stetiger Halbgruppen von Übergangsmatrizen Für alle t, h 0 P(t + h) P(t) h = P(t) P(h) P(t) h = P(t) P(h) I }{{ h } Q Übergang zum Grenzwert für h 0 = P(h) I P(t). }{{ h } Q Kolmogorov Vorwärts DGS P(t) = P(t) Q. t Kolmogorov Rückwärts DGS P(t) = Q P(t). t

65 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 65 Kolmogorov Vorwärts/Rückwärts Gleichungen In expliziter Form Kolmogorov-Vorwärts-Gleichungen t p ij(t) = k S p ik (t)q kj. Kolmogorov-Rückwärts-Gleichungen t p ij(t) = k S q ik p kj (t). Differentialgleichungssystem für transiente Zustandswahrscheinlichkeiten j S : t π(t) j = i S q ij π (t) i. Vektor Matrix Schreibweise t π(t) = π (t) Q.

66 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 66 Langzeitverhalten Grenzverteilungen und stationäre Verteilungen analog zum diskreten Fall definiert. Unterschied: Stationaritätsbedingung muß für alle h 0 gelten. Stationäre Verteilung für stetige MK π = (π 0, π 1,...) mit h 0 : πp(h) = π. Direkte Berechnung stationärer Verteilungen über die P(h) unmöglich. Äquivalente Formulierung unter Verwendung der Generatormatrix Q : ) h2 πp(h) = π exp(hq) = π (I + Q + h1! 2! Q2 h2 + = π + πq + h1! 2! πq2 +. Also πp(h) = π πq = 0. In expliziter Form (zusammen mit Normierungsbedingung für W Verteilungen) j S : π j q ij = 0 und π i = 1. i S i S

67 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 67 Stationäre Verteilung per Einbettung Satz: Seien Q Generatormatrix einer homogenen CTMC, P die Übergangsmatrix und µ die stationäre Verteilung der eingebetteten DTMC. Dann sind die stationären Zustandswahrscheinlichkeiten der CTMC gegeben durch µ i π i = q ii j S µ j. q jj Beachte Dazu ist natürlich notwendig, die stationäre Verteilung der eingebetteten DTMC zu kennen, also zu berechnen.

68 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten Klassifizierungen Ähnlich wie im diskreten Fall Klassifizierung von homogenen stetige Markovketten und deren Zuständen. Die meisten Eigenschaften sind analog zum diskreten Fall definiert, daher hier nur informell. Zustandseigenschaften Periodizität ist im stetigen Fall nicht möglich, Erreichbare und kommunizierende Zustände sowie Rekurrenzbegriffe sind im wesentlichen wie für diskrete MK definiert, Unterschied: Zeitdauern anstatt Schrittzahlen. Absorbierende Zustände i S : h 0 p ii (h) = 1 Einträge der Generatormatrix in der zum Zustand korrespondierenden Zeile j S : q ij = 0.

69 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 69 Klassifizierung homogener stetiger Markovketten Eigenschaften homogener CTMC irreduzibel, falls jeder Zustand von jedem anderen Zustand erreichbar ist, absorbierend, falls es mindestens einen absorbierenden Zustand gibt, ergodisch, wenn positiv rekurrent ist, insbesondere: jede endliche irreduzible homogene CTMC ist ergodisch. Zusammenhang mit eingebetteter DTMC CTMC irreduzibel oder Zustände rekurrent, wenn die entsprechende Eigenschaft für die eingebettete DTMC erfüllt ist. Positiv rekurrenter Zustand der CTMC nicht notwendigerweise auch positiv rekurrent in der eingebetteten DTMC. Die einer ergodischen CTMC eingebettete DTMC ist nicht notwendigerweise ebenfalls ergodisch, nämlich dann nicht, wenn sie nullrekurrent oder periodisch ist.

70 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 70 Zusammenhänge Satz: Für jede irreduzible homogene CTMC existiert eine von der Anfangsverteilung unabhängige Grenzverteilung π. Für jede ergodische homogene CTMC ist die Grenzverteilung π eindeutige stationäre Verteilung. Diese eindeutige stationäre Verteilung kann mittels des Gleichungssystems πq = 0 mit Normierungsbedingung, also j S : π j = π i q ij, und π i = 1 i S i S berechnet werden oder, falls die (endlichen) mittleren Rekurrenzzeiten m i bekannt sind, über die Beziehung j S : π j = 1 m j q jj.

71 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten Stetige Phasenverteilungen Prinzip Verteilungen von ZV definiert durch Matrizen, Dichte, Momente etc. ausgedrückt durch diese Matrix, Rahmen zur Erweiterung der Exponentialverteilung. Einfache Verallgemeinerungen der Exponentialverteilung Konstruktion komplexerer Verteilungen aus der Exponentialverteilung Einfache Operationen wie Faltung, endliche Kompositionen. Laplace Stieltjes Transformierte (LST) der Exponentialverteilung ist rational LST von Faltungen und endlichen Kompositionen ebenfalls rational. Verallgemeinerung: Verteilungen mit rationaler LST. Zusammenhang zu Markovketten Verteilung der Absorptionszeit Vorteil: zur Definition keine Transformierte nötig.

72 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 72 Summe exponentiell verteilter ZV Gegeben: X 1,..., X n unabhängig exponentiell verteilt mit Parameter λ > 0. Betrachte Summe (Faltung) X X n. Erwartungswert Varianz E[X X n ] = E[X 1 ] + + E[X n ] = 1 λ λ }{{} n-fach = n λ. VAR[X X n ] = VAR[X 1 ] + + VAR[X n ] = 1 λ λ 2 }{{} n-fach Laplace Stieltjes Transformierte (X X n ) (ϑ) = X 1(ϑ) X n(ϑ) = λ ϑ + λ λ }{{ ϑ + λ} n-fach = = n λ 2. ( ) n λ. ϑ + λ

73 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 73 Verteilung der Summe Ermittlung von Kenngrößen der Summe war leicht. Wie ist die Summe X X n verteilt? Wie sieht die Dichte aus? Wie sieht die Verteilungsfunktion aus? Wir wissen ( W Rechnung, Faltungsformel) Die Dichte der Summe zweier unabhängiger stetiger Zufallsvariablen X und Y mit Dichten f X und f Y ist gegeben durch die Faltung f X+Y = f X f Y mit f X+Y (z) = f X (x) f Y (z x)dx = f X (z y) f Y (y)dy Also: Dichte der Summe von n unabhängigen ZV durch n fache Faltung. In unserem Fall: jeweils exponentiell verteilte ZV mit Parameter λ > 0.

74 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 74 Falten f X1 +X 2 (z) = f X1 (x) f X2 (z x) dx = z λe λx λe λ(z x) dx 0 = z 0 λ 2 e λz dx = λ 2 e λz z 0 1 dx = λ 2 e λz [ x ] z 0 = λ2 e λz z. f X1 +X 2 +X 3 (z) = f X1 +X 2 (x) f X3 (z x) dx = z λ 2 e λx x λe λ(z x) dx 0 = z 0 λ 3 e λz x dx = λ 3 e λz z 0 x dx = λ 3 e λz [ x 2 2 ] z 0 = λ3 2 e λz z 2.

75 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 75 Weiterfalten f X1 +X 2 +X 3 +X 4 (z) = f X1 +X 2 +X 3 (x) f X4 (z x) dx = z 0 λ 3 2 e λz x 2 λe λ(z x) dx = z 0 λ 4 2 e λz x 2 dx = λ4 2 e λz z 0 [ x 2 dx = λ4 x 3 2 e λz 3 ] z 0 = λ4 6 e λz z 3. Gibt es eine Regelmäßigkeit? n f X1 + +Xn (z) λe λz λ 2 e λz z λ 3 2 e λz z 2 λ 4 6 e λz z 3 Vermutung f X1 + +Xn (z) = λ n (n 1)! e λz z n 1. Das muß bewiesen werden!

76 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 76 Beweis Wir wollen zeigen Unsere Vermutung gilt für alle n IN. Vollständige Induktion über n n = 1 klar (Exponentialverteilung), außerdem bereits klar für n 4. Induktionsvoraussetzung f X1 + +Xn (z) = λ n (n 1)! e λz z n 1. n n + 1 Zu zeigen ist: (Induktionsschritt) aus der Induktionsvoraussetzung folgt f X1 + +X n+1 (z) = λn+1 e λz z n. n!

77 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 77 Induktionsschritt f X1 + +X n+1 (z) = f X1 + +Xn (x) f X n+1 (z x) dx = = z 0 z 0 λ n (n 1)! e λx x n 1 λe λ(z x) dx λ n+1 (n 1)! e λz x n 1 dx = λn+1 (n 1)! e λz z 0 x n 1 dx [ = λn+1 x n (n 1)! e λz n ] z = λ n+1 0 n (n 1)! e λz z n = λn+1 e λz z n n!

78 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 78 Erlang Verteilung Die Verteilung der Summe hat einen eigenen Namen. Definition: Erlang Verteilung Die Verteilung der Summe von n unabhängigen Exponentialverteilungen mit Parameter λ > 0 heißt Erlang Verteilung mit n Phasen und Parameter λ. Kurzschreibweisen: Erlang(n, λ), Erlang n (λ), E n (λ). Variante: k Exponentialverteilungen mit Parameter kµ Erlang(k, µ) = n Exponentialverteilungen mit Parameter λ Erlang(n, λ n ) Also: Aufpassen, was jeweils mit Parameter der Erlang Verteilung bezeichnet ist. (#Expverteilungen oder Parameter der Expverteilung dividiert durch #Expverteilungen) Wir brauchen noch die Verteilungsfunktion...

79 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 79 Zusammenhang mit Markovketten Warum heißt es Erlang Verteilung mit n Phasen? Interpretation als Absorptionszeit in stetiger Markovkette mit n + 1 Zuständen Zustandsraum S = {1, 2,..., n + 1} Anfangsverteilung (1, 0, 0,, 0) (oder S = {0, 1,..., n}) 1 λ λ λ λ λ Q = λ λ λ λ λ λ λ Da Verweilzeiten in jedem Zustand expverteilt mit Parameter λ sind, ist die Absorptionszeit gerade Erlang verteilt mit n Phasen und Parameter λ. Vor der Absorption werden genau n Zustände durchlaufen, alle mit gleicher exponentieller Verweilzeitverteilung.

80 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 80 Phasenverteilungen Für Erlang Verteilung hat Markovkette spezielle Struktur. Gleiches geht für andere spezielle Strukturen. Allgemein: beliebige endliche homogene absorbierende stetige MK. Phasenverteilungen damit also Verallgemeinerung der Exponentialverteilung, Verteilung der Zeit bis zur Absorption in einer stetigen MK mit Zustandsraum S = {1,..., n, n + 1}, Anfangsverteilung (α, α n+1 ), ( T t ) Generatormatrix Q = 0 0, T IR n n, T e + t = 0, Zustand n + 1 absorbierend, Zustände 1,..., n transient ( T nichtsingulär).

81 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 81 Formale Definition Definition: Stetige Phasenverteilung Eine Wahrscheinlichkeitsverteilung auf IR + = [0, ) ist (stetig) phasenverteilt, genau dann, wenn sie die Verteilung der Zeit bis zur Absorption in einer endlichen homogenen stetigen Markovkette ist. Darstellung (α, T), Verteilung: F (α,t)(x) = 1 α exp(tx)e, x 0 Dichte: f (α,t)(x) = α exp(tx)t, x 0 Momente: E[X i ] = ( 1) i i! (αt i e) Spezialfälle: Exponential, Erlang, Hyperexponential, Hypoexponential, Cox,... Anzahl der Phasen = Ordnung von (α,t), Ordnung von F = minimale Ordnung aller (α,t) mit F (α,t) = F,

82 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 82 Spezialfälle Wie die Erlang Verteilung gibt es weitere bekannte Spezialfälle. Der einfachste Fall ist die Exponentialverteilung selbst. Exponentialverteilung Dichte: f(x) = λe λx, λ > 0. Verteilungsfunktion: F(x) = 1 e λx, λ > 0. Graphische Phasendarstellung 1 λ Q = ( λ λ 0 0 )

83 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 83 Spezialfall Hypoexponentialverteilung Dichte: f(x) = λ 1λ 2 λ 1 λ 2 ( e λ 2 x e λ 1x ), λ, x > 0. Verteilungsfunktion: F(x) = 1 λ 2 λ 2 λ 1 e λ 1x + λ 1 λ 2 λ 1 e λ 2x, λ, x > 0. 1 λ 1 λ 2 λ 3 λ n 1 λ n OBdA λ 1 λ 2... λ n > 0 α = ( ) λ 1 λ λ 2 λ 2 0 T = 0 0 λ λ n t = ( λ n )

84 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 84 Spezialfall Hyperexponentialverteilung Dichte: f(x) = k α i λ i (e λix ), λ, x > 0. i=1 Verteilungsfunktion: F(x) = k (1 e λix ), λ, x > 0. i=1 α 1 α 2 α 3. α n. λ 1 λ 2 λ 3. λ n α = ( α 1 α 2... α n ) λ λ T = 0 0 λ λ n t = ( λ 1 λ 2... λ n )

85 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.3 Stetige Markovketten 4 85 Nutzen von Phasenverteilungen Phasenverteilungen sind algorithmisch handhabbar ( matrixanalytische Methoden), sind einfach stochastisch interpretierbar, erhalten zugrundeliegende Markovstruktur der Modelle, unterstützen strukturierte Modellierung. Phasenverteilungen sind abgeschlossen unter Faltung, endlicher Auswahl, Minimum und Maximum (Ordnung mn + m + n für Einzelordnungen n und m). Phasenverteilungen ermöglichen Integration nichtexponentieller Verteilungen in Markovmodelle (prinzipiell für jede Verteilung mit rationaler Laplace Transformierten).

86 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.4 Erzeugung von Markovketten 4 86 Abschnitt 4.4 Erzeugung von Markovketten

87 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.4 Erzeugung von Markovketten Vom Warteschlangenmodell zur Markovkette Was bestimmt den Zustand eines Warteschlangennetzes? Wieviele Kunden sind in den einzelnen Stationen (Warteraum+Bediener)? Falls gerade Bedienung im Gange ist, wie lange schon/noch? Für Exponentialverteilung wegen Gedächtnislosigkeit egal Wann finden Zustandsübergänge statt? Bei Ankunft eines neuen Kunden im System (nur für offene Systeme) Bei Fertigstellung einer Bedienung Übergang des bedienten Kunden in andere Station Abgang des bedienten Kunden aus dem System (nur für offene Systeme) Welche Zustandsübergänge können stattfinden? bestimmt durch die Struktur des Warteschlangennetzes. Welche Raten/Wahrscheinlichkeiten haben die Zustandsübergänge? bestimmt durch Zwischenankunftszeiten, Bedienzeiten und Routing WK.

88 Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.4 Erzeugung von Markovketten 4 88 Elementare Wartesysteme Elementares M/M/1/ System λ µ Bedienzeiten exponentiell verteilt mit Parameter µ > 0, Zwischenankunftszeiten exponentiell verteilt mit Parameter λ > 0 Ankunftsprozeß ist ein Poissonprozeß ( Lastmodelle). Systemkapazität endlich K <, M/M/1/K Zustände 0, 1, 2,..., K. Systemkapazität unendlich, M/M/1 Zustände 0, 1, 2,.... Unendlicher Zustandsraum bei unendlicher Systemkapazität. Ankunft Zustandsübergang von n nach n + 1 mit Rate λ. Bedienung Zustandsübergang von n nach n 1 mit Rate µ.

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle). 77 Markowketten 77 Motivation Der Zustand eines Systems zur Zeit n N werde durch eine Zufallsvariable X n beschrieben und soll nur von X n abhängen (nicht jedoch von früheren Zuständen X n, X n 3, ) Wir

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

Kapitel 12: Markov-Ketten

Kapitel 12: Markov-Ketten Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 21.01.2016 Kapitel 12: Markov-Ketten Ab jetzt betrachten wir stochastische Prozesse (X n ) n N0 mit 1. diskreter Zeit N 0 = {0,1,2,...},

Mehr

DisMod-Repetitorium Tag 3

DisMod-Repetitorium Tag 3 DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse 2 Halbgruppen von Übergangswahrscheinlichkeiten Markov-Prozesse Im Folgenden sei (X, B) ein (polnischer) Messraum und T = [0, ) oder T = N 0 Definition 21 Eine Familie (P t ) t T von (X, B) mit Übergangswahrscheinlichkeiten

Mehr

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Definition: Erneuerungsprozess Sei {T n, n N} eine Folge unabhängiger, nichtnegativer Zufallsvariablen mit Verteilungsfunktion F, mit F () < 1. Dann heißt

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij. 8 Markov-Ketten 8.1 Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.

Mehr

Erneuerungs- und Semi-Markov-Prozesse

Erneuerungs- und Semi-Markov-Prozesse Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Für den Poisson-Prozess und (reguläre) diskrete Markov-Prozesse impliziert die Markov-Eigenschaft, dass die Zwischenzeiten bzw. Verweildauern exponentialverteilt

Mehr

3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur

3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur 3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur Ein Zustand j ist erreichbar von i (i j), falls P i (X t = j für ein t 0) > 0. i j, wenn i erreichbar von j und j erreichbar von i ist. Die

Mehr

Seminar über Markovketten

Seminar über Markovketten Universität Siegen Fachbereich Mathematik Seminar über Markovketten Sommersemester 003 Dozent Dr. Edgar Kaufmann Seminarteilnehmer Tobias Kegel Alexander Luke Uwe Nowak Übergangswahrscheinlichkeiten höherer

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

Stochastische Prozesse Stoffzusammenfassung

Stochastische Prozesse Stoffzusammenfassung Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 7. August 2018 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt

Mehr

Kapitel 4 Diskrete Markov-Prozesse

Kapitel 4 Diskrete Markov-Prozesse Kapitel 4 Diskrete Markov-Prozesse 4.1 Definition und grundlegende Eigenschaften 4.1 Definition und grundlegende Eigenschaften Stetige Zeit aber weiterhin diskreter Zustandsraum. Beispiele: Klinische Studien,

Mehr

16.3 Rekurrente und transiente Zustände

16.3 Rekurrente und transiente Zustände 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht

Mehr

Q5. Markov-Prozesse in kontinuierlicher Zeit

Q5. Markov-Prozesse in kontinuierlicher Zeit Q5. Markov- in kontinuierlicher Zeit Gliederung 1.Zeitkontinuierliche Markov- 2.Vom Modell zum Markov-Prozess 3.Stationäre Analyse 4.Transiente Analyse 5.Stationäre Analyse von Modellen mit unendlichem

Mehr

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1 Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme

Mehr

Einführung in Markoff-Ketten

Einführung in Markoff-Ketten Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung

Mehr

1 A dp = P(A B). (1.3)

1 A dp = P(A B). (1.3) Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Kapitel 5: Markovketten

Kapitel 5: Markovketten Kapitel 5: Markovketten Definition 5.1 Bezeichnungen Bsp. 5.1 Definition 5.2 Eine Fam. (X i ) i I von ZV en X i : Ω E auf (Ω, F, P) mit Werten im messb. Raum (E, E) heißt Stochastischer Prozess. E Zustandsraum

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Vorstellung der Kopplung bei Markovketten

Vorstellung der Kopplung bei Markovketten Vorstellung der Kopplung bei Markovketten Leonie Weinhold 13. Mai 2011 1 Einleitung In der Wahrscheinlichkeitstheorie und ihren Anwendungen ist die Coupling- Methode ein wichtiges Instrument, um z.b. Aussagen

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013

Mehr

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p

Mehr

8 Markov-Kette mit kontinuierlicher Zeit

8 Markov-Kette mit kontinuierlicher Zeit 8 Markov-Kette mit kontinuierlicher Zeit In den vorhergehenden Kapiteln haben wir Markov-Ketten behandelt, bei denen die Zustandsänderungen in diskreten, äquidistanten Zeitpunkten stattfanden. In weiteren

Mehr

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 2 Melanie Kaspar, Prof. Dr. B. Grabowski 3 Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung

Mehr

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes Markov-Prozesse Franziskus Diwo Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes 8.0.20 Gliederung Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-,

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

10 Markow-Ketten. Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen

10 Markow-Ketten. Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen 10 Markow-Ketten Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen 10.1 Lineare Differenzengleichungen Unter einer homogenen linearen Differenzengleichung der Ordnung r verstehen wir eine

Mehr

Diskrete Wahrscheinlichkeitstheorie

Diskrete Wahrscheinlichkeitstheorie SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil VI Markov-Ketten Markov-Ketten Markov-Ketten

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie

Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie SS 2014 Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2014ss/dwt/uebung/ 5. Juni 2014 ZÜ DWT ZÜ VI Übersicht:

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,

Mehr

7.4 Charakteristische Funktionen

7.4 Charakteristische Funktionen 7.4 Charakteristische Funktionen Def. 25 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx

Mehr

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Methoden der Statistik Markov Chain Monte Carlo Methoden

Methoden der Statistik Markov Chain Monte Carlo Methoden Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

3. Prozesse mit kontinuierlicher Zeit

3. Prozesse mit kontinuierlicher Zeit 3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess

Mehr

Markov Ketten und Bonus Malus Systeme

Markov Ketten und Bonus Malus Systeme Grund Stoch Markov Ketten Bonus Malus Probleme L 1 / 46 Markov Ketten und Bonus Malus Systeme Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden TU Wien 19. Mai 2010

Mehr

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion

Mehr

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin. Lemma 92 Beweis: Wir berechnen zunachst I 2 : I 2 = Z 1 I := e x2 =2 d x p = 2: 1 Z 1 1 Z 1 Z 1 = 1 1 Z 1 e x2 =2 d x 1 e (x2 +y 2 )=2 d x d y : e y2 =2 d y Wir gehen nun zu Polarkoordinaten uber und setzen

Mehr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung

Mehr

Bem. 6 Die charakterische Funktion existiert.

Bem. 6 Die charakterische Funktion existiert. 4.4 Charakteristische Funktionen Def. 2.14 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Endliche Markov-Ketten

Endliche Markov-Ketten Endliche Markov-Ketten Michael Krühler 24. Oktober 2013 Inhaltsverzeichnis 1 Einführung 2 1.1 Mathematische Einführung......................... 2 1.2 Interpretation................................. 3 2

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

2. Stochastische Prozesse.

2. Stochastische Prozesse. SS 2006 Arbeitsblatt 2 / S. 1 von 7 2. Stochastische Prozesse. Warteschlangen treten als Erscheinungsformen von in der Zeit ablaufenden Prozessen auf, von denen wie oben erwähnt mindestens einer nicht

Mehr

Bedingt unabhängige Zufallsvariablen

Bedingt unabhängige Zufallsvariablen 7. Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Benannt nach Andrei A. Markov [856-9] Einige Stichworte: Markov-Ketten Definition Eigenschaften Konvergenz Hidden Markov Modelle Sei X

Mehr

ALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke

ALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke ALMA II - ÜBERBLICK STOCHASTIK Jochen Garcke GRUNDBEGRIFFE Wahrscheinlichkeitsraum (Ω, A, P) beschreibt Zufallssituation Realisierung, Stichprobe, Elementarereignis ω Ω Ergebnisraum zufälliges Ereignis

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Zeitstetige Markov-Prozesse: Einführung und Beispiele

Zeitstetige Markov-Prozesse: Einführung und Beispiele Zeitstetige Markov-Prozesse: Einführung und Beispiele Simone Wielart 08.12.10 Inhalt Q-Matrizen und ihre Exponentiale Inhalt Q-Matrizen und ihre Exponentiale Zeitstetige stochastische Prozesse Inhalt Q-Matrizen

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr 1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Markovketten. Vorlesungsskript. Universität Freiburg. Andrej Depperschmidt. Sommersemester 2016

Markovketten. Vorlesungsskript. Universität Freiburg. Andrej Depperschmidt. Sommersemester 2016 Markovketten Andrej Depperschmidt Vorlesungsskript Universität Freiburg Sommersemester 2016 Version: 20. Juni 2016 1 Einleitung Markovprozesse ist eine für viele Anwendungen wichtige Klasse von stochastischen

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

Übungsaufgaben Lösungen

Übungsaufgaben Lösungen Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Studiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit.

Studiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit. Studiengang Diplom-Mathematik DIPLOMARBEIT Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit eingereicht von Christina Gunkel am 3. Juni 2008 Erste Gutachterin: Zweiter Gutachter:

Mehr

Markov-Ketten 1. Definition 2.1

Markov-Ketten 1. Definition 2.1 Marov-Ketten Definition 2. Sei P eine -Matrix mit Elementen {P i,j : i, j,...,}. Ein Zufallsprozess (X 0, X,...) mit endlichem Zustandsraum S{s,...,s } heißt homogene Marov-Kette mit Übergangsmatrix P,

Mehr

Der Poissonprozess. Kapitel 5

Der Poissonprozess. Kapitel 5 spielt in der stochastischen Modellierung eine fundamentale Rolle Grund ist seine verteilungsfreie Charakterisierung durch wenige qualitative Eigenschaften, die in zahlreichen Anwendungsbeispielen plausibel

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 25 Überblick Überblick Metropolis-Algorithmus

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die

Mehr

Brownsche Bewegung: Eine Einführung

Brownsche Bewegung: Eine Einführung Brownsche Bewegung: Eine Einführung Batu Güneysu Institut für Mathematik Humboldt-Universität zu Berlin Greifswald, 18.04.2018 Batu Güneysu Brownsche Bewegung: Eine Einführung 1 / 14 Wir fixieren m N und

Mehr

$Id: matrix.tex,v /12/02 21:08:55 hk Exp $ $Id: vektor.tex,v /12/05 11:27:45 hk Exp hk $

$Id: matrix.tex,v /12/02 21:08:55 hk Exp $ $Id: vektor.tex,v /12/05 11:27:45 hk Exp hk $ $Id: matrixtex,v 14 2008/12/02 21:08:55 hk Exp $ $Id: vektortex,v 12 2008/12/05 11:27:45 hk Exp hk $ II Lineare Algebra 6 Die Matrixmultiplikation 63 Inverse Matrizen und reguläre lineare Gleichungssysteme

Mehr

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Mehr

4 Funktionenfolgen und normierte Räume

4 Funktionenfolgen und normierte Räume $Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte

Mehr

Vorlesung 5a. Zufallsvariable mit Dichten

Vorlesung 5a. Zufallsvariable mit Dichten Vorlesung 5a 1 Vorlesung 5a Zufallsvariable mit Dichten Vorlesung 5a Zufallsvariable mit Dichten Teil 1 Uniforme Verteilung, Exponentialverteilung. Kontinuierlich uniform verteilte Zufallsvariable: 2 Kontinuierlich

Mehr

Diskrete Strukturen II

Diskrete Strukturen II SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen

Mehr

Kapitel 2 Grundbegriffe der allgemeinen Theorie stochastischer Prozesse

Kapitel 2 Grundbegriffe der allgemeinen Theorie stochastischer Prozesse Kapitel 2 Grundbegriffe der allgemeinen Theorie stochastischer Prozesse 2.1 Definitionen stochastische Prozesse 2.1 Definitionen stochastische Prozesse 2.1.1 Klassische Definition: als Familien von Zufallsvariablen

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr