1 A dp = P(A B). (1.3)

Größe: px
Ab Seite anzeigen:

Download "1 A dp = P(A B). (1.3)"

Transkript

1 Markov-etten Seminar Stochastik vom Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare Zufallsvariable Der bedingte Erwartungswert E(X G) unter einer Sigma- Algebra G F als G-messbare Zufallsvariable ist implizit durch G : XdP = E(X G)dP () definiert Es besteht folgender einfacher Zusammenhang zu bedingten Wahrscheinlichkeiten unter einer gegebenen Sigma-Algebra: P(A G) := E( A G) () Aus der Definition des bedingten Erwartungswertes folgt für alle G P(A G)dP = E( A G)dP = P(A G)( ) ist damit wieder eine G-messbare Zufallsvariable A dp = P(A ) (3) Mit σ(x) sei die durch die Zufallsvariable X erzeugte Sigma-Algbra bezeichnet Damit definiert man bedingte Wahrscheinlichkeiten unter einer Zufallsvariable: P(A X) := P(A σ(x)), (4) was wieder eine G-messbare Zufallsvariable liefert Grundlegende Definition Definition Sei (Ω, F,P) ein Wahrscheinlichkeitsraum mit einer Filtration (F n ), F 0 F F und die Zufallsvariablen X n : Ω R alle F n -messbar Eine stochastische Folge X = (X n, F n ) heißt Markov-ette zu P, falls sie für alle m n 0 und für alle (R) die sog Markov-Eigenschaft erfüllt: P(X m F n ) = P(X m X n ) (P-fs) (5) Im Spezialfall einer natürlichen Filtration F n = Fn X kurz von (X n ) als Markov-ette Es gilt: := σ({x 0,, X n }) spricht man (X n, F n ) Markov-ette (X n, F X n ) Markov-ette (6) In diesem Fall entspricht die Markov-Eigenschaft der edingung, dass für alle i (R) mit P(X i i i =,, n) > 0 gilt P(X m X i i, i =,, n) = P(X m X n n ) (7) Das Wissen um zusätzliche Ereignisse in der Vergangenheit X i i, i =,, n trägt also nichts zur Vorhersage für X m bei, wenn man auch X n n weiß

2 Markov-etten Satz Sei A i := {X i i } mit i (R) so, dass P(A i ) > 0 Dann ist die Markov-Eigenschaft für (X n ) äquivalent zu P(A k, A k+ A k ) = P(A k A k ) P(A k+ A k ) (8) eweis : Mit dem Satz von ayes und der Markov-Eigenschaft für n = : P(A k, A k+ A k ) = P(A k A k ) P(A k+ A k, A k ) = P(A k A k ) P(A k+ A k ) : Wir starten mit k = Im ersten Schritt wendet man wieder den Satz von ayes und dann die Aussage des Satzes an: P(A 3 A, A ) P(A A ) = P(A, A 3 A ) = P(A A ) P(A 3 A ) P(A 3 A, A ) = P(A 3 A ) (Induktion) P(A n A,, A n ) = P(A n A n ) Dies entspricht genau der Markov-Eigenschaft und beschließt damit den eweis Die Markov-Eigenschaft bedeutet in Worten also: ei fixierter Gegenwart sind Vergangenheit und Zukunft stochastisch unabhängig 3 Diskrete Markov-etten Definition Ein weiterer wichtiger Spezialfall sind sogenannte diskrete Markov- etten, dh X = (X n ), X n : Ω E = {,, 3, } (E ist die Menge der Zustände) mit fester Übergangsfunktion P (i; ) := P(X n+ X n = i) für alle n 0 Man schreibt kurz p := P (i; {j}), also für die Wahrscheinlichkeit, dass es einen Übergang vom Zustand i in den Zustand j gibt Definition 3 Als Anfangsverteilung einer diskreten Markov-ette (X n ) wird das Maß π() := P(X 0 ) mit E bezeichnet Satz (π, P ) bestimmt vollständig die wahrscheinlichkeitstheoretischen Eigenschaften der Folge X eweis Sei A E n+ für ein n 0 beliebig Dann ist die Wahrscheinlichkeit des Ereignisses {(X 0,, X n ) A} gegeben durch: P((X 0,, X n ) A) = P(X 0 = x 0,, X n = x n ) (39) = (x 0,,x n) A (x 0,,x n) A P(X n = x n X n = x n ) P(X 0 = x 0 ) (30) }{{}}{{} P (x n ;{x n}) π({x 0}) Das Wissen um (π, P ) legt also alle Wahrscheinlichkeiten fest emerkung Ein Paar (π, P ) mit einem Wahrscheinlichkeitsmaß π und P (, ) messbar sowie P (x; ) ein Wahrscheinlichkeitsmaß erzeugt also eindeutig eine Markov- ette Im Fall π({x}) = für ein x E nennt man diese eine im Punkt x beginnende ette Mit einem P ist also eine ganze Familie von Markov-etten mit verschiedenen Anfangsverteilungen verknüpft

3 Markov-etten 3 Definition 4 (Übergangswahrscheinlichkeit in n Schritten) := p ii p ii 3 p inj (3) i E,,i n E Satz 3 (Chapman-olmogorov) Fragen: p (n+m) = k E ik p(m) kj (3) (i) Existiert ein Grenzwert π j = lim n unabhängig von i? (ii) ilden diese (π, π, ) eine Wahrscheinlichkeitsverteilung auf E? (iii) Ist die ette ergodisch? Dh gilt π j 0, also jeder Zustand kann im Limes erreicht werden (iv) Existiert eine eindeutige, stationäre Verteilung (q, q, ) mit q j = i E q ip? Zur eantwortung dieser Fragen empfiehlt es sich, eine lassifikation von Zuständen einer Markov-ette zu entwerfen, abhängig von den arithmetischen und asymptotischen Eigenschaften von 4 lassifikation nach arithmetischen Eigenschaften Definition 5 Ein Zustand i E heißt unwesentlich, falls er nach endlich vielen Schritten verlassen wird und man nie zu ihm zurückkehrt, dh j i m > 0 : p (m) Ansonsten heißt er wesentlich eispiel In der Markov-ette mit der Übergangsmatrix (p ) = (44) sind die Zustände und unwesentlich, 3 und 4 dagegen wesentlich Sobald die wesentlichen Zustände erreicht sind, werden diese nicht mehr verlassen ei der Frage nach dem asymptotischen Verhalten kommt es also nur auf die wesentlichen Zustände an > 0 und n > 0 : ji = 0 (43) 3 Definition 6 Ein wesentlicher Zustand j E heißt erreichbar von i E, falls m 0 : p (m) > 0 Für m = 0 wird die onvention p (0) = δ getroffen Ist j von i aus erreichbar, notiert man kurz i j Zustände i und j heißen verbunden, wenn i j j i gilt, man notiert i j Diese eziehung zwischen Zuständen definiert eine Äquivalenzrelation Daraus folgt, dass alle wesentlichen Zustände in Äquivalenzklassen sog unzerlegbare lassen zerfallen, die nicht wechselseitig verbunden sind: E = U E E (45) 4

4 Markov-etten 4 (Hier wurden die unwesentlichen Zustände in U zusammengefasst und die unzerlegbaren lassen als E, E, bezeichnet) Im nächsten Schritt wird eine weitere Zerlegung dieser lassen angestrebt, auch wenn diese als unzerlegbar bezeichnet werden Diese fußt auf dem egriff der Periode für Zustände bzw unzerlegbare lassen Dazu sei zuerst ein eispiel angegeben eispiel etrachtet wird eine unzerlegbare Markov-ette mit Übergangsmatrix 0 0 / / (p ) = 0 0 / / / / 0 0 (46) / / Man kann die Zustände in die Mengen C 0 = {, } und C = {3, 4} (E = C 0 C ) mit zyklischer Eigenschaft aufteilen, dh ein Zustand aus C 0 geht immer in einen in C über und umgekehrt Da es genau zwei solche Mengen gibt, weisen wir der unzerlegbaren lasse die Periode zu Zuerst sei die Periode aber für Zustände definiert Definition 7 j E hat Periode d = d(j), wenn d der größte gemeinsame Teiler aller n mit jj > 0 ist Satz 4 Alle Zustände einer unzerlegbaren lasse E haben die gleiche Periode d = d(e) eweis Für alle i, j E findet man positive Übergangswahrscheinlichkeiten in beide Richtungen, also existieren k, l so, dass p (k) > 0 und p (l) ji > 0 Mittels Chapman- olmogorov folgern wir p (k+l) ii p (k) p(l) ji > 0 und damit d(i) k + l Sei n > 0 mit jj > 0 (d(j) ist ggt aller dieser n) dann gilt p (k+l+n) ii p (k) p(n) jj p(l) ji > 0 und damit wiederum d(i) k + l + n Zusammen mit dem oberen Ergebnis zeigt dies d(i) n für alle solchen n und deshalb d(i) d(j) Aus Symmetriegründen folgt auch d(i) d(j) und damit d(i) = d(j) orollar Startet man in irgendeinem j E mit E einer unzerlegbaren lasse, so ist man in frühestens d = d(e) Schritten wieder dort Definition 8 Über die Wahl eines beliebigen Zustandes i 0 E einer unzerlegbaren lasse E mit d = d(e) definiert man nun zyklische Unterklassen: C p = {j E n N 0 : p (n d+p) i 0j > 0} mit p {0,, d } (47) Ein solches j ist von i 0 aus also in p mod d Schritten zu erreichen Damit diese Definition sinnvoll ist, ist noch zu zeigen: p (n d+p) i 0j > 0 p (n d+p ) i 0j = 0 für p p mod d (48) Reductio ad absurdum: Sei p (n d+p ) i 0j ein m mit p (m) ji 0 gilt also p (n d+p+m) i 0i 0 > 0 Da alle Zustände in E verbunden sind gibt es > 0 Zusammen mit den oberen Annahmen und Chapman-olmogorov > 0 Daraus folgern wir d n d + p + m und d n d + p + m Es folgt d p + m sowie d p + m und damit d p p, was einen Widerspruch darstellt > 0 sowie p (n d+p +m) i 0i 0

5 Markov-etten 5 emerkung Im Fall der obigen Definition gilt für i, j E: i C p p > 0 j C p+(mod d) (49) C 0 C d C C 3 C Definition 9 Eine unzerlegbare lasse E ist aperiodisch, wenn d(e) = orollar Jeder ( zyklischen ) Unterklasse C p kann man eine neue Markov-ette mit Übergangsmatrix zuordnen, die unzerlegbar und aperiodisch ist Es genügt p (d) i,j C p also, das Grenzverhalten für solche Markov-etten zu untersuchen Aus diesen etrachtungen folgt also folgendes lassifizierungsschema: E unwesentlich wesentlich E E E 3 C 0 C C d eispiel 3 (Strahlungsschaden-Modell nach Reid und Landau) Der Zustand eines Organismus, der radioaktiver Strahlung ausgesetzt ist, soll mit den Stufen 0 (gesund) bis (irreparabler Strahlungsschaden) gleichgesetzt werden Der Zustandsraum ist also E = {0,,, } In jedem Zeitschritt wird ein Organismus im Zustand i mit einer Wahrscheinlichkeit von q i um eine Stufe gesünder, verbleibt mit Wahrscheinlichkeit r i statisch oder die Strahlenkrankheit schreitet mit Wahrscheinlichkeit p i fort Es muss also q i + r i + p i = gelten p p p p 0 q q q 3 p r r r

6 Markov-etten q r p q r p 0 0 (p ) = (40) r p Reid und Landau wählten das noch einfachere Modell r i = 0, p i = i und q i = i (p ) = 0 0 (4) Hier zerfällt der Zustandsraum in drei unzerlegbare lassen E = {0}, E = {,, } und E 3 = {} mit den Perioden d(e ) = d(e 3 ) =, d(e ) = Als Heilungswahrscheinlichkeit λ 0 sei die Wahrscheinlichkeit bezeichnet, dass man ausgehend vom Zustand den Zustand 0 erreicht λ 0 = p,0 n=0, (4) 5 lassifikation nach asymptotischen Eigenschaften Definition 0 Mit f (k) ii bezeichnet man die Wahrscheinlichkeit für die erste Rückkehr in einen Zustand i innerhalb von k Schritten und analog dazu mit f (k) (i j) das erste Erreichen eine Zustands j von i ausgehend in k Schritten eide Definitionen lassen sich so zusammenfassen: f (k) := P(X k = j, X l j, l k X 0 = i) (53) Es gilt indem man erstes Erreichen und die restlichen Schritte trennt = n k= f (k) p(n k) jj (54) Die Wahrscheinlichkeit, dass man in i startend in beliebig vielen Zeitschritten zurückkehrt, ist f ii := f (n) ii (55) n= Definition Mit der obigen Definition kann man nun zwischen rekurrenten und transienten Zuständen unterscheiden i E rekurrent genau dann, wenn f ii = (56) transient genau dann, wenn f ii < (57) Ein rekurrenter Zustand i dh sichere Rückkehr zu diesem Zustand kann zusätzlich danach klassifiziert werden, ob die mittlere Rückkehrzeit µ i := nf (n) ii (58) n=

7 Markov-etten 7 endlich oder unendlich ist Im Fall µ i bei µ i = 0 null-rekurrent Lemma (ohne eweis) (i) Aus j E transient folgt für alle i E, dass (ii) Aus j E rekurrent und i j folgt i rekurrent > 0 heißt er positiv-rekurrent, ansonsten n 0 (iii) Aus j E rekurrent, i j und d(j) = (also aperiodisch) folgt { n µ = 0 falls j null-rekurrent j > 0 falls j positiv-rekurrent orollar 3 Eine Markov-ette sei unzerlegbar und aperiodisch (i) Falls alle Zustände null-rekurrent oder transient sind, gilt: i, j E : (ii) Falls alle Zustände positiv-rekurrent sind, gilt: i, j E : (59) n 0 (530) n µ j > 0 (53) Satz 5 In einer unzerlegbaren, aperiodischen Markov-ette mit endlich vielen Zuständen E = {,, r} sind alle Zustände positiv-rekurrent eweis Reductio ad absurdum: Wir nehmen an, alle Zustände seien transient Nach Lemma (-i) gilt für alle i, j E, dass n 0 Natürlich gilt r = (53) j= Lässt man nun n gehen und vertauscht den Limes mit der Summe folgt der Widerspruch r lim = 0 (533) n p(n) j= Demzufolge gibt es mindestens einen rekurrenten Zustand, nach Lemma (-ii) sind damit aber alle Zustände rekurrent, da wir eine unzerlegbare ette betrachten, in der alle Zustände wechselseitig verbunden sind Falls man nun annimmt, dass alle Zustände null-rekurrent sind, folgt genau derselbe Widerspruch Es existiert also auch mindestens ein positiv-rekurrenter Zustand i 0 und für alle i E mit i i 0 gilt so dass Damit gilt µ i s, t : p (s) i 0i > 0, p(t) ii 0 > 0 (534) p (n+s+t) ii > 0 p (t) ii 0 i 0i 0 p (s) n i 0i p (t) p (s) i µ 0i > 0 (535) i0 ii 0 orollar 4 (zu Fragen (i), (ii)) Aus dem eweis von Satz (5) folgt sofort, dass bei einer unzerlegbaren, aperiodischen Markov-ette mit endlich vielen Zuständen für die Grenzwerte π j = lim n gilt, dass π + + π r = Sie bilden also eine Wahrscheinlichkeitsverteilung auf E orollar 5 (zu Frage (iii)) Eine unzerlegbare, aperiodische Markov-ette mit endlich vielen Zuständen ist stets ergodisch

8 Markov-etten 8 eweis Für die Ergodizität ist zu zeigen, dass die Limites π j = lim n existieren und π j > 0 gilt Nach Satz (5) sind alle Zustände positiv-rekurrent und somit folgt mit Lemma (-iii) π j = µ j > 0 emerkung 3 Tatsächlich gilt für endlich viele Zustände auch die Umkehrung, also die Äquivalenz zwischen Ergodizität auf der einen und Unzerlegbarkeit und Aperiodizität auf der anderen Seite, was wir hier jedoch nicht zeigen wollen Satz 6 (zu Frage (iv)) Für eine endliche, ergodische Markov-ette mit E = {,, r} existiert eine eindeutige, stationäre Verteilung q = (q,, q r ) eweis Zuerst soll die Existenz gezeigt werden Wir definieren A als den Grenzwert ( ) π π r P n = n =: A (536) π π r Damit folgt A P = lim n P n P = A (537) Die Zeilen von A liefern also genau die stationäre Verteilung q = (q,, q r ) := (π,, π r ) mit q P = q bzw wie gefordert r q j = q i p (538) i= Zu zeigen bleibt noch die Eindeutigkeit Sei dazu q eine zweite stationäre Verteilung Dann folgt aus q P = q, dass q P n = q ilden wir nun den Grenzwert n folgt q A = q und somit für alle l, dass (q + + q r )q l = q l = q }{{} l (539) emerkung 4 Die Umkehrung dieses Satzes gilt allerdings nicht Mit diesen Aussagen zur Existenz von stationären Verteilungen in endlichen, ergodischen Markov-etten soll die kurze Einführung in das Gebiet der Markov-etten geschlossen werden Referenzen [] AN Širjaev, Probability, vol 95 Graduate Texts in Mathematics, Springer (984) [] P Guttorp, Stochastic Modeling of Scientific Data, Chapman and Hall/CRC (995) [3] S Geiß, Stochastic processes in discrete time (009) [4] Ch Geiß, Stochastic Modeling (009)

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

16.3 Rekurrente und transiente Zustände

16.3 Rekurrente und transiente Zustände 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht

Mehr

7 Bedingte Erwartungswerte und Bedingte Verteilungen

7 Bedingte Erwartungswerte und Bedingte Verteilungen 7 edingte Erwartungswerte und edingte Verteilungen Sei (Ω,, P ein W Raum, (Ω, ein Messraum, Y : Ω Ω sei (, -messbar und nehme die Werte y 1,..., y n Ω an. Y 1 (y k {ω Ω Y (ω y k } : k Ω 1 + + n und σ(y

Mehr

Seminar über Markovketten

Seminar über Markovketten Universität Siegen Fachbereich Mathematik Seminar über Markovketten Sommersemester 003 Dozent Dr. Edgar Kaufmann Seminarteilnehmer Tobias Kegel Alexander Luke Uwe Nowak Übergangswahrscheinlichkeiten höherer

Mehr

Kapitel 12: Markov-Ketten

Kapitel 12: Markov-Ketten Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 21.01.2016 Kapitel 12: Markov-Ketten Ab jetzt betrachten wir stochastische Prozesse (X n ) n N0 mit 1. diskreter Zeit N 0 = {0,1,2,...},

Mehr

Stochastische Prozesse Stoffzusammenfassung

Stochastische Prozesse Stoffzusammenfassung Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 7. August 2018 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung

Mehr

3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur

3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur 3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur Ein Zustand j ist erreichbar von i (i j), falls P i (X t = j für ein t 0) > 0. i j, wenn i erreichbar von j und j erreichbar von i ist. Die

Mehr

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 2 Melanie Kaspar, Prof. Dr. B. Grabowski 3 Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse 2 Halbgruppen von Übergangswahrscheinlichkeiten Markov-Prozesse Im Folgenden sei (X, B) ein (polnischer) Messraum und T = [0, ) oder T = N 0 Definition 21 Eine Familie (P t ) t T von (X, B) mit Übergangswahrscheinlichkeiten

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1 Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013

Mehr

DisMod-Repetitorium Tag 3

DisMod-Repetitorium Tag 3 DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität

Mehr

3 Bedingte Erwartungswerte

3 Bedingte Erwartungswerte 3 Bedingte Erwartungswerte 3.3 Existenz und Eindeutigkeit des bedingten Erwartungswertes E A 0(X) 3.6 Konvexitätsungleichung für bedingte Erwartungswerte 3.9 Konvergenzsätze von Levi, Fatou und Lebesgue

Mehr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Vorstellung der Kopplung bei Markovketten

Vorstellung der Kopplung bei Markovketten Vorstellung der Kopplung bei Markovketten Leonie Weinhold 13. Mai 2011 1 Einleitung In der Wahrscheinlichkeitstheorie und ihren Anwendungen ist die Coupling- Methode ein wichtiges Instrument, um z.b. Aussagen

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Methoden der Statistik Markov Chain Monte Carlo Methoden

Methoden der Statistik Markov Chain Monte Carlo Methoden Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Kapitel 5: Markovketten

Kapitel 5: Markovketten Kapitel 5: Markovketten Definition 5.1 Bezeichnungen Bsp. 5.1 Definition 5.2 Eine Fam. (X i ) i I von ZV en X i : Ω E auf (Ω, F, P) mit Werten im messb. Raum (E, E) heißt Stochastischer Prozess. E Zustandsraum

Mehr

Einführung in Markoff-Ketten

Einführung in Markoff-Ketten Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die

Mehr

Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie. Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze

Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie. Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie - Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze Klaus Kuchler 0. Januar 03 Zentraler Grenzwertsatz. Grundlagen,

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

Terminologie Stochastischer Prozesse

Terminologie Stochastischer Prozesse Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Stationäre Maße und Zeitmittel

Stationäre Maße und Zeitmittel Stationäre Maße und Zeitmittel Clara Strohm SS 2003 Seminar Wahrscheinlichkeitstheorie Wir untersuchen im folgenden das Langzeitverhalten in diesem Fall gleichmäßige Konvergenz im Césaro-Mittel diskreter,

Mehr

Hawkes Prozesse Grundlagen

Hawkes Prozesse Grundlagen Hawkes Prozesse Grundlagen Im Folgenden sei (Ω, F, F, P) eine stochastische Basis. Das heißt F = (F t ) t ist eine rechtsstetige Filtration mit F t F für alle t und P ein Wahrscheinlichkeitsmaß auf dem

Mehr

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen

Mehr

Übungsaufgaben Lösungen

Übungsaufgaben Lösungen Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

1 Bedingte Erwartungswerte

1 Bedingte Erwartungswerte Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Markovketten. Vorlesungsskript. Universität Freiburg. Andrej Depperschmidt. Sommersemester 2016

Markovketten. Vorlesungsskript. Universität Freiburg. Andrej Depperschmidt. Sommersemester 2016 Markovketten Andrej Depperschmidt Vorlesungsskript Universität Freiburg Sommersemester 2016 Version: 20. Juni 2016 1 Einleitung Markovprozesse ist eine für viele Anwendungen wichtige Klasse von stochastischen

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Bonus Malus Systeme und Markov Ketten

Bonus Malus Systeme und Markov Ketten / 5 onus Malus Systeme und Markov Ketten Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden 6. Dresdner Kolloquium zur Mathematik und ihrer Didaktik 8. Februar 2 2 /

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Studiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit.

Studiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit. Studiengang Diplom-Mathematik DIPLOMARBEIT Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit eingereicht von Christina Gunkel am 3. Juni 2008 Erste Gutachterin: Zweiter Gutachter:

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

Brownsche Bewegung: Eine Einführung

Brownsche Bewegung: Eine Einführung Brownsche Bewegung: Eine Einführung Batu Güneysu Institut für Mathematik Humboldt-Universität zu Berlin Greifswald, 18.04.2018 Batu Güneysu Brownsche Bewegung: Eine Einführung 1 / 14 Wir fixieren m N und

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Grundlagen der Wahrscheinlichkeitstheorie

Grundlagen der Wahrscheinlichkeitstheorie Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 20. April 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 18.

Mehr

Bedingt unabhängige Zufallsvariablen

Bedingt unabhängige Zufallsvariablen 7. Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Benannt nach Andrei A. Markov [856-9] Einige Stichworte: Markov-Ketten Definition Eigenschaften Konvergenz Hidden Markov Modelle Sei X

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Markov-Ketten 1. Definition 2.1

Markov-Ketten 1. Definition 2.1 Marov-Ketten Definition 2. Sei P eine -Matrix mit Elementen {P i,j : i, j,...,}. Ein Zufallsprozess (X 0, X,...) mit endlichem Zustandsraum S{s,...,s } heißt homogene Marov-Kette mit Übergangsmatrix P,

Mehr

Summen und direkte Summen

Summen und direkte Summen Summen und direkte Summen Sei V ein K-Vektorraum. Wie früher erwähnt, ist für beliebige Teilmengen M, N V die Teilmenge M +N V wie folgt definiert M +N = {v+w : v M, w N}. Man sieht leicht, dass i.a. M

Mehr

Studienbegleitende Prüfung Stochastik 2

Studienbegleitende Prüfung Stochastik 2 Universität Karlsruhe (TH) Institut für Stochastik Prof. Dr. N. Bäuerle Name: Vorname: Matr.-Nr.: Studienbegleitende Prüfung Stochastik 2 27. März 2007 Diese Klausur hat bestanden, wer mindestens 20 Punkte

Mehr

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig, Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig, wenn für alle (s 1,..., s n ) {0, 1} n gilt, dass wobei A 0 i = Āi und A 1 i = A i. Pr[A s 1 1... Asn n ] = Pr[A

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Universität Leipzig, SoSo 2013

Universität Leipzig, SoSo 2013 Vorlesung Wahrscheinlichkeitstheorie I Universität Leipzig, SoSo 2013 Prof. Dr. Max v. Renesse [email protected] Sprechstunde: Di 13.15-14.45, A 337 Übungen: Mo 11.15 -- 12.45 A 314 K. Zimmermann

Mehr

Markov Ketten und Bonus Malus Systeme

Markov Ketten und Bonus Malus Systeme Grund Stoch Markov Ketten Bonus Malus Probleme L 1 / 46 Markov Ketten und Bonus Malus Systeme Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden TU Wien 19. Mai 2010

Mehr

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Schwache Konvergenz von Wahrscheinlichkeitsmaßen Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind

Mehr

Stochastik Aufgaben zum Üben: Teil 2

Stochastik Aufgaben zum Üben: Teil 2 Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

Thema: Totalvariationabstand, Kopplung und Mischzeiten

Thema: Totalvariationabstand, Kopplung und Mischzeiten Technische Universität Berlin Thema: Totalvariationabstand, Kopplung und Mischzeiten Ausarbeitung zum Seminar Moderne Anwendung von Markovketten Name: Nina Kamswich Matrikelnummer: 33677 Fachbereich: Mathematik

Mehr

Abgabetermin: 5. Mai 2017, Uhr

Abgabetermin: 5. Mai 2017, Uhr Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung

Mehr

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Definition: Erneuerungsprozess Sei {T n, n N} eine Folge unabhängiger, nichtnegativer Zufallsvariablen mit Verteilungsfunktion F, mit F () < 1. Dann heißt

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich

Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich Erwartungswert Naiv stellt man sich unter dem Erwartungswert einer Zufallsvariablen X Folgendes vor. Man führt das Experiment n-mal durch und bestimmt den Mittelwert (arithmetisches Mittel) der dabei für

Mehr

4 Rein transzendente Körpererweiterungen

4 Rein transzendente Körpererweiterungen $Id: transzendent.tex,v 1.7 29/5/6 13:34:24 hk Exp $ $Id: trgrad.tex,v 1.3 29/5/6 13:2:32 hk Exp $ 4 Rein transzendente Körpererweiterungen Wir hatten den rationalen Funktionenkörper K(T ) in der Hoffnung

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

KAPITEL 1. Martingale

KAPITEL 1. Martingale KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst

Mehr

Kapitel 4 Diskrete Markov-Prozesse

Kapitel 4 Diskrete Markov-Prozesse Kapitel 4 Diskrete Markov-Prozesse 4.1 Definition und grundlegende Eigenschaften 4.1 Definition und grundlegende Eigenschaften Stetige Zeit aber weiterhin diskreter Zustandsraum. Beispiele: Klinische Studien,

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Die Abbildung zeigt die Kette aus dem "

Die Abbildung zeigt die Kette aus dem ½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;

Mehr

TU DORTMUND Sommersemester 2018

TU DORTMUND Sommersemester 2018 Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade

Mehr