Markov-Ketten und Irrfahrten auf Z d

Größe: px
Ab Seite anzeigen:

Download "Markov-Ketten und Irrfahrten auf Z d"

Transkript

1 Markov-Ketten und Irrfahrten auf Z d Diana Atzmüller 20. März

2 Inhaltsverzeichnis 1 Einleitung 3 2 Markov-Ketten Grundlagen Übergangswahrscheinlichkeit in n Schritten Green Kernel Irreduzible Klassen und Periodizität Rekurrenz und Transienz Irrfahrten auf Z d Einfache symmetrische Irrfahrt Ausblick Literaturverzeichnis 23 2

3 1 Einleitung Von mehreren Teilgebieten der Mathematik und auch Physik werden Markov- Ketten als stochastische Zufallsprozesse aus verschiedenen Blickwinkeln betrachtet und analysiert. Zusätzlich zum theoretischen Wert im wissenschaftlichen Sinne ist das Anwendungsspektrum breit gefächert. Es erstreckt sich von Bereichen der Spieltheorie und Prognosen bzw. Risikobewertungen für Finanz- und Versicherungsmärkte, über biologische Prozesse wie zum Beispiel das Wachstum von Genomen, bis hin zur künstlichen Intelligenz im Bereich Technik und Informatik, wo sich Markov-Modelle als versteckter, komplexer Prozess in Spracherkennungsprogrammen und Spamfiltern wiederfinden. Diese Arbeit behandelt vorrangig den graphentheoretischen Hintergrund einiger interessanter Gegebenheiten und Regeln im Umfeld von Markov-Ketten als diskreten Prozess. Markov-Prozesse in kontinuierlicher Zeit, wie zum Beispiel den Wiener Prozess der auch als Brownsche Bewegung bekannt ist, werden nicht behandelt. Irrfahrten, oder auch Random Walks, sind eine spezielle Art einer solchen Markov-Kette. Man stelle sich einen Punkt vor, der sich auf eine unendliche Wanderung auf einer Gruppe bzw. einem Graphen aus Knoten und Kanten begibt. Dabei gibt es von jedem Knoten einen Pfad (einen Weg aus einer beliebigen Anzahl an Kanten) in jeden anderen Knoten. Jede Irrfahrt findet auf so einem zusammenhängenden Graphen statt. Auch wenn ein solcher Spaziergang zufällig ist und jeder Schritt ein unabhängiges Ereignis darstellt, genügt er dennoch gewissen Regeln und lässt allgemein gültige Schlüsse zu. Fragen nach der Wahrscheinlichkeit einen bereits in der Vergangenheit passierten Knoten noch einmal zu durchlaufen und wenn ja, wie oft und in welcher Zeit dies voraussichtlich passiert, können zum Teil beantwortet werden. Besonders interessant ist dabei die Beobachtung, dass sich die verschiedenen Dimensionen des Raumes, in dem sich das Teilchen bewegt, durchaus unterschiedlich auf die Eigenschaften der Markov-Kette auswirken. 3

4 2 Markov-Ketten 2.1 Grundlagen Vor der Untersuchung von Markov-Ketten gilt es ihre Definition in Erinnerung zu rufen. Definition 1. Sei X ein endlicher oder abzählbar unendlicher Zustandsraum. Eine Markov-Kette (X n ) n 0 ist eine Folge von Zufallsvariablen mit folgenden zwei Eigenschaften: (i) P[X t = x t X t 1 = x t 1,..., X 1 = x 1, X 0 = x 0 ] = P[X t = x t X t 1 = x t 1 ] ; (ii) P[X t+a+1 = y X t+a = x] = P[X t+1 = y X t = x] t, a 0. Die Markov-Eigenschaft wird in (i) beschrieben. Wie ohne Gedächtnis hängt die Zukunft allein von der Gegenwart ab. Vorangegangene Ereignisse sind für den nächsten Übergang nicht von Bedeutung. Zusätzlich genügt die Markov- Kette (ii) und gilt damit als zeithomogen 1. Die Chance für einen bestimmten Zustandswechsel im ersten Schritt entspricht jener zum fünften, letzten oder jedem beliebigen anderen Zeitpunkt. Die Übergangswahrscheinlichkeiten der verschiedenen Zustände lassen sich zu einer stochastischen Matrix P := ( p (x, y) ) mit P M x,y X n(r) zusammenfassen. Dabei beschreibt p(x, y) die Chance eines Wechsels von x nach y in einem Schritt. Es gilt p(x, y) 0, p(x, y) = 1. y X Ist der Start einer Markov-Kette nicht festgelegt, ist zusätzlich eine Anfangsverteilung ν, ein Wahrscheinlichkeitsmaß auf X mit ν(x) := P[X 0 = x] gegeben. Im weiteren Verlauf steht P ν [X n = y] bzw. P x [X n = y] für die Wahrscheinlichkeit bei Anfangsverteilung ν bzw. Start im Zustand x im n-ten Schritt y zu realisieren. 1 Zeithomogenität ist für eine Markov-Kette nicht unbedingt erforderlich. Die Übergangswahrscheinlichkeiten können zu den verschiedenen Zeitpunkten variieren. Diese Arbeit beschränkt sich jedoch auf den stationären, diskreten Prozess mit konstanten ein-schritt Übergangswahrscheinlichkeiten. 4

5 Abbildung 1: Das Wetter in Salzburg. Mögliche Darstellung des Graphen Γ(P ) mit zugehöriger stochastischer Übergangsmatrix P und Zustandsraum X = {Sonne, Regen, Schnee}. Bemerkung. Für A σ(x 0,..., X m ) und B σ(x m,..., X m+n ) ist P[A B X m = y] = P[A X m = y] P[B X m = y]. Da die Vergangenheit und die Zukunft bedingt auf die Gegenwart unabhängig voneinander sind, verliert die Anfangsverteilung nach dem Start einer Markov- Kette an Bedeutung. Eine MK (X, P ) vergisst sozusagen ihre Anfangsverteilung bedingt auf den Zustand zu einem späteren Zeitpunkt. Definition 2. Für eine Markov-Kette (X n ) n 0 mit Übergangsmatrix P ist Γ(P ) der zugehörige orientierte Graph mit Knotenmenge V (Γ) = X und [x, y] ist Element der Kantenmenge E(Γ) V (Γ) V (Γ) für p(x, y) > 0. Ist ein Graph orientiert, so ist eine Kante wie ein gerichteter Pfeil anzusehen. Aus der Existenz einer Kante von einem Knoten (Zustand) in einen Anderen folgt nicht unmittelbar, dass auch die Rückkehr in einem einzigen Schritt (oder überhaupt) möglich ist. Die Übergangswahrscheinlichkeit p(x, y) kann als Gewichtung der gerichteten Kante [x, y] angesehen werden. Der Graph einer Markov-Kette lässt sich sehr gut graphisch darstellen. Abbildung 1 zeigt ein Beispiel für die Wettervorhersage zur kalten Jahreszeit in Salzburg. Scheinbar überwiegen die schlechten Wetterverhältnisse und die Einwohner können davon ausgehen, dass auf einen Sonnentag immer Regen oder Schnee folgt. Bei näherer Betrachtung kommen Fragen über die Eigenschaften der Markovkette auf, die über die Vorhersage des nächsten Tages hinausgehen. Dazu zwei Beispiele: 5

6 Angenommen es regnet heute. Wie viele verregnete Tage sind in diesem Monat zu erwarten? Wie groß ist die Chance auf schönes Wetter in zwei Wochen? Im weiteren Verlauf werden Antworten darauf gefunden. 2.2 Übergangswahrscheinlichkeit in n Schritten Die Zeilen einer stochastischen Matrix sind jeweils Verteilungen auf X. Daher ist auch jede Matrixpotenz P n mit n N wiederum eine stochastische Matrix und es gilt P m+n = P m P n, mit P 0 = I X. (1) Ist p (n) (x, y) das Element an der Stelle (x, y) der n-ten Potenz der Übergangsmatrix, so folgt aus (1) auch p (m+n) (x, y) = ω X p (n) (x, ω) p (m) (ω, y). (2) Dabei beschreibt p (n) (x, y) = P x [X n = y] = P ν [X k+n = y X k = x] die Wahrscheinlichkeit für einen Wechsel vom Zustand x zum Knoten y in n Schritten. Die beiden Gleichungen (1) und (2) werden Chapman-Kolmogorov- Gleichungen genannt. Dass die einzelnen Übergänge unabhängige Ereignisse sind und die entsprechenden Regeln für bedingte Wahrscheinlichkeiten gelten, impliziert genauso wie (2) die Wahrscheinlichkeit für den jeweils nächsten Übergang mit p (n+1) (x, y) = ω X p(x, ω)p (n) (ω, y). Um verschiedene Ereignisse zeitlich zu bemessen, ist es wichtig eine weitere Zufallsvariable, den Begriff der Stoppzeiten einzuführen. Insbesondere die Wahrscheinlichkeiten von Eintrittszeiten und Erwartungswerte sind von Interesse, da sie der Analyse des asymptotischen Verhaltens von Markov- Ketten dienen. 6

7 Definition 3. Eine Stoppzeit ist eine Zufallsvariable t mit Wertebereich N 0 { }, sodass [t n] = {ω Ω t(ω) n} A n, n N. Eine Stoppzeit hat also die Eigenschaft, allein mit Hilfe der ersten n Elemente einer Trajektion (Realisierung) zu bestimmen, ob t kleiner gleich n ist. Die Definition mag formal sehr abstrakt klingen, spiegelt aber nur die intuitive Interpretation des namentlichen Begriffs wider. Die Zuvallsvariable t gibt an, ob ein bestimmtes Ereignis bis zum Zeitpunkt n eingetreten ist, oder nicht. Definition 4. Für eine Menge W X sind die (erste) Eintrittszeit und die (erste) Rückkehrzeit definiert als s W := inf {n 0: X n W } und t W := inf {n 1: X n W }. Weiters ist v W n := { 1 X n W 0 sonst und v W = v W n. Nur bei Start der Markovkette in W unterscheidet sich s W von t W. Die Eintrittszeit beschreibt die Anzahl der Schritte bis zum ersten Besuch der Markov-Kette in W, was schon beim Start der Fall sein kann. Hingegen misst die Rückkehrzeit die Anzahl der Schritte bis zum ersten Eintreffen in W nach dem Start. Die Zufallsvariable v W dient dem Abzählen der Besuche von (X, P ) in W. Weitere wichtige Begriffe sind: Die erwartete Anzahl der Besuche in y, bei Start in x G(x, y) := E x (v y ) = p (n) (x, y). Die Wahrscheinlichkeit bei Start in x jemals y zu realisieren F (x, y) := P x [s y ] = f (n) (x, y), mit f (n) (x, y) := P x [s y = n]. Die Wahrscheinlichkeit nach Start in x, Knoten y zu durchlaufen U(x, y) := P x [t y ] = u (n) (x, y), mit u (n) (x, y) := P x [t y = n]. 7

8 Damit lassen sich die Fragen zum Salzburger Wetterbeispiel bereits jetzt beantworten. Die voraussichtliche Anzahl verregneter Tage im nächsten Monat ist E Re (v So [0,30]) = 30 p (n) (Re, So). (3) Analog dazu ist die Wahrscheinlichkeit für Sonnenschein in 14 Tagen p (14) (Re, So). (4) Um eine effiziente Berechnung solcher Größen zu ermöglichen, werden erzeugende Funktionen eingeführt. Es wird sich herausstellen, dass diese für endliche Zustandsräume stets rational sind. 2.3 Green Kernel Für die nähere Betrachtung von reellen oder komplexen Sequenzen werden oft erzeugende Funktionen herangezogen. Das sind Potenzreihen der Form a nz n mit z C. Für eine Markov-Kette (X, P ) ist der Green Kernel oder auch die Green Funktion, die Potenzreihe G(x, y z) = p (n) (x, y)z n, x, y X, z C. Der Konvergenzradius ist r(x, y) = ( ) 1 n lim sup p (n) (x, y) 1. n Zur späteren Zuordnung eines Zustandes als rekurrent oder transient, die das asymptotische Verhalten von Übergängen beschreiben, werden erzeugende Funktionen benötigt. Die erwartete Anzahl der Besuche in y bei Start in x entspricht der Potenzreihe G(x, y 1). Die Frage nach Konvergenz für die unendliche Reihe G(x, y) wird für die Klassifizierung von Zuständen im Weiteren eine große Rolle spielen. Mittels linearer Algebra lässt sich der Green Kernel explizit berechnen. Die Greenfunktionen der jeweiligen Zustände lassen sich zu einer Matrix zusammenfassen und es gilt G(z) := ( G(x, y z) ) = z n P n. x,y X 8

9 Der Konvergenzradius ist r = inf {r(x, y) x, y X}. Für z < r konvergiert die Reihe und wegen G(z) = I + z n P n = I + zp n=1 z n P n = I + zp G(z) ist G(z) = (I zp ) 1 für invertierbare (I zp ). Für endliche Knotenmengen ist also G(x, y z) immer der Quotient zweier rationaler Funktionen mit det(i zp y, x) G(x, y z) = ±. det(i zp ) Dabei bezeichnet (I zp y, x) die Matrix nach Streichen der y-ten Zeile beziehungsweise x-ten Spalte von (I zp ). Durch die Einführung der Greenfunktion lassen sich die Größen (3) und (4) aus dem Wetterbeispiel effizient berechnen. Die erwartete Anzahl verregneter Tage im nächsten Monat ist die Summe der ersten 31 Koeffizienten von G(Re, Re z). Der 15. Koeffizient der Reihe G(Re, So z) gibt die Wahrscheinlichkeit für Sonnenschein in genau 14 Tagen an. Jeweils die rationalen Funktionen zu berechnen und in eine Potenzreihe umzuformen wird dem Leser überlassen. 2.4 Irreduzible Klassen und Periodizität Für die Kommunikation zwischen den einzelnen Zuständen gelten nachstehende Notationen. (i) x y wenn n: p (n) (x, y) > 0 ; (ii) x n y für p (n) (x, y) > 0 ; (iii) x y für p(x, y) = 0 ; (iv) x y wenn x y y x. Im Folgenden geht es um die Klassifizierung von Knoten einer Markov- Kette in wesentliche und unwesentliche Zustände. Bei Betrachtung der asymtotischen Entwicklung von (X, P ) verlieren unwesentliche Zustände ihr Bedeutung, da diese per Definition nur höchstens einmalig durchlaufen werden. 9

10 Abbildung 2: Veranschaulichung einer endlichen Markov-Kette mit ihren irreduziblen Klassen. Wesentlich sind C(11) und C(13). Der Knoten 13 ist absorbierend. Die Relation x y ist wegen p (0) (x, x) = 1 reflexiv und transitiv, weil aus x m ω und ω n y auch m+n y folgt. Für x y gilt aufgrund der Definition auch Symmetrie. Lemma 1. Die Relation ist eine Äquivalenzrelation auf X. Definition 5. Eine irreduzible Klasse ist eine Äquivalenzrelation in Bezug auf. Besteht eine Markov-Kette aus einer einzigen irreduziblen Klassse, so wird sie irreduzibel genannt. Eine irreduzible Klasse wird mit C(x) bezeichnet, wobei x ein (beliebiger) Knoten dieser Klasse ist. Abbildung (2) zeigt eine Markov-Kette mit endlichem Zustandsraum X und ihre zugehörigen sechs irreduziblen Klassen. Alle Irrfahrten auf Z d sind irreduzibel, da per Definition alle Knoten des Graphen miteinander kommunizieren. Definition 6. Auf der Menge der irreduziblen Klassen einer Markov-Kette bildet eine Halbordnung. Bei Existenz werden die Maxima dieser Halbordnung wesentliche Klassen genannt. Ein Zustand x heißt wesentlich, wenn C(x) wesentlich ist. Ist ein Knoten nicht wesentlich, so heißt er unwesentlich. Besteht eine wesentliche Klasse aus nur einem Knoten, so heißt dieser absorbierend. Anders ausgedrückt, x ist wesentlich : y : y x aber x y. 10

11 Abbildung 3: Darstellung einer Markov-Kette mit unendlichem Zustandsraum N. Die MK (N, P ) besitzt unendlich viele irreduzible Klassen, jedoch ist keine davon wesentlich. Ist der Zustandsraum endlich, so besteht eine Äquivalenz zwischen den Eigenschaften wesentlich und rekurrent zu sein. Analog gilt dies für unwesentlich und transient. Der Begriff der Rekurrenz wird im nächsten Abschnitt erläutert. Zusätzlich ist die Menge aller irreduziblen Klassen endlich, also gibt es auch immer zumindest ein maximales Element. Abbildung 3 liefert ein Beispiel für eine Markov-Kette auf einem unendlichen Zustandsraum mit irreduziblen, aber dennoch keiner einzigen wesentlichen Klasse. Definition 7. Die Periode eines Knotens x X ist die natürliche Zahl ggt{n 1: x n x}. Zustände mit Periode 1 heißen aperiodisch. Mögliche Rückkehrzeiten eines Zustandes sind also allesamt Vielfache seiner Periode. Sie gibt an, wie viele Schritte mindestens für die Rückkunft in den ursprünglichen Knoten notwendig sind. Die Periode ist innerhalb einer irreduziblen Klasse konstant, also klassenstabil. Um festzustellen, ob ein Knoten beziehungsweise eine Klasse aperiodisch ist, ist es ausreichend zwei Pfade von teilerfremder Länge zu finden, die beide in den ursprünglichen Zustand zurückführen. In den meisten Szenarien von Irrfahrten auf Z d, die in den folgenden Kapiteln behandelt werden, besitzen alle Knoten Periode Rekurrenz und Transienz Definition 8. Es sei (X, P ) eine Markov-Kette. Ein Zustand x X nennt sich rekurrent, wenn der Zufallsprozess nach Start in x sicher wieder zu x zurückkehrt, also U(x, x) = P x [ n > 0: X n = x] = 1. Anderenfalls heißt x transient. Zusätzlich sei H(x, y) = P x [X n = y für unendlich viele n N], x, y X die Wahrscheinlichkeit bei Start in x unendlich oft y zu durchlaufen. 11

12 Aufgrund der Zeithomogenität lässt sich folgern, dass eine unendlich lange Sequenz (X n ) n 0 bei sicherer Rückkehr in einen Zustand, diesen auch unendlich oft passiert. Wenn hingegen die Wahrscheinlichkeit für einen Zustand, öfter als einmal durchlaufen zu werden kleiner 1 ist, so ist es unmöglich, unendlich oft zurück zu kehren. Dieses interessante Phänomen, also { 1 U(x, x) = 1 H(x, x) = 0 sonst wird als Null-Eins Gesetz bezeichnet. Eine kurze Beweisskizze dafür lässt sich schnell erstellen. Ist x ein transienter Zustand mit U(x, x) = p und 0 p < 1, so ist p die Wahrscheinlichkeit mindestens einmal in den Knoten x zurück zu kehren. Die Chance für dieses Ereignis mindestens ein zweites Mal einzutreten ist folglich p 2. Für den Limes gilt daher P x [X n = x, unendlich oft ] = lim n p n = 0. Aufgrund der Markov-Eigenschaft und der Zeithomogenität folgt bei sicherer Rückkehr in einen Zustand auch die unendliche Wiederholung dieser. Theorem 1. Aus Rekurrenz eines Zustandes x X folgt also unzähliges Durchlaufen und damit auch eine unendliche Anzahl erwarteter Besuche. Es gilt sogar Äquivalenz mit U(x, x) = 1 H(x, x) = 1 G(x, x) =. Beweis. Die Aussage U(x, x) = 1 H(x, x) = 1 beschreibt das Null- Eins-Gesetz. Aufgrund des Gesetzes der großen Zahlen gilt die Implikation H(x, x) = 1 G(x, x) = 1. Wegen monotoner Konvergenz ist lim G(x, x z) = G(x, x 1) bzw. lim U(x, x z) = U(x, x 1). z 1 z 1 Daraus folgt { 1 U(x, x z) = 1, lim G(x, x z) = lim z 1 z 1 1 U(x, x z) = 1 U(x, x) < 1. 1 U(x,x) womit U(x, x) = 1 G(x, x) = gezeigt ist. Ist nun die erwartete Anzahl der Besuche in x unendlich, dann ist auch die Rückkehr sicher mit U(x, x) = 1. 12

13 Bei Betrachtung der asymptotischen Eigenschaften lassen sich alle Knoten einer Markov-Kette als rekurrent oder transient klassifizieren. Rekurrente Zustände lassen sich zusätzlich in positiv rekurrente und nullrekurrente Knoten unterteilen. Definition 9. Ein rekurrenter Zustand x heißt positiv rekurrent, wenn die zu erwartende Rückkehrzeit E x [t x ] endlich ist, mit E x [t x ] = nu (n) (x, x) = U (x, x 1 ) < n=1 und nullrekurrent wenn er nicht posititv rekurrent ist. Auch wenn ein rekurrenter Zustand mit Sicherheit öfter (unendlich oft) durchlaufen wird, ist bei Nullrekurrenz zu erwarten, dass die Rückkehr unendlich viel Zeit in Anspruch nimmt. Zusammengefasst gilt für die Asymptotik von irreduziblen MK (X, P ): ˆ Ist X endlich und x X, so gilt C(x) wesentlich C(x) rekurrent und folglich analoges für unwesentlich und transient. ˆ Ist x aus X rekurrent, dann ist x nullrekurrent lim n p (n) (x, x) = 0. ˆ Ist x aus X transient, so folgt daraus lim n p(n) (x, x) = 0. ˆ Ist X endlich und die Markov-Kette zusätzlich aperiodisch, so existiert eine sogenannte stationäre oder invariante Verteilung Π auf X mit Π P = Π bzw. Π P n = Π und lim n p(n) (x, x) = 1 E x [t x ] = Π x > 0, womit alle Zustände positiv rekurrent sind. Auf endlichen Zustandsräumen ist Π ein Linkseigenvektor von P zum Eigenwert 1, derartig normiert, sodass die Summe der Einträge eins ergibt, was einer Verteilung entspricht. 13

14 Abbildung 4: Illustration einer Irrfahrt auf Z mit Übergangswahrscheinlichkeiten p und q. 3 Irrfahrten auf Z d Eine Irrfahrt beschreibt die zufällige Wanderung eines Teilchens auf einer abelschen Gruppe. Jede Irrfahrt ist eine irreduzible Markov-Kette mit ungerichtetem Graphen. Betrachtet wird in diesem Fall der Random Walk auf dem ganzzahligen Gitter Z d. Dabei sind jene Punkte benachbart, deren euklidischer Abstand eins ist. Ein breites Anwendungsspektrum unterstützt die Forschung auf diesem Gebiet. Im Allgemeinen sind Irrfahrten auf abelschen Gruppen G wie z.b. Z d eine Summe von unabhängigen, ident verteilten G-wertigen Zufallsvariablen Z n = 0 + Y Y n, wobei die Verteilungen der Y n ein Wahrscheinlichkeitsmaß auf G mit Start in 0 sind. Zunächst ein Beispiel für den eindimensionalen Fall mit Zustandsmenge Z. Dieses wird häufig als Irrfahrt des Betrunkenen auf einer unendlichen Straße bezeichnet [1] W. Woess. Für den Random Walk auf dem Zahlenstrahl in Abbildung 4 gilt p(k, k + 1) = p, p(k, k 1) = q, p + q = 1, p(k, l) = 0 für k l 1. Da Irrfahrten irreduzible Markov-Ketten sind und Rekurrenz eine Klasseneigenschaft ist, sind entweder alle Zustände rekurrent, oder alle transient. Es genügt somit den Ursprung auf Rekurrenz zu untersuchen, um alle Knoten zu analysieren. Dafür gibt es viele verschiedene Möglichkeiten. 14

15 Zum Beispiel mittels kombinatorischer Überlegung. Grundsätzlich ist eine Rückkehr nur nach einer geraden Anzahl von Schritten möglich, da es der gleichen Schrittlänge in die jeweils entgegengesetzte Richtung bedarf, um den ursprünglichen Knoten erneut zu erreichen. Damit ist p (2n+1) (x, x) = 0, n 0 und die Irrfahrt besitzt Periode 2. Für die Rückkehrwahrscheinlichkeit nach 2n Schritten gilt ( ) 2n p (2n) (0, 0) = (pq) n. n Für große n lässt sich der Binomialkoeffizient mittels Sterlingformel ausdrücken ( ) 2n 2 2n 1 p (2n) (0, 0) = (4pq) n 1. n πn πn Den Fall, dass p und q gleich groß sind, wird vorerst außer Acht gelassen. Sei ohne Beschränkung der Allgemeinheit p größer q. Der Quotiententest zeigt, dass die Reihe (4pq) n 1 πn konvergiert. Also ist G(x, x) < und alle Zustände sind transient. Für p = q = 1 /2 ist aber (4pq) = 1 und nach Abschätzung durch die harmonische Reihe divergiert 1. πn Damit ist G(x, x) endlich und der Ursprung, sowie jeder andere Knoten der irreduziblen Markov-Kette, ist rekurrent. Die Irrfahrt in diesem Beispiel ist nun genau dann rekurrent, wenn der Wechsel in jeden benachbarten Knoten gleichwahrscheinlich ist. In diesem Fall heißt die Markov-Kette einfache symmetrische Irrfahrt. Eine Alternative zur Kombinatorik bei der Untersuchung auf Rekurrenz bieten die bereits eingeführten erzeugenden Funktionen der Größen G(x, y), F (x, y) und U(x, y). Dafür wird folgendes Theorem benötigt. 15

16 Theorem 2. Ist (X, P ) eine Markov-Kette und sind x, y aus X dann gelten für die erzeugenden Funktionen G(x, y z), F (x, y z) und U(x, y z) G(x, x z) = 1 1 U(x, x z), z < r(x, x). (5) U(x, x z) = y x p(x, y)z F (y, x z), z < s(x, x). (6) Für y x ist F (y, x z) = ω X p(x, ω)z F (ω, y z), z < s(x, y). (7) Dabei steht s(x, y) für den Konvergenzradius von U(x, y z) und wegen u (n) (x, y) p (n) (x, y) 1 ist s(x, y) r(x, y) 1. Die Suche nach U(0, 0) gestaltet sich wie folgt. Wegen Translationsinvarianz im Beispiel der Abbildung 4 ist und mit (7) gilt F (k, l z) = F (k l, 0 z) = F (0, l k z) F (1, 0 z) = ω X p(1, ω)z F (ω, 0 z) =... = qz + pz F (2, 0 z). Um von Zustand 2 zurück in den Ursprung zu gelangen, muss erst Knoten 1 überquert werden. Aus F (2, 0 z) = F (2, 1 z) F (1, 0 z) = F (1, 0 z) 2 folgt nach einsetzen und umformen pz F (1, 0 z) 2 F (1, 0 z) + qz = 0. Da für alle ungleichen Knoten in X die Größe F (x, y 0) = 0 ist, ist die eindeutige Lösung der quadratischen Gleichung F (1, 0 z) = 1 (1 ) 1 4pqz 2pz 2 16

17 und analog dazu ist Wegen (6) gilt U(0, 0 z) = y F ( 1, 0 z) = 1 2qz (1 1 4pqz 2 ) p(0, y)z F (y, 0 z) = pz F (1, 0 z) + qz F ( 1, 0 z). Daraus folgt = 1 1 4pqz 2. U(0, 0) = 1 (p q) 2 = 1 p q = 1 p = q = 1 2. Damit ist, wie erwartet, auch bei Anwendung von Theorem 2 die Irrfahrt auf (Z, P ) genau dann rekurrent, wenn es sich dabei um eine einfache symmetrische Irrfahrt handelt. Ein anderes Beispiel für eine Irrfahrt (Z, Q) auf dem Zahlenstrahl genügt den Regeln q(k, k ± 1) = 1 4, q(k, k) = 1 2 und q(k, l) = 0, für k l 1. Hierbei handelt es sich um eine Irrfahrt mit Schleifen, da eine Chance größer 0 besteht im gleichen Zustand zu verweilen. Die Markov-Kette ist aperiodisch und die Rückkehr in einen Knoten ist nicht mehr nur auf Wege der Länge 2n beschränkt. Es gilt für die Rückkehrwahrscheinlichkeit nach n Schritten n 2 ( ) ( ) n n k q (n) 1 (0, 0) = k k 4 1 2k 2 n 2k k=0 = 1 4 n 2 ( ) ( ) n n k 2 n 2k (8) n k k k=0 Dabei ist die Summe über alle k die jeweilige Anzahl der möglichen Kombinationen k Schritte nach rechts und k Schritte nach links zu gehen, mit n 2k Schleifen. Man kann zeigen, dass ( ) 2n n der Summe in (8) entspricht [1]. Das führt zu einer vereinfachten Darstellung q (n) (0, 0) = 1 ( ) 2n. 4 n n Damit ist auch die Irrfahrt (Z, Q) nullrekurrent. 17

18 3.1 Einfache symmetrische Irrfahrt Definition 10. Eine einfache symmetrische Irrfahrt (SRW) auf Z d ist eine Irrfahrt mit Knotengrad deg(x) = 2d, für alle x in X. Zusätzlich gilt Gleichverteilung auf der Menge der Einheitsvektoren {±e 1,, ±e d }. Wie schon im letzten Kapitel beschrieben, ist SRW im eindimensionalen rekurrent. Dabei kehrt die Irrfahrt in jeden Knoten mit Sicherheit wieder zurück und das unendlich oft. Die erwartete Zeit, die eine Rückkehr in Anspruch nimmt, ist unendlich, da neben Rekurrenz auch 1 lim n p(2n) (0, 0) = lim = 0 n nπ gilt. Somit ist die einfache symmetrische Irrfahrt auf Z nullrekurrent. Genauso lässt sich Nullrekurrenz für den SRW auf Z auch folgendermaßen zeigen. U(0, 0 z) = 1 1 z 2 U z (0, 0 z) =, z < 1 1 z 2 und E 0 [t 0 ] = lim U(0, 0 z) =. z 1 Theorem 3. Satz von Polya (1921) Ein Simple Random Walk auf Z d ist eine MK (X, P ) mit { 1 falls y {x ± e 2d i : i = 1,..., d} p(x, y) = 0 sonst Für d 2 ist (X, P ) rekurrent, für d 3 transient. Beweis. Sei d = 2. Zunächst stelle man sich zwei Betrunkene vor, die je einen SRW auf Z gehen. Beide starten dabei im Ursprung und gehen völlig unabhängig voneinander ihren Weg. Ihre gemeinsame Trajektion auf Z 2 besucht dabei nur die Punkte (k, l) mit k, l Z und k + l 0 (mod 2). Die Markov-Kette bewegt sich zu einem der vier Punkte (k ± 1, l ± 1) mit Übergangswahrscheinlichkeit p 1 (k, k ± 1) p 1 (l, l ± 1) = 1 /2 1/2 = 1 /4. Die dementsprechenden Knoten und Kanten liegen auf dem zweidimensionalen Straßennetz wie in Abbildung 5 veranschaulicht. Grau strichliert zeichnen sich die Kanten des doppelten Random Walks ab. Die zusammengesetzte Markov-Kette ist isomorph zu Z 2, da sich die Knoten und Kanten bei Drehung um 45 und Stauchung der Kanten durch Normierung der Länge 2 auf 1 decken. 18

19 Abbildung 5: Veranschaulichung einer Irrfahrt auf Z 2. Rechts eine Darstellung des Isomorphismus zwischen der doppelten Markov-Kette zweier Wanderer und dem zweidimensionalen Gitter. Aufgrund des Isomorphismus bleiben die Übergangswahrscheinlichkeiten erhalten und für den SRW auf dem zweidimensionalen Straßennetz gilt p (2n) (0, 0) = ( ( )) 2 1 2n 1 2 2n n πn. Unter anderem zeigt das Minorantenkriterium, dass G(x, x) = n=1 1 πn = und alle Zustände x Z 2 rekurrent sind. Die Übergangswahrscheinlichkeiten bilden eine Nullfolge, womit E x [t x ] =, x Z 2, und die Markov-Kette nullrekurrent ist. Sei d = 3. Den Graphen Z 3 kann man als Aneinanderreihung von Würfeln interpretieren. Mit Hilfe des Multinomialkoeffizienten lässt sich wiederum die 2n- Schritt Übergangswahrscheinlichkeit für die einfache symmetrische Irrfahrt kombinatorisch berechnen. Es gibt jeweils sechs Kanten, die aus einem Knoten heraus führen, daher ist die Wahrscheinlichkeit ausgewählt zu werden für jede Richtung 1 /6. Auch hier ist analog zur Irrfahrt ohne Schleifen eine 19

20 Rückkehr nur nach einer geraden Schrittanzahl möglich. Für die 2n-Schritt Übergangswahrscheinlichkeit gilt p (2n) (0, 0) = = ( ) (2n) 1 6 a,b,c 0 ( ) 2n ( 1 2n 2 n a+b+c=n ) ( 2n ) a, a, b, b, c, c a,b,c 0 a+b+c=n (( n a, b, c ) ( ) n ) 2 1. (9) 3 Die Wahrscheinlichkeitsverteilung des Multinomialkoeffizienten ist ( ) ( ) n ( n 1 1 = a, b, c ) n = 1 und 3 a+b+c=n Daraus folgt, dass ( ) ( ) n n a, b, c m, m, m a, b, c. ( ) 2n ( )( ) ( ) 1 2n n 1 (9) 2 n m, m, m 3 für eine geeignete Konstante c größer null. Schließlich ist G(0, 0) n c n 3 <, c 1 n 3, konvergent, was auf Transienz für die einfache symmetrische Irrfahrt auf Z 3 deutet. Definition 11. Für einen ungerichteten Graphen G = (V, E) heißt G = (Ṽ, Ẽ) Teilgraph von G wenn Ṽ V und Ẽ E ist. Da Z 3 ein Teilgraph für jedes höherdimensionale Gitter ist, sind auch überall dort alle Knoten aus Z d mit d 3 transient. Verläuft sich die einfache symmetrische Irrfahrt bereits auf Z 3 in die sogenannten unendlichen Weiten, so tut sie dies erst recht in größeren Räumen. 20

21 3.2 Ausblick Im Zuge der Analyse von Markov-Ketten und Irrfahrten stößt man neben gewonnenen Erkenntnissen immer wieder auf neue, allgemeinere Fragen. Zum Beispiel drängt sich nach Betrachtung des Satzes von Polya (3) auf Seite 18 die Frage nach dem allgemeinen Zusammenhang zwischen der Struktur eines Graphen X und der Asymptotik von p (n) (x, x) mit x aus X, auf. Bis heute wird an derartigen Fragestellungen gearbeitet und geforscht [2] R.E. Burkard. Einen Ansatz für die Beantwortung solch grundlegender Fragen bieten isoperimetrische Ungleichungen. Sie vergleichen das Volumen von einem Körper im d-dimensionalen Raum mit seiner Oberfläche. Dafür müssen diese Begriffe hier erst eingeführt werden. Definition 12. Für eine Menge A von Knoten eines Graphen sei Vol(A) := x A deg(x) das Volumen von A und A sei ihr Rand, also die Menge aller Kanten, die aus A hinaus führen. Für A bezeichnet die Oberfläche von A. Area(A) := (A) Theorem 4. Für eine natürliche Zahl d erfüllt ein Graph X eine d-dimensionale isoperimetrische Ungleichung (IS d ), wenn es eine positive Konstante c gibt, sodass für jede endliche Teilmenge A von X folgende Ungleichung erfüllt ist. Area( A) c Vol(A) 1 1 d Für d = ist sogar von einer starken isoperimetrischen Ungleichung (IS) die Rede. Oberfläche und Volumen entsprechen hier der gleichen Größenordnung. Lemma 2. Das ganzzahlige Gitter Z d erfüllt (IS d ) jedoch nicht (IS d+k ) für beliebiges k N. Theorem 5. Erfüllt der Graph X die Ungleichung (IS d ), so gilt für alle x, y aus X p (n) 1 (x, y) c deg(y). n d 21

22 Damit ist ein Zusammenhang zwischen der Struktur eines Graphen und der Asymptotik der einzelnen Übergangswahrscheinlichkeiten gegeben, was die Frage in der Einleitung des Kapitels beantwortet. Auch bei der Untersuchung von Irrfahrten auf Rekurrenz lassen sich mit Hilfe von isoperimetrischen Ungleichungen Antworten finden. Theorem 6. X erfüllt (IS) p < 1: x X : p (n) (x, x) p n Mit Worten ausgedrückt muss jeder Graph, der die starke isoperimetrische Ungleichung erfüllt auch transient sein. Denn für alle x aus X gilt p (n) (x, x) 1 k n <. Damit ist die erwartete Anzahl der Rückkehrten in denselben Knoten endlich, was Transienz für alle Knoten des Graphen X impliziert. 22

23 Literatur [1] W. Woess (2009). Denuamerable Markov Chains (Generating Functions, Boundary Theorie, Ramdom Walks on Trees). European Mathematical Society [2] Rainer E. Burkard, Wolfgang Maass, Peter Weibel (Hg.) (2000). Zur Kunst des formalen Denkens. Passagen Verlag Wien. [3] A. Depperschmidt(2011). Markovketten. Universität Freiburg. Verfügbar unter: 23

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

16.3 Rekurrente und transiente Zustände

16.3 Rekurrente und transiente Zustände 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht

Mehr

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij. 8 Markov-Ketten 8.1 Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.

Mehr

Seminar über Markovketten

Seminar über Markovketten Universität Siegen Fachbereich Mathematik Seminar über Markovketten Sommersemester 003 Dozent Dr. Edgar Kaufmann Seminarteilnehmer Tobias Kegel Alexander Luke Uwe Nowak Übergangswahrscheinlichkeiten höherer

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag 20.05.20 Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis

Mehr

3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur

3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur 3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur Ein Zustand j ist erreichbar von i (i j), falls P i (X t = j für ein t 0) > 0. i j, wenn i erreichbar von j und j erreichbar von i ist. Die

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

DisMod-Repetitorium Tag 3

DisMod-Repetitorium Tag 3 DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität

Mehr

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1 Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

Markovketten. Vorlesungsskript. Universität Freiburg. Andrej Depperschmidt. Sommersemester 2016

Markovketten. Vorlesungsskript. Universität Freiburg. Andrej Depperschmidt. Sommersemester 2016 Markovketten Andrej Depperschmidt Vorlesungsskript Universität Freiburg Sommersemester 2016 Version: 20. Juni 2016 1 Einleitung Markovprozesse ist eine für viele Anwendungen wichtige Klasse von stochastischen

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013

Mehr

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle). 77 Markowketten 77 Motivation Der Zustand eines Systems zur Zeit n N werde durch eine Zufallsvariable X n beschrieben und soll nur von X n abhängen (nicht jedoch von früheren Zuständen X n, X n 3, ) Wir

Mehr

Kapitel 12: Markov-Ketten

Kapitel 12: Markov-Ketten Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 21.01.2016 Kapitel 12: Markov-Ketten Ab jetzt betrachten wir stochastische Prozesse (X n ) n N0 mit 1. diskreter Zeit N 0 = {0,1,2,...},

Mehr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,

Mehr

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 2 Melanie Kaspar, Prof. Dr. B. Grabowski 3 Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung

Mehr

Thema: Totalvariationabstand, Kopplung und Mischzeiten

Thema: Totalvariationabstand, Kopplung und Mischzeiten Technische Universität Berlin Thema: Totalvariationabstand, Kopplung und Mischzeiten Ausarbeitung zum Seminar Moderne Anwendung von Markovketten Name: Nina Kamswich Matrikelnummer: 33677 Fachbereich: Mathematik

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

Aufgabenblatt 5: Abgabe am vor der Vorlesung

Aufgabenblatt 5: Abgabe am vor der Vorlesung Aufgabenblatt 5: Abgabe am 15.10.09 vor der Vorlesung Aufgabe 17. In Beispiel 2.24 wurde die abelsche Gruppe (Z/kZ, ) eingeführt und in Definition 2.33 um die Verknüpfung erweitert (in Beispiel 2.25 und

Mehr

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes Markov-Prozesse Franziskus Diwo Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes 8.0.20 Gliederung Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-,

Mehr

Einführung in Markoff-Ketten

Einführung in Markoff-Ketten Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die

Mehr

1 A dp = P(A B). (1.3)

1 A dp = P(A B). (1.3) Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare

Mehr

10 Markow-Ketten. Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen

10 Markow-Ketten. Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen 10 Markow-Ketten Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen 10.1 Lineare Differenzengleichungen Unter einer homogenen linearen Differenzengleichung der Ordnung r verstehen wir eine

Mehr

BACHELORARBEIT. Markov-Ketten und ihre Greensche Funktion. Jasmin Riegler. Wien, Jänner 2013

BACHELORARBEIT. Markov-Ketten und ihre Greensche Funktion. Jasmin Riegler. Wien, Jänner 2013 BACHELORARBEIT Markov-Ketten und ihre Greensche Funktion Jasmin Riegler Wien, Jänner 203 Studienkennzahl: A 033 62 Studienrichtung: Mathematik Betreuer: Privatdoz. Dr. Mag. Bernhard Krön Inhaltsverzeichnis

Mehr

Endliche Markov-Ketten

Endliche Markov-Ketten Endliche Markov-Ketten Michael Krühler 24. Oktober 2013 Inhaltsverzeichnis 1 Einführung 2 1.1 Mathematische Einführung......................... 2 1.2 Interpretation................................. 3 2

Mehr

Graphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008

Graphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008 Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 3. Januar 008 1 / 45 / 45 Gliederung man könnte vermuten, dass ein Graph mit großer chromatischer Zahl einen dichten Teilgraphen enthalten

Mehr

Übungen p-adische Zahlen

Übungen p-adische Zahlen Blatt 1 Aufgabe 1. Berechnen Sie die ersten fünf Ziffern a 0,..., a 4 der ganzen p- adischen Zahl 1 + p + p 2 = a i p i Z p, p 1 i 0 für die Primzahlen p = 2, 3, 5. Aufgabe 2. Sei a = i 0 a ip i Z p eine

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}

Mehr

Topologische Grundbegriffe II. Inhaltsverzeichnis

Topologische Grundbegriffe II. Inhaltsverzeichnis Vortrag zum Seminar zur Analysis, 03.05.2010 Dennis Joswig, Florian Goy Aufbauend auf den Resultaten des Vortrages Topologische Grundbegriffe I untersuchen wir weitere topologische Eigenschaften von metrischen

Mehr

ANALYSIS I FÜR TPH WS 2018/19 3. Übung Übersicht

ANALYSIS I FÜR TPH WS 2018/19 3. Übung Übersicht ANALYSIS I FÜR TPH WS 208/9 3. Übung Übersicht Aufgaben zu Kapitel 5 und 6 Aufgabe : Konvergenz von Reihen (i) Aufgabe 2: Konvergenz von Reihen (ii) Aufgabe 3: ( ) Konvergenz von Reihen (iii) Aufgabe 4:

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

Probeklausuraufgaben GuDS

Probeklausuraufgaben GuDS TU Ilmenau WS 2014/15 Institut für Mathematik Probeklausuraufgaben GuDS Achtung: Die Auswahl der Aufgaben ist nicht repräsentativ für die tatsächlichen Klausuraufgaben, sondern sollte lediglich als Übungsmöglichkeit

Mehr

4 Funktionenfolgen und normierte Räume

4 Funktionenfolgen und normierte Räume $Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei

Mehr

Stochastische Prozesse Stoffzusammenfassung

Stochastische Prozesse Stoffzusammenfassung Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 7. August 2018 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

Bsp. 120 Ein-Prozessorsystem mit mehreren E/A-Einheiten.

Bsp. 120 Ein-Prozessorsystem mit mehreren E/A-Einheiten. Bsp. 20 Ein-Prozessorsystem mit mehreren E/A-Einheiten. Ein Programm. das sich in der CPU befindet, geht mit Wkt. q i in die I/O-Einheit i über, oder endet (mit Wkt. q 0 ) und macht Platz für ein neues

Mehr

Mathematik I für Studierende der Informatik und Wirtschaftsinformatik (Diskrete Mathematik) im Wintersemester 2017/2018

Mathematik I für Studierende der Informatik und Wirtschaftsinformatik (Diskrete Mathematik) im Wintersemester 2017/2018 Mathematik I für Studierende der Informatik und Wirtschaftsinformatik (Diskrete Mathematik) im Wintersemester 2017/2018 23. November 2017 1/40 Satz 4.27 (Multinomialsatz) Seien r, n N 0. Dann gilt für

Mehr

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis Stochastische Prozesse: Grundlegende Begriffe bei zufälligen Prozessen In diesem Abschnitt beschäftigen wir uns mit den grundlegenden Begriffen und Definitionen von Zufallsexperimenten, also Prozessen,

Mehr

Mathematik für Anwender I

Mathematik für Anwender I Prof. Dr. H. Brenner Osnabrück WS 2011/2012 Mathematik für Anwender I Vorlesung 4 Injektive und surjektive Abbildungen Definition 4.1. Es seien L und M Mengen und es sei eine Abbildung. Dann heißt F F

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Brownsche Bewegung: Eine Einführung

Brownsche Bewegung: Eine Einführung Brownsche Bewegung: Eine Einführung Batu Güneysu Institut für Mathematik Humboldt-Universität zu Berlin Greifswald, 18.04.2018 Batu Güneysu Brownsche Bewegung: Eine Einführung 1 / 14 Wir fixieren m N und

Mehr

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage

Mehr

Johannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule, Berlin Friedrich-Schiller-Gymnasium, Königs Wusterhausen

Johannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule, Berlin Friedrich-Schiller-Gymnasium, Königs Wusterhausen Glückssträhnen...?! Teilnehmer: Aptin Haerian Max Irmscher Markus Johl Felix Montenegro Hoang Lam Nguyen Anne Christin Rettig Herder-Oberschule, Berlin Johannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule,

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Zusammenfassung Analysis 2

Zusammenfassung Analysis 2 Zusammenfassung Analysis 2 1.2 Metrische Räume Die Grundlage metrischer Räume bildet der Begriff des Abstandes (Metrik). Definition 1.1 Ein metrischer Raum ist ein Paar (X, d), bestehend aus einer Menge

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum

Mehr

Kapitel 5: Markovketten

Kapitel 5: Markovketten Kapitel 5: Markovketten Definition 5.1 Bezeichnungen Bsp. 5.1 Definition 5.2 Eine Fam. (X i ) i I von ZV en X i : Ω E auf (Ω, F, P) mit Werten im messb. Raum (E, E) heißt Stochastischer Prozess. E Zustandsraum

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Körper- und Galoistheorie

Körper- und Galoistheorie Prof. Dr. H. Brenner Osnabrück SS 2011 Körper- und Galoistheorie Vorlesung 8 Erzeugte Algebra und erzeugter Körper Satz 8.1. Sei K L eine Körpererweiterung und sei f L ein algebraisches Element. Dann ist

Mehr

Folgen und Reihen. Thomas Blasi

Folgen und Reihen. Thomas Blasi Folgen und Reihen Thomas Blasi 02.03.2009 Inhaltsverzeichnis Folgen und Grenzwerte 2. Definitionen und Bemerkungen............................. 2.2 Konvergenz und Beschränktheit.............................

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Ferienkurs Analysis 1

Ferienkurs Analysis 1 Skript Ferienkurs Analysis 1 Fabian Hafner und Thomas Baldauf TUM Wintersemester 2016/17 04.04.2017 Das Skript wurde teilweise übernommen vom Skript des Ferienkurses WS 2014, verfasst von Andreas Wörfel.

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Sachrechnen/Größen WS 14/15-

Sachrechnen/Größen WS 14/15- Kapitel Daten & Wahrscheinlichkeit 3.1 Kombinatorische Grundlagen 3.2 Kombinatorik & Wahrscheinlichkeit in der Grundschule 3.3 Daten Darstellen 3.1 Kombinatorische Grundlagen Verschiedene Bereiche der

Mehr

Analysis I. Guofang Wang Universität Freiburg

Analysis I. Guofang Wang Universität Freiburg Universität Freiburg 8.11.2016 Kapital 2. Konvergenz 1. Grenzwerte von Folgen Definition 1.1 (Folge) Eine Folge reeller Zahlen ist eine Abbildung N R, n a n. a n heißt das n-te Glied der Folge, die Folge

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Musterlösung. 1 Relationen. 2 Abbildungen. TUM Ferienkurs Lineare Algebra 1 WiSe 08/09 Dipl.-Math. Konrad Waldherr

Musterlösung. 1 Relationen. 2 Abbildungen. TUM Ferienkurs Lineare Algebra 1 WiSe 08/09 Dipl.-Math. Konrad Waldherr TUM Ferienkurs Lineare Algebra WiSe 8/9 Dipl.-Math. Konrad Waldherr Musterlösung Relationen Aufgabe Auf R sei die Relation σ gegeben durch (a, b)σ(c, d) : a + b c + d. Ist σ reflexiv, symmetrisch, transitiv,

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 22 Algebraische Körpererweiterung Satz 1. Sei K L eine Körpererweiterung und sei f L ein Element. Dann sind folgende Aussagen

Mehr

1.1 Vorbemerkung: Konvergenz von Reihen. g = lim. n=0. n=0 a n sei konvergent und schreibt. a n = g. (2) n=0

1.1 Vorbemerkung: Konvergenz von Reihen. g = lim. n=0. n=0 a n sei konvergent und schreibt. a n = g. (2) n=0 1 Taylor-Entwicklung 1.1 Vorbemerkung: Konvergenz von Reihen Gegeben sei eine unendliche Folge a 0,a 1,a,... reeller Zahlen a n R. Hat der Grenzwert g = lim k a n (1) einen endlichen Wert g R, so sagt

Mehr

DynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten

DynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten DynaTraffic Modelle und mathematische Prognosen Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten Worum geht es? Modelle von Verkehrssituationen Graphen: Kanten, Knoten Matrixdarstellung

Mehr

3. Prozesse mit kontinuierlicher Zeit

3. Prozesse mit kontinuierlicher Zeit 3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess

Mehr

7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X].

7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X]. 7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := gilt G X(1) = Pr[X = k] s k = E[s X ], k=0 k Pr[X = k] = E[X]. k=1 DWT 7.1 Einführung 182/476 Beispiel 73 Sei X binomialverteilt

Mehr

Markov-Ketten 1. Definition 2.1

Markov-Ketten 1. Definition 2.1 Marov-Ketten Definition 2. Sei P eine -Matrix mit Elementen {P i,j : i, j,...,}. Ein Zufallsprozess (X 0, X,...) mit endlichem Zustandsraum S{s,...,s } heißt homogene Marov-Kette mit Übergangsmatrix P,

Mehr

Stationäre Maße und Zeitmittel

Stationäre Maße und Zeitmittel Stationäre Maße und Zeitmittel Clara Strohm SS 2003 Seminar Wahrscheinlichkeitstheorie Wir untersuchen im folgenden das Langzeitverhalten in diesem Fall gleichmäßige Konvergenz im Césaro-Mittel diskreter,

Mehr

Elliptische Funktionen

Elliptische Funktionen Elliptische Funktionen Jeff Schomer Universität Freiburg (Schweiz) 27.09.2007 Einleitung In diesem Seminar werden wir über doppelt periodische und elliptische Funktionen sprechen. Nachdem wir grundlegende

Mehr

Die Abbildung zeigt die Kette aus dem "

Die Abbildung zeigt die Kette aus dem ½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;

Mehr

Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation. Propp-Wilson-Algorithmus

Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation. Propp-Wilson-Algorithmus Technische Universität Berlin Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation Propp-Wilson-Algorithmus Lisa Brust Matrikelnummer: 330793 Master Mathematik 30. Juni 2016

Mehr

Konvergenz einer Folge. 1-E1 Ma 1 Lubov Vassilevskaya

Konvergenz einer Folge. 1-E1 Ma 1 Lubov Vassilevskaya Konvergenz einer Folge 1-E1 Ma 1 Lubov Vassilevskaya Konvergenz einer Folge: Inhalt Drei Verhaltensmuster von Folgen. Beispiele 1 ) = 1 n, = n n +1, 2 ) = ( 1)n n +1 n und ihre graphischen Darstellungen.,

Mehr

Optimales Routing. Paul Kunze

Optimales Routing. Paul Kunze Optimales Routing Paul Kunze 10.07.2015 Grundlagen Grundlagen endliche Menge an Punkten Φ = {x i } aus R 2 hier: gebildet durch Poisson-Punktprozess A = A D : Route zum Ziel D Φ. Abbildung auf einem Graphen

Mehr

Folgen und Reihen. 1 Konvergenz

Folgen und Reihen. 1 Konvergenz Folgen und Reihen Man betrachte viele Zahlen hintereinander geschrieben. Solche Folgen von Zahlen können durch nummeriert werden. Es entsteht eine Zuordnung der natürlichen Zahlen zu den Gliedern der Folge.

Mehr

Ausarbeitung. Seminar: Stochastische Modelle in Naturwissenschaft und Technik. Thema: Markowsche Ketten. Humboldt-Universität zu Berlin

Ausarbeitung. Seminar: Stochastische Modelle in Naturwissenschaft und Technik. Thema: Markowsche Ketten. Humboldt-Universität zu Berlin Ausarbeitung Seminar: Stochastische Modelle in Naturwissenschaft und Technik Thema: Markowsche Ketten Humboldt-Universität zu Berlin Hermann Schwarz Inhaltsverzeichnis 1 1 1.1 Motivation.............................

Mehr

Prüfungsfragen zur Vorlesung Algebra und Diskrete Mathematik. Sommersemester 2018

Prüfungsfragen zur Vorlesung Algebra und Diskrete Mathematik. Sommersemester 2018 Prüfungsfragen zur Vorlesung Algebra und Diskrete Mathematik Sommersemester 2018 Erläutern Sie die Sätze über die Division mit Rest für ganze Zahlen und für Polynome (mit Koeffizienten in einem Körper).

Mehr

Perkolation Christina Sander

Perkolation Christina Sander Perkolation Christina Sander 28.6.2010 Seite 2 Perkolation 28.6.2010 Christina Sander Inhalt Motivation Definitionen Kritischer Wert Boolsches Modell Anhang Seite 3 Perkolation 28.6.2010 Christina Sander

Mehr

LANGZEITVERHALTEN VON MARKOW-KETTEN

LANGZEITVERHALTEN VON MARKOW-KETTEN LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte

Mehr

Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik. Weihnachtsblatt

Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik. Weihnachtsblatt Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik Prof. Dr. A. Taraz, Dipl-Math. A. Würfl, Dipl-Math. S. König Weihnachtsblatt Aufgabe W.1 Untersuchen Sie nachstehenden

Mehr

Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen

Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen Proseminar Lineare Algebra SS10 Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen Simon Strahlegger Heinrich-Heine-Universität Betreuung: Prof. Dr. Oleg Bogopolski Inhaltsverzeichnis:

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Methoden der Statistik Markov Chain Monte Carlo Methoden

Methoden der Statistik Markov Chain Monte Carlo Methoden Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Vorstellung der Kopplung bei Markovketten

Vorstellung der Kopplung bei Markovketten Vorstellung der Kopplung bei Markovketten Leonie Weinhold 13. Mai 2011 1 Einleitung In der Wahrscheinlichkeitstheorie und ihren Anwendungen ist die Coupling- Methode ein wichtiges Instrument, um z.b. Aussagen

Mehr

2 Martingale in stetiger Zeit

2 Martingale in stetiger Zeit 2 Martingale in stetiger Zeit Ziel dieses Abschnitts ist es die wichtigsten Resultate für Martingale aus diskreter Zeit in stetige Zeit zu übertragen. Wie zu erwarten ist treten in stetiger Zeit einige

Mehr

Hausdorff-Maß und Hausdorff-Dimension. Jens Krüger

Hausdorff-Maß und Hausdorff-Dimension. Jens Krüger Hausdorff-Maß und Hausdorff-Dimension Jens Krüger Inhaltsverzeichnis 1 Einleitung 2 2 Grundlagen aus der Maßtheorie 3 3 Die Konstruktion des Hausdorff-Maßes 4 4 Eigenschaften des Hausdorff-Maßes und Hausdorff-Dimension

Mehr

Mathematik I Herbstsemester 2018 Kapitel 2: Stetigkeit

Mathematik I Herbstsemester 2018 Kapitel 2: Stetigkeit Mathematik I Herbstsemester 2018 Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/ farkas 1 / 33 2. Stetigkeit Reelle Zahlenfolgen Grenzwert einer Folge Grenzwert einer Funktion Stetigkeit einer Funktion

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 25 Überblick Überblick Metropolis-Algorithmus

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Kapitel 5 Reihen 196

Kapitel 5 Reihen 196 Kapitel 5 Reihen 96 Kapitel 5. Definition und Beispiele 97 Das Material dieses Kapitels können Sie nachlesen in: MICHAEL SPIVAK, Calculus, Kapitel 22 DIRK HACHENBERGER, Mathematik für Informatiker, Kapitel

Mehr

Brüche, Polynome, Terme

Brüche, Polynome, Terme KAPITEL 1 Brüche, Polynome, Terme 1.1 Zahlen............................. 1 1. Lineare Gleichung....................... 3 1.3 Quadratische Gleichung................... 6 1.4 Polynomdivision........................

Mehr

7. Übungsblatt zur Mathematik II für Inf, WInf

7. Übungsblatt zur Mathematik II für Inf, WInf Fachbereich Mathematik Prof. Dr. Streicher Dr. Sergiy Nesenenko Pavol Safarik SS 2010 27.-31.05.10 7. Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G24 (Grundlegende Definitionen) Betrachten

Mehr

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Fünf-Farben-Satz. Seminar aus reiner Mathematik, WS 13/14. Schweighofer Lukas, November Seite 1

Fünf-Farben-Satz. Seminar aus reiner Mathematik, WS 13/14. Schweighofer Lukas, November Seite 1 Der Fünf- Farben-Satz Seminar aus reiner Mathematik, WS 13/14 Schweighofer Lukas, November 2013 Seite 1 Inhaltsverzeichnis Vorwort...3 Graphentheoretische Grundlagen...4 Satz 2 (Eulerscher Polyedersatz)...7

Mehr