Die Kopplung von Markovketten und die Irrfahrt auf dem Torus

Größe: px
Ab Seite anzeigen:

Download "Die Kopplung von Markovketten und die Irrfahrt auf dem Torus"

Transkript

1 Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis werden wir vorbereitend die Irrfahrt auf dem n-kreis betrachen und darauf folgend die Irrfahrt auf dem Torus als wesentliches Beispiel heranziehen, in welchem wir versuchen werden eine obere Schranke für die Mischzeit auf diesem zu finden. Als maßgebliche Grundlage dieser Ausarbeitung ist [LPW09] Kapitel 5 zu nennen. Kopplung von Markovketten Die Kopplung zweier Wahrscheinlichkeitsverteilungen µ und ν haben wir bereits kennengelernt, sie wurde definiert als ein Paar von Zufallsvariablen X und Y, die auf dem gleichen Wahrscheinlichkeitsraum definiert sind, sodass µ die Randverteilung von X und ν die Randverteilung von Y ist. Wir wollen nun einen Schritt weiter gehen und Markovketten koppeln, dazu betrachten wir zunächst ein einfaches Beispiel zur Einführung. Beispiel.. Eine einfache Irrfahrt auf einem Pfad mit Knotenmenge {0,,...,n} ist eine Markovkette, die sich bei jedem Schritt mit gleicher Wahrscheinlichkeit entweder um eins nach oben oder um eins nach unten bewegt. Versucht die Irrfahrt einen der Endzustände 0 oder n zu überschreiten, so verweilt die Fahrt in diesem. Es ist auf einen Blick klar, dass für alle x, y {0,,.., n} mit x y immer P t (x, n) P t (y, n) gilt. Vereinfacht sagt dies, dass die Wahrscheinlichkeit, sich nach t Schritten auf dem Spitzenwert zu befinden nicht verringert, wenn man für den Startzustand einen höheren Wert wählt. Dies wollen wir nun mathematisch belegen, dazu sei, 2,... eine Folge von u.i.v. {, -}-wertigen Zufallsvariabeln mit Erwartungswert 0, sodass i mit i {0,,...,n} die Werte bzw. - mit gleicher Wahrscheinlichkeit annimmt. Weiter seien (X t ) mit Startwert x und (Y t ) mit Startwert y zwei auf {0,,...,n} definierte Irrfahrten. Es bezeichne P t (x, ) die Verteilung von X t und P t (y, ) die Verteilung von Y t, welche wir koppeln wollen. Dabei bewegen wir beide Ketten wenn möglich um einen Wert nach oben,

2 falls t = +, und um einen Wert nach unten, falls t = ist. Auf diese Weise bewegen wir die beiden Ketten im Gleichschritt, was zur Folge hat, dass sich die Ketten, wenn sie sich einmal getroffen haben, zusammen weiterbewegen. Ein Aufeinandertreffen ist dabei nur an den Endzuständen, d.h. bei 0 oder n, möglich. Es ist also offensichtlich, dass X t Y t gilt, wenn x y ist. Das bedeutet insbesondere aber, dass X t = n nicht gelten kann, ohne dass auch Y t = n gilt. Mit dieser Überlegung erhalten wir schließlich, dass wirklich gilt. P t (x, n) = P{X t = n} P{Y t = n} = P t (y, n) Anhand dieses Beispieles motivieren wir nun die Definition der Kopplung zweier Markovketten: Definition.2. Ein Prozess (X t, Y t ) t=0 heißt Kopplung zweier Markovketten mit Übergangsmatrix P, falls (X t ) und (Y t ) zwei auf dem selben Wahrscheinlichkeitsraum definierte Markovketten mit Übergangsmatrix P sind. Es ist zu beachten, dass die Markovketten dabei verschiedene Startverteilungen haben können. An dieser Stelle sei bemerkt, dass man jede Kopplung von Markovketten mit Übergangsmatrix P so modifizieren kann, dass die beiden Ketten, nachdem sie sich zum ersten Mal gleichzeitig auf einer Position befunden haben, dauerhaft simultan bewegen. Etwas präziser formuliert: X s = Y s X t = Y t t s. (.) Um eine Kopplung zu konstruieren, die dem genügt, können wir die Ketten nach der originalen Kopplung laufen lassen, bis sie sich treffen, danach lassen wir sie gemeinsam weiterlaufen. Notation: Für den Fall, dass (X t ) und (Y t ) gekoppelte Markovketten mit X 0 = x und Y 0 = y sind, schreiben wir oft P x,y für die Wahrscheinlichkeit auf dem Raum, auf dem (X t ) und (Y t ) beide definiert sind. 2

3 2 Beschränkung des Totalvariationsabstandes Es seien (X t ) und (Y t ) weiterhin Markovketten mit irreduzibler Übergangsmatrix P auf dem Zustandsraum Ω und zugehöriger stationärer Verteilung π. Wir wollen nun den Totalvariationsabstand der Verteilungen P t (x, ) und P t (y, ) betrachten und im folgenden Theorem eine obere Grenze für diesen Abstand finden und somit ein Schlüsselwerkzeug für dieses Kapitel liefern. Theorem 2.. Es sei {(X t, Y t )} eine Kopplung der beiden Markovketten (X t ) und (Y t ) mit X 0 = x und Y 0 = y, die (.) genügt. Dann definieren wir τ couple als die erste Zeit, bei der sich die beiden Markovketten (X t ) und (Y t ) treffen, also: τ couple := min{t : X t = Y t }. (2.) Dann gilt: P t (x, ) P t (y, ) T V P x,y {τ couple > t}. (2.2) Beweis. Sei t N 0 fest, aber beliebig gewählt. Dann ist (X t, Y t ) eine Kopplung von P t (x, ) und P t (y, ), denn es gilt P t (x, z) = P x,y {X t = z} und P t (y, z) = P x,y {Y t = z}. Nach Proposition.7 [LPW09] gilt: P t (x, ) P t (y, ) T V = inf {P{X Y } : (X,Y) ist Kopplung von P t (x, )und P t (y, )}. (X,Y) Damit folgt sofort, dass P t (x, ) P t (y, ) T V P x,y {X t Y t } (2.3) ist, wobei nach (.) P x,y {X t Y t } = P x,y {τ couple > t} gilt. Wir erhalten insgesamt somit (2.2), d.h. P t (x, ) P t (y, ) T V P x,y {τ couple > t}, also das, was zu zeigen war. Mit Hilfe dieses Theorems können wir nun den maximalen Abstand der Verteilung P t (x, ) zur zugehörigen stationären Verteilung π nach oben beschränken: Korollar 2.2. Man nehme an, dass für jedes Paar von Zuständen x,y Ω eine Kopplung (X t, Y t ) mit X 0 = x und Y 0 = y existiert. Dann gilt: d(t) max x,y Ω P x,y{τ couple > t}. 3

4 Beweis. Folgt sofort aus der Verknüpfung von Lemma. [LPW09] mit Theorem Die Irrfahrt auf dem Torus Bevor wir uns der Irrfahrt auf dem Torus, einem der Hauptaugenmerke dieses Vortrages zuwenden, müssen wir ein wenig Vorarbeit leisten, indem wir uns die Irrfahrt auf dem Kreis anschauen. Beispiel 3.. (Die Irrfahrt auf dem Kreis) Wir betrachten den Zustandsraum Ω = Z n = {0,..., n }. Die Irrfahrt auf dem n-kreis ist nun eine Markovkette mit Übergangsmatrix 2, falls k j+ (mod n) P (j, k) = 2, falls k j- (mod n) 0, sonst. Der dieser Irrfahrt zugrunde liegende Graph hat die Knotenmenge {,...,n} und Kanten zwischen j und k genau dann, wenn j k± (mod n) gilt. Wie man leicht einsieht, ist diese Irrfahrt für gerades n periodisch. Um dieses Problem zu umgehen betrachten wir die zugehörige träge Irrfahrt. Dabei ist die träge Irrfahrt auf dem n-kreis eine Markovkette mit Übergangsmatrix, falls k j+ (mod n) P (j, k) =, falls k j- (mod n) 2, falls k j (mod n) 0, sonst. Theorem 3.2. Für die träge Irrfahrt auf dem n-kreis gilt t mix n 2. Beweis. Wir konstruieren eine Kopplung (X t, Y t ) zweier Markovketten (X t ) und (Y t ), die die träge Irrfahrt auf Z n durchführen. Dabei lassen wir (X t ) auf Position x und (Y t ) auf Position y starten. In dieser Kopplung werden wir die beiden Ketten getrennt voneinander bewegen, damit sie nicht übereinander springen können, wenn sie sich auf benachbarten Positionen befinden. Um dies zu bewerkstelligen werden wir bei jeder Bewegung eine faire Münze werfen, um zu entscheiden welche Kette bewegt werden soll. Wir wollen die Kette (X t ) einen Schritt bewegen, wenn die Münze Kopf zeigt und die

5 Kette (Y t ), wenn die Münze Zahl zeigt. Dabei setzen wir voraus, dass die Münzwürfe unabhängig voneinander sind. Nachdem wir auf diese Weise entschieden haben welche Kette bewegt wird, werfen wir die Münze ein weiteres Mal, um zu entscheiden in welche Richtung sich die ausgewählte Kette bewegen soll. Befinden sich die Ketten einmal zum selben Zeitpunkt auf der selben Position im n-kreis, dann bewegen sie sich fortan gemeinsam. Wir definieren nun D t als die im Uhrzeigersinn betrachtete Distanz zwischen X t und Y t. Dann ist D t eine Irrfahrt auf einem Pfad mit der Knotenmenge {0,,...,n}. Die Fahrt bewegt sich auf allen inneren Knoten mit gleicher Wahrscheinlichkeit um nach oben oder um nach unten. Die Zustände 0 oder n sind jeweils absorbierend, was bedeutet, dass die Fahrt, wenn sie einmal einen dieser beiden Zustände erreicht hat, für immer in ihm verbleibt. Damit stellt sich uns die Frage, wie lange es dauern wird, bis diese Irrfahrt einen der Zustände 0 oder n erreicht hat. Eine Antwort darauf gibt Proposition 2. [LPW09], dort wird gezeigt, dass E x,y (τ) = k(n k) ist, wobei k der im Uhrzeigersinn betrachtete Abstand zwischen den Startpositionen x und y ist und τ = min{t 0 : D t {0, n}}. Nun ist offensichtlich, dass τ = min{t 0 : X t = Y t } =: τ couple gilt. t t Mit Hilfe von Korollar 2.2. und der Markovungleichung erhalten wir also: d(t) max P x,y {τ > t} max E x,y(τ) n2 x,y Z n t t. Wie man leicht einsieht, ist die rechte Seite dieser Ungleichung genau dann gleich, wenn t = n2 ist und somit gilt t mix n 2. Mit den im vorherigen Theorem gesammelten Resultaten können wir uns nun der Irrfahrt auf dem Torus zuwenden. Beispiel 3.3. (Die Irrfahrt auf dem Torus) Wir betrachten zunächst den Graphen des d-dimensionalen Torus; dessen Knotenmenge ist das Kartesische- Produkt Z d n = Z n... Z }{{ n. Zwei Punkte x = (x },..., x d ) und y = (y,..., y d ) d mal aus der Knotenmenge sind dabei benachbart, wenn für ein j {,..., n} gilt, dass x i = y i i j und x j y j ± (mod n) ist, d.h. wenn sich die beiden Punkte in genau einer Koordinate um den Wert unterscheiden. Wie man sich leicht überlegt, ist die einfache Irrfahrt auf dem Graphen Z d n periodisch, wenn n gerade ist. Dieses Problem werden wir umgehen, indem wir die träge Irrfahrt auf Z d n betrachten. 5

6 Theorem 3.. Für die träge Irrfahrt auf dem d-dim. Torus Z d n gilt t mix (ɛ) c(d)n 2 log 2 (ɛ ), wobei c(d) eine von der Dimension d abhängige Konstante ist. Beweis. Wir konstruieren zunächst eine Kopplung für jedes Paar (x,y) von Startpositionen und beschränken den Erwartungswert der Kopplungszeit τ = τ couple, im Hinblick darauf Korollar 2.2. anwenden zu können. Es seien nun also (X t ) = (Xt,..., Xt d ) und (Y t ) = (Yt,..., Yt d ) träge Irrfahrten auf Z d n mit X 0 = x und Y 0 = y. Um diese zu koppeln, wählen wir zufällig und mit gleicher Wahrscheinlichkeit eine der d Koordinaten aus. Stimmen die beiden Irrfahrten in der ausgewählten Koordinate überein, so bewegen wir die beiden Fahrten simultan in dieser Koordinate jeweils mit Wahrscheinlichkeit um + bzw. - oder lassen sie mit Wahrscheinlichkeit 2 auf ihrer Position verweilen. Unterscheidet sich die Position in der ausgewählten Koordinate, so wählen wir durch einen fairen Münzwurf eine der beiden Ketten aus sich zu bewegen und lassen die andere währendessen fixiert. Durch einen weiteren fairen Münzwurf entscheiden wir dann über die Richtung, in die die ausgewählte Kette entsprechen mit + oder - bewegt werden soll. Sei nun τ i die erforderliche Zeit, bis die beiden Ketten in der Koordinate i übereinstimmen, und Dt i der im Uhrzeigersinn betrachtete Abstand zwischen Xt i und Yt i, zu den Zeiten betrachtet, wenn die Koordinate i gewählt worden ist. Dann verhält sich Dt i i {,..., d} genauso wie der Abstand D t aus dem vorherigentheorem 3.2. in der Kopplung der trägen Irrfahrt auf dem n-kreis Z n. Die erforderliche Zeit bis sich die beiden Ketten in Koordinate i auf der selben Position befinden, ist folglich, wenn wir zunächst die Wartezeit zwischen den Koordinaten außer Acht lassen kleiner als n2 Sei nun Zk i die Wartezeit zwischen den Bewegungen in Koordinate i, dann ist Zk i geometrisch( d ) verteilt, da Koordinate i bei jeder Bewegung mit Wahrscheinlichkeit d ausgewählt wird, außerdem sind die Zi k natürlich für alle i identisch verteilt. Daraus folgend erhalten wir für Zk i den Erwartungswert d. Damit können wir die erforderliche Zeit bis die beiden Ketten in Koordinate i übereinstimmen als τ i = τ (i) k= Zi k schreiben mit τ (i) τ, wobei τ aus Theorem 3.2. entnommen, die benötigte Zeit ist, bis D t die 0 oder n erreicht. Mit der Formel von Wald ( ) und der Schranke an die Mischzeit aus dem vorherigen Theorem 3.2. erhalten wir somit: E x,y (τ i ) = E x,y ( τ k=. Z i k ) ( ) = E x,y (τ) E x,y (Z i ) = d E x,y (τ) 3.2. dn2. Wir sind des Weiteren an der erwarteten Kopplungszeit der Irrfahrt auf Z d n interessiert, sie ist gegeben durch τ couple = max τ i, da die beiden gekoppelten i d 6

7 Ketten am Ende in jeder Koordinate übereinstimmen sollen. Wir betrachten also E x,y (τ couple ) = E x,y ( max i d τ i) E x,y ( d τ i ) = d E x,y (τ ) d2 n 2 und erhalten damit eine von der Startposition unabhängige Schranke. Mit Hilfe der Markovungleichung können wir nun zeigen, dass i= P x,y {τ couple > t} E x,y(τ couple ) t d2 n 2 t ist. Die rechte Seite der Ungleichung ist gleich, falls t = n2 d 2 ist und somit gilt t mix d 2 n 2. Nach (.36) [LPW09] gilt aber t mix (ɛ) (log 2 (ɛ )) t mix, sodass wir daraus sofort t mix (ɛ) d 2 n 2 (log 2 (ɛ )) erhalten. Literaturverzeichnis [LPW09] D.A. Levin, Y. Peres, and E. L. Wilmer. Markov chains and mixing times.american Mathematical Society, Providence, RI, With a chapter by James G. Propp and David B. Wilson. 7

Thema: Totalvariationabstand, Kopplung und Mischzeiten

Thema: Totalvariationabstand, Kopplung und Mischzeiten Technische Universität Berlin Thema: Totalvariationabstand, Kopplung und Mischzeiten Ausarbeitung zum Seminar Moderne Anwendung von Markovketten Name: Nina Kamswich Matrikelnummer: 33677 Fachbereich: Mathematik

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation. Propp-Wilson-Algorithmus

Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation. Propp-Wilson-Algorithmus Technische Universität Berlin Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation Propp-Wilson-Algorithmus Lisa Brust Matrikelnummer: 330793 Master Mathematik 30. Juni 2016

Mehr

Vorstellung der Kopplung bei Markovketten

Vorstellung der Kopplung bei Markovketten Vorstellung der Kopplung bei Markovketten Leonie Weinhold 13. Mai 2011 1 Einleitung In der Wahrscheinlichkeitstheorie und ihren Anwendungen ist die Coupling- Methode ein wichtiges Instrument, um z.b. Aussagen

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Markov-Ketten 1. Definition 2.1

Markov-Ketten 1. Definition 2.1 Marov-Ketten Definition 2. Sei P eine -Matrix mit Elementen {P i,j : i, j,...,}. Ein Zufallsprozess (X 0, X,...) mit endlichem Zustandsraum S{s,...,s } heißt homogene Marov-Kette mit Übergangsmatrix P,

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung

Mehr

Trennende Markov Ketten

Trennende Markov Ketten Trennende Markov Ketten (in Zusammenarbeit mit A. Martinsson) Timo Hirscher Chalmers Tekniska Högskola Seminarvortrag KIT 8. Mai 206 Übersicht Der Seminarvortrag ist wie folgt gegliedert: Einleitung Denitionen

Mehr

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

Einführung in Markoff-Ketten

Einführung in Markoff-Ketten Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die

Mehr

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1 Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 2011/2012

Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 2011/2012 Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 011/01 Sandra Uhlenbrock 03.11.011 Die folgende Ausarbeitung wird, basierend auf Branching Processes

Mehr

Exact Sampling: Der Propp-Wilson-Algorithmus

Exact Sampling: Der Propp-Wilson-Algorithmus Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München gerstel@in.tum.de Zusammenfassung Der Propp-Wilson-Algorithmus liefert

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

3. Prozesse mit kontinuierlicher Zeit

3. Prozesse mit kontinuierlicher Zeit 3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

Markov-Ketten Proseminar: Das virtuelle Labor Ariane Wietschke

Markov-Ketten Proseminar: Das virtuelle Labor Ariane Wietschke Markov-Ketten Proseminar: Das virtuelle Labor Ariane Wietschke 28.01.2004 28.01.04 Ariane Wietschke - Markov-Ketten 1 Übersicht 1. Herleitung der Definition 2. Komponenten von Markov-Ketten 3. Arten von

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij. 8 Markov-Ketten 8.1 Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.

Mehr

Einführung in die Störungstheorie

Einführung in die Störungstheorie Einführung in die Störungstheorie Steffen Vanselow und Lukas Weymann June 6, 23 Vorbereitung. Integrabilität Betrachten System mit n Freiheitsgraden und k n Erhaltungsgrössen. Die Freiheitsgrade werden

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische

Mehr

Multivariate Zufallsvariablen

Multivariate Zufallsvariablen Kapitel 7 Multivariate Zufallsvariablen 7.1 Diskrete Zufallsvariablen Bisher haben wir immer nur eine Zufallsvariable betrachtet. Bei vielen Anwendungen sind aber mehrere Zufallsvariablen von Interesse.

Mehr

16.3 Rekurrente und transiente Zustände

16.3 Rekurrente und transiente Zustände 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Sammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien

Sammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien Sammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien Prof. F. Merkl 23. Mai 2016 Zu Ihrer Information und als zusätzliches Übungsmaterial sind hier die Aufgaben

Mehr

Graphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008

Graphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008 Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 3. Januar 008 1 / 45 / 45 Gliederung man könnte vermuten, dass ein Graph mit großer chromatischer Zahl einen dichten Teilgraphen enthalten

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

2 Martingale in stetiger Zeit

2 Martingale in stetiger Zeit 2 Martingale in stetiger Zeit Ziel dieses Abschnitts ist es die wichtigsten Resultate für Martingale aus diskreter Zeit in stetige Zeit zu übertragen. Wie zu erwarten ist treten in stetiger Zeit einige

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht

Mehr

Ü b u n g s b l a t t 7

Ü b u n g s b l a t t 7 Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 21. 5. 2007 Ü b u n g s b l a t t 7 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,

Mehr

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

! # %& (! ) # +,.. # / #. + /

! # %& (! ) # +,.. # / #. + / ! # %& (! ) # +,.. # / #. + / Inhaltsverzeichnis Einführung 2 2 Die τ-topologie 2 3 Der Kullback-Leibler-Abstand 2 4 Empirische Maße 3 5 Der Satz von Sanov 3 6 Anmerkungen 3 7 Lemma 4 8 Beweis Satz von

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

DisMod-Repetitorium Tag 3

DisMod-Repetitorium Tag 3 DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Random Walks. Dumbiri Gbenoba Zusammenfassung

Random Walks. Dumbiri Gbenoba Zusammenfassung Random Walks Dumbiri Gbenoba 234 342 Zusammenfassung In einem Fluss sind n Steine in einem Kreis angeordnet. Auf einem der Steine sitz ein Frosch. Dieser Frosch springt mit der Wahrscheinlichkeit von 1

Mehr

7 Poisson-Punktprozesse

7 Poisson-Punktprozesse Poisson-Punktprozesse sind natürliche Modelle für zufällige Konfigurationen von Punkten im Raum Wie der Name sagt, spielt die Poisson-Verteilung eine entscheidende Rolle Wir werden also mit der Definition

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Stoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016

Stoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016 Stoppzeiten und Charakteristische Funktionen Tutorium Stochastische Prozesse 15. November 2016 Inhalte des heutigen Tutoriums Im heutigen Tutorium besprechen wir: (1) Eindeutigkeit von Maßen ohne schnittstabilen

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

Eine notwendige und hinreichende Bedingung für einen Graphen mit Durchmesser 5, um 2-Durchmesser-stabil zu sein

Eine notwendige und hinreichende Bedingung für einen Graphen mit Durchmesser 5, um 2-Durchmesser-stabil zu sein Eine notwendige und hinreichende Bedingung für einen Graphen mit Durchmesser 5, um 2-Durchmesser-stabil zu sein Christian Hettkamp 25. Januar 2010 1 Inhaltsverzeichnis 1 Einführung 2 Definitionen, Vorraussetzungen

Mehr

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 2 Melanie Kaspar, Prof. Dr. B. Grabowski 3 Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Optimales Routing. Paul Kunze

Optimales Routing. Paul Kunze Optimales Routing Paul Kunze 10.07.2015 Grundlagen Grundlagen endliche Menge an Punkten Φ = {x i } aus R 2 hier: gebildet durch Poisson-Punktprozess A = A D : Route zum Ziel D Φ. Abbildung auf einem Graphen

Mehr

(X Y )(a) = X (a) Y (a).

(X Y )(a) = X (a) Y (a). Aufgabe Teilaufgabe a) Seien X, Y zwei Zufallsvariablen, so definieren wir das Produkt dieser Zufallsvariablen X Y wie folgt: (X Y )(a) = X (a) Y (a). Teilaufgabe b) Gegenbeispiel: Betrachten wir uns folgenden

Mehr

Stochastik Aufgaben zum Üben: Teil 2

Stochastik Aufgaben zum Üben: Teil 2 Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2

Mehr

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

Hawkes Prozesse Grundlagen

Hawkes Prozesse Grundlagen Hawkes Prozesse Grundlagen Im Folgenden sei (Ω, F, F, P) eine stochastische Basis. Das heißt F = (F t ) t ist eine rechtsstetige Filtration mit F t F für alle t und P ein Wahrscheinlichkeitsmaß auf dem

Mehr

10 Schnell mischende Markov-Ketten

10 Schnell mischende Markov-Ketten 10 Schnell mischende Markov-Ketten Allgemeines zu schnell mischenden Markov-Ketten findet man zum Beispiel in dem Buch Introduction to Markov Chains von Behrends (2000). Außerdem haben wir von einem Teil

Mehr

KAPITEL 1. Martingale

KAPITEL 1. Martingale KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst

Mehr

Vorlesung 7b. Der Zentrale Grenzwertsatz

Vorlesung 7b. Der Zentrale Grenzwertsatz Vorlesung 7b Der Zentrale Grenzwertsatz 1 Zentraler Grenzwertsatz (Tschebyscheff) Die standardisierte Summe von unabhängigen, identisch verteilten R-wertigen Zufallsvariablen konvergiert in Verteilung

Mehr

Die Probabilistische Methode

Die Probabilistische Methode Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.

Mehr

Klausur zu,,einführung in die Wahrscheinlichkeitstheorie

Klausur zu,,einführung in die Wahrscheinlichkeitstheorie Institut für angewandte Mathematik Wintersemester 2009/10 Andreas Eberle, Matthias Erbar, Bernhard Hader Klausur zu,,einführung in die Wahrscheinlichkeitstheorie Bitte diese Felder in Druckschrift ausfüllen

Mehr

Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie. Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze

Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie. Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie - Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze Klaus Kuchler 0. Januar 03 Zentraler Grenzwertsatz. Grundlagen,

Mehr

Satz 61 (Chebyshev-Ungleichung)

Satz 61 (Chebyshev-Ungleichung) Die folgende Abschätzung ist nach Pavnuty Lvovich Chebyshev (1821 1894) benannt, der ebenfalls an der Staatl. Universität in St. Petersburg wirkte. Satz 61 (Chebyshev-Ungleichung) Sei X eine Zufallsvariable,

Mehr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/476 c Ernst W. Mayr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/476 c Ernst W. Mayr Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p

Mehr

Statistische Methoden

Statistische Methoden Statistische Methoden Dr. C.J. Luchsinger 2 Beweis CLT Literatur Kapitel 2: Krengel: 12 2.1 Einführung Wir repetieren aus WTS, Kapitel 5: Fragestellung: Was geschieht mit dem Ausdruck n k=1 X k nµ, (2.1)

Mehr

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen

Mehr

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen

Mehr

TU DORTMUND Sommersemester 2018

TU DORTMUND Sommersemester 2018 Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade

Mehr

Westfälische Wilhelms-Universität Münster. Fachbereich: Mathematik und Informatik. Planare Graphen

Westfälische Wilhelms-Universität Münster. Fachbereich: Mathematik und Informatik. Planare Graphen Westfälische Wilhelms-Universität Münster Fachbereich: Mathematik und Informatik Planare Graphen Kreuzungslemma und Charakterisierung planarer Graphen nach Kuratowski Andrea Vollmer Seminar: Graphentheorie

Mehr

2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1}

2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1} 1. Berechne für jeden Knoten i in BFS-Art eine Liste S i von von i aus erreichbaren Knoten, so dass (i) oder (ii) gilt: (i) S i < n 2 + 1 und Si enthält alle von i aus erreichbaren Knoten (ii) S i = n

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen. Bsp (3-maliges Werfen einer Münze) Menge der Elementarereignisse:

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen. Bsp (3-maliges Werfen einer Münze) Menge der Elementarereignisse: 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen Bsp. 1.19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz, zzw,zwz,wzz,zww,wzw,wwz,www}. Dabei gilt: Ω 2 3 8 N. Wir definieren

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Blind Search. Ferienakademie im Sarntal Kurs 1 Moderne Suchmethoden der Informatik: Trends und Potenzial. Sophia Koch. 7.

Blind Search. Ferienakademie im Sarntal Kurs 1 Moderne Suchmethoden der Informatik: Trends und Potenzial. Sophia Koch. 7. Blind Search Ferienakademie im Sarntal Kurs Moderne Suchmethoden der Informatik: Trends und Potenzial Sophia Koch 7. November 04 Zusammenfassung Die einfachste Herangehensweise an die Optimierung einer

Mehr

3 Konstruktion einer f.s. konvergente Folge

3 Konstruktion einer f.s. konvergente Folge 1 Einleitung Wir wollen uns mit stochastischen Gleichungen der Form R d = Q + C i R i (1.1 beschäftigen, wobei,q,(r i i 1,(C, C i i 1 stochastisch unabhängige nichtnegative Zufallsgrößen seien, (C, C i

Mehr

Zufallsvariablen: Die allgemeine Definition

Zufallsvariablen: Die allgemeine Definition KAPITEL 8 Zufallsvariablen: Die allgemeine Definition 8.1. Zufallsvariablen Bis zu diesem Zeitpunkt haben wir ausschließlich Zufallsvariablen mit endlich oder abzählbar vielen Werten (also diskrete Zufallsvariablen)

Mehr

10 Markow-Ketten. Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen

10 Markow-Ketten. Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen 10 Markow-Ketten Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen 10.1 Lineare Differenzengleichungen Unter einer homogenen linearen Differenzengleichung der Ordnung r verstehen wir eine

Mehr

Cauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit

Cauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit Vortrag zum Seminar zur Analysis, 10.05.2010 Michael Engeländer, Jonathan Fell Dieser Vortrag stellt als erstes einige Sätze zu Cauchy-Folgen auf allgemeinen metrischen Räumen vor. Speziell wird auch das

Mehr

Markov-Paritionen und geometrische Modelle von Attraktoren

Markov-Paritionen und geometrische Modelle von Attraktoren Markov-Paritionen und geometrische Modelle von Attraktoren Jan Christoph Kinne 15. Februar 2003 1 Was sind Markov-Partitionen? Hat man ein diskretes dynamisches System f : M M gegeben, so will man M in

Mehr

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +

Mehr

Diskrete Strukturen II

Diskrete Strukturen II SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a

Mehr

Beweis: Färbe jede Kante zufällig und unabhängig mit Ws 1 2. Ereignis A i : i-te Clique K (i), i = 1,..., ( n K (i)

Beweis: Färbe jede Kante zufällig und unabhängig mit Ws 1 2. Ereignis A i : i-te Clique K (i), i = 1,..., ( n K (i) Die Probabilistische Methode Beobachtung: Besitzt ein Ereignis Ws > 0, so muss es existieren! Notation: Sei K n der komplette Graph mit n Knoten und ( n 2) Kanten. Satz Falls 2 (k 2) 1 > ( n k), existiert

Mehr

Projektionen und Produkte von Fraktalen

Projektionen und Produkte von Fraktalen Hauptseminarvortrag 5. Dezember 2006 1 Index 2 6.3 Projektionen von s-mengen mit ganzzahliger Dimension 6.4 Projektionen beliebiger Mengen ganzzahliger Dimension 3 7.1 Einführung 7.3 Beispiele 7.4 Produktformeln(Fortsetzung)

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

Mathematik 2 für Bauingenieure

Mathematik 2 für Bauingenieure Mathematik 2 für Bauingenieure Name (bitte ausfüllen): Prüfung am 6.3.2015 Reinhard Winkler Matrikelnummer (bitte ausfüllen): Die mündliche Prüfung findet in der Woche von 16. bis 20.3.2015 statt. Wenn

Mehr

3 Gewöhnliche Differentialgleichungen 23.4.

3 Gewöhnliche Differentialgleichungen 23.4. 3 Gewöhnliche Differentialgleichungen 23.4. 3.1 Differentialgleichungen erster Ordnung 3.1.1 Fundamentalsätze Definition 3.1. Es sei Ω R d eine offene Menge und V : Ω R d eine Vektorfunktion. Eine Kurve

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

eine Folge in R, für die man auch hätte schreiben können, wenn wir alle richtig raten, was auf dem Pünktchen stehen sollte.

eine Folge in R, für die man auch hätte schreiben können, wenn wir alle richtig raten, was auf dem Pünktchen stehen sollte. Analysis, Woche 5 Folgen und Konvergenz A 5. Cauchy-Folgen und Konvergenz Eine Folge in R ist eine Abbildung von N nach R und wird meistens dargestellt durch {x n } n=0, {x n} n N oder {x 0, x, x 2,...

Mehr

Verzweigungszahl und kritische Perkolationswahrscheinlichkeit

Verzweigungszahl und kritische Perkolationswahrscheinlichkeit Seminar über Bäume, Netzwerke und Zufall Prof. Dr. Wakolbinger, Prof. Dr. Geiger Verzweigungszahl und kritische Perkolationswahrscheinlichkeit Vortrag Nr., Anja Prüfer, 29. Juni 2005 sei G ein abzählbarer

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Wissenswertes über den Metropolis-Algorithmus

Wissenswertes über den Metropolis-Algorithmus Wissenswertes über den Metropolis-Algorithmus Seminavortrag von Stefanie Schmutte Westfälische Wilhelms-Universität Münster Fachbereich Mathematik und Informatik Institut für mathematische Statistik Inhaltsverzeichnis

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Denition 57 Eine geometrisch verteilte Zufallsvariable X mit Parameter (Erfolgswahrscheinlichkeit) p 2 (0; 1] und q := 1 p hat die Dichte

Denition 57 Eine geometrisch verteilte Zufallsvariable X mit Parameter (Erfolgswahrscheinlichkeit) p 2 (0; 1] und q := 1 p hat die Dichte 5.3 Geometrische Verteilung Man betrachte ein Experiment, das so lange wiederholt wird, bis Erfolg eintritt. Gelingt ein einzelner Versuch mit Wahrscheinlichkeit p, so ist die Anzahl der Versuche bis zum

Mehr

(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist.

(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist. 8 Punktmengen Für die Menge M = { 1 n ; n N } ist 1 = max(m), denn 1 M und 1 n 1 für alle n N. Die Menge M besitzt aber kein Minimum, denn zu jeder Zahl x = 1 n M existiert ein y M mit y < x, etwa y =

Mehr