Trennende Markov Ketten
|
|
- Emilia Bruhn
- vor 7 Jahren
- Abrufe
Transkript
1 Trennende Markov Ketten (in Zusammenarbeit mit A. Martinsson) Timo Hirscher Chalmers Tekniska Högskola Seminarvortrag KIT 8. Mai 206
2 Übersicht Der Seminarvortrag ist wie folgt gegliedert: Einleitung Denitionen und Häggströms Beispiel Treue Koppelungen Koppelungsungleichung Die obere Schranke Schlieÿen der Lücke Ein weiteres Beispiel 2 ist die wahre Antwort Auf irreduzible basierte, reduzible Ketten Das Konzept der Separation Beweisskizze Übersicht Timo Hirscher - Trennende Markov Ketten 2/25
3 Trennende Markov Ketten Existenz Proposition (Häggström, 200) Es existiert eine zeitdiskrete Markov Kette mit endlichem Zustandsraum, so dass für zwei Zustände x und y folgendes gilt: Einerseits existiert eine Markovsche Koppelung zweier Versionen X = (X n ) n N0 und Y = (Y n ) n N0 der Kette, gestartet in X 0 = x bzw. Y 0 = y, mit der Eigenschaft, dass der Zeitpunkt des ersten Treens τ = inf{n 0; X n = Y n } mit W. endlich ist, andererseits lim n P n (x,.) P n (y,.) TV > 0, Einleitung Denitionen und Häggströms Beispiel Timo Hirscher - Trennende Markov Ketten 3/25
4 Häggströms Beispiel x p p p p p p y p p Für p 2 gilt P 2 (x,.) P 2 (y,.) TV > 0 2 2, 2 2 ] und für p [ existiert eine Koppelung mit der die beiden Versionen sich mit W. treen. Die Wahl p = 2 2 maximiert den Totalvariationsabstand, mit dem Wert Einleitung Denitionen und Häggströms Beispiel Timo Hirscher - Trennende Markov Ketten 4/25
5 Einleitung Denitionen Wir betrachten homogene Markov Ketten in diskreter Zeit mit endlichem Zustandsraum S. Mit X = (X n ) n N0 und Y = (Y n ) n N0 bezeichnen wir zwei Versionen der Kette, die in den Zuständen x bzw. y gestartet werden. Die Verteilung von X n wird mit P n (x,.) bezeichnet. Der Totalvariationsabstand zweier Wahrscheinlichkeitsmaÿe µ und ν auf S ist deniert durch µ ν TV := sup µ(a) ν(a). A S Einleitung Denitionen und Häggströms Beispiel Timo Hirscher - Trennende Markov Ketten 5/25
6 Einleitung Koppelungen Eine Koppelung von X und Y ist ein stochastischer Prozess ((X n, Y n )) n N0 auf S S, dessen zwei Koordinaten Versionen der Markov Kette darstellen, gestartet in x bzw. y. Eine Koppelung, die selbst eine Markov Kette ist, wird als Markovsche Koppelung bezeichnet. Eine Markovsche Koppelung von X und Y wird als treu bezeichnet, falls für beliebige n N 0 und x n, x n+, y n, y n+ S P ( X n+ = x n+ (X n, Y n ) = (x n, y n ) ) = P(X n+ = x n+ X n = x n ) = P (x n, x n+ ) und P ( Y n+ = y n+ (X n, Y n ) = (x n, y n ) ) = P (y n, y n+ ). Einleitung Koppelungen Timo Hirscher - Trennende Markov Ketten 6/25
7 Koppelungsungleichung Für eine Koppelung von X und Y bezeichnet τ := inf{n 0; X n = Y n } den Zeitpunkt des ersten Treens der beiden Versionen. Handelt es sich um eine treue Koppelung gilt damit P n (x,.) P n (y,.) TV P(τ > n) = P(τ n). Einleitung Koppelungen Timo Hirscher - Trennende Markov Ketten 7/25
8 Die obere Schranke Obere Schranke Timo Hirscher - Trennende Markov Ketten 8/25
9 mehr als 2 ist nicht drin Theorem Seien X = (X n ) n N0, Y = (Y n ) n N0 deniert. Dann gilt für alle n N 0 : und τ gegeben wie eben P n (x,.) P n (y,.) TV 2 P(τ n). Obere Schranke Timo Hirscher - Trennende Markov Ketten 9/25
10 Beweis Für festes n N 0 und A S denieren wir für 0 t n die beiden Martingale M t := P (X n A X t ) = P n t (X t, A) N t := P (Y n A Y t ) = P n t (Y t, A). und Desweiteren bezeichnen B x und B y die Ereignisse M t 2 bzw. N t < 2 für alle 0 t n. Da M t = N t von X t = Y t impliziert wird, folgt hiermit {τ n} B c x B c y. Als nächstes denieren wir τ x := inf{0 t n; M t < 2 }, τ y := inf{0 t n; N t 2 }, wobei das Inmum per Denition den Wert n annehmen soll, falls es über die leere Menge gebildet wird. Beachte, dass es sich bei τ x und τ y um Stoppzeiten für M t bzw. N t handelt. Obere Schranke Timo Hirscher - Trennende Markov Ketten 0/25
11 Beweis (fortgesetzt) Da (M t ) n t=0 und (N t) n t=0 dem OST beschränkte Martingale sind, folgt aus P n (x, A) = E M 0 = E M τx 2 P(Bc x) + P(B x ) = 2 P(Bc x) sowie P n (y, A) = E N 0 = E N τy 2 P(Bc y). Eine Kombination beider Ungleichungen ergibt P n (x, A) P n (y, A) ( 2 P(B c x ) + P(By) c ) 2 P(τ n). Maximiert man den Ausdruck auf der linken Seite über alle A S folgt schlieÿlich P n (x, ) P n (y, ) T V 2 P(τ n). Obere Schranke Timo Hirscher - Trennende Markov Ketten /25
12 Schlieÿen der Lücke Schlieÿen der Lücke Timo Hirscher - Trennende Markov Ketten 2/25
13 Verbessertes Beispiel x p p y 0. p p p p p p p p p p m p >. p 2 Auf {0,..., m} stimmen die Verteilungen P m+2 (x,.) und P m+2 (y,.) mit NB(, p) bzw. NB(2, p) überein. Wählt man p = m m+ ergibt sich ein Totalvariationsabstand von p p. Dieser Wert konvergiert gegen e für m. Schlieÿen der Lücke Timo Hirscher - Trennende Markov Ketten 3/25
14 2 ist die wahre Antwort Theorem Das Supremum von lim n P n (x,.) P n (y,.) TV über alle trennenden Markov Ketten sowie Zustände x und y hat den Wert 2. Schlieÿen der Lücke Untere Schranke Timo Hirscher - Trennende Markov Ketten 4/25
15 reduzible Ketten, basierend auf irreduziblen p x p p y p p x p p y p Aus einem anderen Blickwinkel betrachtet ist die reduzible Markov Kette auf der rechten Seite eine irreduzible Kette mit zwei Zuständen und endlichem Zeithorizont t {0,, 2}. p p p p Schlieÿen der Lücke Untere Schranke Timo Hirscher - Trennende Markov Ketten 5/25
16 2 ist die wahre Antwort Theorem Für beliebiges ε > 0 existiert eine Markov Kette, zwei Zustände x und y sowie eine positive ganze Zahl T, für welche P T (x,.) P T (y,.) TV 2 ε gilt und eine Koppelung von X und Y existiert, für die gilt P (X t = Y t für ein 0 t T ) =. Schlieÿen der Lücke Untere Schranke Timo Hirscher - Trennende Markov Ketten 6/25
17 Optimale Trewahrscheinlichkeit Die Trewahrscheinlichkeit für eine beliebige Koppelung von X und Y sei deniert als P (X t = Y t für ein 0 t T ). () Für festes T, bezeichnen wir den maximalen Wert von () mit C T (x, y) und sprechen von der optimalen Trewahrscheinlichkeit. Schlieÿen der Lücke Separation Timo Hirscher - Trennende Markov Ketten 7/25
18 Separation Für eine Folge A = (A t ) T t=0 ihre Separation durch von Teilmengen von S denieren wir S A T (x, y) = P (X t A t für alle 0 t T ) + P (Y t A t für alle 0 t T ). Die separierende Folge wird als nicht-trivial bezeichnet, falls beide Summanden der rechten Seite positiv sind. Wir denieren die optimale Separation S T (x, y) als die maximale Separation unter allen Mengenfolgen. Schlieÿen der Lücke Separation Timo Hirscher - Trennende Markov Ketten 8/25
19 Dualität Theorem Die optimale Trewahrscheinlichkeit und optimale Separation stehen wie folgt zueinander in Beziehung: C T (x, y) = 2 S T (x, y). Einfache Richtung: P (X t = Y t für ein 0 t T ) P (X t A t oder Y t A t für ein 0 t T ) P (X t A t für ein 0 t T ) + P (Y t A t für ein 0 t T ) = 2 ST A (x, y). Schlieÿen der Lücke Separation Timo Hirscher - Trennende Markov Ketten 9/25
20 umgekehrte Ungleichung: x x y y P(X = x) P(Y = y) s t X Y Wir wenden das max-ow min-cut Theorem an und betrachten einen minimalen Schnitt (B, B c ), mit s B, t B c, der keine Kanten zwischen X und Y trennt. Mit A t := {x t ; x = (x s ) T s=0 X B}, für 0 t T, gilt: P(X X B c ) + P(Y Y B) P(X t A t, 0 t T ) + P(Y t A t, 0 t T ) = 2 ST A (x, y) 2 S T (x, y) Schlieÿen der Lücke Separation Timo Hirscher - Trennende Markov Ketten 20/25
21 zentraler Baustein α 2 2 α L L α α Lemma Für beliebige L N, 0 k L und t 0 gilt: (a) P t (0, k + ) 2α (b) P t (0, 0) = 2 + ( ) 2 2α t L + O(Lα), und daraus folgend P t (0,.) P t (L,.) TV = ( 2α ) t L + O(Lα) ( t (c) P (X t k für alle 0 t t X 0 = 0) = k+) α + O(kα) Schlieÿen der Lücke Beweisskizze Timo Hirscher - Trennende Markov Ketten 2/25
22 Abschätzen der Separation Proposition Sei L fest gewählt, und α = α(t ) = Θ ( ) T. Dann hat für hinreichend groÿes T jede nicht-triviale separierende Mengenfolge A = (A t ) T t=0 mit Separation SA T (0, L) > (wenn solche existieren) die Eigenschaft 0 A t und L / A t für alle 0 t T. Proposition Zu jeder separierenden Folge A = (A t ) T t=0, mit 0 A t und L A t für alle 0 t T, existiert ein k {0,..., L} so dass ST A (0, L) S k T (0, L) + 2 Lα, wobei k die konstante separierende Folge, deren Glieder alle durch die Menge {0,,..., k} gegeben sind, bezeichnet. Schlieÿen der Lücke Beweisskizze Timo Hirscher - Trennende Markov Ketten 22/25
23 Letzte Zutaten Eine Kombination beider Propositionen zeigt: S T (0, L) max {, e αt/(k+) + e αt/(l k) + O(Lα) }, für geeignetes 0 k < L. Lemma Für gegebenes c > 0 sei die Funktion f c deniert durch f c (x) := e c/x + e c/( x), x (0, ). Dann gilt: sup f c (x) = max ( e c, 2 e 2c). 0<x< Schlieÿen der Lücke Beweisskizze Timo Hirscher - Trennende Markov Ketten 23/25
24 Zusammenfassung Das Lemma mit der Wahl c = αt/(l + ) zeigt, dass δ > 0 beliebig klein und α = α(t ) = 2 ( ln(2) + δ ) L + T gewählt werden kann, so dass die optimale Separation der Zustände 0 und L in unserer Kette auf [0, T ] den Wert annimmt, wenn T hinreichend groÿ gewählt wird (nachdem zuerst L gewählt wurde). Desweiteren gilt für festes L: P T (0,.) P T (L,.) TV = e ( ln(2)+δ) L+ L o T (). Gegeben ε > 0, wählen wir δ > 0 klein, L groÿ genug und können die rechte Seite für hinreichend groÿes T so gröÿer als 2 ε machen. Schlieÿen der Lücke Beweisskizze Timo Hirscher - Trennende Markov Ketten 24/25
25 Literatur Häggström, O., A Note on Disagreement Percolation, Random Structures & Algorithms, Vol. 8 (3), pp , 200. Hirscher, T. und Martinsson, A., Segregating Markov chains, eingereicht bei Journal of Theoretical Probability, arxiv: , 205. Rosenthal, J.S., Faithful Couplings of Markov Chains: Now Equals Forever, Advances in Applied Mathematics, Vol. 8 (3), pp , 997. Bibliographie Timo Hirscher - Trennende Markov Ketten 25/25
Endliche Markov-Ketten - eine Übersicht
Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und
MehrDie Kopplung von Markovketten und die Irrfahrt auf dem Torus
Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag 20.05.20 Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis
Mehr(alternierendes Vorzeichen) a n := ( 1)n n + 1 a n := 3n 2 7n a n := n(n 1)(n 2), n 3
ANALYSIS FÜR PHYSIK UND VERWANDTE FÄCHER I 43 2. Folgen und Reihen Folgen und Reihen werden in jedem Analysislehrbuch besprochen, siehe etwa [H, Kapitel III], [K, Kapitel 5], [J2, Kapitel 23] oder [M,
MehrDas Singularitätentheorem von Hawking Teil 2
Das Singularitätentheorem von Hawking Teil Jakob Hedicke 0.06.06 In diesem Vortrag werden wir den Beweis des Singularitätentheorems von Stephen Hawking vervollständigen. Im letzten Vortrag wurde bereits
MehrDie reellen Zahlen als Äquivalenzklassen rationaler Cauchy-Folgen. Steven Klein
Die reellen Zahlen als Äquivalenzklassen rationaler Cauchy-Folgen Steven Klein 04.01.017 1 In dieser Ausarbeitung konstruieren wir die reellen Zahlen aus den rationalen Zahlen. Hierzu denieren wir zunächst
MehrThema: Totalvariationabstand, Kopplung und Mischzeiten
Technische Universität Berlin Thema: Totalvariationabstand, Kopplung und Mischzeiten Ausarbeitung zum Seminar Moderne Anwendung von Markovketten Name: Nina Kamswich Matrikelnummer: 33677 Fachbereich: Mathematik
MehrErwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich
Erwartungswert Naiv stellt man sich unter dem Erwartungswert einer Zufallsvariablen X Folgendes vor. Man führt das Experiment n-mal durch und bestimmt den Mittelwert (arithmetisches Mittel) der dabei für
MehrDer Ergodensatz. Hendrik Hülsbusch
Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen
MehrLösungen Klausur. k k (n + 1) n. für alle n N. Lösung: IA: Für n = 1 ist 1. k k + (n + 1) n+1. k k = k=1. k=1 kk = 1 1 = 1 2 = 2 1.
Lösungen Klausur Aufgabe (3 Punkte) Zeigen Sie, dass n k k (n + ) n k für alle n N. IA: Für n ist k kk 2 2. IV: Es gilt n k kk (n + ) n für ein n N. IS: Wir haben n+ k k k n k k + (n + ) n+ k IV (n + )
MehrKapitel 2. Folgen und ihre Konvergenz
Kapitel 2 Folgen und ihre Konvergenz Zur Erinnerung Denition. Eine Folge (reeller Zahlen) ist eine Funktion von N 0 nach R. Schreibweisen. Im Falle einer Folge f : N 0 R schreibt man an Stelle von f (n)
MehrSchriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation. Propp-Wilson-Algorithmus
Technische Universität Berlin Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation Propp-Wilson-Algorithmus Lisa Brust Matrikelnummer: 330793 Master Mathematik 30. Juni 2016
MehrKapitel 4: Irreduzible und aperiodische Markov Ketten 1
Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme
MehrD-MATH Topologie FS 15 Theo Bühler. Musterlösung 11. d(x, y) := n 0. 2 n d n (x n, y n ),
D-MATH Topologie FS 15 Theo Bühler Musterlösung 11 1. a) Da (C n, d n ) kompakt ist, nimmt die stetige Funktion d n : C n C n [0, ), (x, y) d(x, y) ihr Maximum diam C n an. Ersetzen wir d n durch d n =
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten
MehrProseminar Analysis Vollständigkeit der reellen Zahlen
Proseminar Analysis Vollständigkeit der reellen Zahlen Axel Wagner 18. Juli 2009 1 Voraussetzungen Zunächst wollen wir festhalten, was wir als bekannt voraussetzen: Es sei (Q, +, ) der Körper der rationalen
MehrVollständigkeit. 1 Konstruktion der reellen Zahlen
Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente
MehrOptimaler Transport. Marzena Franek. Skiseminar Februar Institut für Numerische und Angewandte Mathematik
Institut für Numerische und Angewandte Mathematik Skiseminar Februar 2009 1 Das Problem von Monge 1 Das Problem von Monge 2 1 Das Problem von Monge 2 3 1 Das Problem von Monge 2 3 4 1 Das Problem von Monge
MehrDer Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.
Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x
Mehr3 Markov-Eigenschaft der Brownschen Bewegung
Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t
MehrDirichletreihen im Komplexen
Dirichletreihen im Komplexen Dominik Wrazidlo Ausarbeitung zum Vortrag im Proseminar Analysis (Sommersemester 2009, Leitung Prof. Dr. E. Freitag) Zusammenfassung: Gegenstand dieser Ausarbeitung ist die
MehrLösung zur Übung für Analysis einer Variablen WS 2016/17
Blatt Nr. 3 Prof. F. Merkl Lösung zur Übung für Analysis einer Variablen WS 206/7 Aufgabe Das Guthaben G setzt sich zusammen aus der Summe aller bisherigen Einzahlungen multipliziert mit ( + p) k, wobei
Mehr12. Trennungssätze für konvexe Mengen 83
12. Trennungssätze für konvexe Mengen 83 C_1 C_2 a Abbildung 12.4. Trennung konvexer Mengen durch eine Hyperebene mit Normalenvektor a Dann ist int(c) nicht leer (warum?) und [als Minkowski-Summe von C
Mehr3. Folgen und Reihen. 3.1 Folgen und Grenzwerte. Denition 3.1 (Folge) Kapitelgliederung
Kapitelgliederung 3. Folgen und Reihen 3.1 Folgen und Grenzwerte 3.2 Rechenregeln für konvergente Folgen 3.3 Monotone Folgen und Teilfolgen 3.4 Ein Algorithmus zur Wurzelberechnung 3.5 Reihen 3.6 Absolut
MehrLS Informatik 4 & Folgen und Reihen. Buchholz / Rudolph: MafI 2 38
3. Folgen und Reihen Buchholz / Rudolph: MafI 2 38 Kapitelgliederung 3.1 Folgen und Grenzwerte 3.2 Rechenregeln für konvergente Folgen 3.3 Monotone Folgen und Teilfolgen 3.4 Ein Algorithmus zur Wurzelberechnung
Mehr16.3 Rekurrente und transiente Zustände
16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht
Mehra 0, a 1, a 2, a 3,... Dabei stehen die drei Pünktchen für unendlich oft so weiter.
7 Folgen 30 7 Folgen Wir betrachten nun (unendliche) Folgen von Zahlen a 0, a, a 2, a 3,.... Dabei stehen die drei Pünktchen für unendlich oft so weiter. Bezeichnung Wir bezeichnen mit N die Menge der
Mehrpiiq oder p 8, aq, p 8, as, pa, `8q, ra, `8q mit einer reellen Zahl a; piiiq oder p 8, `8q R. [6 Punkte] Achtung: Denken Sie auch an den Fall I!
Analysis I Wintersemester 2015/16 9. Übungsblatt, Lösungsbeispiele Jun. Prof. Dr. Christian Reiher, Pascal Gollin Alexander Block, Hendrik Niehaus, Jakob Kneip, Jakob Schnitzer Aufgabe 5 Es sei I Ď R eine
MehrMarkovsche Entscheidungsprozesse - Teil III Der erwartete Gesamtgewinn. Universität Siegen
Markovsche Entscheidungsprozesse - Teil III Der erwartete Gesamtgewinn Jan Müller Universität Siegen Sommersemester 2009 Inhaltsverzeichnis 1 Das Gesamtgewinn-Kriterium 1 1.1 Die Existenz des erwarteten
MehrMeßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :
24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar
MehrANALYSIS 1 Kapitel 4: Folgen von (reellen und komplexen) Zahlen
ANALYSIS 1 Kapitel 4: Folgen von (reellen und komplexen) Zahlen MAB.01012UB MAT.101UB Vorlesung im WS 2017/18 Günter LETTL Institut für Mathematik und wissenschaftliches Rechnen Karl-Franzens-Universität
Mehr13 Auswahlaxiom und Zornsches Lemma
13 Auswahlaxiom und Zornsches Lemma Handout zur Funktionalanalysis I von H. Glöckner, 25.11.2008 Wichtige Teile der modernen Mathematik beruhen auf dem sogenannten Auswahlaxiom der Mengenlehre. Dieses
MehrElemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren
3. Wurzelsysteme Als erstes führen wir den Begriff eines Wurzelsystems ein. Definition 3.1 (Wurzelsystem). Eine endliche Teilmenge Φ V {0} heißt Wurzelsystem falls gilt: (R1) Φ Rα = {±α} für α Φ, (R2)
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrÜbersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten
Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung
Mehr4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete
42 Kapitel 2 Holomorphiegebiete 4 Holomorphie-Konvexität Wir wollen weitere Beziehungen zwischen Pseudokonvexität und affiner Konvexität untersuchen. Zunächst stellen wir einige Eigenschaften konvexer
Mehr1 0, x C X (A). = 1 χ A(x).
Aufgabe 1 a) Wir müssen nur zeigen, dass χ A B (x) = χ A (x) χ B (x) für alle x X gilt. (Dass χ A χ B Abbildung von X in {0, 1} ist, ist klar.) Sei also x X beliebig. Fall 1: x A B. Dies bedeutet x A und
MehrHöhere Mathematik I für die Fachrichtung Informatik. Lösungsvorschläge zum 1. Übungsblatt
KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heiko Hoffmann WS 013/1 Höhere Mathematik I für die Fachrichtung Informatik Lösungsvorschläge zum 1. Übungsblatt Aufgabe
MehrTerminologie Stochastischer Prozesse
Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.
Mehr2 Martingale in stetiger Zeit
2 Martingale in stetiger Zeit Ziel dieses Abschnitts ist es die wichtigsten Resultate für Martingale aus diskreter Zeit in stetige Zeit zu übertragen. Wie zu erwarten ist treten in stetiger Zeit einige
Mehr2. Reelle Zahlen. Denition 2.1 (Gruppe) Kapitelgliederung
Kapitelgliederung 2. Reelle Zahlen 2.1 Der Körper der reellen Zahlen 2.2 Anordnungsaxiome 2.3 Betrag und Dreiecksungleichungen 2.4 Darstellung von Zahlen im Rechner 2.5 Intervalle Buchholz / Rudolph: MafI
Mehr(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist.
8 Punktmengen Für die Menge M = { 1 n ; n N } ist 1 = max(m), denn 1 M und 1 n 1 für alle n N. Die Menge M besitzt aber kein Minimum, denn zu jeder Zahl x = 1 n M existiert ein y M mit y < x, etwa y =
MehrLS Informatik 4 & Reelle Zahlen. Buchholz / Rudolph: MafI 2 2
2. Reelle Zahlen Buchholz / Rudolph: MafI 2 2 Kapitelgliederung 2.1 Der Körper der reellen Zahlen 2.2 Anordnungsaxiome 2.3 Betrag und Dreiecksungleichungen 2.4 Darstellung von Zahlen im Rechner 2.5 Intervalle
MehrDefinition 3.1. Sei A X. Unter einer offenen Überdeckung von A versteht man eine Familie (U i ) i I offener Mengen U i X mit U i
3 Kompaktheit In der Analysis I zeigt man, dass stetige Funktionen f : [a, b] R auf abgeschlossenen, beschränkten Intervallen [a, b] gleichmäßig stetig und beschränkt sind und dass sie ihr Supremum und
MehrÜberabzählbarkeit der reellen Zahlen
Überabzählbarkeit der reellen Zahlen Mathematik M4 Dozentin: Dr. Regula Krapf Jan Lukas Schallenberg Matr. Nr.: 214202241 November 2017 1 Inhaltsverzeichnis 1 Dedekindsche Schnitte 3 2 Addition und Multiplikation
MehrTopologische Grundbegriffe I. 1 Offene und Abgeschlossene Mengen
Topologische Grundbegriffe I Vortrag zum Proseminar Analysis, 26.04.2010 Nina Neidhardt und Simon Langer Im Folgenden soll gezeigt werden, dass topologische Konzepte, die uns schon für die Reellen Zahlen
Mehr7. Die Brownsche Bewegung
7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen
MehrTopologische Grundbegriffe II. Inhaltsverzeichnis
Vortrag zum Seminar zur Analysis, 03.05.2010 Dennis Joswig, Florian Goy Aufbauend auf den Resultaten des Vortrages Topologische Grundbegriffe I untersuchen wir weitere topologische Eigenschaften von metrischen
MehrEinführung in Markoff-Ketten
Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die
MehrÜbungen zur Vorlesung. Einführung in Dynamische Systeme. Musterlösungen zu Aufgabenblatt 8
Prof. Roland Gunesch Sommersemester 2010 Übungen zur Vorlesung Einführung in Dynamische Systeme Musterlösungen zu Aufgabenblatt 8 Aufgabe 1: Sei (X, d) ein kompakter metrischer Raum. Die Hausdorff-Metrik
MehrKompaktheit und Überdeckungen. 1 Überdeckungskompaktheit
Vortrag zum Proseminar zur Analysis, 17.05.2010 Min Ge, Niklas Fischer In diesem Vortrag werden die Eigenschaften von kompakten, metrischen Räumen vertieft. Unser Ziel ist es Techniken zu erlernen, um
MehrEbene algebraische Kurven
Ebene algebraische Kurven Tangenten und Singularitäten Meyrer Claudine 4. November 010 Inhaltsverzeichnis 1 Lokale Eigenschaften an-algebraischer Kurven (in C ) 1.1 Denitionen..............................
MehrStudienbegleitende Prüfung Stochastik 2
Universität Karlsruhe (TH) Institut für Stochastik Prof. Dr. N. Bäuerle Name: Vorname: Matr.-Nr.: Studienbegleitende Prüfung Stochastik 2 27. März 2007 Diese Klausur hat bestanden, wer mindestens 20 Punkte
MehrMusterlösung Analysis 3 - Maßtherorie
Musterlösung Analysis 3 - Maßtherorie 10. März 2011 Aufgabe 1: Zum Aufwärmen (i) Zeige, dass die Mengensysteme {, X} und P(X) σ-algebren sind. Es sind jeweils nur die Charakteristika nachzuweisen. (1)
MehrScheinklausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:
MehrDie Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 2011/2012
Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 011/01 Sandra Uhlenbrock 03.11.011 Die folgende Ausarbeitung wird, basierend auf Branching Processes
MehrÜbungsaufgaben zu Analysis 1 Lösungen von Blatt VI vom
Prof. Dr. Moritz Kaßmann Fakultät für Mathematik Wintersemester 04/05 Universität Bielefeld Übungsaufgaben zu Analysis Lösungen von Blatt VI vom 0..4 Aufgabe VI. (6 Punkte) Gegeben sind die Folgen (a n)
MehrSchwartz-Raum (Teil 1)
Schwartz-Raum (Teil 1) Federico Remonda, Robin Krom 10. Januar 2008 Zusammenfassung Der Schwartz-Raum ist ein Funktionenraum, der besondere Regularitätseigenschaften besitzt, die uns bei der Fouriertransformation
MehrDie Perronsche Methode
Die Perronsche Methode Stephanie Seger LMU München Hüttenseminar 13.12.2012-16.12.2012 Stephanie Seger Die Perronsche Methode 1/13 Lösung eines speziellen Randwertproblems Existenz von Lösungen des klassischen
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrKonvexe Mengen und Funktionen
Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf
Mehrfür die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.
8 Markov-Ketten 8.1 Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.
MehrKlausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 24/25 Universität Karlsruhe 7. März 25 Priv-Doz. Dr. D. Kadelka Klausur zur Vorlesung Stochastik II Dauer: 9 Minuten Name: Vorname: Matrikelnummer: Diese Klausur
MehrAufgaben zur Verbandstheorie
TU Bergakademie Freiberg WS 2005/06 Institut für Diskrete Mathematik & Algebra Prof. Dr. Udo Hebisch Aufgaben zur Verbandstheorie 1. Für ein beliebiges n IN sei X n die Menge aller Teiler von n. Definiert
MehrA Kurzskript: Stochastische Majorisierung und Testtheorie
A Kurzskript: Stochastische Majorisierung und Testtheorie A.1 Stochastische Majorisierung Denition A.1 (stochastisch gröÿer) Seien Q und P zwei W'Maÿe auf (R, B). Dann heiÿt Q stochastisch gröÿer als P
MehrEinführung in die Theorie der Markov-Ketten. Jens Schomaker
Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch
MehrKonstruktion reeller Zahlen aus rationalen Zahlen
Konstruktion reeller Zahlen aus rationalen Zahlen Wir nehmen an, daß der Körper der rationalen Zahlen bekannt ist. Genauer wollen wir annehmen: Gegeben ist eine Menge Q zusammen mit zwei Verknüpfungen
MehrSinguläre Integrale 1 Grundideen der harmonischen Analysis
Singuläre Integrale Grundideen der harmonischen Analsis Jens Hinrichsen und Annina Saluz November 2007 Motivation Ein tpisches Beispiel für ein singuläres Integral ist die Hilbert-Transformation, welche
MehrMarkov-Ketten 1. Definition 2.1
Marov-Ketten Definition 2. Sei P eine -Matrix mit Elementen {P i,j : i, j,...,}. Ein Zufallsprozess (X 0, X,...) mit endlichem Zustandsraum S{s,...,s } heißt homogene Marov-Kette mit Übergangsmatrix P,
MehrAnalysis I - Stetige Funktionen
Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt
MehrKonstruktion der reellen Zahlen 1 von Philipp Bischo
Konstruktion der reellen Zahlen 1 von Philipp Bischo 1.Motivation 3 1.1. Konstruktion von R im allgemeine 3 2.Voraussetzung 3 2.1Die Menge Q zusammen mit den beiden Verknüpfungen 3 2.2Die Rationalen Zahlen
MehrSchwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik
Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind
MehrRelative Kontrollierbarkeit und Invarianz-Entropie
Relative Kontrollierbarkeit und Invarianz-Entropie Ralph Lettau in Zusammenarbeit mit Fritz Colonius und Christoph Kawan Institut für Mathematik Universität Augsburg 9. Elgersburg Workshop 5. März 2014
MehrDer Satz von Stone-Weierstraÿ
Gregor Matuschek Der Satz von Stone-Weierstraÿ Ausarbeitung zum Vortrag im Proseminar Analysis I (Sommersemester 009, Leitung Prof. Eberhard Freitag) Zusammenfassung: Wir kennen bereits den Approximationssatz
Mehr1 Einleitung. 2 Reelle Zahlen. 3 Konvergenz von Folgen
1 Einleitung Können Sie die folgenden Fragen beantworten? Sie sollten es auf jeden Fall versuchen. Dieser Fragenkatalog orientiert sich an den Themen der Vorlesung Analysis 1 aus dem Wintersemester 2008/09
MehrGRUNDLAGEN MATHEMATIK
Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik GRUNDLAGEN MATHEMATIK 2. Folgen Prof. Dr. Gunar Matthies Wintersemester 2015/16 G. Matthies Grundlagen Mathematik
MehrKommutativität. De Morgansche Regeln
1. Formale Logik Proposition 1.1. Die logischen Elementarverknüpfungen gehorchen folgenden Äquivalenzen: (1.1) (1.2) p p p p p p Idempotenz (1.3) (1.4) p q q p p q q p Kommutativität (1.5) (1.6) (p q)
Mehr1.3 Zufallsvariablen
1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P
MehrDie Topologie von R, C und R n
Die Topologie von R, C und R n Für R haben wir bereits eine Reihe von Strukturen kennengelernt: eine algebraische Struktur (Körper), eine Ordnungsstruktur und eine metrische Struktur (Absolutbetrag, Abstand).
MehrDiskontierte Markovsche Entscheidungsprozesse
Ausarbeitung zum Seminarvortrag Diskontierte Markovsche Entscheidungsprozesse aus der Seminarreihe Spieltheorie und Glücksspiele von Prof. Dr. Alfred Müller vorgelegt von Alexander Müller Sommersemester
Mehr4.5 Schranken an die Dichte von Kugelpackungen
Gitter und Codes c Rudolf Scharlau 19. Juli 2009 341 4.5 Schranken an die Dichte von Kugelpackungen Schon in Abschnitt 1.4 hatten wir die Dichte einer Kugelpackung, speziell eines Gitters bzw. einer quadratischen
MehrCauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit
Vortrag zum Seminar zur Analysis, 10.05.2010 Michael Engeländer, Jonathan Fell Dieser Vortrag stellt als erstes einige Sätze zu Cauchy-Folgen auf allgemeinen metrischen Räumen vor. Speziell wird auch das
MehrMarkov Ketten und Bonus Malus Systeme
Grund Stoch Markov Ketten Bonus Malus Probleme L 1 / 46 Markov Ketten und Bonus Malus Systeme Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden TU Wien 19. Mai 2010
MehrSeminar Gewöhnliche Dierentialgleichungen
Seminar Gewöhnliche Dierentialgleichungen Dynamische Systeme II Valentin Jonas 8. 6. 215 1 Einleitung In dem letzten Kapitel "Dynamische Systeme I" ging es vor allem um in t glatte, autonome, dynamische
MehrD-MATH Mass und Integral FS 2018 Prof. Dr. Urs Lang. Lösung - Serie 2. + A k = A c k Ac k 0
D-MATH Mass und Integral FS 2018 Prof. Dr. Urs Lang Lösung - Serie 2 Abgabetermin: Mittwoch, 07.03.2018 in die Fächli im HG F 28. Homepage der Vorlesung: https://metaphor.ethz.ch/x/2018/fs/401-2284-00l/
MehrVerzweigungszahl und kritische Perkolationswahrscheinlichkeit
Seminar über Bäume, Netzwerke und Zufall Prof. Dr. Wakolbinger, Prof. Dr. Geiger Verzweigungszahl und kritische Perkolationswahrscheinlichkeit Vortrag Nr., Anja Prüfer, 29. Juni 2005 sei G ein abzählbarer
Mehr4 Differenzierbarkeit einer konjugierten Funktion
4 Differenzierbarkeit einer konjugierten Funktion (Eingereicht von Corinna Vits) 4.1 Differenzierbarkeit 1.Ordnung Theorem 4.1.1: Sei f ConvR n strikt konvex. Dann ist int dom und f ist stetig differenzierbar
MehrBlatt 4. Übungen zur Topologie, G. Favi 20. März Abgabe: 27. März 2008, 12:00 Uhr
Übungen zur Topologie, G. Favi 20. März 2009 Blatt 4 Abgabe: 27. März 2008, 12:00 Uhr Aufgabe 1. (a) Auf der 2-Sphäre S 2 := {(x, y, z) R 3 x 2 + y 2 + z 2 = 1} R 3 betrachten wir folgende Äquivalenzrelation:
MehrVorlesung 7b. Der Zentrale Grenzwertsatz
Vorlesung 7b Der Zentrale Grenzwertsatz 1 Zentraler Grenzwertsatz (Tschebyscheff) Die standardisierte Summe von unabhängigen, identisch verteilten R-wertigen Zufallsvariablen konvergiert in Verteilung
MehrANALYSIS 1 Kapitel 2: Reelle und komplexe Zahlen
ANALYSIS 1 Kapitel 2: Reelle und komplexe Zahlen MAB.01012UB MAT.101UB Vorlesung im WS 2017/18 Günter LETTL Institut für Mathematik und wissenschaftliches Rechnen Karl-Franzens-Universität Graz 2.1 Körperstruktur
Mehrµ( k= U j,k \K j,k ) µ(u j,k \K j,k ) < 2 j ε. µ(u\k j ) < ε.
3.5. LUSIN, TITZE-URYSOHN UND RIESZ 7 3.5. Lusin, Titze-Urysohn und Riesz. Theorem 3.5. (Lusin). Sei f : X R messbar. Zu U X offen mit µ(u) < und ε > 0 gibt es ein kompaktes K U, so dass gilt: () f K stetig,
MehrStochastische Prozesse Stoffzusammenfassung
Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 7. August 2018 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt
MehrMusterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:
Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,
MehrAuswahlaxiom, Zornsches Lemma und Wohlordnungssatz. 14.Oktober 97
Auswahlaxiom, Zornsches Lemma und Wohlordnungssatz Uwe Liebe Sven Hermann 14.Oktober 97 Inhaltsverzeichnis 1 Einleitung 3 2 Auswahlaxiom 4 3 Ordnung 5 4 Zornsches Lemma 9 5 Wohlordnungssatz 11 6 Zurück
Mehr12 Gewöhnliche Differentialgleichungen
2 2 Gewöhnliche Differentialgleichungen 2. Einleitung Sei f : D R wobei D R 2. Dann nennt man y = f(x, y) (5) eine (gewöhnliche) Differentialgleichung (DGL) erster Ordnung. Als Lösung von (5) akzeptiert
Mehr7. Die Brownsche Bewegung
7. DIE BROWNSCHE BEWEGUNG 2 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen
MehrKapitel V. Folgen und Konvergenz. V.1 Konvergenz von Zahlenfolgen
Kapitel V Folgen und Konvergenz V.1 Konvergenz von Zahlenfolgen Wir erinnern an den Begriff der Folge, den wir schon im Kapitel III verwenden. Eine Folge (a n ) n=1 AN in A ist eine Abbildung a ( ) : N
MehrAlgorithmische Methoden zur Netzwerkanalyse Vorlesung 10, Henning Meyerhenke
Algorithmische Methoden zur Netzwerkanalyse Vorlesung 10, 11.01.2012 Henning Meyerhenke 1 KIT Henning Universität desmeyerhenke: Landes Baden-Württemberg und nationales Algorithmische Forschungszentrum
Mehr! # %& (! ) # +,.. # / #. + /
! # %& (! ) # +,.. # / #. + / Inhaltsverzeichnis Einführung 2 2 Die τ-topologie 2 3 Der Kullback-Leibler-Abstand 2 4 Empirische Maße 3 5 Der Satz von Sanov 3 6 Anmerkungen 3 7 Lemma 4 8 Beweis Satz von
MehrHausdorff-Maß und Hausdorff-Dimension. Jens Krüger
Hausdorff-Maß und Hausdorff-Dimension Jens Krüger Inhaltsverzeichnis 1 Einleitung 2 2 Grundlagen aus der Maßtheorie 3 3 Die Konstruktion des Hausdorff-Maßes 4 4 Eigenschaften des Hausdorff-Maßes und Hausdorff-Dimension
MehrMicha Nitsch. 1.1 Denition: Wir bezeichnen mit S(r), r IR die Menge aller Funktionen f O(D) mit f(0) r, die nicht die Werte 0 und 1 annehmen.
3.Vortrag: Der Satz von Schottky und der groÿe Satz von Picard Seite 1 3.Vortrag: Der Satz von Schottky und der groÿe Satz von Picard Micha Nitsch Dieser Vortrag folgt dem Buch von R. Remmert, "Funktionentheorie
Mehr