9 Schnell mischende Markov-Ketten

Größe: px
Ab Seite anzeigen:

Download "9 Schnell mischende Markov-Ketten"

Transkript

1 9 Schnell mischende Markov-Ketten Allgemeines zu schnell mischenden Markov-Ketten findet man zum Beispiel in dem Buch Introduction to Markov Chains von Behrends (2000). Außerdem haben wir von einem Teil eines Vorlesungsskriptes von Steger (2001) über schnell mischende Markov-Ketten profitiert. Außerdem ist der Überblick von Randall (2006) empfehlenswert. 9.1 Der Metropolis-Algorithmus 9.1 Definition Eine ergodische Markov-Kette heißt (zeit-)reversibel (im Englischen mitunter auch in detailed balance), wenn für die stationäre Verteilung w und alle Zustände i und gilt: w i P i = w P i. Zur Begründung dieses Namens mache man sich klar, dass w i P i die Wahrscheinlichkeit ist, dass man bei einer Markov-Kette im stationären Zustand bei einem Schritt gerade einen Übergang von Zustand i nach Zustand beobachtet, und w P i die Wahrscheinlichkeit, dass man bei einem Schritt umgekehrt einen Übergang von Zustand nach Zustand i. Als Beispiele können die folgenden Ketten dienen: 9.2 Definition Es sei G = (V, E) ein zusammenhängender ungerichteter Graph ohne Schlingen und 0 < β 1 eine reelle Zahl. Mit d(i) bezeichnen wir den Grad von Knoten i und es sei d = max i V d(i). Die Übergangswahrscheinlichkeiten P i der Markov-Kette M G,β sind dann wie folgt definiert: β/d falls i und (i, ) E P i = 0 falls i und (i, ) / E 1 d(i)β/d falls i = 9.3 Man kann sich überlegen, dass für die so definierten Markov-Ketten die Gleichverteilung die stationäre Verteilung ist. Da der Graph zusammenhängend ist, ist die Kette irreduzibel. Für β < 1 ist sie außerdem aperiodisch und reversibel. 9.4 Eine kleine Verallgemeinerung liefert schon eine ganz einfache Variante des sogenannten Metropolis-Hastings-Algorithmus. Sei dazu p eine Wahrscheinlichkeitsverteilung auf V, die nirgends 0 ist. Dann betrachte man folgende Festlegungen: min(1, p p i ) β/d falls i und (i, ) E P i = 0 falls i und (i, ) / E 1 i k P ik falls i = 78

2 9. Schnell mischende Markov-Ketten 79 Auch diese Markov-Kette ist reversibel, was man zum Beispiel so sieht. Sei i und (i, ) E (die anderen Fälle sind trivial). Dann gilt: p i P i = p p i min(1, p i ) β/d p i p P i p min(1, p i p ) β/d = p / p i p falls p i p p i p p p i falls p i > p Wegen des folgenden Lemmas kennt man auch sofort die stationäre Verteilung dieser Markov- Kette: Es ist p. 9.5 Lemma. Ist M eine ergodische Markov-Kette und q eine Verteilung mit der Eigenschaft, dass für alle Zustände i und gilt, dass q i P i = q P i ist, dann ist q die (eindeutig bestimmte) stationäre Verteilung von M. 9.6 Beweis. Für alle i ist (qp) i = q P i = q i P i = q i P i = q i. 9.7 Für den klassischen Algorithmus von Metropolis u. a. (1953) ist eine zeilenstochastische Matrix Q gegeben, die symmetrisch ist (diese Einschränkung wurde von Hastings (1970) beseitigt). Ziel ist aber eine reversible Markov-Kette mit Übergangsmatrix P, deren stationäre Verteilung w nur indirekt gegeben ist. Festgelegt ist nämlich nur eine Funktion H: S R mit der Eigenschaft, dass e H(i) proportional zur Wahrscheinlichkeit von Zustand i in w ist. Der Proportionalitätsfaktor ist natürlich Z = i S e H(i). Q heißt üblicherweise proposal matrix, H energy function und Z partition function. Das Schöne am Metropolis-Algorithmus ist, dass man Z gar nicht kennen muss. (In manchen Anwendungen in der Physik ist S sehr groß.) 9.8 Algorithmus. Der Metropolis-Algorithmus, oder auch Metropolis sampler, funktioniert wie folgt: Man startet in einem beliebigen Zustand i 0 S. Ist man nach t Schritten in Zustand i t S, dann ergibt sich i t+1 in zwei Teilschritten: Zunächst wird gemäß der Verteilung Q(i t, ) zufällig ein S bestimmt. Dann gibt es zwei Möglichkeiten: Falls H() H(i t ) ist, also w w it, dann wählt man i t+1 =. Falls H() > H(i t ) ist, also w < w it, wählt man { mit Wahrscheinlichkeit w /w it = e H(i t) H() i t+1 = i t sonst 9.9 Satz. Die durch den Metropolis-Algorithmus festgelegte Markov-Kette auf S ist reversibel und in ihrer stationären Verteilung hat Zustand i Wahrscheinlichkeit e H(i) /Z Beweis. Sei P die durch den Algorithmus festgelegte Übergangsmatrix. Es genügt zu beweisen, dass für alle i, S Balancierheit vorliegt, d. h.: e H(i) /Z P i = e H() /Z P i Das ist eine einfache Rechnung analog zu der in Punkt 9.4.

3 9. Schnell mischende Markov-Ketten Anmerkungen zu Eigenwerten 9.11 Lemma. Es sei P eine zeilenstochastische Matrix. Dann ist 1 ein Eigenwert von P und für eden Eigenwert λ von P gilt: λ Beweis. Der erste Teil der Aussage ist wegen P(1,..., 1) = (1,..., 1) klar. Sei nun λ C Eigenwert und P(x 1,..., x n ) = λ(x 1,..., x n ). Es sei i 0 ein Index mit x i0 = max x. Es liegen also alle x im Kreis um den Ursprung mit Radius x i0. Es gilt: λ x i0 = λ x i0 = P i0 x P i0 x P i0 x i0 = x i0 P i0 = x i0. Also ist λ 1. Für reversible Markov-Ketten kann man die Aussage von Lemma 9.11 verschärfen Lemma. Ist P die stochastische Matrix einer reversiblen Markov-Kette, dann hat P nur reelle Eigenwerte. Für einen Beweis konsultiere man z. B. das Vorlesungsskript von Steger (2001) oder Kapitel 3 im Manuskript von Aldous und Fill (1999) 9.14 Im folgenden benutzen wir die Abkürzung λ max = max{ λ λ ist Eigenwert von P und λ 1}. Auf Grund des Vorangegangenen ist klar, dass λ max 1 ist Falls λ N < 0 ist geht man auf bewährte Weise von P zur Matrix P 2 (P + I) über. Für deren Eigenwerte gilt dann λ i 2 (λ i + 1), so dass alle Eigenwerte echt größer 0 sind. In diesem Fall ist dann also λ max = λ Schnell mischende Markov-Ketten Wir interessieren uns nun für die Frage, wie lange es dauert, bis man bei einer Markov-Kette, die man mit einer Verteilung oder in einem bestimmten Zustand begonnen hat, davon ausgehen kann, dass die Wahrscheinlichkeiten, in bestimmten Zuständen zu sein, denen der stationären Verteilung sehr nahe sind. Dazu definieren wir als erstes eine Art Abstandsbegriff für diskrete Wahrscheinlichkeitsverteilungen Definition Für zwei Verteilungen p und q ist die totale Variationsdistanz p q tv p q. 2 S Man kann sich überlegen, dass p q tv = max T S p(t) q(t) ist, wobei p(t) zu verstehen ist als T p (und analog q(t)).

4 9. Schnell mischende Markov-Ketten Definition Für eine ergodische Markov-Kette mit Matrix P und stationärer Verteilung w und für alle Verteilungen p sei δ p (t) = pp t w tv die totale Variationsdistanz zwischen w und der Verteilung, die man nach t Schritten ausgehend von p erreicht hat. Als Variationsdistanz zum Zeitpunkt t bezeichnen wir das Maximum (t) = max p δ p (t). Man kann zeigen, dass das Maximum für einen Einheitsvektor e i = (0,..., 0, 1, 0,..., 0) angenommen wird. Also gilt: (t) = max Pi t w tv i wobei P t i die i-te Zeile von Pt sei Satz. Für eine ergodische Markov-Kette mit Matrix P und stationärer Verteilung w existieren Konstanten C und α < 1 so, dass gilt: (t) = max P t i w tv Cαt i Der nachfolgende Beweis stammt aus dem Buch von Levin, Peres und Wilmer (2009) Beweis. Wegen der Ergodizität existiert ein t 0 so, dass in P t 0 nur echt positive Einträge vorkommen. Bezeichnet w die stationäre Verteilung (und W die Matrix, deren Zeilen alle gleich w sind), dann gibt es ein δ mit 0 < δ < 1 so, dass für alle i, S gilt: Es sei ϑ δ, also auch 0 < ϑ < 1. Durch P t 0 i δw P t 0 = (1 ϑ)w + ϑq wird eine Matrix Q festgelegt. Q ist eine zeilenstochastische Matrix. Die Überlegungen in Abschnitt 8.2 zeigen, dass für ede stochastische Matrix M gilt, dass MW = W ist. Zum Beispiel gilt für edes k N 0 : (i) Q k W = W. Außerdem ist (ii) WP t 0 = W. Durch Induktion zeigt man nun: Für edes k N + ist P t 0k = (1 ϑ k )W + ϑ k Q k Der Induktionsanfang ist klar. Für den Induktionsschritt rechnet man P t0(k+1) = P t0k P t 0 ( = (1 ϑ k )W + ϑ k Q k) P t 0 nach Induktionsvoraussetzung = (1 ϑ k )WP t 0 + ϑ k Q k P t 0 = (1 ϑ k )W + ϑ k Q k P t 0 nach Bemerkung (ii) oben = (1 ϑ k )W + ϑ k Q k ((1 ϑ)w + ϑq) = (1 ϑ k )W + ϑ k (1 ϑ)q k W + ϑ k+1 Q k+1 = (1 ϑ k )W + ϑ k (1 ϑ)w + ϑ k+1 Q k+1 nach Bemerkung (i) oben = (1 ϑ k+1 )W + ϑ k+1 Q k+1 Die Tatsache, dass P t0k = (1 ϑ k )W + ϑ k Q k ist, nutzt man wie folgt. Multiplikation mit P und Umordnen liefert ( ) P t0k+ W = ϑ k Q k P W

5 9. Schnell mischende Markov-Ketten 82 Man betrachtet nun eine beliebige Zeile i dieser Matrizengleichung, summiert die Beträge der Einträge in dieser Zeile und dividiert durch 2. Auf der linken Seite ergibt sich P t 0k+ i w tv. Auf der rechten Seite ergibt sich ϑ k (Q k P ) i w tv, was man durch ϑ k nach oben abschätzen kann. Für beliebiges t N + sei nun k = t div t 0 und = t mod t 0 (also t = t 0 k + ). Dann ist P t i w = tv Pt 0k+ i w tv ϑ k ( ) ϑ 1/t t0 ( 0 ϑ ( 1 ϑ ϑ ) ϑ 1/t +t0 k 0 ( ϑ 1/t 0 ) t ) ϑ 1/t t0 k 0 da < t 0 und ϑ < Im folgenden benutzen wir die Abkürzung w min = min w 9.21 Satz. Für ede reversible Markov-Kette mit stationärer Verteilung w gilt: (t) λt max w min. Wenn also λ max < 1 ist (was bei reversiblen Markov-Ketten der Fall ist), dann nähert sich die Markov-Kette in einem gewissen Sinne schnell der stationären Verteilung. Wir präzisieren das noch wie folgt: 9.22 Häufig ist man an einer ganzen Familie von Markov-Ketten M(I) interessiert. Dabei ergibt sich edes M(I) auf Grund einer Instanz I des eigentlich zu lösenden Problems. Zum Beispiel könnte edes I ein Graph sein, und die Zustände von M(I) sind gerade die Matchings von I Definition Es sei M eine ergodische Markov-Kette mit stationärer Verteilung w. Für ε > 0 sei die ε-konvergenzzeit der Markov-Kette M. τ(ε) = min{t t t : (t ) ε} 9.24 Definition Eine Familie von Markov-Ketten M(I) heißt schnell mischend, falls die ε-konvergenzzeit polynomiell in I und ln 1/ε ist Wegen Satz 9.21 ist eine reversible Markov-Kette edenfalls dann schnell mischend, wenn für ein t, das polynomiell in I und log 1/ε ist, gilt: Äquivalente Umformungen ergeben λ t max w min ε. λ t max εw min ( ) 1 t 1 λ max εw min t ln ε 1 + ln w 1 min ln λ 1 max

6 9. Schnell mischende Markov-Ketten 83 Wegen 1 x ln x 1 für 0 < x < 1 ist das edenfalls dann der Fall, wenn t ln ε 1 + ln w 1 min 1 λ max Schnelles Mischen liegt also edenfalls dann vor, wenn ln w 1 min und 1/(1 λ max) polynomiell in I sind. Damit haben wir zumindest eine Hälfte des folgenden Satzes bewiesen, der obere und untere Schranken für τ(ε) angibt: 9.26 Satz. 1 1 τ(ε) log 1 λ max w min ε 1 τ(ε) 2(1 λ max ) log 1 2ε Es stellt sich die Frage, woher man (zumindest näherungsweise) Kenntnis von λ max bzw. im Falle von reversiblen Markov-Ketten von λ 2 bekommen kann. Eine Möglichkeit ist der sogenannte Leitwert einer Markov-Kette. Wir werden ihn mit Hilfe gewichteter Graphen einführen, die später selbst noch nützlich sein werden Definition Für eine reversible Markov-Kette M = (S, P) mit stationärer Verteilung w sei F M der gerichtete gewichtete Graph mit Knotenmenge S und Kantenmenge E F = {(i, ) i P i > 0}. Jede Kante (i, ) ist gewichtet mit der reellen Zahl c(i, ) = w i P i Definition Für eine reversible Markov-Kette mit Zustandsmenge S und stationärer Verteilung w definieren wir für ede Teilmenge T S die Kapazität C(T) = w i i T den Fluß F(T) = w i P i i T,/ T und Φ(T) = F(T)/C(T) Der Leitwert Φ der Markov-Kette ist dann Φ = min max{φ(t), Φ(S T)}. T S Eine kurze Überlegung zeigt, dass Φ(T) die bedingte Wahrscheinlichkeit ist, dass man bei der Markov-Kette mit stationärer Verteilung einen Übergang von innerhalb von T nach außerhalb von T beobachtet. Wenn Φ(T) klein ist, dann ist T sozusagen eine Art Falle, aus der die Markov-Kette schlecht heraus kommt. Man kann nun mit einigem technischen Aufwand zeigen: 9.29 Satz. Für ede reversible Markov-Kette gilt: Zusammen mit Punkt 9.25 ergibt sich: 1 2Φ 2 λ 2 1 Φ2 2.

7 9. Schnell mischende Markov-Ketten Korollar. Für reversible Markov-Ketten (mit λ 2 = λ max ) ist τ(ε) 2 Φ 2 (ln ε 1 + ln w 1 min ) Man kennt mehrere Methoden, um den Leitwert edenfalls mancher Markov-Ketten zu berechnen. Die folgende Definition ist eine Art graphentheoretische Version des Leitwertes: 9.31 Definition Für einen ungerichteten Graphen (V, E) ist die Kantenvervielfachung µ das Minimum der Zahlen {(i, ) i T / T (i, ) E} T wobei über alle Teilmengen T V minimiert werde mit T V / Man kann sich überlegen, dass für die Markov-Ketten M G,β aus Definition 9.2 gilt: Φ = βµ/d. Damit ist man bei der Aufgabe gelandet, die Kantenvervielfachung von Graphen zu bestimmen. Das kann man zum Beispiel mit Hilfe der Methode der sogenannten kanonischen Pfade von Sinclair machen. Die Verallgemeinerung für beliebige reversible Markov-Ketten betrachtet Mehrgüterflüsse Definition Für edes Paar (i, ) von Knoten in F M soll von einem Gut g i die Menge w i w von i nach transportiert werden. Dazu werden Flüsse f i : E F R + gesucht, so dass die folgenden naheliegenden Forderungen erfüllt sind: f i (i, k) = w i w k für alle l i, : f i (k, l) = f i (l, m) k m f i (k, ) = w i w k Der Gesamtfluss durch eine Kante e sei f(e) = i f i (e) und die relative Kantenauslastung ρ(f) = max e E F f(e)/c(e). Dann gilt die folgende Aussage, die wir hier nicht beweisen: 9.34 Lemma. Für ede Markov-Kette mit Flüssen f i gilt: Φ 1 2ρ(f). Um auf einen großen Leitwert schließen zu können, muss man daher versuchen, Flüsse mit kleiner (i. e. polynomieller) relativer Kantenauslastung zu finden. Wir wollen dies nun auf Random Walks im Hyperwürfel anwenden.

8 9. Schnell mischende Markov-Ketten Beispiel. Dazu sei eine Dimensionalität n beliebig aber fest gewählt und M die Markov-Kette, die sich gemäß Definition 9.2 für β /2 aus dem n-dimensionalen Hyperwürfel H n als zu Grunde liegenden Graphen ergibt. Das n sei per definitionem die Größe der Probleminstanz. M ist reversibel gemäß Punkt 9.3. Da in H n eder Knoten Grad n hat, sind die Übergangswahrscheinlichkeiten also P ii /2 und P i /2n für i. Aus Symmetriegründen ist klar, dass die stationäre Verteilung die Gleichverteilung ist mit w i /2 n ; damit ist natürlich auch w min /2 n. Offensichtlich ist ln 1/w min Θ(n) polynomiell in n. Um einzusehen, dass M schnell mischend ist, genügt es folglich wegen Lemma 9.34, Flüsse f i zu finden, so dass ρ(f) polynomiell (in n) ist. Dazu gehen wir wie folgt vor. Jeder Fluss f i muss gerade die Menge 1/2 2n transportieren. Sie wird wie folgt verteilt: Zwischen i und gibt es d! kürzeste Pfade, wobei d die Hammingdistanz zwischen i und ist. Auf edem dieser Pfade transportieren wir den gleichen Anteil der Gesamtmenge. Die Bestimmung der relativen Kantenauslastung wird dadurch erleichtert, dass aus Symmetriegründen auf eder Kante der gleiche Gesamtfluss vorliegt. Für edes d gibt es 2 n (n d) Paare (i, ) mit Abstand d. Für ein festes Paar (i, ) haben alle für den Fluss f i verwendeten Pfade Länge d und es ist folglich f i (e) = dw i w. e E F Also ist f(e) E F n2 n 2 2n 2 2n 2 2n n ( ) n 2 n d w i w d d=1 n ( ) n 2 n 1 d d 2 2n n ( ) n d d n n ( ) n 1 d 1 d=1 d=1 d=1 n 1 d=0 ( ) n 1 d = 2n 1 2 2n 2 2 n Andererseits ist für alle Kanten c(e) = w i P i /(2n 2 n ) und somit ρ(f) /(2 2n ) 1/(2n 2 n ) = n. Wegen Korollar 9.30 sind diese Markov-Ketten also schnell mischend. Man mache sich noch einmal klar, was das bedeutet (siehe Definition 9.24): Es sei p = e 0 die Anfangs- Verteilung bei der man sicher im Knoten (0, 0,..., 0) des n-dimensionalen Hyperwürfels startet. Es sei p t die nach t Schritten erreichte Wahrscheinlichkeitsverteilung. Für edes ε = 2 k ist dann die ε-konvergenzzeit, also die Anzahl Schritte nach der p t w tv < ε immer gilt, polynomiell in ln 1/ε = k und n. Und das, obwohl der Hyperwürfel 2 n Knoten hat!

9 9. Schnell mischende Markov-Ketten 86 Zusammenfassung Oft hat man es mit ergodischen Markov-Ketten zu tun, die sogar reversibel sind. In diesem Fall gibt es Kriterien, um festzustellen, ob sie schnell mischend sind. Literatur Aldous, David und James Allen Fill (1999). Reversible Markov Chains and Random Walks on Graphs. In: url: (siehe S. 80). Behrends, Ehrhard (2000). Introduction to Markov Chains. Advanced Lectures in Mathematics. Vieweg (siehe S. 78). Hastings (1970). Monte Carlo Sampling Methods Using Markov Chains and Their Applications. In: Biometrika 57.1, S doi: /biomet/ (siehe S. 79). Levin, Davind A., Yuval Peres und Elizabeth L. Wilmer (2009). Markov Chains and Mixing Times. AMS (siehe S. 81). Metropolis, Nicholas u. a. (1953). Equations of State Calculations by Fast Computing Machines. In: Journal of Chemical Physics 21.6, S (siehe S. 79). Randall, Dana (2006). Rapidly Mixing Markov Chains with Applications in Computer Science and Physics. In: Computing in Science and Engineering 8.2, S (siehe S. 78). Steger, Angelika (2001). Schnell mischende Markov-Ketten. In: url: tu-muenchen.de/lehre/2001ss/ra/slides/markov-skript.ps (siehe S. 78, 80).

10 Schnell mischende Markov-Ketten

10 Schnell mischende Markov-Ketten 10 Schnell mischende Markov-Ketten Allgemeines zu schnell mischenden Markov-Ketten findet man zum Beispiel in dem Buch Introduction to Markov Chains von Behrends (2000). Außerdem haben wir von einem Teil

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 25 Überblick Überblick Metropolis-Algorithmus

Mehr

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij. 8 Markov-Ketten 8.1 Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

7 Markov-Ketten. 7.1 Grundlegendes zu Markov-Ketten

7 Markov-Ketten. 7.1 Grundlegendes zu Markov-Ketten 58 7 Markov-Ketten 7. Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.

Mehr

DisMod-Repetitorium Tag 3

DisMod-Repetitorium Tag 3 DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag 20.05.20 Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis

Mehr

Methoden der Statistik Markov Chain Monte Carlo Methoden

Methoden der Statistik Markov Chain Monte Carlo Methoden Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Thema: Totalvariationabstand, Kopplung und Mischzeiten

Thema: Totalvariationabstand, Kopplung und Mischzeiten Technische Universität Berlin Thema: Totalvariationabstand, Kopplung und Mischzeiten Ausarbeitung zum Seminar Moderne Anwendung von Markovketten Name: Nina Kamswich Matrikelnummer: 33677 Fachbereich: Mathematik

Mehr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr

2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1}

2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1} 1. Berechne für jeden Knoten i in BFS-Art eine Liste S i von von i aus erreichbaren Knoten, so dass (i) oder (ii) gilt: (i) S i < n 2 + 1 und Si enthält alle von i aus erreichbaren Knoten (ii) S i = n

Mehr

16.3 Rekurrente und transiente Zustände

16.3 Rekurrente und transiente Zustände 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht

Mehr

Seien u, v V, u v. Da G zusammenhängend ist, muss mindestens ein Pfad zwischen u und v existieren.

Seien u, v V, u v. Da G zusammenhängend ist, muss mindestens ein Pfad zwischen u und v existieren. Beweis: 1. 2. Seien u, v V, u v. Da G zusammenhängend ist, muss mindestens ein Pfad zwischen u und v existieren. Widerspruchsannahme: Es gibt zwei verschiedene Pfade zwischen u und v. Dann gibt es einen

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph.

Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph. Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph. a) Es seien W 1 = (V, E 1 ), W 2 = (V, E 2 ) Untergraphen von G, die beide Wälder sind. Weiter gelte E 1 > E 2.

Mehr

Einführung in Markoff-Ketten

Einführung in Markoff-Ketten Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die

Mehr

Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,...

Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,... Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,..., k, so dass gilt M = k c i P i i=1 k c i = r. i=1 Diskrete Strukturen 7.1 Matchings

Mehr

Vorlesung 13a. Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen. Teil 2

Vorlesung 13a. Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen. Teil 2 Vorlesung 13a Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen Teil 2 1 Die Erneuerungskette: 2 Die Erneuerungskette: Auf S = N betrachten wir folgende stochastische Dynamik: Die Erneuerungskette:

Mehr

5 Zwei spieltheoretische Aspekte

5 Zwei spieltheoretische Aspekte 5 Zwei spieltheoretische Aspekte In diesem Kapitel wollen wir uns mit dem algorithmischen Problem beschäftigen, sogenannte Und-Oder-Bäume (kurz UOB) auszuwerten. Sie sind ein Spezialfall von Spielbäumen,

Mehr

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle). 77 Markowketten 77 Motivation Der Zustand eines Systems zur Zeit n N werde durch eine Zufallsvariable X n beschrieben und soll nur von X n abhängen (nicht jedoch von früheren Zuständen X n, X n 3, ) Wir

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme 10 Matching-Probleme 10.1 Definition von Matching-Probleme Definition 21 [2-dimensionales Matching] Sei G = (V, E) ein ungerichteter Graph und E E. E ist ein Matching, wenn für alle Kantenpaare e 1, e

Mehr

Übung zur Vorlesung Diskrete Mathematik (MAT.107) Blatt Beispiellösungen Abgabefrist:

Übung zur Vorlesung Diskrete Mathematik (MAT.107) Blatt Beispiellösungen Abgabefrist: Svenja Hüning, Michael Kerber, Hannah Schreiber WS 2016/2017 Übung zur Vorlesung Diskrete Mathematik (MAT.107) Blatt Beispiellösungen Abgabefrist: Hinweise: Dieses Blatt präsentiert Beispiellösungen zu

Mehr

Exact Sampling: Der Propp-Wilson-Algorithmus

Exact Sampling: Der Propp-Wilson-Algorithmus Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München gerstel@in.tum.de Zusammenfassung Der Propp-Wilson-Algorithmus liefert

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

Univ.-Prof. Dr. Goulnara ARZHANTSEVA

Univ.-Prof. Dr. Goulnara ARZHANTSEVA Diskrete Mathematik Univ.-Prof. Dr. Goulnara ARZHANTSEVA SS 2018 c Univ.-Prof. Dr. Goulnara Arzhantseva Kapitel 08: Menger, König und Hall / Planare Graphen 1 / 30 Der Satz von Menger: s t trennende Kantenmenge

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Kapitel 5: Minimale spannende Bäume Gliederung der Vorlesung

Kapitel 5: Minimale spannende Bäume Gliederung der Vorlesung Gliederung der Vorlesung 1. Grundbegriffe 2. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege. Minimale spannende Bäume. Färbungen und Cliquen. Traveling Salesman Problem. Flüsse in Netzwerken

Mehr

Seminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11.

Seminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen 11. Juni 2009 Gliederung 1 Problemstellung 2 Vektorprodukt Approximationen Samplesammlung 3 Schritte Lokalität und Nachrichtenkomplexität

Mehr

Trennende Markov Ketten

Trennende Markov Ketten Trennende Markov Ketten (in Zusammenarbeit mit A. Martinsson) Timo Hirscher Chalmers Tekniska Högskola Seminarvortrag KIT 8. Mai 206 Übersicht Der Seminarvortrag ist wie folgt gegliedert: Einleitung Denitionen

Mehr

102 KAPITEL 14. FLÄCHEN

102 KAPITEL 14. FLÄCHEN 102 KAPITEL 14. FLÄCHEN Definition 14.3.1 (Kurve) Es sei M eine k-dimensionale Untermannigfaltigkeit des R n. Eine C 1 - Kurve γ : ( a, a) R n mit γ(( a, a)) M heißt Kurve auf M durch x 0 = γ(0). Definition

Mehr

Eigenwerte und Netzwerkanalyse. Page Rank

Eigenwerte und Netzwerkanalyse. Page Rank A Google versucht die Bedeutung von Webseiten mithilfe des sogenannten zu ermitteln. Der einer Seite basiert ausschließlich auf der Verweisstruktur des Webs. Der Inhalt einer Seite hat dagegen keinen direkten

Mehr

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren 3. Wurzelsysteme Als erstes führen wir den Begriff eines Wurzelsystems ein. Definition 3.1 (Wurzelsystem). Eine endliche Teilmenge Φ V {0} heißt Wurzelsystem falls gilt: (R1) Φ Rα = {±α} für α Φ, (R2)

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester

Mehr

16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87

16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 16. November 2011 Zentralitätsmaße H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 Darstellung in spektraler Form Zentralität genügt Ax = κ 1 x (Herleitung s. Tafel), daher ist x der Eigenvektor

Mehr

Markov Ketten und Bonus Malus Systeme

Markov Ketten und Bonus Malus Systeme Grund Stoch Markov Ketten Bonus Malus Probleme L 1 / 46 Markov Ketten und Bonus Malus Systeme Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden TU Wien 19. Mai 2010

Mehr

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute 3.4 PageRank Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute Wichtigkeit von Webseiten; nicht Relevanz bezüglich Benutzeranfrage. Anfrageunabhängiges Ranking. Ausgangspunkt: Eingangsgrad.

Mehr

Lösung zur Übung für Analysis einer Variablen WS 2016/17

Lösung zur Übung für Analysis einer Variablen WS 2016/17 Blatt Nr. 3 Prof. F. Merkl Lösung zur Übung für Analysis einer Variablen WS 206/7 Aufgabe Das Guthaben G setzt sich zusammen aus der Summe aller bisherigen Einzahlungen multipliziert mit ( + p) k, wobei

Mehr

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q: Lineare Algebra D-MATH, HS 214 Prof Richard Pink Serie 5 1 [Aufgabe] Invertieren Sie folgende Matrizen über Q: 1 a) 1 1 1 1 1 2 1 1 1 b) 1 2 1 1 1 1 2 1 1 1 1 2 1 2 3 1 c) 1 3 3 2 2 1 5 3 1 2 6 1 [Lösung]

Mehr

Diskrete Strukturen Kapitel 4: Graphentheorie (Grundlagen)

Diskrete Strukturen Kapitel 4: Graphentheorie (Grundlagen) WS 2015/16 Diskrete Strukturen Kapitel 4: Graphentheorie (Grundlagen) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_15

Mehr

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage

Mehr

WS 2013/14. Diskrete Strukturen

WS 2013/14. Diskrete Strukturen WS 2013/14 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws1314

Mehr

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1 Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme

Mehr

LANGZEITVERHALTEN VON MARKOW-KETTEN

LANGZEITVERHALTEN VON MARKOW-KETTEN LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

Wir wollen nun die Behauptung beweisen, dass die Laufzeit von SELECT linear ist, also dass T (n) = O(n) gilt.

Wir wollen nun die Behauptung beweisen, dass die Laufzeit von SELECT linear ist, also dass T (n) = O(n) gilt. Abschätzung für die Rekursion von SELECT Wir wollen nun die Behauptung beweisen, dass die Laufzeit von SELECT linear ist, also dass T (n) = O(n) gilt. Wir nehmen erst einmal an, dass eine Konstante d existiert,

Mehr

Proseminar HS Ebene algebraische Kurven Vortrag I.6. Duale Kurven. David Bürge 4. November 2010

Proseminar HS Ebene algebraische Kurven Vortrag I.6. Duale Kurven. David Bürge 4. November 2010 Proseminar HS 010 - Ebene algebraische Kurven Vortrag I.6 Duale Kurven David Bürge 4. November 010 1 1 1 1 Eine nierenförmige Kleinsche Quartik und ihre duale Kurve in R INHALTSVERZEICHNIS Inhaltsverzeichnis

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Markov Chain Monte Carlo Peter Frentrup Humboldt-Universität zu Berlin 16. Januar 2018 (Humboldt-Universität zu Berlin) Markov Chain Monte Carlo 16. Januar 2018 1 / 17 Übersicht 1

Mehr

2.1 Importance sampling: Metropolis-Algorithmus

2.1 Importance sampling: Metropolis-Algorithmus Kapitel 2 Simulationstechniken 2.1 Importance sampling: Metropolis-Algorithmus Eine zentrale Fragestellung in der statistischen Physik ist die Bestimmung von Erwartungswerten einer Observablen O in einem

Mehr

Metropolis-Algorithmus

Metropolis-Algorithmus Schriftliche Ausarbeitung des Themas Metropolis-Algorithmus zum Seminar Moderne Anwendungen der Theorie der Markovketten Sommersemester 2016 Sabine Weingarten Bachelor Mathematik Prof. Dr. Wolfgang König

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Eziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2007/08

Mehr

Cauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit

Cauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit Vortrag zum Seminar zur Analysis, 10.05.2010 Michael Engeländer, Jonathan Fell Dieser Vortrag stellt als erstes einige Sätze zu Cauchy-Folgen auf allgemeinen metrischen Räumen vor. Speziell wird auch das

Mehr

Übungsaufgaben Lösungen

Übungsaufgaben Lösungen Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij

Mehr

Diskrete Mathematik 1

Diskrete Mathematik 1 Ruhr-Universität Bochum Lehrstuhl für Kryptologie und IT-Sicherheit Prof. Dr. Alexander May M. Ritzenhofen, M. Mansour Al Sawadi, A. Meurer Lösungsblatt zur Vorlesung Diskrete Mathematik 1 WS 2008/09 Blatt

Mehr

(alternierendes Vorzeichen) a n := ( 1)n n + 1 a n := 3n 2 7n a n := n(n 1)(n 2), n 3

(alternierendes Vorzeichen) a n := ( 1)n n + 1 a n := 3n 2 7n a n := n(n 1)(n 2), n 3 ANALYSIS FÜR PHYSIK UND VERWANDTE FÄCHER I 43 2. Folgen und Reihen Folgen und Reihen werden in jedem Analysislehrbuch besprochen, siehe etwa [H, Kapitel III], [K, Kapitel 5], [J2, Kapitel 23] oder [M,

Mehr

Dieser Graph hat 3 Zusammenhangskomponenten

Dieser Graph hat 3 Zusammenhangskomponenten Vl 2, Informatik B, 19. 04. 02 1.1.3 Definitionen und wichtige Graphen Sei im folgenden G =(V;E) ein schlichter ungerichteter Graph. Definition: Der Grad eines Knoten v in einem ungerichteten Graphen ist

Mehr

Bipartite Graphen. Beispiele

Bipartite Graphen. Beispiele Bipartite Graphen Ein Graph G = (V, E) heiÿt bipartit (oder paar), wenn die Knotenmenge in zwei disjunkte Teilmengen zerfällt (V = S T mit S T = ), sodass jede Kante einen Knoten aus S mit einem Knoten

Mehr

Intervallaustauschtransformationen, Flüsse und das Lemma von Masur

Intervallaustauschtransformationen, Flüsse und das Lemma von Masur Intervallaustauschtransformationen, Flüsse und das Lemma von Masur Gregor Bethlen 1 Intervallaustauschtransformationen Stets sei in diesem Abschnitt I := [a, b] ein Intervall und a = a 0 < a 1

Mehr

Analysis I. Guofang Wang Universität Freiburg

Analysis I. Guofang Wang Universität Freiburg Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum

Mehr

Wissenswertes über den Metropolis-Algorithmus

Wissenswertes über den Metropolis-Algorithmus Wissenswertes über den Metropolis-Algorithmus Seminavortrag von Stefanie Schmutte Westfälische Wilhelms-Universität Münster Fachbereich Mathematik und Informatik Institut für mathematische Statistik Inhaltsverzeichnis

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Am Dienstag, den 16. Dezember, ist Eulenfest. 1/45

Am Dienstag, den 16. Dezember, ist Eulenfest. 1/45 Am Dienstag, den 16. Dezember, ist Eulenfest. 1/45 Grundbegriffe der Informatik Einheit 12: Erste Algorithmen in Graphen Thomas Worsch Universität Karlsruhe, Fakultät für Informatik Wintersemester 2008/2009

Mehr

Inhalt. 1. Flußprobleme. 2. Matching. 3. Lineares Programmieren. 4. Ganzzahliges Programmieren. 5. NP-Vollständigkeit. 6. Approximationsalgorithmen

Inhalt. 1. Flußprobleme. 2. Matching. 3. Lineares Programmieren. 4. Ganzzahliges Programmieren. 5. NP-Vollständigkeit. 6. Approximationsalgorithmen Effiziente Algorithmen Einführung 1 Inhalt 1. Flußprobleme 2. Matching. Lineares Programmieren 4. Ganzzahliges Programmieren 5. NP-Vollständigkeit 6. Approximationsalgorithmen 7. Backtracking und Branch-and-Bound

Mehr

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 2 Melanie Kaspar, Prof. Dr. B. Grabowski 3 Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

Die Abbildung zeigt die Kette aus dem "

Die Abbildung zeigt die Kette aus dem ½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;

Mehr

Die Probabilistische Methode

Die Probabilistische Methode Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.

Mehr

Vorkurs Mathematik und Informatik Mengen, natürliche Zahlen, Induktion

Vorkurs Mathematik und Informatik Mengen, natürliche Zahlen, Induktion Vorkurs Mathematik und Informatik Mengen, natürliche Zahlen, Induktion Saskia Klaus 07.10.016 1 Motivation In den ersten beiden Vorträgen des Vorkurses haben wir gesehen, wie man aus schon bekannten Wahrheiten

Mehr

Vorlesungstermin 2: Graphentheorie II. Markus Püschel David Steurer. Algorithmen und Datenstrukturen, Herbstsemester 2018, ETH Zürich

Vorlesungstermin 2: Graphentheorie II. Markus Püschel David Steurer. Algorithmen und Datenstrukturen, Herbstsemester 2018, ETH Zürich Vorlesungstermin 2: Graphentheorie II Markus Püschel David Steurer Algorithmen und Datenstrukturen, Herbstsemester 2018, ETH Zürich Wiederholung: Vollständige Induktion Ziel: zeige n N. A(n) für eine Aussage

Mehr

Markov-Ketten-Monte-Carlo-Verfahren

Markov-Ketten-Monte-Carlo-Verfahren Markov-Ketten-Monte-Carlo-Verfahren Anton Klimovsky 21. Juli 2014 Strichprobenerzeugung aus einer Verteilung (das Samplen). Markov- Ketten-Monte-Carlo-Verfahren. Metropolis-Hastings-Algorithmus. Gibbs-Sampler.

Mehr

Wiederholung zu Flüssen

Wiederholung zu Flüssen Universität Konstanz Methoden der Netzwerkanalyse Fachbereich Informatik & Informationswissenschaft SS 2008 Prof. Dr. Ulrik Brandes / Melanie Badent Wiederholung zu Flüssen Wir untersuchen Flüsse in Netzwerken:

Mehr

Konstruktion reeller Zahlen aus rationalen Zahlen

Konstruktion reeller Zahlen aus rationalen Zahlen Konstruktion reeller Zahlen aus rationalen Zahlen Wir nehmen an, daß der Körper der rationalen Zahlen bekannt ist. Genauer wollen wir annehmen: Gegeben ist eine Menge Q zusammen mit zwei Verknüpfungen

Mehr

2. Isotropie. Beweis: (i) (ii): β U ist nicht ausgeartet. U U = {0} (ii) (iii): β U ist nicht ausgeartet. Da β nicht ausgeartet ist, gilt U = U:

2. Isotropie. Beweis: (i) (ii): β U ist nicht ausgeartet. U U = {0} (ii) (iii): β U ist nicht ausgeartet. Da β nicht ausgeartet ist, gilt U = U: 2. Isotropie Im folgenden sei V ein K-Vektorraum der Dimension n. Es sei q eine quadratische Form darüber und β die zugehörige symmetrische Bilinearform. Zudem gelte in K: 1 + 1 0. Notation 2.0: Wir nennen

Mehr

13 Auswahlaxiom und Zornsches Lemma

13 Auswahlaxiom und Zornsches Lemma 13 Auswahlaxiom und Zornsches Lemma Handout zur Funktionalanalysis I von H. Glöckner, 25.11.2008 Wichtige Teile der modernen Mathematik beruhen auf dem sogenannten Auswahlaxiom der Mengenlehre. Dieses

Mehr

Diskrete Strukturen Kapitel 4: Graphentheorie (Bäume)

Diskrete Strukturen Kapitel 4: Graphentheorie (Bäume) WS 2016/17 Diskrete Strukturen Kapitel 4: Graphentheorie (Bäume) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_16

Mehr

6. Transitive Hülle. 6.1 Min-Plus-Matrix-Produkt und Min-Plus-Transitive Hülle Ring Z(+, ) Semiring N(+, )

6. Transitive Hülle. 6.1 Min-Plus-Matrix-Produkt und Min-Plus-Transitive Hülle Ring Z(+, ) Semiring N(+, ) 6. Transitive Hülle 6.1 Min-Plus-Matrix-Produkt und Min-Plus-Transitive Hülle Ring Z(+, ) Semiring N(+, ) Gruppe Halbgruppe Halbgruppe Halbgruppe Wir betrachten den (kommutativen) Semiring über R { } mit

Mehr

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung Gliederung der Vorlesung 1. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege 4. Minimale spannende Bäume 5. Färbungen und Cliquen 6. Traveling Salesman Problem 7. Flüsse in Netzwerken

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als

Mehr

4 Kurven im R n. Sei I R ein beliebiges Intervall (offen, halboffen, abgeschlossen, beschränkt oder unbeschränkt), das mindestens einen Punkt enthält.

4 Kurven im R n. Sei I R ein beliebiges Intervall (offen, halboffen, abgeschlossen, beschränkt oder unbeschränkt), das mindestens einen Punkt enthält. 4 Kurven im R n Sei I R ein beliebiges Intervall (offen, halboffen, abgeschlossen, beschränkt oder unbeschränkt), das mindestens einen Punkt enthält. Definition 4.1. (a) Unter einer Kurve im R n versteht

Mehr

Freie Bäume und Wälder

Freie Bäume und Wälder (Martin Dietzfelbinger, Stand 4.6.2011) Freie Bäume und Wälder In dieser Notiz geht es um eine besondere Sorte von (ungerichteten) Graphen, nämlich Bäume. Im Gegensatz zu gerichteten Bäumen nennt man diese

Mehr

1 Eingebettete Untermannigfaltigkeiten des R d

1 Eingebettete Untermannigfaltigkeiten des R d $Id: unter.tex,v 1.2 2014/04/14 13:19:35 hk Exp hk $ 1 Eingebettete Untermannigfaltigkeiten des R d In diesem einleitenden Paragraphen wollen wir Untermannigfaltigkeiten des R d studieren, diese sind die

Mehr

Kapitel 12: Markov-Ketten

Kapitel 12: Markov-Ketten Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 21.01.2016 Kapitel 12: Markov-Ketten Ab jetzt betrachten wir stochastische Prozesse (X n ) n N0 mit 1. diskreter Zeit N 0 = {0,1,2,...},

Mehr

Graphen KAPITEL 3. Dieses Problem wird durch folgenden Graph modelliert:

Graphen KAPITEL 3. Dieses Problem wird durch folgenden Graph modelliert: KAPITEL 3 Graphen Man kann als Ursprung der Graphentheorie ein Problem sehen, welches Euler 1736 von Studenten aus Königsberg gestellt bekam. Der Fluss Pregel wird von 7 Brücken überquert, und die Frage

Mehr

15. Elementare Graphalgorithmen

15. Elementare Graphalgorithmen Graphen sind eine der wichtigste Modellierungskonzepte der Informatik Graphalgorithmen bilden die Grundlage vieler Algorithmen in der Praxis Zunächst kurze Wiederholung von Graphen. Dann Darstellungen

Mehr

Mathematik für Informatiker II (Maikel Nadolski)

Mathematik für Informatiker II (Maikel Nadolski) Lösungen zum 4. Aufgabenblatt vom Mittwoch, den 02.Mai 2012 zur Vorlesung Mathematik für Informatiker II (Maikel Nadolski) 1. Reelles Betrachten Sie die folgenden beiden Mengen reeller Zahlen: S = { m

Mehr

Am Dienstag, den 15. Dezember, ist Eulenfest. 1/60

Am Dienstag, den 15. Dezember, ist Eulenfest. 1/60 Am Dienstag, den 15. Dezember, ist Eulenfest. 1/60 Grundbegriffe der Informatik Einheit 12: Erste Algorithmen in Graphen Thomas Worsch Karlsruher Institut für Technologie, Fakultät für Informatik Wintersemester

Mehr

Vollständiger Graph. Definition 1.5. Sei G =(V,E) ein Graph. Gilt {v, w} E für alle v, w V,v w, dann heißt G vollständig (complete).

Vollständiger Graph. Definition 1.5. Sei G =(V,E) ein Graph. Gilt {v, w} E für alle v, w V,v w, dann heißt G vollständig (complete). Vollständiger Graph Definition 1.5. Sei G =(V,E) ein Graph. Gilt {v, w} E für alle v, w V,v w, dann heißt G vollständig (complete). Mit K n wird der vollständige Graph mit n Knoten bezeichnet. Bemerkung

Mehr

LANGZEITVERHALTEN VON MARKOW-KETTEN

LANGZEITVERHALTEN VON MARKOW-KETTEN LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte

Mehr

( ) ( ) < b k, 1 k n} (2) < x k

( ) ( ) < b k, 1 k n} (2) < x k Technische Universität Dortmund Fakultät für Mathematik Proseminar Analysis Prof. Dr. Röger Benjamin Czyszczon Satz von Heine Borel Gliederung 1. Zellen und offene Überdeckungen 2. Satz von Heine Borel

Mehr

Vollständigkeit. 1 Konstruktion der reellen Zahlen

Vollständigkeit. 1 Konstruktion der reellen Zahlen Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente

Mehr

Proseminar Analysis Vollständigkeit der reellen Zahlen

Proseminar Analysis Vollständigkeit der reellen Zahlen Proseminar Analysis Vollständigkeit der reellen Zahlen Axel Wagner 18. Juli 2009 1 Voraussetzungen Zunächst wollen wir festhalten, was wir als bekannt voraussetzen: Es sei (Q, +, ) der Körper der rationalen

Mehr