Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Größe: px
Ab Seite anzeigen:

Download "Einführung in die Theorie der Markov-Ketten. Jens Schomaker"

Transkript

1 Einführung in die Theorie der Markov-Ketten Jens Schomaker

2 Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch formalisieren: Eine Person steht in einer der vier Ecken eines Raumes - in diesem Fall s 1 - und wirft eine faire Münze, um zu entscheiden, ob sie sich im Uhrzeigersinn oder gegen ihn bewegt. Dies wiederholt die Person beliebig oft. Man möchte also für alle Schritte des Experiments, die man anhand der natürlichen Zahlen abzählt, eine Zufallsvariable X n definieren, welche die Ecke angibt, in der sich die Person im n-ten Schritt befindet. D.h. man wählt einen (zeitdiskreten) stochastischen Prozess (X 0, X 1,...), der Werte in {s 1,..., s 4 } annimmt. Dass ein zugehöriger Produktraum mit Wahrscheinlichkeitsmaß P wie unten existiert, ist nicht klar, wird aber durch den Satz von Ionescu-Tulcea geliefert, der aufgrund seines Umfangs jedoch nicht behandelt wird. Um die Ausgangsbedingung, dass in s 1 gestartet wird, zu erfüllen, sollte gelten: P(X 0 s 1 ) 1. Die Entscheidungsregel für die Bewegung liefert zudem: und P(X 1 s 2 ) 1 /2 P(X 1 s 4 ) 1 /2. Um die Verteilungen der X n für n 2 zu berechnen, benötigt man nun jedoch bedingte Wahrscheinlichkeiten. Für den Fall X n s 2 ergibt sich z.b. aus der Entscheidungsregel für die Bewegung folgendes: und P(X n+1 s 1 X n s 2 ) 1 /2 P(X n+1 s 3 X n s 2 ) 1 /2. Genauer gilt sogar aufgrund der Entscheidungsregel, dass X n+1 nur von X n abhängt; für X n s 2 und beliebige i 0,..., i n 1 {1,..., 4} beispielsweise: und P(X n+1 s 1 X n s 2, X n 1 s in 1,..., X 0 s i0 ) 1 /2 P(X n+1 s 3 X n s 2, X n 1 s in 1,..., X 0 s i0 ) 1 /2. 1

3 Diese beispielhaften Überlegungen fasst man nun in einer Definition zusammen: 1.2 Definition Sei P eine k k-matrix mit Einträgen (P i,j ) i,j1,...,k. Ein (zeitdiskreter) stochastischer Prozess (X 0, X 1,...) mit endlichem Zustandsraum {s 1,..., s k } heißt (homogene) Markov-Kette mit Übergangsmatrix P genau dann, wenn für alle n N, alle i, j {1,..., k} und alle i 0,..., i n 1 {1,..., k} gilt: P(X n+1 s j X n s i, X n 1 s in 1,..., X 0 s i0 ) P(X n+1 s j X n s i ) P i,j. (1) Die Einträge der Übergangsmatrix P heißen Übergangswahrscheinlichkeiten und die Übergangswahrscheinlichkeit P i,j ist die bedingte Wahrscheinlichkeit sich zum Zeitpunkt n + 1 im Zustand s j zu befinden, gegeben, dass man zum Zeitpunkt n im Zustand s i ist. Die Homogenität der Markov-Kette ist dabei die Zeitunabhängigkeit, d.h zu allen Zeiten n liegen dieselben Übergangswahrscheinlichkeiten P i,j bzw. liegt dieselbe Übergangsmatrix P vor. Homogenität wird in der Regel nicht erwähnt, da man diese Eigenschaft voraussetzen möchte, wenn man Markov-Ketten betrachtet. Die Eigenschaft, die durch das erste Gleichheitszeichen in Gleichung 1 gegeben ist, wird dabei als Markov- Eigenschaft - kurz ME - oder auch Gedächtsnislosigkeit bezeichnet. Sie drückt aus, dass die bedingte Wahrscheinlichkeit von X n+1 unter (X 0,..., X n ) nur von X n abhängt und unabhängig von den vorhergehenden X 0,..., X n 1 ist. Mit dieser Definition ergeben sich direkt folgende Eigenschaften für die Übergangsmatrix: i) P i,j 0 für alle i, j {1,..., k}, da (bedingte) Wahrscheinlichkeiten nicht negativ sind. ii) P i,j 1 für alle i {1,..., k}, da {s 1,..., s k } der gesamte Wertebereich von X n+1 ist: j1 P i,j P(X n+1 s j X n s i ) 1. j1 j1 1.3 Beispiel Das oben eingeführte Beispiel 1.1 hat also als Zustandsraum {s 1,..., s 4 } und als Übergangsmatrix: 0 0 P Definition Eine einfache und nahezu selbsterklärende Möglichkeit die Übergangsmatrix darzustellen, ist ein Übergangsgraph. Der Übergangsgraph für Beispiel 1.1 sieht beispielsweise wie folgt aus: s 1 s 2 s 4 s 3 Die Zustände werden dabei mit den zugehörigen Übergangswahrscheinlichkeiten verbunden, sofern diese nicht Null sind. Die Summe der Wahrscheinlichkeiten, die von einem Zustand wegzeigen, ist dabei immer 1, was der spaltenweisen Aufsummierung zu 1 in der Übergangsmatrix entspricht (vgl. Definition 1.2, Eigenschaft ii). Um das Beispiel 1.1 komplett zu erfassen, benötigen wir noch eine weitere Eigenschaft einer Markov-Kette: 1.5 Definition Die Anfangsverteilung einer Markov-Kette (X 0, X 1,...) mit Zustandsraum {s 1,..., s k } wird durch einen 2

4 Zeilenvektor µ (0) wie folgt definiert: µ (0) (µ (0) 1,..., µ(0) k ) : (P(X 0 s 1 ),..., P(X 0 s k )). Da µ (0) eine Wahrscheinlichkeitsverteilung auf dem Zustandsraum {s 1,..., s k } ist, gilt: i1 µ (0) i 1. Ebenso definiert man µ (n) für n 1 als die Wahrscheinlichkeitsverteilung der Markov-Kette zum Zeitpunkt n als: µ (n) (µ (n) 1,..., µ(n) k ) : (P(X n s 1 ),..., P(X n s k )). Auch hier gilt analog: i1 µ (n) i Beispiel Das oben eingeführte Beispiel 1.1 hat also als Anfangsverteilung: µ (0) (1, 0, 0, 0). Es wird sich in folgendem Satz zeigen, dass man zur Berechnung der µ (n) lediglich die Anfangsverteilung µ (0) und die Übergangsmatrix P benötigt. 1.7 Satz Sei eine Markov-Kette (X 0, X 1,...) mit Zustandsraum {s 1,..., s k }, Übergangsmatrix P und Anfangsverteilung µ (0) gegeben. Dann gilt für alle n N: µ (n) µ (0) P n. Induktion über n: n 1: Sei µ (0) (µ (0) 1,..., µ(0) ), dann gilt für j 1,..., k: k µ (1) j Def. P(X 1 s j ) σ-add. bed. W.-keit Def. P(X 0 s i, X 1 s j ) i1 P(X 0 s i )P(X 1 s j X 0 s i ) i1 i1 µ (0) i P i,j (µ (0) P ) j. Dabei ist (µ (0) P ) j der j-te Eintrag des Zeilenvektors µ (0) P. Also gilt: n n + 1: µ (1) (µ (1) 1,..., µ(1) k ) ((µ(0) P ) 1,..., (µ (0) P ) k ) µ (0) P. 3

5 Sei also die Behauptung für n gezeigt. Zeige, dass sie auch für n + 1 gilt. Für j 1,..., k gilt analog: µ (n+1) j P(X n+1 s j ) P(X n s i, X n+1 s j ) i1 P(X n s i )P(X n+1 s j X n s i ) i1 i1 µ (n) i P i,j (µ (n) P ) j. Also gilt auch µ (n+1) µ (n) P und damit und der Induktionsvoraussetzung auch: µ (n+1) µ (n) P IV µ (0) P n P µ (0) P n Beispiel Für Beispiel 1.1 ergibt sich mit Anfangsverteilung µ (0) (1, 0, 0, 0) induktiv durch einfaches Nachrechnen: { µ (n) (0, 1 /2, 0, 1 /2), falls n 1 und n ungerade. ( 1 /2, 0, 1 /2, 0), falls n 1 und n gerade Mit Anfangsverteilung µ (0) (0, 1, 0, 0) vertauscht sich dagegen die Zuordnung von gerade und ungerade. Die Wahl der Anfangsverteilung bestimmt also das Verhalten des weiteren Verlaufs der Verteilungen µ (n), wie man hier sieht, und gehört zu einer vollständigen Charakterisierung einer Markov-Kette. Ein anderes Beispiel gegeben durch eine Markov-Kette (X 0, X 1,...) mit Zustandsraum {s 1, s 2 } und folgender Übergangsmatrix ( 0,75 ) 0,25 0,25 0,75 liefert induktiv für alle n N µ (n) In beiden Fällen gilt jedoch lim n µ (n) ( 1 /2, 1 /2). { ( 1 /2(1 + 2 n ), 1 /2(1 2 n )), falls µ (0) (1, 0) ( 1 /2(1 2 n ), 1 /2(1 + 2 n )), falls µ (0) (0, 1). 1.9 Lemma Sei {a 0,..., a n } N für n 2 so, dass a 0 < a 1 <... < a n 1 < a n. Dann gilt für alle i 0,..., i n {1,..., k}: P(X an s in,..., X a1 s i1 X a0 s i0 ) n 1 j0 P(X aj+1 s ij+1 X aj s ij ). Anschaulich: Die Wahrscheinlichkeit eines gegebenen Weges durch den Übergangsgraph mit gegebenen Zeiten ist gleich dem Produkt der einzelnen Wege mit den entsprechenden Zeiten. Induktion über n: n 2: 4

6 Sei {a 0, a 1, a 2 } N so, dass a 0 < a 1 < a 2 : n n + 1: P(X a2 s i2, X a1 s i1 X a0 s i0 ) bed. W.-keit P(X a2 s i2 X a1 s i1, X a0 s i0 )P(X a1 s i1 X a0 s i0 ) ME P(Xa2 s i2 X a1 s i1 )P(X a1 s i1 X a0 s i0 ) 1 P(X aj+1 s ij+1 X aj s ij ) j0 Sei {a 0,..., a n+1 } N so, dass a 0 < a 1 <... < a n < a n+1 : P(X an+1 s in+1, X an s in,..., X a1 s i1 X a0 s i0 ) bed. W.-keit P(X an+1 s in+1 X an s in,..., X a0 s i0 )P(X an s in,..., X a1 s i1 X a0 s i0 ) n 1 ME & IV P(X an+1 s in+1 X an s in ) P(X aj+1 s ij+1 X aj s ij ) j0 n P(X aj+1 s ij+1 X aj s ij ) j Lemma Seien i, j {1,..., k}. Dann gilt für alle m, n N: P(X m+n s j X m s i ) (P n ) i,j, insbesondere ist dies unabhängig von m. Sei m fest aber beliebig. Beweise die Behauptung durch Induktion über n: n 1: n 1 folgt direkt aus der Definition von Markov-Kette. n n + 1: Sei also die Behauptung für n gezeigt. Zeige, dass sie auch für n + 1 gilt. P(X m+n+1 s j X m s i ) σ-add. 1.9 IV & Def. P(X m+n s q, X m+n+1 s j X m s i ) q1 P(X m+n s q X m s i )P(X m+n+1 s j X m+n s q ) q1 (P n ) i,q P q,j q1 (P n P ) i,j (P n+1 ) i,j 1.11 Kolmogorov-Chapman-Gleichung Seien i, j {1,..., k}. Dann gilt für alle m, n N die Kolmogorov-Chapman-Gleichung: P(X m+n s j X 0 s i ) P(X m s q X 0 s i )P(X m+n s j X m s q ). q1 5

7 Anschaulich: Die Wahrscheinlichkeit aller Wege gegeben durch Anfangs- und Endpunkt durch den Übergangsgraph mit gegebenen Anfangs- und Endzeiten ist gleich der Summe aller möglichen Wege mit festem Zeitpunkt für einen festen Zwischenschritt. Insbesondere gilt damit auch für alle q {1,..., k}: P(X m+n s j X 0 s i ) P(X m s q X 0 s i )P(X m+n s j X m s q ) P(X m+n s j X 0 s i ) 1.10 (P m+n ) i,j (P m ) i,q (P n ) q,j 1.10 q1 P(X m s q X 0 s i )P(X m+n s j X m s q ) q1 6

8 Irreduzible und aperiodische Markov-Ketten In diesem Kapitel werden zwei grundlegende Eigenschaften von Markov-Ketten beschrieben. 2.1 Definition Man sagt, dass ein Zustand s i mit einem Zustand s j kommuniziert, in Zeichen s i s j, genau dann, wenn die Markov-Kette positive Wahrscheinlichkeit besitzt, innerhalb einer Zeit n von Zustand s i nach Zustand s j zu gelangen; d.h. wenn ein n N existiert, sodass: P(X m+n s j X m s i ) > 0. Nach Lemma 1.10 ist dies unabhängig von m und es gilt P(X m+n s j X m s i ) (P n ) i,j. Weiter sagt man, dass zwei Zustände s i und s j miteinander kommunizieren, in Zeichen s i s j, genau dann, wenn s i s j und s j s i. 2.2 Definition Eine Markov-Kette (X 0, X 1,...) mit Zustandsraum {s 1,..., s k } und Übergangsmatrix P heißt irreduzibel genau dann, wenn für alle i, j {1,..., k} gilt, dass s i s j. Ansonsten heißt die Markov-Kette reduzibel. Eine äquivalente Formulierung für Irreduzibilität ist, dass für alle i, j {1,..., k} ein n N mit (P n ) i,j > 0 existiert. 2.3 Beispiel Die Irreduzibilität lässt sich am Übergangsgraph leicht veranschaulich und auch überprüfen, indem man alle Paare von Zuständen darauf überprüft, ob es jeweils einen Weg von einem Zustand in den anderen gibt. Die Markov-Kette aus Beispiel 1.1 ist z.b. irreduzibel. Übergangsgraphen von reduzibelen Markov-Ketten sind z.b. wie folgt gegeben: s 1 2/3 s 2 s 4 s 2 3/4 1/3 1/4 1 1 oder s s 3 s 5 s 3 Man sieht hier auch die Rechtfertigung für die Bezeichnung reduzibel, da das Betrachten des Langzeitverhaltens einer reduzibelen Markov-Kette, d.h. das Verhalten der µ (n) für große n, sich auf das Betrachten einer Markov-Kette mit kleinerem Zustandsraum und entsprechend angepasster Übergangsmatrix vereinfachen lässt. 2.4 Definition Die Periode d(s i ) eines Zustandes s i definiert man als: d(s i ) : ggt({n 1 (P n ) i,i > 0}), wobei ggt( ) :. 7

9 In Worten bedeutet dies, dass die Periode von s i der größte gemeinsame Teiler der Menge von Zeiten ist, an denen die Markov-Kette wieder nach s i (mit positiver Wahrscheinlichkeit) zurückkehren kann, sofern die Markov-Kette in s i gestartet ist, d.h. X 0 s i. Ist d(s i ) 1, so heißt der Zustand s i aperiodisch (die Markov-Kette kann also unregelmäßig nach s i zurückkehren). 2.5 Definition Falls alle Zustände der Markov-Kette aperiodisch sind, so heißt auch die Markov-Kette aperiodisch. Andernfalls heißt sie periodisch. 2.6 Beispiel Betrachte nur den Teil der linken Markov-Kette aus Beispiel 2.3 bestehend aus den Zuständen {s 1, s 2, s 3 }, also den folgenden Übergangsgraph: s 1 2/3 s 2 3/4 1/3 1/4 Man sieht leicht mit den Aussagen aus 1.10 und 1.11, dass für jeden Zustand s i gilt: Also ist diese reduzierte Markov-Kette aperiodisch. s 3 (P 2 ) i,i > 0 und (P 3 ) i,i > 0, und damit auch d(s i ) 1. Das Beispiel 1.1 hingegen ist periodisch, da für jeden Zustand s i gilt: (P n ) i,i > 0 genau dann, wenn n {2k k N}. Also ist d(s i ) ggt({2k > 0 k N}) 2. Man sieht hier auch den Zusammenhang zu den in Beispiel 1.8 berechneten Verteilungen µ (n), da man sich in Abhängigkeit vom Startzustand immer alternierend zwischen den Zustandspaaren s 1, s 3 und s 2, s 4 bewegt. Vorbereitend für den nächsten Satz benötigt man folgendes Lemma: 2.7 Lemma Sei A {a 1, a 2, a 3,...} eine Menge positiver, natürlicher Zahlen mit folgenden Eigenschaften: i) ggt(a) 1, und ii) A ist abgeschlossen unter Addition, d.h. wenn a, b A gilt, dann gilt auch a + b A. Dann existiert ein N N so, dass n A für alle n N. siehe Appendix in Brémaud, Pierre (1998) Markov Chains: Gibbs Fields, Monte Carlo Simulation, and Queues, Springer, New York. 2.8 Satz Sei eine aperiodische Markov-Kette (X 0, X 1,...) mit Zustandsraum {s 1,..., s k } und Übergangsmatrix P gegeben. Dann existiert ein N N so, dass (P n ) i,i > 0 für alle i {1,..., k} und alle n N. Für jeden Zustand s i definiere A i : {n 1 (P n ) i,i > 0}. Nach Voraussetzung ist die Markov-Kette aperiodisch, d.h. alle Zustände sind aperiodisch und somit gilt ggt(a i ) 1. Zur Anwendung des Lemmas benötigt man nun die Abgeschlossenheit unter Addition für A i : 8

10 Seien a 1, a 2 A i, d.h. es gilt Hiermit folgt: (P a1 ) i,i 1.10 P(X a1 s i X 0 s i ) > 0 und (P a2 ) i,i 1.10 P(X a1+a 2 s i X a1 s i ) > 0. Also gilt auch a 1 + a 2 A i. (P a1+a2 ) i,i 1.10 P(X a1+a 2 s i X 0 s i ) P(X a1+a 2 s i, X a1 s i X 0 s i ) 1.9 P(X a1 s i X 0 s i )P(X a1+a 2 s i X a1 s i ) > 0 Mit dem Lemma angewandt auf A i folgt nun, dass ein N i N existiert, sodass (P n ) i,i > 0 für alle n N i. N : max{n 1,..., N k } liefert die Behauptung des Satzes. 2.9 Korollar Sei eine aperiodische und irreduzibele Markov-Kette (X 0, X 1,...) mit Zustandsraum {s 1,..., s k } und Übergangsmatrix P gegeben. Dann existiert ein M N so, dass (P n ) i,j > 0 für alle i, j {1,..., k} und alle n M. Aufgrund der Aperiodizität und Satz 2.8 existiert ein N N so, dass (P n ) i,i > 0 für alle i {1,..., k} und alle n N. Für zwei Zustände s i und s j existiert aufgrund der Irreduzibilität ein n i,j N so, dass (P ni,j ) i,j > 0. Sei M i,j : N + n i,j, dann gilt für jedes m M i,j : (P m ) i,j P(X m s j X 0 s i ) P(X m s j, X m ni,j s i X 0 s i ) P(X m ni,j s i X 0 s i ) P(X m s j X m ni,j s i ) }{{}}{{} >0, da m n i,j N >0, nach Wahl von n i,j > 0 M : max{m i,j i, j 1,..., k} liefert die Behauptung des Korollars Satz Sei eine irreduzibele Markov-Kette (X 0, X 1,...) mit Zustandsraum {s 1,..., s k } und Übergangsmatrix P gegeben. Wenn ein Zustand s i mit P i,i > 0 existiert, dann ist die Markov-Kette auch aperiodisch. Zu zeigen, dass die Markov-Kette aperiodisch ist, bedeutet für alle j {1,..., k}: 1 d(s j ) ggt({n 1 (P n ) j,j > 0}). Sei also j {1,..., k} beliebig und i {1,..., k} nach Voraussetzung so, dass P i,i > 0. Aufgrund der Irreduzibilität existieren m 1, m 2 N so, dass (P m1 ) i,j > 0 und (P m2 ) j,i > 0. Damit folgt für alle n N: (P m2+n+m1 ) j,j P(X m2+n+m 1 s j X 0 s j ) P(X m2+n+m 1 s j, X m2+n s i,..., X m2 s i X 0 s j ) 1.9 (P m2 ) j,i (P i,i ) n (P m1 ) i,j > 0 {n 1 (P n ) j,j > 0} N \ {0,..., m 2 + m 1 1} {n 1 (P n ) j,j > 0} enthält mindestens zwei Primzahlen. d(s j ) ggt({n 1 (P n ) j,j > 0}) 1. 9

Markov-Ketten 1. Definition 2.1

Markov-Ketten 1. Definition 2.1 Marov-Ketten Definition 2. Sei P eine -Matrix mit Elementen {P i,j : i, j,...,}. Ein Zufallsprozess (X 0, X,...) mit endlichem Zustandsraum S{s,...,s } heißt homogene Marov-Kette mit Übergangsmatrix P,

Mehr

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1 Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

Einführung in Markoff-Ketten

Einführung in Markoff-Ketten Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}

Mehr

16.3 Rekurrente und transiente Zustände

16.3 Rekurrente und transiente Zustände 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht

Mehr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,

Mehr

Studiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit.

Studiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit. Studiengang Diplom-Mathematik DIPLOMARBEIT Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit eingereicht von Christina Gunkel am 3. Juni 2008 Erste Gutachterin: Zweiter Gutachter:

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag 20.05.20 Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Die Abbildung zeigt die Kette aus dem "

Die Abbildung zeigt die Kette aus dem ½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;

Mehr

Endliche Markov-Ketten

Endliche Markov-Ketten Endliche Markov-Ketten Michael Krühler 24. Oktober 2013 Inhaltsverzeichnis 1 Einführung 2 1.1 Mathematische Einführung......................... 2 1.2 Interpretation................................. 3 2

Mehr

1 A dp = P(A B). (1.3)

1 A dp = P(A B). (1.3) Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

Markov Ketten und Bonus Malus Systeme

Markov Ketten und Bonus Malus Systeme Grund Stoch Markov Ketten Bonus Malus Probleme L 1 / 46 Markov Ketten und Bonus Malus Systeme Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden TU Wien 19. Mai 2010

Mehr

LANGZEITVERHALTEN VON MARKOW-KETTEN

LANGZEITVERHALTEN VON MARKOW-KETTEN LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte

Mehr

LANGZEITVERHALTEN VON MARKOW-KETTEN

LANGZEITVERHALTEN VON MARKOW-KETTEN LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte

Mehr

31 Polynomringe Motivation Definition: Polynomringe

31 Polynomringe Motivation Definition: Polynomringe 31 Polynomringe 31.1 Motivation Polynome spielen eine wichtige Rolle in vielen Berechnungen, einerseits weil oftmals funktionale Zusammenhänge durch Polynome beschrieben werden, andererseits weil Polynome

Mehr

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K). Matrizen - I Definition. Sei K ein Körper. Ein rechteckiges Schema A = a 11 a 12...... a 1n a 21 a 22...... a 2n............ a m1 a m2...... a mn wobei j K heißt Matrix bzw. eine m n Matrix (mit Elementen

Mehr

DIPLOMARBEIT. Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung

DIPLOMARBEIT. Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung Studiengang Diplom-Mathematik mit Schwerpunkt Biowissenschaften DIPLOMARBEIT Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung von: Christina Boll geb. Wolf

Mehr

Diskrete Wahrscheinlichkeitstheorie

Diskrete Wahrscheinlichkeitstheorie SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil VI Markov-Ketten Markov-Ketten Markov-Ketten

Mehr

3. Prozesse mit kontinuierlicher Zeit

3. Prozesse mit kontinuierlicher Zeit 3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

BACHELORARBEIT. Markov-Ketten und ihre Greensche Funktion. Jasmin Riegler. Wien, Jänner 2013

BACHELORARBEIT. Markov-Ketten und ihre Greensche Funktion. Jasmin Riegler. Wien, Jänner 2013 BACHELORARBEIT Markov-Ketten und ihre Greensche Funktion Jasmin Riegler Wien, Jänner 203 Studienkennzahl: A 033 62 Studienrichtung: Mathematik Betreuer: Privatdoz. Dr. Mag. Bernhard Krön Inhaltsverzeichnis

Mehr

1.3 Stochastische Unabhängigkeit und bedingte

1.3 Stochastische Unabhängigkeit und bedingte 1.3 Stochastische Unabhängigkeit und bedingte Wahrscheinlichkeiten Ziel: komplexere Modelle aus Verkettung ( Koppelung ) von Zufallsexperimenten bauen, insbesondere Ziehung von n-personen aus n-maliger

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 23 Die Gradformel Satz 1. Seien K L und L M endliche Körperweiterungen. Dann ist auch K M eine endliche Körpererweiterung und

Mehr

In allen Fällen spielt die 'Determinante' einer Matrix eine zentrale Rolle.

In allen Fällen spielt die 'Determinante' einer Matrix eine zentrale Rolle. Nachschlag:Transposition von Matrizen Sei Explizit: Def: "Transponierte v. A": (tausche Zeilen mit Spalten d.h., spiegle in der Diagonale) m Reihen, n Spalten n Reihen, m Spalten z.b. m=2,n=3: Eigenschaft:

Mehr

DynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten

DynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten DynaTraffic Modelle und mathematische Prognosen Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten Worum geht es? Modelle von Verkehrssituationen Graphen: Kanten, Knoten Matrixdarstellung

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

Markov-Ketten Proseminar: Das virtuelle Labor Ariane Wietschke

Markov-Ketten Proseminar: Das virtuelle Labor Ariane Wietschke Markov-Ketten Proseminar: Das virtuelle Labor Ariane Wietschke 28.01.2004 28.01.04 Ariane Wietschke - Markov-Ketten 1 Übersicht 1. Herleitung der Definition 2. Komponenten von Markov-Ketten 3. Arten von

Mehr

36 2 Lineare Algebra

36 2 Lineare Algebra 6 Lineare Algebra Quadratische Matrizen a a n sei jetzt n m, A, a ij R, i, j,, n a n a nn Definition Eine quadratische Matrix A heißt invertierbar genau dann, wenn es eine quadratische Matrix B gibt, so

Mehr

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9 Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )

Mehr

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes Markov-Prozesse Franziskus Diwo Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes 8.0.20 Gliederung Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-,

Mehr

IV.3. RANG VON MATRIZEN 81

IV.3. RANG VON MATRIZEN 81 IV3 RANG VON MATRIZEN 8 Ist b,,b n eine Basis des reellen Vektorraums V, dann bildet b,,b n auch eine Basis des komplexen Vektorraums V C Mit V ist daher auch V C endlichdimensional und es gilt dim C V

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Grundlagen der Arithmetik und Zahlentheorie

Grundlagen der Arithmetik und Zahlentheorie Grundlagen der Arithmetik und Zahlentheorie 1.0 Teilbarkeit In diesem Abschnitt werden wir einerseits die ganzen Zahlen an sich studieren und dabei besonders wichtige Zahlen, die Primzahlen, entsprechend

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Kapitel 1. Grundlegendes

Kapitel 1. Grundlegendes Kapitel 1 Grundlegendes Abschnitt 1.4 Vollständige Induktion Charakterisierung der natürlichen Zahlen Die Menge N 0 = {0, 1, 2, 3,...} der natürlichen Zahlen läßt sich wie folgt charakterisieren: 1. 0

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

aus der Bedingung/Annahme A folgt ein Widerspruch ), so ist A falsch!

aus der Bedingung/Annahme A folgt ein Widerspruch ), so ist A falsch! Bemerkungen: 1 Die Bedeutung von (und damit ) ist klar. wird oft, vor allem in Beweisen, auch als geschrieben (im Englischen: iff, if and only if). 2 Für zwei boolesche Aussagen A und B ist A B falsch

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

U = U, v i λ i = o und (z.b.) λ 1 0. i=1 1 = i=2. i=2

U = U, v i λ i = o und (z.b.) λ 1 0. i=1 1 = i=2. i=2 7 Lineare Unabhängigkeit, asis Existenzsatz M Am Ende des vorigen Paragraphen betrachteten wir bei vorgegebener Teilmenge T eines K-Vektorraumes V das Erzeugnis U von T in V. Die ildung des Erzeugnisses

Mehr

Die Ringe Z n. Invertierbare Elemente ( Einheiten ) für n > 0 wird auf Z n = {0, 1, 2,..., n 1} definiert: n : Z n Z n Z n : (a, b) (a b) mod n

Die Ringe Z n. Invertierbare Elemente ( Einheiten ) für n > 0 wird auf Z n = {0, 1, 2,..., n 1} definiert: n : Z n Z n Z n : (a, b) (a b) mod n Definitionen Die Ringe Z n für n > 0 wird auf Z n = {0, 1, 2,..., n 1} definiert: Beispiel n = 15 + n : Z n Z n Z n : (a, b) (a + b) mod n n : Z n Z n Z n : (a, b) (a b) mod n 9 + 15 11 = 5 9 15 11 = 9

Mehr

Markovketten. Vorlesungsskript. Universität Freiburg. Andrej Depperschmidt. Sommersemester 2016

Markovketten. Vorlesungsskript. Universität Freiburg. Andrej Depperschmidt. Sommersemester 2016 Markovketten Andrej Depperschmidt Vorlesungsskript Universität Freiburg Sommersemester 2016 Version: 20. Juni 2016 1 Einleitung Markovprozesse ist eine für viele Anwendungen wichtige Klasse von stochastischen

Mehr

Mathematik für Anwender I

Mathematik für Anwender I Prof Dr H Brenner Osnabrück WS 2011/2012 Mathematik für Anwender I Vorlesung 11 Rang von Matrizen Definition 111 Es sei K ein Körper und sei M eine m n-matrix über K Dann nennt man die Dimension des von

Mehr

Mathematik I. Vorlesung 14. Rang von Matrizen

Mathematik I. Vorlesung 14. Rang von Matrizen Prof Dr H Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 14 Rang von Matrizen Definition 141 Es sei K ein Körper und sei M eine m n-matrix über K Dann nennt man die Dimension des von den Spalten

Mehr

2.2 Lineare Gleichungssysteme (LGS)

2.2 Lineare Gleichungssysteme (LGS) 2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +

Mehr

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage

Mehr

Klausur zur Vorlesung,,Algorithmische Mathematik II

Klausur zur Vorlesung,,Algorithmische Mathematik II Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese

Mehr

Das Pumping-Lemma Formulierung

Das Pumping-Lemma Formulierung Das Pumping-Lemma Formulierung Sei L reguläre Sprache. Dann gibt es ein n N mit: jedes Wort w L mit w n kann zerlegt werden in w = xyz, so dass gilt: 1. xy n 2. y 1 3. für alle k 0 ist xy k z L. 59 / 162

Mehr

Universität Zürich HS , Vorlesung #3

Universität Zürich HS , Vorlesung #3 Algebraic Number Theory P. Habegger Universität Zürich HS 2010 6.10.2010, Vorlesung #3 1.4 Diskriminante Die primitivste Invariante eines Zahlkörpers ist sein Grad. Die Diskriminante eines Zahlkörpers

Mehr

9 Konvergenz und absolute Konvergenz von Reihen

9 Konvergenz und absolute Konvergenz von Reihen 9 Konvergenz und absolute Konvergenz von Reihen 9.2 Konvergenz von Reihen 9.5 Monotoniekriterium für Reihen 9.6 Konvergenzkriterium von Cauchy für Reihen 9.9 Rechenregeln für konvergente Reihen 9.10 Absolute

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion

Mehr

Dezimaldarstellung ganzer Zahlen (Division mit Rest) 1 Division mit Rest in der Hochschule

Dezimaldarstellung ganzer Zahlen (Division mit Rest) 1 Division mit Rest in der Hochschule Berufsfeldbezogenes Fachseminar - Zahlentheorie Lisa Laudan Prof. Dr. Jürg Kramer Wintersemester 2014/2015 Dezimaldarstellung ganzer Zahlen (Division mit Rest) 1 Division mit Rest in der Hochschule 1.1

Mehr

Bedingt unabhängige Zufallsvariablen

Bedingt unabhängige Zufallsvariablen 7. Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Benannt nach Andrei A. Markov [856-9] Einige Stichworte: Markov-Ketten Definition Eigenschaften Konvergenz Hidden Markov Modelle Sei X

Mehr

Summen und direkte Summen

Summen und direkte Summen Summen und direkte Summen Sei V ein K-Vektorraum. Wie früher erwähnt, ist für beliebige Teilmengen M, N V die Teilmenge M +N V wie folgt definiert M +N = {v+w : v M, w N}. Man sieht leicht, dass i.a. M

Mehr

Übungsaufgaben Lösungen

Übungsaufgaben Lösungen Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij

Mehr

Beispiel 27 (Beweis durch Widerspruch) Satz 28 3 ist irrational, d. h. Beweis: Widerspruchsannahme: 3 Q.

Beispiel 27 (Beweis durch Widerspruch) Satz 28 3 ist irrational, d. h. Beweis: Widerspruchsannahme: 3 Q. Beispiel 27 (Beweis durch Widerspruch) Wir nehmen an, dass die zu zeigende Aussage falsch ist und führen diese Annahme zu einem Widerspruch. Satz 28 3 ist irrational, d. h. 3 / Q. Beweis: Widerspruchsannahme:

Mehr

W-Rechnung und Statistik für Ingenieure Übung 11

W-Rechnung und Statistik für Ingenieure Übung 11 W-Rechnung und Statistik für Ingenieure Übung 11 Aufgabe 1 Ein Fahrzeugpark enthält 6 Fahrzeuge. Jedes Fahrzeug hat die Wahrscheinlichkeit p = 0.1 (bzw. p = 0.3), dass es kaputt geht. Pro Tag kann nur

Mehr

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:

Serie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q: Lineare Algebra D-MATH, HS 214 Prof Richard Pink Serie 5 1 [Aufgabe] Invertieren Sie folgende Matrizen über Q: 1 a) 1 1 1 1 1 2 1 1 1 b) 1 2 1 1 1 1 2 1 1 1 1 2 1 2 3 1 c) 1 3 3 2 2 1 5 3 1 2 6 1 [Lösung]

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Matrizen. Stefan Keppeler. 19. & 26. November Mathematik I für Biologen, Geowissenschaftler und Geoökologen

Matrizen. Stefan Keppeler. 19. & 26. November Mathematik I für Biologen, Geowissenschaftler und Geoökologen Mathematik I für Biologen, Geowissenschaftler und Geoökologen 19. & 26. November 2008 Definition, Summe & Produkt Transponierte Beispiel: Einwohnerzahlen Leslie-Populationsmodell Beispiel Addition Multiplikation

Mehr

Kapitel 6. Fixpunkte und semantische Bereiche

Kapitel 6. Fixpunkte und semantische Bereiche Kapitel 6 Fixpunkte und semantische Bereiche Sowohl bei der Definition der operationalen Semantik als auch bei der Definition der mathematischen Semantik haben wir mehr oder weniger explizit Fixpunkte

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 6 Langzeitverhalten, stationäre Masse Multiplikation von Rechts! Literatur Kapitel 6 * Grimmett & Stirzaker: Kapitel 6.4 * Krengel: 6. 6. Motivation Um die nachfolgenden

Mehr

Universität Innsbruck WS 2013/2014. Brückenkurs. Formale Konzepte. 3. Auflage. Harald Zankl. 15. Januar 2014

Universität Innsbruck WS 2013/2014. Brückenkurs. Formale Konzepte. 3. Auflage. Harald Zankl. 15. Januar 2014 Universität Innsbruck WS 013/014 Brückenkurs Formale Konzepte 3. Auflage Harald Zankl 15. Januar 014 Institut für Informatik Innsbruck, Österreich Inhaltsverzeichnis 1 Definition, Satz, Beweis 1.1 Aufgaben................................

Mehr

Leitfaden 20. t = dim V dimu.

Leitfaden 20. t = dim V dimu. Leitfaden 2 Einschub (Nachtrag zur LA I): Komplementärbasen Sei V ein Vektorraum, U ein Unterraum Eine Folge (v,, v t ) von Vektoren aus V heißt linear unabhängig modulo U, falls folgendes gilt: sind p

Mehr

Zur Zykelschreibweise von Permutationen

Zur Zykelschreibweise von Permutationen Zur Zykelschreibweise von Permutationen Olivier Sète 16. Juni 2010 1 Grundlagen Definition 1.1. Eine Permutation von {1, 2,..., n} ist eine bijektive Abbildung σ : {1, 2,..., n} {1, 2,..., n}, i σ(i).

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Kapitel 2: Multiplikative Funktionen. 3 Multiplikative Funktionen. Definition 2.1 (arithmetische Funktion, (vollständig) multiplikative Funktion)

Kapitel 2: Multiplikative Funktionen. 3 Multiplikative Funktionen. Definition 2.1 (arithmetische Funktion, (vollständig) multiplikative Funktion) Kapitel 2: Multiplikative Funktionen 3 Multiplikative Funktionen Definition 2.1 (arithmetische Funktion, (vollständig) multiplikative Funktion) (a) Eine Funktion α : Z >0 C heißt arithmetisch (oder zahlentheoretisch).

Mehr

Exact Sampling: Der Propp-Wilson-Algorithmus

Exact Sampling: Der Propp-Wilson-Algorithmus Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München gerstel@in.tum.de Zusammenfassung Der Propp-Wilson-Algorithmus liefert

Mehr

Elemente der Algebra und Zahlentheorie Musterlösung, Serie 3, Wintersemester vom 15. Januar 2006

Elemente der Algebra und Zahlentheorie Musterlösung, Serie 3, Wintersemester vom 15. Januar 2006 Prof. E.-W. Zink Institut für Mathematik Humboldt-Universität zu Berlin Elemente der Algebra und Zahlentheorie Musterlösung, Serie 3, Wintersemester 2005-06 vom 15. Januar 2006 2te, korrigierte und erweiterte

Mehr

Mathematik für Informatiker 1 Wintersemester 2013/14 Übungsblatt 12

Mathematik für Informatiker 1 Wintersemester 2013/14 Übungsblatt 12 Dipl.Inf. Malte Isberner Dr. Oliver Rüthing Dipl.Inf. Melanie Schmidt Dr. Hubert Wagner Übungen zur Vorlesung Mathematik für Informatiker 1 Wintersemester 2013/14 Übungsblatt 12 Die Lösungshinweise dienen

Mehr

= 7! = 6! = 0, 00612,

= 7! = 6! = 0, 00612, Die Wahrscheinlichkeit, dass Prof. L. die Wette verliert, lässt sich wie folgt berechnen: Ω = {(i 1,..., i 7 ) : i j {1... 7}, j = 1... 7}, wobei i, j für den Wochentag steht, an dem die Person j geboren

Mehr

Johannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule, Berlin Friedrich-Schiller-Gymnasium, Königs Wusterhausen

Johannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule, Berlin Friedrich-Schiller-Gymnasium, Königs Wusterhausen Glückssträhnen...?! Teilnehmer: Aptin Haerian Max Irmscher Markus Johl Felix Montenegro Hoang Lam Nguyen Anne Christin Rettig Herder-Oberschule, Berlin Johannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule,

Mehr

Chr.Nelius: Grundzüge der Algebra (WS2005/06) 1. (14.1) DEF: Ein kommutativer Ring (K, +, ) heißt ein Körper, wenn gilt: 1) 1 K 0 K 2) K = K \ {0 K }

Chr.Nelius: Grundzüge der Algebra (WS2005/06) 1. (14.1) DEF: Ein kommutativer Ring (K, +, ) heißt ein Körper, wenn gilt: 1) 1 K 0 K 2) K = K \ {0 K } Chr.Nelius: Grundzüge der Algebra (WS2005/06) 1 14 Körper (14.1) DEF: Ein kommutativer Ring (K, +, ) heißt ein Körper, wenn gilt: 1) 1 K 0 K 2) K = K \ {0 K } (14.2) BEM: a) Ist K ein Körper, so ist (K

Mehr

Brownsche Bewegung Seminar - Weiche Materie

Brownsche Bewegung Seminar - Weiche Materie Brownsche Bewegung Seminar - Weiche Materie Simon Schnyder 11. Februar 2008 Übersicht Abbildung: 3 Realisationen des Weges eines Brownschen Teilchens mit gl. Startort Struktur des Vortrags Brownsches Teilchen

Mehr

Vorkurs Mathematik und Informatik Mengen, natürliche Zahlen, Induktion

Vorkurs Mathematik und Informatik Mengen, natürliche Zahlen, Induktion Vorkurs Mathematik und Informatik Mengen, natürliche Zahlen, Induktion Saskia Klaus 07.10.016 1 Motivation In den ersten beiden Vorträgen des Vorkurses haben wir gesehen, wie man aus schon bekannten Wahrheiten

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute 3.4 PageRank Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute Wichtigkeit von Webseiten; nicht Relevanz bezüglich Benutzeranfrage. Anfrageunabhängiges Ranking. Ausgangspunkt: Eingangsgrad.

Mehr

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

Lineare Algebra I 5. Tutorium Die Restklassenringe /n

Lineare Algebra I 5. Tutorium Die Restklassenringe /n Lineare Algebra I 5. Tutorium Die Restklassenringe /n Fachbereich Mathematik WS 2010/2011 Prof. Dr. Kollross 19. November 2010 Dr. Le Roux Dipl.-Math. Susanne Kürsten Aufgaben In diesem Tutrorium soll

Mehr

Probabilistische Primzahltests

Probabilistische Primzahltests 23.01.2006 Motivation und Überblick Grundsätzliches Vorgehen Motivation und Überblick Als Primzahltest bezeichnet man ein mathematisches Verfahren, mit dem ermittelt wird, ob eine gegebene Zahl eine Primzahl

Mehr

Ausarbeitung. Seminar: Stochastische Modelle in Naturwissenschaft und Technik. Thema: Markowsche Ketten. Humboldt-Universität zu Berlin

Ausarbeitung. Seminar: Stochastische Modelle in Naturwissenschaft und Technik. Thema: Markowsche Ketten. Humboldt-Universität zu Berlin Ausarbeitung Seminar: Stochastische Modelle in Naturwissenschaft und Technik Thema: Markowsche Ketten Humboldt-Universität zu Berlin Hermann Schwarz Inhaltsverzeichnis 1 1 1.1 Motivation.............................

Mehr

Kapitel 5 Stochastische Unabhängigkeit

Kapitel 5 Stochastische Unabhängigkeit Kapitel 5 Stochastische Unabhängigkeit Vorlesung Wahrscheinlichkeitsrechnung I vom SoSe 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 5.1 Das Konzept der stochastischen Unabhängigkeit. 1 Herleitung anhand

Mehr

Prof. Dr. H. Brenner Osnabrück SS Zahlentheorie. Vorlesung 3. Der euklidische Algorithmus

Prof. Dr. H. Brenner Osnabrück SS Zahlentheorie. Vorlesung 3. Der euklidische Algorithmus Prof. Dr. H. Brenner Osnabrück SS 2008 Zahlentheorie Vorlesung 3 Der euklidische Algorithmus Euklid (4. Jahrhundert v. C.) Definition 3.1. Seien zwei Elemente a, b (mit b 0) eines euklidischen Bereichs

Mehr

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen

Mehr

Definition 1 Sei π ein Element aus der symmetrischen Gruppe S n der Permutationen aller natürlichen Zahlen von 1 bis n.

Definition 1 Sei π ein Element aus der symmetrischen Gruppe S n der Permutationen aller natürlichen Zahlen von 1 bis n. 1 Die Determinante Definition 1 Sei π ein Element aus der symmetrischen Gruppe S n der Permutationen aller natürlichen Zahlen von 1 bis n. a) Ein Fehlstand von π ist ein Paar (i, j) mit 1 i < j n und π(i)

Mehr

8 Der Kompaktheitssatz und der Satz von Löwenheim und Skolem

8 Der Kompaktheitssatz und der Satz von Löwenheim und Skolem 8 Der Kompaktheitssatz und der Satz von Löwenheim und Skolem 8.1 Der Kompaktheitssatz Kompaktheitssatz Endlichkeitssatz Der Kompaktheitssatz ist auch unter dem Namen Endlichkeitssatz bekannt. Unter Verwendung

Mehr