Einführung in die Theorie der Markov-Ketten. Jens Schomaker
|
|
- Walter Brahms
- vor 7 Jahren
- Abrufe
Transkript
1 Einführung in die Theorie der Markov-Ketten Jens Schomaker
2 Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch formalisieren: Eine Person steht in einer der vier Ecken eines Raumes - in diesem Fall s 1 - und wirft eine faire Münze, um zu entscheiden, ob sie sich im Uhrzeigersinn oder gegen ihn bewegt. Dies wiederholt die Person beliebig oft. Man möchte also für alle Schritte des Experiments, die man anhand der natürlichen Zahlen abzählt, eine Zufallsvariable X n definieren, welche die Ecke angibt, in der sich die Person im n-ten Schritt befindet. D.h. man wählt einen (zeitdiskreten) stochastischen Prozess (X 0, X 1,...), der Werte in {s 1,..., s 4 } annimmt. Dass ein zugehöriger Produktraum mit Wahrscheinlichkeitsmaß P wie unten existiert, ist nicht klar, wird aber durch den Satz von Ionescu-Tulcea geliefert, der aufgrund seines Umfangs jedoch nicht behandelt wird. Um die Ausgangsbedingung, dass in s 1 gestartet wird, zu erfüllen, sollte gelten: P(X 0 s 1 ) 1. Die Entscheidungsregel für die Bewegung liefert zudem: und P(X 1 s 2 ) 1 /2 P(X 1 s 4 ) 1 /2. Um die Verteilungen der X n für n 2 zu berechnen, benötigt man nun jedoch bedingte Wahrscheinlichkeiten. Für den Fall X n s 2 ergibt sich z.b. aus der Entscheidungsregel für die Bewegung folgendes: und P(X n+1 s 1 X n s 2 ) 1 /2 P(X n+1 s 3 X n s 2 ) 1 /2. Genauer gilt sogar aufgrund der Entscheidungsregel, dass X n+1 nur von X n abhängt; für X n s 2 und beliebige i 0,..., i n 1 {1,..., 4} beispielsweise: und P(X n+1 s 1 X n s 2, X n 1 s in 1,..., X 0 s i0 ) 1 /2 P(X n+1 s 3 X n s 2, X n 1 s in 1,..., X 0 s i0 ) 1 /2. 1
3 Diese beispielhaften Überlegungen fasst man nun in einer Definition zusammen: 1.2 Definition Sei P eine k k-matrix mit Einträgen (P i,j ) i,j1,...,k. Ein (zeitdiskreter) stochastischer Prozess (X 0, X 1,...) mit endlichem Zustandsraum {s 1,..., s k } heißt (homogene) Markov-Kette mit Übergangsmatrix P genau dann, wenn für alle n N, alle i, j {1,..., k} und alle i 0,..., i n 1 {1,..., k} gilt: P(X n+1 s j X n s i, X n 1 s in 1,..., X 0 s i0 ) P(X n+1 s j X n s i ) P i,j. (1) Die Einträge der Übergangsmatrix P heißen Übergangswahrscheinlichkeiten und die Übergangswahrscheinlichkeit P i,j ist die bedingte Wahrscheinlichkeit sich zum Zeitpunkt n + 1 im Zustand s j zu befinden, gegeben, dass man zum Zeitpunkt n im Zustand s i ist. Die Homogenität der Markov-Kette ist dabei die Zeitunabhängigkeit, d.h zu allen Zeiten n liegen dieselben Übergangswahrscheinlichkeiten P i,j bzw. liegt dieselbe Übergangsmatrix P vor. Homogenität wird in der Regel nicht erwähnt, da man diese Eigenschaft voraussetzen möchte, wenn man Markov-Ketten betrachtet. Die Eigenschaft, die durch das erste Gleichheitszeichen in Gleichung 1 gegeben ist, wird dabei als Markov- Eigenschaft - kurz ME - oder auch Gedächtsnislosigkeit bezeichnet. Sie drückt aus, dass die bedingte Wahrscheinlichkeit von X n+1 unter (X 0,..., X n ) nur von X n abhängt und unabhängig von den vorhergehenden X 0,..., X n 1 ist. Mit dieser Definition ergeben sich direkt folgende Eigenschaften für die Übergangsmatrix: i) P i,j 0 für alle i, j {1,..., k}, da (bedingte) Wahrscheinlichkeiten nicht negativ sind. ii) P i,j 1 für alle i {1,..., k}, da {s 1,..., s k } der gesamte Wertebereich von X n+1 ist: j1 P i,j P(X n+1 s j X n s i ) 1. j1 j1 1.3 Beispiel Das oben eingeführte Beispiel 1.1 hat also als Zustandsraum {s 1,..., s 4 } und als Übergangsmatrix: 0 0 P Definition Eine einfache und nahezu selbsterklärende Möglichkeit die Übergangsmatrix darzustellen, ist ein Übergangsgraph. Der Übergangsgraph für Beispiel 1.1 sieht beispielsweise wie folgt aus: s 1 s 2 s 4 s 3 Die Zustände werden dabei mit den zugehörigen Übergangswahrscheinlichkeiten verbunden, sofern diese nicht Null sind. Die Summe der Wahrscheinlichkeiten, die von einem Zustand wegzeigen, ist dabei immer 1, was der spaltenweisen Aufsummierung zu 1 in der Übergangsmatrix entspricht (vgl. Definition 1.2, Eigenschaft ii). Um das Beispiel 1.1 komplett zu erfassen, benötigen wir noch eine weitere Eigenschaft einer Markov-Kette: 1.5 Definition Die Anfangsverteilung einer Markov-Kette (X 0, X 1,...) mit Zustandsraum {s 1,..., s k } wird durch einen 2
4 Zeilenvektor µ (0) wie folgt definiert: µ (0) (µ (0) 1,..., µ(0) k ) : (P(X 0 s 1 ),..., P(X 0 s k )). Da µ (0) eine Wahrscheinlichkeitsverteilung auf dem Zustandsraum {s 1,..., s k } ist, gilt: i1 µ (0) i 1. Ebenso definiert man µ (n) für n 1 als die Wahrscheinlichkeitsverteilung der Markov-Kette zum Zeitpunkt n als: µ (n) (µ (n) 1,..., µ(n) k ) : (P(X n s 1 ),..., P(X n s k )). Auch hier gilt analog: i1 µ (n) i Beispiel Das oben eingeführte Beispiel 1.1 hat also als Anfangsverteilung: µ (0) (1, 0, 0, 0). Es wird sich in folgendem Satz zeigen, dass man zur Berechnung der µ (n) lediglich die Anfangsverteilung µ (0) und die Übergangsmatrix P benötigt. 1.7 Satz Sei eine Markov-Kette (X 0, X 1,...) mit Zustandsraum {s 1,..., s k }, Übergangsmatrix P und Anfangsverteilung µ (0) gegeben. Dann gilt für alle n N: µ (n) µ (0) P n. Induktion über n: n 1: Sei µ (0) (µ (0) 1,..., µ(0) ), dann gilt für j 1,..., k: k µ (1) j Def. P(X 1 s j ) σ-add. bed. W.-keit Def. P(X 0 s i, X 1 s j ) i1 P(X 0 s i )P(X 1 s j X 0 s i ) i1 i1 µ (0) i P i,j (µ (0) P ) j. Dabei ist (µ (0) P ) j der j-te Eintrag des Zeilenvektors µ (0) P. Also gilt: n n + 1: µ (1) (µ (1) 1,..., µ(1) k ) ((µ(0) P ) 1,..., (µ (0) P ) k ) µ (0) P. 3
5 Sei also die Behauptung für n gezeigt. Zeige, dass sie auch für n + 1 gilt. Für j 1,..., k gilt analog: µ (n+1) j P(X n+1 s j ) P(X n s i, X n+1 s j ) i1 P(X n s i )P(X n+1 s j X n s i ) i1 i1 µ (n) i P i,j (µ (n) P ) j. Also gilt auch µ (n+1) µ (n) P und damit und der Induktionsvoraussetzung auch: µ (n+1) µ (n) P IV µ (0) P n P µ (0) P n Beispiel Für Beispiel 1.1 ergibt sich mit Anfangsverteilung µ (0) (1, 0, 0, 0) induktiv durch einfaches Nachrechnen: { µ (n) (0, 1 /2, 0, 1 /2), falls n 1 und n ungerade. ( 1 /2, 0, 1 /2, 0), falls n 1 und n gerade Mit Anfangsverteilung µ (0) (0, 1, 0, 0) vertauscht sich dagegen die Zuordnung von gerade und ungerade. Die Wahl der Anfangsverteilung bestimmt also das Verhalten des weiteren Verlaufs der Verteilungen µ (n), wie man hier sieht, und gehört zu einer vollständigen Charakterisierung einer Markov-Kette. Ein anderes Beispiel gegeben durch eine Markov-Kette (X 0, X 1,...) mit Zustandsraum {s 1, s 2 } und folgender Übergangsmatrix ( 0,75 ) 0,25 0,25 0,75 liefert induktiv für alle n N µ (n) In beiden Fällen gilt jedoch lim n µ (n) ( 1 /2, 1 /2). { ( 1 /2(1 + 2 n ), 1 /2(1 2 n )), falls µ (0) (1, 0) ( 1 /2(1 2 n ), 1 /2(1 + 2 n )), falls µ (0) (0, 1). 1.9 Lemma Sei {a 0,..., a n } N für n 2 so, dass a 0 < a 1 <... < a n 1 < a n. Dann gilt für alle i 0,..., i n {1,..., k}: P(X an s in,..., X a1 s i1 X a0 s i0 ) n 1 j0 P(X aj+1 s ij+1 X aj s ij ). Anschaulich: Die Wahrscheinlichkeit eines gegebenen Weges durch den Übergangsgraph mit gegebenen Zeiten ist gleich dem Produkt der einzelnen Wege mit den entsprechenden Zeiten. Induktion über n: n 2: 4
6 Sei {a 0, a 1, a 2 } N so, dass a 0 < a 1 < a 2 : n n + 1: P(X a2 s i2, X a1 s i1 X a0 s i0 ) bed. W.-keit P(X a2 s i2 X a1 s i1, X a0 s i0 )P(X a1 s i1 X a0 s i0 ) ME P(Xa2 s i2 X a1 s i1 )P(X a1 s i1 X a0 s i0 ) 1 P(X aj+1 s ij+1 X aj s ij ) j0 Sei {a 0,..., a n+1 } N so, dass a 0 < a 1 <... < a n < a n+1 : P(X an+1 s in+1, X an s in,..., X a1 s i1 X a0 s i0 ) bed. W.-keit P(X an+1 s in+1 X an s in,..., X a0 s i0 )P(X an s in,..., X a1 s i1 X a0 s i0 ) n 1 ME & IV P(X an+1 s in+1 X an s in ) P(X aj+1 s ij+1 X aj s ij ) j0 n P(X aj+1 s ij+1 X aj s ij ) j Lemma Seien i, j {1,..., k}. Dann gilt für alle m, n N: P(X m+n s j X m s i ) (P n ) i,j, insbesondere ist dies unabhängig von m. Sei m fest aber beliebig. Beweise die Behauptung durch Induktion über n: n 1: n 1 folgt direkt aus der Definition von Markov-Kette. n n + 1: Sei also die Behauptung für n gezeigt. Zeige, dass sie auch für n + 1 gilt. P(X m+n+1 s j X m s i ) σ-add. 1.9 IV & Def. P(X m+n s q, X m+n+1 s j X m s i ) q1 P(X m+n s q X m s i )P(X m+n+1 s j X m+n s q ) q1 (P n ) i,q P q,j q1 (P n P ) i,j (P n+1 ) i,j 1.11 Kolmogorov-Chapman-Gleichung Seien i, j {1,..., k}. Dann gilt für alle m, n N die Kolmogorov-Chapman-Gleichung: P(X m+n s j X 0 s i ) P(X m s q X 0 s i )P(X m+n s j X m s q ). q1 5
7 Anschaulich: Die Wahrscheinlichkeit aller Wege gegeben durch Anfangs- und Endpunkt durch den Übergangsgraph mit gegebenen Anfangs- und Endzeiten ist gleich der Summe aller möglichen Wege mit festem Zeitpunkt für einen festen Zwischenschritt. Insbesondere gilt damit auch für alle q {1,..., k}: P(X m+n s j X 0 s i ) P(X m s q X 0 s i )P(X m+n s j X m s q ) P(X m+n s j X 0 s i ) 1.10 (P m+n ) i,j (P m ) i,q (P n ) q,j 1.10 q1 P(X m s q X 0 s i )P(X m+n s j X m s q ) q1 6
8 Irreduzible und aperiodische Markov-Ketten In diesem Kapitel werden zwei grundlegende Eigenschaften von Markov-Ketten beschrieben. 2.1 Definition Man sagt, dass ein Zustand s i mit einem Zustand s j kommuniziert, in Zeichen s i s j, genau dann, wenn die Markov-Kette positive Wahrscheinlichkeit besitzt, innerhalb einer Zeit n von Zustand s i nach Zustand s j zu gelangen; d.h. wenn ein n N existiert, sodass: P(X m+n s j X m s i ) > 0. Nach Lemma 1.10 ist dies unabhängig von m und es gilt P(X m+n s j X m s i ) (P n ) i,j. Weiter sagt man, dass zwei Zustände s i und s j miteinander kommunizieren, in Zeichen s i s j, genau dann, wenn s i s j und s j s i. 2.2 Definition Eine Markov-Kette (X 0, X 1,...) mit Zustandsraum {s 1,..., s k } und Übergangsmatrix P heißt irreduzibel genau dann, wenn für alle i, j {1,..., k} gilt, dass s i s j. Ansonsten heißt die Markov-Kette reduzibel. Eine äquivalente Formulierung für Irreduzibilität ist, dass für alle i, j {1,..., k} ein n N mit (P n ) i,j > 0 existiert. 2.3 Beispiel Die Irreduzibilität lässt sich am Übergangsgraph leicht veranschaulich und auch überprüfen, indem man alle Paare von Zuständen darauf überprüft, ob es jeweils einen Weg von einem Zustand in den anderen gibt. Die Markov-Kette aus Beispiel 1.1 ist z.b. irreduzibel. Übergangsgraphen von reduzibelen Markov-Ketten sind z.b. wie folgt gegeben: s 1 2/3 s 2 s 4 s 2 3/4 1/3 1/4 1 1 oder s s 3 s 5 s 3 Man sieht hier auch die Rechtfertigung für die Bezeichnung reduzibel, da das Betrachten des Langzeitverhaltens einer reduzibelen Markov-Kette, d.h. das Verhalten der µ (n) für große n, sich auf das Betrachten einer Markov-Kette mit kleinerem Zustandsraum und entsprechend angepasster Übergangsmatrix vereinfachen lässt. 2.4 Definition Die Periode d(s i ) eines Zustandes s i definiert man als: d(s i ) : ggt({n 1 (P n ) i,i > 0}), wobei ggt( ) :. 7
9 In Worten bedeutet dies, dass die Periode von s i der größte gemeinsame Teiler der Menge von Zeiten ist, an denen die Markov-Kette wieder nach s i (mit positiver Wahrscheinlichkeit) zurückkehren kann, sofern die Markov-Kette in s i gestartet ist, d.h. X 0 s i. Ist d(s i ) 1, so heißt der Zustand s i aperiodisch (die Markov-Kette kann also unregelmäßig nach s i zurückkehren). 2.5 Definition Falls alle Zustände der Markov-Kette aperiodisch sind, so heißt auch die Markov-Kette aperiodisch. Andernfalls heißt sie periodisch. 2.6 Beispiel Betrachte nur den Teil der linken Markov-Kette aus Beispiel 2.3 bestehend aus den Zuständen {s 1, s 2, s 3 }, also den folgenden Übergangsgraph: s 1 2/3 s 2 3/4 1/3 1/4 Man sieht leicht mit den Aussagen aus 1.10 und 1.11, dass für jeden Zustand s i gilt: Also ist diese reduzierte Markov-Kette aperiodisch. s 3 (P 2 ) i,i > 0 und (P 3 ) i,i > 0, und damit auch d(s i ) 1. Das Beispiel 1.1 hingegen ist periodisch, da für jeden Zustand s i gilt: (P n ) i,i > 0 genau dann, wenn n {2k k N}. Also ist d(s i ) ggt({2k > 0 k N}) 2. Man sieht hier auch den Zusammenhang zu den in Beispiel 1.8 berechneten Verteilungen µ (n), da man sich in Abhängigkeit vom Startzustand immer alternierend zwischen den Zustandspaaren s 1, s 3 und s 2, s 4 bewegt. Vorbereitend für den nächsten Satz benötigt man folgendes Lemma: 2.7 Lemma Sei A {a 1, a 2, a 3,...} eine Menge positiver, natürlicher Zahlen mit folgenden Eigenschaften: i) ggt(a) 1, und ii) A ist abgeschlossen unter Addition, d.h. wenn a, b A gilt, dann gilt auch a + b A. Dann existiert ein N N so, dass n A für alle n N. siehe Appendix in Brémaud, Pierre (1998) Markov Chains: Gibbs Fields, Monte Carlo Simulation, and Queues, Springer, New York. 2.8 Satz Sei eine aperiodische Markov-Kette (X 0, X 1,...) mit Zustandsraum {s 1,..., s k } und Übergangsmatrix P gegeben. Dann existiert ein N N so, dass (P n ) i,i > 0 für alle i {1,..., k} und alle n N. Für jeden Zustand s i definiere A i : {n 1 (P n ) i,i > 0}. Nach Voraussetzung ist die Markov-Kette aperiodisch, d.h. alle Zustände sind aperiodisch und somit gilt ggt(a i ) 1. Zur Anwendung des Lemmas benötigt man nun die Abgeschlossenheit unter Addition für A i : 8
10 Seien a 1, a 2 A i, d.h. es gilt Hiermit folgt: (P a1 ) i,i 1.10 P(X a1 s i X 0 s i ) > 0 und (P a2 ) i,i 1.10 P(X a1+a 2 s i X a1 s i ) > 0. Also gilt auch a 1 + a 2 A i. (P a1+a2 ) i,i 1.10 P(X a1+a 2 s i X 0 s i ) P(X a1+a 2 s i, X a1 s i X 0 s i ) 1.9 P(X a1 s i X 0 s i )P(X a1+a 2 s i X a1 s i ) > 0 Mit dem Lemma angewandt auf A i folgt nun, dass ein N i N existiert, sodass (P n ) i,i > 0 für alle n N i. N : max{n 1,..., N k } liefert die Behauptung des Satzes. 2.9 Korollar Sei eine aperiodische und irreduzibele Markov-Kette (X 0, X 1,...) mit Zustandsraum {s 1,..., s k } und Übergangsmatrix P gegeben. Dann existiert ein M N so, dass (P n ) i,j > 0 für alle i, j {1,..., k} und alle n M. Aufgrund der Aperiodizität und Satz 2.8 existiert ein N N so, dass (P n ) i,i > 0 für alle i {1,..., k} und alle n N. Für zwei Zustände s i und s j existiert aufgrund der Irreduzibilität ein n i,j N so, dass (P ni,j ) i,j > 0. Sei M i,j : N + n i,j, dann gilt für jedes m M i,j : (P m ) i,j P(X m s j X 0 s i ) P(X m s j, X m ni,j s i X 0 s i ) P(X m ni,j s i X 0 s i ) P(X m s j X m ni,j s i ) }{{}}{{} >0, da m n i,j N >0, nach Wahl von n i,j > 0 M : max{m i,j i, j 1,..., k} liefert die Behauptung des Korollars Satz Sei eine irreduzibele Markov-Kette (X 0, X 1,...) mit Zustandsraum {s 1,..., s k } und Übergangsmatrix P gegeben. Wenn ein Zustand s i mit P i,i > 0 existiert, dann ist die Markov-Kette auch aperiodisch. Zu zeigen, dass die Markov-Kette aperiodisch ist, bedeutet für alle j {1,..., k}: 1 d(s j ) ggt({n 1 (P n ) j,j > 0}). Sei also j {1,..., k} beliebig und i {1,..., k} nach Voraussetzung so, dass P i,i > 0. Aufgrund der Irreduzibilität existieren m 1, m 2 N so, dass (P m1 ) i,j > 0 und (P m2 ) j,i > 0. Damit folgt für alle n N: (P m2+n+m1 ) j,j P(X m2+n+m 1 s j X 0 s j ) P(X m2+n+m 1 s j, X m2+n s i,..., X m2 s i X 0 s j ) 1.9 (P m2 ) j,i (P i,i ) n (P m1 ) i,j > 0 {n 1 (P n ) j,j > 0} N \ {0,..., m 2 + m 1 1} {n 1 (P n ) j,j > 0} enthält mindestens zwei Primzahlen. d(s j ) ggt({n 1 (P n ) j,j > 0}) 1. 9
Markov-Ketten 1. Definition 2.1
Marov-Ketten Definition 2. Sei P eine -Matrix mit Elementen {P i,j : i, j,...,}. Ein Zufallsprozess (X 0, X,...) mit endlichem Zustandsraum S{s,...,s } heißt homogene Marov-Kette mit Übergangsmatrix P,
MehrKapitel 4: Irreduzible und aperiodische Markov Ketten 1
Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme
MehrEndliche Markov-Ketten - eine Übersicht
Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und
MehrDer Ergodensatz. Hendrik Hülsbusch
Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen
MehrEinführung in Markoff-Ketten
Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die
MehrFolie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}
Mehr16.3 Rekurrente und transiente Zustände
16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht
MehrEin Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr
Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,
MehrStudiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit.
Studiengang Diplom-Mathematik DIPLOMARBEIT Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit eingereicht von Christina Gunkel am 3. Juni 2008 Erste Gutachterin: Zweiter Gutachter:
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
MehrPr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
MehrDie Kopplung von Markovketten und die Irrfahrt auf dem Torus
Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag 20.05.20 Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrStochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrDie Abbildung zeigt die Kette aus dem "
½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;
MehrEndliche Markov-Ketten
Endliche Markov-Ketten Michael Krühler 24. Oktober 2013 Inhaltsverzeichnis 1 Einführung 2 1.1 Mathematische Einführung......................... 2 1.2 Interpretation................................. 3 2
Mehr1 A dp = P(A B). (1.3)
Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare
MehrDWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr
2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,
MehrMarkov Ketten und Bonus Malus Systeme
Grund Stoch Markov Ketten Bonus Malus Probleme L 1 / 46 Markov Ketten und Bonus Malus Systeme Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden TU Wien 19. Mai 2010
MehrLANGZEITVERHALTEN VON MARKOW-KETTEN
LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte
MehrLANGZEITVERHALTEN VON MARKOW-KETTEN
LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte
Mehr31 Polynomringe Motivation Definition: Polynomringe
31 Polynomringe 31.1 Motivation Polynome spielen eine wichtige Rolle in vielen Berechnungen, einerseits weil oftmals funktionale Zusammenhänge durch Polynome beschrieben werden, andererseits weil Polynome
MehrMatrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).
Matrizen - I Definition. Sei K ein Körper. Ein rechteckiges Schema A = a 11 a 12...... a 1n a 21 a 22...... a 2n............ a m1 a m2...... a mn wobei j K heißt Matrix bzw. eine m n Matrix (mit Elementen
MehrDIPLOMARBEIT. Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung
Studiengang Diplom-Mathematik mit Schwerpunkt Biowissenschaften DIPLOMARBEIT Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung von: Christina Boll geb. Wolf
MehrDiskrete Wahrscheinlichkeitstheorie
SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil VI Markov-Ketten Markov-Ketten Markov-Ketten
Mehr3. Prozesse mit kontinuierlicher Zeit
3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrBACHELORARBEIT. Markov-Ketten und ihre Greensche Funktion. Jasmin Riegler. Wien, Jänner 2013
BACHELORARBEIT Markov-Ketten und ihre Greensche Funktion Jasmin Riegler Wien, Jänner 203 Studienkennzahl: A 033 62 Studienrichtung: Mathematik Betreuer: Privatdoz. Dr. Mag. Bernhard Krön Inhaltsverzeichnis
Mehr1.3 Stochastische Unabhängigkeit und bedingte
1.3 Stochastische Unabhängigkeit und bedingte Wahrscheinlichkeiten Ziel: komplexere Modelle aus Verkettung ( Koppelung ) von Zufallsexperimenten bauen, insbesondere Ziehung von n-personen aus n-maliger
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die
MehrEinführung in die Algebra
Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 23 Die Gradformel Satz 1. Seien K L und L M endliche Körperweiterungen. Dann ist auch K M eine endliche Körpererweiterung und
MehrIn allen Fällen spielt die 'Determinante' einer Matrix eine zentrale Rolle.
Nachschlag:Transposition von Matrizen Sei Explizit: Def: "Transponierte v. A": (tausche Zeilen mit Spalten d.h., spiegle in der Diagonale) m Reihen, n Spalten n Reihen, m Spalten z.b. m=2,n=3: Eigenschaft:
MehrDynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten
DynaTraffic Modelle und mathematische Prognosen Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten Worum geht es? Modelle von Verkehrssituationen Graphen: Kanten, Knoten Matrixdarstellung
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)
SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013
MehrKapitel 6. Irrfahrten und Bernoullischemata
Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten
MehrMarkov-Ketten Proseminar: Das virtuelle Labor Ariane Wietschke
Markov-Ketten Proseminar: Das virtuelle Labor Ariane Wietschke 28.01.2004 28.01.04 Ariane Wietschke - Markov-Ketten 1 Übersicht 1. Herleitung der Definition 2. Komponenten von Markov-Ketten 3. Arten von
Mehr36 2 Lineare Algebra
6 Lineare Algebra Quadratische Matrizen a a n sei jetzt n m, A, a ij R, i, j,, n a n a nn Definition Eine quadratische Matrix A heißt invertierbar genau dann, wenn es eine quadratische Matrix B gibt, so
Mehr4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9
Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )
MehrMarkov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes
Markov-Prozesse Franziskus Diwo Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes 8.0.20 Gliederung Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-,
MehrIV.3. RANG VON MATRIZEN 81
IV3 RANG VON MATRIZEN 8 Ist b,,b n eine Basis des reellen Vektorraums V, dann bildet b,,b n auch eine Basis des komplexen Vektorraums V C Mit V ist daher auch V C endlichdimensional und es gilt dim C V
Mehra 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:
Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
MehrGrundlagen der Arithmetik und Zahlentheorie
Grundlagen der Arithmetik und Zahlentheorie 1.0 Teilbarkeit In diesem Abschnitt werden wir einerseits die ganzen Zahlen an sich studieren und dabei besonders wichtige Zahlen, die Primzahlen, entsprechend
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrKapitel 1. Grundlegendes
Kapitel 1 Grundlegendes Abschnitt 1.4 Vollständige Induktion Charakterisierung der natürlichen Zahlen Die Menge N 0 = {0, 1, 2, 3,...} der natürlichen Zahlen läßt sich wie folgt charakterisieren: 1. 0
MehrIn diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)
34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)
Mehraus der Bedingung/Annahme A folgt ein Widerspruch ), so ist A falsch!
Bemerkungen: 1 Die Bedeutung von (und damit ) ist klar. wird oft, vor allem in Beweisen, auch als geschrieben (im Englischen: iff, if and only if). 2 Für zwei boolesche Aussagen A und B ist A B falsch
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
MehrU = U, v i λ i = o und (z.b.) λ 1 0. i=1 1 = i=2. i=2
7 Lineare Unabhängigkeit, asis Existenzsatz M Am Ende des vorigen Paragraphen betrachteten wir bei vorgegebener Teilmenge T eines K-Vektorraumes V das Erzeugnis U von T in V. Die ildung des Erzeugnisses
MehrDie Ringe Z n. Invertierbare Elemente ( Einheiten ) für n > 0 wird auf Z n = {0, 1, 2,..., n 1} definiert: n : Z n Z n Z n : (a, b) (a b) mod n
Definitionen Die Ringe Z n für n > 0 wird auf Z n = {0, 1, 2,..., n 1} definiert: Beispiel n = 15 + n : Z n Z n Z n : (a, b) (a + b) mod n n : Z n Z n Z n : (a, b) (a b) mod n 9 + 15 11 = 5 9 15 11 = 9
MehrMarkovketten. Vorlesungsskript. Universität Freiburg. Andrej Depperschmidt. Sommersemester 2016
Markovketten Andrej Depperschmidt Vorlesungsskript Universität Freiburg Sommersemester 2016 Version: 20. Juni 2016 1 Einleitung Markovprozesse ist eine für viele Anwendungen wichtige Klasse von stochastischen
MehrMathematik für Anwender I
Prof Dr H Brenner Osnabrück WS 2011/2012 Mathematik für Anwender I Vorlesung 11 Rang von Matrizen Definition 111 Es sei K ein Körper und sei M eine m n-matrix über K Dann nennt man die Dimension des von
MehrMathematik I. Vorlesung 14. Rang von Matrizen
Prof Dr H Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 14 Rang von Matrizen Definition 141 Es sei K ein Körper und sei M eine m n-matrix über K Dann nennt man die Dimension des von den Spalten
Mehr2.2 Lineare Gleichungssysteme (LGS)
2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +
MehrLösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten
Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage
MehrKlausur zur Vorlesung,,Algorithmische Mathematik II
Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese
MehrDas Pumping-Lemma Formulierung
Das Pumping-Lemma Formulierung Sei L reguläre Sprache. Dann gibt es ein n N mit: jedes Wort w L mit w n kann zerlegt werden in w = xyz, so dass gilt: 1. xy n 2. y 1 3. für alle k 0 ist xy k z L. 59 / 162
MehrUniversität Zürich HS , Vorlesung #3
Algebraic Number Theory P. Habegger Universität Zürich HS 2010 6.10.2010, Vorlesung #3 1.4 Diskriminante Die primitivste Invariante eines Zahlkörpers ist sein Grad. Die Diskriminante eines Zahlkörpers
Mehr9 Konvergenz und absolute Konvergenz von Reihen
9 Konvergenz und absolute Konvergenz von Reihen 9.2 Konvergenz von Reihen 9.5 Monotoniekriterium für Reihen 9.6 Konvergenzkriterium von Cauchy für Reihen 9.9 Rechenregeln für konvergente Reihen 9.10 Absolute
MehrEuklidische und unitäre Vektorräume
Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrKapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen
Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion
MehrDezimaldarstellung ganzer Zahlen (Division mit Rest) 1 Division mit Rest in der Hochschule
Berufsfeldbezogenes Fachseminar - Zahlentheorie Lisa Laudan Prof. Dr. Jürg Kramer Wintersemester 2014/2015 Dezimaldarstellung ganzer Zahlen (Division mit Rest) 1 Division mit Rest in der Hochschule 1.1
MehrBedingt unabhängige Zufallsvariablen
7. Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Benannt nach Andrei A. Markov [856-9] Einige Stichworte: Markov-Ketten Definition Eigenschaften Konvergenz Hidden Markov Modelle Sei X
MehrSummen und direkte Summen
Summen und direkte Summen Sei V ein K-Vektorraum. Wie früher erwähnt, ist für beliebige Teilmengen M, N V die Teilmenge M +N V wie folgt definiert M +N = {v+w : v M, w N}. Man sieht leicht, dass i.a. M
MehrÜbungsaufgaben Lösungen
Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij
MehrBeispiel 27 (Beweis durch Widerspruch) Satz 28 3 ist irrational, d. h. Beweis: Widerspruchsannahme: 3 Q.
Beispiel 27 (Beweis durch Widerspruch) Wir nehmen an, dass die zu zeigende Aussage falsch ist und führen diese Annahme zu einem Widerspruch. Satz 28 3 ist irrational, d. h. 3 / Q. Beweis: Widerspruchsannahme:
MehrW-Rechnung und Statistik für Ingenieure Übung 11
W-Rechnung und Statistik für Ingenieure Übung 11 Aufgabe 1 Ein Fahrzeugpark enthält 6 Fahrzeuge. Jedes Fahrzeug hat die Wahrscheinlichkeit p = 0.1 (bzw. p = 0.3), dass es kaputt geht. Pro Tag kann nur
MehrSerie 5. Lineare Algebra D-MATH, HS Prof. Richard Pink. 1. [Aufgabe] Invertieren Sie folgende Matrizen über Q:
Lineare Algebra D-MATH, HS 214 Prof Richard Pink Serie 5 1 [Aufgabe] Invertieren Sie folgende Matrizen über Q: 1 a) 1 1 1 1 1 2 1 1 1 b) 1 2 1 1 1 1 2 1 1 1 1 2 1 2 3 1 c) 1 3 3 2 2 1 5 3 1 2 6 1 [Lösung]
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrMatrizen. Stefan Keppeler. 19. & 26. November Mathematik I für Biologen, Geowissenschaftler und Geoökologen
Mathematik I für Biologen, Geowissenschaftler und Geoökologen 19. & 26. November 2008 Definition, Summe & Produkt Transponierte Beispiel: Einwohnerzahlen Leslie-Populationsmodell Beispiel Addition Multiplikation
MehrKapitel 6. Fixpunkte und semantische Bereiche
Kapitel 6 Fixpunkte und semantische Bereiche Sowohl bei der Definition der operationalen Semantik als auch bei der Definition der mathematischen Semantik haben wir mehr oder weniger explizit Fixpunkte
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 6 Langzeitverhalten, stationäre Masse Multiplikation von Rechts! Literatur Kapitel 6 * Grimmett & Stirzaker: Kapitel 6.4 * Krengel: 6. 6. Motivation Um die nachfolgenden
MehrUniversität Innsbruck WS 2013/2014. Brückenkurs. Formale Konzepte. 3. Auflage. Harald Zankl. 15. Januar 2014
Universität Innsbruck WS 013/014 Brückenkurs Formale Konzepte 3. Auflage Harald Zankl 15. Januar 014 Institut für Informatik Innsbruck, Österreich Inhaltsverzeichnis 1 Definition, Satz, Beweis 1.1 Aufgaben................................
MehrLeitfaden 20. t = dim V dimu.
Leitfaden 2 Einschub (Nachtrag zur LA I): Komplementärbasen Sei V ein Vektorraum, U ein Unterraum Eine Folge (v,, v t ) von Vektoren aus V heißt linear unabhängig modulo U, falls folgendes gilt: sind p
MehrZur Zykelschreibweise von Permutationen
Zur Zykelschreibweise von Permutationen Olivier Sète 16. Juni 2010 1 Grundlagen Definition 1.1. Eine Permutation von {1, 2,..., n} ist eine bijektive Abbildung σ : {1, 2,..., n} {1, 2,..., n}, i σ(i).
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
Mehr3 Markov-Eigenschaft der Brownschen Bewegung
Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t
MehrKapitel 2: Multiplikative Funktionen. 3 Multiplikative Funktionen. Definition 2.1 (arithmetische Funktion, (vollständig) multiplikative Funktion)
Kapitel 2: Multiplikative Funktionen 3 Multiplikative Funktionen Definition 2.1 (arithmetische Funktion, (vollständig) multiplikative Funktion) (a) Eine Funktion α : Z >0 C heißt arithmetisch (oder zahlentheoretisch).
MehrExact Sampling: Der Propp-Wilson-Algorithmus
Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München gerstel@in.tum.de Zusammenfassung Der Propp-Wilson-Algorithmus liefert
MehrElemente der Algebra und Zahlentheorie Musterlösung, Serie 3, Wintersemester vom 15. Januar 2006
Prof. E.-W. Zink Institut für Mathematik Humboldt-Universität zu Berlin Elemente der Algebra und Zahlentheorie Musterlösung, Serie 3, Wintersemester 2005-06 vom 15. Januar 2006 2te, korrigierte und erweiterte
MehrMathematik für Informatiker 1 Wintersemester 2013/14 Übungsblatt 12
Dipl.Inf. Malte Isberner Dr. Oliver Rüthing Dipl.Inf. Melanie Schmidt Dr. Hubert Wagner Übungen zur Vorlesung Mathematik für Informatiker 1 Wintersemester 2013/14 Übungsblatt 12 Die Lösungshinweise dienen
Mehr= 7! = 6! = 0, 00612,
Die Wahrscheinlichkeit, dass Prof. L. die Wette verliert, lässt sich wie folgt berechnen: Ω = {(i 1,..., i 7 ) : i j {1... 7}, j = 1... 7}, wobei i, j für den Wochentag steht, an dem die Person j geboren
MehrJohannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule, Berlin Friedrich-Schiller-Gymnasium, Königs Wusterhausen
Glückssträhnen...?! Teilnehmer: Aptin Haerian Max Irmscher Markus Johl Felix Montenegro Hoang Lam Nguyen Anne Christin Rettig Herder-Oberschule, Berlin Johannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule,
MehrChr.Nelius: Grundzüge der Algebra (WS2005/06) 1. (14.1) DEF: Ein kommutativer Ring (K, +, ) heißt ein Körper, wenn gilt: 1) 1 K 0 K 2) K = K \ {0 K }
Chr.Nelius: Grundzüge der Algebra (WS2005/06) 1 14 Körper (14.1) DEF: Ein kommutativer Ring (K, +, ) heißt ein Körper, wenn gilt: 1) 1 K 0 K 2) K = K \ {0 K } (14.2) BEM: a) Ist K ein Körper, so ist (K
MehrBrownsche Bewegung Seminar - Weiche Materie
Brownsche Bewegung Seminar - Weiche Materie Simon Schnyder 11. Februar 2008 Übersicht Abbildung: 3 Realisationen des Weges eines Brownschen Teilchens mit gl. Startort Struktur des Vortrags Brownsches Teilchen
MehrVorkurs Mathematik und Informatik Mengen, natürliche Zahlen, Induktion
Vorkurs Mathematik und Informatik Mengen, natürliche Zahlen, Induktion Saskia Klaus 07.10.016 1 Motivation In den ersten beiden Vorträgen des Vorkurses haben wir gesehen, wie man aus schon bekannten Wahrheiten
MehrUniversität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt
Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert
MehrArbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute
3.4 PageRank Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute Wichtigkeit von Webseiten; nicht Relevanz bezüglich Benutzeranfrage. Anfrageunabhängiges Ranking. Ausgangspunkt: Eingangsgrad.
MehrBeispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal
Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr1 Matrizenrechnung zweiter Teil
MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten
MehrLineare Algebra I 5. Tutorium Die Restklassenringe /n
Lineare Algebra I 5. Tutorium Die Restklassenringe /n Fachbereich Mathematik WS 2010/2011 Prof. Dr. Kollross 19. November 2010 Dr. Le Roux Dipl.-Math. Susanne Kürsten Aufgaben In diesem Tutrorium soll
MehrProbabilistische Primzahltests
23.01.2006 Motivation und Überblick Grundsätzliches Vorgehen Motivation und Überblick Als Primzahltest bezeichnet man ein mathematisches Verfahren, mit dem ermittelt wird, ob eine gegebene Zahl eine Primzahl
MehrAusarbeitung. Seminar: Stochastische Modelle in Naturwissenschaft und Technik. Thema: Markowsche Ketten. Humboldt-Universität zu Berlin
Ausarbeitung Seminar: Stochastische Modelle in Naturwissenschaft und Technik Thema: Markowsche Ketten Humboldt-Universität zu Berlin Hermann Schwarz Inhaltsverzeichnis 1 1 1.1 Motivation.............................
MehrKapitel 5 Stochastische Unabhängigkeit
Kapitel 5 Stochastische Unabhängigkeit Vorlesung Wahrscheinlichkeitsrechnung I vom SoSe 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 5.1 Das Konzept der stochastischen Unabhängigkeit. 1 Herleitung anhand
MehrProf. Dr. H. Brenner Osnabrück SS Zahlentheorie. Vorlesung 3. Der euklidische Algorithmus
Prof. Dr. H. Brenner Osnabrück SS 2008 Zahlentheorie Vorlesung 3 Der euklidische Algorithmus Euklid (4. Jahrhundert v. C.) Definition 3.1. Seien zwei Elemente a, b (mit b 0) eines euklidischen Bereichs
MehrVertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen
MehrDefinition 1 Sei π ein Element aus der symmetrischen Gruppe S n der Permutationen aller natürlichen Zahlen von 1 bis n.
1 Die Determinante Definition 1 Sei π ein Element aus der symmetrischen Gruppe S n der Permutationen aller natürlichen Zahlen von 1 bis n. a) Ein Fehlstand von π ist ein Paar (i, j) mit 1 i < j n und π(i)
Mehr8 Der Kompaktheitssatz und der Satz von Löwenheim und Skolem
8 Der Kompaktheitssatz und der Satz von Löwenheim und Skolem 8.1 Der Kompaktheitssatz Kompaktheitssatz Endlichkeitssatz Der Kompaktheitssatz ist auch unter dem Namen Endlichkeitssatz bekannt. Unter Verwendung
Mehr