16.3 Rekurrente und transiente Zustände
|
|
- Heiko Abel
- vor 7 Jahren
- Abrufe
Transkript
1 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht wird. Es gilt: f i (0) = 0 und f i (1) = p ii. Sei i fest und seien k = 1,...,n B k = {X k = i,x ν i ν = 1,...,k 1 X 0 = i} B n+1 = {System befand sich während der ersten n Schritte nie im Zustand i}. 717 W.Kössler, Humboldt-Universität zu Berlin
2 Offenbar n+1 l=1 B l = Ω, B l B l = (l l ). Dann gilt p ii (n) = P(X n = i X 0 = i) = = n+1 k=1 P(X n = i B k ) P(B k ) n f i (k)p ii (n k) + P(X n = i B n+1 ) P(B n+1 ) k=1 718 W.Kössler, Humboldt-Universität zu Berlin
3 Wegen P(X n = i B n+1 ) = 0 folgt p ii (n) = n k=1 f i (k) p ii (n k) (n 1). Damit läßt sich f i (k) rekursiv berechnen: f i (0) = 0, f i (1) = p ii p ii (2) = f i (1) p ii (1) + f i (2) p ii (0) = p 2 ii + f i (2) f i (2) = p ii (2) p 2 ii ( pii (2) = p ik p ki pii) 2. k 719 W.Kössler, Humboldt-Universität zu Berlin
4 Wirbezeichnen mit F i := j=1 f i (j) die Wkt., daß man irgendwann in den Zustand i zurückkehrt. Def. 63 Ein Zustand i S heißt rekurrent, wenn F i = 1 gilt. Ist dagegen F i < 1, so heißt er transient. Bemerkung: Wir werden in der Vorlesung einige der folgenden Beweise weglassen. Satz 68 Zustand i rekurrent er wird unendlich oft erreicht mit Wkt. 1. Zustand i transient er kann höchstens endlich oft erreicht werden. 720 W.Kössler, Humboldt-Universität zu Berlin
5 Beweis: Sei r i (k) die Wkt., dass die MK mindestens k mal nach i zurückkehrt. r i (k) = P(k-1 mal zurück erstmals nach n Schritten zurück) = n=1 P(nach n Schritten das erste Mal nach i zurück) f i (n)r i (k 1) n=1 = r i (k 1) r i (k) = F k i = r i (k 1)F i f i (n) n=1 721 W.Kössler, Humboldt-Universität zu Berlin
6 Ist i rekurrent, also F i = 1, dann ist r i (k) = 1 k N. Sei i transient, d.h. F i < 1. Sei Z i die Anzahl der Besuche in i. P(Z i = k) = F k i (1 F i ) geometrische Verteilung mit Parameter (1 F i ). EZ i = 1 1 F i < 722 W.Kössler, Humboldt-Universität zu Berlin
7 Satz 69 Ein Zustand i ist genau dann rekurrent, wenn gilt: p ii (n) =. n=0 Er ist genau dann transient, wenn n=0 p ii (n) < ist. Beweis: (für einen anderen Beweis siehe z.b. Mathar/Pfeifer, Satz 3.2.1). Erinnerung: p ii (n) = n k=1 f i (k) p ii (n k) (n 1) Multiplizieren diese Gleichung mit z n und summieren über n: 723 W.Kössler, Humboldt-Universität zu Berlin
8 P i (z) := = p ii (n)z n n=1 ) f i (k) p ii (n k) n z n( n=1 k=1 = zf i (1) p ii (1 1) +z 2( f i (1) p ii (2 1) + f i (2) p ii (2 2) ) +z 3( f i (1) p ii (3 1) + f i (2) p ii (3 2) + f i (3) p ii (3 3) ) z n( f i (1) p ii (n 1) f i (n) p ii (0) W.Kössler, Humboldt-Universität zu Berlin
9 ( = zf i (1) 1 + = ( +z 2 f i (2) ( +z n f i (n) 1 + ν=1 ν=1 ) z ν p ii (ν) ν=1 ) z ν p ii (ν) ) z ν p ii (ν) +... z ν f i (ν) (1 + P i (z) ) ν=1 = F i (z) (1 + P i (z) ) 725 W.Kössler, Humboldt-Universität zu Berlin
10 wobei F i (z) := z ν f i (ν). ν=1 Die Fkt. F i (z) und P i (z) sind analytisch für z < 1. F i (z) = P i(z) 1 + P i (z), P i(z) = F i(z) 1 F i (z) lim F i(z) = F i (1) = F i = z 1 f i (ν) ν=1 ist die Wkt. für eine Rückkehr nach i. Sei lim P i(z) = P i = p ii (n) = z 1 n=1 726 W.Kössler, Humboldt-Universität zu Berlin
11 Daraus folgt d.h. i ist rekurrent. F i = lim z 1 P i (z) 1 + P i (z) = 1, Sei umgekehrt F i = 1. Dann folgt P i = lim z 1 P i (z) = 1 1 lim z 1 F i (z) =. Der zweite Teil des Satzes ist die Kontraposition des ersten Teils. Folg. 11 Sei i transient. dann F i = P i 1 + P i < W.Kössler, Humboldt-Universität zu Berlin
12 Diese beiden Aussagen können zum Beweis des folgenden Lemmas verwendet werden. Lemma 70 Ist ein Zustand i rekurrent (transient) und kommuniziert er mit einem Zustand j (i j), so ist auch der Zustand j rekurrent (transient). Beweis: 1. Sei i j. Dann existieren m,k > 0: p ij (k) > 0 und p ji (m) > 0. Für alle n N gilt: p jj (m + n + k) = ( p jk (m)p k l(n) ) p lj (k) l k = p jl (m + n)p lj (k) l p ji (m)p ii (n)p ij (k) (l = i). 728 W.Kössler, Humboldt-Universität zu Berlin
13 Daraus folgt (da i rekurrent) p jj (m + n + k) p ji (m)p ij (k) p ii (n) =. n=1 n=1 2. Sei i j. und i transient. Ang, j wäre rekurrent, dann wäre nach 1. auch i rekurrent. Wid. Folg. 12 Eine irreduzible MARKOFF sche Kette mit endlich vielen Zuständen hat nur rekurrente Zustände. Beweis: Mindestens ein Zustand muß rekurrent sein. Da alle Zustände miteinander kommunizieren, sind alle Zustände rekurrent. 729 W.Kössler, Humboldt-Universität zu Berlin
14 Bsp. 117 (Random walk, eindim. Fall) Der Zustandsraum ist S = Z. Die Übergangswahrscheinlichkeiten sind p i,i+1 p i,i 1 := p := 1 p p ij := 0, falls i j 1. D.h. Übergänge zwischen Zuständen, die einen Abstand ungleich Eins zueinander haben, sind nicht möglich. Die 730 W.Kössler, Humboldt-Universität zu Berlin
15 Übergangsmatrix M hat folgende Gestalt: p p 0 p 0... M = p 0 p p Offenbar kommunizieren alle Zustände miteinander. Ist somit ein Zustand rekurrent, so sind es alle. Und umgekehrt. 731 W.Kössler, Humboldt-Universität zu Berlin
16 Es genügt also zu untersuchen: n=1 p 00 (n). Dazu siehe den Abschnitt Irrfahrten! n=1 p 00(n) =, wenn p = W.Kössler, Humboldt-Universität zu Berlin
17 Bsp. 118 (Random walk, zwei- und dreidim. Fall) Im zweidimensionalen Fall haben wir in jedem Zustand vier mögliche Übergänge, denen die Wahrscheinlichkeiten p 1,p 2,p 3 und p 4 zugeordnet werden. DieZustände sind rekurrent, wenn p 1 = p 2 = p 3 = p 4 = 1 gilt. 4 Im dreidimensionalen Fall sind in jedem Punkt im dreidimensionalen ganzzahligen Gitter sechs Übergänge möglich. Auch wenn p 1 =... = p 6 = 1, so sind alle Zustände 6 transient. Dazu siehe den Abschnitt Irrfahrten! 733 W.Kössler, Humboldt-Universität zu Berlin
18 (die folgenden drei Seiten können überlesen werden.) Sei jetzt der Zustand i Startzustand (fest) und Y 1 = # Schritte bis zur ersten Rückkehr nach i Y 2 = # Schritte bis zur zweiten Rückkehr Y k = # Schritte bis zur k-ten Rückkehr P(Y 1 < ) = F i Y 1 = = Y 2 =, d.h. {Y 1 = } {Y 2 = } = P(Y 2 < Y 1 < ) = F i 734 W.Kössler, Humboldt-Universität zu Berlin
19 Sei jetzt F i < 1. = P(Y 2 < ) = P(Y 2 < Y 1 < ) P(Y 1 < ) = F 2 i P(Y k < ) = F k i k=1 P(Y k < ) = k=1 F k i < Folg. 13 i transient = nach unendlich vielen Schritten tritt i höchstens endlich oft mit Wkt. 1 ein. 735 W.Kössler, Humboldt-Universität zu Berlin
20 Beweis: Nach dem Lemma von Borel-Cantelli gilt k=1 P(A k ) < = P(lim sup A n ) = 0. Mit A k = {Y k < }, B n = k n A k folgt 0 = P(lim sup A n ) = P(limB n ) = lim P(B n ) = P(B) B = {unendlich viele der A k,k = 1, 2,...,treten ein} B = {endlich viele dera k,k = 1, 2,..., treten ein} P(B) = W.Kössler, Humboldt-Universität zu Berlin
21 Folg. 14 Sei jetzt i rekurrent, d.h. F i = 1. = i wird unendlich oft erreicht. Beweis: Für beliebiges k gilt: P(Y k < ) = 1. Y = # der Rückkehren nach i bei unendlich vielen Schritten. {Y k < } {Y k} P(Y = ) = lim k P(Y k) = lim k P(Y k < ) = W.Kössler, Humboldt-Universität zu Berlin
22 16.4 Grenzverteilungen Def. 64 Ein Zustand i heißt periodisch mit der Periode d, falls d größter gemeinsamer Teiler aller der Zahlen n Z + ist, für die p ii (n) > 0 gilt. Ist d = 1, so heißt der Zustand i aperiodisch. Falls für alle Zahlen n Z + p ii (n) = 0 gilt, so setzen wir d :=. Satz 71 Es sei i S ein periodischer Zustand mit Periode d. Desweiteren kommuniziere er mit einem weiteren Zustand j (i j). Dann hat auch der Zustand j die Periode d. Beweis: Nach Voraussetzung ist i periodischer Zustand mit Periode d. Folglich lassen sich alle Zahlen k mit p ii (k) > W.Kössler, Humboldt-Universität zu Berlin
23 durch k = k 0 d, für eine Zahl k 0, darstellen. Da die Zustände i und j miteinander kommunizieren, existieren weitere Zahlen n und m, so daß gilt: p ij (n) > 0 und p ji (m) > 0. Daraus folgt mit Hilfe der Rekursion von CHAPMAN KOLMOGOROFF: p ii (n + m) = l S p il (n) p li (m) p ij (n) p ji (m) > 0 Folglich ist d Teiler der Summe n + m. 739 W.Kössler, Humboldt-Universität zu Berlin
24 Es gelte nun p jj (r) > 0 für ein gewisses r. Dann gilt: p ii (n + m + r) = p il (n) p ls (r) p si (m) l,s S p ij (n) p jj (r) p ji (m) > 0 Wir stellen also fest: d teilt m + n + r d teilt m + n d teilt r. Folglich ist der Zustand j periodisch mit Periode d, wobei gilt: d d. Da die Relation symmetrisch ist, gilt auch: j i. 740 W.Kössler, Humboldt-Universität zu Berlin
25 Mit der gleichen Beweisführung wie oben können wir dann zeigen, daß gilt: d d. Daraus folgt: Die Zustände i und j haben die gleiche Periodenlänge. Es sei nun i ein Zustand aus dem Zustandsraum S. Wir betrachten die folgende Zufallsgröße: n... Y :. f i (1) f i (2)... f i (n)... Wir definieren die mittlere Rückkehrzeit in den Zustand i: µ i := n=1 n f i (n) = EY. 741 W.Kössler, Humboldt-Universität zu Berlin
26 Def. 65 Es sei i ein Zustand aus dem Zustandsraum S. Der Zustand i heißt positiv rekurrent, falls µ i < gilt. Ist dagegen µ i =, so nennen wir den Zustand i Null rekurrent. Es gelten für einen beliebigen Zustand i die folgenden Zusammenhänge (ohne Beweis): µ i < genau dann, wenn lim n p ii (n) > 0; µ i = genau dann, wenn lim p ii (n) = 0. n Ist der Zustand i positiv rekurrent und aperiodisch, so gilt: 1 µ i = lim p ii(n). n 742 W.Kössler, Humboldt-Universität zu Berlin
27 Def. 66 Eine MARKOFF sche Kette {X t } t T heißt ergodisch, falls der Zustandsraum S nur aus positiv rekurrenten und aperiodischen Zuständen besteht. Satz 72 (Ergodensatz) Eine homogene MARKOFF sche Kette {X t } t T ist genau dann irreduzibel und ergodisch, wenn für alle Zustände i S gilt: p j := lim n p ij (n) > 0. Außerdem gilt µ j = 1 p j und {p j } ist eindeutig bestimmt durch: p j = i=1 p i p ij. 743 W.Kössler, Humboldt-Universität zu Berlin
28 {p i } heißt stationäre oder Finalverteilung. Die stationäre Verteilung kann also nach obiger Gleichung ermittelt werden. p = p 1. = M T... p 2 p j p 1 p 2 p j. Also gilt: M T p = p = λ p mit λ = 1. Eigenwertgleichung für den Eigenwert 1. p ist Eigenvektor zum Eigenwert 1. Bem. 28 M und M T haben dieselben Eigenwerte. 744 W.Kössler, Humboldt-Universität zu Berlin
29 Folg. 15 Sei M die Übergangsmatrix einer MARKOFF schen Kette mit endlich vielen Zuständen (in der Form, in der die Äquivalenzklassen ablesbar sind) Dann gilt: Die Vielfachheit des Eigenwertes 1 ist gleich der Anzahl der rekurrenten Äquivalenzklassen. Beweis: Jede Teilübergangsmatrix von Äquivalenzklassen hat den einfachen Eigenwert 1 (Finalverteilung eindeutig!) Bsp. 119 Wir betrachten eine MARKOFF sche Kette über einem dreielementigen Zustandsraum, die die folgende 745 W.Kössler, Humboldt-Universität zu Berlin
30 Übergangsmatrix M besitzt: M = Äquivalenzklassen: {1, 2}, {3}. Wir ermitteln die Eigenwerte: 0 = det(m λ I) 1 λ = λ λ = (1 λ) [( 1 2 λ) (1 4 λ) 3 8 ] 746 W.Kössler, Humboldt-Universität zu Berlin
31 Der erste Eigenwert: λ 1 = 1. Weiter: 0 = ( 1 2 λ) (1 4 λ) 3 8 = λ + λ2 3 8 = λ λ 1 4 λ 2,3 = 3 8 ± = 3 8 ± λ 2 = = 1 λ 3 = W.Kössler, Humboldt-Universität zu Berlin
32 Also: Eigenwerte: λ 1 = λ 2 = 1 und λ 3 = 1. Der Eigenwert 4 1 hat folglich die Häufigkeit 2, und somit gibt es zwei rekurrente Äquivalenzklassen. Folg. 16 Falls p ij = j p ij = 1 i so sind die stationären Verteilungen einer endlichen irreduziblen Markoffschen Kette Gleichverteilungen. 748 W.Kössler, Humboldt-Universität zu Berlin
33 Beweis: Es gilt für die stationäre Verteilung (p 1,...,p n ): p i p ij = p j = p j p ij i Daraus folgt j (p i p j )p ij = 0, insbesondere i i (p i p j0 )p ij0 = 0, j 0 = min j Wegen (p i p j0 ) 0 folgt p j0 = p i i, d.h. p i = 1 n. Folg. 17 Ist die Übergangsmatrix einer endlichen irreduziblen Markoffschen Kette symmetrisch so sind die stationären Verteilungen Gleichverteilungen. i p j 749 W.Kössler, Humboldt-Universität zu Berlin
34 Veranschaulichung von limp jj (n) = 1 µ j und des Ergodensatzes {X t }: homogene Markoffsche Kette j: rekurrenter Zustand, X 0 = j (j fest). 1, falls X k = j Y k = 0, sonst. P(Y k = 1) = p jj (k), EY k = p jj (k) 750 W.Kössler, Humboldt-Universität zu Berlin
35 Anzahl der Wiederkehrzeitpunkte im Zeitraum 1,...,N N k=1 Y k = k N. Beobachtete mittlere Anzahl der Wiederkehrpunkte pro Schritt (im Zeitraum 1,...,N) k N N Ek N N = 1 N E( N = 1 N N p jj (n) n=1 n=1 Y k ) = 1 N N n=1 EY k 751 W.Kössler, Humboldt-Universität zu Berlin
36 Mittlere beobachtete Wiederkehrzeit im Zeitraum 1,...,N N k N µ j = Andererseits: 1 N N n=1 p jj (n) N 1 µ j lim n p jj(n) = p j = 1 N N n=1 p jj (n) N p j = 1 µ j. 752 W.Kössler, Humboldt-Universität zu Berlin
37 Abschätzung der Konvergenzgeschwindigkeit c(n 0 ) := sup i,j p im (n 0 ) p jm (n 0 ) m Für n n 0 gilt: c(n) > 0. Satz 73 Sei c(n 0 ) > 0 für ein gewisses n 0. dann existiert lim p j(n) = p j, j = 1, 2,... n und es gilt für alle Anfangsverteilungen {p 0 j}: p j (n) p j C e Dn, 753 W.Kössler, Humboldt-Universität zu Berlin
38 wobei C = 1 1 c(n 0 ), D = 1 n 0 ln 1 1 c(n o ) Beweis: Rosanov, Zufällige Prozesse p j (n) = P(X n = j) = i p 0 ip ij (n) 754 W.Kössler, Humboldt-Universität zu Berlin
Randomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten
MehrZwei Spieler werfen abwechselnd eine (nicht manipulierte)
5 Klassische Beispiele 5.1 Ruin des Spielers Zwei Spieler werfen abwechselnd eine (nicht manipulierte) Münze. Fällt Kopf, so erhält Spieler A den vereinbarten Einsatz (1 Euro) von Spieler B, anderenfalls
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrBsp. 120 Ein-Prozessorsystem mit mehreren E/A-Einheiten.
Bsp. 20 Ein-Prozessorsystem mit mehreren E/A-Einheiten. Ein Programm. das sich in der CPU befindet, geht mit Wkt. q i in die I/O-Einheit i über, oder endet (mit Wkt. q 0 ) und macht Platz für ein neues
Mehrfür die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.
8 Markov-Ketten 8.1 Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.
MehrEndliche Markov-Ketten - eine Übersicht
Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und
MehrDWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr
2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,
MehrEinführung in die Theorie der Markov-Ketten. Jens Schomaker
Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch
MehrDer Ergodensatz. Hendrik Hülsbusch
Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen
Mehr5 Zufallsvariablen, Grundbegriffe
II. Zufallsvariablen 5 Zufallsvariablen, Grundbegriffe Def. 12 Es seien (Ω 1, E 1,P 1 ) und (Ω 2, E 2,P 2 ) Wahrscheinlichkeitsräume. Eine Abbildung X : Ω 1 Ω 2 heißt E 1 E 2 meßbar, falls für alle Ereignisse
MehrPr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
MehrEin Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr
Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,
MehrProzesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).
77 Markowketten 77 Motivation Der Zustand eines Systems zur Zeit n N werde durch eine Zufallsvariable X n beschrieben und soll nur von X n abhängen (nicht jedoch von früheren Zuständen X n, X n 3, ) Wir
Mehr10 Markow-Ketten. Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen
10 Markow-Ketten Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen 10.1 Lineare Differenzengleichungen Unter einer homogenen linearen Differenzengleichung der Ordnung r verstehen wir eine
Mehr4.2 Moment und Varianz
4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p
MehrSeminar über Markovketten
Universität Siegen Fachbereich Mathematik Seminar über Markovketten Sommersemester 003 Dozent Dr. Edgar Kaufmann Seminarteilnehmer Tobias Kegel Alexander Luke Uwe Nowak Übergangswahrscheinlichkeiten höherer
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrÜbersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten
Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω = {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω = 2 3 = 8 = N
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 6 Langzeitverhalten, stationäre Masse Multiplikation von Rechts! Literatur Kapitel 6 * Grimmett & Stirzaker: Kapitel 6.4 * Krengel: 6. 6. Motivation Um die nachfolgenden
MehrEinführung in Markoff-Ketten
Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die
Mehr10 Transformation von Zufallsvariablen
10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)
SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013
MehrDisMod-Repetitorium Tag 3
DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität
MehrStochastische Prozesse Stoffzusammenfassung
Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 7. August 2018 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt
Mehr1 A dp = P(A B). (1.3)
Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare
MehrVertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen
MehrDIPLOMARBEIT. Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung
Studiengang Diplom-Mathematik mit Schwerpunkt Biowissenschaften DIPLOMARBEIT Abschätzungen der Konvergenzgeschwindigkeit von Markov-Ketten gegen die Gleichgewichtsverteilung von: Christina Boll geb. Wolf
MehrDie Abbildung zeigt die Kette aus dem "
½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen. Bsp (3-maliges Werfen einer Münze) Menge der Elementarereignisse:
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen Bsp. 1.19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz, zzw,zwz,wzz,zww,wzw,wwz,www}. Dabei gilt: Ω 2 3 8 N. Wir definieren
MehrBedingt unabhängige Zufallsvariablen
7. Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Benannt nach Andrei A. Markov [856-9] Einige Stichworte: Markov-Ketten Definition Eigenschaften Konvergenz Hidden Markov Modelle Sei X
MehrDiskrete Wahrscheinlichkeitstheorie
SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil VI Markov-Ketten Markov-Ketten Markov-Ketten
Mehr3.4 Anwendung bedingter Wahrscheinlichkeiten
3.4 Anwendung bedingter Wahrscheinlichkeiten Bsp. 23 Betrachtet werden mehrere Kanonen. Für i N bezeichne A i das Ereignis, daß Kanone i einen Schuß abgibt. A sei das Ereignis, daß ein Treffer erzielt
MehrStationäre Maße und Zeitmittel
Stationäre Maße und Zeitmittel Clara Strohm SS 2003 Seminar Wahrscheinlichkeitstheorie Wir untersuchen im folgenden das Langzeitverhalten in diesem Fall gleichmäßige Konvergenz im Césaro-Mittel diskreter,
MehrLösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten
Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage
MehrKapitel 5: Markovketten
Kapitel 5: Markovketten Definition 5.1 Bezeichnungen Bsp. 5.1 Definition 5.2 Eine Fam. (X i ) i I von ZV en X i : Ω E auf (Ω, F, P) mit Werten im messb. Raum (E, E) heißt Stochastischer Prozess. E Zustandsraum
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 25 Überblick Überblick Metropolis-Algorithmus
Mehr3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur
3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur Ein Zustand j ist erreichbar von i (i j), falls P i (X t = j für ein t 0) > 0. i j, wenn i erreichbar von j und j erreichbar von i ist. Die
Mehr2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse
2 Halbgruppen von Übergangswahrscheinlichkeiten Markov-Prozesse Im Folgenden sei (X, B) ein (polnischer) Messraum und T = [0, ) oder T = N 0 Definition 21 Eine Familie (P t ) t T von (X, B) mit Übergangswahrscheinlichkeiten
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrKapitel 12: Markov-Ketten
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 21.01.2016 Kapitel 12: Markov-Ketten Ab jetzt betrachten wir stochastische Prozesse (X n ) n N0 mit 1. diskreter Zeit N 0 = {0,1,2,...},
Mehr1.3 Zufallsvariablen
1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω 2 3 8 N Wir definieren
MehrStudiengang Diplom-Mathematik DIPLOMARBEIT. Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit.
Studiengang Diplom-Mathematik DIPLOMARBEIT Die Markov Ketten Monte Carlo Methode zum Testen stochastischer Unabhängigkeit eingereicht von Christina Gunkel am 3. Juni 2008 Erste Gutachterin: Zweiter Gutachter:
Mehr4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9
Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )
MehrWahrscheinlichkeitstheorie und Maßtheorie
KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
Mehr15.3 Statistische Tests von Pseudozufallszahlen
15.3 Statistische Tests von Pseudozufallszahlen Def. 52 Ein Test ist eine Entscheidungsvorschrift, die über die Akzeptanz genau einer von zwei alternativen Hypothesen entscheidet. Bsp. 109 (Analogie zur
Mehr3. Prozesse mit kontinuierlicher Zeit
3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess
MehrMarkov-Ketten 1. Definition 2.1
Marov-Ketten Definition 2. Sei P eine -Matrix mit Elementen {P i,j : i, j,...,}. Ein Zufallsprozess (X 0, X,...) mit endlichem Zustandsraum S{s,...,s } heißt homogene Marov-Kette mit Übergangsmatrix P,
Mehr11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
MehrFolie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}
Mehr15 Grundlagen der Simulation
15 Grundlagen der Simulation 15.1 Einführung Komplexe Problemstellungen, die einer analytischen Behandlung nur sehr schwer oder gar nicht zugänglich sind Lösung von diskreten (oder analytischen) Optimierungsaufgaben,
MehrVertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 5.6.2013 8. Unabhängigkeit von Zufallsgrößen, Erwartungswert und Varianz 8.1
Mehr4 Lineare Algebra (Teil 2): Quadratische Matrizen
4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,
MehrKapitel 6. Irrfahrten und Bernoullischemata
Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten
MehrKapitel 4: Irreduzible und aperiodische Markov Ketten 1
Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme
MehrVorstellung der Kopplung bei Markovketten
Vorstellung der Kopplung bei Markovketten Leonie Weinhold 13. Mai 2011 1 Einleitung In der Wahrscheinlichkeitstheorie und ihren Anwendungen ist die Coupling- Methode ein wichtiges Instrument, um z.b. Aussagen
Mehr7.4 Charakteristische Funktionen
7.4 Charakteristische Funktionen Def. 25 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx
Mehr6.4 Poisson-Verteilung
6.4 Poisson-Verteilung Sei {N t } t T eine Menge von Zufallsvariablen (ein stochastischer Prozeß ) mit folgenden Eigenschaften: V1: Zuwächse sind unabhängig, dh. die Zufallsvariablen N t+h N t und N t
MehrKlausur zur Vorlesung,,Algorithmische Mathematik II
Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese
Mehr4 Funktionenfolgen und normierte Räume
$Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei
MehrÜbung ln(p) x aus dem Primzahlsatz π(x) x/ ln(x) folgt. Gehen Sie dabei wie folgt vor: i) p x
Übung 0 Übung 0 Zeigen Sie, dass der Primzahlsatz π(x) x/ ln(x) aus p x ln(p) x folgt Übung 02 Zeigen Sie, dass p x ln(p) x aus dem Primzahlsatz π(x) x/ ln(x) folgt Gehen Sie dabei wie folgt vor: i) p
MehrEigenwerte und Netzwerkanalyse. Page Rank
A Google versucht die Bedeutung von Webseiten mithilfe des sogenannten zu ermitteln. Der einer Seite basiert ausschließlich auf der Verweisstruktur des Webs. Der Inhalt einer Seite hat dagegen keinen direkten
MehrKapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen
Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion
MehrMarkov Ketten und Bonus Malus Systeme
Grund Stoch Markov Ketten Bonus Malus Probleme L 1 / 46 Markov Ketten und Bonus Malus Systeme Klaus D. Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden TU Wien 19. Mai 2010
MehrEndliche Markov-Ketten
Endliche Markov-Ketten Michael Krühler 24. Oktober 2013 Inhaltsverzeichnis 1 Einführung 2 1.1 Mathematische Einführung......................... 2 1.2 Interpretation................................. 3 2
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrChr.Nelius: Zahlentheorie (WS 2006/07) ggt und kgv
ChrNelius: Zahlentheorie (WS 2006/07) 8 3 ggt und kgv Wir erinnern uns hoffentlich an die folgenden Definitionen des ggt s und des kgv s zweier ganzer Zahlen (31) DEF: Eine ganze Zahl g heißt größter gemeinsamer
MehrKapitel 4 Diskrete Markov-Prozesse
Kapitel 4 Diskrete Markov-Prozesse 4.1 Definition und grundlegende Eigenschaften 4.1 Definition und grundlegende Eigenschaften Stetige Zeit aber weiterhin diskreter Zustandsraum. Beispiele: Klinische Studien,
MehrEinführung in Quantitative Methoden
Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung
MehrThema: Totalvariationabstand, Kopplung und Mischzeiten
Technische Universität Berlin Thema: Totalvariationabstand, Kopplung und Mischzeiten Ausarbeitung zum Seminar Moderne Anwendung von Markovketten Name: Nina Kamswich Matrikelnummer: 33677 Fachbereich: Mathematik
Mehr5.3 Diskrete zufällige Variablen
5.3 Diskrete zufällige Variablen X(ω) { x 1,x 2,x 3,... } X : x 1 x 2 x 3 x n p 1 p 2 p 3 p n p i = P(X = x i ) > 0, i = 1, 2, 3,... Die Funktion f(x i ) = p i heißt Wahrscheinlichkeitsfunktion. i=1 p
Mehr12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.
12 Ungleichungen Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. Dann gilt: min c R E(X c)2 = Var X. Beweis: Für alle reellen Zahlen c R gilt: E(X
Mehr7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X].
7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := gilt G X(1) = Pr[X = k] s k = E[s X ], k=0 k Pr[X = k] = E[X]. k=1 DWT 7.1 Einführung 182/476 Beispiel 73 Sei X binomialverteilt
MehrKlausur,,Algorithmische Mathematik II
Institut für angewandte Mathematik Sommersemester 03 Andreas Eberle Matthias Erbar / Jan Maas Klausur Algorithmische Mathematik II Musterlösung. (Zufallsvariablen und ihre Verteilung a Wir nehmen an dass
Mehr80 7 MARKOV-KETTEN. 7.1 Definition und Eigenschaften von Markov-Ketten
80 7 MARKOV-KETTEN 7 Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Sei X = (X 0, X, X 2,...) eine Folge von diskreten Zufallsvariablen, die alle Ausprägungen in einer endlichen bzw. abzählbaren
MehrSatz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung
Satz von Borel-Cantelli Limes inferior von Mengen Limes superior von Mengen Stetigkeit Konvergenz von Zufallsvariablen Kolmogorow-Ungleichung Tschebyschow-Ungleichung Konvergenzkriterien Starkes Gesetz
MehrWahrscheinlichkeitsrechnung und Statistik
8. Vorlesung - 2017 Bemerkung: Sei X = (X 1,..., X n ) Zufallsvektor. Der n dimensionale Vektor ( ) E(X ) = E(X 1 ),..., E(X n ) ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N (0,
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
MehrDie Kopplung von Markovketten und die Irrfahrt auf dem Torus
Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag 20.05.20 Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis
MehrÜbungsaufgaben Lösungen
Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij
Mehrp k (1 p) n k s k = (1 p + ps) n. k p(1 p) k 1 s k ((1 p)s) k 1 =
Binomialverteilung Für X Bin(n, p) gilt nach der binomischen Formel G X (s) = E[s X ] = n ( ) n p k (1 p) n k s k = (1 p + ps) n. k Geometrische Verteilung Sei X eine geometrisch verteilte Zufallsvariable
MehrSuchmaschinen und Markov-Ketten 1 / 42
Suchmaschinen und Markov-Ketten 1 / 42 Zielstellung 1 Wir geben einen kurzen Überblick über die Arbeitsweise von Suchmaschinen für das Internet. Eine Suchmaschine erwartet als Eingabe ein Stichwort oder
MehrAlle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie-
1 Vorbemerkungen Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie- benen Vektoren. Wird die Matrix A = ( a 1,..., a n ) mit dem Vektor c = c 1. c n multipliziert,
MehrBem. 6 Die charakterische Funktion existiert.
4.4 Charakteristische Funktionen Def. 2.14 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx
MehrY = g 2 (U 1,U 2 ) = 2 ln U 1 sin 2πU 2
Bsp. 72 (BOX MÜLLER Transformation) Es seien U 1 und U 2 zwei unabhängige, über dem Intervall [0, 1[ gleichverteilte Zufallsgrößen (U i R(0, 1), i = 1, 2), U = (U 1,U 2 ) T ein zufälliger Vektor. Wir betrachten
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrSchriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation. Propp-Wilson-Algorithmus
Technische Universität Berlin Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation Propp-Wilson-Algorithmus Lisa Brust Matrikelnummer: 330793 Master Mathematik 30. Juni 2016
MehrErneuerungs- und Semi-Markov-Prozesse
Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Für den Poisson-Prozess und (reguläre) diskrete Markov-Prozesse impliziert die Markov-Eigenschaft, dass die Zwischenzeiten bzw. Verweildauern exponentialverteilt
Mehr2 Kombinatorik. 56 W.Kössler, Humboldt-Universität zu Berlin
2 Kombinatorik Aufgabenstellung: Anzahl der verschiedenen Zusammenstellungen von Objekten. Je nach Art der zusätzlichen Forderungen, ist zu unterscheiden, welche Zusammenstellungen als gleich, und welche
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 stheorie: Grundbegriffe Prof. Dr. Achim Klenke http://www.aklenke.de 5. Vorlesung: 25.11.2011 1/33 Inhalt 1 Zufallsvariablen 2 Ereignisse 3 2/33 Zufallsvariablen Eine Zufallsvariable
MehrMarkovketten. Vorlesungsskript. Universität Freiburg. Andrej Depperschmidt. Sommersemester 2016
Markovketten Andrej Depperschmidt Vorlesungsskript Universität Freiburg Sommersemester 2016 Version: 20. Juni 2016 1 Einleitung Markovprozesse ist eine für viele Anwendungen wichtige Klasse von stochastischen
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
Mehr