Kapitel 7. Martingale 1
|
|
- Eleonora Krämer
- vor 5 Jahren
- Abrufe
Transkript
1 Kapitel 7 Martingale Definition: a) (Ω, F) sei ein messbarer Raum. Eine Filtration (oder Filtrierung) ist eine aufsteigende Folge F = (F n ) n N von Teil-σ-Algebren von F, d.h. F n F n+1 F für n N. Ist P ein Wahrscheinlichkeitsmaß auf (Ω, F), so nennt man (Ω, F, F, P) einen filtrierten Wahrscheinlichkeitsraum. b) (E, E) sei ein zweiter messbarer Raum. Eine Folge X := (X n ) n N von Abbildungen Ω E heißt F-adaptiert, falls für alle n N X n F n -E-messbar ist und F-vorhersagbar oder F-prävisibel, wenn X 1 konstant und für alle n 2 X n F n 1 -E-messbar ist. Oft wird als Indexmenge statt N auch N 0 verwendet. Notation: F := ( ) F n = σ F n F. n n=1 Beispiel: X := (X n ) sei eine Folge von F-E messbaren Abbildungen. F n := σ(x 1,..., X n ) = n X 1 j (E). j=1 F = (F n ) n N ist eine Filtrierung. (X n ) ist F-adaptiert. F heißt die von X erzeugte Filtration. 7.2 Bemerkung: Sei X := (X n ) eine F-adaptierte (E, E)-wertige Folge. F n : E n E sei E n -E - messbar, wobei (E, E ) ein neuer messbarer Raum ist. Y n := F n (X 1,..., X n ) ist dann ebenfalls F-adaptiert. Notation: N = N { } 1 Version Dezember
2 7.3 Definition: Sei F eine Filtrierung auf (Ω, F). Eine Abbildung ν : Ω N heißt F-Stoppzeit, falls für alle n N gilt: {ν = n} F n Bemerkung: ( c Wegen {ν = n} F n F gilt {ν = } = {ν = n}) F. n=1 7.5 Beispiele: X := (X n ) sei F-adaptiert, (E, E)-wertig. (a) A E, ν A = inf{n N : X n A} (,wobei inf := ). Dann ist ν A eine Stoppzeit. Für n N gilt {ν A = n} = {X n A} n 1 {X k A c } F n. (b) Sei τ eine beliebige Stoppzeit, A E und ν := inf{n > τ : X n A}. Dann ist ν eine Stoppzeit. ( {ν = n} = {X n A} n 1 {τ = k} n 1 l=k+1 ) {X l / A} Aus a), b) folgt: Zweiteintrittszeiten etc. sind Stoppzeiten. 7.6 Definition: ν sei eine F-Stoppzeit F n. F ν := {A F : A {ν = n} F n n} heißt σ-algebra der Prä-ν-Ereignisse. Man prüfe nach, dass F ν eine σ-algebra ist und ν F ν -messbar ist! Bemerkung: ν : Ω N sei konstant = m N. Dann gilt { n m {ν = n} = Ω n = m F n. F ν = {A F : A {ν = n} F n Somit gilt F ν = F m. n}. 2
3 Beispiel: Sei ν = ν A wie in Beispiel 7.5(a) und C E. Wir betrachten das Ereignis D, dass X n mindestens einmal in C ist, bevor es nach A gelangt: 7.7 Lemma: D = { n < ν mit X n C}. D σ(x n : n N) F. n 1 D {ν = n} = {ν = n} {X k C} F n n D F ν. (a) Sei ν : Ω N eine Abbildung. ν ist genau dann eine F-Stoppzeit, wenn {ν n} F n für alle n N gilt. (b) A F liegt genau dann in F ν, wenn A {ν n} F n für alle n gilt. a) I) Sei ν eine Stoppzeit. Dann folgt {ν n} F n II) Umkehrung: {ν = n} = {ν n} \ {ν n 1} F n. b) analog. 7.8 Lemma: Sei ν k, k N eine Folge von Stoppzeiten. Dann sind sup ν k und inf k k (sup N = ). ν k Stoppzeiten {sup ν k n} = k {inf k ν k n} = {ν k n} F n {ν k n} F n. Die Behauptung folgt nun aus
4 7.9 Lemma: ν, ν seien zwei Stoppzeiten. Dann gilt: a) {ν ν }, {ν = ν } F ν F ν. b) Gilt ν ν, so folgt F ν F ν. c) F ν ν = F ν F ν. d) Ist X = (X n ) adaptiert und ν(ω) < für alle ω, dann ist X ν F ν -messbar. a) ν, ν sind F -messbar. Daher gilt {ν ν } F. {ν ν } {ν = n} = {ν = n} {ν n} F n n {ν ν } F ν. {ν ν } {ν = n} = {ν = n} {ν n} F n n {ν ν } F ν. {ν = ν } = {ν ν } {ν ν} F ν F ν. b) A F ν A F. A {ν n} = A {ν n} {ν n} }{{}}{{} F n c) und d) Übungsaufgabe. F n F n n Definition: X = (X n ) sei eine Folge von F-adaptierten, integrierbaren reellen Zufallsgrößen auf einem filtrierten Wahrscheinlichkeitsraum (Ω, F, F, P). a) X heißt F-Martingal, wenn für alle n N E(X n+1 F n ) = X n f.s. gilt. b) X heißt F-Submartingal, wenn für alle n N E(X n+1 F n ) X n f.s. gilt. c) X heißt F-Supermartingal, wenn X ein F-Submartingal ist. Ist F die von (X n ) erzeugte Filtration, so sagt man statt F-Martingal oft einfach Martingal (analog für Submartingal und Supermartingal). Bemerkung: a) Ist X = (X n ) ein F-(Sub-)Martingal, so gilt E(X m F n ) = ( )X n für alle m n. Insbesondere gilt EX m = ( )EX n für alle m n. b) Ist X = (X n ) ein F-(Sub-)Martingal, dann auch ein (Sub-)martingal (bezüglich der von X erzeugten Filtration). 4
5 7.11 Beispiele: a) ξ i, i N, seien unabhängige integrierbare Zufallsgrößen mit Eξ i = 0, i N. Sei F n = σ(ξ 1,..., ξ n ), X n = n ξ i. Dann ist (X n ) ein F Martingal. i=1 b) Die ξ i, i N, seien wie in Beispiel a), jedoch L 2. Dann ist X n = ( n ) 2 ξ i n var(ξ i ) ein F Martingal. i=1 i=1 (X n ) ist offensichtlich F-adaptiert. ( n ) 2 n+1 E(X n+1 F n ) = E ξ i + ξ n+1 var(ξ i ) F n i=1 n = X n + E(2ξ n+1 ξ i F n ) + E(ξn+1 F 2 n ) var(ξ n+1 ) = X n + 2 i=1 i=1 n ξ i E(ξ n+1 F n ) + E(ξn+1 F 2 n ) var(ξ n+1 ) = X n i=1 wegen E(ξ n+1 F n ) = E(ξ n+1 ) = 0 und E(ξ 2 n+1 F n ) = E(ξ 2 n+1) = var(ξ n+1 ). c) Polyas Urnenschema Zur Erinnerung an W.-Theorie I: Polyas Urnenschema ist eine Markovkette auf N N mit Übergangswahrscheinlichkeiten p((r, s), (r + 1, s)) = r r + s p((r, s), (r, s + 1)) = s r + s (die anderen sind 0). Ist (R 0, S 0 ) = (1, 1), (R 1, S 1 ), (R 2, S 2 ),... eine Markovkette mit diesen Übergangswahrscheinlichkeiten, so betrachten wir X n = R n R n + S n = (X n ) ist dann ein F-Martingal. R n n + 2, F n = σ((r 0, S 0 ), (R 1, S 1 )..., (R n, S n )). E(X n+1 F n ) = E( R n+1 F n+3 n) = Rn Rn+1 Rn + (1 ) Rn = X n+2 n+3 n+2 n+3 n. 5
6 d) Ist X eine beliebige integrierbare Zufallsgröße und F = (F n ) eine beliebige Filtrierung, so wird durch X n = E(X F n ) ein F-Martingal definiert Proposition: a) Sei X ein F-Martingal, ϕ : R R konvex und E ϕ(x n ) < für alle n N. Dann ist ϕ(x) := (ϕ(x n )) n N ein F-Submartingal. b) Sei X ein F-Submartingal, ϕ : R R konvex und nichtfallend und E ϕ(x n ) < für alle n N. Dann ist ϕ(x) ein F-Submartingal. Mit der Jensenschen Ungleichung für bedingte Erwartungen folgt in beiden Fällen für n N E(ϕ(X n+1 ) F n ) ϕ(e(x n+1 F n )). Im Fall a) ist der letzte Ausdruck gleich ϕ(x n ), im Fall b) ϕ(x n ) Stoppsatz: Sei X ein F-Submartingal, N N und S und T Stoppzeiten mit S(ω) N und T (ω) N für alle ω Ω. Dann gilt E(X T F S ) X S T f.s. mit Gleichheit, falls X sogar ein F-Martingal ist. Bemerkung: Vor allem der Fall S(ω) T (ω) für alle ω Ω ist wichtig. Auch die spezielleren Fälle S 1 sowie der Fall T N sind interessant. Ohne die Beschränktheitsbedingung ist der Satz im allgemeinen nicht richtig. So ist die symmetrische Irrfahrt auf Z mit Start in 1 als Spezialfall von 7.11 a) ein Martingal und S 1 und T = inf{n N : X n = 0} Stoppzeiten, aber E(X T F S ) = 0 und X S = X 1 = 1. (i) X S T ist F S T -messbar nach 7.9d) und daher F S -messbar nach ( 7.9b). ) Ebenso folgt, dass X T F T -messbar ist. Wegen E X T E max X i 1 i N ( N ) E X i < gilt X T L 1 (Ω, F, P) und ebenso X S T L 1 (Ω, F, P). i=1 (ii) Zu zeigen bleibt (nach Definition der bedingten Erwartung) X T dp (=) X S T dp (1) B B 6
7 für alle B F S. Es genügt dabei, die Behauptung nur für Mengen der Form B = {S = k} A mit A F S zu zeigen, da sie wegen der Linearität des Integrals dann auch für A F S folgt, indem man A = N (A {S = k}) disjunkt zerlegt. Wir fixieren nun k {1,..., N} und A F S und zeigen (1) für B = A {S = k} mit Induktion bezüglich des größten Wertes m von T, also m := max T (ω). ω Ω m = 1 : hier ist T 1 und beide Seiten von (1) sind X 1 dp. B Als Induktionsvoraussetzung nehmen wir an, dass (1) für alle T mit max T (ω) ω Ω m 1 gilt. Wir zeigen, dass (1) dann auch im Fall max T (ω) = m folgt: ω Ω 1. Fall: m k. Dann gilt B X T dp = E(X T 1 A 1 {S=k} ) = E(X T k 1 A 1 {S=k} ) = E(X S T 1 A 1 {S=k} ) = X S T dp. 2. Fall: m > k. Dann gilt zunächst B und B {T = m} = A {S = k} {T m 1} c F m 1 E(X T 1 B ) = E(X T 1 A 1 {S=k} 1 {T m 1} ) + E(X m 1 A 1 {S=k} 1 {T =m} ) (=) E(X T 1 A 1 {S=k} 1 {T m 1} ) + E(X m 1 1 A 1 {S=k} 1 {T =m} ) = E(X T (m 1) 1 A 1 {S=k} ) (=) E(X T (m 1) S 1 A 1 {S=k} ) = E(X T S 1 B ), wobei beim ersten die Submartingaleigenschaft und beim letzten die Induktionsvoraussetzung verwendet wurde. Damit ist (1) gezeigt Korollar: Sei X ein F-(Sub)martingal, ν eine Stoppzeit und Y n (ω) := X n ν(ω) (ω). Dann ist Y ein F-(Sub)martingal. Für n N folgt E(Y n+1 F n ) = E(X (n+1) ν F n ) ( ) = Y n aus 7.13, indem man dort S = n und T = (n + 1) ν setzt. 7
8 7.15 Korollar: Sei X ein F-Martingal mit beschränkten Zuwächsen, dh es existiert β R +, so dass X n+1 (ω) X n (ω) β für alle ω Ω und alle n N. Sei ν eine endliche Stoppzeit mit Eν <. Dann gilt EX ν = EX 1. ν n ν n X ν n = (X k X k 1 ) + X 1 X k X k 1 + X 1 βν + X 1. k=2 k=2 Mit dominierter Konvergenz folgt X ν n X ν in L 1 und daher EX 1 = EX ν n = EX ν Proposition: Ist X ein F-Martingal und H = (H n ) vorhersagbar und gilt für alle n sup ω Ω H n (ω) <, dann ist der Prozess (H X) n := n m=2 H m(x m X m 1 ), n N ein Martingal. Dieser Prozess heißt auch diskretes stochastisches Integral. Sehr einfach! Aufgabe: Wie lange muss man im Mittel warten, bis beim Werfen einer fairen Münze erstmalig die Sequenz WZW unmittelbar hintereinander erscheint? Man kann dies mit etwas Mühe zu Fuß ausrechnen, aber mit Martingalmethoden geht es sehr viel schneller und eleganter! Um die Spannung zu erhalten, wird dies erst in der Vorlesung gezeigt Satz (Doobs maximale Ungleichung): Sei X ein F-Submartingal und N N. Dann gilt für alle x > 0 ( ) ( ) (i) P max X n x 1x E X N 1 {max n N Xn x} (ω) 1 x EX+ N, n N ( ) (ii) P min X ( n x 1 n N x EX + N EX 1). (i) Sei ν := inf{n N : X n x} mit ν := N, falls die Menge leer ist. ν ist eine Stoppzeit mit ν(ω) N für alle ω Ω und A := {max X n x} F ν. n N Mit S := ν und T := N folgt aus 7.13 ({ }) xp max X n x X S dp X T dp EX + N. n N 8 A A
9 (ii) Sei ν := inf{n N : X n x} mit ν := N, falls die Menge leer ist. { } A := min X n x F ν. Mit S := 1 und T := ν folgt aus 7.13 n N ({ }) xp min X n x X T dp = EX T + X T dp n N A A c EX T + X N dp EX 1 + EX + N, A c wobei wir beim vorletzten Ungleichheitszeichen ebenfalls 7.13 anwendeten Definition: Sei F N eine endliche nichtleere Menge, f : N R, a < b reelle Zahlen, τ 1 = inf{t F : f(t) a} und für k = 1, 2,... sei σ k = inf{t > τ k : t F, f(t) b} und τ k+1 = inf{t > σ k : t F, f(t) a}, wobei das Infimum über eine leere Menge als definiert wird. Dann heißt U(a, b, F, f) = max{k : σ k < } Zahl der Upcrossings des Intervalls [a, b] von f in F Doob sche Upcrossingungleichung: Sei X ein F-Submartingal, N N und F = {1,..., N}. Dann gilt für a < b E(U(a, b, F, X(ω))) E((X N a) + ). b a Definiere σ k, τ k wie in Definition Dann sind alle σ k und τ k Stoppzeiten. Mit dem Stoppsatz 7.13 angewendet auf S = σ k N und T = τ k+1 N folgt = E [( U(a,b,F,X(ω)) N ( ) ( 0 E Xτk+1 N X σk N = E Xτk+1 N X σk N) U(a,b,F,X(ω)) k=2 (X σk N X τk N)+X τ(u(a,b,f,x)+1) N (X σ1 N a) a E( (b a)u(a, b, F, X)) + E((X N a) + ), wobei beim letzten 7.13 und 7.12 b) für ϕ(x) = (x a) + verwendet wurde. ) 1 {U(a,b,F,X) 1} (ω) ] 9
10 7.20 Martingalkonvergenzsatz: Sei X ein F-Submartingal mit sup n N E(X + n ) <. Dann existiert eine F - messbare integrierbare Zufallsgröße X, so dass Weiter gilt X (ω) = lim n X n (ω) fast sicher. E X lim inf n E X n. Bemerkung: Für ein F-Submartingal ist n EX n nichtfallend. Daher gilt Außerdem gilt E X n = 2EX + n EX n 2EX + n EX 1. E X n EX + n. Daher ist die Bedingung sup n N E(X + n ) < in 7.20 äquivalent zu sup n N E X n <. Beweis von 7.20: Sei a < b. Wegen (x a) + x + + a gilt c := sup n N E((X n a) + ) <. Aus 7.19 folgt daher (mit monotoner Konvergenz) sup U(a, b, {1,..., N}, X(ω)) < fast sicher. N N Weiter ist N := {ω : sup N N U(q 1, q 2, {1,..., N}, X(ω)) < für alle q 1 < q 2, q 1, q 2 Q} c eine P-Nullmenge und für alle ω / N gilt offenbar, dass X (ω) = lim n X n (ω) existiert, eventuell aber oder ist. Aus dem Lemma von Fatou folgt zusammen mit obiger Bemerkung E X lim inf n E X n <. Insbesondere ist also X integrierbar und damit fast sicher endlich. Die F - Messbarkeit lässt sich gegebenenfalls nach Abänderung auf einer Nullmenge sicherstellen. Konkret ist { lim X n (ω) wenn der Grenzwert in R existiert. X (ω) := n 0 sonst 10
11 F -messbar (vgl. frühere Übungsaufgabe). Bemerkung: Die Bedingung sup n N E(X + n ) < ist automatisch für nichtpositive Submartingale erfüllt. Daher konvergiert jedes nichtpositive Submartingal (und somit jedes nichtnegative Supermartingal) fast sicher Anwendungen: a) Irrfahrt auf N 0 mit absorbierendem Rand. Wir betrachten die Markovkette X 1, X 2,... auf N 0 mit X 1 = 1 und Übergangswahrscheinlichkeit X = (X n ) ist ein positives Martingal: p(i, i + 1) = p(i, i 1) = 1/2 für i 1 p(0, 0) = 1. E(X n+1 X 1,..., X n ) = E(X n+1 X n ) = i N 0 ip(x n, i) = X n. X n konvergiert also f.s. (nach 7.20), was wir allerdings aus WT I ohnehin schon wissen: X n 0, da die symmetrische Irrfahrt auf Z rekurrent ist. Da X ein Martingal ist, gilt EX n = EX 1 = 1. Somit gilt EX = 0 < lim n EX n = 1. b) Polyas Urnenschema (siehe 7.11 c): X = (X n ) ist ein positives Martingal. Die X n sind ferner beschränkt durch 1. Nach 7.20 konvergiert X n f.s. gegen eine Zufallsgröße X. Da die X n beschränkt sind, gilt EX = lim n EX n = EX 1 = 1/2. Im Gegensatz zu den bisher meist betrachteten Situationen ist X nicht eine Konstante. Es gilt nämlich: X ist gleichmäßig auf [0, 1] verteilt. Aus X n X f.s. folgt X n X in Wahrscheinlichkeit, also nach Kapitel 6 X n X in Verteilung. Die Verteilung von X n lässt sich leicht berechnen. R n kann die Werte 1, 2,..., n+1 annehmen. Aus W.-Th. I wissen wir, wie P(R n = k) zu berechnen ist: 11
12 P(R n = k) = p (n) ((1, 1), (k, n + 2 k)), wobei p (n) die n-stufigen Übergangswahrscheinlichkeiten sind. Um sie zu berechnen, summiert man die Produkte der Übergangswahrscheinlichkeiten über alle möglichen Zwischenschritte. Die möglichen Pfade von (1, 1) nach (k, n + 2 k) werden durch die Festlegung der k 1 Zeitpunkte beschrieben, bei denen eine rote Kugel gezogen wird. Jeder dieser Pfade hat offenbar Wahrscheinlichkeit (k 1)!(n+1 k)!. Da es (n+1)! gibt, folgt ( n k 1 P(R n = k) = 1 n + 1, d.h. ( P X n = k ) = 1 für 1 k n + 1. n + 2 n + 1 Daraus ergibt sich L(X n ) λ, wobei λ das Lebesgue-Maß auf [0, 1] ist. ) solcher Pfade c) Starkes Gesetz der großen Zahlen: Satz: Seien X 1, X 2... unabhängige reellwertige Zufallsgrößen mit endlichen zweiten Momenten und (a n ) eine monoton wachsende unbeschränkte Folge positiver reeller Zahlen. Falls var(x i )/a 2 i <, so folgt i=1 lim n a 1 n n (X i EX i ) = 0 fast sicher. i=1 Y n := n (X i EX i )/a i ist ein F-Martingal, wobei F n = σ(x 1,..., X n ). i=1 sup EYn 2 = sup n N n N n var(x i )/a 2 i <. i=1 Somit folgt sup n N E Y n 1 + sup n N EY 2 n <. Nach 7.20 konvergiert Y n fast sicher gegen eine f.s. endliche Zufallsgröße. Die Aussage des Satzes folgt dann mit dem nachfolgenden Lemma (vgl. W.-T. I). Kronecker-Lemma: a n, b n seien zwei reelle Zahlenfolgen. a n > 0 sei monoton wachsend und strebe gegen. Konvergiert n=1 b n/a n in R, so folgt lim n a 1 n n b i = 0. Der Beweis dieses Lemmas sei als Übungsaufgabe dem Leser überlassen. i=1 12
13 Offenbar kann man bei dem starken Gesetz die Unabhängigkeit der X i durch die schwächere Bedingung E(X n+1 EX n+1 X 1,..., X n ) = 0, n N ersetzen, ohne dass der Beweis zu ändern ist. Man sagt, dass (X n EX n ) eine Martingaldifferenzfolge ist, da dann S n := n i=1 (X i EX i ) ein Martingal ist. Eine Frage, die oft interessiert, ist die folgende: Unter welchen Bedingungen konvergiert X n in L 1 gegen X? Wir sahen in 7.21, a) dass dies nicht immer gilt Definition: Ein F-Submartingal, das in L 1 konvergiert, heißt regulär Satz: Sei X ein reguläres F-(Sub)martingal. Dann konvergiert X n auch fast sicher, und für den Grenzwert X gilt für alle n N X n ( ) = E(X F n ) f.s.. X sei der L 1 -Grenzwert der Folge. Aus der L 1 -Konvergenz folgt sup E X n <, n N also konvergiert nach 7.20 die Folge auch fast sicher (und zwar auch gegen X ). Sei δ > 0. Dann gilt für m > n P(E(X F n ) X n < δ) P(E(X F n ) E(X m F n ) < δ) P( E(X F n ) E(X m F n ) > δ) E E(X X m F n ) E(E( X X m F n )) δ δ = E X X m δ 0. m Also folgt E(X F n ) X n fast sicher. Ist X ein F-Martingal, dann sind X und X F-Submartingale, und somit gilt X n = E(X F n ) fast sicher. Als notwendiges und hinreichendes Kriterium für die Regularität eines Martingals wird sich die gleichförmige Integrierbarkeit von X = (X n ) herausstellen Definition: Eine Familie reeller Zufallsgrößen X t, t I (I beliebige Indexmenge) heißt gleichförmig (oder gleichmäßig oder gleichgradig) integrierbar, wenn lim sup X t dp = 0. n t I Bemerkungen: { X t n} 13
14 a) Ist X eine integrierbare ZV, dann ist {X} gleichgradig integrierbar. b) Jede endliche Menge integrierbarer ZV auf einem Wraum ist gleichgradig integrierbar. c) Sind M 1 und M 2 Mengen gleichgradig integrierbarer ZV auf einem Wraum, dann auch M 1 M 2. d) Existiert zu einer Familie M von ZV eine integrierbare Majorante, dann ist M gleichgradig integrierbar. e) Ist X integrierbar, dann ist {Y L 1 (Ω, F, P) : L(Y ) = L(X)} gleichgradig integrierbar Proposition: Sei X t, t I eine Familie von Zufallsgrößen auf (Ω, F, P). Dann sind äquivalent: (i) {X t, t I} ist gleichförmig integrierbar. (ii) sup t I E X t < und für alle ε > 0 existiert ein δ > 0, so dass für alle A F mit P(A) < δ und alle t I gilt: E X t 1 A < ε. (iii) Es existiert eine nichtnegative nichtfallende konvexe Funktion G : [0, ) [0, ) mit lim x G(x) x = und sup EG( X t ) <. t (iv) Es existiert eine nichtnegative messbare Funktion G : [0, ) [0, ) mit G(x) lim x x (i) (ii): Sei n N so gewählt, dass sup t sup t E X t sup t so dass sup t P(A) < δ : = und sup EG( X t ) <. t { X t n} X t dp <. Dann folgt E( 1 { Xt n} X t )+n <. Sei weiter ε > 0. Wähle n = n(ε) N, E( 1 { Xt n} X t ) < ε 2 ε und δ = δ(ε) =. Dann folgt für A F mit 2n E X t 1 A = E( X t 1 A { Xt n}) + E( X t 1 A { Xt <n}) < ε 2 + np(a) < ε 2 + ε 2 = ε. (i) (iii): Sei N k, k N eine wachsende Folge positiver Zahlen, so dass N 1 = 0, N k und C := sup t ke( X t 1 { Xt Nk }) <. 14
15 ( Definiere die stetige Funktion G durch G(0) = 0 und G (x) = k N k+1 x N k+1 N k ), N k x < N k+1, k N. Dann ist G konvex, nichtfallend und erfüllt lim x G(x)/x =. Weiter folgt EG( X t ) = G (y) 1 { Xt y}dydp Ω = Ω Ω 0 Nk+1 N k k( X t N k ) 1 { Xt N k }dp G (y) 1 { Xt y}dydp ke( X t 1 { Xt Nk }) C <. (iii) (iv): trivial. G(x) (iv) (i): Sei n N und M n := inf x n. Dann folgt x sup X t dp 1 sup G( X t )dp. t M n t { X t n} (ii) (i): Sei ε > 0 und n = n(ε) > 1 δ sup t I E X t, n <. Wegen E X t np{ X t n} folgt P{ X t n} < δ, also folgt aus (ii) E( 1 { Xt n} X t ) < ε. Bemerkung: a) Ein wichtiger Spezialfall ist G(x) = x p für p > 1. b) Aus sup t I E X t < folgt nicht die gleichförmige Integrierbarkeit von X t, t I! Ein Beispiel dafür ist I = N, (Ω, F, P) = ([0, 1], B [0,1], λ) und X n = n 1 [0,1/n]. Für den Beweis des folgenden Satzes wird sich das folgende Lemma als nützlich erweisen, dessen Beweis dem Leser überlassen ist Lemma: Eine Folge reeller ZV X k, k N ist gleichgradig integrierbar genau dann wenn alle X k integrierbar sind und lim n lim sup k E( X k 1 { Xk n}) = 0. Der folgende Satz zeigt (auch außerhalb der Martingaltheorie) die Nützlichkeit des Begriffs der gleichförmigen Integrierbarkeit Satz: Sei p [1, ) und X n, n N eine Folge in L p (Ω, F, P) und X eine Zufallsgröße auf (Ω, F, P). Dann sind äquivalent: (i) X n n X in L p (Ω, F, P) Ω 15
16 (ii) α) X n n X in Wahrscheinlichkeit und β) X n p, n N ist gleichförmig integrierbar. (iii) α) X n n X in Wahrscheinlichkeit, β) lim n E X n p = E X p und γ) X L p (Ω, F, P). (i) (iii): α) und γ) sind klar. β) Aus der Dreiecksungleichung für die L p -norm folgt (iii) (ii): Für n > 0 folgt: (E( X k p )) 1/p (E( X p )) 1/p X k X p E( X k p 1 { Xk p n}) E( X k p X k p (n X k p ) + ) k 0. k E( X p X p (n X p ) + ) n 0, wobei wir benutzten, dass eine gleichmäßig (in n und ω) beschränkte Folge von Zufallsgrößen, welche in Wahrscheinlichkeit konvergiert, dies auch in L 1 tut. Mit Lemma 7.26 folgt nun die Behauptung. (ii) (i): Wegen E( X p ) lim inf n E( X n p ) (Fatou!) ist M = { X p } { X n p, n N} gleichförmig ( integrierbar. Also existiert zu ε > 0 ein δ > 0, so dass E( 1 A Y ) < ε ) p 3 für alle Y M und P(A) < δ. Weiter existiert ein N N, so dass P{ Xn X > ε } < δ für alle n N. Damit gilt für n N 3 X n X p 1 { Xn X >ε/3}( X n + X ) p + 1 { Xn X ε/3} X n X p 3 ε 3 = ε Proposition: Sei p 1 und X L p (Ω, F, P). Dann ist { E(X G) p, G F Teil-σ-Algebra} gleichförmig integrierbar. { X p } ist gleichförmig integrierbar, also existiert zu ε > 0 ein δ > 0, so dass aus 16
17 A F und P(A) < δ folgt: E( 1 A X p ) < ε. Sei n > δ 1 E( X p ). Dann folgt mit Markov und Jensen P( E(X G) p n) 1 n E( E(X G) p ) 1 n E(E( X p G)) = 1 n E( X p ) < δ und somit { E(X G) p n} E(X G) p dp { E(X G) p n} E( X p G)dP = 7.29 Satz: Sei X ein F-Martingal. Die folgenden Aussagen sind äquivalent. a) X ist regulär. { E(X G) p n} X p dp < ε. b) sup n N E X n < und für den f.s. Limes X gilt X L 1 und X n = E(X F n ) f.s. für alle n N. c) Es existiert X L 1 (Ω, F, P) mit X n = E(X F n ) f.s. für alle n N. d) {X n, n N} ist gleichförmig integrierbar. a) b) dies wurde in 7.23 gezeigt. b) c) klar. c) d) dies wurde in 7.28 gezeigt. d) a) Die gleichförmige Integrierbarkeit impliziert nach 7.25 ii) sup n N E X n <, also konvergiert X n fast sicher gegen eine Zufallsgröße X (nach 7.20). Aus 7.27 folgt, dass X regulär ist Bemerkung: Ist X ein F-Submartingal, und ersetzt man in 7.27 alle = durch, dann gilt a) d) b) c). (Übungsaufgabe: man zeige c) b)!). Ist X die in 1 startende symmetrische Irrfahrt mit Absorption in Null, so erfüllt X b) mit statt = (wobei X 0), nicht aber a) (vgl. 7.21, a)) Satz: Sei p > 1 und X ein F-Martingal. Gilt sup E( X n p ) <, so ist X regulär und n N X n konvergiert in L p. 17
18 Nach 7.25 (iv) (mit G(x) = x p ) ist X n, n N gleichförmig integrierbar, also nach 7.29 regulär. Sei X der (f.s. und L 1 ) Grenzwert. Dann gilt X n = E(X F n ). Nach Fatou folgt E( X p ) sup n N E( X n p ) < und mit Jensen X n p = E(X F n ) p E( X p F n ). Nach 7.28 (und Definition 7.24) ist { X n p, n N} gleichförmig integrierbar. Aus 7.27 folgt schließlich X n X in L p. Bemerkung: 7.31 ist falsch für p = 1 (vgl. 7.21, a)). Für F-Submartingale und p > 1 ist 7.31 ebenfalls falsch. Als Beispiel mit p = 2 wähle X 1 2 1/2, P(X n+1 = 2 (n+1)/2 X n < 0) = 1/2 = P(X n+1 = 0 X n < 0) und P(X n+1 = 0 X n = 0) = 1. Es folgt EX 2 n = 2 für alle n N und E(X n+1 X n = 2 n/2 ) = 2 (n+1)/2 1/2 > 2 n/2. Daher konvergiert X n fast sicher gegen X 0, aber nicht in L 2! 7.32 Proposition: Sei (Ω, F, F, P) ein filtrierter Wahrscheinlichkeitsraum, X L 1 (Ω, F, P) und X n := E(X F n ). Dann gilt X n E(X F ) fast sicher und in L 1. (X n ) n N ist nach 7.11 d) ein Martingal, welches nach 7.29 reguläres ist, konvergiert also fast sicher und in L 1 gegen eine F -messbare integrierbare Zufallsgröße X. Weiter gilt X n = E(X F n ) = E(X F n ). Zu zeigen ist X = E(X F ). Da X F -messbar ist, bleibt nur zu zeigen, dass für alle A F X dp = XdP A ist. Sei A die Menge aller A F, für die dies gilt. A ist ein Dynkinsystem, welches M := F n enthält (da X n = E(X F n ) = E(X F n )). Da M -stabil n=1 ist und F = σ(m) folgt A = F nach 1.4. Wir bringen nun noch eine Anwendung des Martingalkonvergenzsatzes auf stationäre Markovketten Proposition: Sei X 1, X 2,... eine irreduzible, stationäre Markovkette mit Werten in E, E = P(E), wobei E abzählbar unendlich oder endlich und nichtleer ist. Sei ˆP die Verteilung der Kette auf (E N, E N ) und T : (E N, E N, ˆP) (E N, E N, ˆP) der zugehörige (maßhaltende) Shiftoperator, also T (x 1, x 2,...) = (x 2, x 3,...). Dann ist T ergodisch. A 18
19 Sei A E N invariant, d.h. T 1 (A) = A. Zu zeigen ist ˆP(A) {0, 1}. Sei π n : E N E die Projektion auf die n-te Komponente und F n := σ(π m, m n) F = F = E N. Für x E sei h(x) := E x ( 1 A )(= E( 1 A π 1 = x) = ˆP(A π 1 = x)), wobei E der Erwartungswert bezüglich ˆP ist. Nun ist E( 1 A F n ), n N ein F-Martingal, welches regulär ist und nach 7.32 für n fast sicher und in L 1 gegen 1 A konvergiert. Weiter gilt für ω E N und n N E( 1 A F n )(ω) = E( 1 A T n 1 F n )(ω) = E( 1 A T n 1 π n )(ω) = ˆP(T n+1 (A) π n = ω n ) = ˆP((π n, π n+1...) A π n = ω n ), = ˆP(A π 1 = ω n ) = h(π n (ω)), wobei wir beim zweiten und vorletzten Gleichheitszeichen die Markoveigenschaft benutzten. Da (π n ) n N rekurrent ist und h(π n ) fast sicher gegen 1 A konvergiert, folgt entweder h 0 oder h 1, also ˆP(A) {0, 1}. Wir zeigen noch eine Verallgemeinerung des Stoppsatzes 7.13 auf reguläre Submartingale. Dazu ist das folgende Lemma nützlich: 7.34 Lemma: Sei X ein reguläres F-Submartingal und T eine Stoppzeit, dann ist {X T n, n N} gleichförmig integrierbar. (nach Durrett, Probability: Theory and Examples, 1991): Nach 7.12 b) ist (X n + ) n N ein F-Submartingal. Nach 7.13 folgt EX + T n EX+ n. Nach 7.14 ist X T n, n N ein F-Submartingal, welches wegen sup n N EX + T n sup n N EX n + sup n N E X n < nach 7.20 fast sicher konvergiert und zwar gegen X T mit E X T < (wobei X (ω) := lim n X n (ω)). Nun gilt E X T n 1 { XT n >a} = E X T 1 { XT >a} 1 {T n} +E X n 1 { Xn >a} 1 {T >n} 19
20 E X T 1 { XT >a} + E X n 1 { Xn >a}, woraus wegen der gleichförmigen Integrierbarkeit der X n, n N die der X T n, n N folgt Stoppsatz: Sei X ein reguläres F-Submartingal und S und T Stoppzeiten. Dann gilt E(X T F S ) X S T mit Gleichheit, falls X ein Martingal ist (wobei X (ω) := lim n X n (ω)). Sei M, N N. Nach 7.13 gilt E(X T N F S M ) X S M T N. Die linke Seite ist als Funktion von M ein F-Martingal, wobei F M := F S M, M N. Es gilt F = F S (Übung!). Nach 7.32 konvergiert die linke Seite für M gegen E(X T N F S ). Es folgt also E(X T N F S ) X S T N f.s. Nach 7.14 ist X T N, N N ein F Submartingal, welches nach 7.34 und 7.30 gegen X T in L 1 konvergiert, woraus E E(XT N F S ) E(X T F S ) E(E( XT N X T F S )) = E X T N X T N 0 folgt. Bildet man also in der Ungleichung E(X T N F S ) X S T N beidseitig Grenzwerte N (links in L 1, rechts fast sicher), so folgt E(X T F S ) X S T. Ist X ein Martingal, so sind X und X Submartingale. Also gilt in diesem Fall Gleichheit. Oft ist die folgende Abschätzung nützlich. 20
21 7.36 Satz (Doobs L p -Ungleichung) Sei X ein F-Martingal oder nichtnegatives F-Submartingal, N N und 1 < p <. Es gelte E X k p < für alle k N. Dann gilt E( max 1 n N X n p ) ( p p 1 ) p E( X N p ). Nach 7.12 ist in jedem Fall ( X n ) n N ein F-Submartingal. Sei Es gilt 1 p V p p = E 7.17 ( ) V p = p y p 2 0 = E (U V ) p 1 p 1 woraus V p V := max 1 n N X n U := X N. ( N ) EV p E X n p < und Ω {V y} Hoelder n=1 y p 1 1 {V y} (ω)dydp(ω) F ubini = 0 U(ω)dP(ω)dy F ubini = U(ω) Ω 0 V (ω) 0 y p 1 P(V y)dy y p 2 dydp(ω) 1 p 1 U p V p 1 p/p 1 = 1 1 p U p V p 1 p, p p 1 U p und somit die Behauptung folgt Satz (Charakterisierung von Martingalen) Sei X = (X 1, X 2,...) ein F-adaptierter reellwertiger Prozess mit E X n < für alle n N. Dann sind äquivalent: (i) X ist ein F-Martingal. (ii) EX T = EX 1 für jede F-Stoppzeit T mit sup ω Ω T (ω) <. (i) (ii): folgt aus dem Stoppsatz 7.13 mit S = 1. (ii) (i): sei n N, A F n und T (ω) := n 1 A c(ω) + (n + 1) 1 A (ω). T ist eine Stoppzeit, da {T = n} = A c F n und {T = n + 1} = A F n F n+1. Weiter gilt: E(X n 1 A c) + E(X n+1 1 A ) = EX T = EX 1 = EX n = E(X n 1 A c) + E(X n 1 A ). 21
22 Also folgt E(X n+1 1 A ) = E(X n 1 A ) für alle A F n und somit E(X n+1 F n ) = X n f.s. 22
Vorlesungsskript: Martingale
Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................
MehrKAPITEL 1. Martingale
KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst
Mehr2 Martingale in stetiger Zeit
2 Martingale in stetiger Zeit Ziel dieses Abschnitts ist es die wichtigsten Resultate für Martingale aus diskreter Zeit in stetige Zeit zu übertragen. Wie zu erwarten ist treten in stetiger Zeit einige
Mehr1.3 Zufallsvariablen
1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P
MehrStochastische Prozesse
Albert-Ludwigs-Universität Freiburg Vorlesungsskript Stochastische Prozesse apl. Prof. Dr. Stefan Tappe Wintersemester 2017/18 Abteilung für Mathematische Stochastik Inhaltsverzeichnis 1 Grundlegende
Mehr3 Bedingte Erwartungswerte
3 Bedingte Erwartungswerte 3.3 Existenz und Eindeutigkeit des bedingten Erwartungswertes E A 0(X) 3.6 Konvexitätsungleichung für bedingte Erwartungswerte 3.9 Konvergenzsätze von Levi, Fatou und Lebesgue
MehrTerminologie Stochastischer Prozesse
Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.
MehrSkript. Martingale. Prof. Dr. Zakhar Kabluchko. Universität Münster Institut für Mathematische Stochastik
Skript Martingale Prof. Dr. Zakhar Kabluchko Universität Münster Institut für Mathematische Stochastik Inhaltsverzeichnis Vorwort 2 Literatur 2 1. Stochastische Prozesse 3 2. Filtrationen 3 3. Martingale
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
Mehr7. Die Brownsche Bewegung
7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen
MehrWahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015
Wahrscheinlichkeitstheorie 2 & 3 Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 3. Januar 215 Inhaltsverzeichnis. Bedingte Erwartungswerte 4 1. Martingale, Stoppzeiten und Filtrierungen 9 1.1.
Mehr3 Markov-Eigenschaft der Brownschen Bewegung
Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t
Mehr4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale
4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale 4.2 Filtrationen und kanonische Filtrationen 4.3 Supermartingale, Martingale bzw. Submartingale bzgl. der Filtrationen (A t ) t I 4.4 Gleichgradig
Mehr5 MARTINGALE 64. k = j k=1
5 MRTINGLE 64 5 Martingale 5.1 Bedingte Erwartungswerte Im Folgenden sei stets Z eine Zufallsvariable in R mit E[ Z < oder Z 0 f.s. Falls ein Ereignis mit P() > 0 ist, so erklärt man durch E[Z := 1 P()
MehrAbgabetermin: 5. Mai 2017, Uhr
Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
MehrMeßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :
24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar
Mehr7. Die Brownsche Bewegung
7. DIE BROWNSCHE BEWEGUNG 2 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen
Mehr8 Martingale und Stoppzeiten
8 Martingale und Stozeiten Definition Sei I eine beliebige Indexmenge und (Ω, A, P ) ein Wahrscheinlichkeitsraum. a) Eine Familie von Zufallsvariablen (X t ) t I auf (Ω, A, P ) heißt stochastischer Prozess
MehrStoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016
Stoppzeiten und Charakteristische Funktionen Tutorium Stochastische Prozesse 15. November 2016 Inhalte des heutigen Tutoriums Im heutigen Tutorium besprechen wir: (1) Eindeutigkeit von Maßen ohne schnittstabilen
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
Mehr1 Bedingte Erwartungswerte
Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,
MehrZufallsvariable, Verteilung, Verteilungsfunktion
Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrSeminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie. Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze
Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie - Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze Klaus Kuchler 0. Januar 03 Zentraler Grenzwertsatz. Grundlagen,
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrErwartungswert als Integral
Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral
Mehr4 Messbare Funktionen
4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und
MehrKapitel 6 Martingale
Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse
MehrÜbungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016
Übungen zu bedingten Erwartungswerten Tutorium Stochastische Prozesse 13. Dezember 2016 Bedingter Erwartungswert Definition Sei X eine reellwertige Zufallsvariable auf (Ω, A, P), so dass E[ X ]
MehrGesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrMartingale in diskreter Zeit
Kapitel XI Martingale in diskreter Zeit Reinhard Höpfner Vorlesung Stochastik II Wintersemester 2006/07 und 2010/11 Institut für Mathematik, Johannes Gutenberg Universität Mainz 15.1.04, 19.1.07, 16.12.10
MehrScheinklausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:
Mehr8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale
8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale 8.1 Der quadratische Variationsprozess eines stetigen, lokalen Martingals 8.3 Die quadratische Variation einer reellen Brownschen
MehrAufgaben zu Kapitel 0
Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.
MehrWahrscheinlichkeitstheorie II
Wahrscheinlichkeitstheorie II Vorlesung vo 24.04. Christian Wiesel V5-09...2.3 Martingale, Stoppzeiten und Filtrierungen Stochastische Prozesse und -Algebren Stoppzeiten Martingale.3a Martingale in diskreter
MehrDiplomarbeit. Lebenszeit-Modelle zur Analyse der Ermüdung von gradierten Materialien
Universität Kassel Fachbereich Mathematik Diplomarbeit Lebenszeit-Modelle zur Analyse der Ermüdung von gradierten Materialien Eingereicht von: Alexander Stepper Betreuende Gutachterin: Zweitgutachterin:
MehrStochastische Prozesse
Stochastische Prozesse Prof. Dr. H.R. Lerche Abteilung für Mathematische Stochastik Universität Freiburg März 2014 Inhaltsverzeichnis 1 Martingale 1 1.1 Definitionen und Eigenschaften..........................
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrStochastische Prozesse Stoffzusammenfassung
Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 7. August 2018 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt
MehrBeweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.
Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf
MehrStudienbegleitende Prüfung Stochastik 2
Universität Karlsruhe (TH) Institut für Stochastik Prof. Dr. N. Bäuerle Name: Vorname: Matr.-Nr.: Studienbegleitende Prüfung Stochastik 2 27. März 2007 Diese Klausur hat bestanden, wer mindestens 20 Punkte
MehrSchwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik
Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind
Mehr12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.
12 Ungleichungen Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. Dann gilt: min c R E(X c)2 = Var X. Beweis: Für alle reellen Zahlen c R gilt: E(X
Mehr3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte
Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +
MehrA. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109
A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 19 A. Stochastische Prozesse und Stoppzeiten In dieser Vorlesung arbeiten wir immer auf einem Massraum (Ω, F), der gross genug ist, um alle definierten Objekte
MehrMathematik für Physiker, Informatiker und Ingenieure
Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel IV SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de
MehrKapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten
Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem
MehrKlausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik
Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen
MehrKapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).
Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrFerienkurs in Maß- und Integrationstheorie
Zentrum Mathematik Technische Universität München Dipl. Math. Wolfgang Erb WS 9/ Übungsblatt Ferienkurs in Maß- und Integrationstheorie Aufgabe. (σ-algebren Sei eine Menge und A eine σ-algebra in. Seien
MehrStochastische Analysis
Stochastische Analysis SS1 von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 6. Mai 21 Inhaltsverzeichnis 1 Motivation / Einführung 4 1.1 Motivation anhand
Mehr22 Charakteristische Funktionen und Verteilungskonvergenz
22 Charakteristische Funktionen und Verteilungskonvergenz Charakteristische Funktionen (Fourier-Transformierte liefern ein starkes analytisches Hilfsmittel zur Untersuchung von W-Verteilungen und deren
Mehr20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen
20 Gleichmäßige Konvergenz für Folgen und Reihen von Funktionen 20.1 Folgen und Reihen von Funktionen 20.3 Die Supremumsnorm 20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20.7 Das Cauchy-Kriterium
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
Mehr1 Konvergenz im p ten Mittel
Konvergenz im p ten Mittel 1 1 Konvergenz im p ten Mittel In diesem Paragraphen werden zunächst in Abschnitt 1.1 die L p Räume eingeführt. Diese erweisen sich als vollständige, lineare Räume über R. In
MehrUniversität Leipzig, SoSo 2013
Vorlesung Wahrscheinlichkeitstheorie I Universität Leipzig, SoSo 2013 Prof. Dr. Max v. Renesse renesse@uni-leipzig.de Sprechstunde: Di 13.15-14.45, A 337 Übungen: Mo 11.15 -- 12.45 A 314 K. Zimmermann
Mehr3 Bedingte Erwartungen und Wahrscheinlichkeiten (Version November 2011)
3 Bedingte Erwartungen und Wahrscheinlichkeiten (Version November 2011) 3.1 Definition der bedingten Erwartung und grundlegende Eigenschaften Erinnerung: Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und (
MehrBrownsche Bewegung: Eine Einführung
Brownsche Bewegung: Eine Einführung Batu Güneysu Institut für Mathematik Humboldt-Universität zu Berlin Greifswald, 18.04.2018 Batu Güneysu Brownsche Bewegung: Eine Einführung 1 / 14 Wir fixieren m N und
MehrZufallsvariable in separablen Banach- und Hilbert-Räumen
Zufallsvariable in separablen Banach- und Hilbert-Räumen Hans-Jörg Starkloff TU Bergakademie Freiberg Westsächsische Hochschule Zwickau Januar 2011 Hans-Jörg Starkloff Zufallsvariable in separablen Banach-
MehrStochastik 2. Beispielaufgaben. Institut für Stochastik WS 2006/07 Universität Karlsruhe Prof. Dr. N. Bäuerle Blatt 0 Dipl.-Math. oec. A.
Institut für Stochastik WS 2006/07 Universität Karlsruhe Prof. Dr. N. Bäuerle Blatt 0 Dipl.-Math. oec. A. Mundt Übungen zur Vorlesung Stochastik 2 Beispielaufgaben Hinweis: Zu diesem Aufgaben werden in
MehrLösungsvorschläge für das 5. Übungsblatt
Lösungsvorschläge für das 5. Übungsblatt Aufgabe 6 a) Sei = [0, ], f(x) := [e x ] für x. Hierbei ist [y] := maxk Z k y} für y. Behauptung: f ist messbar und es ist f(x) dx = 2 log 2. falls x [0, log 2),
MehrSchwache Konvergenz von Wahrscheinlichkeitsmaßen
Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrKonvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen
Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
Mehr10 Der Satz von Radon-Nikodym
uch im Sinne einer Vorabinformation vor der Stochastik-Vorlesung wollen wir abschließend kurz absolut stetige Maße und den Satz von Radon-Nikodym streifen. Definition 10.1. Seien (, M) ein messbarer Raum
MehrHawkes Prozesse Grundlagen
Hawkes Prozesse Grundlagen Im Folgenden sei (Ω, F, F, P) eine stochastische Basis. Das heißt F = (F t ) t ist eine rechtsstetige Filtration mit F t F für alle t und P ein Wahrscheinlichkeitsmaß auf dem
MehrSatz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung
Satz von Borel-Cantelli Limes inferior von Mengen Limes superior von Mengen Stetigkeit Konvergenz von Zufallsvariablen Kolmogorow-Ungleichung Tschebyschow-Ungleichung Konvergenzkriterien Starkes Gesetz
Mehr1. Übungsblatt zu Stochastische Prozesse
1. Übungsblatt zu Stochastische Prozesse Aufgabe 1: Es sei (X n ) n N0 ein stochastischer Prozess mit abzählbarem Zustandsraum E. Man zeige: (X n ) n N0 ist genau dann eine Markov-Kette, wenn für alle
Mehrsign: R R, sign(x) := 0 falls x = 0 1 falls x < 0 Diese ist im Punkt x 0 = 0 nicht stetig, denn etwa zu ε = 1 finden wir kein δ > 0
ANALYSIS FÜR PHYSIK UND VERWANDTE FÄCHER I 81 3. Stetigkeit 3.1. Stetigkeit. Im Folgenden sei D R eine beliebige nichtleere Teilmenge. Typischerweise wird D ein allgemeines Intervall sein, siehe Abschnitt
Mehr3 Konstruktion einer f.s. konvergente Folge
1 Einleitung Wir wollen uns mit stochastischen Gleichungen der Form R d = Q + C i R i (1.1 beschäftigen, wobei,q,(r i i 1,(C, C i i 1 stochastisch unabhängige nichtnegative Zufallsgrößen seien, (C, C i
MehrSkript zur Vorlesung Analysis 3
Skript zur Vorlesung Analysis 3 Wintersemester 2013/2014 Prof. Dr. Benjamin Schlein Inhaltsverzeichnis 1 Masstheorie 2 1.1 σ-algebren.................................. 6 1.2 Masse.....................................
MehrZusammenfassung der Lebesgue-Integrationstheorie
Zusammenfassung der Lebesgue-Integrationstheorie Das Lebesguesche Integral verallgemeinert das Riemannsche Integral. Seine Vorteile liegen für unsere Anwendungen vor allem bei den wichtigen Konvergenzsätzen,
MehrWahrscheinlichkeitstheorie und Maßtheorie
KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man
MehrStationäre Maße und Zeitmittel
Stationäre Maße und Zeitmittel Clara Strohm SS 2003 Seminar Wahrscheinlichkeitstheorie Wir untersuchen im folgenden das Langzeitverhalten in diesem Fall gleichmäßige Konvergenz im Césaro-Mittel diskreter,
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten
MehrLemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,
Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig, wenn für alle (s 1,..., s n ) {0, 1} n gilt, dass wobei A 0 i = Āi und A 1 i = A i. Pr[A s 1 1... Asn n ] = Pr[A
MehrVertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 5.6.2013 8. Unabhängigkeit von Zufallsgrößen, Erwartungswert und Varianz 8.1
MehrTopologische Grundbegriffe II. Inhaltsverzeichnis
Vortrag zum Seminar zur Analysis, 03.05.2010 Dennis Joswig, Florian Goy Aufbauend auf den Resultaten des Vortrages Topologische Grundbegriffe I untersuchen wir weitere topologische Eigenschaften von metrischen
MehrLösungen zu Übungsblatt 9
Analysis : Camillo de Lellis HS 007 Lösungen zu Übungsblatt 9 Lösung zu Aufgabe 1. Wir müssen einfach das Integral 16 (x + y d(x, y x +y 4 ausrechnen. Dies kann man einfach mittels Polarkoordinaten, da
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrKommutativität. De Morgansche Regeln
1. Formale Logik Proposition 1.1. Die logischen Elementarverknüpfungen gehorchen folgenden Äquivalenzen: (1.1) (1.2) p p p p p p Idempotenz (1.3) (1.4) p q q p p q q p Kommutativität (1.5) (1.6) (p q)
Mehr5 Zufallsvariablen, Grundbegriffe
II. Zufallsvariablen 5 Zufallsvariablen, Grundbegriffe Def. 12 Es seien (Ω 1, E 1,P 1 ) und (Ω 2, E 2,P 2 ) Wahrscheinlichkeitsräume. Eine Abbildung X : Ω 1 Ω 2 heißt E 1 E 2 meßbar, falls für alle Ereignisse
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrKapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen
Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
Mehr1 Diskrete Wahrscheinlichkeitstheorie
Prof. A. Sapozhnikov Wahrcheinlichkeittheorie I INHALTSVERZEICHNIS 1 Dikrete Wahrcheinlichkeittheorie 1.1 Laplace-Wahrcheinlichkeit. Urnenmodelle. N! Begriffe: Ziehen ohne Zurücklegen, mit Reihenfolge,
Mehreine reelle oder komplexe Folge ist, kann man daraus eine neue Folge {s n } n=0 konstruieren durch s n = a 0 + a a n, a k.
Analysis, Woche 7 Reihen I 7. Folgen aus Folgen Wenn a n eine reelle oder komplexe Folge ist, kann man daraus eine neue Folge s n konstruieren durch s n = a 0 + a + + a n, oder netter geschrieben s n =
MehrRegulär variierende Funktionen
KAPITEL 4 Regulär variierende Funktionen Unser nächstes Ziel ist es, die Max-Anziehungsbereiche der Extremwertverteilungen zu beschreiben. Dies wird im nächsten Kapitel geschehen. Wir haben bereits gesehen,
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr2.6 Der Satz von Fubini
1 2.6 Der Satz von Fubini Unser Ziel ist der Beweis des folgenden Ergebnisses. 6.1. Satz von Fubini Sei f : R n+m R integrierbar. Dann gibt es eine Nullmenge N R m, so dass gilt: 1. Für alle y R m \ N
MehrVorlesung Der Satz von Fubini. 6.2 Der Satz von Beppo Levi 6.1. DER SATZ VON FUBINI 33
6.1. DER SATZ VON FUBINI 33 Vorlesung 6 6.1 Der Satz von Fubini Das Lebesgue-Integralkann natürlichauchüber mehrdimensionale Gebiete definiert werden. Wir haben uns hier auf den eindimenionalen Fallbeschränkt.
Mehr