Kapitel 7. Martingale 1

Ähnliche Dokumente
Vorlesungsskript: Martingale

KAPITEL 1. Martingale

2 Martingale in stetiger Zeit

1.3 Zufallsvariablen

Stochastische Prozesse

3 Bedingte Erwartungswerte

Terminologie Stochastischer Prozesse

Skript. Martingale. Prof. Dr. Zakhar Kabluchko. Universität Münster Institut für Mathematische Stochastik

13 Grenzwertsätze Das Gesetz der großen Zahlen

7. Die Brownsche Bewegung

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015

3 Markov-Eigenschaft der Brownschen Bewegung

4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale

5 MARTINGALE 64. k = j k=1

Abgabetermin: 5. Mai 2017, Uhr

Erwartungswert und Varianz von Zufallsvariablen

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :

7. Die Brownsche Bewegung

8 Martingale und Stoppzeiten

Stoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016

Stochastik I. Vorlesungsmitschrift

1 Bedingte Erwartungswerte

Zufallsvariable, Verteilung, Verteilungsfunktion

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie. Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

Erwartungswert als Integral

4 Messbare Funktionen

Kapitel 6 Martingale

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016

Gesetze der großen Zahlen

2 Zufallsvariable und Verteilungsfunktionen

Einführung und Grundlagen

Martingale in diskreter Zeit

Scheinklausur zur Vorlesung Stochastik II

8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale

Aufgaben zu Kapitel 0

Wahrscheinlichkeitstheorie II

Diplomarbeit. Lebenszeit-Modelle zur Analyse der Ermüdung von gradierten Materialien

Stochastische Prozesse

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Stochastische Prozesse Stoffzusammenfassung

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

Studienbegleitende Prüfung Stochastik 2

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109

Mathematik für Physiker, Informatiker und Ingenieure

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).

2 Zufallsvariable, Verteilungen, Erwartungswert

Ferienkurs in Maß- und Integrationstheorie

Stochastische Analysis

22 Charakteristische Funktionen und Verteilungskonvergenz

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen

3. Kombinatorik und Wahrscheinlichkeit

1 Konvergenz im p ten Mittel

Universität Leipzig, SoSo 2013

3 Bedingte Erwartungen und Wahrscheinlichkeiten (Version November 2011)

Brownsche Bewegung: Eine Einführung

Zufallsvariable in separablen Banach- und Hilbert-Räumen

Stochastik 2. Beispielaufgaben. Institut für Stochastik WS 2006/07 Universität Karlsruhe Prof. Dr. N. Bäuerle Blatt 0 Dipl.-Math. oec. A.

Lösungsvorschläge für das 5. Übungsblatt

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Reelle Zufallsvariablen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

KAPITEL 5. Erwartungswert

10 Der Satz von Radon-Nikodym

Hawkes Prozesse Grundlagen

Satz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung

1. Übungsblatt zu Stochastische Prozesse

sign: R R, sign(x) := 0 falls x = 0 1 falls x < 0 Diese ist im Punkt x 0 = 0 nicht stetig, denn etwa zu ε = 1 finden wir kein δ > 0

3 Konstruktion einer f.s. konvergente Folge

Skript zur Vorlesung Analysis 3

Zusammenfassung der Lebesgue-Integrationstheorie

Wahrscheinlichkeitstheorie und Maßtheorie

Stationäre Maße und Zeitmittel

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Randomisierte Algorithmen

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie

Topologische Grundbegriffe II. Inhaltsverzeichnis

Lösungen zu Übungsblatt 9

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Kommutativität. De Morgansche Regeln

5 Zufallsvariablen, Grundbegriffe

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

Wahrscheinlichkeitstheorie und Statistik

1 Diskrete Wahrscheinlichkeitstheorie

eine reelle oder komplexe Folge ist, kann man daraus eine neue Folge {s n } n=0 konstruieren durch s n = a 0 + a a n, a k.

Regulär variierende Funktionen

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

2.6 Der Satz von Fubini

Vorlesung Der Satz von Fubini. 6.2 Der Satz von Beppo Levi 6.1. DER SATZ VON FUBINI 33

Transkript:

Kapitel 7 Martingale 1 7.1 Definition: a) (Ω, F) sei ein messbarer Raum. Eine Filtration (oder Filtrierung) ist eine aufsteigende Folge F = (F n ) n N von Teil-σ-Algebren von F, d.h. F n F n+1 F für n N. Ist P ein Wahrscheinlichkeitsmaß auf (Ω, F), so nennt man (Ω, F, F, P) einen filtrierten Wahrscheinlichkeitsraum. b) (E, E) sei ein zweiter messbarer Raum. Eine Folge X := (X n ) n N von Abbildungen Ω E heißt F-adaptiert, falls für alle n N X n F n -E-messbar ist und F-vorhersagbar oder F-prävisibel, wenn X 1 konstant und für alle n 2 X n F n 1 -E-messbar ist. Oft wird als Indexmenge statt N auch N 0 verwendet. Notation: F := ( ) F n = σ F n F. n n=1 Beispiel: X := (X n ) sei eine Folge von F-E messbaren Abbildungen. F n := σ(x 1,..., X n ) = n X 1 j (E). j=1 F = (F n ) n N ist eine Filtrierung. (X n ) ist F-adaptiert. F heißt die von X erzeugte Filtration. 7.2 Bemerkung: Sei X := (X n ) eine F-adaptierte (E, E)-wertige Folge. F n : E n E sei E n -E - messbar, wobei (E, E ) ein neuer messbarer Raum ist. Y n := F n (X 1,..., X n ) ist dann ebenfalls F-adaptiert. Notation: N = N { } 1 Version Dezember 2009 1

7.3 Definition: Sei F eine Filtrierung auf (Ω, F). Eine Abbildung ν : Ω N heißt F-Stoppzeit, falls für alle n N gilt: {ν = n} F n. 7.4. Bemerkung: ( c Wegen {ν = n} F n F gilt {ν = } = {ν = n}) F. n=1 7.5 Beispiele: X := (X n ) sei F-adaptiert, (E, E)-wertig. (a) A E, ν A = inf{n N : X n A} (,wobei inf := ). Dann ist ν A eine Stoppzeit. Für n N gilt {ν A = n} = {X n A} n 1 {X k A c } F n. (b) Sei τ eine beliebige Stoppzeit, A E und ν := inf{n > τ : X n A}. Dann ist ν eine Stoppzeit. ( {ν = n} = {X n A} n 1 {τ = k} n 1 l=k+1 ) {X l / A} Aus a), b) folgt: Zweiteintrittszeiten etc. sind Stoppzeiten. 7.6 Definition: ν sei eine F-Stoppzeit F n. F ν := {A F : A {ν = n} F n n} heißt σ-algebra der Prä-ν-Ereignisse. Man prüfe nach, dass F ν eine σ-algebra ist und ν F ν -messbar ist! Bemerkung: ν : Ω N sei konstant = m N. Dann gilt { n m {ν = n} = Ω n = m F n. F ν = {A F : A {ν = n} F n Somit gilt F ν = F m. n}. 2

Beispiel: Sei ν = ν A wie in Beispiel 7.5(a) und C E. Wir betrachten das Ereignis D, dass X n mindestens einmal in C ist, bevor es nach A gelangt: 7.7 Lemma: D = { n < ν mit X n C}. D σ(x n : n N) F. n 1 D {ν = n} = {ν = n} {X k C} F n n D F ν. (a) Sei ν : Ω N eine Abbildung. ν ist genau dann eine F-Stoppzeit, wenn {ν n} F n für alle n N gilt. (b) A F liegt genau dann in F ν, wenn A {ν n} F n für alle n gilt. a) I) Sei ν eine Stoppzeit. Dann folgt {ν n} F n II) Umkehrung: {ν = n} = {ν n} \ {ν n 1} F n. b) analog. 7.8 Lemma: Sei ν k, k N eine Folge von Stoppzeiten. Dann sind sup ν k und inf k k (sup N = ). ν k Stoppzeiten {sup ν k n} = k {inf k ν k n} = {ν k n} F n {ν k n} F n. Die Behauptung folgt nun aus 7.7. 3

7.9 Lemma: ν, ν seien zwei Stoppzeiten. Dann gilt: a) {ν ν }, {ν = ν } F ν F ν. b) Gilt ν ν, so folgt F ν F ν. c) F ν ν = F ν F ν. d) Ist X = (X n ) adaptiert und ν(ω) < für alle ω, dann ist X ν F ν -messbar. a) ν, ν sind F -messbar. Daher gilt {ν ν } F. {ν ν } {ν = n} = {ν = n} {ν n} F n n {ν ν } F ν. {ν ν } {ν = n} = {ν = n} {ν n} F n n {ν ν } F ν. {ν = ν } = {ν ν } {ν ν} F ν F ν. b) A F ν A F. A {ν n} = A {ν n} {ν n} }{{}}{{} F n c) und d) Übungsaufgabe. F n F n n. 7.10 Definition: X = (X n ) sei eine Folge von F-adaptierten, integrierbaren reellen Zufallsgrößen auf einem filtrierten Wahrscheinlichkeitsraum (Ω, F, F, P). a) X heißt F-Martingal, wenn für alle n N E(X n+1 F n ) = X n f.s. gilt. b) X heißt F-Submartingal, wenn für alle n N E(X n+1 F n ) X n f.s. gilt. c) X heißt F-Supermartingal, wenn X ein F-Submartingal ist. Ist F die von (X n ) erzeugte Filtration, so sagt man statt F-Martingal oft einfach Martingal (analog für Submartingal und Supermartingal). Bemerkung: a) Ist X = (X n ) ein F-(Sub-)Martingal, so gilt E(X m F n ) = ( )X n für alle m n. Insbesondere gilt EX m = ( )EX n für alle m n. b) Ist X = (X n ) ein F-(Sub-)Martingal, dann auch ein (Sub-)martingal (bezüglich der von X erzeugten Filtration). 4

7.11 Beispiele: a) ξ i, i N, seien unabhängige integrierbare Zufallsgrößen mit Eξ i = 0, i N. Sei F n = σ(ξ 1,..., ξ n ), X n = n ξ i. Dann ist (X n ) ein F Martingal. i=1 b) Die ξ i, i N, seien wie in Beispiel a), jedoch L 2. Dann ist X n = ( n ) 2 ξ i n var(ξ i ) ein F Martingal. i=1 i=1 (X n ) ist offensichtlich F-adaptiert. ( n ) 2 n+1 E(X n+1 F n ) = E ξ i + ξ n+1 var(ξ i ) F n i=1 n = X n + E(2ξ n+1 ξ i F n ) + E(ξn+1 F 2 n ) var(ξ n+1 ) = X n + 2 i=1 i=1 n ξ i E(ξ n+1 F n ) + E(ξn+1 F 2 n ) var(ξ n+1 ) = X n i=1 wegen E(ξ n+1 F n ) = E(ξ n+1 ) = 0 und E(ξ 2 n+1 F n ) = E(ξ 2 n+1) = var(ξ n+1 ). c) Polyas Urnenschema Zur Erinnerung an W.-Theorie I: Polyas Urnenschema ist eine Markovkette auf N N mit Übergangswahrscheinlichkeiten p((r, s), (r + 1, s)) = r r + s p((r, s), (r, s + 1)) = s r + s (die anderen sind 0). Ist (R 0, S 0 ) = (1, 1), (R 1, S 1 ), (R 2, S 2 ),... eine Markovkette mit diesen Übergangswahrscheinlichkeiten, so betrachten wir X n = R n R n + S n = (X n ) ist dann ein F-Martingal. R n n + 2, F n = σ((r 0, S 0 ), (R 1, S 1 )..., (R n, S n )). E(X n+1 F n ) = E( R n+1 F n+3 n) = Rn Rn+1 Rn + (1 ) Rn = X n+2 n+3 n+2 n+3 n. 5

d) Ist X eine beliebige integrierbare Zufallsgröße und F = (F n ) eine beliebige Filtrierung, so wird durch X n = E(X F n ) ein F-Martingal definiert. 7.12 Proposition: a) Sei X ein F-Martingal, ϕ : R R konvex und E ϕ(x n ) < für alle n N. Dann ist ϕ(x) := (ϕ(x n )) n N ein F-Submartingal. b) Sei X ein F-Submartingal, ϕ : R R konvex und nichtfallend und E ϕ(x n ) < für alle n N. Dann ist ϕ(x) ein F-Submartingal. Mit der Jensenschen Ungleichung für bedingte Erwartungen folgt in beiden Fällen für n N E(ϕ(X n+1 ) F n ) ϕ(e(x n+1 F n )). Im Fall a) ist der letzte Ausdruck gleich ϕ(x n ), im Fall b) ϕ(x n ). 7.13 Stoppsatz: Sei X ein F-Submartingal, N N und S und T Stoppzeiten mit S(ω) N und T (ω) N für alle ω Ω. Dann gilt E(X T F S ) X S T f.s. mit Gleichheit, falls X sogar ein F-Martingal ist. Bemerkung: Vor allem der Fall S(ω) T (ω) für alle ω Ω ist wichtig. Auch die spezielleren Fälle S 1 sowie der Fall T N sind interessant. Ohne die Beschränktheitsbedingung ist der Satz im allgemeinen nicht richtig. So ist die symmetrische Irrfahrt auf Z mit Start in 1 als Spezialfall von 7.11 a) ein Martingal und S 1 und T = inf{n N : X n = 0} Stoppzeiten, aber E(X T F S ) = 0 und X S = X 1 = 1. (i) X S T ist F S T -messbar nach 7.9d) und daher F S -messbar nach ( 7.9b). ) Ebenso folgt, dass X T F T -messbar ist. Wegen E X T E max X i 1 i N ( N ) E X i < gilt X T L 1 (Ω, F, P) und ebenso X S T L 1 (Ω, F, P). i=1 (ii) Zu zeigen bleibt (nach Definition der bedingten Erwartung) X T dp (=) X S T dp (1) B B 6

für alle B F S. Es genügt dabei, die Behauptung nur für Mengen der Form B = {S = k} A mit A F S zu zeigen, da sie wegen der Linearität des Integrals dann auch für A F S folgt, indem man A = N (A {S = k}) disjunkt zerlegt. Wir fixieren nun k {1,..., N} und A F S und zeigen (1) für B = A {S = k} mit Induktion bezüglich des größten Wertes m von T, also m := max T (ω). ω Ω m = 1 : hier ist T 1 und beide Seiten von (1) sind X 1 dp. B Als Induktionsvoraussetzung nehmen wir an, dass (1) für alle T mit max T (ω) ω Ω m 1 gilt. Wir zeigen, dass (1) dann auch im Fall max T (ω) = m folgt: ω Ω 1. Fall: m k. Dann gilt B X T dp = E(X T 1 A 1 {S=k} ) = E(X T k 1 A 1 {S=k} ) = E(X S T 1 A 1 {S=k} ) = X S T dp. 2. Fall: m > k. Dann gilt zunächst B und B {T = m} = A {S = k} {T m 1} c F m 1 E(X T 1 B ) = E(X T 1 A 1 {S=k} 1 {T m 1} ) + E(X m 1 A 1 {S=k} 1 {T =m} ) (=) E(X T 1 A 1 {S=k} 1 {T m 1} ) + E(X m 1 1 A 1 {S=k} 1 {T =m} ) = E(X T (m 1) 1 A 1 {S=k} ) (=) E(X T (m 1) S 1 A 1 {S=k} ) = E(X T S 1 B ), wobei beim ersten die Submartingaleigenschaft und beim letzten die Induktionsvoraussetzung verwendet wurde. Damit ist (1) gezeigt. 7.14 Korollar: Sei X ein F-(Sub)martingal, ν eine Stoppzeit und Y n (ω) := X n ν(ω) (ω). Dann ist Y ein F-(Sub)martingal. Für n N folgt E(Y n+1 F n ) = E(X (n+1) ν F n ) ( ) = Y n aus 7.13, indem man dort S = n und T = (n + 1) ν setzt. 7

7.15 Korollar: Sei X ein F-Martingal mit beschränkten Zuwächsen, dh es existiert β R +, so dass X n+1 (ω) X n (ω) β für alle ω Ω und alle n N. Sei ν eine endliche Stoppzeit mit Eν <. Dann gilt EX ν = EX 1. ν n ν n X ν n = (X k X k 1 ) + X 1 X k X k 1 + X 1 βν + X 1. k=2 k=2 Mit dominierter Konvergenz folgt X ν n X ν in L 1 und daher EX 1 = EX ν n = EX ν. 7.16 Proposition: Ist X ein F-Martingal und H = (H n ) vorhersagbar und gilt für alle n sup ω Ω H n (ω) <, dann ist der Prozess (H X) n := n m=2 H m(x m X m 1 ), n N ein Martingal. Dieser Prozess heißt auch diskretes stochastisches Integral. Sehr einfach! Aufgabe: Wie lange muss man im Mittel warten, bis beim Werfen einer fairen Münze erstmalig die Sequenz WZW unmittelbar hintereinander erscheint? Man kann dies mit etwas Mühe zu Fuß ausrechnen, aber mit Martingalmethoden geht es sehr viel schneller und eleganter! Um die Spannung zu erhalten, wird dies erst in der Vorlesung gezeigt. 7.17 Satz (Doobs maximale Ungleichung): Sei X ein F-Submartingal und N N. Dann gilt für alle x > 0 ( ) ( ) (i) P max X n x 1x E X N 1 {max n N Xn x} (ω) 1 x EX+ N, n N ( ) (ii) P min X ( n x 1 n N x EX + N EX 1). (i) Sei ν := inf{n N : X n x} mit ν := N, falls die Menge leer ist. ν ist eine Stoppzeit mit ν(ω) N für alle ω Ω und A := {max X n x} F ν. n N Mit S := ν und T := N folgt aus 7.13 ({ }) xp max X n x X S dp X T dp EX + N. n N 8 A A

(ii) Sei ν := inf{n N : X n x} mit ν := N, falls die Menge leer ist. { } A := min X n x F ν. Mit S := 1 und T := ν folgt aus 7.13 n N ({ }) xp min X n x X T dp = EX T + X T dp n N A A c EX T + X N dp EX 1 + EX + N, A c wobei wir beim vorletzten Ungleichheitszeichen ebenfalls 7.13 anwendeten. 7.18 Definition: Sei F N eine endliche nichtleere Menge, f : N R, a < b reelle Zahlen, τ 1 = inf{t F : f(t) a} und für k = 1, 2,... sei σ k = inf{t > τ k : t F, f(t) b} und τ k+1 = inf{t > σ k : t F, f(t) a}, wobei das Infimum über eine leere Menge als definiert wird. Dann heißt U(a, b, F, f) = max{k : σ k < } Zahl der Upcrossings des Intervalls [a, b] von f in F. 7.19 Doob sche Upcrossingungleichung: Sei X ein F-Submartingal, N N und F = {1,..., N}. Dann gilt für a < b E(U(a, b, F, X(ω))) E((X N a) + ). b a Definiere σ k, τ k wie in Definition 7.18. Dann sind alle σ k und τ k Stoppzeiten. Mit dem Stoppsatz 7.13 angewendet auf S = σ k N und T = τ k+1 N folgt = E [( U(a,b,F,X(ω)) N ( ) ( 0 E Xτk+1 N X σk N = E Xτk+1 N X σk N) U(a,b,F,X(ω)) k=2 (X σk N X τk N)+X τ(u(a,b,f,x)+1) N (X σ1 N a) a E( (b a)u(a, b, F, X)) + E((X N a) + ), wobei beim letzten 7.13 und 7.12 b) für ϕ(x) = (x a) + verwendet wurde. ) 1 {U(a,b,F,X) 1} (ω) ] 9

7.20 Martingalkonvergenzsatz: Sei X ein F-Submartingal mit sup n N E(X + n ) <. Dann existiert eine F - messbare integrierbare Zufallsgröße X, so dass Weiter gilt X (ω) = lim n X n (ω) fast sicher. E X lim inf n E X n. Bemerkung: Für ein F-Submartingal ist n EX n nichtfallend. Daher gilt Außerdem gilt E X n = 2EX + n EX n 2EX + n EX 1. E X n EX + n. Daher ist die Bedingung sup n N E(X + n ) < in 7.20 äquivalent zu sup n N E X n <. Beweis von 7.20: Sei a < b. Wegen (x a) + x + + a gilt c := sup n N E((X n a) + ) <. Aus 7.19 folgt daher (mit monotoner Konvergenz) sup U(a, b, {1,..., N}, X(ω)) < fast sicher. N N Weiter ist N := {ω : sup N N U(q 1, q 2, {1,..., N}, X(ω)) < für alle q 1 < q 2, q 1, q 2 Q} c eine P-Nullmenge und für alle ω / N gilt offenbar, dass X (ω) = lim n X n (ω) existiert, eventuell aber oder ist. Aus dem Lemma von Fatou folgt zusammen mit obiger Bemerkung E X lim inf n E X n <. Insbesondere ist also X integrierbar und damit fast sicher endlich. Die F - Messbarkeit lässt sich gegebenenfalls nach Abänderung auf einer Nullmenge sicherstellen. Konkret ist { lim X n (ω) wenn der Grenzwert in R existiert. X (ω) := n 0 sonst 10

F -messbar (vgl. frühere Übungsaufgabe). Bemerkung: Die Bedingung sup n N E(X + n ) < ist automatisch für nichtpositive Submartingale erfüllt. Daher konvergiert jedes nichtpositive Submartingal (und somit jedes nichtnegative Supermartingal) fast sicher. 7.21 Anwendungen: a) Irrfahrt auf N 0 mit absorbierendem Rand. Wir betrachten die Markovkette X 1, X 2,... auf N 0 mit X 1 = 1 und Übergangswahrscheinlichkeit X = (X n ) ist ein positives Martingal: p(i, i + 1) = p(i, i 1) = 1/2 für i 1 p(0, 0) = 1. E(X n+1 X 1,..., X n ) = E(X n+1 X n ) = i N 0 ip(x n, i) = X n. X n konvergiert also f.s. (nach 7.20), was wir allerdings aus WT I ohnehin schon wissen: X n 0, da die symmetrische Irrfahrt auf Z rekurrent ist. Da X ein Martingal ist, gilt EX n = EX 1 = 1. Somit gilt EX = 0 < lim n EX n = 1. b) Polyas Urnenschema (siehe 7.11 c): X = (X n ) ist ein positives Martingal. Die X n sind ferner beschränkt durch 1. Nach 7.20 konvergiert X n f.s. gegen eine Zufallsgröße X. Da die X n beschränkt sind, gilt EX = lim n EX n = EX 1 = 1/2. Im Gegensatz zu den bisher meist betrachteten Situationen ist X nicht eine Konstante. Es gilt nämlich: X ist gleichmäßig auf [0, 1] verteilt. Aus X n X f.s. folgt X n X in Wahrscheinlichkeit, also nach Kapitel 6 X n X in Verteilung. Die Verteilung von X n lässt sich leicht berechnen. R n kann die Werte 1, 2,..., n+1 annehmen. Aus W.-Th. I wissen wir, wie P(R n = k) zu berechnen ist: 11

P(R n = k) = p (n) ((1, 1), (k, n + 2 k)), wobei p (n) die n-stufigen Übergangswahrscheinlichkeiten sind. Um sie zu berechnen, summiert man die Produkte der Übergangswahrscheinlichkeiten über alle möglichen Zwischenschritte. Die möglichen Pfade von (1, 1) nach (k, n + 2 k) werden durch die Festlegung der k 1 Zeitpunkte beschrieben, bei denen eine rote Kugel gezogen wird. Jeder dieser Pfade hat offenbar Wahrscheinlichkeit (k 1)!(n+1 k)!. Da es (n+1)! gibt, folgt ( n k 1 P(R n = k) = 1 n + 1, d.h. ( P X n = k ) = 1 für 1 k n + 1. n + 2 n + 1 Daraus ergibt sich L(X n ) λ, wobei λ das Lebesgue-Maß auf [0, 1] ist. ) solcher Pfade c) Starkes Gesetz der großen Zahlen: Satz: Seien X 1, X 2... unabhängige reellwertige Zufallsgrößen mit endlichen zweiten Momenten und (a n ) eine monoton wachsende unbeschränkte Folge positiver reeller Zahlen. Falls var(x i )/a 2 i <, so folgt i=1 lim n a 1 n n (X i EX i ) = 0 fast sicher. i=1 Y n := n (X i EX i )/a i ist ein F-Martingal, wobei F n = σ(x 1,..., X n ). i=1 sup EYn 2 = sup n N n N n var(x i )/a 2 i <. i=1 Somit folgt sup n N E Y n 1 + sup n N EY 2 n <. Nach 7.20 konvergiert Y n fast sicher gegen eine f.s. endliche Zufallsgröße. Die Aussage des Satzes folgt dann mit dem nachfolgenden Lemma (vgl. W.-T. I). Kronecker-Lemma: a n, b n seien zwei reelle Zahlenfolgen. a n > 0 sei monoton wachsend und strebe gegen. Konvergiert n=1 b n/a n in R, so folgt lim n a 1 n n b i = 0. Der Beweis dieses Lemmas sei als Übungsaufgabe dem Leser überlassen. i=1 12

Offenbar kann man bei dem starken Gesetz die Unabhängigkeit der X i durch die schwächere Bedingung E(X n+1 EX n+1 X 1,..., X n ) = 0, n N ersetzen, ohne dass der Beweis zu ändern ist. Man sagt, dass (X n EX n ) eine Martingaldifferenzfolge ist, da dann S n := n i=1 (X i EX i ) ein Martingal ist. Eine Frage, die oft interessiert, ist die folgende: Unter welchen Bedingungen konvergiert X n in L 1 gegen X? Wir sahen in 7.21, a) dass dies nicht immer gilt. 7.22 Definition: Ein F-Submartingal, das in L 1 konvergiert, heißt regulär. 7.23 Satz: Sei X ein reguläres F-(Sub)martingal. Dann konvergiert X n auch fast sicher, und für den Grenzwert X gilt für alle n N X n ( ) = E(X F n ) f.s.. X sei der L 1 -Grenzwert der Folge. Aus der L 1 -Konvergenz folgt sup E X n <, n N also konvergiert nach 7.20 die Folge auch fast sicher (und zwar auch gegen X ). Sei δ > 0. Dann gilt für m > n P(E(X F n ) X n < δ) P(E(X F n ) E(X m F n ) < δ) P( E(X F n ) E(X m F n ) > δ) E E(X X m F n ) E(E( X X m F n )) δ δ = E X X m δ 0. m Also folgt E(X F n ) X n fast sicher. Ist X ein F-Martingal, dann sind X und X F-Submartingale, und somit gilt X n = E(X F n ) fast sicher. Als notwendiges und hinreichendes Kriterium für die Regularität eines Martingals wird sich die gleichförmige Integrierbarkeit von X = (X n ) herausstellen. 7.24 Definition: Eine Familie reeller Zufallsgrößen X t, t I (I beliebige Indexmenge) heißt gleichförmig (oder gleichmäßig oder gleichgradig) integrierbar, wenn lim sup X t dp = 0. n t I Bemerkungen: { X t n} 13

a) Ist X eine integrierbare ZV, dann ist {X} gleichgradig integrierbar. b) Jede endliche Menge integrierbarer ZV auf einem Wraum ist gleichgradig integrierbar. c) Sind M 1 und M 2 Mengen gleichgradig integrierbarer ZV auf einem Wraum, dann auch M 1 M 2. d) Existiert zu einer Familie M von ZV eine integrierbare Majorante, dann ist M gleichgradig integrierbar. e) Ist X integrierbar, dann ist {Y L 1 (Ω, F, P) : L(Y ) = L(X)} gleichgradig integrierbar. 7.25 Proposition: Sei X t, t I eine Familie von Zufallsgrößen auf (Ω, F, P). Dann sind äquivalent: (i) {X t, t I} ist gleichförmig integrierbar. (ii) sup t I E X t < und für alle ε > 0 existiert ein δ > 0, so dass für alle A F mit P(A) < δ und alle t I gilt: E X t 1 A < ε. (iii) Es existiert eine nichtnegative nichtfallende konvexe Funktion G : [0, ) [0, ) mit lim x G(x) x = und sup EG( X t ) <. t (iv) Es existiert eine nichtnegative messbare Funktion G : [0, ) [0, ) mit G(x) lim x x (i) (ii): Sei n N so gewählt, dass sup t sup t E X t sup t so dass sup t P(A) < δ : = und sup EG( X t ) <. t { X t n} X t dp <. Dann folgt E( 1 { Xt n} X t )+n <. Sei weiter ε > 0. Wähle n = n(ε) N, E( 1 { Xt n} X t ) < ε 2 ε und δ = δ(ε) =. Dann folgt für A F mit 2n E X t 1 A = E( X t 1 A { Xt n}) + E( X t 1 A { Xt <n}) < ε 2 + np(a) < ε 2 + ε 2 = ε. (i) (iii): Sei N k, k N eine wachsende Folge positiver Zahlen, so dass N 1 = 0, N k und C := sup t ke( X t 1 { Xt Nk }) <. 14

( Definiere die stetige Funktion G durch G(0) = 0 und G (x) = k N k+1 x N k+1 N k ), N k x < N k+1, k N. Dann ist G konvex, nichtfallend und erfüllt lim x G(x)/x =. Weiter folgt EG( X t ) = G (y) 1 { Xt y}dydp Ω = Ω Ω 0 Nk+1 N k k( X t N k ) 1 { Xt N k }dp G (y) 1 { Xt y}dydp ke( X t 1 { Xt Nk }) C <. (iii) (iv): trivial. G(x) (iv) (i): Sei n N und M n := inf x n. Dann folgt x sup X t dp 1 sup G( X t )dp. t M n t { X t n} (ii) (i): Sei ε > 0 und n = n(ε) > 1 δ sup t I E X t, n <. Wegen E X t np{ X t n} folgt P{ X t n} < δ, also folgt aus (ii) E( 1 { Xt n} X t ) < ε. Bemerkung: a) Ein wichtiger Spezialfall ist G(x) = x p für p > 1. b) Aus sup t I E X t < folgt nicht die gleichförmige Integrierbarkeit von X t, t I! Ein Beispiel dafür ist I = N, (Ω, F, P) = ([0, 1], B [0,1], λ) und X n = n 1 [0,1/n]. Für den Beweis des folgenden Satzes wird sich das folgende Lemma als nützlich erweisen, dessen Beweis dem Leser überlassen ist. 7.26 Lemma: Eine Folge reeller ZV X k, k N ist gleichgradig integrierbar genau dann wenn alle X k integrierbar sind und lim n lim sup k E( X k 1 { Xk n}) = 0. Der folgende Satz zeigt (auch außerhalb der Martingaltheorie) die Nützlichkeit des Begriffs der gleichförmigen Integrierbarkeit. 7.27 Satz: Sei p [1, ) und X n, n N eine Folge in L p (Ω, F, P) und X eine Zufallsgröße auf (Ω, F, P). Dann sind äquivalent: (i) X n n X in L p (Ω, F, P) Ω 15

(ii) α) X n n X in Wahrscheinlichkeit und β) X n p, n N ist gleichförmig integrierbar. (iii) α) X n n X in Wahrscheinlichkeit, β) lim n E X n p = E X p und γ) X L p (Ω, F, P). (i) (iii): α) und γ) sind klar. β) Aus der Dreiecksungleichung für die L p -norm folgt (iii) (ii): Für n > 0 folgt: (E( X k p )) 1/p (E( X p )) 1/p X k X p E( X k p 1 { Xk p n}) E( X k p X k p (n X k p ) + ) k 0. k E( X p X p (n X p ) + ) n 0, wobei wir benutzten, dass eine gleichmäßig (in n und ω) beschränkte Folge von Zufallsgrößen, welche in Wahrscheinlichkeit konvergiert, dies auch in L 1 tut. Mit Lemma 7.26 folgt nun die Behauptung. (ii) (i): Wegen E( X p ) lim inf n E( X n p ) (Fatou!) ist M = { X p } { X n p, n N} gleichförmig ( integrierbar. Also existiert zu ε > 0 ein δ > 0, so dass E( 1 A Y ) < ε ) p 3 für alle Y M und P(A) < δ. Weiter existiert ein N N, so dass P{ Xn X > ε } < δ für alle n N. Damit gilt für n N 3 X n X p 1 { Xn X >ε/3}( X n + X ) p + 1 { Xn X ε/3} X n X p 3 ε 3 = ε. 7.28 Proposition: Sei p 1 und X L p (Ω, F, P). Dann ist { E(X G) p, G F Teil-σ-Algebra} gleichförmig integrierbar. { X p } ist gleichförmig integrierbar, also existiert zu ε > 0 ein δ > 0, so dass aus 16

A F und P(A) < δ folgt: E( 1 A X p ) < ε. Sei n > δ 1 E( X p ). Dann folgt mit Markov und Jensen P( E(X G) p n) 1 n E( E(X G) p ) 1 n E(E( X p G)) = 1 n E( X p ) < δ und somit { E(X G) p n} E(X G) p dp { E(X G) p n} E( X p G)dP = 7.29 Satz: Sei X ein F-Martingal. Die folgenden Aussagen sind äquivalent. a) X ist regulär. { E(X G) p n} X p dp < ε. b) sup n N E X n < und für den f.s. Limes X gilt X L 1 und X n = E(X F n ) f.s. für alle n N. c) Es existiert X L 1 (Ω, F, P) mit X n = E(X F n ) f.s. für alle n N. d) {X n, n N} ist gleichförmig integrierbar. a) b) dies wurde in 7.23 gezeigt. b) c) klar. c) d) dies wurde in 7.28 gezeigt. d) a) Die gleichförmige Integrierbarkeit impliziert nach 7.25 ii) sup n N E X n <, also konvergiert X n fast sicher gegen eine Zufallsgröße X (nach 7.20). Aus 7.27 folgt, dass X regulär ist. 7.30 Bemerkung: Ist X ein F-Submartingal, und ersetzt man in 7.27 alle = durch, dann gilt a) d) b) c). (Übungsaufgabe: man zeige c) b)!). Ist X die in 1 startende symmetrische Irrfahrt mit Absorption in Null, so erfüllt X b) mit statt = (wobei X 0), nicht aber a) (vgl. 7.21, a)). 7.31 Satz: Sei p > 1 und X ein F-Martingal. Gilt sup E( X n p ) <, so ist X regulär und n N X n konvergiert in L p. 17

Nach 7.25 (iv) (mit G(x) = x p ) ist X n, n N gleichförmig integrierbar, also nach 7.29 regulär. Sei X der (f.s. und L 1 ) Grenzwert. Dann gilt X n = E(X F n ). Nach Fatou folgt E( X p ) sup n N E( X n p ) < und mit Jensen X n p = E(X F n ) p E( X p F n ). Nach 7.28 (und Definition 7.24) ist { X n p, n N} gleichförmig integrierbar. Aus 7.27 folgt schließlich X n X in L p. Bemerkung: 7.31 ist falsch für p = 1 (vgl. 7.21, a)). Für F-Submartingale und p > 1 ist 7.31 ebenfalls falsch. Als Beispiel mit p = 2 wähle X 1 2 1/2, P(X n+1 = 2 (n+1)/2 X n < 0) = 1/2 = P(X n+1 = 0 X n < 0) und P(X n+1 = 0 X n = 0) = 1. Es folgt EX 2 n = 2 für alle n N und E(X n+1 X n = 2 n/2 ) = 2 (n+1)/2 1/2 > 2 n/2. Daher konvergiert X n fast sicher gegen X 0, aber nicht in L 2! 7.32 Proposition: Sei (Ω, F, F, P) ein filtrierter Wahrscheinlichkeitsraum, X L 1 (Ω, F, P) und X n := E(X F n ). Dann gilt X n E(X F ) fast sicher und in L 1. (X n ) n N ist nach 7.11 d) ein Martingal, welches nach 7.29 reguläres ist, konvergiert also fast sicher und in L 1 gegen eine F -messbare integrierbare Zufallsgröße X. Weiter gilt X n = E(X F n ) = E(X F n ). Zu zeigen ist X = E(X F ). Da X F -messbar ist, bleibt nur zu zeigen, dass für alle A F X dp = XdP A ist. Sei A die Menge aller A F, für die dies gilt. A ist ein Dynkinsystem, welches M := F n enthält (da X n = E(X F n ) = E(X F n )). Da M -stabil n=1 ist und F = σ(m) folgt A = F nach 1.4. Wir bringen nun noch eine Anwendung des Martingalkonvergenzsatzes auf stationäre Markovketten. 7.33 Proposition: Sei X 1, X 2,... eine irreduzible, stationäre Markovkette mit Werten in E, E = P(E), wobei E abzählbar unendlich oder endlich und nichtleer ist. Sei ˆP die Verteilung der Kette auf (E N, E N ) und T : (E N, E N, ˆP) (E N, E N, ˆP) der zugehörige (maßhaltende) Shiftoperator, also T (x 1, x 2,...) = (x 2, x 3,...). Dann ist T ergodisch. A 18

Sei A E N invariant, d.h. T 1 (A) = A. Zu zeigen ist ˆP(A) {0, 1}. Sei π n : E N E die Projektion auf die n-te Komponente und F n := σ(π m, m n) F = F = E N. Für x E sei h(x) := E x ( 1 A )(= E( 1 A π 1 = x) = ˆP(A π 1 = x)), wobei E der Erwartungswert bezüglich ˆP ist. Nun ist E( 1 A F n ), n N ein F-Martingal, welches regulär ist und nach 7.32 für n fast sicher und in L 1 gegen 1 A konvergiert. Weiter gilt für ω E N und n N E( 1 A F n )(ω) = E( 1 A T n 1 F n )(ω) = E( 1 A T n 1 π n )(ω) = ˆP(T n+1 (A) π n = ω n ) = ˆP((π n, π n+1...) A π n = ω n ), = ˆP(A π 1 = ω n ) = h(π n (ω)), wobei wir beim zweiten und vorletzten Gleichheitszeichen die Markoveigenschaft benutzten. Da (π n ) n N rekurrent ist und h(π n ) fast sicher gegen 1 A konvergiert, folgt entweder h 0 oder h 1, also ˆP(A) {0, 1}. Wir zeigen noch eine Verallgemeinerung des Stoppsatzes 7.13 auf reguläre Submartingale. Dazu ist das folgende Lemma nützlich: 7.34 Lemma: Sei X ein reguläres F-Submartingal und T eine Stoppzeit, dann ist {X T n, n N} gleichförmig integrierbar. (nach Durrett, Probability: Theory and Examples, 1991): Nach 7.12 b) ist (X n + ) n N ein F-Submartingal. Nach 7.13 folgt EX + T n EX+ n. Nach 7.14 ist X T n, n N ein F-Submartingal, welches wegen sup n N EX + T n sup n N EX n + sup n N E X n < nach 7.20 fast sicher konvergiert und zwar gegen X T mit E X T < (wobei X (ω) := lim n X n (ω)). Nun gilt E X T n 1 { XT n >a} = E X T 1 { XT >a} 1 {T n} +E X n 1 { Xn >a} 1 {T >n} 19

E X T 1 { XT >a} + E X n 1 { Xn >a}, woraus wegen der gleichförmigen Integrierbarkeit der X n, n N die der X T n, n N folgt. 7.35 Stoppsatz: Sei X ein reguläres F-Submartingal und S und T Stoppzeiten. Dann gilt E(X T F S ) X S T mit Gleichheit, falls X ein Martingal ist (wobei X (ω) := lim n X n (ω)). Sei M, N N. Nach 7.13 gilt E(X T N F S M ) X S M T N. Die linke Seite ist als Funktion von M ein F-Martingal, wobei F M := F S M, M N. Es gilt F = F S (Übung!). Nach 7.32 konvergiert die linke Seite für M gegen E(X T N F S ). Es folgt also E(X T N F S ) X S T N f.s. Nach 7.14 ist X T N, N N ein F Submartingal, welches nach 7.34 und 7.30 gegen X T in L 1 konvergiert, woraus E E(XT N F S ) E(X T F S ) E(E( XT N X T F S )) = E X T N X T N 0 folgt. Bildet man also in der Ungleichung E(X T N F S ) X S T N beidseitig Grenzwerte N (links in L 1, rechts fast sicher), so folgt E(X T F S ) X S T. Ist X ein Martingal, so sind X und X Submartingale. Also gilt in diesem Fall Gleichheit. Oft ist die folgende Abschätzung nützlich. 20

7.36 Satz (Doobs L p -Ungleichung) Sei X ein F-Martingal oder nichtnegatives F-Submartingal, N N und 1 < p <. Es gelte E X k p < für alle k N. Dann gilt E( max 1 n N X n p ) ( p p 1 ) p E( X N p ). Nach 7.12 ist in jedem Fall ( X n ) n N ein F-Submartingal. Sei Es gilt 1 p V p p = E 7.17 ( ) V p = p y p 2 0 = E (U V ) p 1 p 1 woraus V p V := max 1 n N X n U := X N. ( N ) EV p E X n p < und Ω {V y} Hoelder n=1 y p 1 1 {V y} (ω)dydp(ω) F ubini = 0 U(ω)dP(ω)dy F ubini = U(ω) Ω 0 V (ω) 0 y p 1 P(V y)dy y p 2 dydp(ω) 1 p 1 U p V p 1 p/p 1 = 1 1 p U p V p 1 p, p p 1 U p und somit die Behauptung folgt. 7.37 Satz (Charakterisierung von Martingalen) Sei X = (X 1, X 2,...) ein F-adaptierter reellwertiger Prozess mit E X n < für alle n N. Dann sind äquivalent: (i) X ist ein F-Martingal. (ii) EX T = EX 1 für jede F-Stoppzeit T mit sup ω Ω T (ω) <. (i) (ii): folgt aus dem Stoppsatz 7.13 mit S = 1. (ii) (i): sei n N, A F n und T (ω) := n 1 A c(ω) + (n + 1) 1 A (ω). T ist eine Stoppzeit, da {T = n} = A c F n und {T = n + 1} = A F n F n+1. Weiter gilt: E(X n 1 A c) + E(X n+1 1 A ) = EX T = EX 1 = EX n = E(X n 1 A c) + E(X n 1 A ). 21

Also folgt E(X n+1 1 A ) = E(X n 1 A ) für alle A F n und somit E(X n+1 F n ) = X n f.s. 22