Stochastische Analysis und Finanzmathematik

Ähnliche Dokumente
Universität Ulm Samstag,

Mathematische Methoden der klassischen Physik Zusammenfassung Differentialgleichungen

2.2 Rechnen mit Fourierreihen

5. Übungsblatt zur Linearen Algebra II

7.3. Partielle Ableitungen und Richtungsableitungen

Typ A: Separierbare Differentialgleichungen I. Separierbare Differentialgleichungen II. Beispiel einer separierbaren Dgl

Differenzieren von Funktionen zwischen Banachräumen

Motivation. Finanzmathematik in diskreter Zeit

Arbitragefreie Preise

Mathematische Methoden in den Ingenieurwissenschaften 4. Übungsblatt

Mathematik III DGL der Technik

14 Kurven in Parameterdarstellung, Tangentenvektor und Bogenlänge

4. Quadratische Funktionen.

Eigenwerte und Eigenvektoren

Integralrechnung. Grundidee der Integralrechnung. Einführung des Riemann- Integrals

8.2 Die Theorie stetiger Halbgruppen im Banachraum

TECHNISCHE UNIVERSITÄT MÜNCHEN

Abiturprüfung Mathematik 2009 (Baden-Württemberg) Berufliche Gymnasien ohne TG Analysis, Aufgabe 1

III.2 Radioaktive Zerfallsreihen

Zeitreihenökonometrie

Finanzmathematik. Wolfgang Müller. Institut für Statistik Technische Universität Graz

Die Lösungen der Übungsaufgaben werden durch folgendes Lemma etwas vereinfacht:

Übungsblatt 4 Lösungsvorschläge

Abiturprüfung Mathematik 2012 (Baden-Württemberg) Berufliche Gymnasien Analysis, Aufgabe 1

7. Die Brownsche Bewegung

Gesetze der großen Zahlen

Laplacetransformation in der Technik

Prüfung Finanzmathematik und Investmentmanagement 2011

3 Markov-Eigenschaft der Brownschen Bewegung

Abiturprüfung 2017 ff Beispielaufgabe Grundkurs Mathematik; Analysis Beispiel Wirkstoff

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

1. Mathematische Grundlagen und Grundkenntnisse

Masse, Kraft und Beschleunigung Masse:

Exponential- und Logarithmusfunktionen

Die Put-Call Symmetrie und deren Anwendung bei der Bewertung von Barriereoptionen

Medikamentendosierung A. M.

Zeitreihenökonometrie

Analysis: Exponentialfunktionen Analysis

Stochastik I. Vorlesungsmitschrift

Zu jedem Typ gibt es eine Menge von möglichen Denotationen der Ausdrücke dieses Typs. Diese Menge wird Domäne des betreffenden Typs genannt.

Numerische Lösung stochastischer Differentialgleichungen: (Brownsche Bewegung, Laser ) Numerische Physik SS 07, Aufgabe 2, Ausdruck: 23.

Maße auf Produkträumen

Name: Punkte: Note: Ø:

Leistungselektronik Grundlagen und Standardanwendungen. Übung 3: Kommutierung

IX. Lagrange-Formulierung der Elektrodynamik

Seminar Bewertungsmethoden in der Personenversicherungsmathematik

Phillips Kurve (Blanchard Ch.8) JKU Linz Riese, Kurs Einkommen, Inflation und Arbeitslosigkeit SS 2008

Quantitatives Risikomanagement

9. EXPONENTIALFUNKTION, LOGARITHMUSFUNKTION

Abituraufgaben Grundkurs 2009 Bayern Analysis I. dt mit D F = R.

A.24 Funktionsscharen 1

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

Diskrete Integratoren und Ihre Eigenschaften

3. Partielle Differentialgleichungen

4. Kippschaltungen mit Komparatoren

1 Abtastung, Quantisierung und Codierung analoger Signale

Semantik. Semantik. Die Sprache der Typtheorie sieht für jeden Typ eine Menge nichtlogischer

1 Lokale Änderungsrate und Gesamtänderung

Flugzeugaerodynamik I Lösungsblatt 2

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sequenzanalyse

f ( x) = x + x + 1 (quadratische Funktion) f '( x) = x + (Ableitungsfunktion)

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013

Lösungen zu Übungsblatt 9

Kapitel : Exponentielles Wachstum

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt = r cos t. mit 0 t 2π und interpretieren Sie das Ergebnis geometrisch.

Analysis: Ganzrationale Funktionen Analysis Ganzrationale Funktionen Differenzialrechnung, Extrem- und Wendepunkte

Kapitel 11 Produktion, Sparen und der Aufbau von Kapital

Geometrie der Schrödinger-Gleichung und stochastischer Massentransport

Abiturprüfung Baden-Württemberg 1986

Das Vasicek Modell. Ein Short Rate Modell zur Beschreibung von Rentenmärkten

Lösungsvorschläge zu ausgewählten Übungsaufgaben aus Storch/Wiebe: Lehrbuch der Mathematik Band 1, 3.Aufl. (Version 2010), Kapitel 6

Kapitel 6 Martingale

Bericht zur Prüfung im Oktober 2007 über Finanzmathematik und Investmentmanagement

Lehrstuhl für Finanzierung

Esau und Jakob 1 Einführung 2 Situation 2.1 Geschichte 2.2 Geometrische Situation

Topologische Grundbegriffe I. 1 Offene und Abgeschlossene Mengen

Kapitel 5 KONVERGENZ

Fraktale Geometrie. 9: Metrische äußere Maße II. Universität Regensburg Sommersemester Daniel Heiß:

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm

SR MVP die Sharpe Ratio des varianzminimalen

Überblick. Beispielexperiment: Kugelfall Messwerte und Messfehler Auswertung physikalischer Größen Darstellung von Ergebnissen

AVWL II, Prof. Dr. T. Wollmershäuser. Kapitel 5 Die Phillipskurve

Zentrale schriftliche Abiturprüfungen im Fach Mathematik

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler

2 Folgen und Reihen. 2.1 Folgen in C Konvergenz von Folgen. := f(n)

Kapitel 6: Ort, Geschwindigkeit und Beschleunigung als Funktion der Zeit

Näherung einer Wechselspannung

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015

Stammgruppe trifft sich zum Museumsrundgang Experte erklärt jeweils sein Plakat

Kurs 9.3: Forschungsmethoden II

Übungsaufgaben zu Kapitel 5: Erwartungen Die Grundlagen

Handelsstrategien mit Mindestgarantien

2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III Teil Der Wienerraum

7.5 Erwartungswert, Varianz

5.5. Abstrakte Abituraufgaben zu Exponentialfunktionen

Versuch 1 Schaltungen der Messtechnik

Flip - Flops Multivibratoren

3 Das n-dimensionale Integral

4 Messbare Funktionen

Bonusmaterial Rechentechniken die Werkzeuge der Mathematik

Transkript:

Sochasische Analysis und Finanzmahemaik Vorlesung im Winersemeser 211/212 von Dr. Markus Schulz

Inhalsverzeichnis 1 Sochasische Prozesse 1 1.1 Grundlagen................................ 1 1.2 Die Brownsche Bewegung........................ 5 1.3 Pfadeigenschafen der Brownschen Bewegung.............. 1 1.4 Soppzeien und sarke Markoveigenschaf............... 12 1.5 Das Gesez von ierieren Logarihmus................. 16 2 Sochasische Inegraion 21 2.1 Das Sieljes-Inegral........................... 21 2.2 Lokale Maringale und quadraische Variaion............. 24 2.3 Das Iô-Inegral bezüglich beschränker Maringale.......... 29 2.4 Das Iô-Inegral bezüglich lokaler Maringale.............. 37 2.5 Das Iô-Inegral bezüglich Semimaringalen............... 38 3 Sochasische Differenialgleichungen 43 3.1 Lineare Differenialgleichungen...................... 43 3.2 Exisenz und Eindeuigkei........................ 47 3.3 Schwache Lösungen und Maringalproblem............... 54 3.4 Maßwechsel................................ 56 4 Finanzmahemaik 62 4.1 Begriffsbildung.............................. 62 4.2 Vollsändigkei und Opionspreis.................... 69 4.3 Konkree Modelle............................. 78 4.4 Ausblick.................................. 85 ii

1 1 Sochasische Prozesse 1.1 Grundlagen Definiion 1.1. Ein sochasischer Prozess is eine Familie (X I von messbarer Abbildungen auf einem W-Raum (Ω, F, P mi Weren in einem gemeinsamen messbaren Raum (E, E. Die Indexmenge I wird auch Parameermenge und der messbare Raum (E, E Zusandsraum genann. Für jedes ω Ω heiß die Abbildung X (ω ein Pfad. Der Prozess heiß zenrier, wenn EX = für alle I. Im Folgenden werden wir es in der Regel mi Prozessen mi Werebereich (R, B zu un haben. Als Indexmenge wählen wir häufig I = [,. In dem Fall schreiben wir auch (X = (X [,. Einem sochasischen Prozess können wir uns auf drei verschiedene Weisen nähern: a Wir berachen für fese I die Zufallsvariablen X, b wir unersuchen für fese ω Ω die Pfade X (ω oder c wir berachen den gesamen Prozess als Abbildung X : (ω, X (ω. Für späer führen wir weiere Begriffe ein. Definiion 1.2. Sei E ein opologischer Raum mi σ-algebra E. Ein E-weriger Prozess X heiß f.s. seig, wenn die Abbildung X (ω für fas alle ω seig is. Definiion 1.3. Seien (X I und (Y I zwei sochasische Prozesse über demselben Grundraum (Ω, F, P sowie mi gleichem Zusandsraum (E, E. Gil dann X = Y P -f.s. für jedes I, so is Y eine Modifikaion von X (und umgekehr. Dass sich die Pfadeigenschafen des modifizieren Prozesses sark von denjenigen des ursprünglichen unerscheiden können, verdeulich das folgende Beispiel. Beispiel 1.1. Sei (Ω, F, P = (R, B, P. Dabei sei P ein W-Maß mi P {} = für alle R. Beispielsweise besizen W-Maße mi Lebesgue-Dichen diese Eigenschaf. I sei gleich R. Seze weier X := 1 {} und Y := für alle R. Offensichlich is Y eine seige Modifikaion des Prozesses X. Dieser besiz keinen einzigen seigen Pfad. Definiion 1.4. Sei A R. Eine Funkion f : A R heiß lokal Hölder-seig in A mi Exponen d, wenn eine Umgebung U R um und eine Konsane L > exisier, so dass s, U A : f(s f( L s d. Eine Funkion f : A R heiß lokal Hölder-seig mi Exponen d, wenn sie in allen A lokal Hölder-seig is. Eine Funkion f : A R heiß Hölder-seig in A mi Exponen d, wenn es eine Umgebung U R von und eine Konsane L > gib, so dass s U A : f(s f( L s d.

2 1 STOCHASTISCHE PROZESSE Bemerkung 1.1. Aus der lokalen Hölder-Seigkei einer Funkion f folg deren Seigkei, i.a. aber nich umgekehr. Is f lokal Hölder-seig mi Exponen γ, so is sie auch lokal Hölder-seig mi jedem Exponenen γ (, γ]. Analog folg aus der Hölder-Seigkei einer Funkion f in einem Punk deren Seigkei in, i.a. aber nich umgekehr. Is f Hölder-seig in mi Exponen γ, so is sie in auch Hölder-seig mi jedem kleineren Exponenen γ (, γ]. Jede lokal Hölder-seige Funkion is auch Hölder-seig in allen Punken A, jedoch i.a. nich umgekehr. Für die Exisenz einer seigen Modifikaion gib es ein rech handliches Krierium, das gleichzeiig eine Aussage zur lokalen Hölder-Seigkei eines Prozesses X zuläss. Saz 1.1 (Krierium von Kolmogorov. Sei X ein reellweriger Prozess. Es gebe a, b, c >, so dass E[ X X s a ] c s 1+b für alle s,. Dann ha X eine seige Modifikaion. Für jedes γ (, b/a sind P -fas alle Pfade lokal Hölder-seig mi Exponen γ. Beweis. Wir unersuchen das Problem zunächs auf [, 1]. Sei D n = {i2 n : i =, 1,..., 2 n } und D = n N D n die Menge aller dyadischen Zahlen in [, 1]. Wähle eine Zahl γ (, β/α. Für s = (k 12 n und = k2 n (also s, D n mi s = 2 n liefer die Chebyshev-Ungleichung P ( X k2 n X (k 12 n 2 γn 2 aγn E[ X k2 n X (k 12 n a ] c2 n(1+b aγ, also auch ( P max X 1 k 2 n k2 n X (k 12 n 2 γn ( 2 n =P { X k2 n X (k 12 n 2 γn } k=1 2 n k=1 P ( X k2 n X (k 12 n 2 γn c2 n(b aγ. Nach dem ersen Lemma von Borel-Canelli gib es eine Nullmenge N F, so dass für alle ω N c gil n (ω N n n (ω : max X 1 k 2 n k2 n(ω X (k 12 n(ω < 2 γn. ( Sei nun ω N c und n n (ω. Wir wollen zeigen, dass für jedes m > n gil X (ω X s (ω 2 m j=n+1 2 γj s, D m, < s < 2 n. ( Dies beweisen wir miels einer vollsändigen Indukion: Für m = n + 1 können wir nur s = (k 12 m und = k2 m wählen. ( folg

1.1 Grundlagen 3 dann aus (. Sei nun ( für m = n + 1,..., M 1 erfüll. Wähle s, D M mi < s < 2 n und berache die Zahlen 1 := max{u D M 1 : u } sowie s 1 := min{u D M 1 : u s}. Hierfür gil s s 1 1 und s 1 s 2 M sowie 1 2 M. Aus ( folg X s 1(ω X s (ω 2 γm und X (ω X 1(ω 2 γm. Nach Indukionsannahme gil zudem X 1(ω X s 1(ω 2 M 1 j=n+1 2 γj. Zusammen erhalen wir ( für m = M. Wir können nun zeigen, dass die Pfade D X (ω für alle ω N c gleichmäßig seig sind. Für alle s, D mi < s < 2 n (ω wählen wir ein n n (ω, so dass 2 n 1 < s < 2 n. Wegen ( ergib sich X (ω X s (ω 2 2 γj C s γ, < s < 2 n (ω j=n+1 ( mi C := 2(1 2 γ 1. Dies zeig die gleichmäßige Seigkei. Bezeichne D die Menge aller dyadischen Zahlen aus [,. Wir gehen nun zur Indexmenge [, über, indem wir fessellen, dass der Prozess (X 1+ ebenfalls der vorausgesezen Bedingung mi den gleichen Konsanen a und b genüg. Nach dem soeben bewiesenen gib es also eine Nullmenge N 1 F und zu jedem ω N1 c ein n 1 (ω, so dass ( mi derselben Konsane C für alle Zahlen s, D [1, 2] mi s < 2 n1(ω gil. Œ können wir N N 1 und n 1 (ω n (ω für alle ω N1 c annehmen. Ieraiv erhalen wir eine aufseigende Folge von Nullmengen (N k k N und somi eine Nullmenge N := k= N k sowie für jedes ω N c eine monoon wachsende Folge (n k (ω k N, so dass ( mi demselben C für alle s, D [j, j + 1] mi j {,..., k} und s < 2 nk(ω gil. Je zwei Zahlen s, D [, k+1] mi s < 2 nk(ω können wegen s < 1 nur in benachbaren 2 Inervallen [, 1], [1, 2],..., [k, k + 1] oder im gleichen Inervall liegen. Im zweien Fall gil (. Im ersen Fall nehmen wir s < j < für ein j k an. Wegen max{j s, j} < s < 2 nk(ω folg mi der Dreiecksungleichung X (ω X s (ω X (ω X j (ω + X j (ω X s (ω C j s γ +C j γ < 2C s γ. Daher is s X s (ω für jedes ω N c auf D [, k + 1] gleichmäßig seig. Eine beliebige Zahl [, k + 1] können wir durch eine Folge dyadischer Zahlen approximieren. Eine seige Modifikaion (Y erhalen wir nun z.b., indem wir { lim s,s D X s (ω, ω N c Y (ω :=, ω N sezen. Aufgrund der gleichmäßigen Seigkei folg, dass Y zu vorgegebenem γ f.s. lokal Hölder-seig mi Exponen γ is. Es bleib noch zu zeigen, dass Y eine Modifikaion von X is. Für ein wähle dazu eine Folge ( n n N dyadischer Zahlen mi n. Dann gil nach Definiion Y n = X n. Einerseis folg aus der Voraussezung miels der Chebyshev-Ungleichung P ( X X n > ε ε a E[ X X n a ] ε a c n 1+b

4 1 STOCHASTISCHE PROZESSE und somi X n X in Wahrscheinlichkei. Andererseis konvergier Y n aufgrund der Seigkei f.s. gegen Y. Da ein sochasischer Limes bis auf f.s. Gleichhei eindeuig besimm is, gil X = Y f.s. Eine wichige Klasse von sochasischen Prozessen bilden die Gauß-Prozesse. Um diese definieren zu können, müssen wir zunächs die mehrdimensionale Normalvereilung einführen. Definiion 1.5. Sei Σ R d d eine posiiv definie symmerische Marix und µ R d. Ein d-dimensionaler Zufallsvekor X heiß d-dimensional normalvereil mi Mielwer µ und Kovarianzmarix Σ, kurz X N(µ, Σ, wenn er die Diche besiz. ( (2π d/2 de Σ 1/2 exp 1 2 (x µ Σ 1 (x µ, x R d, Aufgabe 1. Sei X eine d-dimensionale N(µ, Σ-vereile Zufallsvariable. a Wenn A eine inverierbare d d-marix und b R d is, wie is dann AX + b vereil? b Seien X und Y zwei unabhängige R d -werige Zufallsvariablen mi Vereilungen N(µ, Σ bzw. N(ν, Σ. Dann is X + Y N(µ + ν, Σ + Σ -vereil. c Sei X = (Y1, Y2 vereil nach N(, Σ. Is ( Σ11 Σ Σ = 12, Σ 21 Σ 22 so gil Σ ij = EY i Yj. Sezen wir Z 1 = Y 1 Σ 12 Σ 1 22 Y 2, dann is (Z1, Y2 normalvereil. Außerdem sind Z 1 und Y 2 unabhängig. Wie der Name Gauß-Prozess schon vermuen läss, definieren wir Definiion 1.6. Ein Prozess X is ein Gauß-Prozess, wenn für je endlich viele Zeipunke 1 < 2 < < n der Zufallsvekor (X 1, X 2,..., X n n-dimensional normalvereil is. Durch Erweiern der Definiion charakerisischer Funkionen auf Zufallsvekoren folg Proposiion 1.2. Ein d-dimensionaler Zufallsvekor V is genau dann mehrdimensional normalvereil, wenn jede Linearkombinaion c V, c R d, (eindimensional normalvereil is. Ein Prozess X is also schon dann ein Gauß-Prozess, wenn für alle n N und c 1,..., c n R und jede Wahl von Zeien 1 < 2 < < n die Zufallsvariablen (c 1,..., c n (X 1,..., X n = n j=1 c jx j eindimensional normalvereil sind. Aufgabe 2. a Beweisen Sie Proposiion 1.2. b Seien X n, n N, und X d-dimensionale Zufallsvekoren. Zeigen Sie: Es gil X n X genau dann, wenn c X n c X für alle c R d.

1.2 Die Brownsche Bewegung 5 c Sei (X n n N eine unabhängige Folge idenisch vereiler R d -weriger Zufallsvariablen, deren Komponenen endliche zweie Momene besizen. Dann konvergier n 1/2 n (X i EX i in Vereilung gegen eine N(, C-vereile Zufallsvariable, wobei C := E[(X 1 EX 1 (X 1 EX 1 ]. Bemerkung 1.2. Die Vereilung eines Gauß-Prozesses is durch seine Mielwerfunkion m( = EX und seine Kovarianzfunkion Γ(s, = E[(X s m(s(x m(] eindeuig fesgeleg. Bewiesen wird dieses Resula mi Hilfe der charakerisischen Funkionen und des Forsezungssazes von Kolmogorov, den wir in Abschni 1.2 kennenlernen. Beispiel 1.2. a Wir werden im nächsen Abschni sehen, dass die Brownsche Bewegung ein Gauß-Prozess mi Mielwerfunkion m( = und Kovarianzfunkion Γ(s, = min{s, } =: s is. b Ein zenrierer Gauß-Prozess (W [,1] mi Kovarianzfunkion Γ(s, = s s und f.s. seigen Pfaden heiß Brownsche Brücke. c Ein zenrierer Gauß-Prozess mi Kovarianzfunkion Γ(s, = βe α s is ein sog. Ornsein-Uhlenbeck Prozess. 1.2 Die Brownsche Bewegung Die Brownsche Bewegung is der wichigse sochasische Prozess. Sein Name geh zurück auf den Boaniker R. Brown, der 1828 die zufälligen Bewegungen von Pollen in Wasser beobachee. Zum ersen Mal angewende wurde die Brownsche Bewegung von L. Bachelier und A. Einsein. Sie verfolgen dabei jedoch unerschiedliche Ziele. So wolle Bachelier 19 ein Modell für die Finanzmärke enwickeln, Einsein war 195 dagegen an einem Modell für die Bewegung eines Teilchens uner dem Einfluss von Sößen durch umgebende Moleküle ineressier. Beide verzicheen dabei zunächs auf eine sricke mahemaische Beschreibung. Dieser nahm sich schließlich N. Wiener 192/23 an. Zu seinen vielen Leisungen gehör der erse formale Nachweis, dass die Brownsche Bewegung exisier. Zu Ehren Wieners wird die Brownsche Bewegung auch Wiener-Prozess genann. Versezen wir uns zunächs in die Lage von Einsein. Mi B bezeichnen wir die x- Komponene der Posiion eines Teilchens zur Zei, das Söße von umgebenden Molekülen erfähr. Den Koordinaenursprung legen wir in den Sarpunk B. Wir reffen folgende Modellannahmen: 1. Die Molekülsöße erfolgen nacheinander zu Zeien 1 < 2 <. Der n-e Soß führ zu einer Verschiebung X n (in x-richung bis zum (n + 1-en Soß. Also gil B n = X 1 + + X n 1. 2. Die Söße erfolgen zufällig und unabhängig voneinander, d.h. die X i werden als unabhängige Zufallsvariablen modellier. Weier werden die X i als idenisch vereil angenommen. 3. Wegen Symmerie gil EX n =. Zudem is E[X 2 n] <, da große Were von X n exrem selen sind.

6 1 STOCHASTISCHE PROZESSE Leider is die Posiion des Teilchens nur in gewissen Zeiabsänden beobachbar, die sehr viele Zusammensöße umfassen. Die Anzahl der Söße is Poisson-vereil, und ihre relaive Schwankung is äußers gering. Wir können also annehmen, dass in gleich langen Beobachungsinervallen immer dieselbe Anzahl von Sößen safinde. Für die Folge der Beobachungszeien,, 2,... erhalen wir B n = B + (B 2 B + + (B n B (n 1. Jeder der unabhängigen Zuwächse B k B (k 1 is die Summe einer gewissen Zahl unabhängiger, idenisch vereiler und zenrierer Zufallsvariablen, also approximaiv N,σ 2-vereil. Mi unserem Wissen aus der Sochasik I folg nun, dass B n B m approximaiv N,(n mσ 2-vereil is. Diese Überlegungen moivieren die folgende Definiion 1.7. Ein sochasischer Prozess (B mi Weren in (R, B heiß (normale Brownsche Bewegung, wenn er die folgenden Eigenschafen besiz: (1 Die Zuwächse von B sind unabhängig, d.h. für je endlich viele Zeipunke 1 < 2 < < n < sind die Zufallsvariablen unabhängig. B 2 B 1, B 3 B 2,..., B n B n 1 (2 Für s < < sind die Zuwächse B B s normalvereil mi Mielwer und Varianz s. (3 Der Prozess B besiz f.s. seige Pfade. (4 Es gil B = f.s. Bemerkung 1.3. Of wird in der Lieraur auch ein Prozess, der (1-(3 erfüll, als Brownsche Bewegung bezeichne. Anselle von (4 is B dann gemäß einer Sarvereilung ν vereil. Mi Hilfe der Gauß-Prozesse finden wir eine äquivalene Charakerisierung einer Brownschen Bewegung. Lemma 1.3. Ein Prozess B = (B is genau dann eine Brownsche Bewegung, wenn folgende Bedingungen erfüll sind: (1 B is ein Gauß-Prozess. (2 Es gil EB = und EB s B = s. (3 Der Prozess B besiz f.s. seige Pfade. Beweis. Wir erkennen leich, dass aus (1 und (2 die Bedingung (1 folg. Um (2 aus (1 und (2 zu erhalen, rechnen wir für s < EB s B = EB 2 s + E[B s (B B s ] = s + EB s E(B B s = s. Um umgekehr (1 herzuleien genüg es nachzuweisen, dass der Zufallsvekor (B 2 B 1, B 3 B 2,..., B n B n 1

1.2 Die Brownsche Bewegung 7 eine diagonale Kovarianzmarix besiz. Dies is jedoch der Fall, denn für i < j gil E[(B i B i 1 (B j B j 1 ] =E[B i B j ] E[B i B j 1 ] E[B i 1 B j ] + E[B i 1 B j 1 ] = i i i 1 + i 1 =. Aus (1 und Lemma 1.2 folg sofor, dass die Zuwächse B B s, s <, normalvereil sind. Bedingung (2 liefer ferner E(B B s = und Var(B B s = E[(B B s 2 ] = E[B 2 ] 2EB s B + E[B 2 s] = 2s + s = s. Wegen EB = und EB 2 = gil B = f.s. Of definier man auch eine d-dimensionale Brownsche Bewegung. Der einzige Unerschied zur obigen Definiion beseh darin, dass ein solcher Prozess den Werebereich R d besiz. Man kann zeigen, dass die Komponenen B j einer d-dimensionalen Brownschen Bewegung voneinander unabhängige (d.h. die σ-algebren σ(b 1,,..., σ(b d, sind unabhängig eindimensionale Brownsche Bewegungen sind. Aufgabe 3. Zeigen Sie: Für jede d-dimensionale Brownsche Bewegung B und jeden Vekor e R d mi Länge e = 1 is (e B eine eindimensionale Brownsche Bewegung. Darüber hinaus können wir definieren: Definiion 1.8. Ein zenrierer Gauß-Prozess (X [,1] mi Kovarianzfunkion EX s X = s s und f.s. seigen Pfaden heiß Brownsche Brücke. Bemerkung 1.4. Is X eine Brownsche Brücke, so gil offenbar X = X 1 = f.s. Aufgabe 4. a Sei B eine Brownsche Bewegung. Dann is der Prozess X definier durch X = B B 1, [, 1], eine Brownsche Brücke. b Is X eine Brownsche Brücke, so is auch Y mi Y = X 1 eine Brownsche Brücke. c Is X eine Brownsche Brücke, so is ((1+X 1 [, eine Brownsche Bewegung. 1+ Nun sell sich naürlich die Frage, ob ein solcher Prozess überhaup exisier. Da der Nachweis eher echnisch is, werde ich auf einige Deails verzichen. Definiion 1.9. Ein vollsändiger, separabler und merischer Raum heiß polnisch. Definiion 1.1. Für n N und 1,..., n sei P 1,..., n ein W-Maß auf E n. Die Familie von W-Maßen heiß projekiv, wenn für {s 1,..., s k } { 1,..., n } das W-Maß P s1,...,s k die ensprechende Randvereilung von P 1,..., n is Bemerkung 1.5. Is X ein sochasischer Prozess, so is die Familie der Vereilungen (X 1,..., X n projekiv. Saz 1.4 (Forsezungssaz von Kolmogorov. Is E polnisch mi Borel-σ-Algebra E, dann exisier zu jeder projekiven Familie genau ein W-Maß auf E [,, das die Familie forsez. Der Beweis des Forsezungssazes is umfangreich und echnisch, daher möche ich darauf verzichen. Wer daran ineressier is, kann ihn z.b. in [AD-D] nachlesen.

8 1 STOCHASTISCHE PROZESSE Saz 1.5. Es gib ein W-Maß P auf (R [,, B [,, so dass der Koordinaenprozess X (ω = ω die Eigenschafen (1, (2 und (4 aus Definiion 1.7 besiz. Beweis. Seze P (X = = 1. Sei q die Diche der Normalvereilung mi Mielwer und Varianz. Für reelle Zahlen < 1 < < n definieren wir P 1,..., n (A 1 A n = q 1 (x 1 q 2 1 (x 2 x 1 A 1 A 2 q n n 1 (x n x n 1 dx n... dx 2 dx 1. A n Man kann zeigen, dass die so definieren W-Maße eine projekive Familie bilden. Nach Saz 1.4 können wir das so definiere W-Maß auf den Raum (R [,, B [, forsezen. Bezüglich dieser Forsezung sind die Zuwächse X X s N, s -vereil. Seien = < 1 < < n und Y i := X i X i 1. Für A 1,..., A n B und x := erhalen wir n P (Y 1,...,Y n (A 1 A n = 1 Aj Y j dp = j=1 n j=1 1 Aj (x j x j 1 P 1,..., n (d(x 1,..., x n = q 1 (x 1 1 A2 (x 2 x 1 q 2 1 (x 2 x 1 A 1... 1 An (x n x n 1 q n n 1 (x n x n 1 dx n... dx 2 dx 1 = n N,j j 1 (A j = j=1 Also besiz X unabhängige Zuwächse. n P Y j (A j. Aufgabe 5. Seien P 1,..., n und X definier wie in Saz 1.5. Zeigen Sie: a Die so definieren W-Maße bilden eine projekive Familie. b Bezüglich der Forsezung P auf (R [,, B [, is der Zuwachs X X s N, s - vereil. Saz 1.6. Es exisier ein Prozess B mi unabhängigen Zuwächsen und B B s N, s für s < sowie f.s. seigen Pfaden. Für jedes γ (, 1 sind P -fas alle 2 Pfade lokal Hölder-seig mi Exponen γ. Beweis. Nach Saz 1.5 exisier ein W-Maß P, so dass der Koordinaenprozess X (ω = ω die Eigenschafen (1, (2 und (4 aus Definiion 1.7 besiz. Alle Momene einer normalvereilen Zufallsvariable exisieren. Bezeichne Z eine N,1 -vereile Zufallsvariable, so gil E[ X X s 2n ] = E[ s n X X s 2n ] s n = E[Z 2n ] s n n N. Nach Saz 1.1 exisier also eine seige Modifikaion B, die weierhin die Eigenschafen (1, (2 und (4 besiz. Für alle n N und γ < n 1 is B nach Saz 1.1 f.s. 2n n 1 lokal Hölder-seig mi Exponen γ. Wegen lim n = 1 is B für jedes γ < 1/2 2n 2 f.s. lokal Hölder-seig mi Exponen γ. j=1

1.2 Die Brownsche Bewegung 9 Nachdem die Exisenz der Brownschen Bewegung nun gesicher is, können wir uns mi ihren Eigenschafen beschäfigen. Saz 1.7 (Eigenschafen der Brownschen Bewegung. 1 (Homogeniä Is B eine Brownsche Bewegung, so is auch (B s+ B s eine Brownsche Bewegung. 2 (Symmerie Mi B is auch ( B eine Brownsche Bewegung. 3 (Skalenwechsel Is B eine Brownsche Bewegung, so is (B s s für alle > wie ( 1/2 B s s vereil. 4 Für feses > is (B s B s [,] eine Brownsche Bewegung auf [, ]. Beweis. Eigenschaf 1 folg direk aus der Definiion. Die zweie Eigenschaf is klar wegen der Symmerie der Normalvereilung. Beide in 3 angegebenen Prozesse sind zenriere Gauß-Prozesse. Nach Bemerkung 1.2 sind also beide Prozesse schon idenisch vereil, wenn deren Kovarianzfunkionen übereinsimmen. Es gil aber EB s1 B s2 = (s 1 (s 2 = (s 1 s 2 = EB s1 B s2 = E 1/2 B s1 1/2 B s2. Der Prozess in 4 is ebenfalls ein zenrierer Gauß-Prozess mi Kovarianzfunkion E(B r B (B s B = EB r B s EB r B EB B s + EB 2 = (r s ( r ( s + = r + s (r s = r s. Die Behaupung folg aus Lemma 1.3 und Bemerkung 1.2. Die nächse Eigenschaf einer Brownschen Bewegung gesae eine Zeiinversion. Saz 1.8. Is B eine Brownsche Bewegung, dann is auch X definier durch { B 1/ (ω, falls > X (ω :=, falls = eine Brownsche Bewegung. Beweis. Für endlich viele Zeipunke < 1 <... < n is jede Linearkombinaion c 1 X 1 + + c n X n eine Linearkombinaion der B τi mi τ i = 1 i. Da B nach Lemma 1.3 ein zenrierer Gauß-Prozess is, gil dies auch für X. Berechne nun die Kovarianzfunkion von X: s = oder = : EX s X = = s s, > : EX s X = seb 1 s B 1 = s min{ 1 s, 1 } = s s s = s. Nach Bemerkung 1.2 is X wie B vereil. Nach Lemma 1.3 bleib zu zeigen, dass f.s. alle Pfade seig sind. Da 1 auf (, und B (ω für fas alle ω seig sind, exisier eine P -Nullmenge N, so dass X (ω für alle ω (N c auf (, seig is. Es fehl also nur noch die Seigkei in =. Wegen E[(B B s 4 ] = 3( s 2 = E[(X X s 4 ] ha X nach Saz 1.1 eine seige Modifikaion X, d.h. P -Nullmenge N F ω N c : X (ω = X (ω. Die Menge N := N ϱ Q + {} N ϱ is wieder eine P -Nullmenge. Auf N c gil X ϱ (ω = X ϱ (ω für alle ϱ Q +. Aufgrund der Seigkei von X (ω und X (ω für alle ω N c simmen X (ω und X (ω für alle > überein. Für ω N c gil ferner X (ω = X (ω. Da X seige Pfade besiz, sind auch P -fas alle Pfade von X seig auf [,.

1 1 STOCHASTISCHE PROZESSE Aufgrund der vorgesellen Eigenschafen is es möglich, aus einer Brownschen Bewegung weiere Brownsche Bewegungen zu gewinnen. 1.3 Pfadeigenschafen der Brownschen Bewegung Nachdem wir im lezen Abschni schon begonnen haben, Eigenschafen der Brownschen Bewegung zusammenzusellen, konzenrieren wir uns nun auf weiere Eigenschafen Brownscher Pfade. Saz 1.9. Sei B eine Brownsche Bewegung. Für > s sei ( n N eine Folge von Zerlegungen s = (n < (n 1 < < (n k = des Inervalls [s, ]. Wenn n := max i=,...,k 1 ( (n gegen Null konvergier, dann gil i+1 (n i k 1 T n [s,] := i= (B (n i+1 B (n 2 s in W. i schrei- Beweis. Die Differenz s können wir als Teleskopsumme k 1 i= ((n ben. Zusammenfassen liefer E[(T n [s,] ( s2 ] = E [(k 1 i= ( (B (n i+1 i+1 (n i B (n 2 ( i+1 i 2]. i Da die Brownsche Bewegung unabhängige Zuwächse besiz und für eine Zufallsvariable Y N,a gil E[Y 4 ] = 3(E[Y 2 ] 2, folg E[(T n [s,] ( s2 ] = k 1 i= k 1 3 E [( (B (n i+1 ( (n i+1 (n i i= Mi der Chebyshev-Ungleichung erhalen wir B (n 2 ( (n i+1 (n i 2] i 2 3 n ( s. P ( T n [s,] ( s > ε ε 2 E[(T n [s,] ( s2 ] 3( sε 2 n, also T n [s,] s in W. Korollar 1.1. Auf jedem Inervall [s, ] mi s < < is f.s. jeder Pfad einer Brownschen Bewegung B von unendlicher Variaion V = sup k 1 n i= B B (n (n i+1. i Beweis. Sei [s, ] [,. Nach Saz 1.9 konvergier k 1 i= (B B (n (n i+1 2 in Wahrscheinlichkei gegen s. Offensichlich i gil k 1 i= (B (n i+1 B (n i 2 V max B (n n i+1 B (n. i Da auf dem Inervall [s, ] fas alle Pfade B (ω gleichmäßig seig sind, gil max n B (n B (n i+1 f.s. für n. Also kann V f.s. nich endlich sein, da i sons die linke Seie der Ungleichung gegen Null konvergieren müsse.

1.3 Pfadeigenschafen der Brownschen Bewegung 11 Die Aussage von Saz 1.9 kann bei geeigneer Wahl der Zerlegungsfolge so verschärf werden, dass T n [s,] sogar f.s. gegen s konvergier. Dies soll in der folgenden Aufgabe geleise werden. Aufgabe 6. Sei B eine Brownsche Bewegung und n eine Folge von Zerlegungen s = (n < (n 1 < < (n k = des Inervalls [s, ] [, mi Feinhei n := max i=,...,k 1 (n i+1 (n i. Konvergier die Reihe n=1 n, so konvergier die Folge T n [s,] f.s. gegen s. Dies is insbesondere der Fall, wenn die Unereilungspunke der Zerlegung durch (n i = s + i2 n ( s, i =,..., 2 n, fesgeleg wird. Proposiion 1.11. Für jedes γ > 1/2 is f.s. jeder Pfad einer Brownschen Bewegung B nirgends lokal Hölder-seig mi Exponen γ. Beweis. Sei H die Menge der ω Ω, deren Pfade in einem Punk lokal Hölder-seig mi Exponen γ sind: H := {ω Ω : es gib ein s, in dem B (ω lokal Hölder-seig is.}. Wir wollen zeigen, dass H eine Nullmenge is. Sei dazu ω H und r, so dass B (ω lokal Hölder-seig in r is. Nach Definiion exisier eine Umgebung U R von r und eine Konsane L, so dass gil: B s (ω B (ω L s γ s, U [,. Für ein nichleeres Inervall [a, b] U [, bleib die Ungleichung gülig. Sei nun a = (n < (n 1 < < (n k = b eine Zerlegung des Inervalls [a, b] mi n. Nach Aufgabe 6 können wir die Zerlegung so wählen, dass T n [a,b] f.s. gegen b a konvergier. Wegen 2γ > 1 erhalen wir aber k k T n [a,b] (ω = (B (n (ω B (n i (ω 2 L 2 ( (n i (n i 1 2γ i 1 L 2 n 2γ 1 k Also muss H eine Nullmenge sein. ( (n i (n i 1 = L2 n 2γ 1 (b a n. Bemerkung 1.6. Es gil sogar noch mehr: Fas jeder Pfad einer Brownschen Bewegung is für alle γ > 1/2 nirgends Hölder-seig mi Exponen γ. Wer an einem Beweis dieser Aussage ineressier is, kann in [Bau2] nachschlagen. Was im hier nich behandelen Fall γ = 1/2 geschieh, werden wir in Abschni 1.5 sehen. Es folg sofor: Korollar 1.12. F.s. jeder Pfad einer Brownschen Bewegung B is nirgends differenzierbar. Beweis. Is ein Pfad B (ω in einem Punk differenzierbar, dann is er in lokal Hölder mi Exponen 1, da der Quoien Bs(ω B(ω für alle s und aus einer s kleinen Umgebung um beschränk is. Nach Proposiion 1.11 is jedoch f.s. jeder Pfad nirgends lokal Hölder-seig mi Exponen 1, so dass f.s. jeder Pfad nirgends differenzierbar sein kann. Auf jedem Inervall is also f.s. jeder Pfad einer Brownschen Bewegung unendlich lang. Zudem is f.s. jeder Pfad nirgends differenzierbar. Die Brownsche Bewegung flukuier also ziemlich sark. Dank Saz 1.9 können wir aber rozdem in Kapiel 2 ein sochasisches Inegral definieren.

12 1 STOCHASTISCHE PROZESSE 1.4 Soppzeien und sarke Markoveigenschaf Zunächs ein paar Definiionen, die die aus der Sochasik I bekannen Begriffe Filraion und adapier auf unsere Siuaion überragen. Definiion 1.11. Eine Filraion (F is eine monoon wachsende Folge von Sub-σ-Algebren von F. Sie heiß vollsändig, wenn sie alle Nullmengen enhäl. Seze F + = u> F u. Eine Filraion heiß rechsseig, wenn F + = F für alle. Die σ-algebren F + offensichlich bilden weierhin eine Filraion. Zudem gil für s < F s F + s F. Definiion 1.12. Ein Prozess X = (X is adapier, wenn für alle die Zufallsvariable X F -messbar is. Aus der Definiion einer Brownschen Bewegung folg direk (vgl. auch Saz 1.7 Saz 1.13. Sei B = (B eine Brownsche Bewegung bzgl. einer Filraion (F. Für jedes s is dann der Prozess Y = B s+ B s eine Brownsche Bewegung unabhängig von F s. In Verallgemeinerung des Maringalbegriffs in diskreer Zei nennen wir (X, F ein Maringal, wenn X an (F adapier und X für alle inegrierbar is und E(X F s = X s f.s. für alle s <. Aus Saz 1.13 folg dann Lemma 1.14. Sei B eine Brownsche Bewegung bzgl. der Filraion (F. Dann sind (B, F, (B 2, F und (B 4 6B 2 + 3 2, F Maringale. Beweis. Die Adapierhei der Brownschen Bewegung is klar nach Voraussezung. Da B N, -vereil is, exisieren alle Momene, insbesondere gil EB =, EB 2 =, EB 3 = und EB 4 = 3 2. Nach Saz 1.13 is B = B s+ B s eine Brownsche Bewegung unabhängig von F s. Also gil für s < : E(B F s = B s + E(B F s = B s + E[B s] = B s und E(B 2 F s = E(Bs 2 + 2B s B s + (B s 2 F s = Bs 2 + 2B s E[B s] + E[(B s 2 ] = Bs 2 + ( s sowie E(B 4 F s = E(Bs 4 + 4BsB 3 s + 6Bs(B 2 s 2 + 4B s (B s 3 + (B s 4 F s = Bs 4 + 4BsE[B 3 s] + 6BsE[(B 2 s 2 ] + 4B s E[(B s 3 ] + E[(B s 4 ] = Bs 4 + 6( sbs 2 + 3( s 2. Aus lezerem folg E(B 4 6B 2 F s = Bs 4 6sBs 2 + 3(s 2 2.

1.4 Soppzeien und sarke Markoveigenschaf 13 Aufgabe 7. a Sei X eine N,σ 2-vereile Zufallsvariable. Zeigen Sie, dass gil { E(X p 1 3 5 (2n 1σ 2n, p = 2n =, p = 2n 1, n N. b Sei B eine Brownsche Bewegung bzgl. einer Filraion (F. Besimmen Sie ein ähnliches Maringal wie in Lemma 1.14 mi führendem Term B 3. Aufgabe 8. a Für jede Brownsche Bewegung B und jede Zahl u C is der Prozess ( exp(iub + 1 2 u2 ein Maringal bzgl. der von B erzeugen Filraion (σ(b s, s. b Sei umgekehr (X ein seiger reellweriger Prozess mi X = und der Prozess ( exp(iux + 1 2 u2 für alle u R ein Maringal bzgl. der Filraion (σ(x s, s. Dann is (X eine Brownsche Bewegung. Die Aussage von Saz 1.13 wollen wir nun verallgemeinern, indem wir sa s eine Soppzei T wählen. Definiion 1.13. Eine Abbildung T : Ω [, ] heiß (F -Soppzei, wenn für alle gil {T } F. Ein Ereignis A mi A {T } F heiß Prä-T -Ereignis. Das Mengensysem aller Prä-T -Ereignisse wird mi F T bezeichne. Bemerkung 1.7. Für jede Soppzei T is F T eine σ-algebra. Im Gegensaz zu diskreen Soppzeien, die wir schon aus Kapiel 22 der Sochasik I kennen, genüg es nich, {T = } F zu fordern, da die überabzählbare Vereinigung s {T = s} nich unbeding in F liegen muss. Einige Eigenschafen von Soppzeien wollen wir im nächsen Lemma zusammensellen. Lemma 1.15 (Eigenschafen von Soppzeien. Seien S, T (F -Soppzeien. Dann gil (i T is F T -messbar. (ii F T = F auf {T = } (iii F S {S T } F S T = F S F T. Insbesondere gil: {S T } F S F T, F S = F T auf {S = T } und F S F T für S T. Da der Beweis demjenigen für diskree Soppzeien ähnel, verzichen wir darauf. Definiion 1.14. Eine Abbildung T heiß schwache Soppzei bzgl. einer Filraion (F, wenn {T < } F für alle. Wir sezen F + T := {A F : A {T < } F }. Bemerkung 1.8. Für Soppzeien S und T mi S T gil F S F T und F + S F + T. Falls S < T, so gil F + S F T. Wegen {T < } = n=1 { T 1 } n is jede Soppzei auch eine schwache Soppzei. Die Bezeichnung is also gerechferig. Einen weieren Zusammenhang zwischen den beiden Soppzei-Begriffen sell das folgende Lemma her.

14 1 STOCHASTISCHE PROZESSE Lemma 1.16 (Schwache Soppzeien. T is eine schwache (F -Soppzei genau dann, wenn T eine (F + -Soppzei is. Beweis. : Wir können schreiben {T } = {T < r}. r> r Q Die reche Seie lieg jedoch in F +. : Es gil {T < } = {T r}. r< r Q Nach Voraussezung lieg {T r} in F + r, also auch in F. Daraus folg unmielbar Korollar 1.17. Is die Filraion (F rechsseig, so is jede schwache Soppzei eine Soppzei. In Falle einer rechsseigen Filraion simmen also die beiden Soppzei-Begriffe überein. Beispiel 1.3. Sei (X ein reellweriger sochasischer Prozess mi ausschließlich rechsseiig seigen Pfaden. Dann is für jede offene Menge U R die Funkion T U mi T U (ω := inf{ > : X (ω U} eine schwache Soppzei, jedoch i.a. keine Soppzei. Hingegen is für jede abgeschlossene Menge A R die Funkion T A mi eine Soppzei. T A(ω := { : X (ω A} Aufgabe 9. a Sei U eine offene und nichleere Teilmenge von R, X ein reellweriger Prozess mi rechsseigen Pfaden und F = σ(x s, s. Zeigen Sie, dass durch T U (ω := inf{ > : X (ω U}, inf = + eine schwache Soppzei bezüglich der Filraion (F definier wird. b Sei A eine abgeschlossene und nichleere Teilmenge von R, X ein reellweriger Prozess mi seigen Pfaden und F = σ(x s, s. Zeigen Sie, dass durch τ A (ω := inf{ : X (ω A}, inf = + eine Soppzei bezüglich der Filraion (F definier wird. Ein nüzliches Resula is Lemma 1.18 (diskree Approximaion. Is T eine schwache Soppzei, dann exisieren diskree (d.h. mi abzählbar vielen Weren Soppzeien T n, so dass T n T.

1.4 Soppzeien und sarke Markoveigenschaf 15 Beweis. Wähle z.b. T n := 2 n ([2 n T ] + 1, wobei [x] die Gaußklammer von x bezeichne. Das bedeue Dies sind Soppzeien wegen T n = (k + 12 n falls k2 n T < (k + 12 n. {T n (k + 12 n } = {T < (k + 12 n } F (k+12 n. Die Eigenschaf T n T is offensichlich. Nun können wir die sarke Markoveigenschaf der Brownschen Bewegung beweisen. Saz 1.19 (Sarke Markoveigenschaf der Brownschen Bewegung. Sei (B eine Brownsche Bewegung bzgl. der Filraion (F und T eine endliche (F -Soppzei. Dann is B mi B = B T + B T eine Brownsche Bewegung unabhängig von F T. Beweis. Nach Lemma 1.18 exisieren diskree Soppzeien T n, n N, mi Weren (n 1 < (n 2 < und T n T. Wenn C F T, dann gil wegen F T F Tn C {T n = (n k } = C {T n (n k }\{T n (n k 1 } F. (n Wenden wir Saz 1.13 an, so erhalen wir für A B P ({B Tn+ B Tn A} C = P ({B B (n A, T k + (n n = (n k } C k = k=1 k=1 P (B B (n AP ({T k + (n n = (n k } C k = P (B AP (C. Nun beschränken wir uns auf offene Inervalle A = (a, b. Für n konvergieren die Zufallsvariablen B Tn+ B Tn f.s. gegen B T + B T. Daher gil P ({a < B < b} C = P ({a < B T + B T < b} C lim inf P ({a < B T n+ B Tn < b} C n lim sup P ({a < B Tn+ B Tn < b} C n P ({a B T + B T b} C. Wählen wir a und b so, dass P (B = a = P (B = b =, dann erhalen wir durch Grenzübergang k P ({a < B < b} C = P (a < B < bp (C. ( Für jedes ε > folg P (B = a lim inf n P (a ε < B T n+ B Tn < a + ε = P (a ε < B < a + ε. Lassen wir ε gegen Null konvergieren, so ergib sich also P (B = a = für alle a R. Daher is die Gleichung ( für alle a, b R, a < b, erfüll. Die gleichen Rechnungen mi Vekoren von Differenzen B B s sa B zeigen, dass B eine Brownsche Bewegung unabhängig von F T is.

16 1 STOCHASTISCHE PROZESSE Bemerkung 1.9. Wenn T eine schwache Soppzei is, dann zeig der Beweis von Saz 1.19, dass B auch eine Brownsche Bewegung unabhängig von F + T is. Beweis. Nach Lemma 1.18 exisier auch für eine schwache Soppzei T eine Folge diskreer Soppzeien T n mi T n T. Wegen T < T n gil F + T F T n. Daher is der Beweis von Saz 1.19 immer noch richig für C F + T. 1.5 Das Gesez von ierieren Logarihmus In diesem Abschni wollen wir eine weiere wichige Eigenschaf Brownscher Pfade herleien, mi deren Hilfe wir die Brownschen Pfade auf Hölder-Seigkei mi dem bisher ausgesparen Exponenen γ = 1/2 unersuchen können. Wir wissen sogar, in welchem Bereich sich die Brownschen Pfade f.s. bewegen. Dazu beginnen wir mi einer Spiegelungseigenschaf der Brownschen Bewegung: Wählen wir eine Zahl a > und spiegeln die Brownsche Bewegung, sobald sie a erreich, so is der ensehende Prozess ebenfalls eine Brownsche Bewegung. Saz 1.2 (Spiegelungsprinzip. Sei (B eine Brownsche Bewegung, a > und T a := inf{ > : B = a}. Dann is der sochasische Prozess B mi { B, T a B := 2a B, > T a ebenfalls eine Brownsche Bewegung. Beweis. Sei Y := B Ta+ B Ta,. Nach Saz 1.19 und Saz 1.7 gil Y d = Y d = B, und (Y is unabhängig von F Ta. Dami is insbesondere (Y unabhängig von den F Ta -messbaren Abbildungen T a und B Ta mi B Ta = B Ta. Daher gil (B Ta, T a, Y d = (B Ta, T a, Y. Berache die Transformaion ψ mi { f(, ψ (f,, g :=. f( + g(, > Da es sich hierbei um eine messbare Transformaion handel, erhalen wir Auf der linken Seie seh ψ (B Ts, T a, Y d = ψ (B Ta, T a, Y. ψ (B Ta, T a, Y = { B, T a = B. B Ta + Y Ta, > T a Da B f.s. seige Pfade besiz, muss gelen B Ta = a. Auf der rechen Seie seh also { { B ψ (B Ta, T a B, T a, T a, Y = = = B. B Ta Y Ta, > T a 2a B, > T a Wiederholen wir diese Argumenaion für vekorwerige Transformaionen, so folg B d = B. Da zudem fas alle Pfade von B seig sind, gil dies auch für B.

1.5 Das Gesez von ierieren Logarihmus 17 Proposiion 1.21 (Reflexionsprinzip. Sei (B eine Brownsche Bewegung, a > und T a := inf{ > : B = a}. Dann gil P (T a = 2P (B a = P ( B a. Beweis. Sei B der Prozess aus Saz 1.2 und Ta := inf{ > : B = a}. Da B für alle, is T a = Ta fas sicher. Wir erhalen d = B P (T a, B a = P (T a, B a Wegen {B a} {T a } folg ferner = P (T a, 2a B a = P (T a, B a. P (T a = P (T a, B a + P (T a, B a = 2P (T a, B a = 2P (B a. Die zweie Gleichung folg direk aus der Symmerie der Normalvereilung. Bezeichne nun B := max s B s,, den sog. Maximumprozess. Anknüpfend an das Reflexionsprinzip können wir zeigen Proposiion 1.22. Sei (B eine Brownsche Bewegung und B := max s B s. Für jedes haben die Zufallsvariablen B, B und B B dieselbe Vereilung. Beweis. Für jedes a > gil {T a } = {B a}. Aus Proposiion 1.21 folg dann P (B a = P (T a = P ( B a. Also haben B und B die gleiche Vereilung. Seze nun X s := B s B, s. Nach Saz 1.7 wird dadurch eine Brownsche Bewegung auf [, ] definier. Aus dem bereis bewiesenen is max s X s vereil wie X. Daher erhalen wir B B = max B s B = max (B s B = max X d s = X = d B. s s s Bemerkung 1.1. Zwar besizen B und B die gleiche Vereilung, dies gil jedoch nich für die Prozesse. Denn (B is f.s. monoon wachsend, ( B hingegen nich. Aufgabe 1. Sei T a := inf{ : B a}. Besimmen Sie die Diche von T a. Dem Haupresula dieses Abschnies schicke ich noch zwei Hilfsaussagen voraus, die wir im Beweis benöigen werden. Lemma 1.23. Sei X eine normalvereile Zufallsvariable mi Mielwer und Varianz, und sei a >. Dann gil P (X > a a a 2 2π e 2.

18 1 STOCHASTISCHE PROZESSE Beweis. Es gil P (X > a = 1 2π a e x2 2 dx 1 a 2π a xe x2 2 dx = a 2π e a 2 2. Lemma 1.24. Der Quoien von /2 x e s2 ds und e x2 /2 /x konvergier gegen 1 für x. Beweis. Wende die Regel von l Hospial an: Der Quoien aus x x e s2 /2 ds = e x2 /2 und (x 1 e x2 /2 x 1 is, was für x gegen 1 konvergier. x 2 +1 ( 1 = x + 1 e x2 /2 2 Nun haben wir das Handwerkszeug zusammen, um das Gesez vom ierieren Logarihmus zu beweisen. Saz 1.25 (Gesez vom ierieren Logarihmus. Für eine Brownsche Bewegung B gil und lim sup lim inf B 2 log log = 1 B 2 log log = 1 f.s. f.s. Beweis. Die zweie Aussage is eine direke Folgerung aus der ersen, weil nach Saz 1.7 auch B eine Brownsche Bewegung is. Seze abkürzend u( := 2 log log. Dies is offensichlich eine sreng monoon B wachsende Funkion. Zunächs zeigen wir lim sup 1 f.s. Wähle dazu ein u( α > 1 und seze n := α n. Wegen α > 1 is die Folge der n monoon wachsend in n. Definiere ferner A n := {ω : [ n, n+1 ] : B (ω > αu(}. Aufgrund der Monoonie von u is A n in { sup n+1 B > αu( n } enhalen. Nach den Proposiionen 1.22 und 1.21 erhalen wir also ( P (A n P sup B > αu( n = 2P (B n+1 > αu( n. n+1 Mi Lemma 1.23 folg P (A n 2 n+1 α 2 u 2 (n π αu( n e 2 n+1. Einsezen von n = α n und u( = 2 log log liefer P (A n 1 π 1 1 e α log(n log α = α log(n log α π (log α α α log(n log α n α.

1.5 Das Gesez von ierieren Logarihmus 19 Wegen log(n log α exisier ein n N und eine Konsane K >, so dass P (A n Kn α n n. Da wir α > 1 gewähl haen, konvergier die Reihe n=1 P (A n. Nach dem ersen Borel-Canelli-Lemma aus der Sochasik I erhalen wir also Aufgrund der Inklusion { lim sup lim sup P (lim sup A n =. n B u( B > α} lim sup u( n A n folg daraus α f.s. für alle α > 1. B Durch Grenzübergang ergib sich lim sup 1 f.s. u( B Wir zeigen nun lim sup 1 f.s. Sei dazu wie oben u( = 2 log log, α > 1 u( und n = α n. Definiere außerdem β := > 1. Berache α α 1 ( P (B n B n 1 > β 1 Bn B n 1 u( n = P n > n 1 u( n β. n n 1 Nach Definiion der Brownschen Bewegung is B n B n 1 N,n n 1 -vereil, der Quoien Bn B n 1 n n 1 is also N,1 -vereil. Nach Lemma 1.24 exisier also eine Konsane K >, so dass für schließlich alle n gil mi x = P (B n B n 1 > β 1 u( n = 1 e s2 /2 ds K 1 /2 2π x e x2 u(n β n n 1. Durch Einsezen erhalen wir wegen n n 1 = β 1 n x 1 x e x2 /2 = = β u( n n n 1 e u 2 (n 2β 2 (n n 1 = β 2 log(n log α (log α 1/β n 1/β. β log(n log α/β e 2 log(n log α Sei ε (, 1 β 1. Da der Logarihmus langsamer wächs als jede Poenz, können wir die reche Seie für genügend große n nach unen abschäzen durch β (log α 1/β n β β 1/β 2 log(n log α 2 (log α 1/β n ε n 1/β 2 (log α 1/β n 1. Daher divergier die Reihe n=2 P (B n B n 1 > β 1 u( n. Nach Definiion der Brownschen Bewegung sind die Zuwächse B n B n 1 unabhängig. Nach dem zweien Borel-Canelli-Lemma gil also P (lim sup{b n B n 1 > β 1 u( n } = P (B n B n 1 > β 1 u( n unendl. of = 1. n Da B nach Saz 1.7 ebenfalls eine Brownsche Bewegung is, können wir den ersen Teil des Beweises auf diesen Prozess anwenden und erhalen P (B n 1 > (1 + εu( n 1 für fas alle n = 1.

2 1 STOCHASTISCHE PROZESSE Also besiz das Ereignis ( B n > u( n β 1 (1 + ε u( n 1 u( n unendlich of Wahrscheinlichkei 1. Wegen Daher gil lim sup folg schließlich u(n u( n 1 α folg P (B n > (β 1 (1 + εα 1/2 u( n unendlich of = 1. B u( β 1 (1 + εα 1/2 f.s. Durch Grenzübergang α lim sup B u( 1 f.s., zusammen mi dem ersen Teil also die Behaupung. Aufgabe 11. Sei B eine Brownsche Bewegung. Dann gil B a lim sup = 1 f.s. 2 log log(1/ B b lim inf = 1 f.s. 2 log log(1/ B c lim sup +s B s = 1 f.s. 2 log log(1/ Aufgabe 12. Für fas alle Pfade einer Brownschen Bewegung B gil: Jeder Punk in [ 1, 1] is Häufungspunk von B / 2 log log. Ferner wird jeder Punk in ( 1, 1 unendlich of besuch. Nun wie versprochen die Unersuchung auf die lokale Hölder-Seigkei Brownscher Pfade mi Exponen γ = 1/2. Proposiion 1.26. Sei B eine Brownsche Bewegung. Für jedes gil lim sup u B +u B u = f.s. Fas alle Pfade von B sind also in nich lokal Hölder-seig mi Exponen 1 2. Beweis. Nach Aufgabe 11c gil lim sup u B +u B = 1 f.s. Da auch ( B +u + 2u log log(1/u 2u log log(1/u B B eine Brownsche Bewegung is, folg lim inf +u B u = 1 f.s. Der B größe Häufungspunk von +u B für u is also f.s. gleich 1. Außerdem 2u log log(1/u konvergier lim sup u 2u log log(1/u u = 2 log log(1/u für u gegen unendlich. Wir erhalen ( B +u B B+u B = lim sup u 2u log log(1/u u 2u log log(1/u u ( ( B+s B = lim sup 2 log log(1/s u s u 2s log log(1/s ( ( B+s B 2 log log(1/u. 2s log log(1/s lim u sup s u

21 Die reche Seie is f.s. unendlich groß, daher folg lim sup u B +u B u = f.s. Die berachee Folge is also f.s. nach oben unbeschränk. Für feses gil ferner B r B s B sup s B sup r,s [,,r s r s s> s B +u B = sup = f.s., u> u fas alle Pfade einer Brownschen Bewegung sind also in nich lokal Hölder-seig mi Exponen 1 2. 2 Sochasische Inegraion 2.1 Das Sieljes-Inegral Der erse Schri auf unserem Weg zum Iô-Inegral soll in der Einführung des Sieljes-Inegrals besehen. Zunächs möche ich an die Definiion des Lebesgue- Sieljes-Maßes erinnern: Definiion 2.1. Ein Lebesgue-Sieljes-Maß auf R is ein Maß µ auf B mi µ(i < für alle beschränken Inervalle I R. In Kapiel 4 der Sochasik I haben wir bereis gesehen, dass zu jeder rechsseigen und monoon wachsenden Funkion F : R R ein Lebesgue-Sieljes-Maß µ F auf B mi µ F ((a, b] = F (b F (a exisier. Definiion 2.2. Das Lebesgue-Inegral einer µ F -inegrierbaren Funkion g bezüglich des Lebesgue-Sieljes-Maßes µ F heiß Sieljes-Inegral. Verzichen wir auf die Monoonie, sei also A : [, R lediglich rechsseig, so exisier immer noch ein signieres Maß µ A auf B [, mi µ A ([, ] = A(. Sa A( schreiben wir ab jez A. Definiion 2.3. Sei eine Zerlegung = < 1 < < n = des Inervalls [, ]. Die Variaion einer rechsseigen Funkion A : [, R auf [, ] is V := sup V mi V := n A i A i 1. Den Wer := sup,...,n i i 1 bezeichnen wir als Feinhei der Zerlegung. Definiion 2.4. Eine rechsseige Funkion A : [, R heiß von endlicher Variaion, wenn V < für alle >. Bemerkung 2.1. Eine rechsseige monoon wachsende Funkion A is von endlicher Variaion. Wir erhalen direk Proposiion 2.1. Eine Funkion A : [, R von endlicher Variaion is die Differenz zweier monoon wachsender Funkionen. Beweis. Schreibe A = 1(V + A 1 (V A. 2 2

22 2 STOCHASTISCHE INTEGRATION Bemerkung 2.2. (i Die soeben präseniere Zerlegung ensprich der Hahn-Jordan- Zerlegung aus Kapiel 7 der Sochasik I, bei der ein signieres Maß in Posiiv- und Negaiveil zerleg wird. (ii Umgekehr is die Differenz zweier monoon wachsender Funkionen A und B von endlicher Variaion. Nun sind wir berei, das Sieljes-Inegral auf Inegraoren zu erweiern, die von endlicher Variaion sind. Definiion 2.5. Is f lokal (d.h. auf jedem Inervall [, ], beschränk und A : [, R rechsseig und von endlicher Variaion, so is das Sieljes-Inegral definier durch (f A := f s da s := f dµ A. Aufgabe 13. Seien f und g lokal beschränk, A und B von endlicher Variaion und α, β R. Dann sind auch βa und A + B von endlicher Variaion, und es gil (αf + g (βa + B = αβ(f A + α(f B + β(g A + g B. Das Sieljes-Inegral is also linear in Inegrand und Inegraor. Aufgabe 14. a Sei B : [, R rechsseig mi B = und V die Variaion von B. Zeigen Sie, dass gil B V. b Sei B nun von endlicher Variaion V. Ferner seien A n, A und D Funkionen von n [, nach R mi A n A punkweise, A n D und D V <. Dann gil A n B n A B (,] punkweise. Bemerkung 2.3. In Aufgabe 14 lernen wir u.a. die Abschäzung (A B ( A V kennen. Das Inegral f A is also ebenfalls von endlicher Variaion. Mi den Noaionen A := lim s A s und A = A A können wir einige Eigenschafen des Sieljes-Inegrals formulieren. Proposiion 2.2 (Parielle Inegraion. Sind A : [, R und B : [, R rechsseige Funkionen von endlicher Variaion, dann gil A B = A B + (A B + (B A. Beweis. Seien µ A bzw. µ B die zu A bzw. B gehörenden signieren Maße. Dann gil und A B = µ A ([, ] µ B ([, ] = (µ A µ B ([, ] [, ] A B = µ A ({} µ B ({} = (µ A µ B ({(, }. Nach Definiion des Sieljes-Inegrals ergib sich ferner (A B = µ A ([, s] µ B (ds = (µ A µ B ({(r, s : r s, s (, ]} und (B A = (,] (,] µ B ([, r] µ A (dr = (µ A µ B ({(r, s : s < r, r (, ]}.

2.1 Das Sieljes-Inegral 23 Bemerkung 2.4. Die Bildung des Sieljes-Inegrals is assoziaiv, d.h. es gil (AB C = A (B C. Proposiion 2.3 (Keenregel. Sei F seig differenzierbar und A seig und von endlicher Variaion. Dann is F (A seig und von endlicher Variaion, und es gil: F (A = F (A + (F (A A. Beweis. F (A is als Komposiion seiger Funkionen ebenfalls seig. Sei = < 1 < < n = eine Zerlegung des Inervalls [, ] und V = n F (A i F (A i 1. Da F seig differenzierbar is, exisieren nach dem Mielwersaz der Differenialrechnung Were ξ i zwischen A i 1 und A i, so dass F (A i F (A i 1 = F (ξ i (A i A i 1. Aufgrund des Zwischenwersazes exisieren s i [, ] mi A si = ξ i. Da die seige Funkion F (A auf dem kompaken Inervall [, ] beschränk is, exisier eine Konsane C mi F (A i F (A i 1 = F (A si A i A i 1 C A i A i 1. Bezeichne Ṽ die Variaion von A auf [, ], so erhalen wir die Abschäzung n sup V C sup A i A i 1 = CṼ <. F (A is also von endlicher Variaion. Die behaupee Gleichung beweisen wir in mehreren Schrien: 1. Schri: Die Behaupung gil für die Funkion F (x = x, denn A = A + (A A = A + µ A ((, ] = A + dµ A = A + (1 A. 2. Schri: Wir wollen zeigen: Is die Behaupung für F (x richig, dann gil sie auch für xf (x. Nach der Produkregel der Differeniaion gil (xf (x = F (x+xf (x. Aufgrund der Lineariä des Sieljes-Inegrals is also zu zeigen: Nach Proposiion 2.2 gil einerseis (,] AF (A = A F (A + F (A A + (AF (A A. AF (A = A F (A + A F (A + F (A A. Andererseis liefer die Keenregel F (A = F (A + F (A A, also aufgrund der Assoziaiviä und Lineariä des Inegrals ( A F (A = A F (A + A (F (A A = (AF (A A. Durch Einsezen von ( in ( folg AF (A = A F (A + F (A A + (AF (A A. Die Behaupung gil also für alle Monome F (x = x k und wegen Lineariä auch für alle Polynome. 3. Schri: Nach dem Approximaionssaz von Weiersraß läss sich jede seig differenzierbare Funkion F auf einem kompaken Inervall gleichmäßig durch Polynome approximieren. Mi Aufgabe 14 folg die Behaupung. (

24 2 STOCHASTISCHE INTEGRATION Leider is die Brownsche Bewegung nach Korollar 1.1 in Abschni 1.3 auf jedem Inervall f.s. von unendlicher Variaion, der hier eingeführe Inegralbegriff is also nich auf die Brownsche Bewegung anwendbar. Gerade an einem solchen Inegral sind wir aber ineressier. Da sich das Sieljes-Inegral auch nich auf die Brownsche Bewegung erweiern läss, müssen wir in den nächsen Abschnien das Iô-Inegral einführen, um bzgl. der Brownschen Bewegung inegrieren zu können. 2.2 Lokale Maringale und quadraische Variaion Sei (F eine rechsseige und vollsändige Filraion. Definiion 2.6. Ein Prozess M heiß lokales Maringal (bzgl. (F, wenn er adapier is und Soppzeien τ n exisieren, so dass M τn M ein Maringal (bzgl. (F τn is. Dabei is M τ definier durch M τ := M τ. Man sag, die Soppzeien τ n lokalisieren M zu einem seigen Maringal. Aufgabe 15. Sei S eine Soppzei und X ein seiger Prozess. Dann is der gesoppe Prozess X S ein Maringal bezüglich (F S genau dann, wenn X S ein Maringal bezüglich (F is. Aufgabe: Seien X und Y lokale Maringale bezüglich einer Filraion (F und Z eine F -messbare Zufallsvariable. Dann sind auch X +Y und ZX lokale Maringale. Bemerkung 2.5. Is M ein seiges lokales Maringal, dann läss sich M durch τ n = inf{ : M n} oder jede andere Folge τ n τ n von Soppzeien mi τ n zu einem seigen beschränken Maringal lokalisieren. Beweis. Sei X = M M und (σ n n N eine Folge von Soppzeien, die M lokalisieren. Für s < liefer der Saz über opional Sampling (in der Version für seige Zeien angewand auf das Maringal X σn E(X σn τ m F s σ n τ m = X s σ n τ m, X σn τ m is also ein (F σn τ m -Maringal. Nach Aufgabe 15 is dann Xσn τ m ein (F -Maringal, d.h. E(X σn τ m F s = X σn τ m s. Für n gil σ n, also X σn τ m s X τ m s. Nach Definiion von τ m gil außerdem X τm = X τm 2m und wegen σ n τ m τ m auch X σn τ m = X σn τ m 2m. Mi dem Saz über dominiere Konvergenz für bedinge Erwarungswere erhalen wir also E(X τ m F s = X τ m s. Folglich is X τ m = M τ m M für jedes m ein Maringal bezüglich (F, die Soppzeien τ m lokalisieren also M. Aufgabe 16. Zeigen Sie, dass jedes nach unen beschränke lokale Maringal M mi EM < ein Supermaringal is. Proposiion 2.4. Is M ein seiges lokales Maringal von endlicher Variaion, dann gil M = M f.s.

2.2 Lokale Maringale und quadraische Variaion 25 Beweis. Sei V die Variaion von M auf [, ]. Man kann zeigen, dass V seig und adapier is. Sei weier τ n = inf{ : V n}. Nach Bemerkung 2.5 is der gesoppe Prozess M τn M ein beschränkes Maringal. Daher können wir Œ annehmen, dass M ein seiges Maringal mi V c für alle und M = is. Für eine Folge n von Zerlegungen des Inervals [, ] mi n folg aus der Seigkei von M ζ n = n (M i M i 1 2 V max n M i M i 1. Wegen ζ n V 2 c 2 liefer der Saz über dominiere Konvergenz Eζ n. Da M ein Maringal is, gil für s < Hiermi erhalen wir EM 2 E((M M s 2 F s = E(M 2 F s M 2 s = E(M 2 M 2 s F s. [ n ] [ n ] = E (M 2 i M 2 i 1 = E (M i M i 1 2 = Eζ n. Also muss EM 2 gleich Null sein, was wiederum M = f.s. implizier. Da beliebig war, is M = mi Wahrscheinlichkei Eins für alle raionalen. Durch die Seigkei folg das gewünsche Resula. Ineressan is auch die Aussage Proposiion 2.5. Ein beschränkes lokales Maringal is ein Maringal. Beweis. Sei (M, F ein lokales Maringal, und es gebe eine Konsane K mi M K für alle. Insbesondere is dann jedes M inegrierbar. Sei ferner (τ n n N eine Folge von Soppzeien, die M zu einem Maringal lokalisier. Nach Aufgabe 15 gil E(M τn F s = Ms τn. Aufgrund der Beschränkhei des lokalen Maringals is der Saz über dominiere Konvergenz für bedinge Erwarungswere (vgl. Sochasik I anwendbar. Er liefer E(M F s = lim E(M τn n F s = lim n M τn s = M s. In Aufgabe 65 der Sochasik I haben wir schon gesehen, dass es zu einem quadrainegrierbaren Maringal M n eine Folge von F n 1 -messbaren und in n wachsenden Zufallsvariablen A n mi A = gib, so dass Xn 2 A n ein Maringal is. Die A n sind zudem f.s. eindeuig, denn: Wenn B n die gleichen Eigenschafen besiz, dann is A n B n = Xn 2 B n Xn 2 + A n ein Maringal. Ferner is A n B n F n 1 -messbar. Daher gil A n B n = E(A n B n F n 1 = A n 1 B n 1 f.s. Ierieren liefer A n B n = A B = f.s. Nun sind wir an einer ähnlichen Aussage für seige lokale Maringale ineressier.

26 2 STOCHASTISCHE INTEGRATION Saz 2.6. Is M ein seiges lokales Maringal, so gib es einen f.s. eindeuig besimmen, seigen, monoon wachsenden adapieren Prozess [M] mi [M] =, so dass M 2 [M] ein seiges lokales Maringal is. Definiion 2.7. Den f.s. eindeuig besimmen Prozess [M] aus Saz 2.6 bezeichnen wir als quadraische Variaion. Für den Beweis benöigen wir noch einige Hilfsaussagen: Lemma 2.7. Sei (X k k N ein Submaringal. Für r und n N gil rp (max k n X k r EX n 1 {maxk n X k r} EX + n. Beweis. Durch T := n inf{k : X k r} wird eine Soppzei definier, die durch n beschränk is. Seze B = {max 1 k n X k r} = n k=1 {X k r}. Nach dem Saz über opional sampling und wegen X T r auf B gil E[X n ] E[X T ] = E[1 B X T ] + E[1 B cx T ] rp (B + E[1 B cx n ]. Beache dabei, dass T = n, wenn max 1 k n X k < r. Subrahiere dann E[1 B cx n ] auf beiden Seien. Seze abkürzend X := sup s X s. Proposiion 2.8 (Doob-Ungleichung. Sei M ein rechsseiges Maringal und p, q > 1 mi 1 + 1 = 1. Dann gil p q M p p p 1 M p = q M p. Beweis. Sei zunächs (M k k N ein Maringal. Seze S n := sup k n M k. Gil M n p <, dann sind nach der Jensen-Ungleichung M k p < für alle k n. Also können wir Œ annehmen, dass S n p <. Ferner dürfen wir Œ S n p > annehmen, da sons die Ungleichung rivialerweise erfüll is. Nach Saz 21.1 der Sochasik I is ( M k k N ein Submaringal. Für ein r > folg also mi Lemma 2.7 rp (S n r E[ M n 1 {S n r}]. Der Saz von Fubini und die Hölder-Ungleichung liefern S n p p = p E = p S n r p 1 dr = p E E[ M n 1 {S n r}]r p 2 dr = p E p p 1 E[ M n (S n p 1 ] 1 (,S n ](rr p 1 dr = p [ S n M n r p 2 dr P (Sn rr p 1 dr ] p p 1 M n p (S n p 1 q = q M n p S n p 1 p. Für ein rechsseiges Maringal M in seiger Zei wählen wir D := {} (Q [, ]. Diese Menge is abzählbar und dich in [, ]. Wähle eine Abzählung ( n n N von Q [, ]. Dann is (M In mi I n = { 1,..., n, } ein Maringal mi endlicher Indexmenge, die der Größe nach zu sorieren is. Daher gil sup M s q M p. s I n p