Martingale und Brownsche Bewegung

Größe: px
Ab Seite anzeigen:

Download "Martingale und Brownsche Bewegung"

Transkript

1 Martingale und Brownsche Bewegung Martin G. Riedler Institute for Stochastics, Johannes Kepler University 44 Linz, Austria

2 2

3 Die vorliegenden Unterlagen sind ein Skriptum zur Vorlesung Martingale und Brownsche Bewegung abgehalten im Sommersemester 212 an der Johannes Kepler Universität Linz im Umfang von zwei Semesterwochenstunden. Die Vorlesung präsentiert die Grundlagen um einen allgemeinen Integrationsbegriff bezüglich von Martingalen darauf aufbauend einzuführen, behandelt aber den stochastischen Integrationsbegriff selbst nicht. Der Inhalt der Vorlesung ist zum grössten Teil aus den unten angegebenen Monographien übernommen mit der einen Ausnahme des Kapitels zu Reihenentwicklungen der Brownschen Bewegung. Martin Riedler, Linz am 23. Juli 212 Literaturverzeichnis [EK86] S. N. Ethier and T. G. Kurtz. Markov Processes: Characterization and Convergence. Wiley, New York, [JS87] J. Jacod and A. N. Shiryaev. Limit Theorems for Stochastic Processes. Springer, Berlin, [KS91] I. Karatzas and S. E. Shreve. Brownian Motion and Stochastic Calculus, 2nd Ed. Springer, New York, [Mét82] M. Métivier. Semimartingales. degruyter, Berlin, [Pro4] P. E. Protter. Stochastic Integration and Differential Equations, 2nd Ed. Springer, Berlin, 24. [RY99] D. Revuz and M. Yor. Brownian Motion and Stochastic Calculus, 3rd Ed. Springer, Berlin,

4 4

5 Inhaltsverzeichnis 1 Stochastische Prozesse 7 2 Die Brownsche Bewegung Existenz der Brownschen Bewegung Pfadeigenschaften der Brownschen Bewegung Verwandte Prozesse Reihenentwicklung der Brownschen Bewegung Satz von Levy-Ciesielski und die Paley-Wiener Entwicklung Karhunen-Loève Entwicklung Martingale Martingalungleichungen Regularitätsatz für Submartingale Martingalkonvergenzsätze Optional Stopping Theorem Die Doob-Meyer Zerlegung & die quadratische Variation Erweiterungen des Konzepts der quadratischen Variation Schwache Konvergenz von Martingalen A Gleichgradige Integrierbarkeit 71 5

6 6 INHALTSVERZEICHNIS

7 Kapitel 1 Stochastische Prozesse Wir behandeln kurz die grundlegenden Definitionen bezügich der Theorie stochastischer Prozesse in stetiger Zeit. Das Kapitel ist eine Zusammenfassung und ersetzt nicht eine detaillierte Einfhrung. Das Hauptziel ist die Terminologie und Notation für die späteren Überlegungen zu fixieren. Im folgenden sei (Ω, F, P) stets ein Wahrscheinlichkeitsraum, dieser heißt vollständig, falls die σ-algebra F jede Teilmenge aller P-Nullmengen enthält, d.h., B F mit P(B) = und A B impliziert A F. Eine Eigenschaft von Abbildungen auf einem Wahrscheinlichkeitsraum gilt fast sicher (f.s.) falls eine messbare Menge Ω Ω existiert sodass diese Eigenschaft für alle ω Ω gilt und P(Ω c ) =, d.h., die Eigenschaft gilt bis auf höchstens einer Nullmenge. Ein stochastischer Prozess X = (X t ) t I ist eine Familie von Zufallsvariablen 1 X t : Ω E definiert auf dem Wahrscheinlichkeitsraum (Ω, F, P) mit Werten in einem messbaren Raum (E, E), genannt Zustandsraum, und Indexmenge I. Ein stochastischer Prozess heißt diskret oder zeit-diskret wenn I R + höchstens abzählbar ist, z. B., I = N, und kontinuierlich oder zeit-stetig falls I R + überabzählbar ist, z. B., I = [, T ] R + oder I = R +. Ein Prozess heißt reell falls sein Zustandsraum die reellen Zahlen ausgestattet mit der Borel-σ-Algebra ist, in Zeichen (E, E) = (R, B R ). Wir werden nachfolgend ausschließlich kontinuierliche, meist reelle Prozesse behandeln. Im Folgenden bezeichnet daher die Indexmenge I immer eine überabzählbare Menge. Sei p 1, dann heißt ein stochastischer Prozess X p-fach integrierbar, falls E X t p < für alle t I. Im Falle p = 1 oder p = 2 heißt der Prozess integrierbar bzw. quadratintegrierbar. Ein Prozess X besitzt unabhängige Inkremente (Zuwächse) falls für alle t 1 t 2 t 3 t 4 die Inkremente X t2 X t1 und X t4 X t3 unabhängig sind und er besitzt stationäre Inkremente falls für alle t, h die Verteilung der Inkremente X t+h X t nur von h 1 Wir verwenden den Begriff Zufallsvariable wie in der Stochastik üblich als Synonym für messbare Abbildung. 7

8 8 KAPITEL 1. STOCHASTISCHE PROZESSE abhängt und unabängig von t ist. 2 Ein Prozess X heißt stationär falls (X t1,..., X tn ) und (X t1 +h,..., X tn +h) für alle h dieselbe Verteilung besitzen für alle endlich-vielen Indices t 1,..., t n I. Neben der Interpretation eines stochastischen Prozesses als eine Familie von Zufallsvariable sind auch noch folgende Interpretationen möglich und theoretisch wichtig. Einerseits können wir X als eine Abbildung der beiden Argument (t, ω) betrachten, d.h., als Abbildung X : I Ω E auffassen und andererseits, können wir die Familie (X t ) t I als eine Zufallsvariable mit Werten in E I ausgestattet mit der Produkt-σ-Algebra E I betrachten, d.h., als messbare Abbildung X : Ω E I in die Menge der Pfade. Pfadeigenschaften stochastischer Prozesse: Sei X ein stochastischer Prozess, dann heißt für jedes fixe ω Ω die Abbildung t X t (ω) eine Trajektorie oder ein Pfad des Prozesses. Ein Prozess heißt (f.s.) (rechts-/links-)stetig falls (fast alle) Trajektorien (rechts-/links-)stetig sind. Ein Prozess heißt càdlàg falls er überall (!), d.h., für alle ω Ω, rechts-stetig ist und seine linken Limiten existieren. 3 Ein Prozess X ist (f.s.) lokal Hölderstetig mit Exponent γ >, falls für jedes T > eine (f.s.) positive Zufallsvariable h existiert und eine Konstante L <, sodass X t (ω) X s (ω) sup L für (fast) alle ω Ω. < t s <h(ω), t s γ t,s [,T ] Dies ist äquivalent zu der Bedingung, dass für (fast) alle ω Ω gilt X t (ω) X s (ω) L t s γ t, s [, T ] mit t s < h(ω). Umgekehrt gilt, ein Prozess ist (f.s.) nirgends lokal Hölderstetig mit Exponent γ, falls kein T > existiert, sodass obige Bedingung (f.s.) erfüllt ist. (Lokale) Hölderstetigkeit mit Exponent γ = 1 ist (lokale) Lipschitzstetigkeit. Die nachfolgenden Grössen, die sich aus den Pfaden bestimmen, beschreiben deren Oszillationsverhalten. Eine Partition oder Zerlegung P [a,b] eines Intervalls [a, b] ist eine Menge von Punkten t,..., t n [a, b] mit a = t t 1... t n = b und P [a,b] = max i t i t i 1 ist die Feinheit der Partition, wobei hier und immer in Verbindung mit Partitionen der Index i einmal die Anzahl der Elemente (ohne t ) durchläuft. Im folgenden sei X ein zeit-stetiger stochastischer Prozess, dann heißt für [a, b] I die Größe V p [a,b](x) = sup P [a,b] i X ti X ti 1 p 2 Diese Bedingung heißt oft auch stark stationär im Gegensatz zu schwach stationär welche nur die Gleichheit der der ersten beiden Momente fordert. 3 Das Gegenteil ist càglàd falls der Prozess linksstetig mit existierenden rechten Limiten ist.

9 die totale p-variation über [a, b] des Prozesses. Das Supremum wird hier über alle Partitionen des Intervalls [a, b] genommen. Die totale Variation entspricht pfadweise dem klassischen Variationskonzept der Analysis. Falls V p [a,b](x) < (f.s.) für alle endlichen Intervalle [a, b] I dann ist der Prozess von (f.s.) endlicher totaler p-variation. Falls p = 1, dann sprechen wir einfach von der totalen Variation. Ein zweites, stochastisches Variationskonzept ist das folgende. Wir bezeichnen die stochastische Grösse L p [a,b] := p-lim P [a,b] X ti X ti 1 p, falls dieser Grenzwert 4 existiert, als p-variation über [a, b], wobei der Grenzwert als Limes in Wahrscheinlichkeit für beliebige Folgen von Partitionen deren Feinheit gegen konvergiert zu interpretieren ist und unabhängig von der Wahl der Folge zu sein hat. Falls p = 2 sprechen wir von der quadratischen Variation. i 9 Äquivalenzbegriffe zwischen Stochastischen Prozessen Der einfachste aber zu restriktive Begriff der Äquivalenz ist falls zwei Prozesse X, Y dieselbe Abbildung auf I Ω definieren, d.h., X t (ω) = Y t (ω) für alle (ω, t) Ω I. Diese Äquivalenzauffasung kann unter Beiziehung eines Wahrscheinlichkeitsmasses P in dreifacher Weise zu passenderen Konzepten abgeschwächt werden. 5 Zwei Prozesse X und Y mit Werten in E definiert auf den Wahrscheinlichkeitsräumen (Ω, F, P) und (Ω, F, P ), sind Versionen voneinander falls sie dieselben endlich-dimensionalen Verteilungen besitzen, d.h., P [ ] X t1 A 1,..., X tn A [ ] n = P Y t1 A 1,..., Y tn A n für alle messbaren Mengen A i E und alle endlichen Mengen von Indices {t 1,..., t n } I. Falls die Prozesse X, Y auf dem selben Wahrscheinlichkeitsraum definiert sind und für alle t I gilt, dass P[X t = Y t ] = 1, dann heißen sie Modifikationen voneinander. Schlussendlich die beiden Prozesse sind ununterscheidbar falls P[X t = Y t t I] = 1, d.h., Trajektorien unterscheiden sich nur auf einer Nullmenge. Im falle diskreter Prozesse sind die Begriffe Modifikation und ununterscheidbar äquivalent. Im Allgemeinen gelten zwischen den Äquivalenzbegriffen die Beziehungen X, Y ununterscheidbar = X, Y Modifikationen = X, Y Versionen 4 Wir verwenden die Notation p-lim und qm-lim um Konvergenz in Wahrscheinlichkeit und Konvergenz im Quadratmittel zu bezeichnen, d.h., p-lim n X n = X ɛ > : lim n P[ X n X > ɛ] =, bzw., qm-lim n X n = X lim n E X n X 2 = 5 Alle drei sind Äquivalenzrelationen auf einer passenden Menge von Prozessen.

10 1 KAPITEL 1. STOCHASTISCHE PROZESSE und umgekehrt X, Y Modifikationen, X, Y f.s. rechts- oder linksstetig = X, Y ununterscheidbar. Aus diesen Eigenschaften folgt, dass die Äquivalenzklasse der Modifikationen eines Prozesses (bis auf Ununterscheidbarkeit) höchstens einen f.s. (rechts-/links-)stetigen Prozess enthält. Daher sagen wir f.s. (rechts-/links-)stetige Prozesse sind bis auf Unuterscheidbarkeit eindeutig definiert. Pfadeigenschaften bleiben nicht unter Modifikationen erhalten. Oft sucht man jene Modifikation, die gute Pfadeigenschaften hat. Durch Abänderung eines Prozesses auf der Nullmenge zu (rechts-/links-)stetigen Pfaden können wir immer einen (rechts-/links-)stetige ununterscheidbaren Prozessen erhalten. Die beiden schwächeren Äquivalenzbegriffe sind für die Anwendungen überaus wichtig, da sehr oft durch physikalische Überlegungen und Experimente nur Aussagen über die endlich dimensionale Verteilungen getroffen werden können. Prozesse in diesen Äquivalenzklassen können sehr unterschiedliche Pfadeigenschaften besitzen und daher kann man sich zur mathematischen Behandlung aus dieser Klasse jenen Prozess wählen, der bestmögliche Pfadeigenschaften besitzt. Abschließend sei noch einmal darauf hingewiesen, dass Versionen, Modifikationen und Ununterscheidbarkeit bezüglich eines bestimmten Masses definiert sind und diese Eigenschaften nicht erhalten bleiben müssen, wählt man eine anderes Mass. Kanonische Wahrscheinlichkeitsräume Wie bereits erwähnt gibt es auf Grund von Beobachtungen oft nur Aussagen über die endlich dimensionalen Verteilung Stochastischer Prozesse und es stellt sich vor all bei kontinuierlichen Modellen zuallererst die Frage der Existenz eines Stochastischen Prozesses, der diese endlich-dimensionalen Verteilungen besitzt. Wir betrachten nun nur kontinuierliche Indexmengen I, da die folgenden Probleme bei diskreten Prozessen nicht auftreten. Existiert ein Prozess, dann kann er als Zufallsvariable mit Werten im messbaren Raum (E I, E I ) aufgefasst werden und seine Verteilung induziert ein Bildmass darauf. Um die Existenz eines Prozesses zu zeigen, ist es nun ausreichend die Existenz dieses Masses auf dem Raum (E I, E I ) zu zeigen. Dieser Raum aller möglichen Pfade nimmt den Platz des unspezifizierten Wahrscheinlichkeitsraumes (Ω, F, P) ein und heißt daher kanonischer Wahrscheinlichkeitsraum. Auf dem kanonische Raum ist ein stochastischer Prozess durch die Familie der Koordinatenabbildungen ζ t : E I E : ω ζ t (ω) := ω(t), t I definiert und dieser heißt kanonischer Prozess. Die Produkt-σ-Algebra E I ist per definitionem die von den Koordinatenabbildungen erzeugte σ-algebra. Eine Antwort auf die Existenzfrage liefert der folgende Satz von Kolmogorov. Zuvor bemerken wir das eine Familie endlich-dimensionaler Verteilungen (P J ) J I, J < projektiv ist, falls für J = (t 1,..., t n ) und jede Permutation π von {1,..., n} P (t 1,...,t n) ( A 1... A n ) = P (t π(1),...,t π(n) ) ( A π(1)... A π(n) ) und P (t 1,...,t n) ( A 1... A n 1 E ) = P (t 1,...,t n 1 ) ( A 1... A n 1 )

11 gilt. Hier sind die endlich-dimensionale Verteilungen eine Familie von Wahrscheinlichkeitsmassen auf der Familie der Produkträume E ti... E tn für alle endlich dimensionalen Teilmengen {t 1,..., t n } I. Es ist leicht zu überprüfen, dass die endlich-dimensionalen Verteilungen eines Prozesses eine projektive Familie sind und der folgenden Satz ist in gewissem Sinne die Umkehrung dieser Aussage und liefert die Existenz eines stochastischen Prozesses zu einer gegebenen Familie von endlich-dimensionalen Verteilungen. Satz 1.1 (Kolmogorov-Existenz Satz). Sei (E, E) ein Polnischer Raum 6 zusammen mit seiner Borel-σ-Algebra. Dann existiert für jede Indexmenge I und jede projektive Familie von endlich-dimensionalen Verteilungen genau ein Wahrscheinlichkeitsmass P auf (E I, E I ), dessen Randverteilungen mit den gegebenen endlich-dimensionalen Verteilungen übereinstimmen, d.h., für beliebige endlich viele Indices t i und messbare Mengen A i gilt P [ ζ t1 A 1,..., ζ tn A n ] = P (t 1,...,t n ) ( A 1... A n ). Ein schwerwiegender Nachteil dieser Konstruktion ist, dass die Produkt-σ-Algebra E I nur Mengen enthält, die durch abzählbar viele Koordinaten festgelegt sind. Daher treten Messbarkeitsprobleme immer dann auf, wenn man Eigenschaften oder Funktionale des Prozesses betrachtet, die von überabzählbar vielen einzelnen Zufallsvariablen abhängen. Das prominenteste Beispiel unter diesen ist die Nicht-Messbarkeit der Menge {ω E I : t ζ t (ω) ist stetig} im kanonischen Wahrscheinlichkeitsraum und analog, wenn nach, z.b., der Beschränktheit oder Differenzierbarkeit der Pfade gefragt wird. Ähnliche Probleme treten auch auf, wenn man für beliebige Prozess die Abbildungen τ(ω) := inf{t > : X t (ω) > }, lim s t X s (ω), sup s t X s (ω) betrachtet. Hier kann man im Allgemeinen nicht davon ausgehen, dass diese Ausdrücke wohldefiniert oder messbar sind. Diese letzteren Probleme können behoben werden, falls man (f.s.) (rechts-/links-)stetige Prozesse betrachtet, da man nun Funktionale überabzählbar vieler Zufallsvariablen oft auf Funktionale auf dichten, abzählbaren Mengen, z.b., Q, zurückführen kann. Es bleibt aber weiterhin das Problem zu zeigen, dass der Prozess derartige Pfade besitzt. Auf Grund der Nicht-Messbarkeit der Menge der stetigen Pfade in (E I, E I ), kann man nicht einfach vorgehen und zeigen, dass die Menge der unpassenden Pfade eine Nullmenge ist. Um diese Schwierigkeit vorerst zu umgehen, schwächen wir den Begriff fast sicher (nur für den Moment!) ab, und sagen ein kanonischer Prozess ist f. s. (rechts-/links-)stetig falls jeder messbaren Menge in E I, die alle (rechts-/links-)stetigen Pfade enthält, Mass 1 zugewiesen wird. 7 Ein einfaches, allgemeines Kriterium zur Überprüfung der Stetigkeit liefert der folgende Satz. 6 Ein topologischer Raum heißt polnisch, falls er vollständig metrizierbar und separabel ist, vor allem gilt, jeder polnische Raum ist ein Borelraum. 7 Zur genaueren Unterscheidung wird eine derartige Menge auch wesentlich für des Wahrscheinlichkeitsmass genannt werden. 11

12 12 KAPITEL 1. STOCHASTISCHE PROZESSE Satz 1.2 (Kolmogorov-Centsov Stetigkeits Kriterium). Existieren für einen reellen Prozess X drei Konstanten α, β, C >, sodass E X t X s α C t s 1+β für alle t, s gilt, dann besitzt X eine f.s. stetige Modifikation. Diese ist f.s. lokal Hölder-stetig mit Exponent γ für alle γ (, β/α). Bemerkung 1.1. Man kann sogar zeigen, dass der Prozess eine überall stetige Modifikation besitzt. Dazu ändert man die f.s. stetige Modifikation so ab, dass man alle nicht-stetigen Pfade konstant gleich setzt und dann lässt sich zeigen, dass dieser überall stetige Prozess ebenfalls eine Modifikation ist. Um f.s. (rechts-)stetige Prozesse besser behandeln zu können ist der kanonische Raum (E I, E I ) meist nur ein Zwischenschritt und wird nachdem die Existenz eines Prozesses gesichert ist durch einen besser geeigneten Raum ersetzt. Im folgenden Bezeichnen wird mit D(I, E) und C(I, E) die Menge der rechtsstetigen, bzw., stetigen Pfade von I nach E, die klarerweise Teilmengen von E I sind. Ausgestattet mit der jeweiligen Spur-σ-Algebra von E I werden beide zu messbaren Räumen. Die Spur-σ-Algebra entspricht auch der von den Koordinatenabbildungen von D(I, E) bzw. C(I, E) nach E erzeugten σ-algebra. Sind die Pfade eines Prozesse f.s. (rechts-)stetig, dann erhält man durch die Einschränkung eines Masses auf E I auf diese Räume eindeutig(!) ein Wahrscheinlichkeitsmass, trotzdem beide Mengen nicht messbare Teilmengen von E I sind. Die resultierenden Wahrscheinlichkeitsräume bestehen wiederum aus einer Menge von Funktionen und dazugehörigen Koordinatenabbildungen und sind daher auch kanonische Räume. Die kanonische Version eines Prozesses ist eine Version, die auf einem (passenden) kanonischen Raum definiert. Jeder Prozess besitzt eine eindeutige kanonische Version. Somit gilt allgemein ein Prozess auf einem beliebigen Raum (Ω, F, P) ist f.s. (rechts-/links-)stetig (im normalen Sinn) wir können getrost annehmen, dass, z.b., {ω Ω : X(ω) C(R +, E)} F falls seine kanonische Version f.s. (rechts-/links-) stetig im neuen Sinne ist. Filtrationen Eine Familie von Teil-σ-Algebren F t, t I, von F, heißt Filtration falls F s F t für s t. Diese heißt vollständig bezüglich P, falls der Wahrscheinlichkeitsraum (Ω, F, P) vollständig ist und F alle P-Nullmengen in F enthält. Die Vollständigkeit der Filtration ist eine Eigenschaft bezüglich eines bestimmten Masses und muss nicht erhalten bleiben wird ein beliebiges anderes Mass gewählt. Sei N P die Menge aller P-Nullmengen in F, dann ist die Augmentierung einer Filtration jene Filtration bestehend aus den den σ-algebren Ft P := F t N P. Ist F eine vollständige σ-algebra, dann ist die augmentierte Filtration eine vollständige Filtration und auch jede σ-algebra Ft P ist vollständig. Daher ist es immer möglich auf einem vollständigen Wahrscheinlichkeitsraum aus einer beliebigen Filtration eine vollständige Filtration zu erhalten. Die augmentierte Filtration ist im Allgemeinen größer als die Filtration, die man erhält,

13 wenn man jede σ-algebra einzeln vervollständigt. Die Filtration, die man durch diese Prozedur erhält, heißt Vervollständigung. Sei Nt P die Menge der P-Nullmengen in F t dann ist die Vervollständigung einer Filtration jene Filtration bestehend aus den σ-algebren F P t := F t Nt P. Es gilt F P t Ft P und diese Inklusion kann strikt sein. Caveat: Es gilt aber das unter Umständen die Vervollständigung einer Filtration keine vollständige Filtration liefert! Zu gegebener Filtration definieren wir die σ-algebren F t := s<t F s für alle t I mit F = F und F = s I F s und F t+ := ɛ> F t+ɛ für alle t I. Eine Filtration (F t ) t I heißt links-stetig falls F t = F t für alle t I, rechts-stetig falls F t = F t+ für alle t I und stetig falls sie sowohl links- als auch rechts-stetig ist. Die Filtrationen (F t ) t I und (F t+ ) t I sind links- bzw. recht-stetig per definitionem. Ein Wahrscheinlichkeitsraum zusammen mit einer Filtration, in Zeichen, (Ω, F, (F t ) t I, P), heißt filtrierter Wahrscheinlichkeitsraum. Dieser erfüllt die üblichen Bedingungen, falls die Filtration vollständig und rechtsstetig ist. Ein Prozess X heißt an die Filtration (F t ) t I adaptiert, falls für jedes t I die Zufallsvariable X t messbar bezüglich F t ist. Eine Modifikation eines adaptierten Prozesses ist nicht notwendigerweise adaptiert. Ist aber die Filtration vollständig, dann ist jede Modifikation eines adaptierten Prozesses ebenfalls adaptiert. Eine spezielle Filtration ist die von einem Prozess erzeugte natürliche Filtration Ft X := σ(x s, s t), d.h., F t ist die gröbste 8 σ-algebra, sodass alle X s, s t, messbar bezüglich dieser sind. Die natürliche Filtration ist die gröbste Filtration an die ein Prozess adaptiert ist. Falls X ein endlich-dimensionaler reeller, links-stetiger Prozess ist, dann ist die erzeugte Filtration (Ft X ) t links-stetig. Dies gilt aber nicht für Rechts-stetigkeit! Zum Beispiel, eine Brownsche Bewegung ist stetig, aber die erzeugte Filtration ist nicht rechts-stetig. Die augmentierte Filtration eines endlich-dimensionalen, reellen starken Markov Prozesses ist rechts-stetig und ist der Prozess zusätzlich links-stetig dann ist die augmentierte Filtration stetig. Eine weitere wichtige Eigenschaft der augmentierten Filtration ist, das das Augmentieren einer Filtration die starke Markoveigenschaft als auch die Martingaleigenschaft erhält. Somit können wir meist o.b.d.a. annehmen, dass ein derartiger Prozess auf eine Wahrscheinlichkeitsraum definiert ist, der die üblichen Bedingungen erfüllt. Bemerkung 1.2. Viele Eigenschaften von Prozessen, z.b., die Markov- oder Martingaleigenschaft, sind bezüglich einer gewissen Filtration oder σ-algebra definiert. Wir werden im Allgemeinen die Angabe der Filtration weglassen, falls keine Möglichkeit der Verwechslung besteht. Falls doch, werden wir diese einfach als Prefix an das Attribut anhängen. So ist zum Beispiel ein (F t ) t I -adaptierter Prozess ein Prozess X, der an die Filtration (F t ) t I adaptiert ist. 13 Eigenschaften als Abbildung auf Ω I: Ein Prozess X ist messbar, falls die Abbildung X : I Ω E messbar bezüglich der Produkt-σ-Algebra auf I Ω ist. Der Satz von Fubini impliziert, dass Pfade messbarer 8 Sei F, F zwei σ-algebren, sodass F F, dann ist F gröber als F, bzw., F ist feiner als F.

14 14 KAPITEL 1. STOCHASTISCHE PROZESSE Prozesse Borel-messbare Abbildungen auf I sind und ebenso t EX t, falls die Erwartung definiert ist. Weiters gilt die Vertauschbarkeit der Integration, d.h., für I I E X t dt < = X t dt < f.s. und EX t dt = E X t dt. I I Prozess mit rechts- oder links-stetigen Pfaden sind messbar. Die Einführung einer Filtration führt zum folgenden etwas stärkeren Konzept. Ein Prozess X heißt progressiv messbar falls für alle t I die Zufallsvariablen X s, s t, B [,t] F t -messbar sind. Progressivität impliziert Adaptivität und Messbarkeit. Umgekehrt gilt, adaptierte, rechts- oder links-stetige Prozesse sind progressiv und ein messbarer, adaptierter Prozess besitzt eine progressiv messbare Modifikation. Weiters, die vorhersehbare σ-algebra P ist die σ-algebra auf Ω I, die von allen linksstetigen, adaptierten Prozessen aufgefasst erzeugt wird. Es kann gezeigt werden, dass diese mit der σ-algebra die von allen stetigen Prozessen erzeugt wird übereinstimmt. Ein P- messbarer Prozess heißt vorhersehbar. Stoppzeiten Eine Zufallsvariable τ mit Werten in R + = R + { } (zufällige Zeit) heißt Stoppzeit bezüglich einer Filtration (F t ) t falls {τ t} F t für alle t R +. 9 Die Stoppzeit heißt (f.s.) endlich falls τ < (f.s.) und (f.s.) beschränkt falls τ T (f.s.) für ein T >. Jede Stoppzeit kann von unten durch eine Folge beschränkter Stoppzeiten, z.b., τ n τ, und von oben durch eine nicht-wachsende Folge von Stoppzeiten, die je nur abzählbare viele Werte annehmen, z.b., τ n τ falls i für i 1 τ < i τ n := 2 k 2 n 2, i N, n für τ =, approximiert werden. Sind τ n, n N, Stoppzeiten und c [, ), dann sind auch I I τ 1 + c, τ 1 c, τ 1 + τ 2, sup n N τ n, min τ k, max τ k n N k n k n Stoppzeiten und, falls die Filtration rechtsstetig ist, sind auch inf τ n, n N lim inf τ n, lim sup n n τ n Stoppzeiten. Ein weitere wichtige Klasse zufälliger Zeiten sind Eintrittszeiten ( hitting times ). Sei X eine adaptierter Prozess mit Werten in einem beliebigen metrischen Raum und B eine Borelmenge, dann ist die zufällige Zeit τ B := inf{t : X t B}, 9 Natürlich ist das Konzept analog für beliebige Indexmengen I definiert.

15 mit inf =, eine Stoppzeit, falls entweder die Menge B offen und die Filtration rechtsstetig ist 1 oder falls die Menge B abgeschlossen und zusätzlich entweder kompakt ist oder der Prozess X linke Limiten besitzt. Erfüllt die Filtration die üblichen Bedingungen und ist der Prozess progressiv messbar, dann ist jede Eintrittszeit eine Stoppzeit. Dieselben Aussage gelten auch für Eintrittszeiten nach einer zufälligen Zeit, d.h. für zufällige Zeiten τ B,σ := inf{t σ : X t B} wobei σ eine beliebige Zufallsvariable in R + ist. Sei τ eine Stoppzeit, dann ist die gestoppte σ-algebra F τ definiert durch F τ := { A F : A {τ t} F t für alle t }. Klarerweise gilt F τ ist eine σ-algebra. Sind τ und σ zwei Stoppzeiten, dann sind τ und τ σ F τ -messbar und falls τ σ dann gilt F τ F σ. Weiters, falls γ eine F τ -messbare Zufallsvariable ist, gilt nun, dass auch τ + γ eine Stoppzeit ist. Sei X ein stochastischer Prozess und τ eine Stoppzeit. Dann definieren wir auf [τ < ] die Abbildung X τ : ω X τ(ω) (ω). Existiert ein Zufallsvariable X o.b.d.a. kann man z.b. immer X konstant wählen, dann kann diese Definition auf ganz Ω ausgedehnt werden. Ist die Stoppzeit f.s. endlich und nimmt nur höchstens abzählbar viele Werte an, dann ist X τ eine Zufallsvariable falls der Prozess X adaptiert ist. Ist die Stoppzeit f.s. beschränkt, aber nimmt überabzählbar viele Werte an, dann ist X τ eine Zufallsvariable falls der Prozess messbar ist. Ist der Prozess progressive messbar, dann ist X τ für eine beliebige Stoppzeit eine Zufallsvariable. Weiters, ist der Prozess X progressiv messbar, dann ist die Zufallsvariable X τ auch messbar bezüglich F τ und der gestoppte Prozess X τ definiert durch Xt τ := X t τ, t, ist ebenfalls progressiv messbar Allgemeiner gilt, dass in diesem Falle τ B eine (F t+ ) t -Stoppzeit ist.

16 16 KAPITEL 1. STOCHASTISCHE PROZESSE

17 Kapitel 2 Die Brownsche Bewegung Wir definieren die Brownsche Bewegung und beweisen die Existenz und Eindeutigkeit eines derartigen Prozesses. Wir analysieren die elementaren (Pfad-)Eigenschaften der Brownschen Bewegung, diskutieren weitere stochastische Prozesse, die sich aus der Brownschen Bewegung gewinnen lassen. Zuletzt präsentieren wir noch Reihendarstellungen der Brownschen Bewegung und beweisen die Karhunen-Loève-Entwicklung. Ein stochastischer Prozess B = (B t ) t wird Brownsche Bewegung oder Wiener Prozess genannt, falls er die folgenden Eigenschaften besitzt: (a) Der Prozess startet fast sicher im Ursprung, d.h., B = fast sicher, (b) besitzt stationäre unabhängig normalverteilte Zuwächsen, d.h., B t B s N(, t s ) und B t2 B t1 unabhängig von B t4 B t3 falls (t 1, t 2 ) (t 3, t 4 ) =, (c) und besitzt fast sicher stetige Pfade. Bemerkung 2.1. Die hier gegebene Definition einer Brownschen Bewegung sowie die Resultate in diesem Kapitel kommen ohne die Angabe einer Filtration aus an welche die Brownsche Bewegung adaptiert ist. Jedoch, in späteren Kapiteln wird eine solche benötigt und in diesem Falle heißt ein Prozess B eine Brownschen Bewegung bezüglich der Filtration (F t ) t falls dieser (a) (c) erfüllt, an die Filtration (F t ) t adaptiert ist und für alle s < t gilt B t B s ist unabhängig von F s. Es ist offensichhtlich, dass diese zusätzlichen Bedingungen bereits die Unabhängigkeit der Inkremente implizieren. Andererseits gilt, dass die Unabhängigkeit der Inkremente impliziert, dass eine Brownsche Bewegung immer eine Brownsche Bewegung bezüglich ihrer natürlichen Filtration (F B t ) t ist. 2.1 Existenz der Brownschen Bewegung Im folgenden ersten Satz zur Brownschen Bewegung beweisen wir deren Existenz und Eindeutigkeit mittels des Satzes von Kolmogorov. Im weiteren Verlauf werden wir noch weitere 17

18 ... A (1) 18 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Möglichkeiten kennenlernen die Existenz und Eindeutigkeit zu beweisen. Klarerweise bezieht sich hier Eindeutigkeit auf die Verteilung der kanonischen Version. Satz 2.1 (Existenz der Brownschen Bewegung). Es existiert genau ein stochastischer Prozess der die Bedingungen (a) (c) erfüllt. Dieser heißt Brownsche Bewegung oder Wiener Prozess. Bemerkung 2.2. Aus dem Beweis folgt, dass die endlich-dimensionalen Verteilungen der Brownschen Bewegung Normalverteilungen sind und für alle t, s gilt B t N(, t) und Cov(B t, B s ) = t s. Beweis. Wir verwenden nun zum Beweis des Satzes den Kolmogorov Existenzsatz und das Kolmogorov-Centsov Stetigkeitskriterium. Als Vorbemerkung zeigen wir, dass die endlichdimensionalen Verteilungen eines Prozesses der (a) (c) erfüllt, multivariat normalverteilt sind: Aus der Unabhängigkeit folgt für s < t, dass (B s, B t B s ) gemeinsam normalverteilt sind und somit auch (1 ; 1 1)(B s, B t B s ) = (B s, B t ) mit Kovarianzmatrix (s s; s t) und somit gilt Cov(B s, B t ) = s t. Analog folgt die gemeinsame Verteilung aller endlichen Vektoren (B t1,..., B tn ). Als nächstes konstruieren wir aus den Eigenschaften (a) und (b) eindeutig eine Familie endlich-dimensionaler Verteilungen bestehend aus Normalverteilungen und um die Existenz und Eindeutigkeit eines Prozesses zu erhalten, ist zu zeigen, dass diese Familie projektiv ist. Die Existenz einer regulären bedingten Erwartung garantiert, dass für t 1 < t 2 P[B t1 A 1, B t2 A 2 ] = P[B t2 A 2 B t1 ] dp Bt1 A 1 wobei P B t 1 die Verteilung von Bt1 bezeichnet. Aus der Unabhängigkeit der Inkremente folgt nun P [ ] B t2 A 2 Bt1 = (2π(t 2 t 1 )) A 1/2 exp ( (x 2 B t1 ) 2 ) dx 2, 2 2(t 2 t 1 ) }{{} =:p(t 2 t 1,x 2 B t1 ) da B t1 + (B t2 B t1 ) B t1 N(B t1, t 2 t 1 ), und somit gilt P[B t1 A 1, B t2 A 2 ] = p(t 2 t 1, x 2 x 1 ) dx 2 p(t 1, x 1 ) dx 1. A 2 A 1 Sei J = {t 1,..., t n } R + dann bezeichnen wir mit (t (1),..., t (n) ) das Tupel der aufsteigend angeordneten Elemente von J und wir bestimmen nach den obigen Überlegungen rekursiv die Familie der endlich dimensionalen Verteilungen P J[ B t1 A 1,..., B tn A n ] = A (n 1) A (n) p(t (n) t (n 1), x n x n 1 ) dx n p(t (n 1) t (n 2), x n 1 x n 2 ) dx n 1... p(t (1), x 1 ) dx 1.

19 2.1. EXISTENZ DER BROWNSCHEN BEWEGUNG 19 Diese Familie ist offensichtlich projektiv, da der Ausdruck in der rechten Seite invariant bezüglich Permutationen ist und es gilt P J[ B t1 A 1,..., B tn R ] = P J\{t n} [ B t1 A 1,..., B tn 1 A n 1 ]. Aus dem Satz von Kolmogorov, Satz 1.1, folgt nun die Existenz eines eindeutigen stochastischen Prozesses B der die Bedingungen (a) und (b) erfüllt. Um schlussendlich die Brownsche Bewegung zu erhalten müssen wir noch zeigen, dass dieser Prozess eine stetige Modifikation besitzt. Damit ist dann die eindeutige Existenz eines Prozesses der zusätzlich auch Eigenschaft (c) erfüllt bewiesen. Dazu bemühen wir das Kolmogorov-Centsov Stetigkeitskriterium, Satz 1.2. Da die Inkremente B t B s einer N(, t s )-Verteilung folgen, erhalten wir aus den bekannten Resultaten betreffend der Momente der Normalverteilung, E B t B s 4 = 3 t s 2 und somit sind die Bedingungen des Kriteriums erfüllt. Als nächstes sammeln wir einige einfache Symmetrieeigenschaften der Brownschen Bewegung, sodass wir durch Transformationen eine Brownschen Bewegung wiederum Brownsche Bewegungen erhalten. Im folgenden sei (Ω, F, P) ein Wahrscheinlichkeitsraum auf dem eine Brownsche Bewegung B definiert ist. (Symmetrie) Der Prozess B t, t, ist eine Brownsche Bewe- Proposition 2.1. (i) gung. (ii) (Homogenität) Der Prozess B s+t B s, t, ist für beliebiges s eine Brownsche Bewegung unabhängig von σ(b u ; u s). (iii) (Skalierung) Der Prozess cb t/c 2, t, ist für beliebiges c > eine Brownsche Bewegung. (iv) (Inversion) Der Prozess definiert durch X = und X t = tb 1/t, t >, ist eine Brownsche Bewegung. Beweis. Die Eigenschaften (i) (iii) sind klar und wir beweisen nur (iv). Aus der Definition gilt die Eigenschaft (a) der Brownschen Bewegung und wir betrachten die Inkremente X t X s. Diese sind normalverteilt, da die endlich-dimensionalen Verteilungen von B normalverteilt sind, mit E(X t X s ) = und E(X t X s ) 2 = t 2 EB 2 1/t + s 2 EB 2 1/s 2tsEB 1/t B 1/s = t + s 2ts max{t, s} = t s. Daher sind die Inkremente stationär und ebenfalls durch Ausmultiplizieren der Kovarianz folgt die Unabhängigkeit der Inkremente, da für t 1 t 2 t 3 t 4 gilt E(X t2 X t1 )(X t4 X t3 ) = t 2t 4 t 2 t 4 + t 1t 3 t 1 t 3 t 1t 4 t 1 t 4 t 2t 3 t 2 t 3 = t 2 + t 1 t 1 t 2 =.

20 2 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Es bleibt die Stetigkeit der Pfade zu betrachten, wobei der einzig kritische Punkt an t = ist. Da die Prozesse X t, t (, ) und B t, t (, ) dieselben endlich dimensionalen Verteilungen besitzen gilt wegen lim t, t Q+ B t = f.s. auch lim t, t Q+ X t = f.s.. Da aber X t f.s. stetige Pfade auf (, ) besitzt folgt auch lim t, t R+ X t =. Die soeben bewiesene Eigenschaft der Inversion der Brownschen Bewegung liefert einen einfachen Beweis des folgenden starkes Gesetzes der Großen Zahlen, das sublineares Wachstum der Brownschen Pfade liefert. Korollar 2.1 (Starkes Gesetz der Großen Zahlen). Für eine Brownsche Bewegung B gilt lim t B t t = f.s.. Beweis. Wegen Prop. 2.1(iv) gilt = lim s sb 1/s = lim t B t /t f.s. wobei t = 1/s. Bemerkung 2.3. Eine präzisere Beschreibung des lokalen Verhaltens von Brownschen Pfaden für t und t liefert das Gesetz des iterierten Logarithmus und Lèvy s modulus of continuity. Diese Resultate werden wir aber nicht behandeln. 2.2 Pfadeigenschaften der Brownschen Bewegung Als nächsten untersuchen wir Eigenschaften der Pfade der Brownschen Bewegung und beginnen mit Eigenschaften, die das lokale Oszillationsverhalten betreffen. Satz 2.2. (i) gilt Eine Brownsche Bewegung besitzt endliche quadratische Variation und es qm-lim P[,t] B ti B ti 1 2 = t = L 2 [,t](b). i (ii) Eine Brownsche Bewegung besitzt f.s. Pfade von unendlicher totaler Variation, d.h., V 1 [,t](b) = sup P [,t] i B ti B ti 1 = f.s.. (Genau genommen wird im Beweis nur gezeigt, dass die Menge der Pfade von endlicher totaler Variation in einer Nullmenge enthalten sind.) Bemerkung 2.4. Der Quadratmittel Limes in (i) ist interpretiert als der Limes einer beliebigen Folge von Partitionen von [, t], deren Feinheit gegen konvergiert. Die Konvergenz in (i) gilt fast sicher, falls die Folge der Partitionen aufsteigend ist (P n P n+1 ) oder der Radius genügend schnell fällt ( n P n < ). Die Eigenschaft (ii) erlaubt nun nicht mehr ein Integral bezüglich einer Brownschen Bewegung pfadweise im Sinne des Riemann- Stieltjes Integral zu definieren und ist der Grund für die Entwicklung einer stochastischen Integrationstheorie in der die Rolle der klassischen Variation (ii) durch die quadratische Variation in (i) ersetzt wird. Die Resultate gelten natürlich analog für beliebige endliche Intervall [a, b] und resultierender quadratischer Variation b a.

21 2.2. PFADEIGENSCHAFTEN DER BROWNSCHEN BEWEGUNG 21 Beweis. (i) Wegen der Unabhängigkeit der Inkremente und da EZ 4 = 3EZ 2 für normalverteiltes Z gilt [ 2 [ ( )] 2 E (B ti B ti 1 ) 2 t] = E (B ti B ti 1 ) 2 (t i t i1 ) i i (unabhängige Inkremente) = i [ E (B ti B ti 1 ) 2 (t i t i1 ) ] 2 2 i E(B ti B ti 1 ) i (t i t i1 ) 2 8 i (t i t i 1 ) 2 und die Aussage folgt da P [,t]. 8t P [,t] (ii) Konvergenz im Quadratmittel impliziert Konvergenz in der Wahrscheinlichkeit und diese wiederum impliziert, es existiert eine Teilfolge die fast sicher konvergiert. Sei nun P[,t] n ein Folge von Partitionen, sodass lim P [,t] B ti (ω) B ti 1 (ω) 2 = t ( ) i für alle ω Ω F mit P(Ω ) = 1 und o.b.d.a. können wir annehmen, dass alle diese Pfade stetig sind. Dann gilt ( ) B ti (ω) B ti 1 (ω) 2 sup B ti (ω) B ti 1 (ω) sup B ti (ω) B ti 1 (ω) ω Ω. i i P [,t] Ist nun die totale Variation endlich, dann konvergiert wegen der Stetigkeit der Brownschen Pfade die obere Schranke gegen null. Dies ist ein Widerspruch zu ( ) und daher muss die totale Variation auf Ω unendlich sein. Satz 2.3. Eine Brownschen Bewegung besitzt f.s. lokal Hölder-stetige Pfade mit Hölderexponent γ < 1/2 und ist f.s. nirgends lokal Hölder-stetig mit Exponent γ > 1/2. Genauer ausgedrückt gilt die zum Exponent γ > 1/2 an einem Punkt lokal Hölder-stetigen Pfade sind in einer Nullmenge enthalten. Beweis. Der erste Teil des Satzes folgt wie schon die Stetigkeit aus dem Satz von Kolmogorov- Centsov, Satz 1.2. Da die Inkrement normalverteilt sind existiert für jedes p > eine Konstante C p, sodass E B t B s 2p = C p t s p. Daher sind die Pfade lokal Hölder-stetig für alle γ < (p 1)/(2p) = 1/2 1/(2p). Da p beliebig groß gewählt werden kann folgt die f.s. lokale Hölder-stetigkeit für alle γ < 1/2. i

22 22 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Der zweite Teil des Satzes ist analog zum Beweis von Satz 2.2(ii). Sei wieder um P [,t] ein Folge von Partitionen, sodass lim P [,t] B ti (ω) B ti 1 (ω) 2 = t ( ) i für alle ω Ω mit P(Ω ) = 1. Falls B s1 (ω) B s2 (ω) K s 1 s 2 γ für alle s 1, s 2 t und ein γ > 1/2, dann gilt B ti (ω) B ti 1 (ω) 2 i i K 2 t i t i 1 2γ K 2 t sup t i t i 1 2γ 1. i Da P [,t] konvergiert die rechte Seite gegen null. Wiederum erhalten wir einen Widerspruch zu ( ) und es folgt, die Pfade sind fast sicher nicht Hölder-stetig mit Exponent γ > 1/2 auf [, t]. Dasselbe Argument lässt sich nun für beliebige Intervalle wiederholen und dies impliziert, dass die Brownsche Bewegung f.s. nirgends lokal Hölder-stetig mit Exponent γ > 1/2 ist. Bemerkung 2.5. Der obige Satz lässt die lokale Hölder-Stetigkeit für den Fall γ = 1 2 unbeantwortet. Das Gesetz des iterierten Logarithmus impliziert, dass der Pfad nicht überall lokal Hölder-stetig mit Exponent γ = 1/2 sein kann. Dies heißt aber nicht, dass ein solcher Pfad diese Eigenschaft nirgends auf [, ) haben kann. Eine detailliertere Diskussion dieses Aspekts findet sich in [KS91, S. 113]. Schlussendlich zeigen wir noch, dass die Pfade eine Brownschen Bewegung fast sicher nirgends differenzierbar sind. Die umständliche Formulierung des Satzes trägt dem Umstand Rechnung, dass nicht bekannt ist, ob die Menge der an einem Punkt differenzierbaren Pfade messbar ist. Satz 2.4. Die Menge der an einem Punkt differenzierbaren Pfade einer Brownschen Bewegung sind in einer Nullmenge enthalten. Beweis. Es ist ausreichend, Brownsche Pfade über den Intervall [, 1] zu betrachten, da abzählbare Vereinigungen von Nullmengen wieder um Nullmengen sind. Wir definieren D + f(t+h) f(t) f(t) = lim sup h und bezeichnen analog mit D h + f(t) den Limes inferior. Klarerweise gilt, ist f differenzierbar an t dann ist < D + f(t) = D + f(t) <. Wir betrachten nun die Menge C := { ω Ω : < D + B t (ω) D + B t (ω) < für ein t [, 1] }, die alle an einer Stelle t [, 1] differenzierbaren Brownschen Pfade enthält, und zeigen, dass C in einer Nullmenge liegt. Wir definieren weiters die Mengen A jk := t [,1] h [,1/k] { ω Ω : Bt+h (ω) B t (ω) jh }, j, k N,

23 2.2. PFADEIGENSCHAFTEN DER BROWNSCHEN BEWEGUNG 23 und es gilt C j=1 k=1 aus folgendem Grund: Sei t so, dass für eine Pfad ω C gilt < D + B t (ω) und D + B t (ω) <, d.h., für alle h klein genug, z.b., für alle h 1/k mit k groß, gilt, dann existieren reelle Konstanten C ± mit für h klein und somit gilt B t+h (ω) B t (ω) h A jk C + und C B t+h(ω) B t (ω) h hc B t+h (ω) B t (ω) hc + B t+h (ω) B t (ω) h max{ C, C + }. Es folgt nun dieser Pfad ω liegt in A jk für große j und k. Die Inklusion ( ) folgt. Auf Grund dieser reicht es nun aber für den Beweis des Satzes aus zu zeigen, dass für alle j, k N eine Nullmenge C F, d.h., P(C) =, existiert, die A jk enthält, da abzählbare Vereinigungen von Nullmengen wiederum Nullmengen sind. Wir wählen j, k fix und fixieren einen bestimmten Pfad ω A jk. Für diesen gilt t [, 1] : B t+h (ω) B t (ω) jh h [, 1/k]. ( ) Ein derartiges t sei nun ebenfalls fix und wir wählen ein n 4k. Dann können wir eine natürliche Zahl i in {1,..., n} so wählen, dass ( ) i 1 n t i n und somit i + m n Wir benutzen ( ) und ( ) und erhalten t m + 1 n 1 k für m =, 1, 2, 3. ( ) B (i+1)/n (ω) B i/n (ω) B (i+1)/n (ω) B t (ω) + B i/n (ω) B t (ω) ( i + 1 ) ( i ) n t j + n t j 2j n + j n. Wichtig ist nun, dass wir durch ω A jk nicht nur die Inkremente über [i/n, (i + 1)/n] sondern auch über die nachfolgenden Intervalle [(i+1)/n, (i+2)/n] und [(i+2)/n, (i+3)/n] erhalten. Dieselbe Abschätzung wie zuvor ergibt wegen ( ) und ( ), dass und B (i+2)/n (ω) B (i+1)/n (ω) B (i+2)/n (ω) B t (ω) + B (i+1)/n (ω) B t (ω) 3j n + 2j n B (i+3)/n (ω) B (i+3)/n (ω) B (i+3)/n (ω) B t (ω) + B (i+2)/n (ω) B t (ω) 4j n + 3j n.

24 24 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Damit haben wir gezeigt, dass mit C (n) i := 3 { ω Ω : B(i+m)/n (ω) B (i+m 1)/n (ω) (2m + 1)j/n } m=1 gilt A jk n i=1 C(n) i falls n 4k. Klarerweise gilt C (n) i F, da die Elemente nur von endlich vielen Koordinaten abhängen. Nun gilt aber, dass n (B(i+m)/n B (i+m 1)/n ) u.i.v. N(, 1) und, da für Z N(, 1) gilt P[ Z δ] δ, folgt P(C (n) i ) = Wählt man nun C als 3 m=1 [ n B(i+m)/n ] P B (i+m 1)/n (2m+1)j n 15j3 n. 3/2 C := n n=4k i=1 C (n) i F, dann gilt A jk C. Der Beweis ist nun abgeschlossen, da ( n P(C) inf n 4k P i=1 ) C (n) 15j 3 i inf n 4k =. n 3/2 2.3 Verwandte Prozesse In diesem Abschnitt betrachten wir kurz einige weitere wichtige stochastische Prozesse, die sich aus der Brownschen Bewegung ergeben. Die Pfade der besprochenen Prozesse sind in Abbildung 2.1 illustriert. Beispiel 2.1 (Brownsche Bewegung in x). Der Prozess X t = x+b t, t, heißt Brownsche Bewegung in x. Da die Bedingung B = nicht immer Teil der Definition einer Brownschen Bewegung ist, heißt B auch standard Brownsche Bewegung. Beispiel 2.2 (Brownsche Brücke). Der Prozess X t = B t tb 1 definiert für t [, 1] heißt Brownsche Brücke. Er besitzt offensichtlich stetige Pfade und erfüllt X = X 1 = fast sicher. Beispiel 2.3 (Ornstein-Uhlenbeck Prozess). Ein Prozess X definiert als X t = c e βt B exp(2βt), t mit c, β > heißt Ornstein-Uhlenbeck Prozess. Der Ornstein-Uhlenbeck Prozess ist im Gegensatz zur Brownschen Bewegung stationär.

25 2.3. VERWANDTE PROZESSE Brownsche Bewegung t Ornstein Uhlenbeck Prozess 4 (c=1,β=1) t Geometrische Brownsche Bewegung 15 (µ=2,σ=1) Brownsche Brücke t Geometrische Brownsche Bewegung 5 (µ=,σ=1) t Geometrische Brownsche Bewegung 1.5 (µ= 2,σ=1) t t Abbildung 2.1: Jeweils 1 Pfade verschiedener, in diesem Kapitel besprochener Prozesse.

26 26 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Beispiel 2.4 (Geometrische Brownsche Bewegung). Ein Prozess X definiert als ( (µ X t = c exp σ 2 /2 ) ) t σb t, t mit c, µ, σ R heißt geometrische Brownsche Bewegung. Er besitzt für c >, bzw., c <, positive bzw. negative Pfade. Die wichtigste Anwendung ist in der Finanzmathematik als einfachster Preisprozess, vgl. Black-Scholes Modell. Bemerkung 2.6. Der Ornstein-Uhlenbeck Prozess und die geometrische Brownsche Bewegung lösen gewisse stochastische Differentialgleichungen. Speziell gilt, die Lösungen zu skalaren, linearen stochastischen Differentialgleichungen mit additiven bzw. linearen multiplikativen Wiener Rauschen sind Versionen der Prozesse definiert in Beispiel 2.3 bzw Die meisten der Prozesse, die wir bis jetzt betrachtet haben besitzen die Eigenschaft, dass ihre endlich-dimensionalen Verteilungen Normalverteilungen sind. Daher sind sie Beispiele für die folgende Klasse von stochastischen Prozessen. Definition 2.1. Ein stochastischer Prozess X heißt Gaussprozess, falls seine endlichdimensionalen Verteilungen eine Familie von Normalverteilungen ist, d.h., jeder endliche Vektor (X t1,..., X tn ), n N und t 1,..., t n I, besitzt eine n-dimensionale Normalverteilung. Bekanntermaßen sind Normalverteilungen durch ihre ersten beiden Momente eindeutig festgelegt und ähnliches gilt auch für Gaussprozesse. Wir bezeichnen mit t m(t) := EX t und (s, t) K(s, t) := E(X s m(s))(x t m(t)) die Mittelwert- und die Kovarianzfunktion eines Prozesses. Ein Prozess heißt zentriert falls m(t) = für all t. Es gilt, die Kovarianzfunktion eines Gaussprozesses ist positiv semidefinit, d.h., n i,j=1 K(t i, t j )a i a j für alle t i,..., t n I und alle a 1,..., a n R. Dies folgt da die Kovarianzmatrix einer Normalverteilung positiv semidefinit ist. Der folgende Satz liefert nun die Charakterisierung von Gaussprozessen aus ihrer Mittelwert- und Kovarianzfunktion. Satz 2.5. Zu jeder Mittelwertfunktion m und jeder positiv semidefiniten Kovarianzfunktion K existiert ein (bis auf Versionen) eindeutiger Gaussprozess. Beweis. Da m + X ein eindeutiger Gaussprozess mit Mittelwertfunktion m und K ist, falls X der eindeutige zentrierte Gaussprozess mit Kovarianz K ist, ist es ausreichend die Existenz und Eindeutigkeit von zentrierten Gaussprozessen zu zeigen. Dazu verwenden wir den Satz von Kolmogorov, d.h., die Aufgabe ist es aus Kovarianzfunktion eine eindeutige projektive Familie von Verteilungen zu konstruieren. Da diese bei Gaussprozessen eine Familie von zentrierten Gaussverteilungen ist, müssen wir nur deren Kovarianzmatrizen eindeutig bestimmen. Zu je endlich-vielen Indices t 1,..., t n I konstruieren wir mittels der Kovarianzfunktion eine Matrix (σ ij ) i,j=1,...,n mit σ ij := K(t i, t j ). Diese ist positiv semidefinit, d.h., n i,j=1 σ ija i a j

27 2.3. VERWANDTE PROZESSE 27 4 Gauss sches Weißes Rauschen 4 Gauss sches Weißes Rauschen t t Abbildung 2.2: Illustration zweier Pfade von Gauss schem Weißen Rauschen. Beachte, die Pfade des Prozesses sind eigentlich nicht stetig. für alle a 1,..., a n R, da K positiv semidefinit ist. Die Matrix definiert eine eindeutige, zentrierte Normalverteilung. Somit, definiert die Kovarianzfunktion eindeutig die Familie der endlich-dimensionalen Verteilungen. Das diese Familie endlich-dimensionaler Verteilungen projektiv ist, folgt analog zu den Argumenten im Existenzsatz zur Brownschen Bewegung, Satz 2.1, und der Beweis ist abgeschlossen. Aus diesem Satz folgt nun eine zweite Charakterisierung der Brownschen Bewegung: Die Brownsche Bewegung ist der eindeutige f.s. stetige, zentrierte Gaussprozess zur Kovarianzfunktion K(s, t) = s t. Die Existenz des Prozesses folgt aus Satz 2.5, die Unabhängigkeit der Inkremente folgt aus der Kovarianzfunktion, da im Falle von Normalverteilungen Unkorreliertheit und Unabhängigkeit äquivalent sind, und die Existenz einer stetigen Modifikation folgt auch hier wiederum aus dem Satz von Kolmogorov-Centsov. Analoges gilt auch für die oben beschriebenen Prozesse. So ist die Brownsche Bewegung gestartet in x die stetige Version des Gaussprozesses zur Kovarianzfunktion K(s, t) = s t und Mittelwertfunktion m(t) = x, der Ornstein-Uhlenbeck Prozess die stetige Version des zentrierten Gausprozesses zu K(s, t) = c exp( β t s ) und die Brownsche Brücke ist die stetige Version des zentrierten Gaussprozesses auf [, 1] definiert durch die Kovarianz K(s, t) = s(1 t) für s t. Klarerweise ist aber die geometrische Brownsche Bewegung kein Gaussprozess, da die eindimensionale Verteilungen log-normalverteilungen sind. Weitere wichtige Beispiele von Gaussprozessen sind die folgenden stochastischen Prozesse. Beispiel 2.5 (Fraktionale Brownsche Bewegung). Der zentrierter, stetige Gaussprozess X zur Kovarianzfunktion K(s, t) = 1 ) (t 2H + s 2H + t s 2H, 2 mit H (, 1), heißt Fraktionale Brownsche Bewegung. Für H = 1/2 stimmt die Fraktionale Brownsche Bewegung mit der Brownschen Bewegung überein. Die Konstante H heißt Hurst Parameter des Prozesses und ist ein Mass für das Langzeitgedächtnis des Prozesses.

28 28 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Beispiel 2.6 (Gauss sches Weißes Rauschen). Wir betrachten den zentrierten Gaussprozess X, der durch die Kovarianzfunktion K(s, t) = I [t=s] definiert ist. Dieser heißt Gauss sches Weißes Rauschen. Gauss sches Weißes Rauchen besitzt keine guten Eigenschaften, nicht einmal eine messbare (und somit auch keine f.s. stetige) Version existiert. Gauss sches Weißes Rauschen ist die Ableitung der Brownschen Bewegung im Sinne von Distributionen. 2.4 Reihenentwicklung der Brownschen Bewegung Im folgenden beschränken wir uns auf Prozesse über der Indexmenge [, 1], aber die Ergebnisse sind klarerweise ohne Einschränkung für beliebige endliche Indexmengen [a, b] R + gültig. Weiters erhalten wir Prozesse auf R + durch Aneinaderfügen von Ergebnissen auf endlichen Intervallen Satz von Levy-Ciesielski und die Paley-Wiener Entwicklung Gegeben sei ein Wahrscheinlichkeitsraum (Ω, F, P) mit einer darauf definierten Folge von unabhängigen, standard normalverteilten Zufallsvariablen ξ n, n N. Der folgende Satz liefert Reihendarstellungen von Brownschen Bewegungen in dem Sinne, das eine Brownsche Bewegung der Limes einer zufällig gewichteten Funktionenreihe ist. Weiters liefert der Satz eine alternative Methode um die Existenz einer Brownschen Bewegung zu erhalten bei der wir die Schwierigkeiten im Zusammenhang mit kanonischen Wahrscheinlichkeitsräumen aus überabzählbaren Produkträumen vermeiden. Satz 2.6 (Levy-Ciesielski). Sei ξ n, n N, eine Folge unabhängig, standard normalverteilter Zufallsvariablen und ϕ n, n N, eine Orthonormalbasis (ONB) von L 2 (, 1). Dann konvergiert die Summe t B t = ξ n ϕ n (s) ds fast sicher in C[, 1] und B ist eine Brownsche Bewegung auf [, 1]. n=1 Bemerkung 2.7. Durch Aneinanderfügen von unabhängigen Brownschen Bewegungen auf [, 1] erhält man sofort die Existenz einer Brownschen Bewegung auf R +. Im Unterschied zum ersten Existenzbeweis mittels des Satz von Kolmogorov in Satz 2.1, der eine reine Existenzaussage ist, ist dieser Beweis tatsächlich eine Konstruktion einer Brownschen Bewegung. Die Umkehrung des Satzes - die Existenz einer Zerlegung zu gegebener Brownschen Bewegung mit obigen Eigenschaften und die Konvergenz - ist einfacher zu zeigen. Die Zerlegung im Satz 2.6 heißt einfach orthogonal, da die ξ n orthonormal im Raum der quadrat-integrierbaren Zufallsvariablen sind. Für die Wahl der ONB ϕ n (t) = 2 sin(nπt) entspricht dieses Resultat (nicht die Beweistechnik) dem ursprünglichen Existenzbeweis der Brownschen Bewegung von N. Wiener. Ein Spezialfall dieses Satzes ist die Paley-Wiener Entwicklung der Brownsche Bewegung: B t = n Z e 2inπt 1 2inπ ξ n = n Z t ξ n e 2inπs ds

29 2.4. REIHENENTWICKLUNG DER BROWNSCHEN BEWEGUNG N=5.8 N=1 N=2 n=4 N= t Abbildung 2.3: Approximation eines Brownschen Pfades mittels Satzes 2.6 aus der ONB ϕ n (t) = 2 sin(nπt) durch endliche Reihen mit N Summanden. mit ONB (e 2inπt ) n Z. Meist wird in modernen Büchern zum Beweis der Existenz eine ONB mittels der Haar schen Funktionen H (n) k, n und k 2n mit k ungerade, gewählt, wobei H () 1 (t) = 1, t [, 1], und H (n) k (t) = 2 (n 1)/2 für k 1 2 n t < k 2 n, 2 (n 1)/2 für k 2 n t < k+1, 2 n sonst. Bei dieser Wahl einer ONB konvergiert die Summe in Satz 2.6 sogar f.s. punktweise absolut was die Beweisführung erleichtert. Die Integrale von Haar schen Funktionen, die in der Reihenentwicklung auftreten, sind die Schauderfunktionen. Beweis. Im Beweis benutzen wir folgende Resultate der Theorie unendlicher Summen unabhängigen Zufallsvariablen. Erstens, verwenden wir den Satz von Itô-Nisio: In einem separablen Banachraum ist die fast sichere Konvergenz einer unendlichen Summe unabhängiger

30 3 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Zufallsvariablen äquivalent zur Konvergenz in Wahrscheinlichkeit. Für reelle, zentrierte unabhängige Zufallsvariable ist die Konvergenz der Summe der Varianzen eine hinreichende Bedingung für die Konvergenz der Summe von Zufallsvariablen. Weiters ist dann die unendliche Summe ebenfalls eine f.s. endliche Zufallsvariable. Schlussendlich ist klarerweise ein konvergente Reihe normalverteilter Zufallsvariablen wiederum normalverteilt und der Erwartungswert und die Varianz sind durch die Summe der Erwartungswerte und Varianzen gegeben. (i) Konvergenz der Summe: Wir definieren für Funktionen f auf [, 1] für alle α (, 1] den linearen Operator D α f(t) := t Γ 1 (α)(t s) α 1 f(s) ds und somit B t = n=1 ξ n D 1 ϕ n (t). Für diese Operatoren gilt D β+α = D β D α, da wegen dem Assoziativgesetz für Faltungen gilt D β D α f = k β (k α f) = (k β k α ) f mit k α (s) = Γ 1 (α)s α 1. Mittels Substitution s = tr ist sofort ersichtlich, dass (k β k α )(t) = = 1 Γ(α)Γ(β) t β+α 1 Γ(α)Γ(β) t 1 (t s) β 1 s α 1 ds (1 r) β 1 r α 1 dr = Γ 1 (β + α) t β+α 1. D α, α > 1 2, ist ein stetiger Operator L2 (, 1) L p (, 1), p <, da (Cauchy-Schwarz Ungl.) 1 D α f p L = p 1 t Γ 1 (α)(t s) α 1 f(s) ds p dt ( t Γ 1 (α)(t s) α 1 ) 2 p/2 ( t p/2 ds f 2 (s) ds) dt c α,p f p L 2. D β, β > 1 p, ist ein stetiger Operator Lp (, 1) C[, 1], da (Hölder Ungl., p 1 + q 1 = 1) D β f = sup t [,1] t Γ 1 (α)(t s) β 1 f(s) ds ( 1 ) 1/q ( 1 Γ 1 (α)(t s) α 1 q ds c β,p f L p. ) 1/p f(s) p ds

31 2.4. REIHENENTWICKLUNG DER BROWNSCHEN BEWEGUNG 31 Unter Verwendung dieser Operatoren mit 2 < p <, α > 1, β > 1 und α + β = 1 folgt 2 p aus der Markov Ungleichung, dass [ m ] P ξ n D 1 ϕ n ξ n D 1 ϕ n ɛ 1 ( D ɛ E m ) β ξ p n D α ϕ n ξ n D α p ϕ n n=1 n=1 c β,p ɛ p n=1 E ξ n D α ϕ n n=1 n=1 m ξ n D α p ϕ n Angenommen die Konvergenz der letzten Summe hält im p-ten Mittel in L p (, 1), dann erhalten wir die Konvergenz in Wahrscheinlichkeit von B in C[, 1] und, da C[, 1] ein separabler Banachraum ist, aus dem Satz von Itô-Nisio die fast sichere Konvergenz. Daher reicht es im Folgenden aus, die Konvergenz der Reihe n=1 ξ n D α ϕ n in L p (, 1) im p-ten Mittel zu beweisen. Wir zeigen nun zuerst, dass für jedes t [, 1] die Summe n=1 ξ n D α ϕ n (t) f.s. konvergiert. Klarerweise ist dann diese Summe zentriert normalverteilt mit Varianz gleich der Summe der Varianzen. Laut oben zitierten Resultat müssen wir dazu nur zeigen, dass die Summe der Varianzen konvergiert: ( ( D α ϕ n (t) ) ) 2 1/2 ( ( 1 = Γ 1 (α)(t s) α 1 ϕ n (s)i [,t) (s) ) ) 2 1/2 ds n=1 (Parseval Gleichung) = n=1 n=1 ( 1( Γ 1 (α)(t s) α 1 I [,t) (s) ) ) 2 1/2 ds ( t = Γ 1 (α) (t s) 2α 2 ds = t α 1/2 Γ(α)(2α 1) 1/2 1 Γ(α)(2α 1). 1/2 Aus der Normalverteilung dieser Zufallsvariablen folgt nun auch, dass die p-ten Momente von B t in t beschränkt sind, denn E D α p ( ( ϕ n (t)ξ n = D α ϕ n (t) ) ) 2 p/2 E Y p C < ( ) n=1 n=1 mit Y N(, 1) und die obere Schranke C kann wegen der Abschätzung ( ) unäbhängig von t [, 1] gewählt werden. Mittels des Satzes von Fubini die gemeinsame Messbarkeit folgt, da (ω, t) n=1 Dα ϕ n (t)ξ n (ω) eine Carathéodory-Funktion ist und des Satzes von der Dominierten Konvergenz dominiert durch ( ) können wir nun punktweise Konvergenz von B t im p-ten Mittel zur Konvergenz im p-ten Mittel von B in L p (, 1) ausdehnen: E ξ n D α p 1 ϕ n E ξ n D α ϕ n (t) p 1 ( ( dt = E Y p D α ϕ n (t) ) ) 2 p/2 dt <. n=1 L p = n=1 ) 1/2 n=1 L p. ( )

32 32 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Somit erhalten wir das die Folge der Partialsummen in der Norm in L p (, 1) im p-ten Mittel gegen eine L p (, 1)-wertige Zufallsvariable konvergiert, die wir mit der unendlichen Summe bezeichnen. Wir haben nun die Existenz des Prozesses B im Satz 2.6 gezeigt. Es bleibt noch zu zeigen, dass dieser Prozess eine Brownsche Bewegung ist. Klarerweise gilt, dass B f.s. stetig ist, da B f.s. der gleichmässige Limes stetiger Funktionen auf einem kompakten Intervall ist. Dies erhält die Stetigkeit für die Grenzfunktion. Um den Beweis abzuschließen reicht es also die Kovarianz der Brownschen Bewegung zu zeigen, die ja die Unabhängigkeit der Inkremente impliziert. (ii) Kovarianzfunktion: Da die Reihe in C[, 1] f.s. konvergiert und somit auch punktweise f.s. konvergiert, gilt, dass für fixes t die Summe zentriert normalverteilt ist mit Varianz gleich Summe der Varianzen, d.h., mittels der Parseval Gleichung EB 2 t = ( t ) 2 ( ) 2 ϕ n (s) ds = ϕn, I [,t] = I L 2 [,t] 2 L = t. 2 n=1 n=1 Daher bleibt nur noch die Kovarianz zu zeigen. Zur Vertauschung der Erwartungswertes und der unendlichen Summe mittels des Satzes A.3 benötigen wir die gleichgradige Integrierbarkeit der Zufallsvariablen B n t B n s, n N, t, s [, 1]. Diese folgt wegen Satz A.2 aus der Abschätzung E(B n t B n s ) E Bn t E Bn s E B t E B s 2 1 und daraus resultierender gleichmässiger Beschränktheit der zweiten Momente. Daher gilt ( EB t B s = E = E = (Parseval Gleichung) = n=1 n,m=1 ξ n t )( ϕ n (r) dr n=1 ξ n s ) ϕ n (r) dr ( t )( s ) ξ n ξ m ϕ n (r) dr ϕ m (r) dr ( 1 )( 1 ϕ n (r) I [,t] (r) dr n=1 1 = t s. I [,t] (r) I [,s] (r) dr ) ϕ n (r) I [,t] (r) dr Karhunen-Loève Entwicklung Eine weitere Reihendarstellung einer Brownschen Bewegung, oder auch allgemeinerer stochastischer Prozesse, erhält man wenn man pfadweise deren Fourierentwicklung betrachtet.

33 2.4. REIHENENTWICKLUNG DER BROWNSCHEN BEWEGUNG 33 Im folgenden sei X ein quadrat-integrierbarer, messbarer reeller Prozess mit Indexmenge [, 1], sodass 1 EX2 t dt <. Somit gilt wegen des Satzes von Fubini auch X L 2 (, 1) fast sicher. Sei nun ϕ n, n N, eine ONB in L 2 (, 1). Dann ist für fast alle Pfade die Fourierreihen- Darstellung ( 1 ) X t (ω) := X s (ω) ϕ n (s) ds ϕ n (t) (2.1) n=1 definiert und es gilt X X L 2 = fast sicher. Unter gewissen Bedingungen an die Pfade von X und / oder die gewählte ONB kann man auch fast sichere punktweise und fast sichere glm. Konvergenz zeigen, d.h., X t X t = für alle t [, 1] fast sicher bzw. sup t [,1] X t X t fast sicher. Die Art der Konvergenz der Funktionenfolge für fixes ω interessiert uns hier im Folgenden aber nicht mehr, dies ist eine Problemstellung in der Fourieranalysis und nicht der Stochastik. Uns interessiert in welchem Sinne die stochastische Gleichheit gilt. Bedenke, die fast sichere Konvergenz impliziert im Allgemeinen nicht die Konvergenz im Erwartungswert impliziert, d.h., unter Umständen gilt E X X L 2. Weiters, ist es für eine Reihendarstellung von Vorteil, z. B., zu Simulationszwecken, dass die Korrelationsstruktur und die gemeinsame Verteilung der stochastischen Fourierkoeffizienten bestimmt werden kann. Der folgende Satz von Karhunen-Loéve gibt Auskunft darüber welchem, basierend auf der Kovarianz des Prozesses, die optimale ONB für Fourierentwicklung ist, d.h., er gibt eine ONB an, sodass die Fourierkoeffizienten unkorreliert sind und weiters der Quadratmittelfehler minimiert wird und man somit die beste Approximation durch Partialsummen erhält. Zum Beweis des Satzes brauchen wir noch folgenden Satz aus der Analysis. Satz 2.7 (Satz von Mercer). Die Abbildung K : [, 1] [, 1] R sei stetig, symmetrisch, d.h., K(s, t) = K(t, s) für alle t, s [, 1], und positiv semi-definit. Dann existiert eine Orthonormalbasis (ϕ n ) n N von L 2 (, 1) bestehend aus Eigenfunktionen des Integraloperators T K : L 2 (, 1) L 2 (, 1) definiert mittels (T K f)(s) := 1 K(s, t)f(t) dt und die dazugehörigen Eigenwerte λ n, n N, sind nicht-negativ. Weiters gilt, die Eigenfunktion zu positiven Eigenwerten sind stetig und es gilt K(s, t) = n N λ n ϕ n (s)ϕ n (t) und diese Summe konvergiert gleichmässig und absolut. Eine Abbildung K heißt Kern des durch sie definierten Integraloperators T K und ein Kern, der die Bedingung des Satzes von Mercer erfüllt heißt Mercer-Kern. Die Karhunen-Loève Zerlegung ist nun eine optimale Fourier-Entwicklung eines stochastischen Prozesses, dessen Kovarianzfunktion ein Mercer-Kern ist.

34 34 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Satz 2.8 (Karhunen-Loève Entwicklung). Sei X = (X t ) t [,1] ein zentrierter 1, quadratintegrierbarer stochastischer Prozess mit stetiger Kovarianzfunktion K X. Dann gilt (i) K X ist ein Mercer-Kern und ϕ n, n N, sei eine ONB von L 2 (, 1) wie im Satz von Mercer mit den dazugehörigen Eigenwerten λ n, n N; (ii) die Zufallsvariablen Z n := t X s ϕ n (s) ds sind zentriert, besitzen Varianz λ n und sind paarweise unkorreliert, d.h., (iii) die Karhunen-Loève Zerlegung EZ n =, EZ n Z m = δ nm λ n m, n N ; X t = Z n ϕ n (t), n=1 gilt im Quadratmittel und ist gleichmässig in t, d.h., lim sup E X t n t [,1] n Z n ϕ n (t) 2 = ; (iv) Unter allen Reihendarstellungen der Form (2.1) ist die Karhunen-Loève Entwicklung die einzige, sodass die stochastischen Fourierkoeffizienten unkorreliert sind, und die Karhunen-Loève Entwicklung mit aufsteigend geordneten Eigenwerten minimiert den Quadratmittelfehler. i=1 Bemerkung 2.8. Die Karhunen-Loève ist nur für wenige Prozesse analytisch bekannt, kann aber numerische durch numerisches Bestimmen der Eigenfunktionen und Eigenwerte der Kovarianzfunktion gelöest werden. Im diskreten, endlichen Fall, d.h., für (X t ) t I = (X 1,..., X n ), entspricht die Karhunen-Loève Zerlegung der Hauptkomponentenanalyse in der multivariaten Statistik. Im Vergleich zur obigen Zerlegung der Brownschen Bewegung im Satz von Levy-Ciesielski ist die Karhunen-Loève Entwicklung bi-orthogonal, da sowohl Z n orthogonal im Raum der quadrat-integrierbaren Zufallsvariablen als auch ϕ n in L 2 (, 1) orthogonal sind. Ist zusätzlich zu den Bedingungen in Satz 2.8 der Prozess X ein Gaussprozess, dann sind die stochastischen Fourierkoeffizienten Z n unabängig normalverteilt. Beweis von Satz 2.8. Es gilt die Kovarianzfunktion eines Prozesses X, der die Bedingungen des Satzes 2.8 erfüllt, ist per definitionem ein Mercer-Kern. Somit ist (i) erfüllt und wir können den Prozess als Fourierreihe bezüglich der ONB aus Eigenfunktionen schreiben, 1 Dies ist keine Einschränkung da wir aus jedem Prozess mittels X t EX t einen zentrierten Prozess erhalten.

35 2.4. REIHENENTWICKLUNG DER BROWNSCHEN BEWEGUNG 35 wobei die Konvergenz vorerst f.s. in L 2 (, 1) gilt. Für die stochastischen Fourierkoeffizienten gilt wegen des Satzes von Fubini EZ n = 1 EX t ϕ n (t) dt = und EZ n Z m [ 1 = E 1 ] X t X s ϕ n (t)ϕ m (s) dt ds = = = = ( 1 = δ nm λ n. E[X t X s ]ϕ n (t)ϕ m (s) dt ds K X (s, t)ϕ n (t)ϕ m (s) dt ds ) K X (s, t)ϕ n (t) dt ϕ m (s) ds λ n ϕ n (s)ϕ m (s) ds Somit haben wir auch (ii) gezeigt. Aus diesen Gleichungen folgt auch sofort die Umkehrung dieser Aussage in (iv). Wir sehen, dass für Z m unkorreliert zu allen Z n, n m, gelten muss, dass T KX ϕ m orthogonal zu allen ϕ n, n m, ist. Daher liegt T KX ϕ m im Orthognalraum zu (ϕ n ) n m. Dieser ist aber durch {ϕ m } aufgespannt und somit ist ϕ m eine Eigenfunktion zu T KX. Diese Überlegung gilt für alle m N und daher besteht eine ONB die unkorrelierte Fourierkoeffizienten liefert aus Eigenfunktionen zu T KX. Wir zeigen als nächstes (iii) die gleichmässige Konvergenz im Quadratmittel: E X t n Z n ϕ n (t) 2 ( n ) 2 n = EXt 2 + E Z n ϕ n (t) 2EXt Z n ϕ n (t) k=1 k=1 = K X (t, t) + E = K X (t, t) + = K X (t, t) n k,m=1 k=1 Z k Z m ϕ k (t)ϕ k (t) E n λ k ϕ 2 k(t) 2 k=1 n λ k ϕ 2 k(t). k=1 n λ k ϕ 2 k(t) k=1 n k=1 1 X t X s ϕ k (s)ϕ k (t) ds Da der letzte Term laut dem Satz von Mercer gleichmässig gegen null konvergiert folgt (iii). Es bleibt zu zeigen, dass die Karhunen-Loève Entwicklung den Quadratmittelfehler minimiert. Sei ϕ n, n N, eine beliebige ONB in L 2 (, 1) und Ẑn die dazugehörigen

36 36 KAPITEL 2. DIE BROWNSCHE BEWEGUNG stochastischen Fourierkoeffizienten. Dann erhalten wir den Quadratmittelfehler E X t n Ẑ n ϕ n (t) 2 [ = E k=1 = k,m=n+1 k,m=n+1 ( 1 ] Ẑ k Ẑ m ϕ k (t) ϕ m (t) Durch die Orthogonalität der Basisfunktionen erhalten wir weiters 1 E X X n 2 L = E X 2 t 1 n Ẑ n ϕ n (t) 2 dt = k=1 ) K X (s, r) ϕ k (r) ϕ m (s) ds dr ϕ k (t) ϕ m (t). k=n K X (s, t) ϕ k (t) ϕ k (s) ds dt. Wir minimieren diesen Term unter der Nebenbedingung der Normierung der Basisfunktionen mittels der Methode der Lagrange-Multiplikatoren und erhalten F ( ϕ n+1, ϕ n+2...) = = k=n+1 k=n+1 ( 1 1 (Frèchet-)Ableiten liefert für jedes k n + 1 K X (s, t) ϕ k (t) ϕ k (s) ds dt β k ( 1 ( ( ) TKX ϕ k, ϕ k β )L 2 k ( ϕ k, ϕ k ) L 2 1. )) ϕ 2 k(t) dt 1 F = 2 ( T KX ϕ k, ) 2β ϕ L 2 k ( ϕk, L(L )L 2 (, 1), R) = (L 2 (, 1)) L 2 (, 1) 2 k Nullsetzen der Frèchet-Ableitungen liefert die Gleichungen T KX ϕ k = β k ϕ k in L 2 (, 1) k n + 1. Diese sind genau dann erfüllt falls ϕ k eine Eigenfunktion zu T KX mit Eigenwert β k ist. Beispiel 2.7 (Brownsche Bewegung). Eine Brownschen Bewegung B hat Kovarianzfunktion K(t, s) = t s. Diese ist ein Mercer-Kern und man erhält die orthogonalen Eigenfunktionen mit dazugehörigen Eigenwerten ϕ n (t) = (n ) ) 2 sin( 1 2 π t, λ n = Daher ist die Karhunen-Loève Entwicklung ( (n B t = ) ) sin 1 2 π t 2 Z n ( ) n=1 n π 2 mit Z n u.i.v. N(, 1). 1 ( ), n N. n π 2 t [, 1]

37 2.4. REIHENENTWICKLUNG DER BROWNSCHEN BEWEGUNG 37 Beispiel 2.8 (Brownsche Brücke). Eine Brownschen Brücke X hat Kovarianzfunktion K(t, s) = t s ts. Diese ist ein Mercer-Kern und man erhält die orthogonalen Eigenfunktionen mit dazugehörigen Eigenwerten Daher ist die Karhunen-Loève Entwicklung mit Z n u.i.v. N(, 1). ϕ n (t) = 2 sin ( n π t ), λ n = 1 n 2 π 2, n N. X t = 2 n=1 Z n sin ( n π t ) n π t [, 1]

38 38 KAPITEL 2. DIE BROWNSCHE BEWEGUNG

39 Kapitel 3 Martingale Wir führen den Martingalbegriff und verwandte Definitionen ein. Wir zeigen, dass jedes Submartingal unter den üblichen Bedingungen und die Filtration eine f. s. càdlàg Modifikation besitzt. Aus den dazu benötigen Hilfsresultaten ergeben sich allgemeine L p -Maximalungleichungen, Martingalkonvergenzsätze und das Optional Stopping Theorem. Wir behandeln ausführlich die quadratische Variation von Martingale und die Doob-Meyer Zerlegung. Zuletzt wird noch kurz die schwache Konvergenz von Martingalen und das Konzept des Martingalproblems erläutert. In diesem Abschnitt behandeln wir grundlegende Eigenschaften von Martingalen in stetiger Zeit, d.h., I = R + = [, ). Weiters ist in diesem Kapitel der Zustandsraum aller Prozesse immer durch die reellen Zahlen und der dazugeörigen Borel-σ-Algebra, d.h., durch (E, E) = (R, B(, )), gegeben. Wenn nicht speziell darauf hingewiesen, ist im Folgenden immer ein fixer filtrierter Wahrscheinlichkeitsraum (Ω, F, (F t ) t, P) angenommen. Somit sind die folgenden Definition eines Martingals immer bezüglich einer bestimmten Filtration, die keinen (!) Beschränkungen, z.b., Vollständigkeit oder Rechts-stetigkeit, unterlegen ist. Definition 3.1. Ein adaptierter, reeller, stochastischer Prozess X heißt Martingal falls E X t < für alle t und E [ X t F s ] = Xs f.s. s t. (3.1) Bemerkung 3.1. Die meisten Eigenschaften von Martingalen, die wir im Folgenden besprechen, bleiben erhalten wenn man in der Definition die Integrierbarkeit der Zufallsvariablen durch die schwächere Bedingung der Integrierbarkeit des Positivteils, d.h., durch die Bedingung EX t + < für alle t, ersetzt, vgl. [RY99]. In diesem Fall spricht man von einem Martingal nach Definition 3.1 als ein integrierbares Martingal. Im Falle von rechts-stetigen Martingalen sind beide Begriffe äquivalent, s. Bemerkung 3.2. Klarerweise bleibt die Martingaleigenschaft erhalten wenn die Filtration durch eine gröbere Filtration ersetzt wird aber es gibt keinen Grund warum das auch bei Ersetzung durch eine feinere Filtration auch gelten sollte. Ausnahmen sind hier natürlich die Vervollständigung und Augmentierung einer Filtration, welche die Martingaleigenschaft erhält. 39

40 4 KAPITEL 3. MARTINGALE Beispiel 3.1 (Brownsche Bewegung). Ist B eine Brownsche Bewegung bezüglich (F t ) t dann ist B ein f.s. stetiges Martingal. Aus der Eigenschaft der unabhängig normalverteilten Zuwächse folgt E B t = (2t/π) 1/2 < und E[B t F s ] = E[B s + (B t B s ) F s ] = B s +. Weiters sind auch die Prozesse B 2 t t und die geometrische Brownsche Bewegung exp(σb t σ 2 t/2), σ R, Martingale. Im ersten Fall gilt E B 2 t t 2t und die Unabh ngigkeit der Inkremente gibt E[B 2 t t F s ] = B 2 s + 2 B s E[B t B s F s ] + E[(B t B s ) 2 F s ] t = B 2 s + + (t s) t. Im zweiten Fall verwenden wir die Momenterzeugende Funktion der Normalverteilung, daher E e σb t σ 2t/2 = e σ2t/2 E e σb t = e σ2t/2 e σ2t/2 = 1 < und E [ e σb t α 2 t/2 Fs ] = e σb s σ 2 t/2 E e σ(b t B s ) = e σb s σ 2 t/2 e σ2 (t s)/2 = e σb s σ 2 s/2. Beispiel 3.2 (Kompensierter Poisson Prozess). Sei N = (N t ) t ein Poisson Prozess mit Intensität λ >, dann ist der kompensierte Poisson Prozess Ñ = (Ñt) t definiert durch Ñ t := N t λt ein f.s. rechts-stetiges Martingal. Die Integrierbarkeit folgt aus der Integrierbarkeit des Poisson-Prozesses da E N t λt E N t + λt = 2λt < und die Martingaleigenschaft folgt aus der Bedingung der unabhängigen poissonverteilten Zuwächsen: E[Ñt F s ] = E[N s + (N t N s ) F s ] λt = N s + λ(t s) λt = Ñs. Die f.s. Rechts-stetigkeit folgt sofort aus der f.s. Rechts-stetigkeit des Poisson-Prozesses. Beispiel 3.3. Sei Y eine integrierbare Zufallsvariable und (F t ) t eine Filtration dann erhalten wir ein Martingal X, wenn wir jeweils X t = E[Y F t ] setzen. Die Integrierbarkeit folgt aus der Jensen schen Ungleichung und die Martingaleigenschaft aus der Projektionseigenschaft des bedingten Erwartungswertes. Definition 3.2. Wird in der Definition 3.1 die Eigenschaft (3.1) durch E [ X t F s ] Xs f.s. s t. (3.2) ersetzt, dann heißt der Prozess X ein Supermartingal, wird (3.1) durch ersetzt, dann heißt der Prozess X ein Submartingal. E [ X t F s ] Xs f.s. s t. (3.3)

41 Trivialerweise gilt, dass ein Martingal sowohl ein Super- als auch ein Submartingal ist, weiters ist X ein Supermartingal so ist X ein Submartingal und X ist ein Martingal falls sowohl X und X ein Supermartingal sind. Durch diese Transformationen kann jede bewiesene Eigenschaft eines Sub-/Supermartingals einfach in eine Eigenschaft des anderen übertragen werden und gilt klarerweise auch für Martingale. Offenbar gilt, dass t EX t für ein Martingal konstant, ein Supermartingal monoton fallend und Submartingal monoton wachsend ist. Beispiel 3.4 (Geometrische Brownsche Bewegung). Wir haben in Beispiel 3.1 bereits gezeigt, dass die geometrischen Brownsche Bewegung X t = exp ( σb t + (µ σ 2 /2)t ) für µ = ein Martingal ist. Daraus sieht man sofort, dass die geometrische Brownsche Bewegung für µ > ein Submartingal und für µ < ein Supermartingal ist. Beispiel 3.5 (Poisson Prozess). Der Poisson Prozess N ist ein Submartingal da E N t = λt < und E[N t F s ] = N s + E[N t N s F s ] = N s + λ(t s) N s. Aus (Sub-/Super-)Martingalen erhält man durch einfache Transformationen wiederum (Sub-/Super-)Martingale. Sind X, Y Martingale, dann ist auch ax + by ein Martingal für alle a, b R. Sind X, Y Supermartingale dann ist min{x t, Y t } ein Supermartingal und für alle a, b > ist auch ax + by ein Supermartingal. Sind X, Y Submartingale dann ist max{x t, Y t } ein Submartingal. Beispiel 3.6 (Geburts-Todes-Prozess). Ein unreflektierter Geburts-Todes-Prozess Z kann als die Differenz zweier unabhängiger Poisson-Prozesse N λ, N µ mit Geburtsrate λ und Todesrate µ geschrieben werden, d.h., Z t = Nt λ N µ t, und somit gilt Z t t(µ λ) ist ein Martingal. Weitere Transformationen, die die Submartingal-Eigenschaft erhalten, ergeben sich aus der Jensen schen Ungleichung. Proposition 3.1. (i) Sei X ein Martingal und ϕ eine konvexe Funktion, sodass für alle t gilt E ϕ(x t ) <, dann ist ϕ(x) ein Submartingal. (ii) Sei X ein Submartingal und ϕ zusätzlich zu den obigen Eigenschaften nicht-fallend, dann ist ϕ(x) ein Submartingal. Beweis. Die Jensen sche Ungleichung gibt für s, t, dass ϕ(x t ) ϕ(e[x t+s F t ]) E[ϕ(X t+s ) F t ], wobei im Fall (i) die erste Ungleichung sogar eine Gleichung ist und im Fall (ii) gilt, da ϕ nicht fallend ist. Beispiel 3.7. Sei X ein Martingal dann sind (X t c) + und (X t c) Submartingale für alle c R. Ist X für p 1 ein p-fach integrierbares Martingal oder positives Submartingal dann ist X t p ein Submartingal. 41

42 42 KAPITEL 3. MARTINGALE Im den folgenden drei Abschnitten dieses Kapitel werden wir einige nützliche technische Resultate für Submartingale beweisen, die wir vor allem dazu verwenden um die beiden folgenden Aspekte zu behandeln. 1. Stetigkeit der Pfade: Eine wünschenswerte Eigenschaft von stochastischen Prozessen ist, dass sie rechts-stetige Pfade besitzen. Dies gilt vor allem für viele Resultate von (Sub-)Martingalen. Daher ist es eine Frage von Interesse ob Martingale gute Pfadeigenschaften haben. Mit Beispiel 3.3 haben wir eine einfache Methode um ein Martingal zu konstruieren. Für dieses stellt sich natürlich die Frage welche Eigenschaften die Pfade eines derartigen Martingals oder einer Modifikation haben, die a-priori natürlich nicht notwendigerweise gut sein müssen. 2. Langzeitverhalten von Martingalen: Ein Prozess besitzt eine terminale Zufallsvariable X falls X t X f.s. für t. Die Frage ist wann gibt es terminale Zufallsvariablen für Martingale und, z.b., im Falle von Martingalen wie in Beispiel 3.3 definiert, gilt X = Y. Im Zusammenhang mit der ersten Frage ergibt sich: Kann jedes Martingal auf diese Weise erzeugt werden? 3.1 Martingalungleichungen Die folgenden Ungleichungen sind klassische Resultate der Martingaltheorie und gehen meist auf J. L. Doob zurück. Wir präsentieren die Ungleichungen in Satz 3.1 und 3.2 über den Intervallen [, T ]. Natürlich gelten die Ungleichungen für jedes beliebige endliche Intervall und lassen sich, wann immer sinnvoll definiert, mittels T auf ganz R + ausdehnen. Zuerst behandeln wir aber eine erste, diskrete Version des Optimal Stopping Theorems, welches im Kapitel 3.4 unter zusätzlichen Bedingungen verallgemeinert wird. Lemma 3.1. Seien τ 1, τ 2 beschränkte Stoppzeiten, die nur endlich viele Werte annehmen, dann gilt für ein Submartingal X, dass Ist X ein Martingal, dann gilt in (3.1) sogar Gleichheit. E [ X τ1 Fτ2 ] Xτ1 τ 2 f.s. (3.1) Beweis. Wir beweisen den Satz für Submartingale und im Falle von Martingalen werden alle Ungleichungen zu Gleichungen. Es sind t 1 < t 2 <... t m jene Werte in R +, welche die Stoppzeiten annehmen, und wir müssen zeigen, dass X τ1 dp X τ1 τ 2 dp A F τ2. ( ) A Da aber A = m i=1 A [τ 2 = t i ] reicht es für alle i = 1,..., m X τ1 dp X τ1 τ 2 dp = A [τ 2 =t i ] A A [τ 2 =t i ] A [τ 2 =t i ] X τ1 τ i dp

43 3.1. MARTINGALUNGLEICHUNGEN 43 zu zeigen. Da aber aus Definition der gestoppten σ-algebra A [τ 2 = t i ] F ti dass ( ) auf jedem Fall dann erfüllt ist, falls für alle i = 1,..., m gilt E[X τ1 F ti ] X τ1 t i. folgt, gilt, ( ) Nun gilt aber weiters E[X τ1 t k+1 F tk ] = E[X tk+1 I [τ1 >t k ] + X τ1 t k+1 I [τ1 t k ] F tk ] = E[X tk+1 F tk ] I [τ1 >t k ] + X τ1 t k+1 I [τ1 t k ] X tk I [τ1 >t k ] + X τ1 t k+1 I [τ1 t k ] = X τ1 t k. Verwendet man diese Abschätzung iterativ startend mit k = m 1, folgt ( ). Nun folgen die ersten Ungleichungen für Submartingale. Die Ungleichungen gelten auch im diskreten Fall, d.h., das Supremum wird über eine höchstens abzählbare Menge genommen. In diesem Fall kann die Annahme der Rechts-stetigkeit fallengelassen werden. Satz 3.1 (Doobsche L p -Ungleichung). Sei X ein rechts-stetiges Martingal oder positives Submartingal, dann gilt für p 1 und für p > 1 [ ] P sup t [,T ] X t ɛ 1 ɛ p sup t [,T ] E X t p (3.2) ( E supt [,T ] X t p) 1/p p p 1 sup ( t [,T ] E Xt p) 1/p (3.3) Wir bemerken and dieser Stelle, dass für p > 1 jedes p-fach integrierbare Submartingal, was impliziert, dass die rechten Seiten der Ungleichungen in Satz 3.1 endlich sind, nach Satz A.2 über endlichen Intervallen gleichgradig integrierbar ist. Beweis. Wir nehmen im Folgenden an, dass X auf [, T ] p-fach integrierbar ist, ansonsten sind die Ungleichungen trivialerweise erfüllt. Seien t 1 < t 2 <... < t m beliebige endlich viele Zeitpunkte in [, T ]. Dann definiert τ := { inf{ti : X ti ɛ} falls ein derartiges i existiert, t m sonst eine Stoppzeit, die nur endlich viele Werte annimmt. Der Prozess X sei vorerst ein beliebiges Submartingal. Da τ t m f.s. folgt mittels Lemma 3.1 EX tm EX τ = E [ ] [ ] X τ I [supi X ti ɛ] + E Xτ I [supi X ti <ɛ] ɛ P [ sup i X ti ɛ ] + E [ X tm I [supi X ti <ɛ]].

44 44 KAPITEL 3. MARTINGALE Wir ziehen den letzten Term auf beiden Seiten ab und erhalten ɛ P [ sup i X ti ɛ ] E [ X tm I [supi X ti ɛ]] E Xtm. ( ) Wir zeigen nach diesen Vorbemerkungen nun die Doobschen Ungleichungen zuerst für endliche Suprema und erweitern die Aussagen dann auf Suprema über dem Intervalle [, T ]. (i) Sei nun X ein Martingal oder positives Submartingal, dann ist X p wegen Proposition 3.1, vgl. Bsp. 3.7, ein Submartingal und aus ( ) folgt P [ sup i X ti ɛ ] 1 ɛ p E[ X tm p ] = 1 ɛ p sup i E [ X ti p ], wobei wir für die Gleichung verwendet haben, dass die Mittelwertfunktion für ein Submartingal monoton wachsend ist. Somit ist die endliche Version von (3.2) bewiesen. Um die zweite Ungleichung (3.3) zu beweisen, definieren wir X := sup i X ti und erhalten aus ( ) für alle n N [ X n E[(X n) p ] = E ] p s p 1 ds [ n = E = n n [ = p E X tm = ] p s p 1 I [X s] ds p s p 1 P [ X s ] ds p s p 2 E [ X tm I [X s]] ds X n ] s p 2 ds p p 1 E[ X tm (X n) p 1]. Als nächstes wenden wir die Hölder-Ungleichung auf die rechte Seite an und erhalten E[(X n) p ] und nach Division der entsprechenden Terms p ( E Xtm p) 1/p ( E(X n) p) (p 1)/p. p 1 ( E[(X n) p ] ) 1/p p ( E Xtm p) 1/p p p 1 p 1 sup ( i E Xtm p) 1/p. Wir betrachten den Limes für n und erhalten wegen dem Satz von der Monotonen Konvergenz die endliche Version der L p -Ungleichung (3.3). (ii) Der Beweis endet mit der Erweiterung der Resultate auf Intervalle. Da X ein rechtsstetiger Prozess ist, reicht es die Suprema auf einer dichten abzählbaren Menge D [, T ] zu betrachten. Weiters gibt es dann eine wachsende Folge von endlichen Mengen D n sodass D = n N D n und wir können die obigen Ergebnisse auf die Indexmengen D n anwenden.

45 3.1. MARTINGALUNGLEICHUNGEN 45 Die Ungleichung im Satz folgen nun im Limes von n wegen der Monotonie der Erwartungswertfunktion für Submartingale und einerseits wegen der Stetigkeit von unten von Wahrscheinlichkeitsmaßen da [ supdn Xt p λ] [ sup D Xt p λ] = [ sup [,T ] Xt p λ] und da lim E[ sup Dn X t p] = E [ sup D X t p] n laut dem Satz von der Monotoner Konvergenz. Grundlegend um die pfadweise Regularität von Submartingalen X zu untersuchen, s. den folgenden Abschnitt, sind Abschätzungen der Anzahl der erwarteten Kreuzungen der Pfade eines Submartingals X über ein Interval [a, b], die wir in einem separatem Lemma vorwegnehmen wollen. Sei F eine endliche Teilmenge von [, ) und für jedes Intervall (a, b) definieren wir rekursiv τ 1 := min{t F : X t a} (3.4) für k 1 und für k 1 σ k := min{t > τ k : t F, X t a} (3.5) τ k+1 := min{t > σ k : t F, X t a}. (3.6) Die Zufallsvariable U(X, F, (a, b)) := max{k : σ k < } bezeichnet die Anzahl der Überkreuzungen des Intervalls (a, b) nach oben beschränkt auf die Zeiten in F. Analog bekommen wir die Definition der Kreuzungen nach unten. Für beliebige Teilmengen F von R + definieren wird die Anzahl der Kreuzungen als das Supremum über die Anzahl der Kreuzungen aller endlichen Teilmengen von F. Diese Suprema sind Zufallsvariablen falls entweder F abzählbar oder das Submartingal X zusätzlich rechts-stetig ist. Schlußendlich verwenden wir für Intervalle die Notation D(X, T, (a, b)) := sup { D(X, F, (a, b)) ; F [, T ], F endlich }, U(X, T, (a, b)) := sup { U(X, F, (a, b)) ; F [, T ], F endlich }. Dann gelten folgenden Abschätzungen, wobei man für diskrete Indexmengen an Stelle des Intervalls [, T ] die Bedingung der rechts-stetigen Pfade fallen lassen kann. Lemma 3.2 (Kreuzungsungleichungen). Sei X ein rechts-stetiges Submartingal, dann gilt für jedes Interval (a, b) [, T ], dass die Kreuzungen nach unten E [ D(X, T, (a, b)) ] 1 b a sup t [,T ] E(X t b) + (3.7) erfüllen und die Kreuzungen nach oben erfüllen E [ U(X, T, (a, b)) ] 1 b a sup t [,T ] E(X t a) +. (3.8)

46 46 KAPITEL 3. MARTINGALE Beweis. Ähnlich wie im Beweis der L p -Ungleichungen zeigen wir die Resultate zuerst für endliche und abzählbare Indexmengen und schließen dann mittels der Rechts-stetigkeit der Pfade auf beschränkte Intervalle. Weiters zeigen wir die Ungleichung nur für die Kreuzungen nach oben, da das Resultat für die Kreuzungen nach unten analog bewiesen wird. (i) Sei F [, T ] eine endliche Menge, dann folgt aus Satz 3.1, da σ k T τ k+1 T (beides endliche Stoppzeiten mit nur endlich vielen Werten), dass [ ( )] E X τk+1 T X σk T = E [ = E k=1 [ U(X,F,(a,b)) k=1 U(X,F,(a,b)) k=2 ( )] X τk+1 T X σk T ( ) X σk T X τk T [ ] E (b a) U(X, F, (a, b)) + X τu(x,f,(a,b))+1 T a (b a) EU(X, F, (a, b)) + E ( X T a ) +. ( ) ] X σ1 T a + X τu(x,f,(a,b))+1 T a Da nach Satz 3.1 der Prozess (X t a) + ein Submartingal ist und daher E(X T a) + = sup t [,T ] E(X t a) +, folgt die Abschätzung (3.8), wobei die linken Seite durch EU(X, F, (a, b)) ersetzt wird. (ii) Der Übergang von endlichem zu abzählbaren Indexmengen erfolgt mittels des Satzes von der Monotonen Konvergenz. Sei F n ein wachsende Folge von endlichen Teilmengen von [, T ], sodass F = n F n dicht in [, T ] liegt. Dann gilt U(X, F n, (a, b)) U(X, F, (a, b)) = U(X, T, (a, b)) wegen der Rechts-stetigkeit der Pfade und (3.8) folgt aus dem Satz von der Monotonen Konvergenz. 3.2 Regularitätsatz für Submartingale Ein Ziel dieses Kapitel ist der folgenden Satz, der erlaubt dass meistens ohne Beschränkung der Allgemeinheit ein (Sub-/Super-)Martingal als càdlàg vorausgesetzt werden kann und / oder der Wahrscheinlichkeitsraum die üblichen Bedingungen erfüllt. Dieses Ergebnis ergibt sich als Folgerung zum Regularitätssatzes von Submartingalen. Zum Beweis des Regularitätssatzes benötigt man die Kreuzungsungleichungen im vorherigen Kapitel über abzählbaren Indexmengen, d.h., wir benötigen keine Annahmen an die Rechts-stetigkeit der Pfade, die ja gerade das Ziel des Regularitätssatzes ist. Satz 3.2 (Regularitätssatz). Sei X ein Submartingal. Dann gilt für fast alle ω Ω, dass für alle t (, ) der linksseitige Limes lim s t,s Q X s (ω) und für alle t [, ) der rechtsseitige Limes lim s t,s Q X s (ω) existiert. f.s.

47 3.3. MARTINGALKONVERGENZSÄTZE 47 Beweis. Es reicht aus die Aussage des Satzes für die Intervalle [, T ], T >, zu zeigen. Es gilt E(X t b) + b + EX + T < t [, T ] und daher gilt wegen der diskreten Version der Kreuzungsungleichungen in Lemma 3.2, für welche wir die Annahme rechts-stetiger Pfade nicht benötigen, dass ein Ω Ω mit P(Ω ) = 1 existiert und D(X(ω), [, T ] Q, (a, b)) < a < b, a, b Q, ω Ω. ( ) Wir zeigen die f.s. Existenz der linken Limiten mit einem Widerspruch zu ( ). Die Existenz der rechten Limiten folgt mit einem analogen Argument. Sei t [, T ], dann gilt, falls der Grenzwert lim s t,s Q X s nicht f.s. existiert, dass es zwei rationale Zahlen a, b gibt, so dass lim inf X s < a < b < lim sup s t,s Q s t,s Q mit positiver Wahrscheinlichkeit. Das heißt aber, dass D(X, [, T ] Q, (a, b)) = mit positiver Wahrscheinlichkeit. Das aber gibt einen Widerspruch zu ( ). X s Konsequenzen des Regularitätssatzes sind, dass o.b.d.a. für rechts-stetige Submartingale angenommen werden kann, dass der zugrundeliegende Wahrscheinlichkeitsraum die üblichen Bedingungen erfüllt und umgekehrt, dass ein Submartingal auf einem Wahrscheinlichkeitsraum, der die üblichen Bedingungen erfüllt, o.b.d.a. als càdlàg angenommen werde kann. Insbesondere gilt, dass jedes Martingal, da ja t EX t konstant ist, eine f.s. càdlàg Modifikation besitzt. Diese Resultate sind im folgenden Satz zusammengefasst, den wir hier nicht beweisen werden und verweisen auf die Literatur [EK86, KS91, RY99]. Korollar 3.1. (i) Sei X ein rechts-stetiges (Sub-)Martingal bezüglich einer Filtration (F t ) t, dann ist X f.s. càdlàg und X ist ein (Sub-)Martingal bezüglich der Filtration (F t+ ) t und der Vervollständigung / Augmentierung davon. (ii) Sei X ein (Sub-)Martingale bezüglich einer rechts-stetigen, vollständigen Filtration (F t ) t und die Mittelwertfunktion t EX t sei rechts-stetig, dann besitzt X eine càdlàg Modifikation, die ebenfalls ein (F t ) t -(Sub-)Martingal ist. 3.3 Martingalkonvergenzsätze Wir betrachten nun das Grenzverhalten von rechts-stetigen Submartingalen für t. Anhand der Kreuzungsungleichungen erhält man eine einfache, hinreichende Bedingung für die Existenz eines f.s. Grenzwertes X. Danach werden wir Folgerungen davon und auch hinreichend und notwendige Bedingungen betrachten. Satz 3.3 (Konvergenzsatz für Submartingale). Sei X ein f.s. rechts-stetiges Submartingal. Gilt sup t EX t + <, dann konvergiert X t f.s. gegen eine F -messbare Zufallsvariable X und E X <.

48 48 KAPITEL 3. MARTINGALE Beweis. Wegen der Kreuzungsungleichung gilt für alle T > EU(X, T, (a, b)) E(X T a) + b a EX+ T a b a < und der Satz von der Monotonen Konvergent impliziert für T EU(X, R +, (a, b)) sup t EX t + b a a. Daraus folgt, dass für alle < a < b < die Mengen [U(X, R +, (a, b)) = ] Nullmengen sind und ebenso die Menge N = a<b, a,b Q [U(X, R +, (a, b)) = ] welche die Menge [lim inf t X t < lim sup t Xt ] beinhaltet. Daraus folgt lim t X t (ω) := X (ω) existiert für alle ω Ω\N. Weiters ist X messbar als f.s. punktweiser Limes messbarer Funktionen und die Annahme sup t EX t + < impliziert die Beschränktheit von X t in L 1 (P) da sup t ) E X t sup (2EX +t EX t t 2 sup EX t + EX. t Aus Fatou s Lemma E X lim t E X t folgt nun die Integrierbarkeit von X. Bemerkung 3.2. Im Beweis haben wir gesehen, dass für ein rechts-stetiges Submartingal die Bedingungen sup t EX t + < und sup t E X t < äquivalent sind. Beispiel 3.8 (Supermartingal-Konvergenz). Jedes positive Supermartingal X konvergiert fast sicher. Dies folgt sofort aus Satz 3.3 da X ein negatives Submartingal ist und somit sup t E( X t ) + = <. Beispiel 3.9 (Geometrische Brownsche Bewegung). Sei X t = exp(σb t + (µ σ 2 /2)t) eine geometrische Brownsche Bewegung, dann ist X für µ ein positives Supermartingal und konvergiert somit nach dem vorherigen Beispiel f.s. gegen eine integrierbare Zufallsvariable X. In diesem Falle gilt X = f.s., vgl. Abb. 2.1, da man sogar zeigen kann, dass X t f.s. falls µ σ 2 /2 <. In diesem Fall gilt, dass die Verteilungsfunktion von X t gegen durch Φ ( ln x (µ σ 2 /2)t σ t ) I (, ) (x) I [, ) (x) x R\{}. Die Heaviside-Funktion I [, ) ist aber der Verteilungsfunktion von X =. Im Falle µ >, bleibt nur noch zu zeigen, dass neben der schwachen Konvergenz auch die fast sichere Konvergenz gilt. Aus der schwachen Konvergenz gegen eine Konstante folgt, dass jede Folge X tn, n N, eine f.s. konvergente Teilfolge besitzt. Da dies aber für jede Folge von Indices gilt, kann man daraus schließen das jede Folge f.s. konvergent sein muss. Aus der Stetigkeit der geometrischen Brownschen Bewegung schließt man auf den stetigen Grenzübergang. Wir beschließen diesen Abschnitt in dem wir die f.s. Konvergenz noch zur Konvergenz im Mittel und p-ten Mittel ausdehnen. Dieser Satz beantwortet auch die letzte offene Frage zu Martingalen, die mittels X t = E[Y F t ] erzeugt sind.

49 3.3. MARTINGALKONVERGENZSÄTZE 49 Satz 3.4 (Konvergenz im Mittel). Für ein f.s. rechts-stetiges Martingal oder positives Submartingal sind die folgenden Bedingungen äquivalent. (i) Die Familie {X t, t } is gleichgradig integrierbar. (ii) X t konvergiert für t in L 1 (P). (iii) X t konvergiert für t f.s. gegen eine integrierbare Zufallsvariable X und (X t ) t [, ] ist ein (Sub-)Martingal. Ist X ein Martingal, dann sind die Bedingungen (i) (iii) weiters äquivalent zu folgender Bedingung: (iv) Es existiert eine integrierbare Zufallsvariable Y sodass X t = E[Y F t ] fast sicher. Falls (iv) gilt, dann gilt auch, dass E[Y F ] = X fast sicher mit X aus (iii). Dieses ist auch f.s. gleich dem L 1 (P)-Grenzwert in (ii). Bemerkung 3.3. Ist der Prozess X ein Submartingal aber nicht f.s. positiv, dann gelten immer noch die Implikationen (i) (ii) (iii). Bemerkung 3.4. Dieser Konvergenzsatz impliziert auch ein Konvergenzresultat für bedingte Erwartungen bekannt unter dem Namen Lèvys -1-Gesetz. Sei Y integrierbar und (F t ) t eine rechts-stetige, vollständige Filtration, dann gilt E[Y F t ] E[Y F ] f.s. und in L 1 (P). Der Name resultiert aus der Anwendung, dass für A F gilt P[A F t ] I A {, 1} fast sicher. Heuristisch ausgedrückt heißt dies nichts anderes, dass wenn wir schrittweise alle Informationen erhalten, die den Ausgang eines Ereignisses bestimmen, dann werden wir schrittweise immer sicherer, ob das Ereignis eintritt oder nicht. Beispiel 3.1 (Geometrische Brownsche Bewegung). Die geometrische Brownsche Bewegung X t = exp(σb t σ 2 t/2) ist ein Martingal und X = fast sicher. Es gilt aber EX t = e = 1 und da EX =, gilt dass die L 1 (P)-Konvergenz sicherlich nicht erfüllt ist. Um keinen Widerspruch zu Satz 3.4 zu erhalten folgt, das Martingal ist nicht gleichgradig integrierbar. Beweis. (i) (ii): Da der Prozess X gleichgradig integrierbar ist, folgt die Beschränktheit in L 1 (P) (Satz A.2) und somit nach Satz 3.3 die Existenz eines f.s. integrierbaren Grenzwertes X. Da Konvergenz in L 1 (P) äquivalent zur Konvergenz in Wahrscheinlichkeit (impliziert durch f.s. Konvergenz) und gleichgradige Integrierbarkeit ist, folgt (ii). (ii) (iii): Aus der Konvergenz in L 1 (P) folgt die Beschränktheit in L 1 (P) und somit nach Satz 3.3 die Existenz eines f.s. integrierbaren Grenzwertes X. Weiters ist die bedingte Erwartung ein stetiger Operator bezüglich L 1 (P) und daher folgt die Submartingaleigenschaft aus X t E[X t+h F t ] und dem Grenzübergang h.

50 5 KAPITEL 3. MARTINGALE (iii) (i): Um die gleichgradige Integrierbarkeit der Familie {X t, t } zu erhalten, reicht es die gleichgradige Integrierbarkeit der Familie {E[X F t ], t } zu zeigen, da X t E[X F t ] für alle t. Wir setzen N t := [ E[X F t ] > n] F t und A t := E[X F t ] dp. N t D.h. es bleibt zu zeigen, dass lim n sup t A t =, vgl. die Definition A.1 der gleichgradigen Integrierbarkeit. Die bedingte Version der Jensen schen Ungleichung liefert A t E[ X F t ]dp = X dp N t N t und aus der Markov-Ungleichung folgt P[N t ] E[ E[X F t ] ] E X. n n Daraus folgt aber, dass, wenn nur n groß genug gewählt wird, A t unabhängig von t beliebig klein wird. (iii) (iv): Setze Y := X. (iv) (i): Es gilt X t = E[Y F t ] fast sicher und Y ist integrierbar. Da somit Y auch gleichgradig integrierbar ist, existiert nach Satz A.2 eine nicht-negative, nicht-fallende, konvexe Funktion G auf R +, sodass lim t G(t)/t = und EG( Y ) <. Wir verwenden nun zweimal die Jensen sche Ungleichung und erhalten sup t EG( X t ) = sup t EG( E[Y F t ] ) sup EG(E[ Y F t ]) t sup E [ E[G( Y ) F t ] ] t = EG( Y ) <. Daher folgt nach Satz A.2, dass die Familie {X t, t } gleichgradig integrierbar ist. Schlussendlich zeigen wir noch den Zusatz zu (iv). Da (iv) (i) (ii) & (iii) existiert eine integrierbare, F -messbare Zufallsvariable X, sodass E[Y F t ] X fast sicher und in L 1 (P). Dann gilt für alle A F t bei beliebigem t, dass Y dp = E[Y F t ] dp = E[X F t ] dp = X dp. ( ) A A Da aber t F t ein Erzeuger von F ist und die Mengen aus F, die ( ) erfüllen eine monotone Klasse bilden, folgt mittels dem Monoton Class Theorem 1, dass EY I A = EX I A für alle A F gilt. Daher ist X eine Version der bedingten Erwartung E[Y F ]. Schlussendlich, dass im Falle (ii) und (iii) die Konvergenz E X t X gilt, folgt aus der Äquivalenz von Konvergenz im Mittel zur Konvergenz in Wahrscheinlichkeit von gleichgradig integrierbaren Zufallsvariablen. 1 Sei A eine Algebra und M eine monotone Klasse über Ω. Dann gilt σ(a) M. A A

51 3.4. OPTIONAL STOPPING THEOREM 51 Zuletzt erweitern wir noch das Konvergenzresultat für beschränkte Submartingale zur Konvergenz in L p (P). Satz 3.5 (L p -Konvergenzsatz). Sei p > 1 und X ein f.s. rechts-stetiges Martingal oder positives Submartingal beschränkt in L p (P), d.h., sup t E X t p <. Dann ist das Submartingal X p gleichgradig integrierbar und es existiert eine p-fach integrierbare, F -messbare Zufallsvariable X, sodass X t X f.s. und in L p (P). Beweis. Aus der L p -Beschränktheit folgt, dass X gleichgradig integrierbar ist und der f.s. Grenzwert X existiert. Aus der Doobschen L p -Ungleichung folgt E [ sup t X t p] ( p ) p supt E X t p <. p 1 Da somit sup t X t p eine integrierbare Majorante ist, folgt X p ist ein gleichgradig integrierbares Submartingal und es existiert ein f.s. integrierbarer Limes. Klarerweise gilt X t p X p f.s., also stimmt dieser mit dem Limes überein und es folgt E X p <. Der Satz von der Dominierten Konvergenz mit Majorante X t X p 2 p sup t X t p liefert nun die Konvergenz in L p (P). 3.4 Optional Stopping Theorem Als letztes Resultat erweitern wir Lemma 3.1 zu beliebigen Stoppzeiten. Insbesondere erhalten wir damit auch, dass die (Sub-)Martingaleigenschaft auch für zufällige Zeiten gilt. Satz 3.6 (Optional Stopping Theorem). Sei X ein f.s. rechts-stetiges Submartingal und τ 1, τ 2 sind zwei beliebige Stoppzeiten. (i) Ist τ 1 is f.s. beschränkt, dann gilt fast sicher E[X τ1 F τ2 ] X τ1 τ 2. (3.1) (ii) Ist τ 1 f.s. endlich, E X τ1 < und lim t E X t I [τ1 >t] =, dann gilt fast sicher (iii) Ist X gleichgradig integrierbar, dann gilt fast sicher E[X τ1 F τ2 ] X τ1 τ 2. (3.2) E[X τ1 F τ2 ] X τ1 τ 2. (3.3) Falls X ein Martingal ist, dann gilt in (3.1) (3.3) sogar Gleichheit. Bemerkung 3.5. Im Falle τ 2 f.s. endlich gilt (iii) (ii): Klarerweise gilt X t I [τ1 >t] X t und, da letztere gleichgradig integrierbar sind, sind auch X t I [τ1 >t] gleichgradig integrierbar. Weiters konvergieren diese wegen der Endlichkeit der Stoppzeit f.s. gegen. Da die gleichgradige Integrierbarkeit das Vertauschen von Limes und Erwartungswert erlaubt folgt nun lim t E X t I [τ1 >t] =.

52 52 KAPITEL 3. MARTINGALE Bemerkung 3.6. Im Falle unbeschränkter Stoppzeiten ist die gleichgradige Integrierbarkeit in (iii) eine notwendige Bedingung. Wir illustrieren das an Hand eines Beispiels. Für das nicht gleichgradig integrierbare Martingal X t = exp(b t t/2), s. Bsp. 3.1, sei für ein c < 1 die Stoppzeit τ c := inf{t > : X t c} definiert. Dann gilt τ c ist unbeschränkt aber f.s. endlich, da X t f.s., und X τc = c fast sicher. Somit gilt EX τc = c. Andererseits, falls das Optional Stopping Theorem gelten sollte, dann hätten wir EX τc = EX = 1. In Bezug auf (ii) bedeutet dies, da E X τc = c <, dass EX n I [τc >n] nicht gegen null konvergiert. Beweis von Satz 3.6. Wir führen den Beweis für Submartingale und es ist klar, dass im Falle eines Martingals alle Ungleichungen zu Gleichungen werden. Das immer wiederkehrende Argument im folgenden Beweis ist die Konvergenz von Erwartungswerten, die aus der f.s. Konvergenz und der gleichgradigen Integrierbarkeit der Argumente im Erwartungswert folgt. (i) Wir nehmen vorerst an, dass beide Stoppzeiten τ 1, τ 2 durch T beschränkt sind, d.h., τ 1, τ 2 < T fast sicher. Diese Stoppzeiten können dann mittels Folgen von Stoppzeiten, die nur endlich viele Werten annehmen, punktweise von oben approximiert werden. Die erste Variante des Optional Stopping Theorems, Lemma 3.1, angewendet auf das Submartingal 2 X c, c R, liefert X τ n 1 τ n 2 c E[X τ n 1 c F τ n 2 ] woraus E[X τ n 1 τ n 2 c F τ 2 ] E[X τ n 1 c F τ2 ] folgt. Nach Definition der bedingten Erwartung ist das aber E [ (X τ n 1 τ2 n c) I [ A] E (Xτ n c) I ] 1 A A F τ2 und die beiden Integranden konvergieren punktweise. Eine weitere Anwendung des Optional Stopping Theorems für die konstante Stoppzeit T, o.b.d.a. können wir für n groß genug annehmen, dass auch τ1 n T f.s., liefert c X τ n 1 c E[X T c F τ n 1 ] und analog für X τ n 1 τn 2 c. Mit dieser beidseitigen Abschätzung erhalten wir eine gleichgradig integrierbare Familie von Majoranten, s. Bsp. A.3. Daraus folgt, dass die Zufallsvariablen {X τ n 1 c, n N} und {X τ n 1 τ2 n c, n N} gleichgradig integrierbar sind und wir können in ( ) den Grenzwert für n mit dem Erwartungswert vertauschen. Wir erhalten X τ1 τ 2 c = E [ X τ1 τ 2 c ] [ Fτ2 E Xτ1 c ] Fτ2, was äquivalent zu E [ (X τ1 τ 2 c) I A ] E [ (Xτ1 c) I A ] A F τ2 2 x x c ist eine konvexe, nicht-fallende Funktion und somit ist nach Satz 3.1 der Prozess X c ebenfalls ein (Sub-)Martingal. ( ) ( )

53 3.4. OPTIONAL STOPPING THEOREM 53 ist. Der Grenzübergang c liefert (3.1) unter der zusätzlichen Bedingung, dass τ 2 f.s. beschränkt ist. Dies folgt, da man in ( ) wiederum Grenzwert und Anwendung der Erwartung auf beiden Seiten der Ungleichung vertauschen kann: O.B.d.A. gilt c < und man zerlege X τ1 τ 2 c = (X τ1 τ 2 ) + (X τ1 τ 2 c). Hier gilt der erste Term auf der rechten Seite ist unabhängig von c und (X τ1 τ 2 c) konvergiert punktweise monoton wachsend gegen (X τ1 τ 2 ). Der Satz von der Monotonen Konvergenz impliziert nun lim E[ ] [ ] (X τ1 τ 2 c) I A = E Xτ1 τ 2 I A c Ein analoges Argument gilt für die rechte Seite in ( ). A F τ2. Schlussendlich, ist τ 2 unbeschränkt, dann ist τ 2 n ein Folge beschränkter Stoppzeiten, die τ 2 approximiert. Das Ergebnis bisher liefert für n grösser als die f.s. obere Schranke von τ 1, dass X τ1 τ 2 E [ X τ1 Fτ2 n]. Es ist leicht zu überprüfen, dass für ein A F τ2 gilt A [τ 2 n] F τ2 n. Daher erhält man E [ [ X τ1 I A [τ2 n]] E Xτ1 τ 2 I A [τ2 n]]. In diesen Ungleichungen gilt wiederum die f.s. Konvergenz und die gleichgradige Integrierbarkeit der Integranden und somit er halten wir E[X τ1 I A ] E[X τ1 τ 2 I A ]. Der Beweis von (i) ist abgeschlossen. (ii) Für fast sicher endliches τ 1 ist τ 1 n eine Folge beschränkter Stoppzeiten, die τ 1 punktweise approximiert. Mit dem Ergebnis von (i) gilt E [ X τ1 τ 2 n I ] E[X τ1 n I A ] A F τ2. Das Ergebnis (3.2) folgt aus dem Grenzübergang n und den zusätzlichen Bedingungen, die die gleichgradige Integrierbarkeit der Integranden garantieren. Wir zeigen kurz die Art des Arguments (analog für beide Seiten in der obigen Ungleichung), das das Vertauschen von Grenzwert und Erwartung erlaubt, welches aus der punktweisen Konvergenz der Integranden und der Konvergenz der Erwartung der Absolutbeträge folgt, vgl. Satz A.3. Es gilt E X τ1 n I A = E [ [ ] X τ1 n I A I [τ1 n]] + E Xτ1 n I A I [τ1 >n] = E [ X τ1 I A I [τ1 n]] + E [ Xn I A I [τ1 >n]], wobei der zweite Term für n laut Voraussetzung verschwindet und der erste Term wegen des Satzes von der Monotonen Konvergenz gegen E [ X τ1 I A ] < konvergiert. Daraus folgt nun die gleichgradige Integrierbarkeit und es gilt lim n EX τ1 t I A = EX τ1 I A.

54 54 KAPITEL 3. MARTINGALE (iii) Ist das Submartingal gleichgradig integrierbar existiert eine terminale Zufallsvariable X und die Zufallsvariablen X τ1 und X τ1 τ 2 sind auch für nicht f.s. endliche Stoppzeiten definiert. Wir betrachten wiederum die Submartingale X c, c R, und erhalten aus dem Resultat in (i) für die endlichen Stoppzeiten τ 1 n, dass X τ1 τ 2 n c E[X τ1 n c F τ2 ]. ( ) Wie im Beweis zuvor betrachten wir nun zuerst den Grenzübergang n und dann c, wobei wir die im ersten Fall eine gleichgradig integrierbare Familie von Majoranten aus der beidseitigen Abschätzung für t n c X τ1 n c = X τ1 n t c E[X t c F τ1 n] E[E[X F t ] c Fτ1 n] E[X c F τi n] erhalten. Hier haben wir für die letzte Ungleichung die Jensen sche Ungleichung verwendet. Die bedingten Erwartungen auf der rechten Seite sind eine gleichgradig integrierbare Familie und wir schließen daraus, dass auch X τ1 n c, n N, eine gleichgradig integrierbare Familie bilden. Ein analoges Argument gilt auch für die linke Seite in ( ). Da nun in ( ) die f.s. Konvergenz gilt, erhalten wir durch Vertauschen von Limes und Erwartungswert X τ1 τ 2 c E[X τ1 c F τ2 ]. Schlussendlich liefert der Grenzübergang c die Ungleichung (3.3). Die Argumente hierzu sind analog zum Beweis von (i). Eine einfache Konsequenz des Optional Stopping Theorems ist, dass das Stoppen eines Submartingals die Integrierbarkeit des Prozesses erhält. Korollar 3.2. Sei X ein f.s. rechts-stetiges Submartingal und τ eine beliebige Stoppzeit, dann gilt E X τ s < für alle s. Beweis. Wie im Beweis von Satz 3.3 erhalten wir zuerst E X τ s = 2EX + τ s EX τ s und aus dem Optional Stopping Theorem folgt E[X τ s F ] X und somit EX τ s EX. Das impliziert E X τ s 2EX + τ s EX und es reicht nun aus die Integrierbarkeit von EX + τ s zu zeigen. Nach Satz 3.1 ist X + ein positives Submartingal und es gilt nach dem Optional Stopping Theorem X + τ s E[X + s F τ ]. Eine Anwendung des Erwartungswertes auf beiden Seiten der letzten Ungleichung liefert das gesuchte: EX + τ s EX + s E X s <. Abschließend beweisen wir, dass das Stoppen eines (Sub-)Martingals auch die (Sub-)Martingaleigenschaft erhält.

55 3.5. DIE DOOB-MEYER ZERLEGUNG & DIE QUADRATISCHE VARIATION 55 Korollar 3.3. Sei X ein rechts-stetiges (Sub-)Martingal und τ eine Stoppzeit. Dann ist der gestoppte Prozess X τ ein rechts-stetiges (Sub-)Martingal, d.h., es gilt X s τ E[X t τ F s ] f.s. s t und falls X ein Martingal ist, gilt sogar Gleichheit. Beweis. Der gestoppte Prozess ist offensichtlich ebenfalls rechts-stetig und, da X progressiv messbar ist, auch adaptiert. Die Integrierbarkeit des gestoppten Prozesses folgt aus Korollar 3.2. Schlussendlich gilt mit Satz 3.6 (i) und den beiden Stoppzeiten s und t T, dass für alle s t gilt E[X t τ F s ] X s t τ = X s τ mit Gleichheit falls X ein Martingal ist. 3.5 Die Doob-Meyer Zerlegung & die quadratische Variation In diesem Kapitel legen wir einen filtrierten Wahrscheinlichkeitsraum (Ω, F, (F t ) t, P) zu Grunde, der die üblichen Bedingungen erfüllt. Das erlaubt im Folgenden, dass jeder Grenzwert (f.s., im Mittel, etc.) eines adaptierten Prozesses wiederum adaptiert ist und die Ununterscheidbarkeit, die Adaptiertheit erhält. Ein Prozess bezeichnet immer einen reellen Prozess in stetiger Zeit mit Indexmenge R +. Oft werden wir uns auf Prozesse X beschränken, die f.s. im Ursprung starten, d.h., X = fast sicher. Dies ist im Allgemeinen keine Einschränkung, da wir für beliebige Prozess X mittels X t = X t X einen derartigen Prozess erhalten und die Pfadeigenschaften (Stetigkeit, Variation etc.) von X und X übereinstimmen. In diesem Abschnitt beschäftigen wir uns vor allem mit zwei (sehr eng verwandten) Aspekten: Erstens untersuchen wir, wie auch schon bei der Brownschen Bewegung, das Variationsverhalten der Pfade von Martingalen. Zweitens, haben wir in Beispielen gesehen, z.b., N t tλ und B 2 t, dass man aus Submartingalen durch Kompensation, d.h., Abziehen eines geeigneten wachsenden Objekts, wiederum Martingale erhält. In diesem Abschnitt werden wir diese Beobachtung verallgemeinern. Das folgende erste Resultat zeigt einerseits, dass kein (interessantes) stetiges Martingal Pfade von endlicher Variation besitzt. Andererseits liefert es eine einfache Bedingung, die die Existenz der quadratischen Variation eines stetigen Martingals garantiert. Die Bedingung ist überaus restriktiv und gilt nicht einmal für das Standardbeispiel eines stetigen Martingals, nämlich die Brownsche Bewegung. Wir werden diese zweite Aussage nicht beweisen nur den Beweis etwas später skizzieren, da wir wir auf einem anderen Weg ein stärkeres Resultat zeigen werden. Ein direkter Beweis der Aussage findet sich in [RY99, Thm. IV.1.3]. Satz 3.7. (i) Sei M ein f.s. stetiges Martingal mit endlicher Variation, dann ist M fast sicher konstant.

56 56 KAPITEL 3. MARTINGALE (ii) Sei M ein f.s. stetiges und beschränktes Martingal, dann ist M von endlicher quadratischer Variation. Beweis. (i) Ohne Beschränkung der Allgemeinheit (s.o.) können wir annehmen, dass M = f.s. und wir werden zeigen, dass dann M fast sicher konstant gleich ist. Wir nehmen zuerst an die Variation von M ist f.s. beschränkt, d.h., V [,t] (M) < K fast sicher. Dann gilt für eine beliebige Zerlegung P = { = t < t 1 <... < t n = t} wegen der Martingaleigenschaft EM 2 t [n 1 ] = E (Mt 2 i+1 Mt 2 i ) i= [n 1 = E i= ] (M ti+1 M ti ) 2. Daraus ergibt sich die Abschätzung [ EMt 2 E V [,t] (M) ( sup M ti+1 M ti )] K E [ sup M ti+1 M ti ]. i i Hier gilt die obere Schranke konvergiert für Verfeinerungen der Zerlegung gegen null auf Grund des Satzes von der Dominierten Konvergenz: Der Term im Erwartungswert konvergiert wegen der Stetigkeit von M f.s. gegen null und ist durch K beschränkt. Somit gilt M t = f.s. für alle t. Ist die Variation unbeschränkt, dann definieren wir die Stoppzeiten τ n := inf{t : V [,T ] n} und betrachten den gestoppte Prozess M τn, der nach Korollar 3.3 ebenfalls ein Martingal ist. Diese Martingale sind von beschränkter Variation und es folgt aus dem bereits bewiesenen M τn t = fast sicher für alle t, n N. Wegen der Stetigkeit von M gilt τ n f.s. und daraus folgt nun, dass auch für den ungestoppten Prozess M fast sicher M t = gilt. Bemerkung 3.7 (Lokalisierungsprinzip). Das Beweisprinzip, das im obigen Beweis angewendet wird, eine Eigenschaft zuerst für gestoppte Prozesse zu beweisen und dann aus τ n f.s. auf die Aussage für den nicht gestoppten Prozess zu schließen, heißt Lokalisierung und ist von außerordentlicher Wichtigkeit. Die zentrale Rolle von Stoppzeiten in Beweismethoden unterstreicht auch die Wichtigkeit das Optional Stopping Theorems. Definition 3.3. Wir verwenden für die quadratische Variation eines adaptierten, f.s. (rechts-)stetigen Prozesses X falls sie existiert die Notation X, X t := L 2 [,t](x), t. Der quadratische Variationsprozess X, X = ( X, X t ) t ist adaptiert und startet f.s. im Ursprung, d.h., X, X = fast sicher. Bemerkung 3.8. Im Allgemeinen gilt, dass Existenzaussagen über die quadratische Variation auch immer miteinschließen, dass der Prozess X, X eine f.s. wachsende Modifikation besitzt, die im Falle stetiger Prozesse ebenfalls stetig ist. Wie immer, identifizieren wir dann den Prozess mit dieser Modifikation. Es ist klar, dass die quadratische Variation in t

57 3.5. DIE DOOB-MEYER ZERLEGUNG & DIE QUADRATISCHE VARIATION 57 wachsend und stetig im Falle stetiger Prozesse ist, wäre sie als f.s. Grenzwert definiert. Die quadratische Variation ist aber ein in ω globales stochastisches Konzept im Gegensatz zur punktweise definierten totalen Variation und der Grenzwert hält im Allgemeinen nur in Wahrscheinlichkeit oder im Quadratmittel. Daher ist die Existenz einer stetigen und wachsenden Modifikation eine nicht-triviale Eigenschaft. Das folgende Resultat zeigt, warum in diesem Zusammenhang die quadratische Variation von großem Interesse ist, da diese den geeigneten Kompensator für das Submartingal M 2 liefert Proposition 3.2. Sei M ein f.s. stetiges Martingal mit f.s. stetiger quadratischer Variation M, M, dann ist der Prozess M 2 M, M ein Martingal. Die quadratische Variation ist der bis auf Ununterscheidbarkeit eindeutige Prozess mit dieser Eigenschaft (und den Eigenschaften in Definition 3.3). Beweis. Es sei P = { < t 1 < t 2 <...} eine Zerlegung von R + mit je endlich vielen Gitterpunkten in jedem endlichen Intervall [, t]. Dann definieren wir T t (M) := (M t M tk ) 2 + (M ti+1 M ti ) 2, (3.1) k(t)+1 wobei k(t) so gewählt ist, dass t k t < t k+1, und es gilt T t (M) konvergiert gegen M, M t in Wahrscheinlichkeit, wenn die Gitterweite der Zerlegung auf [, t] gegen null konvergiert. Dann erhält man E[T t (M) T s (M) F s ] = = E[(M t M tk(t) ) 2 (M s M tk(s) ) 2 F s ] + i= k(t) 1 i=k(s) E[(M ti+1 M ti ) 2 F s ] = E[M 2 t M 2 s + M 2 t k(t) M 2 t k(t) 2M t M tk(t) + 2M s M tk(s) F s ] + k(t) 1 i=k(s) E[(M ti+1 M ti ) 2 F s ]. Mit allen gemischten Termen verfährt man folgendermaßen, indem man die Martingaleigenschaft benutzt: E[M t M tk(t) F s ] = E[E[M t M tk(t) F tk(t) ] F s ] = E[M tk(t) E[M t F tk(t) ] F s ] = E[M 2 t k(t) F s ]. Somit werden alle gemischten Terme zu Quadraten, die sich in der Summation passend kürzen und man erhält E[T t (M) T s (M) F s ] = E[M 2 t M 2 s F s ] E[M 2 t T t (M) F s ] = M 2 s T s (M), d.h., der Prozess Mt 2 T t (M) ist ein Martingal. Wir betrachten nun den Grenzwert (in Wahrscheinlichkeit), der laut Voraussetzung existiert und zeigen dieser ist ebenfalls ein Martingal. Dazu verwenden wir wiederum das Lokalisierungsprinzip.

58 58 KAPITEL 3. MARTINGALE Ist das Martingal M beschränkt, dann ist auch T t (M) eine in L p (P), p beliebig, beschränkte Familie und daher gleichgradig integrierbar und es folgt für alle A F s lim E[ ] [ ] (Mt 2 T t (M)) I A = E (M 2 t M, M t ) I A, lim E[ ] [ ] (Ms 2 T s (M)) I A = E (M 2 s M, M s ) I A. Daher gilt Mt 2 M, M t ist ein Martingal. Falls M unbeschränkt ist, definieren wir die Stoppzeiten τ n := inf{t > : M t n oder M, M t n} mit τ n f.s. und M τn ist ein beschränktes Martingal. Daher ist auch (M τ n ) 2 M τ n, M τ n = (M τ n ) 2 M, M τ n ein Martingal, wobei die Äquivalenz M τ n, M τ n = M, M τ n eine Konsequenz des Optional Stopping Theorems und von Satz 3.7 (i) ist. Nun schließt man auf die Konvergenz der (bedingten) Erwartungswerte aus folgenden Eigenschaften: Wir haben punktweise Konvergenz der einzelnen Terme, da τ n f.s., und aus demselben Grund konvergieren auch M τn t 2 und M, M τn t monoton wachsend gegen M t 2 bzw. M, M t. Aus Satz A.3 folgt die gleichgradige Integrierbarkeit und somit die Konvergenz der (bedingten) Erwartungswerte. Schlussendlich zeigen wir noch die Eindeutigkeitsaussage. Sei A ein zweiter Prozess, sodass M 2 A ein Martingal ist, dann folgt Z := M 2 M, M M 2 + A = A M, M ist ein stetiges Martingal von endlicher totaler Variation 3 mit Z = fast sicher. Aus Satz 3.7 (i) folgt nun das A eine Modifikation von M, M ist und da beide rechts-stetig sind folgt die Ununterscheidbarkeit. Beweisskizze Satz 3.7 (ii). Um die Existenz der quadratischen Variation zu zeigen beginnt man wie im Beweis zu Satz 3.2 und erhält die Martingale Mt 2 T t (M). Man muss nun zeigen, dass T t (M) auf endlichen Intervallen [, T ] gleichmässig in L 2 (P) konvergiert, d.h., zu zeigen ist, die T t (M) bilden eine Cauchy-Folge und die Konvergenz der Cauchy-Folge ist gleichmässig für t T (folgt aus der Doobschen Ungleichung). Aus der gleichmässigen Konvergenz kann man dann auch auf die Existenz einer f.s. stetigen und wachsenden Modifikation schließen. Weiters kann man auch das Lokalisierungsprinzip verwenden um die Existenz der quadratischen Variation auf nicht-notwendigerweise beschränkte Martingale ausdehnen. Wir werden aber einen anderen in den sich überschneidenden Ergebnissen aber äquivalenten Zugang wählen, s. [RY99, S. 123f], und das quadratische Variationskonzept für lokale Martingale, s. Abschnitt Es ist aus der Analysis bekannt, dass die Differenz zweier wachsender Funktionen von beschränkter Variation ist.

59 3.5. DIE DOOB-MEYER ZERLEGUNG & DIE QUADRATISCHE VARIATION 59 Beispiel 3.11 (Brownsche Bewegung). Die Brownsche Bewegung B ist ein stetiges Martingal mit quadratischer Variation B, B t = t und wir haben bereits in Beispiel 3.1 gesehen, dass der Prozess B 2 t t ein Martingal ist. Das Problem mit der Existenz der quadratischen Variation im Satz 3.7 ist, dass dieser nicht das klassische Beispiel eines stetigen Martingals, der Brownschen Bewegung abdeckt, die ja nicht beschränkt ist. Nachfolgend werden wir diesen Makel beheben. Definition 3.4. (a) Wir bezeichnen mit M 2 bzw. M c 2 die Menge der f.s. rechts-stetigen bzw. stetigen quadrat-integrierbaren Martingale. (b) Wir bezeichnen mit S bzw. S a, a >, die Familie aller f.s endlichen bzw. aller f.s. durch a beschränkten Stoppzeiten. Dann ist der f.s. rechts-stetige Prozess X ein Prozess der Klasse D, falls die Familie {X τ, τ S} gleichgradig integrierbar ist und X ist ein Prozess der Klasse DL, falls für jedes a (, ) die Familie {X τ, τ S a } gleichgradig integrierbar ist. (c) Ein adaptierter Prozess X ist regulär falls für alle a > gilt τ n S a mit τ n τ impliziert EX τn EX τ. Bemerkung 3.9. Die Brownsche Bewegung ist ein Element von M c 2 und der kompensierte Poisson Prozess ist ein Element von M 2. Weiters gilt ein Prozess der Klasse D ist auch ein Prozess der Klasse DL und ein Prozess der Klasse D ist gleichgradig integrierbar, da {X t, t } {X τ, τ S}. Für die Klasse DL gilt die gleichgradige Integrierbarkeit nur lokal, d.h., ist τ ein f.s. beschränkte Stoppzeit, dann ist der gestoppte Prozess X τ gleichgradig integrierbar. Weiters gilt ein Prozess X ist genau dann von der Klasse DL, wenn für alle t der gestoppte Prozess X t von der Klasse D ist. Beispiel Ein gleichgradig integrierbares, f.s. rechts-stetiges Martingal ist ein Prozess der Klasse D: Aus dem Optional Stopping Theorem folgt X τ = E[X F τ ] und die Familie {E[X F τ ], τ S} ist nach Beispiel A.3 gleichgradig integrierbar. Für Martingale ist also die gleichgradige Integrierbarkeit äquivalent zur Eigenschaft D. Für andere Prozesse muss das nicht gelten, diese können gleichgradig integrierbar sein aber nicht von der Klasse D. Beispiel Wie im vorherigen Beispiel folgt sofort, dass jedes f.s. rechts-stetige Martingal ein Prozess der Klasse DL ist. Beispiel Ein f.s. rechts-stetiges, positives Submartingal ist ein Prozess der Klasse DL: Aus dem Optional Stopping Theorem folgt X τ E[X a F τ ] für alle τ S a und nach Beispiel A.3 ist die Familie der Majoranten gleichgradig integrierbar. Dies ist vor allem interessant für Martingale M M 2, da dann nach Proposition 3.1 der Prozess M 2 ein positives Submartingal ist. Beispiel Sei M ein f.s. rechts-stetiges Martingal und A ein f.s. rechts-stetiger wachsender, adaptierter, integrierbarer Prozess, dann ist X = M + A ein Submartingal der Klasse DL: Die Submartingaleigenschaft des Prozesses X ist klar. Aus dem Optional Stopping Theorem und da A wachsend ist folgt M τ X τ M τ + E[A a F τ ] = X τ E[M a F τ ] + E[A a F τ ]

60 6 KAPITEL 3. MARTINGALE und wiederum bilden die Majoranten eine gleichgradig integrierbare Familie. Wir betrachten das Martingal M = M 2 M, M aus Proposition 3.2. Umformen liefert M 2 = M + M, M und daher erhalten wir für den Prozess M 2 eine Zerlegung in ein Martingal und einen wachsenden Prozess wie in Bsp Also folgt M 2 ist von der Klasse DL, falls die quadratische Variation existiert. Weiters nach Bsp ist aber M 2 sicherlich von der Klasse DL, falls M quadrat-integrierbar ist. Dies legt die Vermutung nahe, dass jedes quadrat-integrierbare Martingal M mit M 2 der Klasse DL eine quadratische Variation besitzt. Oder umgekehrt, dass jedes Submartingal der Klasse DL eine eindeutige Zerlegung in ein Martingal und einen wachsenden Prozess besitzt. Die erste Vermutung lässt sich nicht direkt beweisen, die zweite aber schon. Das Resultat ist eine Variante der Doob-Meyer Zerlegung und falls die quadratische Variation existiert, ist sie zumindest im stetigen Fall Ununterscheidbar vom wachsenden Prozess in der Zerlegung. Für den Beweis der Doob-Meyer Zerlegung sei auf die Literatur verwiesen. Satz 3.8 (Doob-Meyer Zerlegung). Ein f.s. rechts-stetiges Submartingal X der Klasse DL besitzt eine bis auf Unuterscheidbarkeit eindeutige Zerlegung X = M + A in ein f.s. rechtsstetiges Martingal M und einen adaptierten, wachsenden, vorhersehbaren Prozess A. Ist X der Klasse D, dann ist A integrierbar 4 und M ist gleichgradig integrierbar. Der wachsende Prozess A ist f.s. stetig, genau dann wenn X regulär ist. Beispiel 3.16 (Poisson Prozess). Der Poisson-Prozess N t ist ein rechts-stetiges, positives Submartingale und daher nach Bsp ein Prozess der Klasse DL. Es gilt A t = λt und die Martingaleigenschaft von N t λt haben wir bereits in Bsp. 3.2 behandelt. Das folgende Korollar ergibt sich sofort aus der Doob-Meyer Zerlegung und dem zusätzlichen Wissen, dass jedes nicht-negative, f.s. stetige Submartingal regulär ist. Korollar 3.4. Sei M ein Martingal aus M 2, dann existiert ein eindeutiger, f.s. rechtsstetiger und wachsender, vorhersehbarer Prozess A mit A = f.s., sodass der Prozess M 2 A ein Martingal ist. Falls M f.s. stetig ist, dann ist auch A f.s. stetig. Der Prozess A heißt die quadratische Variation und wir verwenden die Notation A = M, M. Beispiel 3.17 (Brownsche Bewegung). Wie bereits direkt gezeigt, ist der Prozess B 2 t t ein Martingal. Beispiel 3.18 (Poisson Prozess). Wie wir gesehen haben ist der Prozess Ñt = N t λt ein Martingal und es ist leicht zu zeigen, dass Ñ, Ñ t = λt. 4 Im Zusammenhang mit wachsenden, positiven Prozessen ist mit Integrierbarkeit des Prozesses meist die Eigenschaft EA < verbunden. Diese Eigenschaft ist aber tatsächlich äquivalent zur Integrierbarkeit im Sinne von E M, M t < für alle t, und der L 1 (P) Beschränktheit der Familie { M, M t, t }. Da nach dem Satz von der Monotonen Konvergenz gilt E M, M t konvergiert monoton wachsend gegen M, M, folgt sup t E M, M t = M, M < (L 1 (P) Beschränktheit) und somit auch E M, M t < für alle t (Integrierbarkeit). Ebenso gilt die Umkehrung, da aus monoton wachsend und beschränkt die Konvergenz gegen einen endlichen Grenzwert folgt.

61 3.5. DIE DOOB-MEYER ZERLEGUNG & DIE QUADRATISCHE VARIATION 61 Da wegen der Eindeutigkeitsaussage in Satz 3.2 und Satz 3.4 im Falle stetiger Martingale der wachsende Prozess A in der Zerlegung mit der quadratischen Variation definiert als Grenzwert der quadrierten Inkremente falls dieser ebenfalls existiert übereinstimmt, führt die Begriffs- und Notationsgleichheit hier zu keinem Widerspruch. Im Allgemeinen ist die quadratische Variation eine Verallgemeinerung des Konzepts der quadratischen Variation im ursprünglichem Sinne aus Kapitel 1. Da in der Stochastischen Analysis vor allem die Eigenschaft, dass der Prozess M 2 M, M ein Martingal ist, von Bedeutung ist und weniger die Konvergenz der Inkremente, führt dies dazu, dass normalerweise die quadratische Variation mit dem wachsenden Prozess in der Doob-Meyer Zerlegung gleich gesetzt wird. Im Falle, stetiger Martingale sind die Konzepte tatsächlich äquivalent und die Existenz der Doob-Meyer Zerlegung impliziert die Existenz der quadratischen Variation im ursprünglichen Sinn. 5 Für Sprungprozesse gilt dies im Allgemeinen nicht. 6 Ein Beweis des folgenden Satzes, wiederum mittels des Lokalisierungsprinzips, findet sich in [KS91, Thm. 5.8, Chap. 1]. Proposition 3.3. Für ein M M c 2 gilt M, M ist auch die quadratische Variation im ursprünglichen Sinne, d.h., T t (M) definiert in (3.1) konvergiert in Wahrscheinlichkeit gegen M, M t für alle t. Weiters gilt für jede Stoppzeit τ, dass M τ, M τ = M, M τ. Terminologie: Im (kurzen) Rest des Kapitels bezeichnet die quadratische Variation immer den wachsenden Prozess in der Doob-Meyer Zerlegung. In der Literatur wird die so definierte quadratische Variation, u.a., auch als predictable quadratic variation [JS87], conditional quadratic variation [Pro4], quadratic characteristic [JS87], (natural) increasing process [KS91, RY99] oder angle bracket [JS87, Pro4] bezeichnet. Das letztere ist im Kontrast zum pfadweise definiertem bracket process [X, X], der ebenfalls quadratische Variation genannt wird und mit X, X im Falle stetiger Martingale übereinstimmt, vgl. eine kurze Diskussion in [Pro4, S. 122f]. Nicht genug der Verwirrung, in [Mét82, RY99] wird der Prozess M, M bracket process genannt. Die quadratische Variation ist vor allem auch deswegen von Interesse, da sich viele Eigenschaften eines Martingals durch Eigenschaften der quadratischen Variation angeben lassen (und umgekehrt). Die Beweise der folgenden Eigenschaften der quadratischen Variation sind Anwendungen der bisherigen Resultate (obwohl nicht immer ganz einfach) und finden sich in, z.b., [KS91, RY99]. Da M, M t f.s. monoton wachsend ist, existiert der punktweise Limes lim t M, M t =: M, M R + { } f.s. und M, M ist eine messbare Abbildung nach dem Satz von der Monotonen Konvergenz. Proposition 3.4. Im folgende sei M jeweils ein quadrat-integrierbares, f.s. stetiges Martingal, d.h., M M c 2. 5 Die Umkehrung ist nach Satz 3.2 klar, d.h., die Existenz einer f.s. wachsenden, stetigen quadratischen Variation erlaubt eine Zerlegung von der Form einer Doob-Meyer Zerlegung. 6 Zum Beispiel, lässt sich für den kompensierten Poisson Prozess N t λt leicht zeigen, dass die Summe der quadrierten Inkremente nicht gegen λt sonder f.s. gegen die Summe der quadrierten Sprunghöhen konvergiert, d.h., der Grenzwert ist durch s t (N s N s ) 2 gegeben.

62 62 KAPITEL 3. MARTINGALE (i) Die quadratische Variation ist genau dann f.s. konstant, d.h., M, M = f.s., falls M f.s. konstant ist, d.h. M t = M f.s. für alle t. Genauer, die konstanten Pfadabschnitte von M und M, M stimmen f.s. überein, d.h., für fast alle ω Ω gilt für alle a < b <, dass M t (ω) = M a (ω) t [a, b] M, M t (ω) = M, M a (ω) t [a, b]. (ii) Das Martingal M ist beschränkt in L 2 (P), d.h., sup t EMt 2 für die quadratische Variation gilt E M, M <. <, genau dann wenn (iii) Das Martingal M konvergiert genau dann f.s. für t falls M, M < fast sicher. Genauer, es gilt die Gleichheit der Mengen { ω Ω : lim t M t (ω) existiert in R } = { ω Ω : M, M (ω) < }. (iv) Die quadratische Variation von M ist genau dann deterministisch, d.h., es existiert eine Funktion f : R + R + mit M, M t = f(t), wenn M ein Gauss-Prozess (Definition 2.1) ist. Dieser ist eindeutig durch die quadratische Variation (bestimmt eindeutig die Kovarianzfunktion) und EM (bestimmt eindeutig die Mittelwertfunktion) festgelegt (Satz 2.5). (v) (Bernstein-Ungleichung) Das Martingal M erfülle zusätzlich M = f.s. und es existiert ein c > so dass M, M t ct f.s. für alle t, dann gilt für alle α > P [ sup s t M s αt ] e α2 t 2c. (vi) (Lenglart-Domination) Für jede Stoppzeit τ und alle a, b > gilt P [ sup t τ M t 2 a ] b a + P[ M, M τ b ]. (Diese Eigenschaft gilt ohne Einschränkung für alle càdlàg Martingale.) Bemerkung 3.1. Die Aussage (ii) dieses Proposition hat einige interessante Folgerungen: Aus E M, M < folgt also nach Satz A.2 auch die gleichgradige Integrierbarkeit von M. Daher existiert ein integrierbarer f.s. Grenzwert M nach Satz 3.4. Weiters folgt aus EMt 2 = E M, M t E M, M < für alle t dass sup t EMt 2 < und daher ist nach Satz 3.3 auch der f.s. Grenzwert von Mt 2 integrierbar, d.h., EM 2 <. Daraus folgt nun aus Satz 3.4, dass auch das positive Submartingal M 2 gleichgradig integrierbar sind. Das ergibt nun schlussendlich, dass aus EMt 2 = E M, M t für alle t folgt EM 2 = E M, M, wobei das Vertauschen von Limes und Erwartungswert links durch die punktweise Konvergenz und die gleichgradige Integrierbarkeit und rechts durch den Satz von der Monotonen Konvergenz gerechtfertigt ist.

63 3.5. DIE DOOB-MEYER ZERLEGUNG & DIE QUADRATISCHE VARIATION 63 Bemerkung [Charakterisierung der Brownschen Bewegung] Aus Proposition 3.4 (iii) folgt, dass die Brownsche Bewegung (zu gegebener Filtration) das (bis auf Versionen) eindeutige Martingal M mit M, M t = t und EM = ist. Diese Aussage ist ein Hinweis darauf, dass die quadratische Variation im Zusammenspiel mit anderen charakteristischen Grössen eines Prozesses, in diesem Fall, z.b., der Mittelwertfunktion, dazu benutzt werden kann einen stochastischen Prozess eindeutig zu bestimmen, vgl. den Begriff des Martingalproblems in Definition Erweiterungen des Konzepts der quadratischen Variation Mittels des Lokalisierungsprinzips kann man die Martingaleigenschaft lokalisieren und Satz 3.7 (ii) verwenden um einen allgemeinen quadratischen Variationsbegriff einzuführen. Definition 3.5. Ein adaptierter, f.s. rechts-stetiger Prozess X heißt ein lokales Martingal, falls eine wachsende Folge von Stoppzeiten τ n, n N, existiert mit τ n f.s., und für jedes n N der Prozess X τn I [τn>] ein Martingal ist. Bemerkung Ohne Beschränkung der Allgemeinheit kann in Definition 3.5 die Folge der Stoppzeiten so gewählt werden, dass sie aus beschränkten Stoppzeiten besteht, z.b. τ n = τ n n, und / oder, dass die gestoppten Prozesse X τ n I [τn >] gleichgradig integrierbar sind. Weiters ist klarerweise jedes Martingal ein lokales Martingal. Das zu lokalen Martingalen gehörige Zerlegungsresultat (für stetige) lokale Martingale findet sich, z.b., in [RY99]. Satz 3.9. Sei M ein f.s. stetiges lokales Martingal mit M = f.s., dann existiert ein eindeutiger f.s. wachsender stetiger Prozess A mit A = f.s., so dass M 2 A ein lokales Martingal ist. Der Prozess M, M := A heißt die quadratische Variation des lokalen Martingals. Der Prozess M, M ist auch die quadratische Variation im ursprünglichen Sinn. Die Verbindung zur Doob-Meyer Zerlegung folgt aus folgendem Resultat, s. [RY99]: Ein lokales Martingal ist genau dann ein Martingal falls es ein Prozess der Klasse DL ist. Ist also M ein quadrat-integrierbares lokales Martingal der Klasse DL, dann ist M ein quadrat-integrierbares Martingal und Korollar 3.4 gilt. Weiters ist aber das lokale Martingal M 2 M, M ebenfalls ein Prozess der Klasse DL und somit ebenfalls ein Martingal. Es folgt aus der Eindeutigkeit in Korollar 3.4, dass in diesem Falle die beiden quadratischen Variationsprozesse aus Satz 3.9 und Korollar 3.4 übereinstimmen. Eine zweite Erweiterung der quadratischen Variation ergibt sich für eine Klasse von Prozessen, die aus der Struktur der Doob-Meyer Zerlegung definiert sind. Diese Prozessklasse bildet vor allem in den Monographien [JS87, Pro4] den Ausgangspunkt der Untersuchungen. Definition 3.6. Ein adaptierter Prozess X heißt ein Semimartingal, falls eine Zerlegung X = M + A existiert, so dass M ein lokales Martingal und A ein Prozess von beschränkter Variation ist.

64 64 KAPITEL 3. MARTINGALE Klarerweise ist jedes Martingal ein Semimartingal und aus der Doob-Meyer Zerlegung folgt, dass jedes f.s. rechts-stetige Submartingal der Klasse DL ein Semimartingal ist. Weiters kann man zeigen, dass im Falle einer f.s. stetigen Semimartingals die Prozesse M und A in der Zerlegung X = M + A ohne Beschränkung der Allgemeinheit als f.s. stetig und eindeutig gewählt werden können. Satz 3.1. Ein f.s. stetiges Semimartingal X = M + A besitzt endliche quadratische Variation ( im ursprünglichen Sinn ) und es gilt L 2 [,t] (X) = M, M t für alle t. Hier bezeichnet M, M klarerweise die quadratische Variation des lokalen Martingals M. Kann auf das Semimartingal X auch einer der oberen Zerlegungssätze angewandt werden, dann sind die quadratischen Variationsbegriffe natürlich wiederum verträglich, d.h., die Prozesse sind ununterscheidbar. Zum Beispiel, ist das Semimartingal X = M + A ein f.s. rechts-stetiges Submartingal der Klasse DL, dann sind M und A die eindeutigen Prozesse aus der Doob-Meyer Zerlegung. Die Klassen der Prozesse, für welche wir bisher einen quadratischen Variationsbegriff definiert haben, d.h., quadrat-integrierbare Martingale, lokale Martingale und Semimartingale, besitzen alle die Eigenschaft, dass eine Summe oder eine Differenz dieser Prozesse wiederum ein Prozess derselben Klasse ist. 7 Dies ist der Schlüssel um in allen Fällen die quadratische Kovariation zu definieren. Definition 3.7. Die Prozesse M, N seien Martingale in M 2 / lokale Martingale / Semimartingale, dann ist die quadratischen Kovariation N, M definiert durch die Polarisationsformel N, M := 1 4( M + N, M + N M N, M N ). Klarerweise ist die Notation mit der quadratischen Variation veträglich falls M = N, d.h., die qudratische Kovariation M, M ist jeweils gleich der qudratischen Variation M, M im vorherigen Sinn Es lässt sich im stetigen Fall auch für die Kovariation eine Konvergenz (in Wahrscheinlichkeit) der addierten multiplizierten Inkremente analog zu Proposition 3.3 zeigen. Weiters gilt, die quadratische Kovariation ist, z.b., im Fall von Prozessen M, N M c 2 der eindeutige, adaptierte, stetige Prozess A von beschränkter Variation mit A = f.s., sodass MN A ein f.s. stetiges Martingal ist und ähnliche Aussagen gelten auch im Falle rechts-stetiger Martingale bzw. lokaler Martingale. Es ist leicht zusehen, dass die quadratische Kovariation eine Bilinearform auf dem jeweiligen Vektorraum der entsprechenden Familie von Prozessen ist. Prozesse M, N mit M, N t = f.s. für alle t heißen daher auch orthogonal, was, z.b., im Falle von Prozessen M 2 bedeutet, dass ihre Inkremente bedingt unabhängig sind. 7 Da allgemeiner beliebige Linearkombinationen derartiger Prozesse wiederum Prozesse der Klasse sind, bilden diese Familien lineare Räume über R.

65 3.6. SCHWACHE KONVERGENZ VON MARTINGALEN Schwache Konvergenz von Martingalen In diesem letzten Teil untersuchen wir die Konvergenz von Martingalen im Sinne von stochastischen Prozessen im Gegensatz zur Konvergenz entlang des Zeithorizonts wie in Kapitel 3.3. Zuerst präsentieren wir hierzu kurz die entsprechenden grundlegenden Resultate. Diese sind eine Verallgemeinerung des bekannten Konzepts der schwachen Konvergenz von R d -wertigen Zufallsvariablen gibt. Eine ausführliche Diskussion findet sich, z.b., in [EK86]. Im Folgenden bezeichnet E einen vollständigen, seperablen metrischen Raum und E die von der Metrik erzeugte Borel-σ-Algebra. Weiters sind P n und P Maße auf dem messbaren Raum (E, E). Definition 3.8. (a) Die Folge der Maße P n, n N, konvergiert schwach gegen P falls für alle stetigen und beschränkten Funktionen f : E R gilt fdp n = fdp. lim n Eine Folge von Zufallsvariablen X n, n N, mit Werten in E konvergiert schwach gegen eine Zufallsvariable X mit Werten in E, falls die Folge der Bildmaße von X n schwach gegen das Bildmaß von X konvergiert. (b) Ein Folge von Maßen P n, n N heißt straff, wenn für jedes ɛ > eine kompakte Menge K ɛ E existiert, so dass inf n N P n (K ɛ ) 1 ɛ. Ein Folge von Zufallsvariablen X n, n N, mit Werten in E heißt straff, falls die Folge der Bildmaße straff ist. Bemerkung Die Zufallsvariablen X n, n N, und X in der obigen Definition können auf beliebigen auch unterschiedlichen Wahrscheinlichkeitsräumen definiert sein. Im Allgemeinen ist die schwache Konvergenz eine Aussage über Maße und in eine konvergente Folge von Zufallsvariablen kann auch als ein konvergente Folge der Äquivalenzklasse aller Variationen aufgefasst werden. Klarerweise gilt, dass der schwache Grenzwert eindeutig ist. Der Satz von Portmanteau liefert für die schwache Konvergenz weitere, zur Definition 3.8 (a) äquivalente Bedingungen. Den Zusammenhang von Straffheit und schwacher Konvergenz liefert der folgende Satz [EK86]. Satz 3.11 (Satz von Prohorov). Sei E ein vollständiger, separabler metrischer Raum. Ein Folge von Maßen P n auf (E, E) bzw. von Zufallsvariablen X n mit Werten in E besitzt genau dann eine schwach konvergente Teilfolge falls die Maße bzw. die Zufallsvariablen straff sind. Bemerkung In anderen Worten, besagt der Satz von Prohorov, dass Straffheit einer Familie von Maßen äquivalent zur relativen Kompaktheit der Familie in der Topologie

66 66 KAPITEL 3. MARTINGALE der schwachen Konvergenz von Maßen ist, d.h., die gröbste Topolgie auf dem Raum der Maße über (E, E), so dass die Abbildung µ fdµ stetig ist für alle f C b (E), vgl. die schwach -Topologie in der Funktionalanalysis. Diese Topologie ist die durch die Prohorov Metrik metrizierbar. Gilt, dass jede konvergente Teilfolge gegen dasselbe Maß / denselben Grenzprozess konvergiert, dann sprechen wir o.b.d.a. davon, dass auch die Folge gegen dieses / diesen konvergiert. Der Satz von Prohorov soll nun auf eine Folge von adaptierten càdlàg Prozessen X n definiert auf filtrierten Wahrscheinlichkeitsräumen (Ω n, F n, (F n t ) t, P n ) mit rechts-stetiger Filtration angewendet werden. Dazu werden Prozesse als Zufallsvariablen aufgefasst, die Werte in einem passenden kanonischen Wahrscheinlichkeitsraum annehmen, z.b., den Raum der càdlàg Funktionen D(R +, R) bzw. dem Raum der stetigen Funktionen C(R +, R). Daher ist es zuerst notwendig, dass diese Räume die passende metrische Struktur bekommen, so dass man auch die kompakten Mengen charakterisieren kann. Wir wollen darauf hier nicht weiter eingehen und bemerken nur, dass man auf den beiden Räumen eine passende Metrik definieren kann, die Skorokhod Metrik, so dass diese vollständige, metrische Räume werden. Die Definition der Skorokhod Metrik ist eher umständlich und auch selten explizit von Nöten, da viele nützliche hinreichende Bedingungen für die Kompaktheit bekannt sind. Im Speziellen sind folgende Bedingungen ausreichend, so dass reelle Prozess straff sind [EK86, JS87]: für alle T, ɛ > existieren ein k und ein N mit sup n N P n[ sup t [,T ] X n t k ] ɛ (3.1) und X n erfüllt Aldous Kriterium, d.h., für alle T, ɛ, δ > existieren ein h > und ein N >, so dass für jede Folge von Stoppzeiten σ n mit σ n < T f.s. gilt sup n N sup s h P n [ X n σ n +s X n σ n > δ] < ɛ. (3.2) Zusätzlich ist oft noch von Interesse ob Grenzprozesse f.s. stetig sind. In diesem Zusammenhang gilt, ist die Folge X n straff, dann ist jeder schwache Grenzwert einer Teilfolge genau dann ein f.s. stetiger Prozess falls die Sprunghöhen der Prozesse auf kompakten Intervallen in Wahrscheinlichkeit gegen null konvergieren, d.h., für alle T, ɛ > gilt lim Pn[ sup t T Xt n Xt n > ɛ ] =. (3.3) n Dies bedeutet vor allem, dass der schwache Grenzwert von f.s. stetigen Prozessen ebenfalls f.s. stetig ist. Der folgende Satz zeigt, dass schwache Konvergenz von Prozessen das Analogon zu Konvergenz der endlich-dimensionalen Verteilungen ist, die ja eine Äquivalenzklasse von Variationen eindeutig bestimmen. Ein Beweis des folgenden Satzes findet sich, z.b., in [EK86, JS87]. Satz (i) Konvergieren die càdlàg Prozesse X n schwach gegen den càdlàg Prozess X, dann konvergieren die endlich-dimensionalen Verteilungen von X n schwach gegen die endlich-dimensionalen Verteilungen von X.

67 3.6. SCHWACHE KONVERGENZ VON MARTINGALEN 67 (ii) Umgekehrt gilt, konvergieren die endlich-dimensionalen Verteilung von X n gegen die endlich-dimensionalen Verteilungen von X und es gilt, die Familie X n ist straff, dann konvergiert X n schwach gegen X. Wir kommen nun zur schwachen Konvergenz von Martingalen. Wir können dazu die quadratisch Variation benutzen, die einerseits ein Kriterium für die Existenz eines schwachen Grenzwertes liefert, als auch den Grenzprozess charakterisiert. Wir bemerken, dass im Allgemeinen der Grenzwert von Martingalen nicht notwendigerweise wiederum ein Martingal sein muss. Satz Sei M n eine Folge quadrat-integrierbarer Martingale. Erfüllt die Folge der quadratischen Variationen M n, M n die Bedingungen (3.1) und (3.2), dann erfüllt auch die Folge der Martingale M n die Bedingungen (3.1) und (3.2). Beweis. Die Aussage des Satzes folgt sofort mittels der Lenglart-Domination Eigenschaft in Satz 3.4 (f). Sei T, ɛ > fest gewählt, dann wählen wir im ersten Fall a = k 2 und b = ɛk 2 /2 und somit gilt P n[ sup t [,T ] M n t k ] ɛ 2 + Pn[ M n, M n T ɛk 2 /2 ]. Da die Folge der quadratischen Variationen (3.1) erfüllt, existieren ein N und ein k, so dass für alle n N gilt P n[ M n, M n t ɛk 2 /2 ] ɛ/2 und die Bedingung (3.1) folgt für die Prozesse M n. Die zweite Bedingung folgt analog. Aus dem Optional Stopping Theorems folgt, dass der Prozess s M s n := Mσ n n+s Mσ n n ein Martingal bezüglich der Filtration F s n := Fσ n n+s mit quadratischer Variation M n, M n s := M n, M n σn +s M n, M n σn ist. Es folgt wiederum aus der Lenglart-Domination Eigenschaft, dass für fixes ɛ, δ > gilt P n[ Mσ n n+s Mσ n n δ ] ɛ 2 + Pn[( M n, M n σn +s M n, M n σn ) ɛδ 2 /2 ]. Nun erfüllt die Folge der quadratische Variationen M n, M n nach Voraussetzung Aldous Kriterium (3.2) und somit kann kann ein N, h > so gewählt werden, dass die Wahrscheinlichkeit in der rechten Seite für alle n N und alle s [, h] kleiner als ɛ/2 ist. Daraus folgt, dass die Folge der Martingale M n ebenfalls die Bedingung (3.2) erfüllt. Die Straffheit einer Folge garantiert nur die Existenz eines Grenzwert einer Teilfolge der Prozesse. Die zweite Aufgabe ist es diesen Grenzwert, falls er existiert, genauer zu charakterisieren. Ein Beweis des folgenden Satzes findet sich in [JS87, IV.6.1, IX.1.1, IX.1.19]. Satz (i) Sei M n eine gegen M schwach konvergente Folge von f.s. gleichmässig beschränkten Martingalen, d.h., Mt n K f.s. für alle n N und t. Dann ist M ein Martingal bezüglich der von M erzeugten Filtration.

68 68 KAPITEL 3. MARTINGALE (ii) Sei M n eine gegen M schwach konvergente Folge von lokalen Martingalen mit f.s. gleichmässig beschränkten Sprunghöhen, d.h., M n t M n t K f.s. für alle n N und t. Dann ist M ein lokales Martingal bezüglich der von M erzeugten Filtration. Gilt in beiden Fällen noch zusätzlich, dass die Prozesse M n f.s. stetig sind, dann konvergiert die Folge der quadratischen Variationen M n, M n schwach gegen die quadratische Variation des Grenzprozesses M, M. Bemerkung In Bezug auf die Konvergenz der quadratischen Variation ist noch anzumerken, dass in beiden Fällen des Satzes die quadratische Variation zu den Prozessen M n und M existiert, s. Satz 3.7 und Satz 3.9. Insbesondere sei noch zu Teil (ii) dieses Satzes zu bemerken, dass zusammen mit Bedingung (3.3) folgt, dass schwache Grenzwerte von f.s. stetigen lokalen Martingalen wiederum f.s. stetige lokale Martingale sind. Dieses Resultat der Konvergenz der quadratischen Variationen kann nun schlussendlich dazu verwendet werden um den Grenzprozess M eindeutig zu charakterisieren. 8 Diese Aufgabenstellung fällt unter den Begriff des so genannten Martingalproblems. Das Martingalproblem als ein präzise definiertes eindeutiges Konzept existiert nicht in der Literatur, sondern der Name Martingalproblem wird allgemein für Problemstellungen ähnlicher Art verwendet: das Auffinden eines Wahrscheinlichkeitsmaßes, so dass ein Prozess oder eine Familie von Prozessen ein Martingal (oder lokales Martingal oder Semimartingal) ist. Varianten dieses Konzepts werden ausführlich in den Monographien [EK86, JS87] behandelt. Wir begnügen uns mit der folgenden Definition, die das Konzept im vorliegenden Fall ausreichend darstellt. Definition 3.9. Auf einem filtrierten messbaren Raum (Ω, F, (F t ) t ) mit rechts-stetiger Filtration sei ein reeller càdlàg Prozess X, ein f.s. wachsender, stetiger reeller Prozess A mit A = f.s. und ein Maß P auf (Ω, F ) gegeben. (a) Ein Wahrscheinlichkeitsmaß P auf (Ω, F) heißt eine Lösung des Martingalproblems (A, P ) falls der Prozess X bezüglich (Ω, F, (F t ) t, P) ein lokales Martingal mit quadratischer Variation X, X = A ist und P X = P gilt. (b) Das Martingalproblem besitzt eine eindeutige Lösung, wenn es genau ein derartiges Wahrscheinlichkeitsmaß P gibt. Normalerweise, wird in einem Martingalproblem als der zu Grunde liegende filtrierte messbare Raum (Ω, F, (F t ) t ) ein passender kanonischer Raum gewählt, d.h., D(R +, R) oder auch C(R +, R) ausgestattet mit dem kanonischen Prozess, der kanonischen σ-algebra und der kanonischen Filtration. Beispiel 3.19 (Brownsche Bewegung). Auf dem kanonischen Raum C(R +, R) ist das Wiener- Maß, d.h., das eindeutige Maß, so dass der kanonische Prozess eine Brownsche Bewegung ist, die eindeutige Lösung des Martingalproblems zu A t = t und P = δ, s. Bemerkung Eine weitere Möglichkeit einen Grenzprozess eindeutig zu charakterisieren ergibt sich aus der Konvergenz der endlich-dimensionalen Verteilungen in Satz 3.12, da diese ebenfalls einen stochastischen Prozess (bis auf Variationen) eindeutig definieren.

69 3.6. SCHWACHE KONVERGENZ VON MARTINGALEN 69 Beispiel 3.2. Betrachtet man dasselbe Martingalproblem wie im vorherigen Beispiel auf dem kanonischen Raum D(R +, R), dann geht sofort die Eindeutigkeit verloren, da für Intensität λ = 1 der kompensierte Poisson Prozess Ñt = N t t ebenfalls die quadratische Variation A t = t besitzt. Es ist aber möglich ein restriktiveres Konzept eines Martingalproblem zu formulieren, so dass beide Prozesse auf D(R +, R) eindeutige Lösungen eines Martingalproblems sind. Es gibt in der Literatur sehr viele Untersuchungen, wann Martingalprobleme eine Lösung besitzen und wann diese eindeutig ist. Dies wollen wir an dieser Stelle nicht näher diskutieren. Zuletzt soll der folgende Satz aber zeigen, wie man aus diesem Wissen den Grenzwert eines Martingals eindeutig charakterisieren kann. Satz Sei M n eine Folge f.s. stetiger lokaler Martingale und A sei ein f.s. wachsender und stetiger Prozess mit A =. Unter den Bedingungen (i) die Folge M n ist straff, (ii) die Folge M n konvergiert schwach gegen eine Verteilung P, (iii) die Folge der quadratischen Variationen M n, M n konvergiert schwach gegen A und (iv) das Martingalproblem (A, P ) besitzt auf dem kanonischen Raum C(R +, R) eine eindeutige Lösung P gilt, dass M n schwach gegen P konvergiert. Beweis. Da die Folge M n straff ist existiert zu einer Teilfolge ein schwacher Grenzwert M, der nach Satz 3.14 ein lokales Martingal ist. Da die schwache Konvergenz die Konvergenz der eindimensionalen Verteilungen impliziert, folgt dass für jede konvergente Teilfolge das Maß P die Verteilung von M ist. Weiters konvergieren auch die quadratischen Variationen gegen die quadratische Variation von M. Nach Voraussetzung konvergiert aber jede Teilfolge von M n, M n schwach gegen A. Aus der Eindeutigkeit des schwachen Grenzwertes folgt, dass für jede konvergent Teilfolge der Grenzwert M, M = A erfüllt. Daraus folgt aber, dass für jede konvergente Teilfolge die Verteilung von M das Martingalproblem zu (A, P ) löst. Dieses besitzt laut Voraussetzung eine eindeutige Lösung, also stimmt der Grenzwert jeder konvergenten Teilfolge mit der eindeutigen Lösung des Martingalproblems überein.

70 7 KAPITEL 3. MARTINGALE

71 Anhang A Gleichgradige Integrierbarkeit Wir präsentieren die Bedingung der gleichgradigen Integrierbarkeit. Diese erlaubt es von stochastischer Konvergenz auf Konvergenz im Mittel zu schliessen und wir erhalten auch eine weitere Bedingung, die das Vertauschen von Grenzwertbildung und Erwartungswert erlaubt. Ein wichtige theoretische, doch eher technische Bedingung, für die Konvergenz von Mengen von Zufallsvariablen ist deren gleichgradige Integrierbarkeit. Im folgenden sei {X α, α M}, eine (beliebige auch überabzählbare) Familie von reellen Zufallsvariablen auf einem Wahrscheinlichkeitsraum (Ω, F, P). 1 Definition A.1 (Gleichgradige Integrierbarkeit). Die Familie {X α, α M} heißt gleichgradig integrierbar, falls für alle ɛ > ein c = c(ɛ) > existiert, sodass gilt sup α M X α dp ɛ. (A.1) { X α >c} Die Bedingung (A.1) der Definition kann äquivalent auch als sup α M E X α I { Xα >c} ɛ bzw. lim sup α M X α dp =. c { X α c} geschrieben werden. Klarerweise gilt {X α, α M} ist genau dann gleichgradig integrierbar wenn { X α, α M} gleichgradig integrierbar ist. Beispiel A.1. Jede endliche Menge integrierbarer Zufallsvariablen ist gleichgradig integrierbar. Eine Zufallsvariable ist genau dann gleichgradig integrierbar falls sie integrierbar ist. Endliche Vereinigungen gleichgradig integrierbarer Familien sind gleichgradig integrierbar. Existiert zur Familie eine integrierbare Majorante, dann ist die Familie integrierbar. Existiert zu jedem Element eine Majorante und ist die Familie der Majoranten gleichgradig integrierbar, dann ist auch die ursprüngliche Familie gleichgradig integrierbar. 1 Die Definitionen und Resultate in diesem Kapitel gelten ohne Einschränkungen auf einem beliebigen Massraum mit endlichen Mass. 71

72 72 ANHANG A. GLEICHGRADIGE INTEGRIERBARKEIT Eine wichtige Eigenschaft der gleichgradigen Integrierbarkeit ist, dass unter dieser die Äquivalenz zwischen Konvergenz in Wahrscheinlichkeit und Konvergenz im p-ten Mittel gilt. Satz A.1. Sei 1 p <, dann gilt eine Folge p-integrierbarer Zufallsvariablen (X n ) n N konvergiert genau dann im p-ten Mittel falls diese in Wahrscheinlichkeit konvergiert und { X n p, n N} gleichgradig integrierbar ist. Der nachfolgende Satz gibt nun notwendige und hinreichende Bedingungen für die gleichgradige Integrierbarkeit an. Vor allem sehen wir, dass die gleichgradige Integrierbarkeit stärker als gleichmässige Beschränktheit der ersten Momente ist, doch die gleichgradige Integrierbarkeit aus der gleichmässigen Beschränktheit der zweiten Momente folgt. Satz A.2. Die folgenden Aussagen sind äquivalent. (i) Die Familie {X α, α M} ist gleichgradig integrierbar. (ii) lim c sup α M E [ X α c X α ] = (iii) (Satz von de la Vallèe Poussin) Es existiert eine nicht-negative, nicht-fallende, konvexe Funktion G auf R +, sodass lim t G(t)/t = und sup α M EG( X α ) <. (iv) Die Familie {X α, α M} ist beschränkt in L 1 (P), d.h., sup α M E X α <, und absolut stetig, d.h., für jedes ɛ > existiert ein δ >, so dass für jedes A F gilt P(A) δ = X α dp ɛ α M. A (v) (Satz von Dunford-Pettis) Die Familie {X α, α M} L 1 (P) ist relativ kompakt in der schwachen Topologie, d.h., jede Folge aus der Familie besitzt eine Teilfolge X nk sodass ein X L 1 (P) existiert und es gilt schwache Konvergenz, d.h., lim E[X n k Z] = E[XZ] Z L (P). k Beispiel A.2. Sei p > 1 dann ist jede in L p (P)-beschränkte Menge gleichgradig integrierbar. Beispiel A.3. Sei X eine integrierbare Zufallsvariable und {F α, α M} eine Familie von Teil-σ-Algebren von F. Dann ist die Familie {E[X F α ], α M} gleichgradig integrierbar. Dies folgt aus der Jensen schen Ungleichung: Die Zufallsvariable X ist gleichgradig integrierbar und daher existiert eine Funktion G, die die Bedingungen in Satz A.2 (iii) erfüllt. Weiters gilt aber wegen zweimaliger Anwendung der bedingten Jensen schen Ungleichung sup EG( X α ) = α M sup EG( E[X F α ] ) sup EG(E[ X F α ]) α M α M E[E[G( X )F α ]] sup α M = EG( X ) <. Aus Satz A.2 (iii) folgt nun auch die gleichgradige Integrierbarkeit der Familie {E[X F α ], α M}. Diese Aussage verallgemeinert sich sofort zu beliebigen Familien bedingter Erwartungen von Zufallsvariablen aus einer gleichgradig integrierbaren Familie.

73 Schlussendlich erhält man nun aus dem folgenden Sätzen eine Bedingungen, die die Vertauschbarkeit der Grenzwertbildung und des Erwartungswertes als eine Verallgemeinerung des Satzes von der Dominierten Konvergenz erlaubt. Satz A.3. Sei die Familie {X n, n N} gleichgradig integrierbar und X n konvergiert schwach gegen X, dann gilt lim n EX n = EX. Umgekehrt gilt, dass, falls X n, n N, integrierbar ist, schwach gegen X konvergiert und lim n E X n = E X gilt, dann ist {X n, n N} gleichgradig integrierbar. 73

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis SS1 von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 6. Mai 21 Inhaltsverzeichnis 1 Motivation / Einführung 4 1.1 Motivation anhand

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Terminologie Stochastischer Prozesse

Terminologie Stochastischer Prozesse Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.

Mehr

2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III Teil Der Wienerraum

2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III Teil Der Wienerraum 8 Wahrscheinlichkeitstheorie III Teil 3 Brownsche Bewegung Wir haben die Brownsche Bewegung bereits als Grenzwert reskalierter Irrfahrten in der VL WTH II kennengelernt siehe dazu Abschnitt 5.. In diesem

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Simulation stochastischer Prozesse Peter Frentrup Humboldt-Universität zu Berlin 27. November 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 27. November 2017

Mehr

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 9 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 40: Es sei (X t ) t 0 ein

Mehr

Vorlesungsskript: Martingale

Vorlesungsskript: Martingale Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Schwartz-Raum (Teil 1)

Schwartz-Raum (Teil 1) Schwartz-Raum (Teil 1) Federico Remonda, Robin Krom 10. Januar 2008 Zusammenfassung Der Schwartz-Raum ist ein Funktionenraum, der besondere Regularitätseigenschaften besitzt, die uns bei der Fouriertransformation

Mehr

7 Der Satz von Girsanov

7 Der Satz von Girsanov 7 Der Satz von Girsanov Der Satz von Girsanov wird uns eine neue Perspektive auf die Rolle des Drifts liefern. Die Prozesse Brownsche Bewegung B t, Brownsche Bewegung mit Drift X t = B t + µt haben wir

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

1 Stochastische Prozesse in stetiger Zeit

1 Stochastische Prozesse in stetiger Zeit 1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.

Mehr

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,

Mehr

Strassen Type Theorems Proseminar Stochastik

Strassen Type Theorems Proseminar Stochastik Strassen Type Theorems Proseminar Stochastik Cecelie Hector Universität Hamburg Fachbereich Mathematik SoSe 2004 Vortrag am 25.06.04 Definition (a). Ein topologischer Raum E heißt polnisch, wenn es eine

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Asymptotische Stochastik (SS 2010)

Asymptotische Stochastik (SS 2010) Institut für Stochastik PD. Dr. Dieter Kadelka Daniel Gentner Asymptotische Stochastik (SS 2010) Lösungen zu Übungsblatt 4 Aufgabe 1 (lokaler Grenzwertsatz von de Moivre und Laplace und eine Verallgemeinerung)

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik

Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik Univ. Leipzig Mathematisches Institut Vertretung Professur Stochastische Prozesse Max v. Renesse email: [email protected] Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik

Mehr

Zusammenfassung Analysis 2

Zusammenfassung Analysis 2 Zusammenfassung Analysis 2 1.2 Metrische Räume Die Grundlage metrischer Räume bildet der Begriff des Abstandes (Metrik). Definition 1.1 Ein metrischer Raum ist ein Paar (X, d), bestehend aus einer Menge

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Vollständigkeit. 1 Konstruktion der reellen Zahlen

Vollständigkeit. 1 Konstruktion der reellen Zahlen Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente

Mehr

Seminar Gewöhnliche Differentialgleichungen

Seminar Gewöhnliche Differentialgleichungen Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden

Mehr

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Schwache Konvergenz von Wahrscheinlichkeitsmaßen Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind

Mehr

Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses

Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses Thomas Steinle Seminar Zufällige Felder Universität Ulm 18. November, 2008 Einleitung Inhalt Einleitung Wiederholung und Themenvorstellung Wichtiges

Mehr

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20 Gleichmäßige Konvergenz für Folgen und Reihen von Funktionen 20.1 Folgen und Reihen von Funktionen 20.3 Die Supremumsnorm 20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20.7 Das Cauchy-Kriterium

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

Ferienkurs in Maß- und Integrationstheorie

Ferienkurs in Maß- und Integrationstheorie Zentrum Mathematik Technische Universität München Dipl. Math. Wolfgang Erb WS 9/ Übungsblatt Ferienkurs in Maß- und Integrationstheorie Aufgabe. (σ-algebren Sei eine Menge und A eine σ-algebra in. Seien

Mehr

Lösungen zu Übungsblatt 9

Lösungen zu Übungsblatt 9 Analysis : Camillo de Lellis HS 007 Lösungen zu Übungsblatt 9 Lösung zu Aufgabe 1. Wir müssen einfach das Integral 16 (x + y d(x, y x +y 4 ausrechnen. Dies kann man einfach mittels Polarkoordinaten, da

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

22 KAPITEL 1. GRUNDLAGEN. Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion

22 KAPITEL 1. GRUNDLAGEN. Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion KAPITEL 1. GRUNDLAGEN Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion 1 für 0 x < 1 g 0 (x) = 1 1 für < x 1. Natürlich gibt dies von

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

8 KAPITEL 1. GRUNDLAGEN

8 KAPITEL 1. GRUNDLAGEN 8 KAPITEL 1. GRUNDLAGEN Beweis. 1. Sei A X abgeschlossen, dann ist X \ A offen und jede offene Überdeckung von A lässt sich durch Hinzunahme von X \ A auf ganz X fortsetzen. Die Kompaktheit von X erlaubt

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

1 Konvergenz im p ten Mittel

1 Konvergenz im p ten Mittel Konvergenz im p ten Mittel 1 1 Konvergenz im p ten Mittel In diesem Paragraphen werden zunächst in Abschnitt 1.1 die L p Räume eingeführt. Diese erweisen sich als vollständige, lineare Räume über R. In

Mehr

Definition 3.1. Sei A X. Unter einer offenen Überdeckung von A versteht man eine Familie (U i ) i I offener Mengen U i X mit U i

Definition 3.1. Sei A X. Unter einer offenen Überdeckung von A versteht man eine Familie (U i ) i I offener Mengen U i X mit U i 3 Kompaktheit In der Analysis I zeigt man, dass stetige Funktionen f : [a, b] R auf abgeschlossenen, beschränkten Intervallen [a, b] gleichmäßig stetig und beschränkt sind und dass sie ihr Supremum und

Mehr

Musterlösung Analysis 3 - Maßtherorie

Musterlösung Analysis 3 - Maßtherorie Musterlösung Analysis 3 - Maßtherorie 10. März 2011 Aufgabe 1: Zum Aufwärmen (i) Zeige, dass die Mengensysteme {, X} und P(X) σ-algebren sind. Es sind jeweils nur die Charakteristika nachzuweisen. (1)

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm Brownsche Bewegung Satz von Donsker Bernd Barth Universität Ulm 31.05.2010 Page 2 Brownsche Bewegung 31.05.2010 Inhalt Einführung Straffheit Konvergenz Konstruktion einer zufälligen Funktion Brownsche

Mehr

Elemente der mengentheoretischen Topologie

Elemente der mengentheoretischen Topologie Elemente der mengentheoretischen Topologie Es hat sich herausgestellt, dass das Konzept des topologischen Raumes die geeignete Struktur darstellt für die in der Analysis fundamentalen Begriffe wie konvergente

Mehr

Hausdorff-Maß und Hausdorff-Dimension. Jens Krüger

Hausdorff-Maß und Hausdorff-Dimension. Jens Krüger Hausdorff-Maß und Hausdorff-Dimension Jens Krüger Inhaltsverzeichnis 1 Einleitung 2 2 Grundlagen aus der Maßtheorie 3 3 Die Konstruktion des Hausdorff-Maßes 4 4 Eigenschaften des Hausdorff-Maßes und Hausdorff-Dimension

Mehr

Gaußsche Felder und Simulation

Gaußsche Felder und Simulation 3 2 data_2d_1.dat data_2d_2.dat data_2d_64.dat data_2d_128.dat 1-1 -2-3 1 2 3 4 5 6 7 Gaußsche Felder und Simulation Benedikt Jahn, Aaron Spettl 4. November 28 Institut für Stochastik, Seminar Zufällige

Mehr

8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN

8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN 8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN (vi) Konvergenz von Folgen ist in topologischen Räumen folgendermaßen definiert: Ist (a n ) M eine Folge, so heißt sie konvergent gegen a M, wenn es

Mehr

4 Fehlerabschätzungen und Konvergenz der FEM

4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Cauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit

Cauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit Vortrag zum Seminar zur Analysis, 10.05.2010 Michael Engeländer, Jonathan Fell Dieser Vortrag stellt als erstes einige Sätze zu Cauchy-Folgen auf allgemeinen metrischen Räumen vor. Speziell wird auch das

Mehr

Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme

Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme Optimale Steuerung, Prof.Dr. L. Blank 1 II Linear-quadratische elliptische Steuerungsprobleme Zuerst: Zusammenstellung einiger Begriffe und Aussagen aus der Funktionalanalysis (FA), um dann etwas über

Mehr

Thema 3 Folgen, Grenzwerte

Thema 3 Folgen, Grenzwerte Thema 3 Folgen, Grenzwerte Definition Eine Folge von reellen Zahlen ist eine Abbildung von N in R d.h. jedem n N ist eine Zahl a n zugeordnet. Wir schreiben für eine solche Folge. Beispiele. (a n ) n N

Mehr

1 Bedingte Erwartungswerte

1 Bedingte Erwartungswerte Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,

Mehr

30 Die Gammafunktion und die Stirlingsche Formel

30 Die Gammafunktion und die Stirlingsche Formel 3 Die Gammafunktion und die Stirlingsche Formel 35 Charakterisierung der Gammafunktion 36 Darstellung der Gammafunktion 38 Beziehung zwischen der Gammafunktion und der Zetafunktion 3 Stirlingsche Formel

Mehr

(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist.

(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist. 8 Punktmengen Für die Menge M = { 1 n ; n N } ist 1 = max(m), denn 1 M und 1 n 1 für alle n N. Die Menge M besitzt aber kein Minimum, denn zu jeder Zahl x = 1 n M existiert ein y M mit y < x, etwa y =

Mehr

Serie 2 Lösungsvorschläge

Serie 2 Lösungsvorschläge D-Math Mass und Integral FS 214 Prof. Dr. D. A. Salamon Serie 2 Lösungsvorschläge 1. Seien folgende Mengen gegeben: und für a, b R R := [, ] := R {, }, (a, ] := (a, ) { }, [, b) := (, b) { }. Wir nennen

Mehr

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013 Reelle Analysis Vorlesungsskript Enno Lenzmann, Universität Basel 11. Oktober 2013 3 Fortsetzung von Prämassen zu Massen Der Begriff des Prämasses ist nicht ausreichend, um eine geschmeidige Integrationstheorie

Mehr

Konvergenz im quadratischen Mittel - Hilberträume

Konvergenz im quadratischen Mittel - Hilberträume CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften

Mehr

2.6 Der Satz von Fubini

2.6 Der Satz von Fubini 1 2.6 Der Satz von Fubini Unser Ziel ist der Beweis des folgenden Ergebnisses. 6.1. Satz von Fubini Sei f : R n+m R integrierbar. Dann gibt es eine Nullmenge N R m, so dass gilt: 1. Für alle y R m \ N

Mehr

Folgen und Reihen. Thomas Blasi

Folgen und Reihen. Thomas Blasi Folgen und Reihen Thomas Blasi 02.03.2009 Inhaltsverzeichnis Folgen und Grenzwerte 2. Definitionen und Bemerkungen............................. 2.2 Konvergenz und Beschränktheit.............................

Mehr

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion

Mehr

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie

Mehr

Die Topologie von R, C und R n

Die Topologie von R, C und R n Die Topologie von R, C und R n Für R haben wir bereits eine Reihe von Strukturen kennengelernt: eine algebraische Struktur (Körper), eine Ordnungsstruktur und eine metrische Struktur (Absolutbetrag, Abstand).

Mehr

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik II Wahrscheinlichkeitstheorie I Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 26. November 2002

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

A. Maß- und Integrationstheorie

A. Maß- und Integrationstheorie A. Maß- und Integrationstheorie Im folgenden sind einige Ergebnisse aus der Maß- und Integrationstheorie zusammengestellt, die wir im Laufe der Vorlesung brauchen werden. Für die Beweise der Sätze sei

Mehr

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 : 24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar

Mehr

Stochastik Praktikum Simulation stochastischer Prozesse

Stochastik Praktikum Simulation stochastischer Prozesse Stochastik Praktikum Simulation stochastischer Humboldt-Universität zu Berlin 15.10.2010 Übersicht 1 Brownsche Bewegung und Diffusionsprozesse 2 Brownsche Brücke 3 Ornstein Uhlenbeck 4 Zusammengesetzte

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis Vorlesung SS 22 Jürgen Dippon Mathematisches Institut A Universität Stuttgart Homepage der Vorlesung: www.mathematik.uni-stuttgart.de/matha/lst3/dippon/sa Version vom 17. Juni 23

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Konvergenz, Filter und der Satz von Tychonoff

Konvergenz, Filter und der Satz von Tychonoff Abschnitt 4 Konvergenz, Filter und der Satz von Tychonoff In metrischen Räumen kann man topologische Begriffe wie Stetigkeit, Abschluss, Kompaktheit auch mit Hilfe von Konvergenz von Folgen charakterisieren.

Mehr

Stochastische Prozesse Gliederung zur Vorlesung im Sommersemester 2006

Stochastische Prozesse Gliederung zur Vorlesung im Sommersemester 2006 Stochastische Prozesse Gliederung zur Vorlesung im Sommersemester 26 Markus Reiß Universität Heidelberg [email protected] VORLÄUFIGE FASSUNG: 28. Juli 26 Inhaltsverzeichnis 1 Der Poissonprozess

Mehr

DIFFERENTIATION PARAMETERABHÄNGIGER INTEGRALE

DIFFERENTIATION PARAMETERABHÄNGIGER INTEGRALE DIFFERENTIATION PARAMETERABHÄNGIGER INTEGRALE Zusammenfassung. Ergänzend zur Übung vom 06.06.203 soll hier die Leibnizregel für die Differentiation parameterabhängiger Integrale formuliert und bewiesen

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Martingal-Maße. Stochastic Finance: An Introduction in Discrete Time (Hans Föllmer, Alexander Schied) Manuel Müller Mathematisches Institut

Martingal-Maße. Stochastic Finance: An Introduction in Discrete Time (Hans Föllmer, Alexander Schied) Manuel Müller Mathematisches Institut Martingal-Maße Manuel Müller 29.04.2016 Mathematisches Institut Stochastic Finance: An Introduction in Discrete Time (Hans Föllmer, Alexander Schied) Seite 2 Martingal-Maße 29.04.2016 Inhaltsverzeichnis

Mehr

Das Lebesgue-Maß im R p

Das Lebesgue-Maß im R p Das Lebesgue-Maß im R p Wir werden nun im R p ein metrisches äußeres Maß definieren, welches schließlich zum Lebesgue-Maß führen wird. Als erstes definieren wir das Volumen von Intervallen des R p. Seien

Mehr

Universität Ulm Abgabe: Mittwoch,

Universität Ulm Abgabe: Mittwoch, Universität Ulm Abgabe: Mittwoch, 8.5.23 Prof. Dr. W. Arendt Jochen Glück Sommersemester 23 Punktzahl: 36+4* Lösungen Halbgruppen und Evolutionsgleichungen: Blatt 2. Sei X ein Banachraum und (T (t)) t

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

heißt Exponentialreihe. Die durch = exp(1) = e (Eulersche Zahl). n! + R m+1(x) R m+1 (x) = n! m m + 2

heißt Exponentialreihe. Die durch = exp(1) = e (Eulersche Zahl). n! + R m+1(x) R m+1 (x) = n! m m + 2 9 DIE EXPONENTIALREIHE 48 absolut konvergent. Beweis. Wegen x n+ n! n + )!x n = x n + < 2 für n 2 x folgt dies aus dem Quotientenkriterium 8.9). Definition. Die Reihe x n heißt Exponentialreihe. Die durch

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr