Martingale und Brownsche Bewegung
|
|
- Kora Bäcker
- vor 7 Jahren
- Abrufe
Transkript
1 Martingale und Brownsche Bewegung Martin G. Riedler Institute for Stochastics, Johannes Kepler University 44 Linz, Austria
2 2
3 Die vorliegenden Unterlagen sind ein Skriptum zur Vorlesung Martingale und Brownsche Bewegung abgehalten im Sommersemester 212 an der Johannes Kepler Universität Linz im Umfang von zwei Semesterwochenstunden. Die Vorlesung präsentiert die Grundlagen um einen allgemeinen Integrationsbegriff bezüglich von Martingalen darauf aufbauend einzuführen, behandelt aber den stochastischen Integrationsbegriff selbst nicht. Der Inhalt der Vorlesung ist zum grössten Teil aus den unten angegebenen Monographien übernommen mit der einen Ausnahme des Kapitels zu Reihenentwicklungen der Brownschen Bewegung. Martin Riedler, Linz am 23. Juli 212 Literaturverzeichnis [EK86] S. N. Ethier and T. G. Kurtz. Markov Processes: Characterization and Convergence. Wiley, New York, [JS87] J. Jacod and A. N. Shiryaev. Limit Theorems for Stochastic Processes. Springer, Berlin, [KS91] I. Karatzas and S. E. Shreve. Brownian Motion and Stochastic Calculus, 2nd Ed. Springer, New York, [Mét82] M. Métivier. Semimartingales. degruyter, Berlin, [Pro4] P. E. Protter. Stochastic Integration and Differential Equations, 2nd Ed. Springer, Berlin, 24. [RY99] D. Revuz and M. Yor. Brownian Motion and Stochastic Calculus, 3rd Ed. Springer, Berlin,
4 4
5 Inhaltsverzeichnis 1 Stochastische Prozesse 7 2 Die Brownsche Bewegung Existenz der Brownschen Bewegung Pfadeigenschaften der Brownschen Bewegung Verwandte Prozesse Reihenentwicklung der Brownschen Bewegung Satz von Levy-Ciesielski und die Paley-Wiener Entwicklung Karhunen-Loève Entwicklung Martingale Martingalungleichungen Regularitätsatz für Submartingale Martingalkonvergenzsätze Optional Stopping Theorem Die Doob-Meyer Zerlegung & die quadratische Variation Erweiterungen des Konzepts der quadratischen Variation Schwache Konvergenz von Martingalen A Gleichgradige Integrierbarkeit 71 5
6 6 INHALTSVERZEICHNIS
7 Kapitel 1 Stochastische Prozesse Wir behandeln kurz die grundlegenden Definitionen bezügich der Theorie stochastischer Prozesse in stetiger Zeit. Das Kapitel ist eine Zusammenfassung und ersetzt nicht eine detaillierte Einfhrung. Das Hauptziel ist die Terminologie und Notation für die späteren Überlegungen zu fixieren. Im folgenden sei (Ω, F, P) stets ein Wahrscheinlichkeitsraum, dieser heißt vollständig, falls die σ-algebra F jede Teilmenge aller P-Nullmengen enthält, d.h., B F mit P(B) = und A B impliziert A F. Eine Eigenschaft von Abbildungen auf einem Wahrscheinlichkeitsraum gilt fast sicher (f.s.) falls eine messbare Menge Ω Ω existiert sodass diese Eigenschaft für alle ω Ω gilt und P(Ω c ) =, d.h., die Eigenschaft gilt bis auf höchstens einer Nullmenge. Ein stochastischer Prozess X = (X t ) t I ist eine Familie von Zufallsvariablen 1 X t : Ω E definiert auf dem Wahrscheinlichkeitsraum (Ω, F, P) mit Werten in einem messbaren Raum (E, E), genannt Zustandsraum, und Indexmenge I. Ein stochastischer Prozess heißt diskret oder zeit-diskret wenn I R + höchstens abzählbar ist, z. B., I = N, und kontinuierlich oder zeit-stetig falls I R + überabzählbar ist, z. B., I = [, T ] R + oder I = R +. Ein Prozess heißt reell falls sein Zustandsraum die reellen Zahlen ausgestattet mit der Borel-σ-Algebra ist, in Zeichen (E, E) = (R, B R ). Wir werden nachfolgend ausschließlich kontinuierliche, meist reelle Prozesse behandeln. Im Folgenden bezeichnet daher die Indexmenge I immer eine überabzählbare Menge. Sei p 1, dann heißt ein stochastischer Prozess X p-fach integrierbar, falls E X t p < für alle t I. Im Falle p = 1 oder p = 2 heißt der Prozess integrierbar bzw. quadratintegrierbar. Ein Prozess X besitzt unabhängige Inkremente (Zuwächse) falls für alle t 1 t 2 t 3 t 4 die Inkremente X t2 X t1 und X t4 X t3 unabhängig sind und er besitzt stationäre Inkremente falls für alle t, h die Verteilung der Inkremente X t+h X t nur von h 1 Wir verwenden den Begriff Zufallsvariable wie in der Stochastik üblich als Synonym für messbare Abbildung. 7
8 8 KAPITEL 1. STOCHASTISCHE PROZESSE abhängt und unabängig von t ist. 2 Ein Prozess X heißt stationär falls (X t1,..., X tn ) und (X t1 +h,..., X tn +h) für alle h dieselbe Verteilung besitzen für alle endlich-vielen Indices t 1,..., t n I. Neben der Interpretation eines stochastischen Prozesses als eine Familie von Zufallsvariable sind auch noch folgende Interpretationen möglich und theoretisch wichtig. Einerseits können wir X als eine Abbildung der beiden Argument (t, ω) betrachten, d.h., als Abbildung X : I Ω E auffassen und andererseits, können wir die Familie (X t ) t I als eine Zufallsvariable mit Werten in E I ausgestattet mit der Produkt-σ-Algebra E I betrachten, d.h., als messbare Abbildung X : Ω E I in die Menge der Pfade. Pfadeigenschaften stochastischer Prozesse: Sei X ein stochastischer Prozess, dann heißt für jedes fixe ω Ω die Abbildung t X t (ω) eine Trajektorie oder ein Pfad des Prozesses. Ein Prozess heißt (f.s.) (rechts-/links-)stetig falls (fast alle) Trajektorien (rechts-/links-)stetig sind. Ein Prozess heißt càdlàg falls er überall (!), d.h., für alle ω Ω, rechts-stetig ist und seine linken Limiten existieren. 3 Ein Prozess X ist (f.s.) lokal Hölderstetig mit Exponent γ >, falls für jedes T > eine (f.s.) positive Zufallsvariable h existiert und eine Konstante L <, sodass X t (ω) X s (ω) sup L für (fast) alle ω Ω. < t s <h(ω), t s γ t,s [,T ] Dies ist äquivalent zu der Bedingung, dass für (fast) alle ω Ω gilt X t (ω) X s (ω) L t s γ t, s [, T ] mit t s < h(ω). Umgekehrt gilt, ein Prozess ist (f.s.) nirgends lokal Hölderstetig mit Exponent γ, falls kein T > existiert, sodass obige Bedingung (f.s.) erfüllt ist. (Lokale) Hölderstetigkeit mit Exponent γ = 1 ist (lokale) Lipschitzstetigkeit. Die nachfolgenden Grössen, die sich aus den Pfaden bestimmen, beschreiben deren Oszillationsverhalten. Eine Partition oder Zerlegung P [a,b] eines Intervalls [a, b] ist eine Menge von Punkten t,..., t n [a, b] mit a = t t 1... t n = b und P [a,b] = max i t i t i 1 ist die Feinheit der Partition, wobei hier und immer in Verbindung mit Partitionen der Index i einmal die Anzahl der Elemente (ohne t ) durchläuft. Im folgenden sei X ein zeit-stetiger stochastischer Prozess, dann heißt für [a, b] I die Größe V p [a,b](x) = sup P [a,b] i X ti X ti 1 p 2 Diese Bedingung heißt oft auch stark stationär im Gegensatz zu schwach stationär welche nur die Gleichheit der der ersten beiden Momente fordert. 3 Das Gegenteil ist càglàd falls der Prozess linksstetig mit existierenden rechten Limiten ist.
9 die totale p-variation über [a, b] des Prozesses. Das Supremum wird hier über alle Partitionen des Intervalls [a, b] genommen. Die totale Variation entspricht pfadweise dem klassischen Variationskonzept der Analysis. Falls V p [a,b](x) < (f.s.) für alle endlichen Intervalle [a, b] I dann ist der Prozess von (f.s.) endlicher totaler p-variation. Falls p = 1, dann sprechen wir einfach von der totalen Variation. Ein zweites, stochastisches Variationskonzept ist das folgende. Wir bezeichnen die stochastische Grösse L p [a,b] := p-lim P [a,b] X ti X ti 1 p, falls dieser Grenzwert 4 existiert, als p-variation über [a, b], wobei der Grenzwert als Limes in Wahrscheinlichkeit für beliebige Folgen von Partitionen deren Feinheit gegen konvergiert zu interpretieren ist und unabhängig von der Wahl der Folge zu sein hat. Falls p = 2 sprechen wir von der quadratischen Variation. i 9 Äquivalenzbegriffe zwischen Stochastischen Prozessen Der einfachste aber zu restriktive Begriff der Äquivalenz ist falls zwei Prozesse X, Y dieselbe Abbildung auf I Ω definieren, d.h., X t (ω) = Y t (ω) für alle (ω, t) Ω I. Diese Äquivalenzauffasung kann unter Beiziehung eines Wahrscheinlichkeitsmasses P in dreifacher Weise zu passenderen Konzepten abgeschwächt werden. 5 Zwei Prozesse X und Y mit Werten in E definiert auf den Wahrscheinlichkeitsräumen (Ω, F, P) und (Ω, F, P ), sind Versionen voneinander falls sie dieselben endlich-dimensionalen Verteilungen besitzen, d.h., P [ ] X t1 A 1,..., X tn A [ ] n = P Y t1 A 1,..., Y tn A n für alle messbaren Mengen A i E und alle endlichen Mengen von Indices {t 1,..., t n } I. Falls die Prozesse X, Y auf dem selben Wahrscheinlichkeitsraum definiert sind und für alle t I gilt, dass P[X t = Y t ] = 1, dann heißen sie Modifikationen voneinander. Schlussendlich die beiden Prozesse sind ununterscheidbar falls P[X t = Y t t I] = 1, d.h., Trajektorien unterscheiden sich nur auf einer Nullmenge. Im falle diskreter Prozesse sind die Begriffe Modifikation und ununterscheidbar äquivalent. Im Allgemeinen gelten zwischen den Äquivalenzbegriffen die Beziehungen X, Y ununterscheidbar = X, Y Modifikationen = X, Y Versionen 4 Wir verwenden die Notation p-lim und qm-lim um Konvergenz in Wahrscheinlichkeit und Konvergenz im Quadratmittel zu bezeichnen, d.h., p-lim n X n = X ɛ > : lim n P[ X n X > ɛ] =, bzw., qm-lim n X n = X lim n E X n X 2 = 5 Alle drei sind Äquivalenzrelationen auf einer passenden Menge von Prozessen.
10 1 KAPITEL 1. STOCHASTISCHE PROZESSE und umgekehrt X, Y Modifikationen, X, Y f.s. rechts- oder linksstetig = X, Y ununterscheidbar. Aus diesen Eigenschaften folgt, dass die Äquivalenzklasse der Modifikationen eines Prozesses (bis auf Ununterscheidbarkeit) höchstens einen f.s. (rechts-/links-)stetigen Prozess enthält. Daher sagen wir f.s. (rechts-/links-)stetige Prozesse sind bis auf Unuterscheidbarkeit eindeutig definiert. Pfadeigenschaften bleiben nicht unter Modifikationen erhalten. Oft sucht man jene Modifikation, die gute Pfadeigenschaften hat. Durch Abänderung eines Prozesses auf der Nullmenge zu (rechts-/links-)stetigen Pfaden können wir immer einen (rechts-/links-)stetige ununterscheidbaren Prozessen erhalten. Die beiden schwächeren Äquivalenzbegriffe sind für die Anwendungen überaus wichtig, da sehr oft durch physikalische Überlegungen und Experimente nur Aussagen über die endlich dimensionale Verteilungen getroffen werden können. Prozesse in diesen Äquivalenzklassen können sehr unterschiedliche Pfadeigenschaften besitzen und daher kann man sich zur mathematischen Behandlung aus dieser Klasse jenen Prozess wählen, der bestmögliche Pfadeigenschaften besitzt. Abschließend sei noch einmal darauf hingewiesen, dass Versionen, Modifikationen und Ununterscheidbarkeit bezüglich eines bestimmten Masses definiert sind und diese Eigenschaften nicht erhalten bleiben müssen, wählt man eine anderes Mass. Kanonische Wahrscheinlichkeitsräume Wie bereits erwähnt gibt es auf Grund von Beobachtungen oft nur Aussagen über die endlich dimensionalen Verteilung Stochastischer Prozesse und es stellt sich vor all bei kontinuierlichen Modellen zuallererst die Frage der Existenz eines Stochastischen Prozesses, der diese endlich-dimensionalen Verteilungen besitzt. Wir betrachten nun nur kontinuierliche Indexmengen I, da die folgenden Probleme bei diskreten Prozessen nicht auftreten. Existiert ein Prozess, dann kann er als Zufallsvariable mit Werten im messbaren Raum (E I, E I ) aufgefasst werden und seine Verteilung induziert ein Bildmass darauf. Um die Existenz eines Prozesses zu zeigen, ist es nun ausreichend die Existenz dieses Masses auf dem Raum (E I, E I ) zu zeigen. Dieser Raum aller möglichen Pfade nimmt den Platz des unspezifizierten Wahrscheinlichkeitsraumes (Ω, F, P) ein und heißt daher kanonischer Wahrscheinlichkeitsraum. Auf dem kanonische Raum ist ein stochastischer Prozess durch die Familie der Koordinatenabbildungen ζ t : E I E : ω ζ t (ω) := ω(t), t I definiert und dieser heißt kanonischer Prozess. Die Produkt-σ-Algebra E I ist per definitionem die von den Koordinatenabbildungen erzeugte σ-algebra. Eine Antwort auf die Existenzfrage liefert der folgende Satz von Kolmogorov. Zuvor bemerken wir das eine Familie endlich-dimensionaler Verteilungen (P J ) J I, J < projektiv ist, falls für J = (t 1,..., t n ) und jede Permutation π von {1,..., n} P (t 1,...,t n) ( A 1... A n ) = P (t π(1),...,t π(n) ) ( A π(1)... A π(n) ) und P (t 1,...,t n) ( A 1... A n 1 E ) = P (t 1,...,t n 1 ) ( A 1... A n 1 )
11 gilt. Hier sind die endlich-dimensionale Verteilungen eine Familie von Wahrscheinlichkeitsmassen auf der Familie der Produkträume E ti... E tn für alle endlich dimensionalen Teilmengen {t 1,..., t n } I. Es ist leicht zu überprüfen, dass die endlich-dimensionalen Verteilungen eines Prozesses eine projektive Familie sind und der folgenden Satz ist in gewissem Sinne die Umkehrung dieser Aussage und liefert die Existenz eines stochastischen Prozesses zu einer gegebenen Familie von endlich-dimensionalen Verteilungen. Satz 1.1 (Kolmogorov-Existenz Satz). Sei (E, E) ein Polnischer Raum 6 zusammen mit seiner Borel-σ-Algebra. Dann existiert für jede Indexmenge I und jede projektive Familie von endlich-dimensionalen Verteilungen genau ein Wahrscheinlichkeitsmass P auf (E I, E I ), dessen Randverteilungen mit den gegebenen endlich-dimensionalen Verteilungen übereinstimmen, d.h., für beliebige endlich viele Indices t i und messbare Mengen A i gilt P [ ζ t1 A 1,..., ζ tn A n ] = P (t 1,...,t n ) ( A 1... A n ). Ein schwerwiegender Nachteil dieser Konstruktion ist, dass die Produkt-σ-Algebra E I nur Mengen enthält, die durch abzählbar viele Koordinaten festgelegt sind. Daher treten Messbarkeitsprobleme immer dann auf, wenn man Eigenschaften oder Funktionale des Prozesses betrachtet, die von überabzählbar vielen einzelnen Zufallsvariablen abhängen. Das prominenteste Beispiel unter diesen ist die Nicht-Messbarkeit der Menge {ω E I : t ζ t (ω) ist stetig} im kanonischen Wahrscheinlichkeitsraum und analog, wenn nach, z.b., der Beschränktheit oder Differenzierbarkeit der Pfade gefragt wird. Ähnliche Probleme treten auch auf, wenn man für beliebige Prozess die Abbildungen τ(ω) := inf{t > : X t (ω) > }, lim s t X s (ω), sup s t X s (ω) betrachtet. Hier kann man im Allgemeinen nicht davon ausgehen, dass diese Ausdrücke wohldefiniert oder messbar sind. Diese letzteren Probleme können behoben werden, falls man (f.s.) (rechts-/links-)stetige Prozesse betrachtet, da man nun Funktionale überabzählbar vieler Zufallsvariablen oft auf Funktionale auf dichten, abzählbaren Mengen, z.b., Q, zurückführen kann. Es bleibt aber weiterhin das Problem zu zeigen, dass der Prozess derartige Pfade besitzt. Auf Grund der Nicht-Messbarkeit der Menge der stetigen Pfade in (E I, E I ), kann man nicht einfach vorgehen und zeigen, dass die Menge der unpassenden Pfade eine Nullmenge ist. Um diese Schwierigkeit vorerst zu umgehen, schwächen wir den Begriff fast sicher (nur für den Moment!) ab, und sagen ein kanonischer Prozess ist f. s. (rechts-/links-)stetig falls jeder messbaren Menge in E I, die alle (rechts-/links-)stetigen Pfade enthält, Mass 1 zugewiesen wird. 7 Ein einfaches, allgemeines Kriterium zur Überprüfung der Stetigkeit liefert der folgende Satz. 6 Ein topologischer Raum heißt polnisch, falls er vollständig metrizierbar und separabel ist, vor allem gilt, jeder polnische Raum ist ein Borelraum. 7 Zur genaueren Unterscheidung wird eine derartige Menge auch wesentlich für des Wahrscheinlichkeitsmass genannt werden. 11
12 12 KAPITEL 1. STOCHASTISCHE PROZESSE Satz 1.2 (Kolmogorov-Centsov Stetigkeits Kriterium). Existieren für einen reellen Prozess X drei Konstanten α, β, C >, sodass E X t X s α C t s 1+β für alle t, s gilt, dann besitzt X eine f.s. stetige Modifikation. Diese ist f.s. lokal Hölder-stetig mit Exponent γ für alle γ (, β/α). Bemerkung 1.1. Man kann sogar zeigen, dass der Prozess eine überall stetige Modifikation besitzt. Dazu ändert man die f.s. stetige Modifikation so ab, dass man alle nicht-stetigen Pfade konstant gleich setzt und dann lässt sich zeigen, dass dieser überall stetige Prozess ebenfalls eine Modifikation ist. Um f.s. (rechts-)stetige Prozesse besser behandeln zu können ist der kanonische Raum (E I, E I ) meist nur ein Zwischenschritt und wird nachdem die Existenz eines Prozesses gesichert ist durch einen besser geeigneten Raum ersetzt. Im folgenden Bezeichnen wird mit D(I, E) und C(I, E) die Menge der rechtsstetigen, bzw., stetigen Pfade von I nach E, die klarerweise Teilmengen von E I sind. Ausgestattet mit der jeweiligen Spur-σ-Algebra von E I werden beide zu messbaren Räumen. Die Spur-σ-Algebra entspricht auch der von den Koordinatenabbildungen von D(I, E) bzw. C(I, E) nach E erzeugten σ-algebra. Sind die Pfade eines Prozesse f.s. (rechts-)stetig, dann erhält man durch die Einschränkung eines Masses auf E I auf diese Räume eindeutig(!) ein Wahrscheinlichkeitsmass, trotzdem beide Mengen nicht messbare Teilmengen von E I sind. Die resultierenden Wahrscheinlichkeitsräume bestehen wiederum aus einer Menge von Funktionen und dazugehörigen Koordinatenabbildungen und sind daher auch kanonische Räume. Die kanonische Version eines Prozesses ist eine Version, die auf einem (passenden) kanonischen Raum definiert. Jeder Prozess besitzt eine eindeutige kanonische Version. Somit gilt allgemein ein Prozess auf einem beliebigen Raum (Ω, F, P) ist f.s. (rechts-/links-)stetig (im normalen Sinn) wir können getrost annehmen, dass, z.b., {ω Ω : X(ω) C(R +, E)} F falls seine kanonische Version f.s. (rechts-/links-) stetig im neuen Sinne ist. Filtrationen Eine Familie von Teil-σ-Algebren F t, t I, von F, heißt Filtration falls F s F t für s t. Diese heißt vollständig bezüglich P, falls der Wahrscheinlichkeitsraum (Ω, F, P) vollständig ist und F alle P-Nullmengen in F enthält. Die Vollständigkeit der Filtration ist eine Eigenschaft bezüglich eines bestimmten Masses und muss nicht erhalten bleiben wird ein beliebiges anderes Mass gewählt. Sei N P die Menge aller P-Nullmengen in F, dann ist die Augmentierung einer Filtration jene Filtration bestehend aus den den σ-algebren Ft P := F t N P. Ist F eine vollständige σ-algebra, dann ist die augmentierte Filtration eine vollständige Filtration und auch jede σ-algebra Ft P ist vollständig. Daher ist es immer möglich auf einem vollständigen Wahrscheinlichkeitsraum aus einer beliebigen Filtration eine vollständige Filtration zu erhalten. Die augmentierte Filtration ist im Allgemeinen größer als die Filtration, die man erhält,
13 wenn man jede σ-algebra einzeln vervollständigt. Die Filtration, die man durch diese Prozedur erhält, heißt Vervollständigung. Sei Nt P die Menge der P-Nullmengen in F t dann ist die Vervollständigung einer Filtration jene Filtration bestehend aus den σ-algebren F P t := F t Nt P. Es gilt F P t Ft P und diese Inklusion kann strikt sein. Caveat: Es gilt aber das unter Umständen die Vervollständigung einer Filtration keine vollständige Filtration liefert! Zu gegebener Filtration definieren wir die σ-algebren F t := s<t F s für alle t I mit F = F und F = s I F s und F t+ := ɛ> F t+ɛ für alle t I. Eine Filtration (F t ) t I heißt links-stetig falls F t = F t für alle t I, rechts-stetig falls F t = F t+ für alle t I und stetig falls sie sowohl links- als auch rechts-stetig ist. Die Filtrationen (F t ) t I und (F t+ ) t I sind links- bzw. recht-stetig per definitionem. Ein Wahrscheinlichkeitsraum zusammen mit einer Filtration, in Zeichen, (Ω, F, (F t ) t I, P), heißt filtrierter Wahrscheinlichkeitsraum. Dieser erfüllt die üblichen Bedingungen, falls die Filtration vollständig und rechtsstetig ist. Ein Prozess X heißt an die Filtration (F t ) t I adaptiert, falls für jedes t I die Zufallsvariable X t messbar bezüglich F t ist. Eine Modifikation eines adaptierten Prozesses ist nicht notwendigerweise adaptiert. Ist aber die Filtration vollständig, dann ist jede Modifikation eines adaptierten Prozesses ebenfalls adaptiert. Eine spezielle Filtration ist die von einem Prozess erzeugte natürliche Filtration Ft X := σ(x s, s t), d.h., F t ist die gröbste 8 σ-algebra, sodass alle X s, s t, messbar bezüglich dieser sind. Die natürliche Filtration ist die gröbste Filtration an die ein Prozess adaptiert ist. Falls X ein endlich-dimensionaler reeller, links-stetiger Prozess ist, dann ist die erzeugte Filtration (Ft X ) t links-stetig. Dies gilt aber nicht für Rechts-stetigkeit! Zum Beispiel, eine Brownsche Bewegung ist stetig, aber die erzeugte Filtration ist nicht rechts-stetig. Die augmentierte Filtration eines endlich-dimensionalen, reellen starken Markov Prozesses ist rechts-stetig und ist der Prozess zusätzlich links-stetig dann ist die augmentierte Filtration stetig. Eine weitere wichtige Eigenschaft der augmentierten Filtration ist, das das Augmentieren einer Filtration die starke Markoveigenschaft als auch die Martingaleigenschaft erhält. Somit können wir meist o.b.d.a. annehmen, dass ein derartiger Prozess auf eine Wahrscheinlichkeitsraum definiert ist, der die üblichen Bedingungen erfüllt. Bemerkung 1.2. Viele Eigenschaften von Prozessen, z.b., die Markov- oder Martingaleigenschaft, sind bezüglich einer gewissen Filtration oder σ-algebra definiert. Wir werden im Allgemeinen die Angabe der Filtration weglassen, falls keine Möglichkeit der Verwechslung besteht. Falls doch, werden wir diese einfach als Prefix an das Attribut anhängen. So ist zum Beispiel ein (F t ) t I -adaptierter Prozess ein Prozess X, der an die Filtration (F t ) t I adaptiert ist. 13 Eigenschaften als Abbildung auf Ω I: Ein Prozess X ist messbar, falls die Abbildung X : I Ω E messbar bezüglich der Produkt-σ-Algebra auf I Ω ist. Der Satz von Fubini impliziert, dass Pfade messbarer 8 Sei F, F zwei σ-algebren, sodass F F, dann ist F gröber als F, bzw., F ist feiner als F.
14 14 KAPITEL 1. STOCHASTISCHE PROZESSE Prozesse Borel-messbare Abbildungen auf I sind und ebenso t EX t, falls die Erwartung definiert ist. Weiters gilt die Vertauschbarkeit der Integration, d.h., für I I E X t dt < = X t dt < f.s. und EX t dt = E X t dt. I I Prozess mit rechts- oder links-stetigen Pfaden sind messbar. Die Einführung einer Filtration führt zum folgenden etwas stärkeren Konzept. Ein Prozess X heißt progressiv messbar falls für alle t I die Zufallsvariablen X s, s t, B [,t] F t -messbar sind. Progressivität impliziert Adaptivität und Messbarkeit. Umgekehrt gilt, adaptierte, rechts- oder links-stetige Prozesse sind progressiv und ein messbarer, adaptierter Prozess besitzt eine progressiv messbare Modifikation. Weiters, die vorhersehbare σ-algebra P ist die σ-algebra auf Ω I, die von allen linksstetigen, adaptierten Prozessen aufgefasst erzeugt wird. Es kann gezeigt werden, dass diese mit der σ-algebra die von allen stetigen Prozessen erzeugt wird übereinstimmt. Ein P- messbarer Prozess heißt vorhersehbar. Stoppzeiten Eine Zufallsvariable τ mit Werten in R + = R + { } (zufällige Zeit) heißt Stoppzeit bezüglich einer Filtration (F t ) t falls {τ t} F t für alle t R +. 9 Die Stoppzeit heißt (f.s.) endlich falls τ < (f.s.) und (f.s.) beschränkt falls τ T (f.s.) für ein T >. Jede Stoppzeit kann von unten durch eine Folge beschränkter Stoppzeiten, z.b., τ n τ, und von oben durch eine nicht-wachsende Folge von Stoppzeiten, die je nur abzählbare viele Werte annehmen, z.b., τ n τ falls i für i 1 τ < i τ n := 2 k 2 n 2, i N, n für τ =, approximiert werden. Sind τ n, n N, Stoppzeiten und c [, ), dann sind auch I I τ 1 + c, τ 1 c, τ 1 + τ 2, sup n N τ n, min τ k, max τ k n N k n k n Stoppzeiten und, falls die Filtration rechtsstetig ist, sind auch inf τ n, n N lim inf τ n, lim sup n n τ n Stoppzeiten. Ein weitere wichtige Klasse zufälliger Zeiten sind Eintrittszeiten ( hitting times ). Sei X eine adaptierter Prozess mit Werten in einem beliebigen metrischen Raum und B eine Borelmenge, dann ist die zufällige Zeit τ B := inf{t : X t B}, 9 Natürlich ist das Konzept analog für beliebige Indexmengen I definiert.
15 mit inf =, eine Stoppzeit, falls entweder die Menge B offen und die Filtration rechtsstetig ist 1 oder falls die Menge B abgeschlossen und zusätzlich entweder kompakt ist oder der Prozess X linke Limiten besitzt. Erfüllt die Filtration die üblichen Bedingungen und ist der Prozess progressiv messbar, dann ist jede Eintrittszeit eine Stoppzeit. Dieselben Aussage gelten auch für Eintrittszeiten nach einer zufälligen Zeit, d.h. für zufällige Zeiten τ B,σ := inf{t σ : X t B} wobei σ eine beliebige Zufallsvariable in R + ist. Sei τ eine Stoppzeit, dann ist die gestoppte σ-algebra F τ definiert durch F τ := { A F : A {τ t} F t für alle t }. Klarerweise gilt F τ ist eine σ-algebra. Sind τ und σ zwei Stoppzeiten, dann sind τ und τ σ F τ -messbar und falls τ σ dann gilt F τ F σ. Weiters, falls γ eine F τ -messbare Zufallsvariable ist, gilt nun, dass auch τ + γ eine Stoppzeit ist. Sei X ein stochastischer Prozess und τ eine Stoppzeit. Dann definieren wir auf [τ < ] die Abbildung X τ : ω X τ(ω) (ω). Existiert ein Zufallsvariable X o.b.d.a. kann man z.b. immer X konstant wählen, dann kann diese Definition auf ganz Ω ausgedehnt werden. Ist die Stoppzeit f.s. endlich und nimmt nur höchstens abzählbar viele Werte an, dann ist X τ eine Zufallsvariable falls der Prozess X adaptiert ist. Ist die Stoppzeit f.s. beschränkt, aber nimmt überabzählbar viele Werte an, dann ist X τ eine Zufallsvariable falls der Prozess messbar ist. Ist der Prozess progressive messbar, dann ist X τ für eine beliebige Stoppzeit eine Zufallsvariable. Weiters, ist der Prozess X progressiv messbar, dann ist die Zufallsvariable X τ auch messbar bezüglich F τ und der gestoppte Prozess X τ definiert durch Xt τ := X t τ, t, ist ebenfalls progressiv messbar Allgemeiner gilt, dass in diesem Falle τ B eine (F t+ ) t -Stoppzeit ist.
16 16 KAPITEL 1. STOCHASTISCHE PROZESSE
17 Kapitel 2 Die Brownsche Bewegung Wir definieren die Brownsche Bewegung und beweisen die Existenz und Eindeutigkeit eines derartigen Prozesses. Wir analysieren die elementaren (Pfad-)Eigenschaften der Brownschen Bewegung, diskutieren weitere stochastische Prozesse, die sich aus der Brownschen Bewegung gewinnen lassen. Zuletzt präsentieren wir noch Reihendarstellungen der Brownschen Bewegung und beweisen die Karhunen-Loève-Entwicklung. Ein stochastischer Prozess B = (B t ) t wird Brownsche Bewegung oder Wiener Prozess genannt, falls er die folgenden Eigenschaften besitzt: (a) Der Prozess startet fast sicher im Ursprung, d.h., B = fast sicher, (b) besitzt stationäre unabhängig normalverteilte Zuwächsen, d.h., B t B s N(, t s ) und B t2 B t1 unabhängig von B t4 B t3 falls (t 1, t 2 ) (t 3, t 4 ) =, (c) und besitzt fast sicher stetige Pfade. Bemerkung 2.1. Die hier gegebene Definition einer Brownschen Bewegung sowie die Resultate in diesem Kapitel kommen ohne die Angabe einer Filtration aus an welche die Brownsche Bewegung adaptiert ist. Jedoch, in späteren Kapiteln wird eine solche benötigt und in diesem Falle heißt ein Prozess B eine Brownschen Bewegung bezüglich der Filtration (F t ) t falls dieser (a) (c) erfüllt, an die Filtration (F t ) t adaptiert ist und für alle s < t gilt B t B s ist unabhängig von F s. Es ist offensichhtlich, dass diese zusätzlichen Bedingungen bereits die Unabhängigkeit der Inkremente implizieren. Andererseits gilt, dass die Unabhängigkeit der Inkremente impliziert, dass eine Brownsche Bewegung immer eine Brownsche Bewegung bezüglich ihrer natürlichen Filtration (F B t ) t ist. 2.1 Existenz der Brownschen Bewegung Im folgenden ersten Satz zur Brownschen Bewegung beweisen wir deren Existenz und Eindeutigkeit mittels des Satzes von Kolmogorov. Im weiteren Verlauf werden wir noch weitere 17
18 ... A (1) 18 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Möglichkeiten kennenlernen die Existenz und Eindeutigkeit zu beweisen. Klarerweise bezieht sich hier Eindeutigkeit auf die Verteilung der kanonischen Version. Satz 2.1 (Existenz der Brownschen Bewegung). Es existiert genau ein stochastischer Prozess der die Bedingungen (a) (c) erfüllt. Dieser heißt Brownsche Bewegung oder Wiener Prozess. Bemerkung 2.2. Aus dem Beweis folgt, dass die endlich-dimensionalen Verteilungen der Brownschen Bewegung Normalverteilungen sind und für alle t, s gilt B t N(, t) und Cov(B t, B s ) = t s. Beweis. Wir verwenden nun zum Beweis des Satzes den Kolmogorov Existenzsatz und das Kolmogorov-Centsov Stetigkeitskriterium. Als Vorbemerkung zeigen wir, dass die endlichdimensionalen Verteilungen eines Prozesses der (a) (c) erfüllt, multivariat normalverteilt sind: Aus der Unabhängigkeit folgt für s < t, dass (B s, B t B s ) gemeinsam normalverteilt sind und somit auch (1 ; 1 1)(B s, B t B s ) = (B s, B t ) mit Kovarianzmatrix (s s; s t) und somit gilt Cov(B s, B t ) = s t. Analog folgt die gemeinsame Verteilung aller endlichen Vektoren (B t1,..., B tn ). Als nächstes konstruieren wir aus den Eigenschaften (a) und (b) eindeutig eine Familie endlich-dimensionaler Verteilungen bestehend aus Normalverteilungen und um die Existenz und Eindeutigkeit eines Prozesses zu erhalten, ist zu zeigen, dass diese Familie projektiv ist. Die Existenz einer regulären bedingten Erwartung garantiert, dass für t 1 < t 2 P[B t1 A 1, B t2 A 2 ] = P[B t2 A 2 B t1 ] dp Bt1 A 1 wobei P B t 1 die Verteilung von Bt1 bezeichnet. Aus der Unabhängigkeit der Inkremente folgt nun P [ ] B t2 A 2 Bt1 = (2π(t 2 t 1 )) A 1/2 exp ( (x 2 B t1 ) 2 ) dx 2, 2 2(t 2 t 1 ) }{{} =:p(t 2 t 1,x 2 B t1 ) da B t1 + (B t2 B t1 ) B t1 N(B t1, t 2 t 1 ), und somit gilt P[B t1 A 1, B t2 A 2 ] = p(t 2 t 1, x 2 x 1 ) dx 2 p(t 1, x 1 ) dx 1. A 2 A 1 Sei J = {t 1,..., t n } R + dann bezeichnen wir mit (t (1),..., t (n) ) das Tupel der aufsteigend angeordneten Elemente von J und wir bestimmen nach den obigen Überlegungen rekursiv die Familie der endlich dimensionalen Verteilungen P J[ B t1 A 1,..., B tn A n ] = A (n 1) A (n) p(t (n) t (n 1), x n x n 1 ) dx n p(t (n 1) t (n 2), x n 1 x n 2 ) dx n 1... p(t (1), x 1 ) dx 1.
19 2.1. EXISTENZ DER BROWNSCHEN BEWEGUNG 19 Diese Familie ist offensichtlich projektiv, da der Ausdruck in der rechten Seite invariant bezüglich Permutationen ist und es gilt P J[ B t1 A 1,..., B tn R ] = P J\{t n} [ B t1 A 1,..., B tn 1 A n 1 ]. Aus dem Satz von Kolmogorov, Satz 1.1, folgt nun die Existenz eines eindeutigen stochastischen Prozesses B der die Bedingungen (a) und (b) erfüllt. Um schlussendlich die Brownsche Bewegung zu erhalten müssen wir noch zeigen, dass dieser Prozess eine stetige Modifikation besitzt. Damit ist dann die eindeutige Existenz eines Prozesses der zusätzlich auch Eigenschaft (c) erfüllt bewiesen. Dazu bemühen wir das Kolmogorov-Centsov Stetigkeitskriterium, Satz 1.2. Da die Inkremente B t B s einer N(, t s )-Verteilung folgen, erhalten wir aus den bekannten Resultaten betreffend der Momente der Normalverteilung, E B t B s 4 = 3 t s 2 und somit sind die Bedingungen des Kriteriums erfüllt. Als nächstes sammeln wir einige einfache Symmetrieeigenschaften der Brownschen Bewegung, sodass wir durch Transformationen eine Brownschen Bewegung wiederum Brownsche Bewegungen erhalten. Im folgenden sei (Ω, F, P) ein Wahrscheinlichkeitsraum auf dem eine Brownsche Bewegung B definiert ist. (Symmetrie) Der Prozess B t, t, ist eine Brownsche Bewe- Proposition 2.1. (i) gung. (ii) (Homogenität) Der Prozess B s+t B s, t, ist für beliebiges s eine Brownsche Bewegung unabhängig von σ(b u ; u s). (iii) (Skalierung) Der Prozess cb t/c 2, t, ist für beliebiges c > eine Brownsche Bewegung. (iv) (Inversion) Der Prozess definiert durch X = und X t = tb 1/t, t >, ist eine Brownsche Bewegung. Beweis. Die Eigenschaften (i) (iii) sind klar und wir beweisen nur (iv). Aus der Definition gilt die Eigenschaft (a) der Brownschen Bewegung und wir betrachten die Inkremente X t X s. Diese sind normalverteilt, da die endlich-dimensionalen Verteilungen von B normalverteilt sind, mit E(X t X s ) = und E(X t X s ) 2 = t 2 EB 2 1/t + s 2 EB 2 1/s 2tsEB 1/t B 1/s = t + s 2ts max{t, s} = t s. Daher sind die Inkremente stationär und ebenfalls durch Ausmultiplizieren der Kovarianz folgt die Unabhängigkeit der Inkremente, da für t 1 t 2 t 3 t 4 gilt E(X t2 X t1 )(X t4 X t3 ) = t 2t 4 t 2 t 4 + t 1t 3 t 1 t 3 t 1t 4 t 1 t 4 t 2t 3 t 2 t 3 = t 2 + t 1 t 1 t 2 =.
20 2 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Es bleibt die Stetigkeit der Pfade zu betrachten, wobei der einzig kritische Punkt an t = ist. Da die Prozesse X t, t (, ) und B t, t (, ) dieselben endlich dimensionalen Verteilungen besitzen gilt wegen lim t, t Q+ B t = f.s. auch lim t, t Q+ X t = f.s.. Da aber X t f.s. stetige Pfade auf (, ) besitzt folgt auch lim t, t R+ X t =. Die soeben bewiesene Eigenschaft der Inversion der Brownschen Bewegung liefert einen einfachen Beweis des folgenden starkes Gesetzes der Großen Zahlen, das sublineares Wachstum der Brownschen Pfade liefert. Korollar 2.1 (Starkes Gesetz der Großen Zahlen). Für eine Brownsche Bewegung B gilt lim t B t t = f.s.. Beweis. Wegen Prop. 2.1(iv) gilt = lim s sb 1/s = lim t B t /t f.s. wobei t = 1/s. Bemerkung 2.3. Eine präzisere Beschreibung des lokalen Verhaltens von Brownschen Pfaden für t und t liefert das Gesetz des iterierten Logarithmus und Lèvy s modulus of continuity. Diese Resultate werden wir aber nicht behandeln. 2.2 Pfadeigenschaften der Brownschen Bewegung Als nächsten untersuchen wir Eigenschaften der Pfade der Brownschen Bewegung und beginnen mit Eigenschaften, die das lokale Oszillationsverhalten betreffen. Satz 2.2. (i) gilt Eine Brownsche Bewegung besitzt endliche quadratische Variation und es qm-lim P[,t] B ti B ti 1 2 = t = L 2 [,t](b). i (ii) Eine Brownsche Bewegung besitzt f.s. Pfade von unendlicher totaler Variation, d.h., V 1 [,t](b) = sup P [,t] i B ti B ti 1 = f.s.. (Genau genommen wird im Beweis nur gezeigt, dass die Menge der Pfade von endlicher totaler Variation in einer Nullmenge enthalten sind.) Bemerkung 2.4. Der Quadratmittel Limes in (i) ist interpretiert als der Limes einer beliebigen Folge von Partitionen von [, t], deren Feinheit gegen konvergiert. Die Konvergenz in (i) gilt fast sicher, falls die Folge der Partitionen aufsteigend ist (P n P n+1 ) oder der Radius genügend schnell fällt ( n P n < ). Die Eigenschaft (ii) erlaubt nun nicht mehr ein Integral bezüglich einer Brownschen Bewegung pfadweise im Sinne des Riemann- Stieltjes Integral zu definieren und ist der Grund für die Entwicklung einer stochastischen Integrationstheorie in der die Rolle der klassischen Variation (ii) durch die quadratische Variation in (i) ersetzt wird. Die Resultate gelten natürlich analog für beliebige endliche Intervall [a, b] und resultierender quadratischer Variation b a.
21 2.2. PFADEIGENSCHAFTEN DER BROWNSCHEN BEWEGUNG 21 Beweis. (i) Wegen der Unabhängigkeit der Inkremente und da EZ 4 = 3EZ 2 für normalverteiltes Z gilt [ 2 [ ( )] 2 E (B ti B ti 1 ) 2 t] = E (B ti B ti 1 ) 2 (t i t i1 ) i i (unabhängige Inkremente) = i [ E (B ti B ti 1 ) 2 (t i t i1 ) ] 2 2 i E(B ti B ti 1 ) i (t i t i1 ) 2 8 i (t i t i 1 ) 2 und die Aussage folgt da P [,t]. 8t P [,t] (ii) Konvergenz im Quadratmittel impliziert Konvergenz in der Wahrscheinlichkeit und diese wiederum impliziert, es existiert eine Teilfolge die fast sicher konvergiert. Sei nun P[,t] n ein Folge von Partitionen, sodass lim P [,t] B ti (ω) B ti 1 (ω) 2 = t ( ) i für alle ω Ω F mit P(Ω ) = 1 und o.b.d.a. können wir annehmen, dass alle diese Pfade stetig sind. Dann gilt ( ) B ti (ω) B ti 1 (ω) 2 sup B ti (ω) B ti 1 (ω) sup B ti (ω) B ti 1 (ω) ω Ω. i i P [,t] Ist nun die totale Variation endlich, dann konvergiert wegen der Stetigkeit der Brownschen Pfade die obere Schranke gegen null. Dies ist ein Widerspruch zu ( ) und daher muss die totale Variation auf Ω unendlich sein. Satz 2.3. Eine Brownschen Bewegung besitzt f.s. lokal Hölder-stetige Pfade mit Hölderexponent γ < 1/2 und ist f.s. nirgends lokal Hölder-stetig mit Exponent γ > 1/2. Genauer ausgedrückt gilt die zum Exponent γ > 1/2 an einem Punkt lokal Hölder-stetigen Pfade sind in einer Nullmenge enthalten. Beweis. Der erste Teil des Satzes folgt wie schon die Stetigkeit aus dem Satz von Kolmogorov- Centsov, Satz 1.2. Da die Inkrement normalverteilt sind existiert für jedes p > eine Konstante C p, sodass E B t B s 2p = C p t s p. Daher sind die Pfade lokal Hölder-stetig für alle γ < (p 1)/(2p) = 1/2 1/(2p). Da p beliebig groß gewählt werden kann folgt die f.s. lokale Hölder-stetigkeit für alle γ < 1/2. i
22 22 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Der zweite Teil des Satzes ist analog zum Beweis von Satz 2.2(ii). Sei wieder um P [,t] ein Folge von Partitionen, sodass lim P [,t] B ti (ω) B ti 1 (ω) 2 = t ( ) i für alle ω Ω mit P(Ω ) = 1. Falls B s1 (ω) B s2 (ω) K s 1 s 2 γ für alle s 1, s 2 t und ein γ > 1/2, dann gilt B ti (ω) B ti 1 (ω) 2 i i K 2 t i t i 1 2γ K 2 t sup t i t i 1 2γ 1. i Da P [,t] konvergiert die rechte Seite gegen null. Wiederum erhalten wir einen Widerspruch zu ( ) und es folgt, die Pfade sind fast sicher nicht Hölder-stetig mit Exponent γ > 1/2 auf [, t]. Dasselbe Argument lässt sich nun für beliebige Intervalle wiederholen und dies impliziert, dass die Brownsche Bewegung f.s. nirgends lokal Hölder-stetig mit Exponent γ > 1/2 ist. Bemerkung 2.5. Der obige Satz lässt die lokale Hölder-Stetigkeit für den Fall γ = 1 2 unbeantwortet. Das Gesetz des iterierten Logarithmus impliziert, dass der Pfad nicht überall lokal Hölder-stetig mit Exponent γ = 1/2 sein kann. Dies heißt aber nicht, dass ein solcher Pfad diese Eigenschaft nirgends auf [, ) haben kann. Eine detailliertere Diskussion dieses Aspekts findet sich in [KS91, S. 113]. Schlussendlich zeigen wir noch, dass die Pfade eine Brownschen Bewegung fast sicher nirgends differenzierbar sind. Die umständliche Formulierung des Satzes trägt dem Umstand Rechnung, dass nicht bekannt ist, ob die Menge der an einem Punkt differenzierbaren Pfade messbar ist. Satz 2.4. Die Menge der an einem Punkt differenzierbaren Pfade einer Brownschen Bewegung sind in einer Nullmenge enthalten. Beweis. Es ist ausreichend, Brownsche Pfade über den Intervall [, 1] zu betrachten, da abzählbare Vereinigungen von Nullmengen wieder um Nullmengen sind. Wir definieren D + f(t+h) f(t) f(t) = lim sup h und bezeichnen analog mit D h + f(t) den Limes inferior. Klarerweise gilt, ist f differenzierbar an t dann ist < D + f(t) = D + f(t) <. Wir betrachten nun die Menge C := { ω Ω : < D + B t (ω) D + B t (ω) < für ein t [, 1] }, die alle an einer Stelle t [, 1] differenzierbaren Brownschen Pfade enthält, und zeigen, dass C in einer Nullmenge liegt. Wir definieren weiters die Mengen A jk := t [,1] h [,1/k] { ω Ω : Bt+h (ω) B t (ω) jh }, j, k N,
23 2.2. PFADEIGENSCHAFTEN DER BROWNSCHEN BEWEGUNG 23 und es gilt C j=1 k=1 aus folgendem Grund: Sei t so, dass für eine Pfad ω C gilt < D + B t (ω) und D + B t (ω) <, d.h., für alle h klein genug, z.b., für alle h 1/k mit k groß, gilt, dann existieren reelle Konstanten C ± mit für h klein und somit gilt B t+h (ω) B t (ω) h A jk C + und C B t+h(ω) B t (ω) h hc B t+h (ω) B t (ω) hc + B t+h (ω) B t (ω) h max{ C, C + }. Es folgt nun dieser Pfad ω liegt in A jk für große j und k. Die Inklusion ( ) folgt. Auf Grund dieser reicht es nun aber für den Beweis des Satzes aus zu zeigen, dass für alle j, k N eine Nullmenge C F, d.h., P(C) =, existiert, die A jk enthält, da abzählbare Vereinigungen von Nullmengen wiederum Nullmengen sind. Wir wählen j, k fix und fixieren einen bestimmten Pfad ω A jk. Für diesen gilt t [, 1] : B t+h (ω) B t (ω) jh h [, 1/k]. ( ) Ein derartiges t sei nun ebenfalls fix und wir wählen ein n 4k. Dann können wir eine natürliche Zahl i in {1,..., n} so wählen, dass ( ) i 1 n t i n und somit i + m n Wir benutzen ( ) und ( ) und erhalten t m + 1 n 1 k für m =, 1, 2, 3. ( ) B (i+1)/n (ω) B i/n (ω) B (i+1)/n (ω) B t (ω) + B i/n (ω) B t (ω) ( i + 1 ) ( i ) n t j + n t j 2j n + j n. Wichtig ist nun, dass wir durch ω A jk nicht nur die Inkremente über [i/n, (i + 1)/n] sondern auch über die nachfolgenden Intervalle [(i+1)/n, (i+2)/n] und [(i+2)/n, (i+3)/n] erhalten. Dieselbe Abschätzung wie zuvor ergibt wegen ( ) und ( ), dass und B (i+2)/n (ω) B (i+1)/n (ω) B (i+2)/n (ω) B t (ω) + B (i+1)/n (ω) B t (ω) 3j n + 2j n B (i+3)/n (ω) B (i+3)/n (ω) B (i+3)/n (ω) B t (ω) + B (i+2)/n (ω) B t (ω) 4j n + 3j n.
24 24 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Damit haben wir gezeigt, dass mit C (n) i := 3 { ω Ω : B(i+m)/n (ω) B (i+m 1)/n (ω) (2m + 1)j/n } m=1 gilt A jk n i=1 C(n) i falls n 4k. Klarerweise gilt C (n) i F, da die Elemente nur von endlich vielen Koordinaten abhängen. Nun gilt aber, dass n (B(i+m)/n B (i+m 1)/n ) u.i.v. N(, 1) und, da für Z N(, 1) gilt P[ Z δ] δ, folgt P(C (n) i ) = Wählt man nun C als 3 m=1 [ n B(i+m)/n ] P B (i+m 1)/n (2m+1)j n 15j3 n. 3/2 C := n n=4k i=1 C (n) i F, dann gilt A jk C. Der Beweis ist nun abgeschlossen, da ( n P(C) inf n 4k P i=1 ) C (n) 15j 3 i inf n 4k =. n 3/2 2.3 Verwandte Prozesse In diesem Abschnitt betrachten wir kurz einige weitere wichtige stochastische Prozesse, die sich aus der Brownschen Bewegung ergeben. Die Pfade der besprochenen Prozesse sind in Abbildung 2.1 illustriert. Beispiel 2.1 (Brownsche Bewegung in x). Der Prozess X t = x+b t, t, heißt Brownsche Bewegung in x. Da die Bedingung B = nicht immer Teil der Definition einer Brownschen Bewegung ist, heißt B auch standard Brownsche Bewegung. Beispiel 2.2 (Brownsche Brücke). Der Prozess X t = B t tb 1 definiert für t [, 1] heißt Brownsche Brücke. Er besitzt offensichtlich stetige Pfade und erfüllt X = X 1 = fast sicher. Beispiel 2.3 (Ornstein-Uhlenbeck Prozess). Ein Prozess X definiert als X t = c e βt B exp(2βt), t mit c, β > heißt Ornstein-Uhlenbeck Prozess. Der Ornstein-Uhlenbeck Prozess ist im Gegensatz zur Brownschen Bewegung stationär.
25 2.3. VERWANDTE PROZESSE Brownsche Bewegung t Ornstein Uhlenbeck Prozess 4 (c=1,β=1) t Geometrische Brownsche Bewegung 15 (µ=2,σ=1) Brownsche Brücke t Geometrische Brownsche Bewegung 5 (µ=,σ=1) t Geometrische Brownsche Bewegung 1.5 (µ= 2,σ=1) t t Abbildung 2.1: Jeweils 1 Pfade verschiedener, in diesem Kapitel besprochener Prozesse.
26 26 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Beispiel 2.4 (Geometrische Brownsche Bewegung). Ein Prozess X definiert als ( (µ X t = c exp σ 2 /2 ) ) t σb t, t mit c, µ, σ R heißt geometrische Brownsche Bewegung. Er besitzt für c >, bzw., c <, positive bzw. negative Pfade. Die wichtigste Anwendung ist in der Finanzmathematik als einfachster Preisprozess, vgl. Black-Scholes Modell. Bemerkung 2.6. Der Ornstein-Uhlenbeck Prozess und die geometrische Brownsche Bewegung lösen gewisse stochastische Differentialgleichungen. Speziell gilt, die Lösungen zu skalaren, linearen stochastischen Differentialgleichungen mit additiven bzw. linearen multiplikativen Wiener Rauschen sind Versionen der Prozesse definiert in Beispiel 2.3 bzw Die meisten der Prozesse, die wir bis jetzt betrachtet haben besitzen die Eigenschaft, dass ihre endlich-dimensionalen Verteilungen Normalverteilungen sind. Daher sind sie Beispiele für die folgende Klasse von stochastischen Prozessen. Definition 2.1. Ein stochastischer Prozess X heißt Gaussprozess, falls seine endlichdimensionalen Verteilungen eine Familie von Normalverteilungen ist, d.h., jeder endliche Vektor (X t1,..., X tn ), n N und t 1,..., t n I, besitzt eine n-dimensionale Normalverteilung. Bekanntermaßen sind Normalverteilungen durch ihre ersten beiden Momente eindeutig festgelegt und ähnliches gilt auch für Gaussprozesse. Wir bezeichnen mit t m(t) := EX t und (s, t) K(s, t) := E(X s m(s))(x t m(t)) die Mittelwert- und die Kovarianzfunktion eines Prozesses. Ein Prozess heißt zentriert falls m(t) = für all t. Es gilt, die Kovarianzfunktion eines Gaussprozesses ist positiv semidefinit, d.h., n i,j=1 K(t i, t j )a i a j für alle t i,..., t n I und alle a 1,..., a n R. Dies folgt da die Kovarianzmatrix einer Normalverteilung positiv semidefinit ist. Der folgende Satz liefert nun die Charakterisierung von Gaussprozessen aus ihrer Mittelwert- und Kovarianzfunktion. Satz 2.5. Zu jeder Mittelwertfunktion m und jeder positiv semidefiniten Kovarianzfunktion K existiert ein (bis auf Versionen) eindeutiger Gaussprozess. Beweis. Da m + X ein eindeutiger Gaussprozess mit Mittelwertfunktion m und K ist, falls X der eindeutige zentrierte Gaussprozess mit Kovarianz K ist, ist es ausreichend die Existenz und Eindeutigkeit von zentrierten Gaussprozessen zu zeigen. Dazu verwenden wir den Satz von Kolmogorov, d.h., die Aufgabe ist es aus Kovarianzfunktion eine eindeutige projektive Familie von Verteilungen zu konstruieren. Da diese bei Gaussprozessen eine Familie von zentrierten Gaussverteilungen ist, müssen wir nur deren Kovarianzmatrizen eindeutig bestimmen. Zu je endlich-vielen Indices t 1,..., t n I konstruieren wir mittels der Kovarianzfunktion eine Matrix (σ ij ) i,j=1,...,n mit σ ij := K(t i, t j ). Diese ist positiv semidefinit, d.h., n i,j=1 σ ija i a j
27 2.3. VERWANDTE PROZESSE 27 4 Gauss sches Weißes Rauschen 4 Gauss sches Weißes Rauschen t t Abbildung 2.2: Illustration zweier Pfade von Gauss schem Weißen Rauschen. Beachte, die Pfade des Prozesses sind eigentlich nicht stetig. für alle a 1,..., a n R, da K positiv semidefinit ist. Die Matrix definiert eine eindeutige, zentrierte Normalverteilung. Somit, definiert die Kovarianzfunktion eindeutig die Familie der endlich-dimensionalen Verteilungen. Das diese Familie endlich-dimensionaler Verteilungen projektiv ist, folgt analog zu den Argumenten im Existenzsatz zur Brownschen Bewegung, Satz 2.1, und der Beweis ist abgeschlossen. Aus diesem Satz folgt nun eine zweite Charakterisierung der Brownschen Bewegung: Die Brownsche Bewegung ist der eindeutige f.s. stetige, zentrierte Gaussprozess zur Kovarianzfunktion K(s, t) = s t. Die Existenz des Prozesses folgt aus Satz 2.5, die Unabhängigkeit der Inkremente folgt aus der Kovarianzfunktion, da im Falle von Normalverteilungen Unkorreliertheit und Unabhängigkeit äquivalent sind, und die Existenz einer stetigen Modifikation folgt auch hier wiederum aus dem Satz von Kolmogorov-Centsov. Analoges gilt auch für die oben beschriebenen Prozesse. So ist die Brownsche Bewegung gestartet in x die stetige Version des Gaussprozesses zur Kovarianzfunktion K(s, t) = s t und Mittelwertfunktion m(t) = x, der Ornstein-Uhlenbeck Prozess die stetige Version des zentrierten Gausprozesses zu K(s, t) = c exp( β t s ) und die Brownsche Brücke ist die stetige Version des zentrierten Gaussprozesses auf [, 1] definiert durch die Kovarianz K(s, t) = s(1 t) für s t. Klarerweise ist aber die geometrische Brownsche Bewegung kein Gaussprozess, da die eindimensionale Verteilungen log-normalverteilungen sind. Weitere wichtige Beispiele von Gaussprozessen sind die folgenden stochastischen Prozesse. Beispiel 2.5 (Fraktionale Brownsche Bewegung). Der zentrierter, stetige Gaussprozess X zur Kovarianzfunktion K(s, t) = 1 ) (t 2H + s 2H + t s 2H, 2 mit H (, 1), heißt Fraktionale Brownsche Bewegung. Für H = 1/2 stimmt die Fraktionale Brownsche Bewegung mit der Brownschen Bewegung überein. Die Konstante H heißt Hurst Parameter des Prozesses und ist ein Mass für das Langzeitgedächtnis des Prozesses.
28 28 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Beispiel 2.6 (Gauss sches Weißes Rauschen). Wir betrachten den zentrierten Gaussprozess X, der durch die Kovarianzfunktion K(s, t) = I [t=s] definiert ist. Dieser heißt Gauss sches Weißes Rauschen. Gauss sches Weißes Rauchen besitzt keine guten Eigenschaften, nicht einmal eine messbare (und somit auch keine f.s. stetige) Version existiert. Gauss sches Weißes Rauschen ist die Ableitung der Brownschen Bewegung im Sinne von Distributionen. 2.4 Reihenentwicklung der Brownschen Bewegung Im folgenden beschränken wir uns auf Prozesse über der Indexmenge [, 1], aber die Ergebnisse sind klarerweise ohne Einschränkung für beliebige endliche Indexmengen [a, b] R + gültig. Weiters erhalten wir Prozesse auf R + durch Aneinaderfügen von Ergebnissen auf endlichen Intervallen Satz von Levy-Ciesielski und die Paley-Wiener Entwicklung Gegeben sei ein Wahrscheinlichkeitsraum (Ω, F, P) mit einer darauf definierten Folge von unabhängigen, standard normalverteilten Zufallsvariablen ξ n, n N. Der folgende Satz liefert Reihendarstellungen von Brownschen Bewegungen in dem Sinne, das eine Brownsche Bewegung der Limes einer zufällig gewichteten Funktionenreihe ist. Weiters liefert der Satz eine alternative Methode um die Existenz einer Brownschen Bewegung zu erhalten bei der wir die Schwierigkeiten im Zusammenhang mit kanonischen Wahrscheinlichkeitsräumen aus überabzählbaren Produkträumen vermeiden. Satz 2.6 (Levy-Ciesielski). Sei ξ n, n N, eine Folge unabhängig, standard normalverteilter Zufallsvariablen und ϕ n, n N, eine Orthonormalbasis (ONB) von L 2 (, 1). Dann konvergiert die Summe t B t = ξ n ϕ n (s) ds fast sicher in C[, 1] und B ist eine Brownsche Bewegung auf [, 1]. n=1 Bemerkung 2.7. Durch Aneinanderfügen von unabhängigen Brownschen Bewegungen auf [, 1] erhält man sofort die Existenz einer Brownschen Bewegung auf R +. Im Unterschied zum ersten Existenzbeweis mittels des Satz von Kolmogorov in Satz 2.1, der eine reine Existenzaussage ist, ist dieser Beweis tatsächlich eine Konstruktion einer Brownschen Bewegung. Die Umkehrung des Satzes - die Existenz einer Zerlegung zu gegebener Brownschen Bewegung mit obigen Eigenschaften und die Konvergenz - ist einfacher zu zeigen. Die Zerlegung im Satz 2.6 heißt einfach orthogonal, da die ξ n orthonormal im Raum der quadrat-integrierbaren Zufallsvariablen sind. Für die Wahl der ONB ϕ n (t) = 2 sin(nπt) entspricht dieses Resultat (nicht die Beweistechnik) dem ursprünglichen Existenzbeweis der Brownschen Bewegung von N. Wiener. Ein Spezialfall dieses Satzes ist die Paley-Wiener Entwicklung der Brownsche Bewegung: B t = n Z e 2inπt 1 2inπ ξ n = n Z t ξ n e 2inπs ds
29 2.4. REIHENENTWICKLUNG DER BROWNSCHEN BEWEGUNG N=5.8 N=1 N=2 n=4 N= t Abbildung 2.3: Approximation eines Brownschen Pfades mittels Satzes 2.6 aus der ONB ϕ n (t) = 2 sin(nπt) durch endliche Reihen mit N Summanden. mit ONB (e 2inπt ) n Z. Meist wird in modernen Büchern zum Beweis der Existenz eine ONB mittels der Haar schen Funktionen H (n) k, n und k 2n mit k ungerade, gewählt, wobei H () 1 (t) = 1, t [, 1], und H (n) k (t) = 2 (n 1)/2 für k 1 2 n t < k 2 n, 2 (n 1)/2 für k 2 n t < k+1, 2 n sonst. Bei dieser Wahl einer ONB konvergiert die Summe in Satz 2.6 sogar f.s. punktweise absolut was die Beweisführung erleichtert. Die Integrale von Haar schen Funktionen, die in der Reihenentwicklung auftreten, sind die Schauderfunktionen. Beweis. Im Beweis benutzen wir folgende Resultate der Theorie unendlicher Summen unabhängigen Zufallsvariablen. Erstens, verwenden wir den Satz von Itô-Nisio: In einem separablen Banachraum ist die fast sichere Konvergenz einer unendlichen Summe unabhängiger
3 Markov-Eigenschaft der Brownschen Bewegung
Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrKapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten
Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem
MehrStochastische Analysis
Stochastische Analysis SS1 von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 6. Mai 21 Inhaltsverzeichnis 1 Motivation / Einführung 4 1.1 Motivation anhand
Mehr7. Die Brownsche Bewegung
7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen
MehrBrownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung
Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
MehrKapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).
Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche
MehrSchwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik
Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind
MehrBrownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung
Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
MehrTerminologie Stochastischer Prozesse
Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.
MehrA. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109
A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 19 A. Stochastische Prozesse und Stoppzeiten In dieser Vorlesung arbeiten wir immer auf einem Massraum (Ω, F), der gross genug ist, um alle definierten Objekte
Mehr2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III Teil Der Wienerraum
8 Wahrscheinlichkeitstheorie III Teil 3 Brownsche Bewegung Wir haben die Brownsche Bewegung bereits als Grenzwert reskalierter Irrfahrten in der VL WTH II kennengelernt siehe dazu Abschnitt 5.. In diesem
MehrStochastik-Praktikum
Stochastik-Praktikum Simulation stochastischer Prozesse Peter Frentrup Humboldt-Universität zu Berlin 27. November 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 27. November 2017
MehrBrownsche Bewegung. M. Gruber. 19. März Zusammenfassung
Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische
MehrKapitel 6 Martingale
Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse
MehrKonvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen
Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess
Mehr1.3 Zufallsvariablen
1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 9 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 40: Es sei (X t ) t 0 ein
MehrVorlesungsskript: Martingale
Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrSchwartz-Raum (Teil 1)
Schwartz-Raum (Teil 1) Federico Remonda, Robin Krom 10. Januar 2008 Zusammenfassung Der Schwartz-Raum ist ein Funktionenraum, der besondere Regularitätseigenschaften besitzt, die uns bei der Fouriertransformation
Mehr7 Der Satz von Girsanov
7 Der Satz von Girsanov Der Satz von Girsanov wird uns eine neue Perspektive auf die Rolle des Drifts liefern. Die Prozesse Brownsche Bewegung B t, Brownsche Bewegung mit Drift X t = B t + µt haben wir
MehrErwartungswert als Integral
Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral
Mehr1 Stochastische Prozesse in stetiger Zeit
1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.
MehrLösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried
Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,
MehrStrassen Type Theorems Proseminar Stochastik
Strassen Type Theorems Proseminar Stochastik Cecelie Hector Universität Hamburg Fachbereich Mathematik SoSe 2004 Vortrag am 25.06.04 Definition (a). Ein topologischer Raum E heißt polnisch, wenn es eine
Mehrx, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrAsymptotische Stochastik (SS 2010)
Institut für Stochastik PD. Dr. Dieter Kadelka Daniel Gentner Asymptotische Stochastik (SS 2010) Lösungen zu Übungsblatt 4 Aufgabe 1 (lokaler Grenzwertsatz von de Moivre und Laplace und eine Verallgemeinerung)
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrMusterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:
Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,
MehrScheinklausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:
MehrVorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik
Univ. Leipzig Mathematisches Institut Vertretung Professur Stochastische Prozesse Max v. Renesse email: mrenesse@math.tu-berlin.de Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik
MehrZusammenfassung Analysis 2
Zusammenfassung Analysis 2 1.2 Metrische Räume Die Grundlage metrischer Räume bildet der Begriff des Abstandes (Metrik). Definition 1.1 Ein metrischer Raum ist ein Paar (X, d), bestehend aus einer Menge
Mehr4 Messbare Funktionen
4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und
MehrVollständigkeit. 1 Konstruktion der reellen Zahlen
Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente
MehrSeminar Gewöhnliche Differentialgleichungen
Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden
MehrSchwache Konvergenz von Wahrscheinlichkeitsmaßen
Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind
MehrOrthogonalreihendarstellung eines zentrierten Gauß-Prozesses
Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses Thomas Steinle Seminar Zufällige Felder Universität Ulm 18. November, 2008 Einleitung Inhalt Einleitung Wiederholung und Themenvorstellung Wichtiges
Mehr20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen
20 Gleichmäßige Konvergenz für Folgen und Reihen von Funktionen 20.1 Folgen und Reihen von Funktionen 20.3 Die Supremumsnorm 20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20.7 Das Cauchy-Kriterium
MehrWahrscheinlichkeitstheorie und Maßtheorie
KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man
MehrFerienkurs in Maß- und Integrationstheorie
Zentrum Mathematik Technische Universität München Dipl. Math. Wolfgang Erb WS 9/ Übungsblatt Ferienkurs in Maß- und Integrationstheorie Aufgabe. (σ-algebren Sei eine Menge und A eine σ-algebra in. Seien
MehrLösungen zu Übungsblatt 9
Analysis : Camillo de Lellis HS 007 Lösungen zu Übungsblatt 9 Lösung zu Aufgabe 1. Wir müssen einfach das Integral 16 (x + y d(x, y x +y 4 ausrechnen. Dies kann man einfach mittels Polarkoordinaten, da
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
Mehr22 KAPITEL 1. GRUNDLAGEN. Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion
KAPITEL 1. GRUNDLAGEN Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion 1 für 0 x < 1 g 0 (x) = 1 1 für < x 1. Natürlich gibt dies von
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
Mehr8 KAPITEL 1. GRUNDLAGEN
8 KAPITEL 1. GRUNDLAGEN Beweis. 1. Sei A X abgeschlossen, dann ist X \ A offen und jede offene Überdeckung von A lässt sich durch Hinzunahme von X \ A auf ganz X fortsetzen. Die Kompaktheit von X erlaubt
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr1 Konvergenz im p ten Mittel
Konvergenz im p ten Mittel 1 1 Konvergenz im p ten Mittel In diesem Paragraphen werden zunächst in Abschnitt 1.1 die L p Räume eingeführt. Diese erweisen sich als vollständige, lineare Räume über R. In
MehrDefinition 3.1. Sei A X. Unter einer offenen Überdeckung von A versteht man eine Familie (U i ) i I offener Mengen U i X mit U i
3 Kompaktheit In der Analysis I zeigt man, dass stetige Funktionen f : [a, b] R auf abgeschlossenen, beschränkten Intervallen [a, b] gleichmäßig stetig und beschränkt sind und dass sie ihr Supremum und
MehrAnwendungen der Logik, SS 2008, Martin Goldstern
Anwendungen der Logik, SS 2008, Martin Goldstern Total geordnete Körper Ein total geordneter Körper ist ein Körper (K, +,, 0, 1, ) mit einer totalen (=linearen) Ordnung, die mit den Operationen verträglich
MehrMusterlösung Analysis 3 - Maßtherorie
Musterlösung Analysis 3 - Maßtherorie 10. März 2011 Aufgabe 1: Zum Aufwärmen (i) Zeige, dass die Mengensysteme {, X} und P(X) σ-algebren sind. Es sind jeweils nur die Charakteristika nachzuweisen. (1)
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrAnalysis III, WS 2011/2012 Montag $Id: masse.tex,v /10/31 15:48:07 hk Exp $
$Id: masse.tex,v 1.8 2011/10/31 15:48:07 hk Exp $ 2 Maßräume 2.2 Meßbare Abbildungen Der nächste Grundbegriff sind die meßbaren Abbildungen. Erinnern Sie sich daran das wir eigentlich einen Integralbegriff
MehrBrownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm
Brownsche Bewegung Satz von Donsker Bernd Barth Universität Ulm 31.05.2010 Page 2 Brownsche Bewegung 31.05.2010 Inhalt Einführung Straffheit Konvergenz Konstruktion einer zufälligen Funktion Brownsche
MehrMaximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung Eigenschaften von stochastischen Ordnungen Kleine Generatoren
Universität Hamburg Fachbereich Mathematik Schwerpunkt Mathematische Statistik und Stochastische Prozesse Bundesstr. 55 D-20146 Hamburg Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung
MehrElemente der mengentheoretischen Topologie
Elemente der mengentheoretischen Topologie Es hat sich herausgestellt, dass das Konzept des topologischen Raumes die geeignete Struktur darstellt für die in der Analysis fundamentalen Begriffe wie konvergente
MehrHausdorff-Maß und Hausdorff-Dimension. Jens Krüger
Hausdorff-Maß und Hausdorff-Dimension Jens Krüger Inhaltsverzeichnis 1 Einleitung 2 2 Grundlagen aus der Maßtheorie 3 3 Die Konstruktion des Hausdorff-Maßes 4 4 Eigenschaften des Hausdorff-Maßes und Hausdorff-Dimension
MehrGaußsche Felder und Simulation
3 2 data_2d_1.dat data_2d_2.dat data_2d_64.dat data_2d_128.dat 1-1 -2-3 1 2 3 4 5 6 7 Gaußsche Felder und Simulation Benedikt Jahn, Aaron Spettl 4. November 28 Institut für Stochastik, Seminar Zufällige
Mehr8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN
8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN (vi) Konvergenz von Folgen ist in topologischen Räumen folgendermaßen definiert: Ist (a n ) M eine Folge, so heißt sie konvergent gegen a M, wenn es
Mehr4 Fehlerabschätzungen und Konvergenz der FEM
4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrCauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit
Vortrag zum Seminar zur Analysis, 10.05.2010 Michael Engeländer, Jonathan Fell Dieser Vortrag stellt als erstes einige Sätze zu Cauchy-Folgen auf allgemeinen metrischen Räumen vor. Speziell wird auch das
MehrOptimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme
Optimale Steuerung, Prof.Dr. L. Blank 1 II Linear-quadratische elliptische Steuerungsprobleme Zuerst: Zusammenstellung einiger Begriffe und Aussagen aus der Funktionalanalysis (FA), um dann etwas über
MehrThema 3 Folgen, Grenzwerte
Thema 3 Folgen, Grenzwerte Definition Eine Folge von reellen Zahlen ist eine Abbildung von N in R d.h. jedem n N ist eine Zahl a n zugeordnet. Wir schreiben für eine solche Folge. Beispiele. (a n ) n N
Mehr1 Bedingte Erwartungswerte
Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,
Mehr30 Die Gammafunktion und die Stirlingsche Formel
3 Die Gammafunktion und die Stirlingsche Formel 35 Charakterisierung der Gammafunktion 36 Darstellung der Gammafunktion 38 Beziehung zwischen der Gammafunktion und der Zetafunktion 3 Stirlingsche Formel
Mehr(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist.
8 Punktmengen Für die Menge M = { 1 n ; n N } ist 1 = max(m), denn 1 M und 1 n 1 für alle n N. Die Menge M besitzt aber kein Minimum, denn zu jeder Zahl x = 1 n M existiert ein y M mit y < x, etwa y =
MehrSerie 2 Lösungsvorschläge
D-Math Mass und Integral FS 214 Prof. Dr. D. A. Salamon Serie 2 Lösungsvorschläge 1. Seien folgende Mengen gegeben: und für a, b R R := [, ] := R {, }, (a, ] := (a, ) { }, [, b) := (, b) { }. Wir nennen
MehrReelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013
Reelle Analysis Vorlesungsskript Enno Lenzmann, Universität Basel 11. Oktober 2013 3 Fortsetzung von Prämassen zu Massen Der Begriff des Prämasses ist nicht ausreichend, um eine geschmeidige Integrationstheorie
MehrKonvergenz im quadratischen Mittel - Hilberträume
CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften
Mehr2.6 Der Satz von Fubini
1 2.6 Der Satz von Fubini Unser Ziel ist der Beweis des folgenden Ergebnisses. 6.1. Satz von Fubini Sei f : R n+m R integrierbar. Dann gibt es eine Nullmenge N R m, so dass gilt: 1. Für alle y R m \ N
MehrFolgen und Reihen. Thomas Blasi
Folgen und Reihen Thomas Blasi 02.03.2009 Inhaltsverzeichnis Folgen und Grenzwerte 2. Definitionen und Bemerkungen............................. 2.2 Konvergenz und Beschränktheit.............................
MehrKapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen
Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion
MehrMathematische Grundlagen für die Vorlesung. Differentialgeometrie
Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie
MehrDie Topologie von R, C und R n
Die Topologie von R, C und R n Für R haben wir bereits eine Reihe von Strukturen kennengelernt: eine algebraische Struktur (Körper), eine Ordnungsstruktur und eine metrische Struktur (Absolutbetrag, Abstand).
MehrLehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler
Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik II Wahrscheinlichkeitstheorie I Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 26. November 2002
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrA. Maß- und Integrationstheorie
A. Maß- und Integrationstheorie Im folgenden sind einige Ergebnisse aus der Maß- und Integrationstheorie zusammengestellt, die wir im Laufe der Vorlesung brauchen werden. Für die Beweise der Sätze sei
MehrMeßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :
24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar
MehrStochastik Praktikum Simulation stochastischer Prozesse
Stochastik Praktikum Simulation stochastischer Humboldt-Universität zu Berlin 15.10.2010 Übersicht 1 Brownsche Bewegung und Diffusionsprozesse 2 Brownsche Brücke 3 Ornstein Uhlenbeck 4 Zusammengesetzte
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
MehrStochastische Analysis
Stochastische Analysis Vorlesung SS 22 Jürgen Dippon Mathematisches Institut A Universität Stuttgart Homepage der Vorlesung: www.mathematik.uni-stuttgart.de/matha/lst3/dippon/sa Version vom 17. Juni 23
Mehreine reelle oder komplexe Folge ist, kann man daraus eine neue Folge {s n } n=0 konstruieren durch s n = a 0 + a a n, a k.
Analysis, Woche 7 Reihen I 7. Folgen aus Folgen Wenn a n eine reelle oder komplexe Folge ist, kann man daraus eine neue Folge s n konstruieren durch s n = a 0 + a + + a n, oder netter geschrieben s n =
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrKonvergenz, Filter und der Satz von Tychonoff
Abschnitt 4 Konvergenz, Filter und der Satz von Tychonoff In metrischen Räumen kann man topologische Begriffe wie Stetigkeit, Abschluss, Kompaktheit auch mit Hilfe von Konvergenz von Folgen charakterisieren.
MehrStochastische Prozesse Gliederung zur Vorlesung im Sommersemester 2006
Stochastische Prozesse Gliederung zur Vorlesung im Sommersemester 26 Markus Reiß Universität Heidelberg reiss@statlab.uni-heidelberg.de VORLÄUFIGE FASSUNG: 28. Juli 26 Inhaltsverzeichnis 1 Der Poissonprozess
MehrDIFFERENTIATION PARAMETERABHÄNGIGER INTEGRALE
DIFFERENTIATION PARAMETERABHÄNGIGER INTEGRALE Zusammenfassung. Ergänzend zur Übung vom 06.06.203 soll hier die Leibnizregel für die Differentiation parameterabhängiger Integrale formuliert und bewiesen
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrMartingal-Maße. Stochastic Finance: An Introduction in Discrete Time (Hans Föllmer, Alexander Schied) Manuel Müller Mathematisches Institut
Martingal-Maße Manuel Müller 29.04.2016 Mathematisches Institut Stochastic Finance: An Introduction in Discrete Time (Hans Föllmer, Alexander Schied) Seite 2 Martingal-Maße 29.04.2016 Inhaltsverzeichnis
MehrDas Lebesgue-Maß im R p
Das Lebesgue-Maß im R p Wir werden nun im R p ein metrisches äußeres Maß definieren, welches schließlich zum Lebesgue-Maß führen wird. Als erstes definieren wir das Volumen von Intervallen des R p. Seien
MehrUniversität Ulm Abgabe: Mittwoch,
Universität Ulm Abgabe: Mittwoch, 8.5.23 Prof. Dr. W. Arendt Jochen Glück Sommersemester 23 Punktzahl: 36+4* Lösungen Halbgruppen und Evolutionsgleichungen: Blatt 2. Sei X ein Banachraum und (T (t)) t
MehrGesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
MehrAktuelle Themen aus der Stochastik Wintersemester 2017/2018 Abschnitt 3: Metrische und polnische Räume
Aktuelle Themen aus der Stochastik Wintersemester 2017/2018 Abschnitt 3: Metrische und polnische Räume Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober/November 2017
Mehrheißt Exponentialreihe. Die durch = exp(1) = e (Eulersche Zahl). n! + R m+1(x) R m+1 (x) = n! m m + 2
9 DIE EXPONENTIALREIHE 48 absolut konvergent. Beweis. Wegen x n+ n! n + )!x n = x n + < 2 für n 2 x folgt dies aus dem Quotientenkriterium 8.9). Definition. Die Reihe x n heißt Exponentialreihe. Die durch
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
Mehr