Stochastische Analysis. Karl-Theodor Sturm

Größe: px
Ab Seite anzeigen:

Download "Stochastische Analysis. Karl-Theodor Sturm"

Transkript

1 Stochastische Analysis Karl-Theodor Sturm

2

3 Literatur: I. Karatzas, S. Shreve: Brownian Motion and Stochastic Calculus. 2nd ed. Springer 91 D. Revuz, M. Yor: Continuous Martingales and Brownian Motion, 2nd ed. Springer 94 W. Hackenbroch, A. Thalmaier: Stochastische Analysis, Teubner 91 3

4

5 Inhaltsverzeichnis Einführung 7.1 Analysis und ODEs Stochastische Analysis und stochastische Differentialgleichungen Die Idee des Itô-Integrals Stochastische DGl und partielle DGl Filtrationen und Stoppzeiten Stoch. Prozesse (Wiederholung) Filtrationen Adaptierte Prozesse Progressiv messbare Prozesse Stoppzeiten Treffer- und Eintrittszeiten Die T-Vergangenheit Treffer-Verteilung Martingale in stetiger Zeit Definitionen und elementare Eigenschaften Maximalungleichungen Regulierungsresultate Konvergenzsätze Optional Sampling Stetige Semimartingale und quadratische Variation Stetige Semimartingale Die Doob-Meyer Zerlegung Quadratische Variation Stetige L 2 -beschränkte Martingale Stochastische Integration Das Lebesgue-Stieltjes-Integral Das Itô-Integral für Elementarprozesse Das Itô-Integral für vorhersagbare, messbare Prozesse Erweiterung durch Lokalisation Itô-Differentiale

6 Inhaltsverzeichnis 5 Itô-Formel und Anwendungen Die Itô-Formel Exponentielle Martingale Lévy s Charakterisierung der BB Bessel-Prozesse Brownsche Martingale Zeitwechsel Lokale Martingale und zeittransformierte BBen Darstellung als stochastische Integrale Der Satz von Girsanov Die Novikov-Bedingung Wiener-Raum und Cameron-Martin-Raum Große Abweichungen Stochastische Differentialgleichungen Starke Lösungen Beispiele Lokale Lösungen, Maximallösungen Schwache Lösungen Schwache Lösungen und Lösungen des Martingalproblems Die starke Markov-Eigenschaft SDG und PDG Feller-Eigenschaft Die starke Markov Eigenschaft BB und Dirichlet-Problem für den Laplace-Operator BB als starker Markov-Prozess Die Mittelwerteigenschaft Randregularität Stochastisches Randverhalten

7 Einführung.1 Analysis und gewöhnliche Differentialgleichungen Die Erfindung der Analyis (= Differential- und Integralrechnung) durch Newton ( ) und Leibniz ( ) löste den Siegeszug der Mathematik bei der Beschreibung von Naturphänomenen und ökonomischen Zusammenhängen aus und führte zur Mathematisierung von Physik, Chemie, Biologie, Technik, Ökonomie,... Gewöhnliche Differentialgleichungen dienen der Modellierung von Phänomenen der realen Welt: dy t = b(t, y t ) dt. Der Hauptsatz der Differential- und Integralrechnung erlaubt äquivalente Formulierung in differentieller und integreller Form: T y t = b(t, y t ) bzw. y T = y + b(t, y t ) dt.2 Stochastische Analysis und stochastische Differentialgleichungen Die Stochastische Analysis hat die Beschreibung von Naturphänomenen zum Ziel, die stochastischen (= nicht deterministischen) Einflüssen unterworfen sind. Dies geschieht z.b. mittels stochastischer Differentialgleichungen der Form Formal führt das zu dy t = b(t, Y t ) dt + σ(t, Y t ) dm t. (.1) Ẏ t = b(t, Y t ) + σ(t, Y t )Ṁt. (.2) b(t, Y t ) bezeichnet hier den Einfluss des (deterministischen) Signals, σ(t, Y t )Ṁt den Einfluß des (stochastischen) Rauschens. Für (M t ) t wählt man ein stetiges Martingal (also einen stochastischen Prozeß ohne erkennbare Signalkomponente), typischerweise die Brownsche Bewegung (BB). Problem: für solche (M t ) ist fast keine Trajektorie differenzierbar! Es gibt keine pfadweise stochastische Differentiation! (Lediglich eine Art stochastische Differentiation im distributiven Sinne im Rahmen des sog. Malliavin-Kalküls, von Paul Malliavin ab 1978 entwickelt.) Ausweg: Wir vergessen die differentielle Interpretation (.2) und definieren (.1) mittels der folgenden integralen Version T Y T = Y + T b(t, Y t ) dt + σ(t, Y t ) dm t (.3) 7

8 Einführung Hierzu müssen wir stochastischen Integralen der Form (für (M t ) t Martingal, (X t ) t messbarer stochastischer Prozeß ). Das geht! Itô Integral (Kyoshi Itô). T X t dm t eine Bedeutung geben R. Paley, N. Wiener, A. Zygmund (1933): (X t ) deterministisch, (M t ) BB K. Itô (1942,44): (X t ) stochastisch, (M t ) BB H. Kunita, S. Watanabe (1967): (X t ) stochastisch, (M t ) Martingal.3 Die Idee des Itô-Integrals Definition.3.1. Y t (ω) = T X t (ω) dm t (ω) als L 2 -Limes der Approximationen Y (n) T (ω) = X tk 1 (ω) (M tk T(ω) M tk 1 T(ω)) (.4) t i (n) für Partitionen (n) von [, [ mit Feinheit (n). Für eine große Klasse von (M t ) und (X t ) existiert dieser Limes und es gilt: (Y t ) t ist stetiges Martingal E(Yt 2 ) = E X 2 s d M s mit M = Quadratische Variation von M = (M t ) k (z.b. M t = t für BB). Achtung: Diese Eigenschaften gelten nicht, falls man in (.4) X tk 1 durch X tk (rückläufiges Itô-Integral) oder 1 2 (X t k 1 + X tk ) (Stratonovich-Integral) ersetzt! Allerdings gilt für das Itô-Integral nicht df(m t ) = f (M t ) dm t (das gilt für klassische Integrale und für das Stratonovich-Integral), sondern die Itô-Formel (Kettenregel für stochastische Integrale) df(m t ) = f (M t ) dm t f (M t ) d M t.4 Stochastische DGl und partielle DGl Sei (M t ) t die d-dim BB mit infinitesimalem Erzeuger 1 2 = 1 2 der SDGl dy t = b(y t )dt + σ(y t ) dm t. Dann hat (Y t ) t folgenden infinitesimalen Erzeuger L = 1 2 d 2 a ij (x) + x i x j i,j=1 d i=1 d i=1 b i (x) x i 2 x 2 i und (Y t ) t die Lösung 8

9 .4 Stochastische DGl und partielle DGl mit b (Drift-Vektor) wie oben und a = σσ (Diffusionsmatrix), d.h. a ij (x) = d σ ik (x) σ jk (x). Es gilt also 1 lim t t (E xf(y t ) f(x)) = (Lf)(x). Partielle DGl lassen sich mit Hilfe stochstischer DGl lösen! k=1 9

10

11 1 Filtrationen und Stoppzeiten Im folgenden sei stets vorgegeben ein Wahrscheinlichkeits-Raum (Ω, F,P). 1.1 Stoch. Prozesse (Wiederholung) Definition Sei (E, E) ein Messraum. Eine Familie X = (X t ) t heißt stochastischer Prozess (auf (Ω, F,P) mit Werten in (E, E)), falls t : X t : Ω E ist F-messbar (genauer: F/E-messbar), d.h. eine Zufallsvariable. t [, [ wird als Zeit interpretiert, E als Zustandsraum (meist E = R d und E = B(R d )). Für fixes ω Ω heißt die Abbildung X (ω) : R + E, t X t (ω) Trajektorie. Wir verwenden folgende äquivalente Interpretationen: X : R + Ω E, (t, ω) X t (ω) X : Ω E R +, ω X (ω) (zufälliges Auswählen von Trajektorien). Definition Zwei stochastische Prozesse X, Y (auf dem selben W.-Raum (Ω, F, P) mit dem selben Zustandsraum (E, E)) heißen Modifikationen voneinander, falls P(X t = Y t ) = 1 für alle t. ununterscheidbar, falls P(X t = Y t für alle t ) = 1, mit anderen Worten P(X = Y ) = 1. Bemerkung Ununterscheidbar Modifikation voneinander! Umkehrung gilt i.a. nicht! ( { z.b. Ω = [, 1], P = λ 1 1, falls t = ω, X t (ω) =, ( t, ω) und Y t (ω) :=, sonst ) Lemma Seien fast alle Trajektorien von X, Y rechtsseitig stetig. Dann gilt: Ununterscheidbar Modifikation voneinander. Beweis. Übung. 11

12 1 Filtrationen und Stoppzeiten 1.2 Filtrationen Definition Eine Familie (F t ) t heißt Filtration (=Filtrierung) falls s t < : F s, F t σ-algebren auf Ω sind mit F s F t F. Intuitiv: F t enthält die bis zum Zeitpunkt t [, [ verfügbare Information. (Erlaubt Unterscheidung von Vergangenheit, Gegenwart und Zukunft.) Definition (Ω, F, F t, P) heißt filtrierter Wahrscheinlichkeits-Raum oder stochastische Basis. Man setzt: F t+ = F s, s>t F t = σ(f s : s < t), F = {, Ω} und F = σ(f t : t ) = σ(f t+ : t ) = σ(f t : t ). Offenbar gilt F t F t F t+. Definition (F t ) heißt rechtsstetige Filtration, falls F t = F t+ ( t ). Beispiel Stets ist (F t+ ) t eine rechtsstetige Filtration. Definition Der filtrierte Wahrscheinlichkeits-Raum (Ω, F, F t,p) heißt vollständig, wenn F alle (F,P)-Nullmengen enthält. Eine Menge A Ω heißt (F,P)-Nullmenge, falls A F mit A A und P(A ) =. Bemerkungen (i) Ist (Ω, F, F t, P) vollständig, so ist jeder der Wahrscheinlichkeits-Räume (Ω, F t,p) vollständig. (ii) Umkehrung gilt nicht! Es gibt i.a. mehr (F,P)-Nullmengen als (F,P)-Nullmengen. (iii) Man erhält einen vollständigen filtrierten Wahrscheinlichkeits-Raum durch Augmentieren: Ersetze F und F t durch F = σ(f N) bzw. F t = σ(f t N) mit N = Menge der (F, P)-Nullmengen. (Hinweis: Statt (F, P)-Nullmengen verwenden manche Autoren bei obiger Definition (F, P)-Nullmengen.) Definition Der filtrierte Wahrscheinlichkeits-Raum (Ω, F, F t,p) genügt den üblichen Bedingungen (bzw. ist ein standard-filtrierter Wahrscheinlichkeits-Raum), falls er vollständig ist und die Filtration (F t ) rechtsstetig ist. Bemerkung Standard-Erweiterung: (i) Augmentieren: F t und F, (ii) Rechte Limiten (F t+) (Ω, F t+, F, P) standard filtrierter Wahrscheinlichkeits- Raum. 12

13 1.3 Adaptierte Prozesse 1.3 Adaptierte Prozesse Definition (i) Gegeben: Stochastischer Prozess X auf (Ω, F, P) mit Werten in (E, E). heißt die von X erzeugte Filtration. F X t := σ(x s : s t) (ii) X heißt an eine vorgegebene Filtration (F t ) t adaptiert, falls oder, mit anderen Worten, falls X t Beispiele (i) (X t ) ist an (F X t ) adaptiert. (Trivial) F t X F t ( t ) (ii) Sei f L 1 (Ω, F,P) und (F t ) t gegeben. Sei weiter X t := E(f F t ) Dann ist (X t ) t an (F t ) t adaptiert. F t -messbar ( t ) ist. Bemerkung Oft bezeichnet man die von einem Prozess X erzeugte Filtration (F X t ) mit (F t ) und ihre Standard-Erweiterung dann mit (F t ). (iii) Gegeben: (X t ) t und (Y t ) t ununterscheidbar, (X t ) t an (F t ) adaptiert und (Ω, F, F t,p) vollständig (Y t ) t an (F t ) adaptiert. (Achtung: Hier reicht nicht, daß (Ω, F t,p) vollständig ist!) 1.4 Progressiv messbare Prozesse Definition Ein Prozess X heißt progressiv messbar bzgl. einer Filtration (F t ) t, falls für alle t : die Abbildung X : [, t] Ω E, (s, ω) X s (ω) messbar bzgl. B([, t]) F t ist. Proposition Sei X ein stochastischer Prozess mit Werten im topologischen Raum E, rechtsstetig (d.h. alle(!) Trajektorien t X t (ω) sind rechtsstetig) (oder linksstetig), und adaptiert an (F t ) t. Dann ist X progressiv messbar. Beweis. Sei X rechtsstetig, t > fix. Wir approximieren X durch X (n) mit X (n) s (ω) := X (k+1)t2 n(ω) für s ]kt2 n, (k + 1)t2 n ], k =, 1,...,2 n 1 und X (n) (ω) := X (ω). Dann ist X (n) : (s, ω) X s (n) (ω) messbar bzgl. B([, t]) F t. Wegen Rechtsstetigkeit: lim n X(n) s (ω) = X s (ω) für alle (s, ω) [, t] Ω. X : [, t] Ω E ist B([, t]) F t -messbar. 13

14 1 Filtrationen und Stoppzeiten 1.5 Stoppzeiten Definition Eine Abbildung T : Ω [, ] heißt Stoppzeit bzgl. (F t ), falls t : {T t} F t, wobei {T t} := {ω Ω : T(ω) t}. Sie heißt schwache Stoppzeit (oder Optionszeit) bzgl. (F t ), falls t Bemerkungen {T < t} F t. (i) Jede Stoppzeit ist schwache Stoppzeit, denn {T < t} = { T t 1 } F t n n F t 1 n F t (ii) T ist schwache Stoppzeit bzgl. (F t ) T ist Stoppzeit bzgl. (F t+ ). (iii) (F t ) rechtsstetig Jede schwache Stoppzeit ist Stoppzeit. Beispiel Jede konstante Zeit T t ist eine Stoppzeit. (iv) T ist Stoppzeit X t = 1 [,T[ (t) ist adaptiert, (denn {X t = } = {T t}). Proposition (i) Mit S und T sind auch S T, S T, S + T (schwache) Stoppzeiten. (ii) Mit T n (schwache) Stoppzeit ( n N) ist auch sup T n eine (schwache) Stoppzeit und inf T n eine schwache Stoppzeit. n ( { } Denn: sup T n t = {T n t} und n n n { } inf T n < t = n n {T n < t}. (iii) Jede schwache Stoppzeit T läßt sich monoton durch Stoppzeiten T n mit endlichem Wertebereich approximieren: { (k + 1)2 n auf {k2 n T < (k + 1)2 n }, k =, 1,...,4 n, T n :=. + sonst n T n T, Tn T n+1 > T und T n > T auf {T < }. Proposition (Galmarino s Test). Sei Ω = C(R +, R d ) (oder Ω = D(R +, R d ) = {ω : R + R d càdlàg}), X t (ω) = ω(t) und F t = F t X. Dann gilt: ) 14

15 1.6 Treffer- und Eintrittszeiten (i) T ist (schwache) Stoppzeit genau dann, wenn t, und ω, ω Ω gilt: (T(ω) t) und s t : X s (ω) = X s (ω ) T(ω) = T(ω ). (<) Ist T Stoppzeit, dann gilt (ii) A F T (ω A, s T(ω) : X s (ω) = X s (ω ), T(ω) = T(ω ) ω A). (iii) f ist F T -messbar f(ω) = f(ω T ) mit ω T (s) = ω(s T(ω)). (iv) F T = σ(x T s : s ). 1.6 Treffer- und Eintrittszeiten Definition Sei (X t ) ein an (F t ) adaptierter Prozeß und A E. T A (ω) := inf{t : X t (ω) A} T A(ω) := inf{t > : X t (ω) A} Eintrittszeit von A Trefferzeit von A (jeweils mit inf := +.) Bemerkungen (i) Für Γ R + Ω D Γ (ω) := inf{t : (t, ω) Γ} Debut von Γ Somit für A E : T A = D X 1 (A). (ii) (Ω, F, F t,p) genüge den üblichen Bedingungen Debut-Theorem: Für jedes progressiv messbare Γ R + Ω ist D Γ eine Stoppzeit. Korollar: X progressiv messbar T A ist Stoppzeit A E. (iii) Jede Stoppzeit ist eine Eintrittszeit: wähle X t := 1 [,T[ (t) und A := T A = T. Satz Sei X = (X t ) t adaptiert (an vorgegebene Filtration (F t ) t ) und rechtsstetig (d.h. E ist topologischer Raum und alle Trajektorien X (ω) sind rechtsstetig). (i) T A = T A schwache Stoppzeit ( A offen E) (ii) Ist X sogar stetig und E metrisierbar, so ist T A Stoppzeit ( A E abgeschlossen) und T A schwache Stoppzeit ( A F σ -Menge, d.h. A = n A n mit A n abgeschlossen). (iii) (ohne Beweis) Genügt (Ω, F, F t, P) den üblichen Bedingungen, so ist T A Stoppzeit ( A E = B(E)) 15

16 1 Filtrationen und Stoppzeiten Beweis. (i) Stets ist {T A t} = {X s A : s [, t[} und {T A t} = {X s A : s ], t[}. Daher bei offenem A und rechtsstetigem X: T A ist schwache Stoppzeit. (ii) Für A abgeschlossen {T A t} = {TA t} = {X s / A : s [, t[ Q} = {X s / A} F t {T A > t} = {X s A : s [, t]} s [,t[ Q = {ω : d(x s (ω), A) >, s [, t]} {ω : d(x s (ω), A) 1n }, s [, t] = n N [wegen Stetigkeit von X s (ω) und damit von s d(x s (ω), A)] {ω : d(x s (ω), A) 1n }, s [, t] Q = n N = n N s [,t] Q { d(x s ( ), A) 1 } F t n Ist A = A n mit A n abgeschlossen ( T An schwache Stoppzeit (siehe Proposition 1.5.4). Stoppzeit), so ist T A = inf n T A n Beispiele Ω = C(R +, R d ), X Koordinatenprozess (d.h. X t (ω) = ω(t)) und F t = Ft X. Sei A R d offen. TA ist schwache Stoppzeit, aber keine Stoppzeit. F t F t+ Intuitive Begründung (Genaueres siehe Übung Galmarino s Test ): Wähle ω mit ω() A und ω(t) A für ein t >, d.h. für t = TA (ω) gilt: < t <. Wegen Stetigkeit ist ω(t ) = A. Definiere neuen Pfad ω Ω durch ω (t) = ω(t t ). Offenbar ω A( t ) und damit TA (ω ) = +. Nun gilt: ω(t) = ω (t) t t Γ F t : ω Γ ω Γ (Galmarino) Aber offensichtlich ist ω {TA t } und ω {TA t } {TA t } F t TA keine Stoppzeit. (F t ) nicht rechtsstetig. Weitere Beispiele für (schwache) Stoppzeiten: 16

17 1.7 Die T-Vergangenheit A, B E disjunkt, T :=, n N T 2n+1 = inf{t T 2n : X t A} T 2n+2 = inf{t T 2n+1 : X t B} (z.b. A = R d \ B, schlecht bei BB, dann fast sicher T n = T 1 Keine (schwache) Stoppzeit Letzte (oder vorletzte etc.) Austrittszeit aus A L A = sup{t : X t A}. Denn (intuitiv): Ist L A (ω) = t so weiß ω das zum Zeitpunkt t (und auch unmittelbar danach) noch nicht!! (sondern erst am Ende seiner Tage.) 1.7 Die T-Vergangenheit Definition Für Stoppzeit T sei n) F T = {A F : A {T t} F t für alle t } die σ-algebra der T-Vergangenheit. Analog läßt sich für schwache Stoppzeiten T definieren F T+ = {A F : A {T < t} F t für alle t } Beides sind tatsächlich σ-algebren (Beweis wie im diskreten Fall). Jede Stoppzeit T ist F T -meß bar, jede schwache Stoppzeit F T+ -meß bar. F T besteht aus den Ereignissen, die bis zum zufälligen Zeitpunkt T eintreten. Stets ist F T F T+. Für T t ist F T = F t und F T+ = F t+. Bemerkungen Wie im diskreten Fall gelten folgende Eigenschaften: (i) S T F S F T (ii) F S T = F S F T (iii) E( F S T ) = E(E( F S ) F T ) (iv) T n schwache Stoppzeit ( n N), T = inf n T n (T ist also eine schwache Stoppzeit). Dann gilt n F Tn+ = F T+ Kurze Wiederholung: Sei G t := F t+. Dann gilt: T schwache Stoppzeit bzgl. (F t ) T Stoppzeit bzgl. (G t ) und F T+ = G T. Satz Sei X progressiv messbar und T eine Stoppzeit. (i) X T : {T < } E, ω X T(ω) (ω) ist F T -messbar. (ii) Der gestoppte Prozeß X T : (t, ω) X T(ω) t (ω) ist progressiv meßbar. (sowohl bzgl. (F t ) t als auch bzgl. (F t T ) t ). 17

18 1 Filtrationen und Stoppzeiten Beweis. (i) T ist F T -messbar für fixes t gilt: T : {T t} [, t] Ω, ω (T(ω), ω) ist F t {T t}/b([, t]) F t -messbar, denn für B B([, t]) und A F t gilt: {T B A} {T t} = {T B} A {T t} F t Progressive Messbarkeit von X : R + Ω E bedeutet B([, t]) F t /E-Messbarkeit von X auf [, t] Ω. F t {T t}/e-messbarkeit von X T = X T auf {T t}. Das gilt t X T ist F T /E-messbar auf {T < }. (ii) Für fixes t gilt: T t : Ω [, t] Ω, ω (T(ω) t, ω) ist F t T /B([, t]) F t -messbar T t : [, t] Ω [, t] Ω ist B([, t]) F t T -messbar. Da X progressiv messbar ist, gilt: X T = X T t : [, t] Ω E, (s, ω) X T s (ω) ist B([, t]) F t T /E-messbar 1.8 Treffer-Verteilung Korollar Sei X progressiv messbar und T eine schwache Stoppzeit. Dann definiert ν T (C) = P(X T C, T < ) ( C E) ein Maß ν T auf (E, E). Speziell für T = T A heiß t ν T Trefferverteilung. Ist T < f.s., so ist ν T ein Wahrscheinlichkeitsmaß, nämlich das Bildmaß ν T = X T (P) = P XT = P X 1 T. Beweis. Sei P (C) = P(C {T < }) P Maß auf (Ω, F) bzw. äquiv. auf (Ω, Ω F) mit Ω := {T < } Ω. Auf Ω ist X T F T+ -messbar, also F-messbar. ν T = P X 1 T ist Maß. Satz Sei X stetig und T = T A mit A E abgeschlossen. Dann sind die Verteilungen von T und X T, also P(T ) und ν T ( ) = P(X T, T < ), durch die endlich-dimensionalen Verteilungen von X festgelegt. Beweis. Wir zeigen die Behauptung für ν T. Es genügt z.z. ν T (C) ist ( C E abge- 18

19 1.8 Treffer-Verteilung schlossen) durch die endlich-dimensionalen Verteilungen festgelegt. Hierfür gilt ν T (C) = P [{X T C} {T < }] = P [{ t R + : s [, t[: X s / A und X T A C}] = P [ { k N : n k : t Q + : s [, t[: X s / B 1/n (A), X t B 2/n (A C)} ] = P {X s / B 1/n (A)} {X t B 2/n (A C)} k N n k t Q + s Q + [,t[ Beispiel Sei X die d-dim. standard BB (d.h. P = Wiener Maß, E = R d, X = ), x R d, r 2 > x 2. T x := T Br(x) = T B r(x). Dann ist (i) E(T x ) = r2 x 2 d und (ii) ν T ( ) das zu 1 normierte Oberflächenmaß σ r auf B r (). Beweis. (ii) Sei C eine Borel-Teilmenge von B r () und A eine orthogonale d d- Matrix. Aufgrund der Rotationsinvarianz der BB gilt: ν T (C) = P(X T C) = P((A X) T C) = P(X T A 1 C) = ν T (A 1 C) ν T ist rotationsinvariant und normiert Beh. Für jede beschränkte oder nicht-negative Borel-Funktion f auf R d folgt: E(f(X T Br() )) = f(y)σ r ( dy) B r() (i) Offenbar ist T Br() = T B r() < (z.b. wegen das Satzes vom iterierten Logarithmus). Nun ist M t := X t x 2 d t x 2 ein Martingal mit M =. X t T x 2 d (t T) x 2 ist Martingal d E(t T) = E( X t T x 2 ) x 2 r 2 x 2 ( t) d E(T) r 2 x 2 Umgekehrt folgt aus dem Lemma von Fatou und der Stetigkeit von X: d E(T) = lim t E( X t T x 2 ) x 2 E( lim t X t T x 2 ) x 2 = r 2 x 2 Mit aanderen Worten: Für die in x startende BB (X t,p x ) gilt: E x (T ) = r2 x 2 Im Falle d = 1: Seien a, b, B r (x) =] a, b[, T = T { a,b} E(T) = a b d 19

20

21 2 Martingale in stetiger Zeit Stets vorgegeben: Filtrierter Wahrscheinlichkeitsraum (Ω, F, F t,p), E = R Definitionen und elementare Eigenschaften Definition Ein stochastischer Prozess X = (X t ) t heißt Submartingal (bzgl. (F t )), falls X an (F t ) adaptiert R-wertig mit E(X + t ) < ( t ) s < t : E(X t F s ) X s f.s. (2.1) X heißt Supermartingal, falls X ein Submartingal ist. Es heißt Martingal, falls es sowohl Sub- als auch Supermartingal ist. Ein Sub-/Supermartingal X mit E( X t ) < ( t ) heißt integrierbares Sub- /Supermartingal bzw. L 1 -Sub-/Supermartingal. Jedes (Sub-)Martingal X bzgl. (F t ) ist auch ein (Sub-)Martingal bzgl. der von ihm erzeugten Filtration (Ft X ), sowie bzgl. jeder Filtration (G t ) mit Ft X G t F t. Ebenso bzgl. der augmentierten Filtration (F t ), denn E( F t ) = E( F t ) f.s. I.A. ist jedoch für G t F t der Prozess X kein (Sub-)Martingal mehr bzgl. (G t ). Die Submartingal-Ungleichung (2.1) bedeutet: s < t, A F s : X t dp X s dp A Beispiel (trivial) Sei F t F ( t ). Dann gilt: (X t ) Submart. s t : X t + L 1 und X s X t f.s. Faustregel: Martingale Beschreiben faire Spiele, Supermartingale beschreiben realistische Spiele: E(X t F s ): was ich aus jetziger Sicht zukünftig erwarten darf X s : was ich jetzt habe. Proposition (Standardbeispiele). Sei X die d-dim. BB und F t = F X t. Für x, y R d bezeichne x y das kanonische Skalarprodukt. Dann sind Martingale: (i) y X t für y R d, insbesondere die Koordinatenprozesse X i t für i = 1,...,d. A 21

22 2 Martingale in stetiger Zeit (ii) X t 2 d t (iii) exp(y X t 1 2 y 2 t) für y R d Beweis. (i) Sei Y t = y X t und s < t. E(Y t F s ) = y E( (X t X s ) F }{{} s ) +y E( X s F }{{} s ) = y X s = Y s unabhängig von F s messbar bzgl. F s }{{} = (ii) E( X t 2 F s ) = E( X t X s 2 + 2X s (X t X s ) + X s 2 F s ) = (t s) + + X s 2 (iii) Sei Y = exp(y X t y 2 2 t) E(Y t F s ) = e y 2 2 t E(e y(xt Xs) e yxs F s ) = e y 2 2 t e y Xs E(e y (Xt Xs) ) }{{} e y2 /2 (t s) denn sei Z t eine in startende d-dim. BB: E(e y Zt ) = e y z dp Zt ( dz) yz = (2πt) d/2 e z2 2t dz R d e = e y 2 2 t = e y 2 2 t R d (2πt) d/2 e (z yt)2 2t = Y s dz Bemerkung (i) Seien X, Y Martingale. Dann sind X +Y, X Y, αx ebenfalls Martingale ( α R) (ii) Seien X, Y Submartingale. Dann sind X +Y, X Y, αx Submartingale ( α ) (iii) Sei X ein Martingal und ϕ : R R konvex (oder X ein Submartingal und ϕ : R R konvex und isoton) und E( ϕ(x t ) ) < ( t ). Dann ist (ϕ(x t )) t Submart. (z.b. (X + t ) t ). (iv) Sei X ein Martingal X ist ein L 1 -Submartingal mit t E(X t ) konst. Beweis. a), b) trivial. c) Jensen d) E(X t X s F s ) und E(X t X s = ) E(X t X s F s ) =. 22

23 2.2 Maximalungleichungen 2.2 Maximalungleichungen Satz ((Maximalungleichung)). Sei (X t ) t ein Submartingal, T [, [ abzählbar (oder X rechtsstetiges Submartingal, T = [, [) und X (ω) = sup X t (ω). Dann gilt t T (i) λ P(X λ) supe(x t + ) t T (ii) Ist sogar X oder X ein Martingal, dann gilt p > 1: X p p p 1 sup X t p t T Lemma Für a < b R gilt unter obigen Voraussetzungen: Hierbei (b a) E(D T (a, b, X(ω))) supe((x t b) + ) t T D T (a, b, X(ω)) = sup{n N : t 1 < t 2 < < t 2n T : X t1 (ω) > b, X t2 (ω) < a, X t3 (ω) > b,...,x t2n (ω) < a} = Anzahl der absteigenden Überquerungen von [a, b] durch X (ω) T. Beweis von Satz und Lemma: Aussage bekannt für T endlich. Wähle isotone Folge (T n ) mit T n endlich, T n = T. Die Behauptungen folgen mit dem Satz von der monotonen Konvergenz. 2.3 Regulierungsresultate Satz Sei (X t ) t ein (F t ) t -Submartingal mit X t L 1 ( t ). (i) Dann Ω F,P(Ω ) = 1 : ω Ω : t existiert X t+ (ω) = lim X s(ω) und sցt,s Q t > existiert X t (ω) = lim X s(ω). sրt,s Q (Für ω / Ω setze man X t± (ω) = lim supx s (ω).) (ii) Dann sind X t+, X t L 1 und t : und t > : E(X t+ F t ) X t f.s. ( ) E(X t F t ) X t f.s. ( ) Dabei gilt Gleichheit in ( ) (bzw. ( )), falls t E(X t ) rechts- (bzw. links-)stetig ist. Insbesondere, falls X ein Martingal ist. 23

24 2 Martingale in stetiger Zeit (iii) (X t+ ) t ist ein Submartingal bzgl. (F t+ ) (und (X t ) t eines bzgl. (F t ).) Ist (X t ) ein Martingal, so sind beides Martingale (bzgl. der jeweiligen Filtration). (iv) Fast jede Trajektorie von (Y t ) = (X t+ ) ist rcll cádlág, d.h.: Y (ω) : t Y t (ω) ist rechtsstetig (rc) (cád) und besitzt linke Limiten (ll) (lág) Beweis. (i) Wir zeigen X t. Es gilt: { } ω : lim X s(ω) existiert nicht für ein t > sրt,s Q = { } ω : lim X s(ω) existiert nicht für ein t [, n] sրt,s Q n N = { } ω : lim inf X s(ω) a < b lim sup für ein t [, n] sրt,s Q n N a,b Q,a<b sրt,s Q { ω : U[,n] Q (a, b, X(ω)) = + }. n N a,b Q,a<b Nun ist E ( U [,n] Q (a, b, X(ω)) ) 1 b sup E((X t b) + ) t [,n] Q = 1 b E((X n b) + ) < P({ω : U ( U [,n] Q (a, b, X(ω)) ) = + }) = P({ω : lim X s(ω) existiert nicht für ein t > }) =. sրt,s Q (ii) Fixiere t und (t n ) n N Q mit t n ց t für n. Dann ist (X tn ) n N ein Submartingal bzgl. (F tn ) n N ( rückläufiges Submartingal ) mit supe( X tn ) n 2 supex t + n inf EX t n n n 2 EX t + n EX t < X t+ L 1, X tn X t in L 1. Aus X t E(X tn F t ) folgt daher X t E(X t+ F t ). Ferner (wegen L 1 -Konvergenz) E(X t+ ) = lim n E(X tn ), und falls t E(X t ) rechtsstetig, folgt E(X t ) = E(X t+ ). X t = E(X t+ F t ). ( ) analog: X tn E(X t F tn ) E(X t F tn ) E(X t F tn ) X t E(X t F t ). 24

25 2.4 Konvergenzsätze (iii) Fixiere s < t und sei s n eine Folge mit t > s n ց s. Dann gilt X sn E(X t F sn ) E(E(X t+ F t ) F sn ) = E(X t+ F sn ) X s+ E(X t+ F s+ ). (iv) Rechtsstetig klar, linke Limiten wegen (i), angewandt auf das Submartingal (X t+ ). Korollar Sei X rechtsstetiges Submartingal bzgl. (F t ). (i) Dann ist es Submartingal bzgl. (F t+ ) und bzgl. dessen Augmentierung. (ii) Fast jede Trajektorie ist cádlág. Korollar Sei X (Sub-)Martingal bzgl. (F t ), welche die üblichen Bedingungen erfüllt, und sei t E(X t ) rechtsstetig (z.b. konstant, falls X Martingal). Dann Modifikation Y von X mit cádlág- Trajektorie und Y ist (Sub-)Martingal bzgl. (F t ). Beweis. Wähle Y t = X t+ von vorhin. Bleibt zu zeigen: (Y t ) ist Modifikation von (X t ), d.h. t : P(Y t = X t ) = 1. Nun gilt aber nach (ii) aus vorigem Satz: und wegen F t = F t+ : E(X t+ F t ) = X t E(X t+ F t ) = X t+ f.s. f.s. 2.4 Konvergenzsätze Satz (Submartingal-Konvergenz). Sei (X t ) rechtsstetiges Submartingal mit Dann X := lim t X t f.s. supe(x t + ) <. t Korollar Sei (X t ) t rechtsstetiges, nicht-negatives Supermartingal. Dann existiert X = limx t f.s. Satz Sei (X t ) t rechtsstetiges, nicht-negatives Supermartingal (oder rechtsstetiges Martingal). Dann sind äquivalent: (ii) lim t X t existiert in L 1. (iii) X L 1 : X = lim t X t f.s. mit (X t ) t [, ] ist Submart. (bzw. Mart.) bzgl. (F t ) t [, ]. 25

26 2 Martingale in stetiger Zeit (i) {X t : t [, [} ist gleichgradig integrierbar. Bemerkungen (1) Die Aussagen sind erfüllt, falls sup t X t p < für ein p > 1. In diesem Fall X L p und X t X in L p. (2) Die Implikationen (i) (ii) (iii) gelten bereits für rechtsstetige Submartingale. (3) Ist X rechtsstetiges Martingal, so ist ferner äquivalent zu (i), (iii): (iv) X L 1 : t : X t = E(X F t ). Bemerkung {Y t : t I} gleichgradig integrierbar : 2.5 Optional Sampling supe( Y t 1 { Yt >M}) M. t I Satz Seien X rechtsstetiges Submartingal bzgl. (F t ) und S, T beschränkte Stoppzeiten mit S T. Dann gilt E(X T F S ) X S f.s. Beweis. Sei t T und zunächst X ( L 1 ). Approximiere S und T durch Stoppzeiten S n, T n t mit endlichem Wertebereich, S n ց S, T n ց T. X Sn X S, X Tn X T. Nun gilt (Doob Lemma): X Sn E(X t F Sn ) {X Sn : n N} gleichgradig integrierbar (denn {E(X t F Sn )} ist gleichgradig integrierbar) X Sn X s in L 1, analog X Tn X T in L 1. Ferner gilt F Sn X Sn dp X Tn dp A F Sn A F S A A n X S dp X T dp A F S A A Behauptung für X t. analog: Behauptung für X (n) t = X t ( n) Behauptung für beliebiges X t mit monotoner Konvergenz. Korollar Sei X rechtsstetig, adaptiert, integrierbar. Äquivalent sind (i) X ist Martingal. (ii) beschränten Stoppzeiten T ist E(X T ) = E(X ). 26

27 2.5 Optional Sampling Beweis. Optional Sampling. Sei s < t und A F s. Definiere S := s 1 A + t 1 A C, d.h. { s, falls ω A S(ω) := t, sonst. Dann ist S Stoppzeit und E(X ) = E(X S ) = E(X t 1 A C) + E(X s 1 A ). Ebenso ist T t Stoppzeit und daher E(X ) = E(X T ) = E(X t 1 A C) + E(X t 1 A ) Behauptung Korollar Unter obigen Voraussetzungen sind ebenfalls äquivalent (i) X ist (Sub-)Martingal. (ii) beschränten Stoppzeiten S T gilt: (Bei Martingalen: o.b.d.a. S =.) E(X S ) E(X T ). Beweis. : Sei s t, A F s. Definiere S := s 1 A +t 1 A C und T t S Stoppzeiten. E((X t X s ) 1 A ) = E(X T X S ) Behauptung. Korollar (Optional Stopping). Sei X rechtsstetiges (Sub-)Martingal und T Stoppzeit. Dann ist auch X T = (X t T ) t ein (Sub-)Martingal. 27

28

29 3 Stetige Semimartingale und quadratische Variation Ab nun stets: (Ω, F, F t,p) filtrierter Wahrscheinlichkeits-Raum, der den üblichen Voraussetzungen genügt. 3.1 Stetige Semimartingale Definition (i) Ein Prozess X heißt stetig und wachsend (kurz X A + ), falls er adaptiert ist und für fast alle ω Ω gilt: Die Abbildung ist stetig und wachsend. X (ω) : t X t (ω) (ii) Ein Prozess X heißt stetig und von endlicher Variation (oder stetig und lokal von beschränkter Variation), kurz X A, falls er adaptiert ist und für fast alle ω Ω gilt: t X t (ω) ist stetig und von endlicher Variation, d.h. t ist die Variation S t (ω) = S t (X(ω)) = sup { n i=1 von s X s (ω) auf [, t] endlich. Lemma X A X = Y Z mit Y, Z A +. X ti (ω) X ti 1 (ω) : n N, t < t 1 < < t n t Beweis. Y = 1 2 (S + X), Z = 1 2 (S X), mit S = Variation von X. Definition (i) Ein Prozess X heißt stetiges, lokales Martingal, kurz X M loc, wenn er adaptiert und stetig ist, und wenn Stoppzeiten T n existieren mit T n ր f.s. und X Tn Martingal ( n N). (ii) Ein Prozess heißt stetiges Semimartingal, kurz X S, falls M M loc, A A : X = M + A. } Bemerkungen (zu lokalen Martingalen). X M loc [Wähle T n = n N]. (i) X M (d.h. stetiges Martingal) (ii) X M loc, X X Supermartingal. (denn E(X t F s ) = E(lim X t Tn F s ) Fatou lim inf E(X t Tn F s ) = X s ). n n 29

30 3 Stetige Semimartingale und quadratische Variation (iii) X M loc, X beschränkt X Martingal. (iv) X M X M loc und s : ist {X T s : T Stoppzeit} gleichgradig integrierbar. (v) gleichgradig integrierbares X M loc : X / M. Proposition Sei M loc := {X M loc : X = f.s.}. Dann ist M loc A = {} und S = M loc A. Mit anderen Worten: X M loc A X konstant = X. Beweis. (i) Es genügt zu zeigen: X M A X =, denn dann: X M loc A (T n), X Tn M A X Tn = X =. (ii) Genügt zu zeigen für X beschränkt mit global beschränkter Variation S, denn: Sei T n = inf{t : X t > n oder S t > n} X Tn M A X Tn = X =. (iii) Sei ε >, T = und T i+1 = inf{t T i : X t X Ti > ε}. Wegen X stetig: T i (für i ). Nun gilt E ( ( XT 2 ) n 1 ( ) ) n = E XT 2 i+1 XT 2 i = E i= ( n 1 ε E ) ( ) 2 XTi+1 X Ti i= ( n 1 2 E E ( ) X Ti+1 X Ti F Ti }{{} i= = n 1 + ) X Ti+1 X Ti ε E(S ). i= X Ti Wegen S beschränkt und ε beliebig gewählt war, folgt E ( X 2 T n ) = E ( X 2 ) = (mit Doobscher L 2 -Ungleichung) E( sup t R + X 2 t ) 2 2 E(X 2 ) = X f.s. 3.2 Die Doob-Meyer Zerlegung Satz (Doob-Meyer). Sei X stetiges Supermartingal. Dann M M loc und A A + mit X t = M t A t. Hierbei sind M und A eindeutig (bis auf Ununterscheidbarkeit). 3

31 3.2 Die Doob-Meyer Zerlegung Beweis. (i) Eindeutigkeit: Sei X t = M t A t = N t B t mit M, N M loc, A, B A+. M N = A B M A = {} Eindeutig! (ii) Existenz im zeit-diskreten Fall: Sei (X n ) n N diskretes Supermartingal, Y n := E(X n X n+1 F n ), F n -messbar A n := n 1 Y k k=1 wachsend, F n 1 -messbar M n := X n + A n Martingal. Für zeit-stetigen Fall folgendes Lemma: Lemma Sei (A n ) n N wachsender Prozess mit A =, A n F n 1 -messbar und E(A 2 ) 2K 2. E(A A n F n ) K ( n N ) Beweis. Sei a n = A n+1 A n. O.B.d.A. A n C, a n C A 2 = 2 (A A n )a n n= n= ( ) ( E(A 2 ) = 2 E E(A A n F n ) a n E n= ( ) 2 K E a n n= = 2 K E(A ) 2 K 2, denn E(A ) = E(E(A A n F )) K. Lemma Seien A (1) = (A (1) n ) n und A (2) = (A (2) n ) n wie eben und B = A (1) A (2). Ferner sei W eine ZV mit W, E(W 2 ) < und a 2 n E(B B k F k ) E(W F k ). n= a 2 n ) Dann c mit: E(sup Bn) 2 c E(W 2 ) + c K [E(W 2 ) ] 1/2. n 31

32 3 Stetige Semimartingale und quadratische Variation Beweis. Sei b n = B n+1 B n, a (i) n = A (i) n+1 A(i) n (i = 1, 2; n N) ( ) ( E(B ) 2 = 2 E E(B B n F n ) b n E 2 E 2 E n= ( n= ( W E(W F n ) (a (1) n + a (2) n ) ( )) A (1) + A (2) ( 2 [E(W 2 ) ] 1/2 ( [ E 4 2 K (E(W 2 ) ) 1/2 A (1) ) 2 )] 1/2 [ ( + E n= b 2 n A (2) ) 2 )] 1/2 ) Betrachte schließlich die Martingale M n = E(B F n ), W n = E(W F n ) und X n = M n B n. X n = E(B B n F n ) W n (Doob sche Ungleichung) und Wegen sup n E(sup n B n sup n Xn) 2 E(sup Wn) E(W ) 2 = 2 2 E(W 2 ) n E[supMn] E[M ] 2 = 2 2 E[B ]. 2 n X n + sup M n folgt n E(sup B n ) 2 3 E(W 2 ) E(B ) 2 n 2 3 E(W 2 ) + c K (E(W 2 ) ) 1/2. Fortsetzung des Beweises des Satzes von Doob-Meyer. (iii) Sei X stetiges und beschränktes Supermartingal und konstant für t N fast alle Trajektorien sind gleichmäßig stetig. (iv) Fixiere k N. Für n N sei n 1 Fn k = F n 2 k und A k n = E(X j 2 k X (j+1)2 k Fj k ) j=1 (diskrete Doob-Meyer Zerlegung aus (ii)). Für t mit (n 1)2 k < t n2 k sei F k t = F k n und A k t = A k n. Sei W(δ) = sup{ X t X s : s N, s t s + δ}. Wegen X beschränkt, ist auch W(δ) beschränkt. Da die Trajektorien von X fast sicher gleichmäßig stetig sind, gilt: W(δ) f.s. für δ. W(δ) in L 2 für δ. 32

33 3.2 Die Doob-Meyer Zerlegung (v) Behauptung: A k t konvergiert in L 2 für k, gleichmäßig in t. Mit anderen Worten, E(sup A k t A l t 2 ) für k, l. t Denn: Sei l k. Die Prozesse A k und A l sind jeweils konstant auf den Intervallen ]n2 l, (n + 1)2 l ]. sup A k t A l t = sup A k. n2 l Al n2 l t n Sei t = n 2 l und u = inf{m 2 k t : m N } ( ) E A l A l t Ft l = E(A l A l n F n2 l) = E(X t X F t ) und ( ) E A k A k t Ft l ) = E (A k A k u2 F k t ( ) ) = E E (A k A k u2 F k u Ft = E(E(X u X F u ) F t ) = E(X u X F t ) ( ) ( E A l A l t Ft l E A k A k t Ft) l = E( Xt X u F t ) E(W(2 k ) F t ). Mit Lemma folgt: ( ) E sup A k t A l t c E(W(2 k ) 2 ) + c E(W(2 k ) 2 ) 1/2 für k. t (vi) Behauptung A := lim k Ak ist stetig. Denn A k hat Sprünge A k t = E(X (n 1)2 k X n2 k F (n 1)2 k) an den Stellen t = n2 k, die beschränkt sind durch Daher Übergang zu Teilfolgen: sup A k j t f.s. (k j ) t A stetig. E(W(2 k ) F (n 1)2 k) ( n N) E[sup( A k t ) 2 ] E[ supe(w(2 k ) F (n 1)2 k) ] t n }{{} Martingal in n 2 2 E(W(2 k ) 2 ) k. 2 33

34 3 Stetige Semimartingale und quadratische Variation (vii) Behauptung: M := X + A ist Martingal. Denn k N, s, t D k = 2 k N, B F s, s < t M t dp = M s dp nach Teil (ii) (3.1) B B s, t D = D k, s < t, B F s gilt (3.1). s, t R +, s < t : s k, t k D, s s k < t k, s k s, t k t : B F s F sk : M t dp = lim M tk dp = lim M sk dp = M s dp (3.2) B denn M ist stetig und beschränkt in L 2. (viii) Allgemeiner Fall: X beliebiges stetiges Supermartingal. B Definiere T N := inf{t : X t > N}. Für alle N N ist T N eine Stoppzeit, und T N ր für N. Ferner ist X T N ein stetiges und beschränktes Supermartingal und konstant für t N. M N, A N : X T N = M N A N (mit M N M, A N A + ). Wegen Eindeutigkeit K > N : (M K ) T N (A K ) T N = (X T K) T N = X T N = M N A N M K = M N, A K = A N auf [, N] M, A : M N = (M) T N, A N = (A) T N, ( N) M M loc, A A +, X = M A. B B Korollar Jedes stetige Supermartingal ist stetiges Semimartingal. 3.3 Quadratische Variation Satz (i) M M loc :! M A : M 2 M 2 M M loc. (ii) M, N M loc :! M, N A : M N M N M, N M loc Es gilt: M, N = 1 4 ( M + N M N ). Beweis. Trivial. (M M loc M 2 lokales Submartingal (Doob-Meyer-Zerlegung) M 2 = N + A.) Definition M = M, M = ( M t ) t heißt zu M gehöriger wachsender Prozeß oder quadratische(r) Variation(sprozess) von M. M, N = ( M, N t ) t heißt Klammerprozeß zu M und N oder quadratische Kovariation von M und N. Für M, N M loc sei M, N := M M, N N Proposition M, N M loc : 34

35 3.3 Quadratische Variation (i) M, N hängt symmetrisch, bilinear und positiv semidefinit von M und N ab. (ii) Für jede Stoppzeit T gilt: M, N T = M, N T = M T, N T. (iii) M = M M. (iv) M = M konstant. Beweis. (i) Trivial. (ii) Optional Stopping (M 2 M ) T = (M T ) 2 M T M loc M T = M T. Rest mit Polarisation. Bei (iii) und (iv): Nach (ii) o.b.d.a. M M beschränkt, M (iii) (M M )M M, denn E((M t M )M F s ) = M E(M t M F s ) = M (M s M ) (M M ) 2 M = M 2 M 2 M 2(M M )M M loc (iv) M = auf [, t] (M M ) 2 Martingal auf [,t] E( sup (M s M ) 2 ) 4 E((M t M ) 2 ) = s t M konstant auf [, t]. Beispiel Es sei X stetiger, zentrierter, quadrat-integrierbarer Prozess mit unabhängigen Zuwächsen. Dann ist X M und (unabhängig von ω) X t = Var(X t X ) = E((X t X ) 2 ) f.s. Beispiel Sei M eine eindimensionale Brownsche Bewegung M t = t ). ( t Für eine Partition = {t, t 1,... } mit t k ր und = t t 1... und einen stochastischen Prozess M definiert man die quadratische Variation von M auf durch Q t = Q t (M) = M tk t M tk 1 t 2. k=1 Als Feinheit von definiert man = sup t k t k 1. k Satz Seien M M loc und t. Dann gilt Q t M t P stochastisch für. D.h. ε >, η >, t R : δ > : Partitionen mit δ : ( ) P sup Q s M s > ε s t < η. 35

36 3 Stetige Semimartingale und quadratische Variation Beweis. Seien M und t fest, und für δ > A (1) k i= = {t, t 1,...,t k,... } mit δ. Annahme: M und M beschränkt. Sei a (1) i = (M ti+1 M ti ) 2, a (2) i = M ti+1 M ti, b i = a (1) i a (2) i. = k 1 a (1) i = Q t k (M), A (2) k = k 1 a (2) i = M tk, B k = k 1 i= i= b i = A (1) k A (2) k = Q t k (M) M tk, F k = σ(m ti+1 : i k). ( a (1) k, a(2) k messbar bzgl. F k ). Da o.b.d.a. M und M beschränkt, sind die Voraussetzungen von Lemma erfüllt. Da M und M gleichmäßig stetig auf [, t], gilt ( W(δ) := sup Ms+ε M s 2 + M s+ε M s ) s t ε δ P-f.s. (und in L 2, da beschränkt!) für δ. Nun gilt B B k = b i und E(b i F k ) = für i > k Mit Lemma 3.2.3: für δ. E(sup s t i=k E(B B k F k ) = b k a (1) k + a (2) k = E(a (1) k + a (2) k F k) E(W(δ) F k ) E(sup Bk 2 ) c E(W(δ)2 ) + c E(W(δ) 2 ) 1/2 k Q t (M) M s 2 ) 2E(sup k B 2 k ) + 2 E(W(δ)2 ) für δ. L 2 - und stochastische Konvergenz (gleichmäßig in s [, t]) von Q s (M) gegen M s. Lokalisierungsargument: Ist M oder M nicht beschränkt, dann definiere T n := inf{t : M t > n oder M t > n} P(sup s t P(sup s t Q s (M) M s > ε) Q s (M Tn ) M Tn s > ε ) + }{{} P(T n < t) }{{} für n fest: η/2 für hinr. klein <η/2 für n hinr. groß ( n, ε) Korollar M, N M loc, t, Partitionen n mit n : Q n t (M, N) M, N t stochastisch (n ), wobei Q n t (M, N) = (M ti+1 t M ti t) (N ti+1 t N ti t). t i n 36

37 3.3 Quadratische Variation Satz (i) Für fast alle ω Ω, a < b : M a (ω) = M b (ω) M t (ω) = M a (ω) ( t [a, b]). (ii) Für fast alle ω mit M (ω) := sup M t t (ω) < gilt: lim M t(ω) existiert (und ist endlich). t t Beweis. (i) klar (M konstant Var. = Quadratische Variation = ). : Für q Q betrachte N t = M t+q M t (F t+q ) t -Martingal N t = M t+q M t. T := inf{t > : N t > } ist Stoppzeit, N T M loc mit N T t = N t T = ( t ) N T ist f.s. konstant auf [, [, N ist f.s. konstant auf [, T], M ist f.s. konstant auf [q, q + T] T = T(q), M ist f.s. konstant auf [q, q + T(q)]. q Q Aber: M konstant auf [a, b] [a, b] [a, T(a)] q i Q : [a, b] [q i, T(q i )]. i N (ii) O.B.d.A. M =, T n = inf{t : M t > n} E(sup Mt T 2 n ) t 2 2 supe(mt T 2 n ) t = 4 supe M t Tn t 4n (Martingalkonvergenzsatz): f.s. M Tn = lim t M t Tn R auf Ω, M Tn = lim t M t = M auf {T n = }. f.s. M = lim M t auf {T n = } = { M < }. t n Definition Für X, Y S mit X = M +A, Y = N +B, M, N M loc, A, B A definiere X, Y := M, N und X := M. Satz Dann gilt X, Y S, t, Partitionen n mit n Q n t (X, Y ) X, Y t P-stochastisch. 37

38 3 Stetige Semimartingale und quadratische Variation Beweis. Wir zeigen Q n t Q n t (M, A) = (M, A) und Q n t (A, A). Es gilt (M ti+1 t M ti t) (A ti+1 t A ti t) t i n sup M ti+1 t M ti t A ti+1 t A ti t t i sup t i M ti+1 t M ti t S t (A) }{{} < wegen der gleichmäßigen Stetigkeit von M auf [, t] und da die Variation S t = S t (A) endlich ist. Analog für Q n t (A, A). Korollar X, Y S, t : X, Y t ( X t Y t ) 1/2 t i 1 2 ( X t + Y t ). Beweis. Folgt aus der Cauchy-Schwarz schen Ungleichung für Q t (X, Y ). 3.4 Stetige L 2 -beschränkte Martingale Definition H 2 := {M M : supe(mt 2 ) < } t ist der Raum der stetigen L 2 -beschränkten Martingale. Proposition (i) H 2 ist ein Hilbert-Raum bzgl. der Norm M H 2 = ( EM 2 ) 1/2 = lim t ( EM 2 t ) 1/2. (ii) Äquivalent zu dieser Norm ist die Norm ( 1/2 M 2 = E sup Mt ) 2. t (iii) Für M H 2 = {X H2 : X = } gilt M H 2 = (E M ) 1/2. 38

39 3.4 Stetige L 2 -beschränkte Martingale Beweis. (i), (ii): Zunächst ist klar: M H 2 M = sup M t L 2 t M L 2 : M t = E(X F t ) und E(M 2 ) = lim t E(M 2 t ) = supe(mt 2 ) t E(sup Mt 2 ) t = E(M 2 ) Doob 2 2 supe(mt 2 ) t = 2 2 M 2 H 2. (iii) Ferner gilt t : E(Mt 2 ) = E M t + E(M 2 ), also E(M ) 2 = lim E(Mt 2 ) t = lime M t t = E M, falls M =. Seien nun M n H 2, mit M n M k H 2 für n, k M n, M k L 2 mit M n t = E(M n F t ), M k t = E(M k F t ) M n M k L 2 = M n M k H 2 (Vollständigkeit von L 2 = L 2 (Ω, F, P)): M L 2 : M n M in L 2. Def. M t := E(M F t ) Martingal (Doob): Teilfolge (n k ) k : t M t f.s. stetig M M M H 2. E(sup Mt n M t 2 ) 4 E( M n M 2 ) t = 4 M n M H 2 sup M n k t M t f.s. für k t 39

40

41 4 Stochastische Integration 4.1 Das Lebesgue-Stieltjes-Integral Betrachte g : R + R rechtsstetig. Satz Äquivalent sind: (i) g ist von endlicher Variation. (ii) t : S t (g) < mit S t (g) := sup { St (g) : = {t, t 1,...,t n }, = t < t 1 < < t n t } und n 1 St (g) = g(t i+1 ) g(t i ). i= (iii) g 1, g 2 rechtsstetig und wachsend, sodass g = g 1 g 2. (iv) signiertes Radon-Maß µ auf R + mit µ([, t]) = g(t) ( t R + ) (4.1) Beweis. (i) (ii) per def., (iii) klar (iii) (iv): Sei o.b.d.a. g wachsend, µ. Dann ist g die Verteilungsfunktion von µ. Bemerkung Durch (4.1) ist µ bzw. g eindeutig bestimmt. Definition Sei g : R + R rechtsstetig und von endlicher Variation und f : R + R lokal beschränkt und Borel-messbar. Dann ist das Lebesgue-Stieltjes-Integral f dg = f(s) dg(s) = f(s)g( ds) von f bzgl. g definiert durch ],t] f(s)µ( ds) mit µ = µ g = signiertes Radon-Maß zu g. 41

42 4 Stochastische Integration Bemerkungen (i) Ist g C 1 (R + ), so gilt: dg(s) = g (s) ds, d.h. das Lebesgue-Stieltjes-Integral ist ein gewöhnliches Lebesgue-Integral f(s) dg(s) mit der Dichte g. f(s)g (s) ds (ii) Sind g und h stetig und von beschränkter Variation, so gilt die Produktregel d(gh)(s) = g(s) dh(s) + h(s) dg(s). Satz Sei g rechtsstetig und wachsend, f linksstetig und lokal beschränkt und t. Dann ist mit It (f, g) = n 1 k=1 f(t k ) (g(t k+1 ) g(t k )). f dg = lim I t (f, g) Bem.: Hierbei kann man f(t k ) durch f(t k+1 ) ersetzen, falls f stetig ist. Beweis. Sei und Dann gilt für : f (s) f(s) n 1 f = f(t k ) 1 ]tk,t k+1 ] k=1 sup f(s) = C <. s [,t] ( s ], t]) (wegen Linksstetigkeit von f). Ferner: f (s) C ( s ], t]) I t (f, g) = ],t] f (s)µ g ( ds) ],t] f(s)µ g ( ds) = f dg. 42

43 Wir wollen nun Integrale 4.2 Das Itô-Integral für Elementarprozesse X s da s definieren mit A A und X B := {X : X adaptiert, linksstetig, pfadweise lokal beschränkt}. Definition Für A A und X B heißt die pfadweise definierte ZV (X A) t = X da = X s da s : ω X s (ω) da s (ω) stochastisches Integral von X bzgl. A (auf [, t]). Dabei ist X der Integrand und A der Integrator. Der Prozess X A = ((X A) t ) t heißt unbestimmtes stochastisches Integral. Satz Für A A und X, Y B gilt: (i) X A A. (ii) X A ist bilinear in A und X. (iii) (X A) T = X A T für alle Stoppzeiten T (Stopp-Formel). (iv) Y (X A) = (Y X) A (Assoziativität) Beweis. (ii), (iii), (iv) einfache Übungen. (i) Klar: (X A) = und t Adaptiertheit: n mit n. Endliche Variation: X x da s = lim X s da s pfadweise stetig (da A stetig). n I n t (X, A) F t für eine Folge von Partitionen S t ((X A)(ω)) sup X s (ω) S t (A(ω)) <. s t 4.2 Das Itô-Integral für Elementarprozesse Ziel: Definition von (X M) = X s dm s für M H 2 und X E. Definition X : R + Ω R heißt Elementarprozess, kurz X E, falls: (t i ) i, (Z i ) i, t < t 1 <...,t i ր, Z i F ti -messbar, Z 1 F -messbar, Z i gleichmäßig beschränkt, sodass X = Z 1 1 {} + Z i 1 ]ti,t i+1 ]. i= 43

44 4 Stochastische Integration Definition Für M S und X E definieren wir das stochastische Integral (X M) = X dm = X s dm s pfadweise wie folgt: (X M) t = = Z i (M t ti+1 M t ti ) i= n 1 Z i (M ti+1 M ti ) + Z n (M t M tn ) i= für t [t n, t n+1 [. Bemerkung Für M A stimmt das mit der bisherigen Definition (Lebesgue- Stieltjes) überein. Satz Für M H 2 und X E gilt: (i) X M H 2. (ii) X M = ( (iii) X M 2 H = E 2 X 2 s d M s = (X 2 M ). X 2 s d M s ). Beweis. (i) Offenbar X M adaptiert, stetig, (X M) =. Ferner für s [t k 1, t k [, t [t n, t n+1 [: (X M) t = (X M) s = n 1 Z i (M ti+1 M ti ) + Z n (M t M tn ) + Z k 1 (M tk M s ) i=k E((X M) t (X M) s F s ) ( n 1 ) = E Z i E(M ti+1 M ti F ti ) + Z n E(M t M tn F tn ) F s i=k +Z k 1 E(M tk M s F s ) =. 44

45 4.2 Das Itô-Integral für Elementarprozesse (ii) O.B.d.A. s = t k, t = t n+1 (ergänze {t i } um zwei Punkte). E((X M) 2 t (X M) 2 s F s ) = E([(X M) t (X M) s ] 2 F s ) + +2E[((X M) s ) [(X M) t (X M) s ] F s ] }{{} = nach (i) = E([(X M) t (X M) s ] 2 F s ) [ n 2 = E Z i (M ti+1 M ti )] i=k F s ( ) = E Zi 2 (M ti+1 M ti ) 2 F s + i +2E Z i Z j (M ti+1 M ti )(M tj+1 M tj ) i<j F s = E Xr 2 d M r F s + s +2E Z i Z j (M ti+1 M ti )E(M tj+1 M tj F tj ) }{{} i<j = = E Xr 2 d M r F s. s F s (iii) X M 2 H = E X M 2 = E X 2 r d M r. Korollar Sind X n E, n N, Elementarprozesse mit so gilt: E (X n t X k t ) 2 d M r für n, k, (X n M) (X k M) 2 H = E(sup[(X n M) 2 t (X k M) t ] 2 ) für n, k. t Beweis. Mit X n, X k E 45

46 4 Stochastische Integration ist auch und Ferner X n X k E X n M X k M = (X n X k ) M H 2. E(sup[(X n M) t (X k M) t ] 2 ) = E(sup[(X n X k ) M] 2 t) t t 4 (X n X k ) M H 2 = 4E (Xt n Xt k ) 2 d M t. Satz (Kunita-Watanabe-Identität und -Ungleichung). Für M, N H 2 und X, Y E gilt: (i) X M, Y N = X s Y s d M, N s = (XY ) M, N und (ii) E X M, Y N E X s Y s d M, N s (E Xs 2 d M s E Beweis. (ii) folgt aus (i), denn M, N ( M t N t ) 1/2. (i) Im wesentlichen wie Teil (ii) aus Satz 4.2.4: (X M) t (Y N) t Beh. E((X M) t (Y N) t (X M) s (Y N) s F s ) = E([(X M) t (X M) s ] [(Y N) t (Y N) s ] F s ) ( n ) = E X ti Y ti (M ti+1 M ti )(N ti+1 N ti ) F s i=k = E X r Y r d M, N r F s. s X r Y r d M, N r ist Martingal (ii) Wir verwenden A, B ( A B ) 1/2 für A, B H 2. E X M, Y N E(( X M Y N ) 1/2 ) (E X M E Y N ) 1/2 = [E((X 2 M ) ) E((Y 2 N ) )] 1/2. Y 2 s d N s ) 1/2. 46

47 4.3 Das Itô-Integral für vorhersagbare, messbare Prozesse 4.3 Das Itô-Integral für vorhersagbare, messbare Prozesse Definition Die auf R + Ω definierte σ-algebra P = σ(e) heißt vorhersagbare σ-algebra ( predictable σ-field ). Sie ist die kleinste σ-algebra auf R + Ω, bezüglich der die Abbildungen (t, ω) X t (ω) messbar sind für alle X E. Ein P-messbarer Prozess X heißt vorhersagbar. Proposition σ(e) = σ({x : R + Ω R adaptiert, X linksstetig auf ], [}) = σ({x : R + Ω R adaptiert, X stetig auf [, [}). Beweis. Seien σ 1, σ 2, σ 3 obige σ-algebren. Offenbar σ 3 σ 2. Ferner σ 2 σ 1, da für linksstetiges X: X t (ω) X n t (ω) = X (ω) 1 {} (t) + k= X k/n (ω) 1 ] k n, k+1 n ](t). Schließlich σ 1 σ 3, denn f n C(R + ) mit f n 1 ],1+1/n] und f n 1 ],1] und g n C(R + ) mit g n 1 [,1/n] und g n 1 {} und daher X t = Z 1 1 {} (t) + X n t = Z 1 g n (t) + i= Z i 1 ]ti,t i+1 ](t) i= ( ) t ti Z i f n. t i+1 t i Korollar Jeder vorhersagbare Prozess ist progressiv messbar. Mit anderen Worten: P Prog := σ({x : R + Ω R progressiv messbar}) B(R + ) F. Sei nun wieder (Ω, F, P,(F t ) t ) mit den üblichen Bedingungen und M H 2 (d.h. M ist stetiges Martingal mit M 2 H = supe(m 2 2 t ) <.) t Wir definieren ein endliches Maß P M ( Doléans-Maß ) auf (R + Ω, B(R + ) F ) durch P M (Γ) := E 1 Γ (t, ω) d M t (ω) (Γ B(R + ) F ). Ferner sei L 2 (M) = {X : R + Ω R vorhersagbar, X M < } 47

48 4 Stochastische Integration und L 2 (M) = {X : R + Ω R progressiv messbar, X M < } sowie eine Pseudo-Norm X M = [E( X 2 t d M t )] 1/2 = [ R + Ω X 2 dp M ] 1/2 auf dem Raum der progressiv messbaren Prozesse X : R + Ω R. Schließlich seien L 2 (M) und L 2 (M) die Räume der Äquivalenzklassen von L 2 (M) bzw. L 2 (M) bzgl. M. Proposition (i) E liegt dicht in L 2 (M). (ii) L 2 (M) und L 2 (M) sind Hilbert-Räume (iii) und als solche isomorph bzw. stimmen im folgenden Sinne überein: Zu jedem Prozess X L 2 (M) existiert ein vorhersagbarer Prozess Z mit X Z M =. (iv) Falls t M t absolut stetig f.s., so ist ferner L 2 (M) = L 2 (M) mit L 2 (M) = {X : B(R + ) F -messbar, adaptiert, X M < }. (v) Offenbar E L 2 (M) L 2 (M) L 2 (M) L 2 (M) mit L 2 (M) = {X : B(R + ) F -messbar, nicht notwendig adaptiert, X M < }. Beweis. (ii) L 2 (M) = L 2 (R + Ω, Prog,P M ) und L 2 (M) = L 2 (R + Ω, P,P M ) Hilbert-Räume. (i) Jeder Prozess X L 2 (M) wird in M approximiert durch P-einfache Prozesse Y = n α i 1 Ai (n N, α i R, A i P). i=1 Jeder P-einfache Prozess Y wird in M approximiert durch einfache Prozesse Z (Monotone Klassen-Argument), denn A P, ε > : A ring(e) = ring ({]s, t] F : s < t, F F s } {{} F : F F }) so dass 1 A 1 A M < ε. (iii) Ohne Beweis (vorläufig). = {endliche disjunkte Vereinigungen von solchen Mengen}, Satz X L 2 (M) :!(X M) H 2 mit der Eigenschaft: ist X n E, n N, mit X X n M, so gilt (X M) X n M H 2, und daher X n M (X M) (gleichmäßig in t) in L 2. Bez: I = X M. Die Abbildung L 2 (M) H 2, X X M, ist eine Isometrie, d.h. X M = X M H 2. 48

Stochastische Analysis. Karl-Theodor Sturm

Stochastische Analysis. Karl-Theodor Sturm Stochastische Analysis Karl-Theodor Sturm 2 Literatur: I. Karatzas, S. Shreve: Brownian Motion and Stochastic Calculus. 2nd ed. Springer 91 D. Revuz, M. Yor: Continuous Martingales and Brownian Motion,

Mehr

Stochastische Analysis. Karl-Theodor Sturm

Stochastische Analysis. Karl-Theodor Sturm Stochastische Analysis Karl-Theodor Sturm 2 Literatur: I. Karatzas, S. Shreve: Brownian Motion and Stochastic Calculus. 2nd ed. Springer 91 D. Revuz, M. Yor: Continuous Martingales and Brownian Motion,

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis SS1 von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 6. Mai 21 Inhaltsverzeichnis 1 Motivation / Einführung 4 1.1 Motivation anhand

Mehr

Stochastische Prozesse

Stochastische Prozesse Albert-Ludwigs-Universität Freiburg Vorlesungsskript Stochastische Prozesse apl. Prof. Dr. Stefan Tappe Wintersemester 2017/18 Abteilung für Mathematische Stochastik Inhaltsverzeichnis 1 Grundlegende

Mehr

8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale

8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale 8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale 8.1 Der quadratische Variationsprozess eines stetigen, lokalen Martingals 8.3 Die quadratische Variation einer reellen Brownschen

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Stoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016

Stoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016 Stoppzeiten und Charakteristische Funktionen Tutorium Stochastische Prozesse 15. November 2016 Inhalte des heutigen Tutoriums Im heutigen Tutorium besprechen wir: (1) Eindeutigkeit von Maßen ohne schnittstabilen

Mehr

Schwache Lösungen von SDEs und das lokale Martingalproblem

Schwache Lösungen von SDEs und das lokale Martingalproblem Inhalt Schwache Lösungen von SDEs und das lokale Martingalproblem Christin Strampe February 16, 211 Christin Strampe () SDEs und das lokale Martingalproblem February 16, 211 1 / 24 Inhalt Motivation Schwache

Mehr

2 Martingale in stetiger Zeit

2 Martingale in stetiger Zeit 2 Martingale in stetiger Zeit Ziel dieses Abschnitts ist es die wichtigsten Resultate für Martingale aus diskreter Zeit in stetige Zeit zu übertragen. Wie zu erwarten ist treten in stetiger Zeit einige

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

Hawkes Prozesse Grundlagen

Hawkes Prozesse Grundlagen Hawkes Prozesse Grundlagen Im Folgenden sei (Ω, F, F, P) eine stochastische Basis. Das heißt F = (F t ) t ist eine rechtsstetige Filtration mit F t F für alle t und P ein Wahrscheinlichkeitsmaß auf dem

Mehr

4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale

4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale 4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale 4.2 Filtrationen und kanonische Filtrationen 4.3 Supermartingale, Martingale bzw. Submartingale bzgl. der Filtrationen (A t ) t I 4.4 Gleichgradig

Mehr

KAPITEL 1. Martingale

KAPITEL 1. Martingale KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst

Mehr

Brownsche Bewegung: Eine Einführung

Brownsche Bewegung: Eine Einführung Brownsche Bewegung: Eine Einführung Batu Güneysu Institut für Mathematik Humboldt-Universität zu Berlin Greifswald, 18.04.2018 Batu Güneysu Brownsche Bewegung: Eine Einführung 1 / 14 Wir fixieren m N und

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Vorlesungsskript: Martingale

Vorlesungsskript: Martingale Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................

Mehr

3 Bedingte Erwartungswerte

3 Bedingte Erwartungswerte 3 Bedingte Erwartungswerte 3.3 Existenz und Eindeutigkeit des bedingten Erwartungswertes E A 0(X) 3.6 Konvexitätsungleichung für bedingte Erwartungswerte 3.9 Konvergenzsätze von Levi, Fatou und Lebesgue

Mehr

Eindimensionale Stochastische Differentialgleichungen Mit Verallgemeinerter Drift Bzgl. Stetiger Lokaler Martingale DISSERTATION

Eindimensionale Stochastische Differentialgleichungen Mit Verallgemeinerter Drift Bzgl. Stetiger Lokaler Martingale DISSERTATION Eindimensionale Stochastische Differentialgleichungen Mit Verallgemeinerter Drift Bzgl. Stetiger Lokaler Martingale DISSERTATION zur Erlangung des akademischen Grades doctor rerum naturalium (Dr. rer.

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis Vorlesung SS 22 Jürgen Dippon Mathematisches Institut A Universität Stuttgart Homepage der Vorlesung: www.mathematik.uni-stuttgart.de/matha/lst3/dippon/sa Version vom 17. Juni 23

Mehr

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015 Wahrscheinlichkeitstheorie 2 & 3 Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 3. Januar 215 Inhaltsverzeichnis. Bedingte Erwartungswerte 4 1. Martingale, Stoppzeiten und Filtrierungen 9 1.1.

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr

Kapitel 7. Martingale 1

Kapitel 7. Martingale 1 Kapitel 7 Martingale 1 7.1 Definition: a) (Ω, F) sei ein messbarer Raum. Eine Filtration (oder Filtrierung) ist eine aufsteigende Folge F = (F n ) n N von Teil-σ-Algebren von F, d.h. F n F n+1 F für n

Mehr

Stochastische Integration Stochastische Differentialgleichungen Stochastische Partielle Differentialgleichungen. Dominic Breit

Stochastische Integration Stochastische Differentialgleichungen Stochastische Partielle Differentialgleichungen. Dominic Breit Dominic Breit 14.12.213 Outline 1 Stochastische Integration 2 3 Brwonsche Bewegung (1) Eine Brownsche Bewegung W = (W t ) t [,T ] über einem Wahrscheinlichkeitsraum (Ω, F, P) ist ein zeitstetiger stochastischer

Mehr

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109 A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 19 A. Stochastische Prozesse und Stoppzeiten In dieser Vorlesung arbeiten wir immer auf einem Massraum (Ω, F), der gross genug ist, um alle definierten Objekte

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

Terminologie Stochastischer Prozesse

Terminologie Stochastischer Prozesse Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.

Mehr

2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit

2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit 2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit a) Fortsetzungssatz, Eindeutigkeit Es wird gezeigt, dass jedes Prämaß µ auf einem Ring R zu einem Maß µ auf A(R) fortgesetzt werden kann, d.h. µ kann

Mehr

5 MARTINGALE 64. k = j k=1

5 MARTINGALE 64. k = j k=1 5 MRTINGLE 64 5 Martingale 5.1 Bedingte Erwartungswerte Im Folgenden sei stets Z eine Zufallsvariable in R mit E[ Z < oder Z 0 f.s. Falls ein Ereignis mit P() > 0 ist, so erklärt man durch E[Z := 1 P()

Mehr

Stochastische Analysis

Stochastische Analysis Marcel Ortgiese Stochastische Analysis Version vom 29. Januar 215 Vorlesungsmanuskript WiSe 214/215 Westfälische Wilhelms-Universität Münster Inhaltsverzeichnis Einleitung 1.1 Motivation....................................

Mehr

Itô-Integation. M. Gruber Zusammenfassung

Itô-Integation. M. Gruber Zusammenfassung Itô-Integation M. Gruber 15. 5 215 Zusammenfassung Itô-Integral für elementare Integranden, Martingaleigenschaft des Itô-Integrals, Itô-Isometrie, Quadratische Variation des Itô-Integrals, Itô-Integration

Mehr

Zufallsvariable, Verteilung, Verteilungsfunktion

Zufallsvariable, Verteilung, Verteilungsfunktion Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.

Mehr

1 Bedingte Erwartungswerte

1 Bedingte Erwartungswerte Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,

Mehr

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457. Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Simulation stochastischer Prozesse Peter Frentrup Humboldt-Universität zu Berlin 27. November 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 27. November 2017

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 2 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2). Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Stochastische Analysis

Stochastische Analysis PD Dr. Jürgen Dippon, Universität Stuttgart Stochastische Analysis Stuttgart, Wintersemester 211/212 Version: 15. Februar 212 Für Hinweise auf Druckfehler und Kommentare jeder Art bin ich dankbar. 1 Viel

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik

Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik Univ. Leipzig Mathematisches Institut Vertretung Professur Stochastische Prozesse Max v. Renesse email: mrenesse@math.tu-berlin.de Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik

Mehr

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 : 24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar

Mehr

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +

Mehr

6 Das stochastische Integral

6 Das stochastische Integral 6 Das stochastische Integral 6.2 Elementare Handelsstrategien erzeugen die σ-algebra der previsiblen Mengen 6.3 Previsible Prozesse sind adaptiert und progressiv messbar 6.4 P 0 wird von den linksseitig

Mehr

Stochastische Differentialgleichungen (Einführung in die Stochastische Analysis)

Stochastische Differentialgleichungen (Einführung in die Stochastische Analysis) Skript Stochastische Differentialgleichungen (Einführung in die Stochastische Analysis) Max v. Renesse Aufgezeichnet von Tobias Weihrauch Wintersemester 212/13 Universität Leipzig INHALTSVERZEICHNIS 1

Mehr

Aufgaben zu Kapitel 0

Aufgaben zu Kapitel 0 Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.

Mehr

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Schwache Konvergenz von Wahrscheinlichkeitsmaßen Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Studienbegleitende Prüfung Stochastik 2

Studienbegleitende Prüfung Stochastik 2 Universität Karlsruhe (TH) Institut für Stochastik Prof. Dr. N. Bäuerle Name: Vorname: Matr.-Nr.: Studienbegleitende Prüfung Stochastik 2 27. März 2007 Diese Klausur hat bestanden, wer mindestens 20 Punkte

Mehr

2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III Teil Der Wienerraum

2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III Teil Der Wienerraum 8 Wahrscheinlichkeitstheorie III Teil 3 Brownsche Bewegung Wir haben die Brownsche Bewegung bereits als Grenzwert reskalierter Irrfahrten in der VL WTH II kennengelernt siehe dazu Abschnitt 5.. In diesem

Mehr

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse 2 Halbgruppen von Übergangswahrscheinlichkeiten Markov-Prozesse Im Folgenden sei (X, B) ein (polnischer) Messraum und T = [0, ) oder T = N 0 Definition 21 Eine Familie (P t ) t T von (X, B) mit Übergangswahrscheinlichkeiten

Mehr

Wahrscheinlichkeits theorie

Wahrscheinlichkeits theorie Achim Klenke Wahrscheinlichkeits theorie Mit 34 Abbildungen 4y Springer 1 Grundlagen der Maßtheorie 1 1.1 Mengensysteme 1 1.2 Mengenfunktionen 11 1.3 Fortsetzung von Maßen 17 1.4 Messbare Abbildungen 33

Mehr

Martingale und Brownsche Bewegung

Martingale und Brownsche Bewegung Martingale und Brownsche Bewegung Martin G. Riedler Institute for Stochastics, Johannes Kepler University 44 Linz, Austria martin.riedler@jku.at 2 Die vorliegenden Unterlagen sind ein Skriptum zur Vorlesung

Mehr

Abgabetermin: 5. Mai 2017, Uhr

Abgabetermin: 5. Mai 2017, Uhr Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung

Mehr

Skript. Martingale. Prof. Dr. Zakhar Kabluchko. Universität Münster Institut für Mathematische Stochastik

Skript. Martingale. Prof. Dr. Zakhar Kabluchko. Universität Münster Institut für Mathematische Stochastik Skript Martingale Prof. Dr. Zakhar Kabluchko Universität Münster Institut für Mathematische Stochastik Inhaltsverzeichnis Vorwort 2 Literatur 2 1. Stochastische Prozesse 3 2. Filtrationen 3 3. Martingale

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Diplomarbeit. Lebenszeit-Modelle zur Analyse der Ermüdung von gradierten Materialien

Diplomarbeit. Lebenszeit-Modelle zur Analyse der Ermüdung von gradierten Materialien Universität Kassel Fachbereich Mathematik Diplomarbeit Lebenszeit-Modelle zur Analyse der Ermüdung von gradierten Materialien Eingereicht von: Alexander Stepper Betreuende Gutachterin: Zweitgutachterin:

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

4 Fehlerabschätzungen und Konvergenz der FEM

4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,

Mehr

Stochastische Prozesse Stoffzusammenfassung

Stochastische Prozesse Stoffzusammenfassung Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 7. August 2018 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

7 Der Satz von Girsanov

7 Der Satz von Girsanov 7 Der Satz von Girsanov Der Satz von Girsanov wird uns eine neue Perspektive auf die Rolle des Drifts liefern. Die Prozesse Brownsche Bewegung B t, Brownsche Bewegung mit Drift X t = B t + µt haben wir

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

Strassen Type Theorems Proseminar Stochastik

Strassen Type Theorems Proseminar Stochastik Strassen Type Theorems Proseminar Stochastik Cecelie Hector Universität Hamburg Fachbereich Mathematik SoSe 2004 Vortrag am 25.06.04 Definition (a). Ein topologischer Raum E heißt polnisch, wenn es eine

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Musterlösung Analysis 3 - Maßtherorie

Musterlösung Analysis 3 - Maßtherorie Musterlösung Analysis 3 - Maßtherorie 10. März 2011 Aufgabe 1: Zum Aufwärmen (i) Zeige, dass die Mengensysteme {, X} und P(X) σ-algebren sind. Es sind jeweils nur die Charakteristika nachzuweisen. (1)

Mehr

8 Verteilungsfunktionen und Dichten

8 Verteilungsfunktionen und Dichten 8 Verteilungsfunktionen und Dichten 8.1 Satz und Definition (Dichten) Eine Funktion f : R R heißt Dichtefunktion, kurz Dichte, wenn sie (Riemann-) integrierbar ist mit f(t) 0 für alle t R und Setzt man

Mehr

Wahrscheinlichkeitstheorie

Wahrscheinlichkeitstheorie Achim Klenke Wahrscheinlichkeitstheorie 3., überarbeitete und ergänzte Auflage ~ Springer Spektrum Inhaltsverzeichnis 1 Grundlagen der Maßtheorie. 1.1 Mengensysteme. 1.2 Mengenfunktionen, 12 1.3 Fortsetzung

Mehr

Messbare Vektorräume

Messbare Vektorräume Messbare Vektorräume Hans-Jörg Starkloff TU Bergakademie Freiberg Westsächsische Hochschule Zwickau Dezember 2010 / Januar 2011 Hans-Jörg Starkloff Messbare Vektorräume 1 1. Definition Geg. X linearer

Mehr

1 Das Lebesgue-Maß. 1.1 Etwas Maßtheorie. Sei stets X eine nichtleere Menge mit Potzenzmenge P(X) := {A : A X}.

1 Das Lebesgue-Maß. 1.1 Etwas Maßtheorie. Sei stets X eine nichtleere Menge mit Potzenzmenge P(X) := {A : A X}. 1 Das Lebesgue-Maß 1.1 Etwas Maßtheorie Sei stets X eine nichtleere Menge mit Potzenzmenge P(X) := {A : A X}. Definition 1.1. Ein nichtleeres Mengensystem A P(X) heißt σ-algebra, wenn: (A1) X A (A2) Wenn

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel IV SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Höhere Funktionalanalysis WS2016/17 Übungsblatt

Höhere Funktionalanalysis WS2016/17 Übungsblatt Höhere Funktionalanalysis WS2016/17 Übungsblatt 1 11.10.2016 Aufgabe 1. Berechne die Normen der Operatoren (a) f L [0, 1], M f : L 2 [0, 1] L 2 [0, 1], (M f g)(x) = f(x)g(x). (b) g C[0, 1], T g : C[0,

Mehr

1. Übungsblatt. Markus Reiß Kursusvorlesung Stochastische Prozesse Sommersemester 2006

1. Übungsblatt. Markus Reiß Kursusvorlesung Stochastische Prozesse Sommersemester 2006 Sommersemester 26 1. Übungsblatt 1. Zeige: Ist X Poisson(s)- und Y Poisson(t)-verteilt und sind X und Y unabhängig, so ist X + Y Poisson(t + s)-verteilt (t, s > ). Das heißt, es gilt die Eigenschaft einer

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis Martin Keller-Ressel 23. März 215 Inhaltsverzeichnis 1 Stochastische Prozesse in stetiger Zeit 1 1.1 Grundlagen.................................. 1 1.2 Gleichheit von stochastischen

Mehr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Ferienkurs in Maß- und Integrationstheorie

Ferienkurs in Maß- und Integrationstheorie Zentrum Mathematik Technische Universität München Dipl. Math. Wolfgang Erb WS 9/ Übungsblatt Ferienkurs in Maß- und Integrationstheorie Aufgabe. (σ-algebren Sei eine Menge und A eine σ-algebra in. Seien

Mehr

Vorlesungsskript Stochastische Analysis mit Finanzmathematik

Vorlesungsskript Stochastische Analysis mit Finanzmathematik Vorlesungsskript Stochastische Analysis mit Finanzmathematik Christoph Kühn Wintersemester 4/5 letzte Aktualisierung:. April 17 1 Inhaltsverzeichnis 1 Eine Motivation 1 Allgemeine Theorie stochastischer

Mehr

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016 Übungen zu bedingten Erwartungswerten Tutorium Stochastische Prozesse 13. Dezember 2016 Bedingter Erwartungswert Definition Sei X eine reellwertige Zufallsvariable auf (Ω, A, P), so dass E[ X ]

Mehr

Kapitel I. Maßtheorie

Kapitel I. Maßtheorie Aufgabenvorschläge für das Proseminar zur Maß- und Integrationstheorie (WS 10/11) Shantanu Dave & Günther Hörmann Kapitel I. Maßtheorie zu 1. Maße und σ-algebren 1 Sei Ω eine Menge. Zeige: (a) Ist A eine

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Symmetrische Ableitungen von Massen

Symmetrische Ableitungen von Massen Symmetrische Ableitungen von Massen Hyuksung Kwon 5. Juni 203 Inhaltsverzeichnis Einführung 2 Hardy-Littlewood Maximaloperator 2 3 Symmetrische Ableitung vom positiven Maß 7 Einführung Definition. (Borelmaß

Mehr

Extremalpunkte und der Satz von Krein-Milman. 1 Lokalkonvexe topologische Vektorräume

Extremalpunkte und der Satz von Krein-Milman. 1 Lokalkonvexe topologische Vektorräume Extremalpunkte und der Satz von Krein-Milman Seminar zu ausgewählten Kapiteln der Banachraumtheorie Vortrag von Michael Hoffmann 1 Lokalkonvexe topologische Vektorräume Im folgenden betrachten wir stets

Mehr

TECHNISCHE UNIVERSITÄT BERLIN BACHELORARBEIT. Theorie und Simulation einer zweidimensionalen stochastischen Differentialgleichung.

TECHNISCHE UNIVERSITÄT BERLIN BACHELORARBEIT. Theorie und Simulation einer zweidimensionalen stochastischen Differentialgleichung. TECHNISCHE UNIVERSITÄT BERLIN Fakultät II Institut für Mathematik BACHELORARBEIT im Studiengang Mathematik über das Thema Theorie und Simulation einer zweidimensionalen stochastischen Differentialgleichung

Mehr

Universität Leipzig, SoSo 2013

Universität Leipzig, SoSo 2013 Vorlesung Wahrscheinlichkeitstheorie I Universität Leipzig, SoSo 2013 Prof. Dr. Max v. Renesse renesse@uni-leipzig.de Sprechstunde: Di 13.15-14.45, A 337 Übungen: Mo 11.15 -- 12.45 A 314 K. Zimmermann

Mehr

Martingale in diskreter Zeit

Martingale in diskreter Zeit Kapitel XI Martingale in diskreter Zeit Reinhard Höpfner Vorlesung Stochastik II Wintersemester 2006/07 und 2010/11 Institut für Mathematik, Johannes Gutenberg Universität Mainz 15.1.04, 19.1.07, 16.12.10

Mehr