Stochastische Prozesse

Größe: px
Ab Seite anzeigen:

Download "Stochastische Prozesse"

Transkript

1 Albert-Ludwigs-Universität Freiburg Vorlesungsskript Stochastische Prozesse apl. Prof. Dr. Stefan Tappe Wintersemester 2017/18 Abteilung für Mathematische Stochastik

2

3 Inhaltsverzeichnis 1 Grundlegende Begrie Stochastische Basen Rechts- und linksstetige Funktionen Stoppzeiten Die optionale Sigma-Algebra Prozesse mit unabhängigen Zuwächsen Lokalisierung Martingale und lokale Martingale Die bedingte Erwartung Gleichmäÿige Integrierbarkeit und Martingale in diskreter Zeit Martingale Lokale Martingale Previsible Sigma-Algebren und previsible Zeiten Die previsible Sigma-Algebra Previsible Zeiten Orthogonale Stoppzeiten Die previsible Projektion Prozesse von lokal beschränkter Variation und das pfadweise Stieltjes- Integral Funktionen von lokal beschränkter Variation Prozesse von lokal beschränkter Variation Übergangskerne Das pfadweise Stieltjes-Integral Der previsible Kompensator Lokale Martingale Die previsible quadratische Variation Zerlegungen von lokalen Martingalen

4 2 6 Semimartingale und stochastische Integration Semimartingale Das stochastische Integral Die quadratische Variation Die Itô-Formel Das stochastische Exponential Wiener-Prozesse Poisson-Prozesse Der stochastische Logarithmus

5 Kapitel 1 Grundlegende Begrie 1.1 Stochastische Basen Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Denition Eine Familie F = (F t ) t R+ Filtration, falls F s F t für alle 0 s t. von Sub-σ-Algebren von F heiÿt eine Denition Es sei F = (F t ) t R+ eine Filtration. (a) Wir denieren die Familie F = (F t ) t R+ durch F 0 := F 0 und ( F t := σ s<t F s ), t R +. (b) Wir denieren die Familie F + = (F t+ ) t R+ durch F t+ := s>t F s, t R +. Denition Es sei F = (F t ) t R+ eine Filtration. (a) F heiÿt rechtsstetig, falls F t = F t+ für alle t R +. (b) Ist F rechtsstetig, so nennen wir (Ω, F, F, P) eine stochastische Basis. Lemma Es sei F = (F t ) t R+ eine Filtration. (a) F ist eine Filtration. (b) F + ist eine rechtsstetige Filtration. 3

6 4 (c) Es gilt F t F t F t+ für alle t R +. (d) Es gilt F s+ F t F u für alle 0 s < t < u. Korollar Es sei F eine Filtration. Dann ist (Ω, F, F +, P) eine stochastische Basis. Von nun an sei (Ω, F, F, P) eine stochastische Basis. Denition Wir setzen F := F und F := σ( t R + F t ). Denition Eine Teilmenge A Ω heiÿt eine P-Nullmenge, falls ein N F mit A N und P(N) = 0 existiert. Denition Wir bezeichnen mit N P das System aller P-Nullmengen von F. Denition Die stochastische Basis (Ω, F, F, P) heiÿt vollständig, falls N P F (das heiÿt F ist P-vollständig) und N P F t für alle t R +. Bemerkung Die stochastische Basis (Ω, F, F, P) ist genau dann vollständig, wenn N P F 0. Denition Wir setzen F P := σ(f N P ), das heiÿt F P ist die P-Vervollständigung von F, und wir denieren F P = (Ft P ) t R+ durch Ft P := σ(f t N P ) für alle t R +. Lemma (Ω, F P, F P, P) ist eine vollständige stochastische Basis. Denition Eine Teilmenge A Ω R + heiÿt eine zufällige Menge. Es sei E ein metrischer Raum (bei uns üblicherweise E = R oder E = R d ), versehen mit der Borel'schen σ-algebra E = B(E). Denition Eine Prozess (oder, ein E-wertiger Prozess) ist eine Familie X = (X t ) t R+ von Zufallsvariablen X t : Ω E. Denition Ein Prozess X heiÿt messbar, falls er als Abbildung X : Ω R + E, (ω, t) X t (ω) F B(R + )-E-messbar ist. Lemma (a) Die Menge aller Prozesse ist ein R-Vektorraum.

7 5 (b) Die Menge aller messbaren Prozesse ist ein Unterraum. Denition (a) Ein Prozess X heiÿt càdlàg, falls alle Pfade rechtsstetig sind und linksseitige Grenzwerte besitzen. (b) Für einen càdlàg-prozess X denieren wir die Prozesse X und X durch { X 0, falls t = 0, X t := lim s t X s, falls t > 0, und X := X X. Bemerkung Es gilt stets X 0 = 0. Denition (a) Eine zufällige Menge A heiÿt vernachlässigbar, falls eine P-Nullmenge ist. {ω Ω : (ω, t) A für ein t R + } (b) Zwei Prozesse X und Y heiÿen ununterscheidbar, falls die zufällige Menge vernachlässigbar ist. {X Y } := {(ω, t) Ω R + : X t (ω) Y t (ω)} Denition Es seien X und Y zwei Prozesse. Dann heiÿt X eine Version (oder Modikation) von Y, falls P(X t = Y t ) = 1 für alle t R +. Lemma Es seien X und Y zwei ununterscheidbare Prozesse. Dann ist X eine Version von Y. Lemma Es seien X und Y zwei rechtsstetige (oder linksstetige) Prozesse, so dass X eine Version von Y ist. Dann sind X und Y ununterscheidbar. Denition Ein Prozess X heiÿt F-adaptiert (oder kurz adaptiert), falls für jedes t R + die Zufallsvariable X t bezüglich F t messbar ist.

8 6 Lemma Ein Prozess X sei F-adaptiert. Dann ist er auch F + -adaptiert. Lemma Die Menge aller adaptierten càdlàg-prozesse ist ein R-Vektorraum. Lemma Ist X ein adaptierter càdlàg-prozess, dann sind X und X ebenfalls adaptiert. Lemma Es sei X ein Prozess. (a) Die Familie F X = (F X t ) t R+ deniert durch F X t := σ(x s : s [0, t]) ist eine Filtration. (b) X ist F X -adaptiert. (c) Ist X adaptiert bezüglich F = (F t ) t R+, dann gilt F X t F t für alle t R +. Denition Wir nennen F X die von X erzeugte Filtration. Korollar Es sei X ein Prozess. Dann ist (Ω, F, F X +, P) eine stochastische Basis. 1.2 Rechts- und linksstetige Funktionen Lemma Es sei f : R + R eine Funktion. (a) f ist genau dann rechtsstetig, wenn zu jedem t R + und jedem ɛ > 0 ein δ > 0 existiert, so dass f(t) f(s) ɛ für alle s [t, ) mit s t δ. (b) f ist genau dann linksstetig, wenn zu jedem t R + und jedem ɛ > 0 ein δ > 0 existiert, so dass f(t) f(s) ɛ für alle s [0, t] mit s t δ.

9 7 Lemma Es sei f : R + R eine rechtsstetige Funktion. Wir denieren die Folge (f n ) n N von rechtsstetigen Funktionen f n : R + R durch f n := ( ) k f 1 2 n [ k 1 2 n, k 2 n ), k N und die Folge (g n ) n N von linksstetigen Funktionen g n : R + R durch g n := f(0)1 {0} + ( ) k f 1 2 n ( k 1 2 n, k 2 n ]. k N Dann gilt f n f und g n f punktweise. Lemma Es sei f : R + R eine linksstetige Funktion. Wir denieren die Folge (f n ) n N von rechtsstetigen Funktionen f n : R + R durch f n := ( ) k 1 f 1 [ k 1 2 n, k 2 n ), k N und die Folge (g n ) n N von linksstetigen Funktionen g n : R + R durch g n := f(0)1 {0} + ( ) k 1 f 1 ( k 1 2 n, k 2 n ]. k N Dann gilt f n f und g n g punktweise. Satz Es sei f : R + R eine càdlàg-funktion. Zu jedem T R + und jedem ɛ > 0 existieren N N und 0 = t 0 < t 1 <... < t N = T, so dass 2 n sup f(t) f(s) ɛ für alle n = 1,..., N. s,t [t n 1,t n) Beweis. Siehe [Bil68, Lemma 14.1]. Satz Es sei f : R + R eine càdlàg-funktion. Dann gilt 2 n sup f(t) < für alle T R +. t [0,T ]

10 8 Satz Es sei f : R + R eine càdlàg-funktion. (a) Für jedes ɛ > 0 und T R + ist { f > ɛ} [0, T ] endlich. (b) Die Menge { f 0} ist höchstens abzählbar. Satz Es sei f : R + R eine càdlàg-funktion. Wir denieren (T n ) n N durch Dann gilt T n. T n := inf{t R + : f(t) > n}. Satz Es sei f : R + R eine càdlàg-funktion. Dann ist f : R + R deniert durch f (t) := sup s t f(s) eine wohldenierte, monoton wachsende càdlàg-funktion. Beweis. Nach Satz ist f wohldeniert. Auÿerdem ist f per Denition monoton wachsend. Es sei t R + beliebig. Wegen der Monotonie von f existieren die Grenzwerte f (t+) und f (t ). Wir werden zeigen, dass f (t) = f (t+). Angenommen, es gilt f (t) < f (t+). Deniere ɛ > 0 durch ɛ := f (t+) f (t). Setze s 0 := 1 und deniere (s n ) n N rekursiv wie folgt: Es gilt sup f(u) f (t+) = f (t) + ɛ = sup f(u) + ɛ, u [0,s] u [0,t] s (t, t + min{s n 1, 1/n}]. Also existiert ein s n (0, 1 n ] mit s n s n 1, so dass f(t + s n ) + 1 n sup f(u) + ɛ f(t) + ɛ. u [0,t] Dies liefert eine Folge (s n ) n N, so dass s n 0 und lim f(t + s n) f(t) + ɛ > f(t), n was der Rechtsstetigkeit von f widerspricht. 1.3 Stoppzeiten Es sei (Ω, F, F, P) eine stochastische Basis. Denition Eine Abbildung T : Ω R + = [0, ] heiÿt eine F-Stoppzeit (oder kurz, eine Stoppzeit), falls {T t} F t für alle t R +.

11 9 Satz Es sei T : Ω R + eine Abbildung. Dann gelten folgende Aussagen: (a) Ist T ein Stoppzeit, dann gilt {T t}, {T = t} F t und {T < t} F t für alle t R +. (b) T ist genau dann eine Stoppzeit, wenn {T < t} F t für alle t R +. Beweis. (a) Es genügt, zu zeigen, dass {T < t} F t für alle t R + gilt. Hierfür genügt es, die Situation t (0, ) anzuschauen. Es existiert ein Index n 0 N mit 1 n 0 t, so dass folgt {T < t} = n n 0 { T t 1 } F t. }{{ n } F t 1 F t n (b) Es gelte {T < t} F t für alle t R +. Wegen der Rechtsstetigkeit der Filtration F folgt für alle t R + {T t} = s>t {T < s} s>t F s = F t+ = F t. Also ist T eine Stoppzeit, was wegen Teil (a) den Beweis beendet. Lemma Es gelten die folgenden Aussagen: (a) Für jedes t R + ist T = t eine Stoppzeit. (b) Für eine Stoppzeit T und ein t R + ist T + t ebenfalls eine Stoppzeit. (c) Für eine Folge (T n ) n N von Stoppzeiten sind inf n N T n und sup n N T n ebenfalls Stoppzeiten. (d) Für eine Konstante α [1, ) und eine Stoppzeit T ist αt ebenfalls eine Stoppzeit. Beweis.

12 10 (a) Für jedes s R + gilt {T s} = {t s} {Ω, } F s. (b) Für jedes s R + gilt {T + t s} = {T s t}. Falls s t, so folgt {T + t s} F s t F s, und falls s < t, so folgt {T + t s} = F s. (c) Für jedes t R + gilt { } inf T n < t = n < t} F t. n N n N{T In der Tat, es sei ω Ω beliebig. Falls ein n N mit T n (ω) < t existiert, dann gilt auch inf n N T n (ω) < t. Gilt umgekehrt inf n N T n (ω) < t, dann existiert ein n N mit T n (ω) < t. Für jedes t R + gilt auÿerdem { } sup T n t n N = n N{T n t} F t. In der Tat, es sei ω Ω beliebig. Falls T n (ω) t für alle n N, dann gilt auch sup n N T n (ω) t. Gilt umgekehrt sup n N T n (ω) t, dann ist T n (ω) t für alle n N. (d) Für jedes t R + gilt {αt t} = { T t } F t α F t. α Denition Für eine Stoppzeit T bezeichnen wir mit F T := {A F : A {T t} F t für alle t R + } das Mengensystem aller bis T beobachtbaren Ereignisse.

13 11 Lemma Es sei T eine Stoppzeit. Dann gelten die folgenden Aussagen: (a) F T ist eine σ-algebra. (b) Es gilt F T = {A F : A {T < t} F t für alle t R + }. Denition Für eine Stoppzeit T bezeichnen wir mit F T := σ(f 0 {A {t < T } : t R + und A F t }) die σ-algebra aller (strikt) vor T beobachtbaren Ereignisse. Lemma Es sei t R + beliebig. (a) Für die Stoppzeit T = t gilt, dass F T = F t. (b) Für die Stoppzeit T = t gilt, dass F T = F t. (Für t = vgl. jeweis mit Denition 1.1.6). Lemma Es sei T eine Stoppzeit. (a) Es gilt F T F T. (b) T ist F T -messbar. Beweis. (a) Es gilt F 0 F T, und für t R +, A F t und s R + gilt F s, falls s t, (A {t < T }) {T s} = (A {T s} ) {T > t} F }{{}}{{} s, falls s > t. F s F t F s (b) Es gilt {T > t} F T für jedes t R +. Lemma Es seien S T zwei Stoppzeiten. (a) Es gilt F S F T. (b) Es gilt F S F T.

14 12 Lemma Es seien S, T zwei Stoppzeiten. Für jedes A F S gilt Beweis. A {S T }, A {S = T } F T und A {S < T } F T. (i) Es sei t R + beliebig. Nach Lemma ist S t bezüglich F S t messbar, und T t ist bezüglich F T t messbar. Auÿerdem gilt nach Lemma 1.3.9, dass F S t F t und F T t F t. Also sind S t und T t bezüglich F t messbar, und es folgt {S t T t} F t. Also gilt (A {S T }) {T t} = (A {S t}) {T t} {S t T t} F t, und somit A {S T } F T. (ii) Es gilt ( ) A {S < T } = A {S t < T } = ( ) A {S t} {t < T } FT }{{}. t Q + t Q + F t (iii) Nach Lemma gilt A {S = T } = A ( {S T } \ {S < T } ) = ( ) ( ) A {S T } \ A {S < T } FT. }{{}}{{} F T F T F T Lemma Ist (T n ) n N eine Folge von Stoppzeiten, dann gilt für die Stoppzeit T = n N T n, dass F T = n N F T n. Beweis. Für alle n N gilt T T n, und daher nach Lemma F T F Tn, so dass folgt F T n N F Tn. Nun sei A n N F T n beliebig. Dann gilt für alle t R + mit Lemma 1.3.5(b) ( ) A {T < t} = A {T n < t} = n N(A {T n < t}) F t, und somit A F T. n N

15 13 Lemma Es gelten die folgenden Aussagen: (a) Es seien (T n ) n N eine Folge von Stoppzeiten und (A n ) n N F eine Zerlegung von Ω mit A n F Tn für alle n N. Dann ist T := n N T n 1 An ebenfalls eine Stoppzeit. (b) Es seien S T Stoppzeiten und A F S. Dann ist ebenfalls eine Stoppzeit. R := S1 A + T 1 A c (c) Es seien T eine Stoppzeit und A F T. Dann ist T A := T 1 A + 1 A c ebenfalls eine Stoppzeit. Beweis. (a) Für alle t R + gilt {T t} = [ An {T n t} ] F t. n N (b) Folgt aus Teil (a), da A c F S F T nach Lemma 1.3.9(a). (c) Folgt aus Teil (b), da eine Stoppzeit ist. Lemma Es sei T eine Stoppzeit. Dann ist die Folge (T n ) n N deniert durch T n := k N k 2 n 1 { k 1 2 n T < k 2 n } + 1 {T = } eine Folge von Stoppzeiten, so dass T n (Ω) höchstens abzählbar für jedes n N ist, und T n T für n gilt.

16 14 Beweis. Es gilt für jedes n N { k 1 T < k } { = T k 1 } 2 n 2 n 2 n }{{} F (k 1)/2 n F k/2 n {T < k2 } F }{{ n k/2 n, } F k/2 n k N und {T = } F. Also ist die Folge (T n ) n N nach Lemma (a) eine Folge von Stoppzeiten. Per Konstruktion gilt auÿerdem, dass T n (Ω) höchstens abzählbar für jedes n N ist, und T n T für n gilt. Satz Es seien X ein R-wertiger, adaptierter, rechtsstetiger Prozess mit monoton wachsenden Pfaden und a R eine Konstante. Dann ist eine Stoppzeit. Nun sei (E, ρ) ein metrischer Raum. T := inf{t R + : X t a} Satz Es seien X ein E-wertiger, adaptierter, rechtsstetiger Prozess und O E eine oene Menge. Dann ist eine Stoppzeit. T O := inf{t R + : X t O} Beweis. Wir werden zeigen, dass für jedes t R + gilt {T O < t} = s [0,t) Q + {X s O}. Da X adaptiert ist, folgt dann {T O < t} F t, und somit ist T O nach Satz eine Stoppzeit. Ohne Einschränkung nehmen wir an, dass t (0, ). (i) Es sei ω Ω mit X s (ω) O für ein s [0, t) Q +. Dann gilt T O (ω) < t aufgrund der Denition von T O. (ii) Es sei ω Ω mit T O (ω) < t beliebig. Dann existiert ein u [0, t) mit X u (ω) O. Da die Menge O oen ist, existiert ein ɛ > 0, so dass x O für alle x E mit ρ(x, X u (ω)) ɛ. Wegen der Rechtsstetigkeit von s X s (ω) existiert ein δ > 0, so dass ρ(x s (ω), X u (ω)) ɛ für alle s [u, ) mit s u δ. Wegen u < t existiert ein s Q + mit u s < t und s u δ, und es folgt X s (ω) O.

17 15 Satz Es seien X ein E-wertiger, adaptierter, stetiger Prozess und A E eine abgeschlossene Menge. Dann ist eine Stoppzeit. Beweis. Eventuell Übung. T A := inf{t R + : X t A} 1.4 Die optionale Sigma-Algebra Es sei (Ω, F, F, P) eine stochastische Basis. Denition (a) Wie denieren die optionale σ-algebra O über Ω R + durch O := σ(x : Ω R + R X ist adaptiert und càdlàg). (b) Ein O-messbarer Prozess X heiÿt ein optionaler Prozess. (c) Eine zufällige Menge A O heiÿt eine optionale Menge. Lemma Die Menge der optionalen Prozesse ist ein Vektorraum. Denition Für einen Prozess X und eine Stoppzeit T denieren wir den gestoppten Prozess X T durch X T t := X T t, t R +. Satz (über monotone Klassen). Es seien D eine Menge und M H Mengensysteme von beschränkten Funktionen f : D R, so dass gilt: (i) H ist ein Vektorrraum mit 1 D H. (ii) Für jede Folge (f n ) n N H mit f n f für eine beschränkte Funktion f : D R gilt f H. (iii) Für f, g M gilt fg M. Dann gilt für jede beschränkte σ(m )-messbare Funktion f : D R, dass f H.

18 16 Beweis. Siehe [Sha88, Seite 365] oder [Ste01, Section 12.6]. Satz Es sei X ein optionaler Prozess. Dann gelten die folgenden Aussagen: (a) X ist messbar. (b) Für jede Stoppzeit T ist X T 1 {T < } eine F T -messbare Zufallsvariable. (Folglich ist X adaptiert.) (c) Für jede Stoppzeit T ist X T ebenfalls ein optionaler Prozess. Beweis. Nach dem Satz über monotone Klassen (Satz 1.4.4) genügt es, die Eigenschaften (a), (b) und (c) für jeden adaptierten càdlàg-prozess X zu beweisen. (a) Wir denieren die Prozesse (X n ) n N durch {X n B} = k N X n := k N X k 2 n 1 [ k 1 2 n, k 2 n ), n N. Da X adaptiert ist, gilt für n N und B B(R) [ [ k 1 {X k/2 n B} }{{} F k/2 n F 2, k ) ] F B(R n 2 }{{ n + ). } B(R + ) Da X rechtsstetig ist, gilt nach Lemma 1.2.2, dass X n X auf Ω R +, und folglich ist X ein F B(R + )-messbarer Prozess. (b) Es sei (T n ) n N die Folge von Stoppzeiten aus Lemma Da X adaptiert ist, gilt für n N, B B(R) und t R + {X Tn B} {T n t} = [ ] {Xk/2 n B} {T n = k/2 n } Ft. }{{} k N k/2 n t F k/2 n F t Also ist für jedes n N die Zufallsvariable X Tn 1 {Tn< } bezüglich F Tn messbar. Da X rechtsstetig ist und T n T, gilt X Tn 1 {Tn< } X T 1 {T < } auf Ω R +. Mit Lemma (b) folgt, dass X T 1 {T < } bezüglich F T = n N F T n messbar ist. (c) Es gilt X T t = X t T, t R +, und somit ist X T ebenfalls càdlàg. Auÿerdem ist X T t nach Teil (b) für jedes t R + bezülich F t T, und damit auch bezüglich F t messbar. Folglich ist X T ebenfalls adaptiert, und damit insbesondere optional.

19 17 Denition Für zwei Stoppzeiten S, T denieren wir die stochastischen Intervalle Auÿerdem setzen wir [T ] := [T, T ]. [S, T ] := {(ω, t) Ω R + : S(ω) t T (ω)}, [S, T [ := {(ω, t) Ω R + : S(ω) t < T (ω)}, ]S, T ] := {(ω, t) Ω R + : S(ω) < t T (ω)}, ]S, T [ := {(ω, t) Ω R + : S(ω) < t < T (ω)}. Lemma Es seien S, T zwei Stoppzeiten. (a) Für jede F S -messbare Zufallsvariable Y sind die Prozesse Y 1 [[S,T ]], Y 1 [[S,T [[, Y 1 ]S,T ]], Y 1 ]]S,T [[ optional. (b) Die stochastischen Intervalle [S, T ], [S, T [, ]S, T ], ]S, T [ sind optionale Mengen. Beweis. (a) Wir zeigen, dass X = Y 1 ]]S,T ] optional ist. Hierzu dürfen wir annehmen, dass Y = 1 A für ein A F S. (Warum?) Wir denieren die Stoppzeiten (S n ) n N, (T n ) n N durch S n := S + 1 n, T n := T + 1 n, und die càdlàg-prozesse (X n ) n N durch X n := 1 A 1 [[Sn,T n[[. Dann gilt für n N und t R + X n t = 1 A {Sn t}1 {Tn>t} F t, da A F S F Sn. Folglich ist X n für jedes n N adaptiert, und somit optional. Da X n X auf Ω R +, ist X ebenfalls optional. (b) Folgt aus Teil (a). Satz Jeder adaptierte, linksstetige Prozess X ist optional.

20 18 Beweis. Wir denieren die Prozesse (X n ) n N durch X n := k N X k 1 2 n 1 [ k 1 2 n, k 2 n ), n N. Nach Lemma ist X n für jedes n N optional. Da X linksstetig ist, gilt nach Lemma 1.2.3, dass X n X auf Ω R +, und folglich ist X ein optionaler Prozess. Korollar Es sei X ein adaptierter càdlàg-prozess. Dann sind die beiden Prozesse X und X optional. Beweis. Der Prozess X ist linksstetig, und nach Lemma adaptiert. Also folgt mit Satz 1.4.8, dass X optional ist. Da X nach Denition optional ist, folgt ebenfalls, dass X = X X optional ist. Denition (a) Eine zufällige Menge A heiÿt dünn, falls eine Folge (T n ) n N von Stoppzeiten existiert, so dass A = n N [T n ]. (b) Falls [T n ] [T m ] = für alle n, m N mit n m, dann heiÿt (T n ) n N eine ausschöpfende Folge für A. Bemerkung Es sei A eine dünne Menge. (a) A ist optional. (b) Für jedes ω Ω ist der Schnitt {t R + : (ω, t) A} höchstens abzählbar. Lemma Jede dünne Menge A besitzt eine ausschöpfende Folge von Stoppzeiten. Beweis. Es existiert eine Folge von Stoppzeiten (T n ) n N, so dass A = n N [T n ]. Wir denieren C n Ω, n N duch Nach Lemma gilt C n := n 1 m=1 {T m T n }, n N. C n F Tn, n N. Also ist nach Lemma die Folge (S n ) n N deniert durch S n = (T n ) Cn, n N eine Folge von Stoppzeiten, und nach Konstruktion ist sie ausschöpfend für A.

21 19 Satz Es sei X ein adaptierter càdlàg-prozess. Dann ist { X 0} eine dünne Menge. Beweis. Siehe [JS03, Prop. I.1.32]. Korollar Es sei X ein adaptierter càdlàg-prozess. Dann existiert eine ausschöpfende Folge von Stoppzeiten (T n ) n N, so dass { X 0} = n N[T n ]. 1.5 Prozesse mit unabhängigen Zuwächsen Es sei (Ω, F, F, P) eine stochastische Basis. Denition Es sei X ein adaptierter càdlàg-prozess. (a) X heiÿt ein Prozess mit unabhängigen Zuwächsen (PUZ) (bezüglich F), falls X 0 = 0 und für alle 0 s t die Zufallsvariable X t X s und die σ-algebra F s unabhängig sind. (b) X heiÿt ein Prozess mit unabhängigen und stationären Zuwächsen (PUSZ) (bezüglich F), falls X ein PUZ ist, und für alle 0 s t gilt X t X s d = X t s. (c) Ein t R + heiÿt eine feste Sprungzeit von X, falls P( X t 0) > 0. (d) Wir bezeichnen mit J R + die Menge aller festen Sprungzeiten von X. Bemerkung Ein PUSZ wird auch oft ein Lévy-Prozess genannt. Denition Ein stetiger, adaptierter Prozess W mit W 0 = 0 heiÿt ein F-Wiener-Prozess (oder kurz, ein Wiener-Prozess), falls gilt: (i) E[W 2 t ] < und E[W t ] = 0 für alle t R +. (ii) W t W s und F s sind für alle 0 s < t unabhängig. Denition Es sei W ein Wiener-Prozess. (a) Wir nennen σ 2 : R + R +, σ 2 t = E[W 2 t ] die Varianzfunktion von W. (b) Gilt σ 2 t = t für alle t R +, so nennen wir W einen Standard-Wiener-Prozess. Beispiel Ein Wiener-Prozess W ist ein PUZ. Denition Ein adaptierter càdlàg-prozess N heiÿt ein Punktprozess, falls N N 0 und N {0, 1}.

22 20 Denition Ein Punktprozess N heiÿt ein verallgemeinerter F-Poisson-Prozess (oder kurz, ein verallgemeinerter Poisson-Prozess), falls gilt: (i) E[N t ] < für alle t R +. (ii) N t N s und F s sind für alle 0 s < t unabhängig. Denition Es sei N ein verallgemeinerter Poisson-Prozess. (a) Wir nennen a : R + R +, a t = E[N t ] die Intensität von N. (b) Ist a stetig, so nennen wir N einen Poisson-Prozess. (c) Gilt a t = t für alle t R +, so nennen wir N einen Standard-Poisson-Prozess. Beispiel Ein verallgemeinerter Poisson-Prozess N ist ein PUZ. Lemma Es sei X ein adaptierter càdlàg-prozess. Dann ist J höchstens abzählbar. Lemma Es sei X ein PUSZ. Dann gilt J =. 1.6 Lokalisierung Es sei (Ω, F, F, P) eine stochastische Basis. Denition Eine Folge (T n ) n N von Stoppzeiten heiÿt eine lokalisierende Folge, falls T n. Denition Es sei C eine Klasse von Prozessen. Ein Prozess X gehört zur lokalisierten Klasse C loc, falls eine lokalisierende Folge (T n ) n N mit X Tn C für jedes n N existiert. In diesem Fall nennen wir (T n ) n N eine lokalisierende Folge für X. Bemerkung Es gilt C C loc. (Für X C wählen wir T n =, n N als lokalisierende Folge.) Bemerkung Für zwei Klassen C C gilt C loc C loc. Denition Eine Klasse C von Prozessen heiÿt stabil unter Stoppen, falls X T C für alle X C und jede Stoppzeit T.

23 21 Lemma Es sei C eine Klasse von Prozessen, die stabil unter Stoppen ist. Dann gelten die folgenden Aussagen: (a) C loc ist ebenfalls stabil unter Stoppen. (b) (C loc ) loc = C loc. Lemma Es seien C, C zwei Klassen von Prozessen, die stabil unter Stoppen sind. Dann gilt (C C ) loc = C loc C loc. Lemma Es sei X ein adaptierter càdlàg-prozess. Dann ist (T n ) n N deniert durch eine lokalisierende Folge von Stoppzeiten. T n := inf{t R + : X t > n} Beweis. Nach Satz ist (T n ) n N eine Folge von Stoppzeiten, und nach Satz gilt T n.

24 Kapitel 2 Martingale und lokale Martingale 2.1 Die bedingte Erwartung Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Denition Es sei p [1, ) beliebig. (a) Wir bezeichnen mit L p = L p (Ω, F, P) den Raum aller Zufallsvariablen X : Ω R, so dass E [ X p] 1/p <. (b) Wir denieren L p = L p (Ω, F, P) durch L p := L p /N, wobei N = {X : X ist eine Zufallsvariable mit X = 0 P-fast überall}. Satz Es seien X L 1 (F ) eine Zufallsvariable und G F eine Sub-σ- Algebra. Dann existiert eine P-fast sicher eindeutig bestimmte Zufallsvariable Y L 1 (G ), so dass E[XZ] = E[Y Z] für jede beschränkte, G -messbare Zufallsvariable Z. Wir setzen E[X G ] := Y und nennen diese P-fast sicher eindeutig bestimmte Zufallsvariable die bedingte Erwartung von X unter G. Im Folgenden sei G F eine Sub-σ-Algebra. Satz Für X, Y L 1 und α, β R gilt E[αX + βy G ] = α E[X G ] + β E[Y G ] P-fast sicher. 22

25 23 Bemerkung Also können wir X E[X G ] als lineare Abbildung zwischen den Vektorräumen L 1 (F ) und L 1 (G ) betrachten. Satz Es seien X L 1 (F ) und Y L 1 (G ) intergrierbare Zufallsvariablen. Dann sind folgende Aussagen äquivalent: (i) Es gilt Y = E[X G ] fast sicher. (ii) Es gilt E[X1 A ] = E[Y 1 A ] für alle A G. Satz Es sei X L 1 (F ) eine Zufallsvariable. Dann gelten folgende Aussagen: (a) Gilt X 0 fast sicher, dann ist auch E[X G ] 0 fast sicher. (b) Gilt X C fast sicher für ein C 0, dann ist auch E[X G ] C fast sicher. (c) Sind X und G unabhängig, dann gilt E[X G ] = E[X] fast sicher. (d) Es gilt E[X {Ω, }] = E[X] fast sicher. (e) Es gilt E[X G ] = X fast sicher genau dann, wenn X eine G -messbare Zufallsvariable ist. (f) Ist H G eine weitere Sub-σ-Algebra, so gilt E[E[X G ] H ] = E[X H ] fast sicher. (g) Es gilt E[E[X G ]] = E[X]. (h) Es sei Y eine weitere G -messbare Zufallsvariable, so dass XY L 1. Dann gilt E[XY G ] = Y E[X G ] fast sicher. (i) Es sei ϕ : R R eine konvexe Funktion, so dass ϕ(x) L 1. Dann gilt fast sicher ϕ(e[x G ]) E[ϕ(X) G ]. (Jensen-Ungleichung) (j) Es gilt E[X G ] E[ X G ] fast sicher. Bemerkung Die bedingte Erwartung kann auch für beliebige nichtnegative F -messbare Zufallsvariablen X 0 deniert werden, und dann gilt E[X G ] 0 fast sicher. Satz (Satz von der monotonen Konvergenz). Es sei (X n ) n N eine monoton wachsende Folge von nichtnegativen F -messbaren Zufallsvariablen X n 0. Dann gilt [ E lim X ] n G = lim E[X n G ] fast sicher. n n

26 24 Satz (Lemma von Fatou). Es sei (X n ) n N eine Folge von nichtnegativen F - messbaren Zufallsvariablen X n 0. Dann gilt [ E lim inf n X ] n G lim inf E[X n G ] fast sicher. n Satz (Konvergenzsatz von Lebesgue). Es sei (X n ) n N eine Folge von F - messbaren Zufallsvariablen, so dass X n X fast sicher für eine F -messbare Zufallsvariable X. Weiterhin existiere eine Zufallsvariable Y L 1 (F ), so dass X n Y fast sicher für alle n N. Dann gelten folgende Aussagen: (a) Es gilt X n X in L 1 (F ). (b) Es gilt E[X n G ] E[X G ] fast sicher und in L 1 (G ). 2.2 Gleichmäÿige Integrierbarkeit und Martingale in diskreter Zeit Denition Eine Menge X von Zufallsvariablen heiÿt gleichmäÿig integrierbar, falls lim sup E [ ] X 1 { X N} = 0. N X X Lemma Für eine Zufallsvariable X sind folgende Aussagen äquivalent: (i) Es gilt X L 1. (ii) Es gilt lim N E [ X 1 { X N} ] = 0. Korollar Ist eine Menge X von Zufallsvariablen gleichmäÿig integrierbar, dann gilt X L 1. Beweis. Es sei X X beliebig. Dann gilt lim E[ ] X 1 { X N} lim sup E [ ] Y 1 { Y N} = 0. N N Y X Also folgt mit Lemma 2.2.2, das X L 1. Korollar Es sei X eine Menge von Zufallsvariablen. Falls eine Zufallsvariable Y L 1 mit X Y für alle X X existiert, dann ist X gleichmäÿig integrierbar.

27 25 Beweis. Mit Lemma folgt lim sup E [ ] X 1 { X N} lim E[ ] Y 1 { Y N} = 0. N X X N Satz Für eine Menge X von Zufallsvariablen sind folgende Aussagen äquivalent: (i) X ist gleichmäÿig integrierbar. (ii) Es gilt lim sup E [ ( X N) +] = 0. N X X (iii) Es gilt sup X X E[ X ] <, und zu jedem ɛ > 0 existiert ein δ > 0, so dass für jedes A F mit P(A) δ gilt sup E[ X 1 A ] ɛ. X X (iv) Es existiert messbare Funktion ϕ : R + R + mit lim x ϕ(x) x =, so dass sup E[ϕ( X )] <. X X In diesem Fall kann die Funktion ϕ aus (iv) monoton wachsend und konvex gewählt werden. Beweis. Folgt aus [Kle06, Satz 6.17, Satz 6.19 und Satz 6.24]. Korollar Es sei X eine Menge von Zufallsvariablen. Wir nehmen an, dass ein p > 1 mit sup E[ X p ] <. X X existiert. Dann ist X gleichmäÿig integrierbar. Beweis. Folgt aus Satz mit ϕ(x) = x p. Lemma Es sei Y L 1 eine Zufallsvariable. Dann ist die Familie gleichmäÿig integrierbar. X = {E[Y G ] : G ist eine Sub-σ-Algebra von F }

28 26 Satz (Allgemeine Version des Konvergenzsatzes von Lebesgue). Es seien (X n ) n N L 1 eine Folge von Zufallsvariablen, und es sei X eine Zufallsvariable. Dann sind folgende Aussagen äquivalent: (i) Es gilt X n L 1 X. (ii) Es gilt X n P X und die Folge (X n ) n N ist gleichmäÿig integrierbar. Beweis. Siehe [Kle06, Satz 6.25]. Satz (Konvergenzsatz für gleichmäÿig integrierbare Martingale). Es seien (G n ) n N Sub-σ-Algebren mit G m G n für alle m, n N mit m n. Weiterhin sei M = (M n ) n N ein gleichmäÿig integrierbares (G n )-Martingal; das heiÿt die Familie M ist gleichmäÿig integrierbar und E[M n G m ] = M m für alle m n. Dann existiert eine Zufallsvariable X L 1 f.s. L, so dass M n X und M 1 n X für n, sowie M n = E[X G n ] für jedes n N. Beweis. Siehe [JP04, Thm. 27.3]. Satz Es seien (G n ) n N Sub-σ-Algebren mit G n G m für alle n, m N mit n m. Wir setzen G := σ( n N G n). Dann gilt für jede integrierbare Zufallsvariable X L 1 (G ), dass E[X G n ] f.s. X und E[X G n ] L1 X für n. Beweis. Folgt aus dem Konvergenzsatz für gleichmäÿig integrierbare Martingale (Satz 2.2.9); Details eventuell Übung. Satz (Konvergenzsatz für Rückwärts-Martingale). Es seien (G n ) n N Sub-σ- Algebren mit G n G m für alle n, m N mit n m. Weiterhin sei M = (M n ) n N ein (G n )-Rückwärts-Martingal; das heiÿt E[M m G n ] = M n für alle m n. Dann existiert eine Zufallsvariable X L 1 f.s. L, so dass M n X und M 1 n X für n. Beweis. Siehe [JP04, Thm. 27.4].

29 27 Satz Es seien (G n ) n N Sub-σ-Algebren mit G n G m für alle n, m N mit n m. Wir setzen G := n N G n. Dann gilt für jede integrierbare Zufallsvariable X L 1 (G ), dass E[X G n ] f.s. X und E[X G n ] L1 X für n. Beweis. Folgt aus dem Konvergenzsatz für Rückwärts-Martingale (Satz ); Details eventuell Übung. 2.3 Martingale Es sei (Ω, F, F, P) eine stochastische Basis. Denition Es sei X ein R-wertiger adaptierter càdlàg-prozess mit X t L 1 für alle t R +. (a) X ist ein F-Martingal (oder kurz, ein Martingal), falls E[X t F s ] = X s (P-fast sicher) für alle 0 s t. (b) X ist ein F-Submartingal (oder kurz, ein Submartingal), falls E[X t F s ] X s (P-fast sicher) für alle 0 s t. (c) M ist ein F-Supermartingal (oder kurz, ein Supermartingal), falls Lemma E[X t F s ] X s (P-fast sicher) für alle 0 s t. (a) Die Menge aller F-Martingale ist ein Vektorraum. (b) Die Menge aller F-Submartingale ist ein konvexer Kegel. (c) Die Menge aller F-Supermartingale ist ein konvexer Kegel. Beispiel Es sei W ein Wiener-Prozess mit Varianzfunktion σ 2. Dann ist W ein Martingal.

30 28 Beispiel Es sei N ein verallgemeinerter Poisson-Prozess mit Intensität a. Dann ist X := N a ein Martingal. Lemma (a) Jeder adaptierte, monoton wachsende càdlàg-prozess X mit X t L 1 für alle t R + ist ein Submartingal. (b) Es seien M ein Martingal und ϕ : R R eine stetige, konvexe Funktion, so dass ϕ(m t ) L 1 für alle t R +. Dann ist der Prozess ϕ(m) ein Submartingal. (c) Es seien X ein Submartingal und ϕ : R R eine stetige, konvexe, monoton wachsende Funktion, so dass ϕ(x t ) L 1 für alle t R +. Dann ist der Prozess ϕ(x) ein Submartingal. Beweis. (a) Für alle 0 s t gilt E[X t F s ] E[X s F s ] = X s. (b) ϕ(m) ist ebenfalls ein adaptierter càdlàg-prozess. Für alle 0 s t gilt nach der Jensen-Ungleichung E[ϕ(M t ) F s ] ϕ(e[m t F s ]) = ϕ(m s ). (c) ϕ(x) ist ebenfalls ein adaptierter càdlàg-prozess. Für alle 0 s t gilt wegen der Jensen-Ungleichung und der Monotonie von ϕ E[ϕ(X t ) F s ] ϕ(e[x t F s ]) ϕ(x s ). Satz Es sei N ein R-wertiger adaptierter Prozess mit N t L 1 für alle t R +, so dass E[N t F s ] = N s (P-fast sicher) für alle 0 s t. Dann existiert ein F-Martingal M, welches eine Version von N ist. Beweis. Siehe [KS91, Thm ]. Lemma Es seien G = (G t ) t R+ eine Filtration und M ein G-adaptierter càdlàg-prozess mit M t L 1 für alle t R +, so dass E[M t G s ] = M t (P-fast sicher) für alle 0 s t. Dann ist M ein Martingal auf der stochastischen Basis (Ω, F, G +, P).

31 29 Beweis. Es seien 0 s < t beliebig. Wegen Satz und der Rechtsstetigkeit der Pfade von M gilt fast sicher [ ] E[M t G s+ ] = E M t G s+1/n = lim E[M t G s+1/n ] = lim M s+1/n = M s. n n n N Denition Es sei X eine Zufallsvariable. Wir sagen, dass ein Prozess X die Zufallsvariable X als Grenzwert besitzt, falls X t f.s. X für t. Bemerkung Besitzt ein Prozess X einen Grenzwert X, dann ist für jede Stoppzeit T die Zufallsvariable X T wohldeniert. Satz Jedes Submartingal X mit sup t R+ E[X + t ] < besitzt einen Grenzwert. Beweis. Siehe [RY05, Theorem II.2.10]. Denition (a) Ein Prozess X heiÿt gleichmäÿig integrierbar, falls die Familie X = {X t : t R + } gleichmäÿig integrierbar ist. (b) Wir bezeichnen mit M die Menge aller gleichmäÿig integrierbaren Martingale. Lemma M ist ein Vektorraum. Lemma Für einen Prozess M sind folgende Aussagen äquivalent: (i) M ist ein Martingal. (ii) Es gilt M t M für alle t R +. Beweis. (i) (ii): Es sei t R + beliebig. Dann ist M t ebenfalls ein adaptierter càdlàg-prozess mit M t s = M s t L 1 für alle s R +. Für 0 r s gilt E[Ms t F r ] = E[M s t F r ] { E[M s t F r t ] = M r t = M t = r, falls r t, E[M t F t ] = M t = M r t = Mr, t falls r > t ( t < s). Also ist M t ein Martingal. Für jedes s R + gilt M t s = M s t = E[M t F s t ],

32 30 und mit Lemma folgt, dass M t M. (ii) (i): Nach Voraussetzung ist M ein adaptierter càdlàg-prozess mit M t L 1 für alle t R +. Für 0 s t gilt E[M t F s ] = E[M t t F s ] = M t s = M s. Satz Es sei M ein adaptierter càdlàg-prozess. Dann sind folgende Aussagen äquivalent: (i) Es gilt M M. (ii) M besitzt einen Grenzwert M L 1 (F ), und es gilt M t = E[M F t ] für alle t R +. In diesem Fall gilt M t L 1 M für t. Beweis. (ii) (i): Wegen M t = E[M F t ] für alle t R + ist M nach Lemma gleichmäÿig integrierbar. Auÿerdem gilt für alle 0 s t E[M t F s ] = E[E[M F t ] F s ] = E[M F s ] = M s. (i) (ii): Aus der gleichmäÿigen Integrierbarkeit von M folgt, dass sup t R+ E[M t + ] <, und somit besitzt M nach Satz einen Grenzwert M. Dieser Limes ist F -messbar, und nach dem verallgemeinerten Konvergenzsatz von Lebesgue (Satz 2.2.8) folgt M L 1 L (F ) und M 1 t M. Nun seien s R + und A F s beliebig. Da M ein Martingal ist, gilt E[M s 1 A ] = E[M t 1 A ] für alle t [s, ). Wegen M t L 1 M gilt auÿerdem Also folgt und somit M s = E[M F s ]. E[M t 1 A ] E[M 1 A ] für t. E[M s 1 A ] = lim t E[M t 1 A ] = E[M 1 A ], Satz Es sei Y L 1 (F ) beliebig. Dann existiert ein bis auf Ununterscheidbarkeit eindeutig bestimmtes Martingal M M, so dass M t = E[Y F t ] für alle t R + und M = E[Y F ].

33 31 Beweis. Existenz: Für jedes t R + sei N t eine Version von E[Y F t ]. Nach Satz existiert ein Martingal M, welches eine Version von N, und nach Lemma gilt M M. Also besitzt M nach Satz einen Grenzwert M, und nach Satz gilt fast sicher M t = E[Y F t ] E[Y F ] für t. Also folgt M = E[Y F ]. Eindeutigkeit: Es seien M, N M, so dass M t = N t = E[Y F t ] fast sicher für alle t R +. Dann ist M eine Version von N, und mit Lemma folgt, dass M und N ununterscheidbar sind. Korollar Für M, N M sind folgende Aussagen äquivalent: (i) Es gilt M = N bis auf Ununterscheidbarkeit. (ii) Es gilt M = N fast sicher. Beweis. Folgt aus den Sätzen und Denition (a) Ein Martingal M M heiÿt p-fach integrierbar für ein p (1, ), falls M L p. (b) Im Fall p = 2 nennen wir M auch quadratintegrierbar. (c) Für p (1, ) bezeichnen wir mit H p die Menge aller p-fach integrierbaren Martingale. Bemerkung Für alle p, q (1, ) mit p q gilt H q H p M. Lemma Für jedes p (1, ) ist H p ein Vektorraum. Satz Es sei M H p für ein p (1, ). Dann gilt sup t R+ E[ M t p ] <. Beweis. Für jedes t R + gilt nach der Jensen-Ungleichung E[ M t p ] = E[ E[M F t ] p ] E[E[ M p F t ]] = E[ M p ], und daher sup t R+ E[ M t p ] <. Lemma Es seien S, T zwei Stoppzeiten. Dann gilt für jede integrierbare Zufallsvariable X L 1 E[X F S ]1 {S=T } = E[X F T ]1 {S=T }.

34 32 Satz Für jedes M M und jede Stoppzeit T gilt M T = E[M F T ]. Beweis. Wir unterteilen den Beweis in zwei Schritte: (i) Zunächst sei T von der Form T = k N t k1 {T =tk } für eine Folge (t k ) k N R +. Mit Satz und Lemma folgt M T = k N M tk 1 {T =tk } = k N E[M F tk ]1 {T =tk } = k N E[M F T ]1 {T =tk } = E[M F T ]. (ii) Nun sei T eine beliebige Stoppzeit. Nach Lemma existiert eien monoton fallende Folge (T n ) n N von Stoppzeiten mit abzählbar vielen Werten, so dass T n T. Wegen der Rechststetigkeit der Pfade von M folgt mit Teil (i), Satz sowie Lemma fast sicher [ ] M T = lim M Tn = lim E[M F Tn ] = E M F Tn = E[M F T ]. n n n N Satz (Stoppsatz von Doob). Es sei M ein adaptierter càdlàg-prozess. Dann sind folgende Aussagen äquivalent: (i) Es gilt M M. (ii) M besitzt einen Grenzwert M, und für jede Stoppzeit T gilt M T E[M T ] = E[M 0 ]. L 1 und (iii) M besitzt einen Grenzwert M, und für zwei Stoppzeiten S T gilt M T L 1 und E[M T F S ] = M S. Beweis. (i) (ii): Nach Satz besitzt M einen Grenzwert M. Es sei T eine Stoppzeit. Nach Satz gilt M T = E[M F T ] L 1, und es folgt E[M T ] = E[E[M F T ]] = E[M ] = E[E[M F 0 ]] = E[M 0 ]. (ii) (iii): Es sei A F S beliebig. Dann ist R := S1 A + T 1 A c nach Lemma ebenfalls eine Stoppzeit, und wir erhalten E[M T 1 A + M T 1 A c] = E[M T ] = E[M 0 ] = E[M R ] = E[M S 1 A + M T 1 A c].

35 33 Es folgt E[M T 1 A ] = E[M S 1 A ] für alle A F S, und somit E[M T F S ] = M S. (iii) (i): Nach Voraussetzung gilt M L 1 und M t = E[M F t ] für alle t R +. Also folgt nach Satz , dass M M. Korollar Es seien M H 2 und S T zwei Stoppzeiten. (a) Es gilt E[(M T M S ) 2 F S ] = E[M 2 T M 2 S F S]. (b) Es gilt E[(M T M S ) 2 ] = E[M 2 T ] E[M 2 S ]. Korollar (a) Die Klasse M ist stabil unter Stoppen. (b) Die Klasse C aller Martingale ist stabil unter Stoppen. (c) Für jedes p (1, ) ist die Klasse H p stabil unter Stoppen. Beweis. (a) Es seien M M und T eine Stoppzeit. Dann ist M T ein adaptierter càdlàg- Prozess mit Grenzwert M T = M T. Für eine weitere beliebige Stoppzeit S gilt nach dem Stoppsatz von Doob (Satz ), dass MS T = M S T L 1 und E[M T S ] = E[M S T ] = E[M 0 ] = E[M T 0 ]. Also gilt nach dem Stoppsatz von Doob (Satz ), dass M T M. (b) Es seien M ein Martingal und T eine Stoppzeit. Nach Lemma gilt M t M für alle t R +. Nach Teil (a) folgt (M T ) t = M T t = (M t ) T M für alle t R +. Also ist M T nach Lemma ein Martingal. (c) Es seien M H p und T eine Stoppzeit. Wegen M L p gilt nach Satz , dass M T = M T = E[M F T ] L p, und somit M T H p. Denition Für einen rechtsstetigen Prozess X denieren wir die R + -wertige Zufallsvariable X := sup t R + X t = sup t Q + X t.

36 34 Satz (Doob'sche Martingal-Ungleichung). Für alle M M und λ > 0 gilt Beweis. Nach Satz ist P(M > λ) E[ M 1 {M >λ}] λ E[ M ]. λ T := inf{t R + : M t > λ} eine Stoppzeit. Wegen {T < } = {M > λ} folgt mit Satz λp(m > λ) + E[ M 1 {M λ}] = E[λ1 {M >λ} + M 1 {M λ}] = E[λ1 {T < } + M 1 {T = } ] E[ M T 1 {T < } + M T 1 {T = } ] = E[ M T ] = E[ E[M F T ] E[ M ]. Hieraus folgt λp(m > λ) E[ M ] E[ M 1 {M λ}] = E[ M 1 {M >λ}], woraus sich die beiden Ungleichungen ergeben. Lemma Es seien p (0, ) und X 0 eine nichtnegative Zufallsvariable. Dann gilt E[X p ] = 0 pλ p 1 P(X > λ)dλ. Satz (Doob'sche L p -Ungleichung). Es seien p (1, ) und M H p. Dann gilt E[(M ) p ] 1/p p p 1 E[ M p ] 1/p. Beweis. Mit q = p gilt = 1. Es sei n N beliebig. Mit einer Rechnung wie im p 1 p q Beweis von Lemma , der Doob'schen Martingal-Ungleichung (Satz ) und der Hölder-Ungleichung folgt [ M n ] [ n ] n E[(M n) p ] = E pλ p 1 dλ = E pλ p 1 1 {M >λ}dλ = pλ p 1 P(M > λ)dλ n [ M n ] pλ p 2 E[ M 1 {M >λ}]dλ = pe M λ p 2 dλ = pe [ M (M ] n) p p 1 = p p 1 E[ M (M n) p 1] p p 1 E[ M p ] 1/p E[(M n) (p 1)q ] 1/q = p p 1 E[ M p ] 1/p E[(M n) p ] 1 1 p.

37 35 Multiplizieren wir beide Seiten mit E[(M n) p ] 1 p 1, so erhalten wir E[(M n) p ] 1/p Mit dem Satz von der monotonen Konvergenz folgt p p 1 E[ M p ] 1/p für jedes n N. E[(M ) p ] 1/p = lim n E[(M n) p ] 1/p p p 1 E[ M p ] 1/p. Korollar (Doob'sche L 2 -Ungleichung). Für jedes M H 2 gilt Beweis. Folgt aus Satz mit p = 2. E[(M ) 2 ] 1/2 2E[ M 2 ] 1/2. Denition Für p (1, ) denieren wir H p 0 := {M H p : M 0 = 0}, H p,c 0 := {M H p 0 : M ist stetig}. Weiterhin setzen wir H p := H p /N, H p 0 := H p 0 /N und H p,c 0 := H p,c 0 /N, wobei N := {M H p : M = 0 bis auf Ununterschiedbarkeit}. Satz Es sei p (1, ) beliebig. (a) H p versehen mit der Norm M H p = E[ M p ] 1/p ist ein Banachraum, und M E[ M p ] 1/p deniert eine äquivalente Norm auf H p. (b) H p 0 ist ein abgeschlossener Unterraum von Hp. (c) H p,c 0 ist ein abgeschlossener Unterraum von H p 0. (d) Es gilt die direkte Summenzerlegung H p = L p (F 0 ) H p 0. (e) H 2 ist ein Hilbertraum. (f) Es gilt die direkte Summenzerlegung H 2 = L 2 (F 0 ) H 2,c 0 H 2,d 0, wobei H2,d 0 := (H 2,c 0 ) im Hilbertraum H0 2. Bemerkung Also besitzt jedes M H 2 eine Zerlegung M = M 0 + M c + M d, wobei M c eine stetiges Martingal mit M c 0 = 0 ist, und M d ein rein unstetiges Martingal mit M d 0 = 0.

38 Lokale Martingale Denition (a) Jedes M M loc nennen wir ein lokales Martingal. (b) Jedes M H p loc Martingal. (c) Jedes M H 2 loc Lemma (a) M loc ist ein Vektorraum. (b) Für jedes p (1, ) ist H p loc für ein p (1, ) nennen wir ein lokal p-fach integrierbares nennen wir ein lokal quadratintegrierbares Martingal. ein Vektorraum. Satz Es gelten die folgenden Aussagen: (a) Jedes Martingal ist auch ein lokales Martingal. (b) Bezeichnet C die Klasse aller Martingale, so gilt C loc = M loc. Beweis. (a) Es sei M ein Martingal. Wir denieren (T n ) n N durch T n := n für n N. Dann ist (T n ) n N eine lokalisierende Folge von Stoppzeiten, und es gilt M Tn = M n M für jedes n N nach Lemma (b) Wegen M C gilt auch M loc C loc. Nach Teil (a) gilt C M loc. Da M nach Korollar stabil unter Stoppen ist, folgt mit Lemma 1.6.6, dass C loc (M loc ) loc = M loc. Satz Es existieren eine stochastische Basis (Ω, F, F, P) und ein lokales Martingal M, das kein Martingal ist. Satz Es sei M ein lokales Martingal mit M 0 L p (F 0 ) für ein p (1, ), so dass M lokal beschränkt ist. Dann gilt M H p loc.

39 37 Beweis. Nach Voraussetzung existieren lokalisierende Folgen (T n ) n N und (S n ) n N, so dass für jedes n N gilt M Tn M und ( M) Sn C n für eine Konstante C n R +. Nach Lemma ist (U n ) n N deniert durch U n := inf{t R + : M t > n} ein lokalisierende Folge von Stoppzeiten. Also ist (R n ) n N deniert durch R n := T n S n U n eine lokalisierende Folge von Stoppzeiten. Für jedes n N gilt nach Korollar und E [ M R n M Rn = (M Tn ) Sn Un M p ] [ = E MRn p] [ = E MRn + M Rn p] [( ) p ] E max{m0, n} + C n <, und somit M Rn H p. Korollar Es sei M ein stetiges, lokales Martingal mit M 0 L p (F 0 ) für ein p (1, ). Dann gilt M H p loc. Beweis. Folgt aus Satz Bemerkung Es sei W ein Standard-Wiener-Prozess. Dann ist W ein Martingal mit W / M, jedoch W H 2 loc. Denition Ein Prozess X gehört zur Klasse (D), falls die Familie gleichmäÿig integrierbar ist. X = {X T : T ist eine endliche Stoppzeit} Satz Für M M loc sind folgende Aussagen äquivalent: (i) Es gilt M M. (ii) M gehört zur Klasse (D). Beweis. (i) (ii): Nach Satz gilt M T = E[M F T ] für jede Stoppzeit T. Also gehört M nach Lemma zur Klasse (D).

40 38 (ii) (i): Es sei M M loc zur Klasse (D) gehörig. Dann ist M gleichmäÿig integrierbar. Es sei (T n ) n N eine lokalisierende Folge für M. Weiterhin seien 0 s t beliebig. Dann gilt für alle n N M s Tn = M Tn s = E[M Tn t F s ] = E[M t Tn F s ]. Da M zur Klasse (D) gehört, sind die beiden Folgen (M s Tn ) n N und (M t Tn ) n N f.s. f.s. f.s. gleichmäÿig integrierbar. Wegen T n gilt M s Tn M s und M t Tn M t. Nach nach dem verallgemeinerten Konvergenzsatz von Lebesgue (Satz 2.2.8) folgt M s, M t L 1 L und M 1 L s Tn M s, M 1 t Tn M t, und damit E[ E[M t Tn F s ] E[M t F s ] ] E[E[ M t Tn M t F s ]] = E[ M t Tn M t ] 0. Also gilt E[M t Tn F s ] L1 E[M t F s ]. Insgesamt folgt im Sinne der L 1 -Konvergenz E[M t F s ] = lim n E[M t Tn F s ] = lim n M s Tn = M s, was zeigt, dass M ein Martingal ist. Korollar Für jedes beschränkte M M loc gilt M M. Beweis. Folgt aus Satz

41 Kapitel 3 Previsible Sigma-Algebren und previsible Zeiten Es sei (Ω, F, F, P) eine stochastische Basis. 3.1 Die previsible Sigma-Algebra Denition (a) Wir denieren die previsible σ-algebra P über Ω R + durch P := σ(x : Ω R + R X ist adaptiert und linksstetig). (b) Ein P-messbarer Prozess X heiÿt ein previsibler Prozess. (c) Eine P-messbare zufällige Menge A heiÿt eine previsible Menge. Korollar Es gilt P O. Beweis. Dies folgt aus Satz Lemma Die Menge aller previsiblen Prozesse ist ein Vektorraum. Korollar Es sei X ein Prozess. (a) Ist X adaptiert und linksstetig, dann ist X auch previsibel. (b) Ist X previsibel, dann ist X auch optional. (c) Ist X optional, dann ist X auch adaptiert und messbar. 39

42 40 Beweis. (a) Folgt aus Denition (b) Folgt aus Korollar (c) Folgt aus Satz Satz Es gelten die folgenden Aussagen: (a) P = σ ( {A {0} : A F 0 } { [0, T ] : T ist eine Stoppzeit} ). (b) P = σ ( {A {0} : A F 0 } {A (s, t] : s < t und A F s } ). Beweis. Wir bezeichnen mit P und P die in (a) und (b) erzeugten σ-algebren. (i) Prozesse der Form X = 1 A {0} mit A F 0 und X = 1 [[0,T ]] mit einer Stoppzeit T sind linksstetig. Weiterhin sind sie adaptiert, denn für jedes t R + ist X t = 1 A 1 {t=0} bezüglich F 0 F t messbar bzw. X t = 1 {T t} Somit gilt P P. bezüglich F t messbar. (ii) Es seien s < t und A F s beliebig. Nach Lemma sind s A und t A Stoppzeiten. Also gilt und es folgt P P. A (s, t] =]s A, t A ] = [0, t A ] \ [0, s A ] P, (iii) Es sei X ein adaptierter, linksstetiger Prozess. Wir denieren die Prozesse (X n ) n N durch X n := X 0 1 {0} + k N X k 1 2 n 1 ( k 1 2 n, k 2 n ], n N. Da X adaptiert ist, gilt für n N und B B(R) ( {X n B} = ({X 0 B} {0}) {X }{{} B} k 1 2 n F k N 0 } {{ } F k 1 2 n ( k 1 2, k ]) P. n 2 n Da X linksstetig ist, gilt nach Lemma 1.2.3, dass X n X auf Ω R +, und folglich ist X ein P -messbarer Prozess. Dies beweist P P.

43 41 Satz Es sei X ein previsibler Prozess. Dann gelten die folgenden Aussagen: (a) X T 1 {T < } ist F T -messbar für jede Stoppzeit T. (b) X T ist previsibel für jede Stoppzeit T. Beweis. Nach dem Satz über monotone Klassen (Satz 1.4.4) genügt es, die Eigenschaften (a) und (b) für folgende Prozesse zu beweisen: (1) Für alle X = 1 A {0} mit A F 0. Hierzu sei T eine Stoppzeit. Dann ist X T 1 {T < } = 1 A 1 {T =0} = 1 A {T =0} gemäÿ Denition messbar bezüglich F T, so dass (a) erfüllt ist. Da X adaptiert und linksstetig ist, ist X T auch adaptiert und linksstetig, so dass (b) gilt. (2) Für alle X = 1 A (s,t] mit s, t R +, so dass s < t, und A F s. Hierzu sei T eine Stoppzeit. Dann ist X T 1 {T < } = 1 A 1 {T (s,t]} = 1 A ( 1{T >s} 1 {T >t} ) = 1A {s<t } 1 A {t<t } gemäÿ Denition messbar bezüglich F T, so dass (a) erfüllt ist. Da X adaptiert und linksstetig ist, ist X T auch adaptiert und linksstetig, so dass (b) gilt. Satz Es seien S, T zwei Stoppzeiten und Y eine F S -messbare Zufallsvariable. Dann ist der Prozess Y 1 ]]S,T ]] previsibel. Beweis. Wir dürfen annehmen, dass Y = 1 A für ein A F S. Der Prozess X = Y 1 ]S,T ] ist linksstetig, und für jedes t R + ist nach Lemma X t = 1 A 1 {S<t T } = 1 A {S<t} 1 {T t} Folglich ist X adaptiert, und damit insbesondere previsibel. Satz Es sei X ein adaptierter càdlàg-prozess. (a) X ist previsibel. (b) Ist X previsibel, dann ist X auch previsibel. Beweis. bezüglich F t messbar. (a) Folgt aus Denition 3.1.1, da X nach Lemma adaptiert und linksstetig ist. (b) Folgt aus X = X X.

44 Previsible Zeiten Denition Eine Abbildung T : Ω R + heiÿt eine F-previsible Zeit (oder kurz, eine previsible Zeit), falls [0, T [ P. Lemma Jede previsible Zeit T ist eine Stoppzeit. Beweis. Nach Korollar gilt [T, [= (Ω R + ) \ [0, T [ P O, und somit ist der càdlàg-prozess X = 1 [[T, [[ optional, und damit nach Satz auch adaptiert. Also gilt {T t} = {X t = 1} F t für jedes t R +. Lemma Eine Stoppzeit T ist genau dann eine previsible Zeit, wenn [T ] P. Beweis. Nach Satz gilt [0, T ] P. Ist T eine previsible Zeit, dann folgt und ist [T ] P, dann folgt [T ] = [0, T ] \ [0, T [ P, [0, T [= [0, T ] \ [T ] P. Lemma Es seien T eine Stoppzeit und t > 0. Dann ist T + t eine previsible Zeit. Beweis. Für alle (ω, s) Ω R + gilt (ω, s) [0, T + t[ T (ω) + t > s ( T (ω) ) t s n [[ 0, T + (ω, s) n N für ein n N ) ]] t. ( 1 1 n Nach Satz folgt [0, T + t[= n N [[ ( 0, T ) ]] t P. n Korollar T = t für jedes t R + eine previsible Zeit, und damit eine Stoppzeit. Lemma Es sei (T n ) n N eine Folge von previsiblen Zeiten.

45 43 (a) T = sup n N T n ist eine previsible Zeit. (b) S = inf n N T n ist eine previsible Zeit, sofern Ω = n N {S = T n}. Beweis. (a) Für alle (ω, t) Ω R + gilt (ω, t) [0, T [ T (ω) > t T n (ω) > t für ein n N (ω, t) n N[0, T n [. Daraus folgt [0, T [= n N [0, T n [ P. (b) Es seien (ω, t) Ω R + beliebig. Es gelte T n (ω) > t für alle n N. Wegen Ω = n N {S = T n} existiert ein Index m N, so dass S(ω) = T m (ω), und es folgt S(ω) > t. Also gilt (ω, t) [0, S [ S(ω) > t T n (ω) > t für alle n N (ω, t) n N[0, T n [. Daraus folgt [0, S [= n N [0, T n [ P. Bemerkung Es sei S eine Stoppzeit, die nicht previsibel ist. Nach Lemma ist die Folge (T n ) n N deniert durch T n := S + 1 eine Folge von previsiblen n Zeiten. Es gilt jedoch S = inf n N T n. Lemma Es seien T eine previsible Zeit und A F T. Dann ist T A := T 1 A + 1 A c eine previsible Zeit. Beweis. Es sei T eine previsible Zeit. Wir denieren die Mengensysteme A := {A F : T A ist eine previsible Zeit}, G := F 0 {B {t < T } : t R + und B F t }

Terminologie Stochastischer Prozesse

Terminologie Stochastischer Prozesse Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.

Mehr

2 Martingale in stetiger Zeit

2 Martingale in stetiger Zeit 2 Martingale in stetiger Zeit Ziel dieses Abschnitts ist es die wichtigsten Resultate für Martingale aus diskreter Zeit in stetige Zeit zu übertragen. Wie zu erwarten ist treten in stetiger Zeit einige

Mehr

Hawkes Prozesse Grundlagen

Hawkes Prozesse Grundlagen Hawkes Prozesse Grundlagen Im Folgenden sei (Ω, F, F, P) eine stochastische Basis. Das heißt F = (F t ) t ist eine rechtsstetige Filtration mit F t F für alle t und P ein Wahrscheinlichkeitsmaß auf dem

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis SS1 von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 6. Mai 21 Inhaltsverzeichnis 1 Motivation / Einführung 4 1.1 Motivation anhand

Mehr

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016 Übungen zu bedingten Erwartungswerten Tutorium Stochastische Prozesse 13. Dezember 2016 Bedingter Erwartungswert Definition Sei X eine reellwertige Zufallsvariable auf (Ω, A, P), so dass E[ X ]

Mehr

8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale

8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale 8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale 8.1 Der quadratische Variationsprozess eines stetigen, lokalen Martingals 8.3 Die quadratische Variation einer reellen Brownschen

Mehr

3 Bedingte Erwartungswerte

3 Bedingte Erwartungswerte 3 Bedingte Erwartungswerte 3.3 Existenz und Eindeutigkeit des bedingten Erwartungswertes E A 0(X) 3.6 Konvexitätsungleichung für bedingte Erwartungswerte 3.9 Konvergenzsätze von Levi, Fatou und Lebesgue

Mehr

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015 Wahrscheinlichkeitstheorie 2 & 3 Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 3. Januar 215 Inhaltsverzeichnis. Bedingte Erwartungswerte 4 1. Martingale, Stoppzeiten und Filtrierungen 9 1.1.

Mehr

KAPITEL 1. Martingale

KAPITEL 1. Martingale KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst

Mehr

Stoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016

Stoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016 Stoppzeiten und Charakteristische Funktionen Tutorium Stochastische Prozesse 15. November 2016 Inhalte des heutigen Tutoriums Im heutigen Tutorium besprechen wir: (1) Eindeutigkeit von Maßen ohne schnittstabilen

Mehr

Vorlesungsskript: Martingale

Vorlesungsskript: Martingale Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................

Mehr

Kapitel 7. Martingale 1

Kapitel 7. Martingale 1 Kapitel 7 Martingale 1 7.1 Definition: a) (Ω, F) sei ein messbarer Raum. Eine Filtration (oder Filtrierung) ist eine aufsteigende Folge F = (F n ) n N von Teil-σ-Algebren von F, d.h. F n F n+1 F für n

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis Vorlesung SS 22 Jürgen Dippon Mathematisches Institut A Universität Stuttgart Homepage der Vorlesung: www.mathematik.uni-stuttgart.de/matha/lst3/dippon/sa Version vom 17. Juni 23

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109 A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 19 A. Stochastische Prozesse und Stoppzeiten In dieser Vorlesung arbeiten wir immer auf einem Massraum (Ω, F), der gross genug ist, um alle definierten Objekte

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale

4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale 4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale 4.2 Filtrationen und kanonische Filtrationen 4.3 Supermartingale, Martingale bzw. Submartingale bzgl. der Filtrationen (A t ) t I 4.4 Gleichgradig

Mehr

Diplomarbeit. Lebenszeit-Modelle zur Analyse der Ermüdung von gradierten Materialien

Diplomarbeit. Lebenszeit-Modelle zur Analyse der Ermüdung von gradierten Materialien Universität Kassel Fachbereich Mathematik Diplomarbeit Lebenszeit-Modelle zur Analyse der Ermüdung von gradierten Materialien Eingereicht von: Alexander Stepper Betreuende Gutachterin: Zweitgutachterin:

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

1 Bedingte Erwartungswerte

1 Bedingte Erwartungswerte Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,

Mehr

5 MARTINGALE 64. k = j k=1

5 MARTINGALE 64. k = j k=1 5 MRTINGLE 64 5 Martingale 5.1 Bedingte Erwartungswerte Im Folgenden sei stets Z eine Zufallsvariable in R mit E[ Z < oder Z 0 f.s. Falls ein Ereignis mit P() > 0 ist, so erklärt man durch E[Z := 1 P()

Mehr

Aufgaben zu Kapitel 0

Aufgaben zu Kapitel 0 Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.

Mehr

Eindimensionale Stochastische Differentialgleichungen Mit Verallgemeinerter Drift Bzgl. Stetiger Lokaler Martingale DISSERTATION

Eindimensionale Stochastische Differentialgleichungen Mit Verallgemeinerter Drift Bzgl. Stetiger Lokaler Martingale DISSERTATION Eindimensionale Stochastische Differentialgleichungen Mit Verallgemeinerter Drift Bzgl. Stetiger Lokaler Martingale DISSERTATION zur Erlangung des akademischen Grades doctor rerum naturalium (Dr. rer.

Mehr

Wahrscheinlichkeits theorie

Wahrscheinlichkeits theorie Achim Klenke Wahrscheinlichkeits theorie Mit 34 Abbildungen 4y Springer 1 Grundlagen der Maßtheorie 1 1.1 Mengensysteme 1 1.2 Mengenfunktionen 11 1.3 Fortsetzung von Maßen 17 1.4 Messbare Abbildungen 33

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr

Studienbegleitende Prüfung Stochastik 2

Studienbegleitende Prüfung Stochastik 2 Universität Karlsruhe (TH) Institut für Stochastik Prof. Dr. N. Bäuerle Name: Vorname: Matr.-Nr.: Studienbegleitende Prüfung Stochastik 2 27. März 2007 Diese Klausur hat bestanden, wer mindestens 20 Punkte

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Wahrscheinlichkeitstheorie

Wahrscheinlichkeitstheorie Achim Klenke Wahrscheinlichkeitstheorie 3., überarbeitete und ergänzte Auflage ~ Springer Spektrum Inhaltsverzeichnis 1 Grundlagen der Maßtheorie. 1.1 Mengensysteme. 1.2 Mengenfunktionen, 12 1.3 Fortsetzung

Mehr

2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit

2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit 2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit a) Fortsetzungssatz, Eindeutigkeit Es wird gezeigt, dass jedes Prämaß µ auf einem Ring R zu einem Maß µ auf A(R) fortgesetzt werden kann, d.h. µ kann

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Stochastische Analysis

Stochastische Analysis PD Dr. Jürgen Dippon, Universität Stuttgart Stochastische Analysis Stuttgart, Wintersemester 211/212 Version: 15. Februar 212 Für Hinweise auf Druckfehler und Kommentare jeder Art bin ich dankbar. 1 Viel

Mehr

Brownsche Bewegung: Eine Einführung

Brownsche Bewegung: Eine Einführung Brownsche Bewegung: Eine Einführung Batu Güneysu Institut für Mathematik Humboldt-Universität zu Berlin Greifswald, 18.04.2018 Batu Güneysu Brownsche Bewegung: Eine Einführung 1 / 14 Wir fixieren m N und

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 24/25 Universität Karlsruhe 7. März 25 Priv-Doz. Dr. D. Kadelka Klausur zur Vorlesung Stochastik II Dauer: 9 Minuten Name: Vorname: Matrikelnummer: Diese Klausur

Mehr

Stochastische Analysis. Karl-Theodor Sturm

Stochastische Analysis. Karl-Theodor Sturm Stochastische Analysis Karl-Theodor Sturm Literatur: I. Karatzas, S. Shreve: Brownian Motion and Stochastic Calculus. 2nd ed. Springer 91 D. Revuz, M. Yor: Continuous Martingales and Brownian Motion,

Mehr

Schwache Lösungen von SDEs und das lokale Martingalproblem

Schwache Lösungen von SDEs und das lokale Martingalproblem Inhalt Schwache Lösungen von SDEs und das lokale Martingalproblem Christin Strampe February 16, 211 Christin Strampe () SDEs und das lokale Martingalproblem February 16, 211 1 / 24 Inhalt Motivation Schwache

Mehr

A. Maß- und Integrationstheorie

A. Maß- und Integrationstheorie A. Maß- und Integrationstheorie Im folgenden sind einige Ergebnisse aus der Maß- und Integrationstheorie zusammengestellt, die wir im Laufe der Vorlesung brauchen werden. Für die Beweise der Sätze sei

Mehr

Messbare Vektorräume

Messbare Vektorräume Messbare Vektorräume Hans-Jörg Starkloff TU Bergakademie Freiberg Westsächsische Hochschule Zwickau Dezember 2010 / Januar 2011 Hans-Jörg Starkloff Messbare Vektorräume 1 1. Definition Geg. X linearer

Mehr

ist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1

ist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1 24 14 Metrische Räume 14.1 R n als euklidischer Vektorraum Die Menge R n = {(x 1,..., x n ) x i R} versehen mit der Addition und der skalaren Multiplikation x + y = (x 1 + y 1,..., x n + y n ) λx = (λx

Mehr

Stochastik Approximationen der Binomialverteilung

Stochastik Approximationen der Binomialverteilung Stochastik Approximationen der Binomialverteilung Stefan Englert stefan.englert@gmx.net 21. April 2007 Inhaltsverzeichnis 1 Approximation von n! und b n,p (k) 2 2 Der Satz von de Moivre-Laplace 6 3 Die

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

Stochastische Analysis

Stochastische Analysis Marcel Ortgiese Stochastische Analysis Version vom 29. Januar 215 Vorlesungsmanuskript WiSe 214/215 Westfälische Wilhelms-Universität Münster Inhaltsverzeichnis Einleitung 1.1 Motivation....................................

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 2 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Stochastische Analysis. Karl-Theodor Sturm

Stochastische Analysis. Karl-Theodor Sturm Stochastische Analysis Karl-Theodor Sturm 2 Literatur: I. Karatzas, S. Shreve: Brownian Motion and Stochastic Calculus. 2nd ed. Springer 91 D. Revuz, M. Yor: Continuous Martingales and Brownian Motion,

Mehr

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik II Wahrscheinlichkeitstheorie I Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 26. November 2002

Mehr

1 Das Lebesgue-Maß. 1.1 Etwas Maßtheorie. Sei stets X eine nichtleere Menge mit Potzenzmenge P(X) := {A : A X}.

1 Das Lebesgue-Maß. 1.1 Etwas Maßtheorie. Sei stets X eine nichtleere Menge mit Potzenzmenge P(X) := {A : A X}. 1 Das Lebesgue-Maß 1.1 Etwas Maßtheorie Sei stets X eine nichtleere Menge mit Potzenzmenge P(X) := {A : A X}. Definition 1.1. Ein nichtleeres Mengensystem A P(X) heißt σ-algebra, wenn: (A1) X A (A2) Wenn

Mehr

Zufallsvariable, Verteilung, Verteilungsfunktion

Zufallsvariable, Verteilung, Verteilungsfunktion Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.

Mehr

8 Martingale und Stoppzeiten

8 Martingale und Stoppzeiten 8 Martingale und Stozeiten Definition Sei I eine beliebige Indexmenge und (Ω, A, P ) ein Wahrscheinlichkeitsraum. a) Eine Familie von Zufallsvariablen (X t ) t I auf (Ω, A, P ) heißt stochastischer Prozess

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Wahrscheinlichkeitstheorie II

Wahrscheinlichkeitstheorie II Wahrscheinlichkeitstheorie II Vorlesung vo 24.04. Christian Wiesel V5-09...2.3 Martingale, Stoppzeiten und Filtrierungen Stochastische Prozesse und -Algebren Stoppzeiten Martingale.3a Martingale in diskreter

Mehr

Stochastische Analysis. Karl-Theodor Sturm

Stochastische Analysis. Karl-Theodor Sturm Stochastische Analysis Karl-Theodor Sturm 2 Literatur: I. Karatzas, S. Shreve: Brownian Motion and Stochastic Calculus. 2nd ed. Springer 91 D. Revuz, M. Yor: Continuous Martingales and Brownian Motion,

Mehr

Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich

Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich Erwartungswert Naiv stellt man sich unter dem Erwartungswert einer Zufallsvariablen X Folgendes vor. Man führt das Experiment n-mal durch und bestimmt den Mittelwert (arithmetisches Mittel) der dabei für

Mehr

Universität Leipzig, SoSo 2013

Universität Leipzig, SoSo 2013 Vorlesung Wahrscheinlichkeitstheorie I Universität Leipzig, SoSo 2013 Prof. Dr. Max v. Renesse renesse@uni-leipzig.de Sprechstunde: Di 13.15-14.45, A 337 Übungen: Mo 11.15 -- 12.45 A 314 K. Zimmermann

Mehr

Itô-Integation. M. Gruber Zusammenfassung

Itô-Integation. M. Gruber Zusammenfassung Itô-Integation M. Gruber 15. 5 215 Zusammenfassung Itô-Integral für elementare Integranden, Martingaleigenschaft des Itô-Integrals, Itô-Isometrie, Quadratische Variation des Itô-Integrals, Itô-Integration

Mehr

Die von Neumannsche Ungleichung

Die von Neumannsche Ungleichung Die von Neumannsche Ungleichung Dominik Schillo 12. November 2012 Satz (Die von Neumannsche Ungleichung) Seien p C[z] ein Polynom in einer Variablen und T L(H) eine Kontraktion (d.h. T 1). Dann gilt: p(t

Mehr

53 Die Parsevalsche Gleichung

53 Die Parsevalsche Gleichung 53 Die Parsevalsche Gleichung 53 Die Parsevalsche Gleichung 5 53. Skalarprodukte auf Räumen quadratintegrierbarer Funktionen. a) Die Orthogonalitätsrelationen (5.5) legen die Interpretation des Ausdrucks

Mehr

Zusammenfassung der Lebesgue-Integrationstheorie

Zusammenfassung der Lebesgue-Integrationstheorie Zusammenfassung der Lebesgue-Integrationstheorie Das Lebesguesche Integral verallgemeinert das Riemannsche Integral. Seine Vorteile liegen für unsere Anwendungen vor allem bei den wichtigen Konvergenzsätzen,

Mehr

Skript. Martingale. Prof. Dr. Zakhar Kabluchko. Universität Münster Institut für Mathematische Stochastik

Skript. Martingale. Prof. Dr. Zakhar Kabluchko. Universität Münster Institut für Mathematische Stochastik Skript Martingale Prof. Dr. Zakhar Kabluchko Universität Münster Institut für Mathematische Stochastik Inhaltsverzeichnis Vorwort 2 Literatur 2 1. Stochastische Prozesse 3 2. Filtrationen 3 3. Martingale

Mehr

Vollständigkeit. 1 Konstruktion der reellen Zahlen

Vollständigkeit. 1 Konstruktion der reellen Zahlen Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 : 24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis Martin Keller-Ressel 23. März 215 Inhaltsverzeichnis 1 Stochastische Prozesse in stetiger Zeit 1 1.1 Grundlagen.................................. 1 1.2 Gleichheit von stochastischen

Mehr

Liste wichtiger Stammfunktionen

Liste wichtiger Stammfunktionen Liste wichtiger Stammfunktionen Funktion Stammfunktion x n, x ln(x) n R \ { } n + xn+ ln( x ) x ln(x) x a x, a > sin(x) cos(x) sin 2 (x) cos 2 (x) x 2 x 2 a x ln(a) cos(x) sin(x) (x sin(x) cos(x)) 2 (x

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

7 Poisson-Punktprozesse

7 Poisson-Punktprozesse Poisson-Punktprozesse sind natürliche Modelle für zufällige Konfigurationen von Punkten im Raum Wie der Name sagt, spielt die Poisson-Verteilung eine entscheidende Rolle Wir werden also mit der Definition

Mehr

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +

Mehr

Zusammenfassung Analysis 2

Zusammenfassung Analysis 2 Zusammenfassung Analysis 2 1.2 Metrische Räume Die Grundlage metrischer Räume bildet der Begriff des Abstandes (Metrik). Definition 1.1 Ein metrischer Raum ist ein Paar (X, d), bestehend aus einer Menge

Mehr

Abgabetermin: 5. Mai 2017, Uhr

Abgabetermin: 5. Mai 2017, Uhr Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung

Mehr

Ferienkurs in Maß- und Integrationstheorie

Ferienkurs in Maß- und Integrationstheorie Zentrum Mathematik Technische Universität München Dipl. Math. Wolfgang Erb WS 9/ Übungsblatt Ferienkurs in Maß- und Integrationstheorie Aufgabe. (σ-algebren Sei eine Menge und A eine σ-algebra in. Seien

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

Wahrscheinlichkeitstheorie

Wahrscheinlichkeitstheorie Springer-Lehrbuch Masterclass Wahrscheinlichkeitstheorie von Achim Klenke überarbeitet Wahrscheinlichkeitstheorie Klenke schnell und portofrei erhältlich bei beck-shop.de DIE FACHBUCHHANDLUNG Thematische

Mehr

Beispiele. Grundlagen. Kompakte Operatoren. Regularisierungsoperatoren

Beispiele. Grundlagen. Kompakte Operatoren. Regularisierungsoperatoren Beispiele Grundlagen Kompakte Operatoren Regularisierungsoperatoren Transportgleichung Dierenzieren ( nx ) (f δ n ) (x) = f (x) + n cos, x [0, 1], δ Regularisierung!! Inverse Wärmeleitung Durc f (f δ n

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Stochastische Integration Stochastische Differentialgleichungen Stochastische Partielle Differentialgleichungen. Dominic Breit

Stochastische Integration Stochastische Differentialgleichungen Stochastische Partielle Differentialgleichungen. Dominic Breit Dominic Breit 14.12.213 Outline 1 Stochastische Integration 2 3 Brwonsche Bewegung (1) Eine Brownsche Bewegung W = (W t ) t [,T ] über einem Wahrscheinlichkeitsraum (Ω, F, P) ist ein zeitstetiger stochastischer

Mehr

A Kurzskript: Stochastische Majorisierung und Testtheorie

A Kurzskript: Stochastische Majorisierung und Testtheorie A Kurzskript: Stochastische Majorisierung und Testtheorie A.1 Stochastische Majorisierung Denition A.1 (stochastisch gröÿer) Seien Q und P zwei W'Maÿe auf (R, B). Dann heiÿt Q stochastisch gröÿer als P

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Stochastische Prozesse

Stochastische Prozesse Stochastische Prozesse Prof. Dr. H.R. Lerche Abteilung für Mathematische Stochastik Universität Freiburg März 2014 Inhaltsverzeichnis 1 Martingale 1 1.1 Definitionen und Eigenschaften..........................

Mehr

1 Die direkte Methode der Variationsrechnung

1 Die direkte Methode der Variationsrechnung Die direkte Methode der Variationsrechnung Betrachte inf I(u) = f(x, u(x), u(x)) dx : u u + W,p () wobei R n, u W,p mit I(u ) < und f : R R n R. (P) Um die Existenz eines Minimierers direkt zu zeigen,

Mehr

Strassen Type Theorems Proseminar Stochastik

Strassen Type Theorems Proseminar Stochastik Strassen Type Theorems Proseminar Stochastik Cecelie Hector Universität Hamburg Fachbereich Mathematik SoSe 2004 Vortrag am 25.06.04 Definition (a). Ein topologischer Raum E heißt polnisch, wenn es eine

Mehr

Stochastische Differentialgleichungen (Einführung in die Stochastische Analysis)

Stochastische Differentialgleichungen (Einführung in die Stochastische Analysis) Skript Stochastische Differentialgleichungen (Einführung in die Stochastische Analysis) Max v. Renesse Aufgezeichnet von Tobias Weihrauch Wintersemester 212/13 Universität Leipzig INHALTSVERZEICHNIS 1

Mehr

Wichtige Klassen reeller Funktionen

Wichtige Klassen reeller Funktionen 0 Wichtige Klassen reeller Funktionen Monotone Funktionen sind i.a. unstetig, aber man kann etwas über das Grenzwertverhalten aussagen, wenn man nur einseitige Grenzwerte betrachtet. Definition 0. : Sei

Mehr

6 Das stochastische Integral

6 Das stochastische Integral 6 Das stochastische Integral 6.2 Elementare Handelsstrategien erzeugen die σ-algebra der previsiblen Mengen 6.3 Previsible Prozesse sind adaptiert und progressiv messbar 6.4 P 0 wird von den linksseitig

Mehr

Zeitstetige Markov-Prozesse: Einführung und Beispiele

Zeitstetige Markov-Prozesse: Einführung und Beispiele Zeitstetige Markov-Prozesse: Einführung und Beispiele Simone Wielart 08.12.10 Inhalt Q-Matrizen und ihre Exponentiale Inhalt Q-Matrizen und ihre Exponentiale Zeitstetige stochastische Prozesse Inhalt Q-Matrizen

Mehr

4 Fehlerabschätzungen und Konvergenz der FEM

4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Skript zur Vorlesung Analysis 3

Skript zur Vorlesung Analysis 3 Skript zur Vorlesung Analysis 3 Wintersemester 2013/2014 Prof. Dr. Benjamin Schlein Inhaltsverzeichnis 1 Masstheorie 2 1.1 σ-algebren.................................. 6 1.2 Masse.....................................

Mehr

Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme

Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme Optimale Steuerung, Prof.Dr. L. Blank 1 II Linear-quadratische elliptische Steuerungsprobleme Zuerst: Zusammenstellung einiger Begriffe und Aussagen aus der Funktionalanalysis (FA), um dann etwas über

Mehr

2 Allgemeine Integrationstheorie

2 Allgemeine Integrationstheorie 2 Allgemeine Integrationstheorie In diesem Abschnitt ist (,S,µ) ein Maßraum, und wir betrachten R immer mit der σ Algebra B(R). Ziel ist es, messbare Funktionen f : R zu integrieren. Das Maß µ wird uns

Mehr

Maße und Integrale. begleitend zur Vorlesung Stochastik I Humboldt-Universität zu Berlin SS 2008 P. Imkeller. Berlin, den 26.

Maße und Integrale. begleitend zur Vorlesung Stochastik I Humboldt-Universität zu Berlin SS 2008 P. Imkeller. Berlin, den 26. Maße und Integrale begleitend zur Vorlesung Stochastik I Humboldt-Universität zu Berlin SS 2008 P. Imkeller Berlin, den 26. April 2008 Inhaltsverzeichnis 1 Konstruktion von Maßen 3 2 Konstruktion von Integralen

Mehr

Die reellen Zahlen als Äquivalenzklassen rationaler Cauchy-Folgen. Steven Klein

Die reellen Zahlen als Äquivalenzklassen rationaler Cauchy-Folgen. Steven Klein Die reellen Zahlen als Äquivalenzklassen rationaler Cauchy-Folgen Steven Klein 04.01.017 1 In dieser Ausarbeitung konstruieren wir die reellen Zahlen aus den rationalen Zahlen. Hierzu denieren wir zunächst

Mehr

22 KAPITEL 1. GRUNDLAGEN. Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion

22 KAPITEL 1. GRUNDLAGEN. Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion KAPITEL 1. GRUNDLAGEN Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion 1 für 0 x < 1 g 0 (x) = 1 1 für < x 1. Natürlich gibt dies von

Mehr