Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015

Größe: px
Ab Seite anzeigen:

Download "Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015"

Transkript

1 Wahrscheinlichkeitstheorie 2 & 3 Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 3. Januar 215

2 Inhaltsverzeichnis. Bedingte Erwartungswerte 4 1. Martingale, Stoppzeiten und Filtrierungen Stochastische Prozesse und Sigma-Algebren Stoppzeiten Martingale in stetiger Zeit A. Konvergenzsätze Doob-Meyer-Zerlegung Stetige, quadratisch integrierbare Martingale Brownsche Bewegung Einführung Erste Konstruktion einer Brownschen Bewegung Levy-Cielsielski-Konstruktion der Brownschen Bewegung Der Raum C[,, schwache Konvergenz und das Wiener-Maß A. Konvergenz endlich dimensionaler Verteilungen B. Das Invarianzprinzip und das Wiener-Maß Markoff-Eigenschaft A. Markoff-Prozesse und Markoffsche Familien B. Äquivalente Formulierungen der Markoff-Eigenschaft Starke Markoff-Prozesse und Markoffsche Familien A. Starke Markoff-Eigenschaft für die Brownsche Bewegung Brownsche Filtrierungen A. Rechtsstetigkeit der augmentierten Filtrierung B. Universelle Filtrierung Berechnungen mittels Durchgangszeiten A. Brownsche Bewegung und das running maximum Pfadeigenschaften der Brownschen Bewegung A. Die Nullstellenmenge der Brownschen Bewegung B. Pfade nirgends differenzierbar C. Gesetz des iterierten Logarithmus Stochastische Integration Konstruktion des stochastischen Integrals Einfache Prozesse und Approximation Konstruktion und einfache Eigenschaften des stoch. Integrals A. Eine Charakterisierung des Integrals B. Integrale bezüglich stetiger lokaler Martingale Substitutionsregel / Itô-Formel A. Itô-Formel B. Martingalcharakterisierung der Brownschen Bewegung C. Bessel-Prozesse

3 3.4.D. Momentenungleichungen für Martingale E. Darstellung eines stetigen Martingals mit Hilfe einer Brownschen Bewegung F. Stetige lokale Martingale als zeitgeshiftete Brownsche Bewegungen Girsanov-Theorem und Cameron-Martin-Formel A. Grundlegendes Resultat B. Brownsche Bewegung mit Drift C. Novikov-Bedingung Stochastische Differentialgleichungen Starke Lösungen A. Definitionen Itô-Theorie A. Vergleichende Ergebnisse und weitere Verbesserungen Schwache Lösung A. Begriff der Eindeutigkeit schwacher Lösungen B. Schwache Lösungen mit Hilfe des Girsanov-Theorems C. Ein Exkurs über reguläre bedingte Wahrscheinlichkeiten D. Ergebnisse von Yamada und Watanabe zu schwachen und starken Lösungen Martingal-Problem nach Stroock und Varadhan A. Fundamentale Martingale B. Schwache Lösung und Martingal-Problem C. Wohlgestelltheit und starke Markoff-Eigenschaft D. Fragen der Existenz E. Fragen der Eindeutigkeit F. Infinitisemaler Generator und die Dynkin-Formel G. Das kombinierte Dirichlet-Poisson Problem H. Das stochastische Poisson-Problem A. Nachträge 184 Literatur 185 3

4 . Bedingte Erwartungswerte Sei Ω, F, P ein W-Raum und A F eine Teil-σ-Algebra d.h. Ω, A, P ist auch ein W-Raum und X L 1 P := L 1 Ω, F, P eine eindimensionale Zufallsvariable ansonsten betrachte komponentenweise. Definition..1: Eine Zufallsvariable Y derart, dass i Y ist messbar bezüglich A kurz: Y A ii A Xd P = A Y d P für alle A A heißt eine Version des bedingten Erwartungswertes EX A. Lemma..2: Erfüllt Y die Eigenschaften i und ii, so ist Y L 1 P. Setze A := {Y > } A, dann gilt nach Eigenschaft 2 sowie Daraus folgt A Y d P = A Xd P A X d P < Y d P = A c Xd P A c X d P <. A c E Y = A Y d P + Y d P A c X d P <. Lemma..3 Eindeutigkeit des bedingten EW: Angenommen Y und Y erfüllen die Eigenschaften i und ii. Dann gilt Y = Y P-f.s. Definiere A ε := {Y Y ε} für ε > beliebig. Dann impliziert i A ε A. Daraus folgt mit ii = X Xd P = Y Y d P ε PA ε A ε A ε für alle ε >. Also gilt PA ε = für alle ε >, d.h. PY Y > = und damit Y Y P-f.s.. Analog gilt dies für Y Y. Bemerkung Satz von Radon-Nikodym: Sind µ, ν σ-endliche Maße auf Ω, F und ν µ. Dann existiert eine F-messbare Funktion f mit νa = A fdµ. Man nennt f =: dν dµ die Radon-Nikodym-Ableitung. 4

5 Lemma..4 Existenz des bedingten EW: Für X L 1 Ω, F, P und A F existiert EX A. 1: Sei X. Definiere µ := P und νa := A Xd P für alle A A. Dann sind µ und ν σ-endlich und ν µ. Also existiert nach dem Satz von Radon-Nikodym dν Xd P = νa = dµ d P A für alle A A. Damit ist dν dµ eine Version von EX A. 2: Zerlege X = X + X. Dann existieren Y 1 := EX + A und Y 2 := EX A nach Teil 1. Nun ist Y := Y 1 Y 2 A-messbar und es gilt Xd P = X + d P X d P = Y 1 d P Y 2 d P = Y d P A A für alle A A. Folglich ist Y eine Version von EX A. A Bemerkung Interpretation des bedingten Erwartungswertes: Seien A die bekannten Informationen. Dann ist EX A die beste Vermutung, welchen Wert X annimmt, wenn wir nur Ereignisse aus A kennen. Beispiel..5: Ist X A-messbar, so gilt EX A = X P-f.s. Ist X unabhängig von A, dann ist EX A = E X P-f.s. Für den Spezialfall A = {, Ω} ist jede Zufallsvariable X von A unabhängig, d.h. es gilt für alle X L 1 EX {, Ω} = E X. Beispiel..6 Bezug zu bed. Wahrscheinlichkeiten und EW aus Stochastik: Angenommen Ω = i I Ω i, wobei die Ω i paarweise disjunkt sind, d.h. Ω hat eine endliche oder abzählbare Zerlegung in paarweise disjunkte Mengen. Angenommen PΩ i > für alle i I. Setze A := σω i i I. Dann gilt EX A = i I 1 PΩ i Ω i Xd P A A A 1 Ωi, d.h. für ω Ω j gilt EX Aω = 1 Xd P =: EX Ω j. PΩ j Ω j i: Ω i A für alle i I, d.h. 1 Ωi A für alle i, d.h. Y A. ii: Jedes A A hat die Form A = j J Ω j für ein J I, wobei die Vereinigungen disjunkt sind. Es genügt daher, A = Ω j zu betrachten für ein beliebiges j. Dort gilt aber Y d P = Ω j Xd P d P = 1 Xd P PΩ j = Xd P PΩ j Ω j PΩ j Ω j Ω j }{{} =Y auf Ω j Ω j 1 A 5

6 Definition..7: Setze EX Y := EX σy für alle Zufallsvariablen X und Y mit X L 1 P. Beispiel..8 Bedingter Erwartungswert im Fall von Dichten: Seien X, Y Zufallsvariablen mit gemeinsamer Dichte fx, y. Angenommen für alle y gilt fx, ydx >. Falls E gx < ist, so gilt EgX Y = hy mit hy := gxfx, ydx fx, ydx. h ist messbar als Funktion von f und g, denn nach Annahme war g messbar. Also ist hy σy. Daher ist hy ein Kandidat für den bedingten Erwartungswert. Sei A σy beliebig. Dann existiert ein B BR mit A = {Y B}. Damit gilt hy d P = 1 {Y B} hy d P = 1 B yhyfx, ydxdy A = 1 B yhy fx, ydx dy = gxfx, ydx dy B = E 1 B Y gx = gxd P. A Beispiel..9: Seien X und Y unabhängig und ϕ : R 2 gx := E ϕx, Y. Dann gilt R so, dass E ϕx, Y <. Definiere E ϕx, Y X = gx. Mit Fubini sehen wir, dass gx σx-messbar ist. Sei also A σx beliebig. Dann existiert ein C BR derart, dass A = {X C}. Somit gilt A ϕx, Y d P = = = Ω C C ϕx, Y 1 C Xd P = ϕx, y1 Cx PX, Y 1 dx, y R 2 }{{} =P X 1 P Y 1 ϕx, y P Y 1 dy P X 1 dx R }{{} =Eϕx,Y =gx gx P X 1 dx = A gxd P. Satz..1 Eigenschaften des bedingten EW: Es gilt 6

7 a Linearität: EaX + by A = a EX A + b EY A für alle a, b R und X, Y L 1. b Isotonie: Aus X Y folgt EX A EY A. c Monotone Konvergenz: Sei X n, X n X mit E X <. Dann gilt EX n A EX A. Die Linearität folgt aus der Linearität des Integrals. Zur Isotonie: Sei A ε := {EX A EY A ε} A für alle ε >. Dann gilt EX Ad P = Xd P Y d P = EY Ad P A ε A ε A ε A ε EX Ad P ε PA ε. A ε Also folgt PA ε = für alle ε > und damit mit der Stetigkeit des Maßes PEX A > EY A =. Zur monotonen Konvergenz: Definiere Y n := X X n, so ist zu zeigen, dass EY n A. Nun ist Z n := EY n A Z, wobei Z eine A-messbare Zufallsgröße ist. Sei A A. Mit Hilfe des Satzes von Lebesgue folgt Z n d P = Y n d P, sodass schließlich gilt A A A Z d P = lim Z n d P =. n A Proposition..11 Jensensche Ungleichung: Sei ϕ konvex, E X < und E ϕx <. Dann gilt ϕex A EϕX A. Satz..12: Die bedingte Erwartung ist eine Kontraktion in L p, p 1, d.h. es gilt EX A L p X L p. Satz..13: Seien F 1 F 2 F σ-algebren. Falls EX F 2 sogar F 1 -messbar ist, so gilt EX F 1 = EX F 2. Satz..14: Seien F 1 F 2 F. Dann gilt EEX F 1 F 2 = EEX F 2 F 1 = EX F 1. 7

8 Satz..15: Sei X A, Y, X Y L 1 Ω, F, P. Dann gilt EX Y A = X EY A. Satz..16 bedingte EW als L 2 -Projektion: Sei X L 2 Ω, F, P. Dann minimiert Y = EX A die Abbildung A Y EX Y 2, d.h. den mittleren quadratischen Fehler. 8

9 1. Martingale, Stoppzeiten und Filtrierungen 1.1. Stochastische Prozesse und Sigma-Algebren Definition Stochastischer Prozess: Ein stochastischer Prozess ist eine Familie X = X t t von R d -wertigen Zufallsvariablen X t : Ω, F, P R d, BR d, P Xt 1 für alle t. Ein stochastischer Prozess heißt messbar, falls die Abbildung messbar ist. X : [, Ω, B[, F R d, BR d t, ω X t ω Definition Vergleich zweier stochastischer Prozesse: Seien X = X t t, Y = Y t t zwei stochastische Prozesse auf dem selben W-Raum Ω, F, P. i X und Y heißen ununterscheidbar, wenn PX t = Y t t = 1. ii Y heißt Modifikation von X, falls PX t = Y t = 1 für alle t. iii X und Y haben die gleichen Randverteilungen, wenn für alle n N und t 1 < t 2 <... < t n < gilt Es gelten die Implikationen i ii iii. PX t1,..., X tn 1 = PY t1,..., Y tn 1. Bemerkung: Wenn Y eine Modifikation von X ist, so sind X und Y im Allgemeinen nicht ununterscheidbar. Sei dazu T eine nichtnegative ZV, die eine Dichtefunktion bezüglich des Lebesguemaßes besitzt. Insbesondere gilt also für alle t PT = t =. Definiere den Prozess X t := für alle t und { t T Y t = 1 t = T, so gilt für alle t PX t = Y t = PT t = 1, aber PX t = Y t t =. Definition Filtrierung: Eine aufsteigende Familie F t t von Teil-σ-Algebren von F heißt Filtrierung von F. Für eine Filtrierung gilt also F s F t F für alle s < t. Definition 1.1.4: Definiere für jedes t die vom Prozess X erzeugte σ-algebra als F X t := σx s s t F. Die Familie F X t t heißt die vom Prozess erzeugte Filtrierung. 9

10 Definition 1.1.5: Sei F t t eine Filtrierung von F. Ein stochastischer Prozess X = X t t heißt F t t - adaptiert, falls für alle t gilt: X t ist F t -messbar. Definition 1.1.6: Sei F t t eine Filtrierung. Dann definieren wir die σ-algebren: F := σ F t t F t + := ε> F t+ε F t := { F t = σ s<t F s t > F t t heißt rechtsstetig, falls F t + = F t für alle t und linksstetig, falls F t = F t für alle t. Definition Progressive Messbarkeit: Ein stochastischer Prozess X heißt progressiv messbar bezüglich F t t, falls für alle t die Abbildung messbar ist. X [,t] Ω : [, t] Ω, B[, t] F t R d, BR d s, ω X s ω Bemerkung: Ist X progressiv messbar bezüglich F t t, so ist X messbar und F t t -adaptiert. Zu einem messbaren, adaptierten Prozess existiert eine progressiv messbare Modifikation. Zu zeigen ist, dass X t F t -messbar ist. Dazu betrachte X t : Ω, F t [, t] Ω, B[, t] F t R d, BR d ω t, ω X t ω. Die erste Abbildung ist messbar und die zweite Abbildung ist messbar, da X progressiv messbar bzgl. F t t ist. Also ist X t als Komposition F t -messbarer Funktion wieder F t -messbar. Proposition 1.1.8: Ist X ein F t t -adaptierter stochastischer Prozess und jeder Pfad t X t ω ist rechtsstetig oder linksstetig, dann ist X progressiv messbar. Sei jeder Pfad t X t ω rechtsstetig. 1

11 i Zeitdiskretisierung: Fixiere t und splitte das Zeitintervall [, t] in 2 n Teilintervalle auf für ein beliebiges n N, d.h. [, t] = und definiere für s [, t] [ ] t t, 2 n 2 n, 2t ] 2 n ] 1t 2 n... 2 n, t X s n ω := X k+1t ω 2 n wobei k so gewählt ist, dass kt 2 n < s k+1t 2 n. ii Nun ist X n : [, t] Ω, B[, t] F t R d, BR d messbar, denn sei O BR d, dann gilt ] kt k + 1t X n 1 O =, 2n 2 n X 1 k+1t O k=,...,2 n 1 2 } n {{} F k+1t F t 2 n wegen der Adaptiertheit von X. iii Nutze die Rechtsstetigkeit der Pfade und bilde den Limes n, dann gilt für alle ω Ω lim ω = X s ω. n Xn s Damit ist X als Limes messbarer Zufallsvariablen wieder messbar. Definition 1.1.9: Eine Zufallszeit ist eine Zufallsvariable T : Ω, F, P [, ], B[, ]. Für einen gegebenen stochastischen Prozess und eine Zufallszeit T definiere X T ω := X T ω ω auf {T < }. Bemerkung: Falls X ω := lim t X t ω für alle ω Ω existiert, kann X T auf ganz Ω definiert werden: { XT X T ω := ω ω ω {T < } X ω ω {T = }. 11

12 1.2. Stoppzeiten Definition 1.2.1: Eine Zufallszeit T heißt Proposition 1.2.2: Es gilt: F t t Stoppzeit {T t} F t für alle t F t t Optionszeit {T < t} F t für alle t. i Ist T eine F t t -Stoppzeit, so auch eine F t t -Optionszeit. ii Ist T eine F t t -Optionszeit und F t t rechtsstetig, so ist T eine F t t -Stoppzeit. Es gilt i {T < t} = n N {T t 1 n } F t, da T eine Stoppzeit ist, d.h. das Ereignis ist in und damit in F t für alle t. F t 1 n ii Da T eine Optionszeit ist, ist {T < t + ε} F t+ε für alle t. Damit gilt {T t} = ε>{t < t + ε} F t + = F t wegen der Rechtsstetigkeit. Korollar 1.2.3: Es gilt T ist F t t Optionszeit T ist F t + t Stoppzeit. Definition Ersteintrittszeiten: Für einen gegebenen F t t -adaptierten stochastischen Prozess X mit rechtsstetigen Pfaden definieren wir für eine Teilmenge Γ BR d die Ersteintrittszeit H Γ als H Γ = inf {t : X t Γ}. Lemma 1.2.5: Ist Γ R d offen, so ist die Ersteintrittszeit H Γ eine F t t -Optionszeit. Ist Γ R d abgeschlossen und X mit stetigen Pfaden, so ist H Γ eine F t t -Stoppzeit. Übung. Lemma 1.2.6: Seien T n n eine Folge von F t t -Stoppzeiten und S eine F t t -Stoppzeit. Dann sind auch T + S, mint, S, maxt, S und sup n 1 T n Stoppzeiten. Ist zusätzlich F t t rechtsstetig, so sind auch lim sup n 1 T n und lim inf n 1 T n Stoppzeiten. 12

13 Beispielweise gilt für T + S denn es gilt { < T < t, T + S > t} t, S > } F t, {T + S > t} = {T }{{ = }, } S {{ > } t} F F t {T > t, S = } {T }{{} F t { < T < t, T + S > t} = r Q +,<r<t { } < r < {{ T < } t, S > t r} F }{{} t. ={T >r} {T <t} F t F t r Definition σ-algebra der T -Vergangenheit: Für eine gegebene F t t -Stoppzeit T setze F T := {A F A {T t} F t t }. Lemma 1.2.8: F T ist eine σ-algebra und T ist F T -messbar. Im Spezialfall einer konstanten Stoppzeit T t gilt F T = F t. Übung. Lemma 1.2.9: Für zwei F t t -Stoppzeiten T und S gilt A F S A {S T } F T. Insbesondere gilt also, falls S T auf Ω, F S F T. Sei A F S und t beliebig. Dann gilt A {S T } {T t} = A {S t} {T t} {S T } denn S t und T t sind F t -messbar. Lemma 1.2.1: Für zwei F t t -Stoppzeiten T und S gilt = A {S t} {T t} {S t T t} }{{}}{{}}{{} F t F t F t F T S = F T F S. Dabei beinhaltet F T S unter anderem die Mengen {T < S}, {T S}, {S < T }, {S T } und {T = S}. 13

14 Verwende vorheriges Lemma. Proposition : Sei X ein bezüglich F t t progressiv messbarer stochastischer Prozess und T eine F t t - Stoppzeit. Dann ist die auf {T < } definierte Zufallsvariable X T ω := X T ω ω F T -messbar und der gestoppte Prozess X T t t ist bezüglich F t t progressiv messbar. Definiere Y := X T s s : [, Ω, B[, F R d, BR d Nun ist Y progressiv messbar, denn s, ω X T s ω := X T ω s ω. [, t] Ω, B[, t] F t [, t] Ω, B[, t] F t R d, BR d s, ω T ω s, ω X T ω s ω ist messbar, da T eine Stoppzeit ist und X progressiv messbar ist, d.h. Y ist als Komposition auch messbar. Es bleibt zu zeigen, dass X T F T -messbar ist, d.h. für alle B BR d ist {X T B} F T, was nach Definition äquivalent ist zu {X T B} {T t} F t für alle t. Nun gilt wegen der progressiven Messbarkeit von X T t für alle t. {X T B} {T t} = {X T t B} {T t} }{{}}{{} F t wegen F t da T Stoppzeit F t Definition Martingal: Ein F n n -adaptierter stochastischer Prozess X n n mit E X n < für alle n N heißt Martingal bezüglich F n n, falls für alle n m gilt EX n F m = X m. Für ein Martingal X n n gilt EX n = EX m für alle n, m N. Lemma : Ein F n n -adaptierter stochastischer Prozess X n n mit E X n < für alle n N ist genau dann ein Martingal, wenn der Erwartungswert konstant im starken Sinne ist, d.h. für alle beschränkten Stoppzeiten τ gilt EX = EX τ. 14

15 : Sei τ n eine beschränkte Stoppzeit. Dann gilt n n EX τ = E 1 {τ=k} X k = E1 {τ=k} X k = = k= k= n E1 {τ=k} X n = EX n = EX k= n k= E1 {τ=k} }{{} F k EX n F k : Seien n m beliebig. Für A F m definiert τ := m 1 A c + n 1 A eine beschränkte F n n -Stoppzeit, denn k m 1 {τ k} = A c F m F k m k n 1 F k Ω n k für alle k N. Nun gilt nach Voraussetzung EX m 1 A c + X m 1 A = EX m = EX = EX τ = EX m 1 A c + X n 1 A d.h. EX n X m 1 A = für alle A F m. Damit gilt EX n F m = EX m + X n X m F m = X m + EX n X m F m = X m }{{} = woraus die Behauptung folgt. Sei nun X = X n n ein zeitdiskreter, reellwertiger stochastischer Prozess auf Ω, F, P und F n n eine Filtrierung von F. Definition Smartingale: X heißt Submartingal bezüglich F n n, wenn für alle n m gilt EX n F m X m. X heißt Supermartingal bezüglich F n n, falls für alle n m gilt EX n F m X m. X ist genau dann ein Supermartingal, wenn X ein Submartingal ist. Bemerkung: Die Charakterisierung der Martingale aus Definition kann verallgemeinert werden. Ein F n n -adaptierter, integrierbarer Prozess X n n heißt Submartingal bzgl. F n n Martingal bzgl. F n n EX τ = EX τmax Supermartingal bzgl. F n n für alle beschränkten Stoppzeiten τ, wobei τ max := max{τω : ω Ω}. 15

16 Bemerkung: Für Submartingale gilt EX n EX m für alle n m. Für Supermartingale gilt EX n EX m für alle n m. Satz Doobs optionaler Stoppsatz: Falls X n n ein F n n -Martingal ist, so gilt für alle F n n -Stoppzeiten σ τ M < EX τ F σ = X σ. i X τ und X σ sind integrierbar, denn M M X τ = X k 1 {τ=k} X k L 1 F k= k= und da alle X k nach Voraussetzung integrierbar sind. ii X σ ist F σ -messbar. Dazu ist zu zeigen, dass für alle C BR {X σ C} F σ {X σ C} {σ n} F n für alle n N. Da X σ = M k= X k 1 {σ=k} gilt {X σ C} {σ n} = = M {X k C} {σ = k} {σ n} k= M n k= {X k C} }{{} F k F n {σ = k} F n. iii Sei A F σ, so ist E1 A X σ = E1 A X τ zu zeigen. Definiere R := 1 A σ + 1 A c τ, so ist dies ebenfalls eine beschränkte Stoppzeit, denn {R k} = A {σ k} A c {τ k} F k für alle k N. Da X n n ein F n n -Martingal ist, folgt nach der alternativen Charakterisierung EX τ = EX für alle beschränkten Stoppzeiten τ. Damit gilt auch EX = EX R = E1 A X σ + 1 A cx τ EX = EX τ = E1 A X τ + 1 A cx τ d.h. E1 A X σ X τ = für alle A F σ. Satz Doobsche Martingalzerlegung: Sei X n n ein F n n -Submartingal, so existiert eine P-f.s. eindeutige Zerlegung X n = X + M n + A n, wobei M = A =, M n n ein Martingal und A n n wachsend und F n 1 n -adaptiert, d.h. vorhersehbar, ist. 16

17 Definiere F 1 := {, Ω}. 1 Existenz: Definiere A n n durch A := und A n+1 := n+1 k=1 EX k X k 1 F k 1 A n P -f.s. und A n+1 ist nach Definition F n -messbar. Noch zu zeigen: M n := X n X A n ist ein Martingal. M n ist F n -messbar und integrierbar, also bleibt nur die Martingaleigenschaft zu zeigen. Dazu gilt wegen A n = A n 1 +E X n X n 1 F n 1 Iteration liefert dies für alle n m. EM n F n 1 = EX n F n 1 X A n = X n 1 X A n 1 = M n 1 2 Eindeutigkeit: Angenommen es gelte X n = X + M n + A n = X + L n + C n, wobei M, L Martingale und A, C wachsende, F n 1 n adaptierte Prozesse sind. Dann gilt M n L n = C n A n = EM n L n F n 1 = M n 1 L n 1 = = M L = P f.s. woraus M n = L n und C n = A n P-f.s. für alle n N folgt. Lemma : Ist X n n ein F n n -adaptierter, integrierbarer und wachsender Prozess, so ist X n n ein Submartingal. Sei n m, so gilt X n X m P-f.s., also wegen der Monotonie des bedingten EW EX n F m EX m F m = X m. Proposition : Ist M n n ein Martingal, ϕ : R R konvex, messbar und ϕm n integrierbar für alle n N, so ist ϕm n n ein Submartingal. Adaptiertheit und Integrierbarkeit folgen unmittelbar aus den Voraussetzungen an ϕ. Für die Submartingaleigenschaft nutze die Jensensche Ungleichung für bedingte Erwartungswerte, so gilt mit Hilfe der Martingaleigenschaft von M EϕM n F m ϕem n F m = ϕm m. 17

18 Proposition : Ist X n n ein Submartingal, ϕ : R R konvex, messbar und monoton wachsend und ϕx n integrierbar für alle n, so ist ϕx n n ein Submartingal. Wie im Beweis zuvor, verwende in die Monotonie von ϕ: EϕX n F m ϕex n F m ϕx m P f.s.. }{{} X m Beispiel: Ist M n n ein Martingal, so sind Mn 2 n, M n n und Mn n mit Mn Submartingale. Proposition 1.2.2: Ist X n n ein Submartingal, τ eine Stoppzeit, so ist X n τ n ein Submartingal. Die Submartingaleigenschaft folgt aus EX n+1 τ F n = E Iteration liefert die Behauptung. X }{{} τ 1 {τ<n+1} }{{} F n auf {τ n} F n +X n+1 1 {τ n+1} F n }{{} ={τ n} c F n = X τ 1 {τ n} +1 {τ>n} EX n+1 F n X n τ. }{{}}{{} =X n τ X n := sup k n M k Korollar : Ist X n n ein Submartingal, σ τ N beschränkte Stoppzeiten, dann gilt EX σ EX τ. Nach obiger Proposition ist Y n n := X n τ n ein Submartingal, d.h. es gilt EX σ = EX σ τ = EY σ EY N = EX N τ = EX τ. Proposition Doobsche Martingalungleichung: Ist M n n ein Martingal oder nichtnegatives Submartingal, so gilt für alle h > P sup M k h k n 1 h E M n. 18

19 i Ist M n n ein Martingal oder nichtnegatives Submartingal, so gilt, dass X n n = M n n ein Submartingal ist. ii Sei h beliebig. Definiere σ := min{k N X k h} N { }. Dies ist eine F n n -Stoppzeit, denn {σ n} = {X k h für ein k n} = {X k < h} c F n. }{{} k n F k F n Definiere τ := σ n, so ist τ eine beschränkte Stoppzeit mit τ max n. iii Also gilt, da X n n ein Submartingal ist, E M τ = EX τ EX n = E M n. iv Folglich gilt unter Beachtung, dass σ = τ auf {σ n} P sup M k h = Pσ n E 1 {σ n} M σ k n h = E 1 {σ n} M τ 1 h h E M τ iii 1 h E M n. Proposition Doobsche Martingalungleichung: Ist M n n ein Martingal oder positives Submartingal, M n := sup k n M k und M n L p für ein p > 1, so gilt EM n p c p E M n p für ein geeignetes c p. i Wie in der vorherigen Proposition ist M n n ein Submartingal. Sei n N fix und h > beliebig. Dann ist Y n := M n 1 { Mn h 2 } L1 F n und X n k mit k X k := EY n F k ein Martingal für jedes feste n N. ii Es gilt Mn X n sup k n k + h 2, denn für alle k n gilt M k EM n F k = E Y n + M n 1 { Mn < h 2 } F X n k k + h 2, sodass die Behauptung nach der Bildung des Supremums folgt. 19

20 iii Mit Hilfe der 1. Doobschen Martingal-Ungleichung in gilt und wegen EY n F n = Y n PMn h P sup X n k h 2 X 2 h E n n = 2 h E Y n. k n iv Mit Hilfe des Satzes von Fubini in folgt zusammen E M n p = pλ p 1 PMn λ dλ 2p }{{} = 2p E M n = 2p E M n 2 λ E Yn 2 Mn = p p 1 2p E M n p woraus die Behauptung folgt. λ p 2 1 {λ 2 Mn }dλ λ p 2 dλ X n n = λ p 2 E Mn 1 { Mn λ 2 } dλ Satz Doobsche Submartingalungleichung: Ist X n n ein Submartingal, so gilt für alle h > P sup X k h k n 1 h EX+ n. Da X n n ein Submartingal und ϕx = x + konvex und monoton wachsend ist, folgt, dass M n n := X n + n ein positives Submartingal ist. Damit folgt für h > mit der 1. Doobschen Martingalungleichung P sup X k h k n = P sup X k + h = P k n = 1 h EX+ n. sup X k + k n h 1 X h E + n Proposition Doobsches Upcrossing-Lemma: Sei X n n ein Submartingal, a < b und N N. Definiere U N := max{k N τ k N} als die Upcrossings bis zur Zeit N, wobei die Stoppzeiten definiert sind als τ :=, σ j+1 = min{k > τ j X k a}, τ j+1 := min{k > σ j+1 : X k b}. Dann gilt EU N 1 b a E X N a + 1 EX N + b a + a. 2

21 1 Da X n n ein Submartingal ist und ϕx := x a + konvex und monoton wachsend ist, folgt, dass Y n = X n a + ein Submartingal definiert. Ferner gilt Y τk b a und Y σk = für alle k N, d.h. Y τk Y σk b a. 2 Es gilt N U N N D := Y τk N Y σk N = Y τk N Y σk N + Y τk N Y σk N }{{}}{{}}{{} k=1 k=1 k=u =Y τk Y N +1 σk =Y N {,Y N } U N k=1 3 Es gilt σ N+1 > N und damit Y τk N Y σk N U N b a. woraus Y N Y σ1 N = Y σn+1 N Y σ1 N = = N k=1 N k=1 Y σk+1 N Y τk N + Y σk+1 N Y σk N N Y τk N Y σk N, k=1 } {{ } =D folgt. D = Y N Y σ1 N 4 Zusammen ergibt sich N k=1 Y σk+1 N Y τk N Y N EU N ED 1 b a b a EY N 1 b a 1 b a EY N N k=1 Y σk+1 N Y τk N N EY σk+1 N Y τk N }{{} k=1 wobei τ := τ k N σ k+1 N =: σ Stoppzeiten sind, d.h. EY σ EY τ gilt. Damit folgt die Behauptung, da Y N = X N a +. Satz Submartingal-Konvergenzsatz: Sei X n n ein Submartingal mit c := sup n N EX + n <. Dann konvergiert X n P-f.s. gegen eine Zufallsvariable X L 1 F. 21

22 Für die Konvergenz genügt es zu zeigen, dass P-f.s. gilt. 1 Definiere lim sup X n lim inf X n n n Λ := {lim sup X n > lim inf X n } = n n a<b,a,b Q wobei Λ a,b := {lim sup n X n b} {lim inf n X n a} = {ω Ω : Ua, b = }, d.h. die Pfade mit unendlich vielen upcrossings von a und b, wobei Ua, b := lim N U N a, b die Anzahl der a, b-upcrossings für den gesamten Pfad bezeichnet beachte: dies ist eine aufsteigende Folge. 2 Seien a, b Q, a < b beliebig. Mit monotoner Konvergenz und dem Doobschen Upcrossing-Lemma gilt Λ a,b EUa, b = lim EU N 1 N b a lim sup EX N + + a < N }{{} c < woraus Ua, b < P-f.s. und damit PΛ a,b = folgt. Als abzählbare Vereinigung von Nullmengen ist Λ eine Nullmenge. 3 Es bleibt zu zeigen, dass X := lim n X n L 1 F. Dazu gilt mit dem Lemma von Fatou E X = Elim X n = Elim inf X n lim inf E X n n n n lim inf 2 EX + n n EX n 2c EX <. }{{} EX Definition : Eine Menge von Zufallsvariablen H L 1 F heißt gleichgradig integrierbar, falls Proposition : Es gelten L sup E X 1 X L. X H i Gilt sup X H E X p < für ein 1 < p <, so ist H gleichgradig integrierbar. ii Gilt X Y für alle X H für ein festes Y mit Y L 1, so ist H gleichgradig integrierbar. 22

23 i Ist X H, so gilt mit c := sup X H E X p E X 1 { X L} E X X p 1 L p 1 1 { X L} 1 L p 1 E X p L }{{} c uniform in X H. ii Für jedes X H gilt X Y, d.h. X 1 { X L} Y 1 { X L} Y 1 { Y L}, was wegen Y L 1 für L gegen P-f.s. konvergiert. Mit Hilfe von majorisierter Konvergenz gilt sup E X 1 { X L} EY 1 { Y L} L. X H Satz Martingal-Konvergenzsatz: Sei M n n ein Martingal und {M n : n N} gleichgradig integrierbar. Dann gilt i M n M P-f.s. für ein M L 1 F. ii E M n M für n, d.h. M n L 1 M. iii M n = EM F n für alle n N. Ist Y L 1 F und definiere M n := EY F n, so ist {M n n N} gleichgradig integrierbar. i Für den ersten Teil genügt es zu zeigen, dass c := sup n N EM + n <. Dann folgt die Behauptung aus dem Submartingal-Konvergenzsatz. Da {M n n N} gleichgradig integrierbar ist, gibt es für alle ε > ein L > mit sup n N E M n 1 { Mn L} < ε. Daraus ergibt sich die Abschätzung EM n + E M n = E M n 1 { Mn L} + E M n 1 { Mn <L} < ε + L }{{}}{{} <ε <L unabhängig von n. ii Für L > beliebig definiere die cutoff Funktion L f L x := x L x > L L x L x < L 23

24 welche stetig und beschränkt ist. Zerlege nun E M n M = E M n f L M n + f L M n f L M + f L M M Nun gilt für α n E M n f L M n + E f L M n f L M + E f L M M. }{{}}{{}}{{} α n β n γ n E M n f L M n = E M n L 1 }{{} {Mn< L} + E M n L 1 }{{} {Mn>L} M n+l 2 M n 2 M n 2 E M n 1 { Mn L} ε 3 wegen der gleichgradigen Integrierbarkeit für ein L L ε, uniform in n. Analog gilt für γ n, da M integrierbar ist, E f L M M 2 E M 1 { M >L} < ε 3 für ein L L ε. Also gilt für alle L L ε := maxl ε, L ε für alle n N α n +γ n < 2 3 ε. Nach Teil i gilt M n M P-f.s., d.h. wegen der Stetigkeit von f L gilt auch f L M n f L M P-f.s. Wegen f L M n L L 1 folgt mit Hilfe der majorisierten Konvergenz auch Ef L M n Ef L M, d.h. es existiert ein N ε N, sodass für alle n N ε gilt Also gilt die Behauptung für L ε und N ε. E f L M n f L M ε 3. iii Fasse M n als Kandidaten für die bedingte Wahrscheinlichkeit EM F n auf. Da M n F n -messbar ist, bleibt nur zu zeigen, dass für alle A F n EM n 1 A = EM 1 A gilt. Für alle N n gilt wegen der Martingaleigenschaft von M in EM n M 1 A EM n M N 1 A + EM N M 1 A }{{} = E M N M N woraus die Behauptung folgt, da die linke Seite unabhängig von N ist. Zum Zusatz: Für alle n N, L > gilt E M n 1 { Mn L} = E EY F n 1 { Mn L} E Y 1 { Mn L}. Für alle K > gilt also E M n 1 { Mn L} E Y 1 { Mn L}1 { Y K} + E Y 1 { Mn L}1 { Y <K} E Y 1 { Y K} + K E1 { Mn L} }{{} 1 L E Mn 24

25 wegen der Markoff-Ungleichung. Zusätzlich gilt E M n = EY F n E Y F n und damit ist E M n 1 { Mn L} E Y 1 { Y K} + K E Y L eine gleichmäßige obere Schranke. Für K und L groß genug gilt daher E M n 1 { Mn L} < ε und damit die Behauptung. Definition 1.2.3: Definiere die σ-algebra F := σ n N F n. Korollar : Für alle Y L 1 F gilt M n := EY F n n EY F P-f.s. Falls Y sogar F - n messbar ist, folgt M n Y P-f.s. Da M n = EY F n, folgt nach dem zweiten Teil des MKS, dass {M n n N} gleichgradig integrierbar ist. Also folgt aus dem MKS M n M P-f.s. für eine integrierbare Zufallsvariable M. Zu zeigen ist nur, dass M = EY F. Jedes M n ist F n F - messbar, d.h. auch M als P-f.s. Limes. Nach dem Martingalkonvergenzsatz gilt EY F n = M n = EM F n P f.s. für alle n, d.h. nach der Definition der bedingten Erwartung gilt EY 1 A = EM 1 A A F n n und weil A n N F n ein schnittstabiler Erzeuger von F ist, gilt auch EY 1 A = EM 1 A A F. 25

26 1.3. Martingale in stetiger Zeit Sei Ω, F, P ein W-Raum und X = X t t ein reellwertiger Prozess auf Ω, F, P mit X t L 1 für alle t. Sei eine Filtrierung F t t gegeben und X sei F t t -adaptiert. Definition Übliche Bedingungen: Eine Filtrierung F t t von F erfüllt die üblichen Bedingungen, wenn F t t ist rechtsstetig. F t t enthält alle N F mit PN = für alle t. Dabei genügt zu zeigen, dass N F für alle P-Nullmengen aus F. Proposition 1.3.1: Sei X F t t -adaptiert und RCLL und F t t erfülle die üblichen Bedingungen. Dann existiert eine Folge von Stoppzeiten τ n n bzgl. F t t, die die Sprünge von X ausschöpft im Sinne von {t, ω, Ω : X t ω X t ω} {t, ω [, Ω : τ n ω = t} Bemerkung: Sei Z eine reellwertige Zufallsvariable und c. Dann sind die Aussagen äquivalent: i PZ λ 1 λ c λ >. ii PZ > λ 1 λ c λ >. i ii: Wähle zu λ > eine fallende Folge λ m λ. Dann gilt {Z λ m } {Z > λ}, d.h. m N {Z λ m } = {Z > λ}. Daraus folgt mit der Maßstetigkeit von unten n N PZ > λ = lim m PZ λ m lim m 1 λ m c = 1 λ c. ii i: Wähle zu λ > eine aufsteigende Folge λ m λ, so gilt {Z > λ m } {Z λ}, d.h. m N {Z > λ m } = {Z λ}. Also folgt mit der Maßstetigkeit von oben PZ λ = lim m PZ > λ m lim m 1 λ m c = 1 λ c. Satz Doobsche Submartingal-Ungleichung: Sei X t t ein F t t -Submartingal, wobei die Pfade von X t t rechtsstetig sind. Dann gilt für alle t > und λ > P sup X s λ s t 1 λ EX+ t. 26

27 i Sei n N und t > beliebig. Definiere einen zeitdiskreten stochastischen Prozess Y k k durch Y k := X k t 2 n und eine zeitdiskrete Filtrierung durch F k := F Y k, dann ist Y k k ein F k k -Submartingal. Für jedes λ > gilt wegen der Doobschen Submartingal-Ungleichung in diskreter Zeit für N := 2 n P sup X kt > λ = P sup Y k > λ 1 k N 2 n k N λ EY N + = 1 λ EX+ t für alle n N. Definiere F n := {, t 2 n,..., t} und F = n N F n, dann liegt F dicht in [, t]. Wegen F n F gilt auch { sup X s > λ} {sup X s > λ} = { sup X s > λ} s F n s F s [,t] wobei im letzten Schritt die rechtsstetigen Pfade eingehen. Denn für jedes s [, t] existiert eine Folge s l l F mit s l s, sodass mit der Rechtsstetigkeit folgt X s ω = lim X s l l ω sup X s ω s F woraus nach Bildung des Supremums sup s [,t] X s ω sup s F X s ω folgt. Die andere Ungleichung ist klar. Mit der Maßstetigkeit von unten folgt nun Psup s F n X s > λ Psup s [,t] X s > λ, d.h. es gilt P sup X s > λ 1 s [,t] λ EX+ t λ > Bem. P sup X s λ 1 s [,t] λ EX+ t λ >. Proposition 1.3.3: Sei X ein Martingal Submartingal und ϕ : R R konvex und monoton wachsend mit ϕx t L 1 für alle t. Dann ist ϕx t t ein F t t -Submartingal. Wie im diskreten Fall. Definition Aufsteigende Überquerungen eines Intervalles: Sei Y = Y t t ein reellwertiger stochastischer Prozess, α < β R und F [, eine endliche Teilmenge der Zeitachse. Dazu sei U F α, β, Y ω die Anzahl der upcrossings des Intervalls [α, β] durch Y t t F, d.h. definiere τ 1 := min{t F : X t α} σ j := min{t F : t τ j, X t β} τ j+1 := min{t F : t σ j, X t α} 27

28 für j 1 und bezeichne mit U F α, β, Y ω das größte j mit σ j ω <. Für nichtendliche Zeitmengen I [, definiere U I α, β, Y ω := sup{u F α, β, Y ω : F I endlich}. Satz Doobsche Submartingal-Ungleichungen: Sei X ein Submartingal mit rechtsstetigen Pfaden, [s, t ] [, ein Zeitintervall, α < β und λ > beliebig. Dann gelten i Die Doobsche Submartingal-Ungleichung, 1. Form: P sup X t λ s t t ii Die Doobsche Submartingal-Ungleichung, 2. Form: P inf X t λ s t t 1 λ iii Die Upcrossing / Downcrossing-Ungleichung 1 λ EX+ t. EX + t E X s. E U [s,t ]α, β, X EX+ t + α β α E D [s,t ]α, β, X E X t α +. β α iv Die Doobsche Maximalungleichung: Falls X t P-f.s. für alle t und X p t L 1 : für alle p > 1. v Regularität der Pfade: E sup s t t X t p p p EX p t p 1 P-f.a. Pfade weisen keine Unstetigkeitsstellen zweiter Art auf, d.h. die linksseitigen Limiten existieren überall auf,. Falls die Filtrierung die üblichen Bedingungen erfüllt, so existiert eine Folge von Stoppzeiten, die die Sprünge ausschöpft. i Wurde bereits bewiesen. ii Siehe Übungen. 28

29 iii U [s,t ]α, β, X ist messbar als Supremum messbarer Abbildungen. Für eine beliebige diskrete Menge F = {t 1,..., t N } mit t i < t i+1 gilt E U F α, β, X 1 EX t + β α N + α EU F α, β, X EU F {t }α, β, X 1 EX t + β α + α. Sei F n eine Folge endlicher Mengen mit F n [s, t ] Q {s, t }, so folgt wegen }{{} =:Q der Monotonie EU Q α, β, X 1 EX t + β α + α. Mit der Dichtheit von Q in [s, t ] und der Rechtsstetigkeit folgt die Behauptung. iv Für diskretes F [s, t ] gilt hier erneut p E sup s t t X t p p EX p t p 1. Mit der selben approximierenden Folge, der Dichtheit und der Rechtsstetigkeit folgt die Behauptung aus p p p E sup X t EX p t t Q p 1. v Wir zeigen die Beschränktheit auf jedem Kompaktum. Dazu sei das Kompaktum OE [, n] für ein n N. Es gilt P sup X t = t n = P sup X t K K t n 1 lim K K EX+ n =. = lim K P sup X t K t n Die Existenz der linksseitigen Limiten für P-f.a. Pfade: Dazu sei für n 1 A n [α,β] = {ω Ω : U [,n]α, β, Xω = }. Dann gilt P A n [α,β], = denn E U [,n] α, β, X < = U [,n] α, β, X < P f.s.. }{{} Damit gilt auch PA n = für A n = α<β,α,β Q An [α,β]. Nun gilt die Inklusion { t [, n] : lim inf s t X s ω < lim sup X s ω} A n. s t 29

30 Daraus folgt, dass X t ω := lim s t X s ω für jedes t [, n] und alle ω Ω\A n existiert. Da n beliebig war, gilt, dass für P-f.a. Pfade ω die linksseitigen Limiten für alle t existieren. Proposition 1.3.6: Sei X ein Submartingal. Dann gelten: i Es existiert eine Menge Ω F mit PΩ = 1, sodass X Q t + ω := X Q t ω := lim X sω s t,s Q lim X sω s t,s Q für alle t bzw. t > und alle w Ω existiert. ii Für die Limiten aus i gilt EX Q t + F t X t EX t F t X Q t P f.s. P f.s. für alle t. iii X Q t + t ist ein F t t -Submartingal mit RCLL Pfaden. Ohne Beweis. Satz 1.3.7: Sei X ein Submartingal und F t t erfülle die üblichen Bedingungen. Dann gilt i X hat eine rechtsstetige Modifikation genau dann, wenn [, t E X t rechtsstetig ist. ii Wenn eine rechtsstetige Modifikation existiert, so kann diese RCLL gewählt werden, sodass die Modifikation F t t -adaptiert ist. Die Modifikation kann als Submartingal bezüglich F t t gewählt werden. i : Sei t E X t rechtsstetig. Per Annahme gilt F t + = F t. Wähle X Q t + t aus Proposition und zeige, dass dieser Prozess eine Modifikation mit den gewünschten Eigenschaften ist. Zunächst ist X Q t + t per Definition rechtsstetig und F t + t -adaptiert. Also bleibt nur zu zeigen, dass X Q t + t eine Modifikation von X t t ist. Wähle eine Folge q n n Q mit q n t. Dann gilt lim n X qn = X Q t + P-f.s. nach 3

31 Proposition 1.3.6i. Ferner gilt wegen der gleichgradigen Integrierbarkeit in und der Rechtsstetigkeit von t E X t in E X Q t + = lim n E X qn = E X t und Proposition 1.3.6ii liefert X Q t + = EX Q t + F t X t P-f.s. Zusammen folgt also wegen E X Q t + X t = und X Q t + X t X Q t + = X t P-f.s. : Sei X t t eine rechtsstetige Modifikation. Sei t n t eine Folge, so gilt PX t = X t, X tn = X tn n = 1 und wegen der Rechtsstetigkeit lim n Xtn = X t P-f.s. Also gilt lim n X tn = X t P-f.s. und wegen der gleichgradigen Integrierbarkeit auch E X t = lim n E X tn, sodass t E X t rechtsstetig ist. ii Folgt mit iii aus Proposition

32 1.3.A. Konvergenzsätze Satz Konvergenzsatz für Submartingale: Sei X ein rechtsstetiges Submartingal bezüglich F t t und c := sup t E X t + existiert ein X := lim t X t P-f.s. und X L 1. <. Dann Für alle n 1 und α < β beliebig gilt E U [,n] α, β, X 1 E X n + + α 1 β α β α d.h. wegen der monotonen Konvergenz auch E U [, α, β, X 1 c + α. β α c + α Sei A [α,β] = {U [, α, β, X = }. Dann gilt wegen EU [, α, β, X < auch PA [α,β] =. Also gilt für A := α<β,α,β Q A [α,β] auch PA =. Außerdem gilt {lim sup t X t ω > lim inf t X t ω} A, woraus für ω Ω\A lim t X t ω existiert, d.h. wegen PΩ\A = 1 P-f.s. Es bleibt zu zeigen, dass X := lim t X t L 1. Mit dem Lemma von Fatou folgt allerdings E X = Elim inf t X t lim inf t E X t <. }{{} sup t E X t Bemerkung: Für ein Sub-Martingal X gilt sup t E X + t < sup t E X t <, denn E X t = 2 EX + t EX t 2 E X + t E X. Also gilt E X t 2C EX <. Die andere Richtung ist trivial. Satz 1.3.9: Sei X ein rechtsstetiges, nichtnegatives Supermartingal. Dann existiert X := lim t X t P-f.s., X ist in L 1 und X t t [, ] ist ein F t t [, ] -Super-MG. Y t := X t ist ein Submartingal mit E Y t + = E X t + = für alle t. Daher folgen die P-f.s. Konvergenz und X L 1 aus Satz Es bleibt noch zu zeigen, dass EX F t X t P-f.s. gilt. Mit dem Satz von Fatou für bedingte Erwartungswerte und der Supermartingal-Eigenschaft von X folgt EX F t lim inf s EX s F t X t P f.s.. 32

33 Satz 1.3.1: Sei X ein rechtsstetiges Submartingal. Dann gilt a b c in a {X t : t } ist gleichgradig integrierbar. b X t t konvergiert in L 1. c X t t konvergiert P-f.s. gegen X L 1 und X t t [, ] ist ein F t -Submartingal. Gilt darüber hinaus X t für alle t, so gilt c a. a b: Aus der gleichgradigen Integrierbarkeit folgt sup t E X t < sup t EX + t <. Satz zeigt die P-f.s. Konvergenz und aus der P-f.s. Konvergenz und der gleichgradigen Integrierbarkeit folgt L 1 -Konvergenz. b c: Aus der L 1 -Konvergenz folgt sup t E X t <, also die P-f.s. Konvergenz nach Satz Ferner gilt mit dem Lemma von Fatou EX F t lim sup EX s F t X t. s c a: Für X t für alle t folgt, dass X t EX F t gleichgradig integrierbar ist. Satz : Sei X ein rechtsstetiges Martingal. Es sind äquivalent: a X ist gleichgradig integrierbar. b X konvergiert P-f.s. und in L 1 gegen X. c Das Martingal ist abschließbar, d.h. es existiert ein Z L 1 mit X t = EZ F t P-f.s. für alle t. a b: Mit dem vorigen Satz. b c: Setze Z := X L 1. Zu zeigen ist X s = EX F s P-f.s. Sei dazu t s, so gilt X s EX F s L 1 = EX t X F s L 1 E X t X = X t X L 1 t. Noch zu zeigen: EX F t X t P-f.s. Dazu wende wieder das Lemma von Fatou für bedingte Erwartungswerte und die Supermartingal-Eigenschaft an: EX F t lim inf s EX s F t X t P f.s.. 33

34 Satz Optionaler Stoppsatz: Sei X t t [, ] ein rechtsstetiges Submartingal bezüglich F t t und σ τ Optionszeiten bezüglich F t t. Dann gelten a Es gilt EX τ F σ + X σ P f.s. wobei F σ + := {A F : A {σ t} F t + t }. b Falls σ eine Stoppzeit bezüglich F t t ist, so gilt EX τ F σ X σ P f.s.. c Daraus folgt E X τ E X σ E X. d Ist X t t [, ] ein Martingal, so gilt in a bis c Gleichheit. a b: Sei σ eine Stoppzeit und sei A F σ. Dann gilt A {σ t} F t F t +, d.h. A F σ +. Aus a folgt A X τ d P a X σ d P A F σ F σ +, A d.h. es gilt EX τ F σ X σ P-f.s. a: Wir zeigen dies nur für den Martingalfall. Der Fall des Submartingals ist eine Übung. i Reduktion auf diskrete Zeit: Definiere dafür σ n := und analog für τ n. Beachte: { k 2 {ω : k 1 n 2 σω < k n 2 } auf k 2 2n n sonst σ n und τ n sind für festes n beschränkte Stoppzeiten abgesehen von +. σ n und τ n sind ebenfalls Stoppzeiten. Sei dazu t > beliebig. Dann existiert ein k N mit k 2 t < k+1 n 2. Es gilt σ n n t σ < k 2 für ein k 2 2n, d.h. es n gilt { {σ < k {σ n t} = 2 } falls k 2 2n F n k für k 2 2n {σ < 2 n 2 } sonst n F t F 2 n sonst σ n und τ n nehmen nur endlich viele Werte an: { k 2 n : k 2 2n } { }. σ n τ n wegen σ τ. σ n σ und τ n τ. 34

35 σ n σ n+1. Sei n bis auf weiteres fest. X k ist ein F 2 n k -Martingal. Doobs optionaler Stoppsatz zeigt 2 n k EX τn F σn = X σn. Es gilt also für alle A F σn X τn d P = A A X σn d P. Dies gilt insbesondere für alle A k N F σk. Nun gilt A k F σk A {σ k t} F t t k A {σ k t} F t + t A F σ +. k Verwende nur noch für A F σ +. ii Ziel: Limes n in für A F σ +. Dazu benötigen wir die Konvergenz von X τn und X σn in L 1. Es gilt die P-f.s. Konvergenz, d.h. X τ = lim n X τn und X σ = lim n X σn P-f.s. weil σ n σ und τ n τ sowie der Rechtsstetigkeit von X t t. Zeige also die gleichgradige Integrierbarkeit, dann folgt die Behauptung. Nun ist X σn n ein F σn n -Rückwärtsmartingal, da es integrierbar und adaptiert ist und es gilt EX σn F σn+1 = X σn+1 P-f.s. OST in diskreter Zeit. Ferner ist E := lim n E X σn = E X > und damit folgt aus der Übung die gleichgradige Integrierbarkeit. Beispiel Poisson-Prozess: Sei T i i N eine Folge von i.i.d. ZV, wobei T i expλ für λ >. Setze S = und S n = n i=1 T i für n 1 Ankunftszeiten. Definiere N t := max{n : S n t} für alle t [, als die Ankünfte bis zur Zeit t. Dann ist N t t ein N -RCLL stochastischer Prozess. Definiere F N t := σn s : s t. Im letzten Semester wurde gezeigt: N t t hat unabhängige Zuwächse. Daher ist N t N s unabhängig von F s für alle s. N t N s ist Poisson-verteilt mit Erwartungswert λt s. Zeige noch, dass N t t ein Submartingal ist. Dafür sei t > s. Dann gilt EN t F s = EN s + N t N s F s = N s + EN t N s = N s + λt s N s. Definition kompensierter Poisson-Prozess: Definiere M t = N t λt für alle t. Beachte, dass F N t = F M t für alle t gilt. Dann ist M t t ein Martingal. 35

36 Bemerkung: Es gilt N t = M t + λt, d.h. ist die Summe von einem Martingal und einem wachsenden, vorhersagbaren Prozess. Vergleiche auch die Doobsche Martingalzerlegung. 36

37 1.4. Doob-Meyer-Zerlegung Definition Aufsteigende Zufallsfolge: Sei Ω, F, P ein W-Raum, F n n eine Filtrierung von F und A n n eine Folge von Zufallsvariablen und A n sei F n -messbar für alle n N. Dann heißt A n n eine aufsteigende zufällige Folge, wenn = A A 1... P-f.s. und E A n = EA n < für alle n N. Eine aufsteigende zufällige Folge A n n heißt integrierbar, wenn EA < für A = lim n A n. Eine beliebige Folge von Zufallsvariablen ξ n n heißt vorhersagbar predictable bezüglich F n n, wenn ξ n F n 1 für alle n N. Bemerkung Martingaltransformation: Sei ξ n n eine vorhersagbare Folge mit E ξ n < für alle n und M n n ein beschränktes Martingal. Dann ist mit auch Y n n ein Martingal. Y := und Y n := n ξ k M k M k 1 n 1 k=1 Die Integrierbarkeit ist klar, da jeder Summand die Form ξ k M k M k 1 hat mit ξ k L 1 und beschränkt. Es gilt wegen der Vorhersagbarkeit von ξ in EY n+1 F n = EY n + ξ n+1 M n+1 M n F n = Y n + ξ n+1 EM n+1 M n F n = Y n + ξ n+1 = Y n. Definition 1.4.2: Sei A n n eine aufsteigende zufällige Folge bezüglich F n n. Dann heißt A n n natürlich, wenn für alle n 1 n EM n A n = E M k 1 A k A k 1 k=1 für alle beschränkten Martingale M n n gilt. Bemerkung: A n n ist genau dann natürlich, wenn für die Martingaltransformation Y = Y n n von A n n durch jedes beschränkte Martingal E Y n = für n 1 erfüllt. Bezeichne mit M b die Menge der beschränkten Martingale. Dann gilt A n n natürlich n EM k A k = k= n EM k 1 A k n M M b k=1 37

38 sowie beachte, dass A = n n E Y n = n EA k M k = EA k M k 1 n M M b. k= k=1 Proposition 1.4.3: Sei A n n eine aufsteigende zufällige Folge. Dann gilt : Es gilt A n n vorhersehbar A n n natürlich. EM k A k = EEM k A k F k 1 = EA k EM k F k 1 = EA k M k 1 und die Summation über k liefert die Behauptung. : Sei M n n ein beliebiges beschränktes Martingal. Dann gilt denn EM n [A n EA n F n 1 ] = EM n M n 1 A n + EM n 1 [A n EA n F n 1 ] EM n M n 1 EA n F n 1 = EM n M n 1 A n = EY n EY n 1 = mit Y aus der Martingaltransformation und weil A n n natürlich ist, sind alle Erwartungswerte. Zweitens ist EA n EA n F n 1 = und damit verschwindet der zweite Term bedinge vorher auf F n 1 und nutze die Eigenschaften der bedingten Erwartung. Weil M ein Martingal ist, gilt EM n M n 1 EA n F n 1 = E EM n M n 1 F n 1 EA n F n 1. }{{} = Sei n fest. Definiere M n k k durch M n k := { Z n k n EZ n F k mit Z n := sgn A n EA n F n 1 F n. Es gilt 1, also ist M n k beschränkt. M n k EM n k F k 1 = M n k = n folgt dies wegen k k 1 k < n für alle k, denn für k < n folgt dies per Definition. Für EZ n F k 1 = M n k 1 ebenfalls nach Definition. Für k > n gilt EZ n F k = Z n, da Z n F n. 38

39 Mit dieser Wahl gilt = E M n n [ An EA n F n 1 ] = E A n EA n F n 1 }{{} =Z n woraus A n = EA n F n 1 P-f.s. folgt. Also ist A n n vorhersehbar. Definition aufsteigend: A t t heißt aufsteigend, wenn 1 A t t ist F t t -adaptiert 2 A = P-f.s. 3 t A t ω ist monoton wachsend und rechtsstetig P-f.s. 4 E A t < für alle t. Gilt außerdem E A < für A = lim t A t, so heißt A t t integrierbar. Definition natürlich: Sei A t t ein aufsteigender Prozess. Dann heißt A t t natürlich, wenn E M s da s = E M s da s [,t] [,t] für alle t und alle beschränkten, rechtsstetigen Martingale M s s. Bemerkung 1.4.6: i Die Integrale sind wohldefiniert, falls A t t aufsteigend ist und X = X t t ein messbarer stochastischer Prozess. Dann ist für festes ω Ω I t ± ω = X s ± ωda s ω [,t] wohldefiniert als Lebesgue-Stieltjes-Integral d.h. A s ω s induziert ein äußeres Maß. Sofern I t ± ω endlich sind und wohldefiniert, so definiert I t := I t + It einen stochastischen Prozess. In unserem Fall ist X t t = M t t adaptiert und rechtsstetig. Also definiert I t t einen rechtsstetigen, progressiv messbaren stochastischen Prozess. ii Ist A t t aufsteigend und stetig, dann A t t ist natürlich. Beweis von ii: Gemäß Satz 1.3.5v hat M s ω s höchstens abzählbar viele Unstetigkeitsstellen. Also gilt für P-f.a. ω M s ω M s ω da s ω = für alle t >. [,t] 39

40 Lemma 1.4.7: Sei A t t aufsteigend und M t t beschränktes, rechtsstetiges Martingal. Dann gilt EM t A t = E M s da s. [,t] Insbesondere gilt aus Definition genau dann, wenn E [,t] M s da s = EM t A t. Für eine Partition Π = {t,..., t n } von [, t] mit t t 1... t n = t definiere M Π s = n M tk 1 tk 1,t k ]s. Nutze die Martingaleigenschaft in, so gilt n E Ms Π da s = E M tk A tk A tk 1 [,t] k=1 n n 1 = E M tk A tk M tk+1 A tk }{{} k=1 k=1 = M tk k=1 = EM t A t. Für max 1 k n t k t k 1 gilt Ms Π M s. Da Ms Π s beschränkt ist durch die Schranke an M s s für jede Wahl von Π folgt die Behauptung aus dem Satz von Lebesgue. Definition 1.4.8: Definiere Sei X t t rechtsstetig und adaptiert. S := {τ : τ Stoppzeit bzgl. F t t, Pτ < = 1} S a := {τ : τ Stoppzeit bzgl. F t t, Pτ a = 1}. i X t t heißt von der Klasse D, wenn {X τ : τ S} gleichgradig integrierbar ist. ii X t t heißt von der Klasse DL, wenn {X τ : τ S a } gleichgradig integrierbar ist für jedes a >. Aufgabe 1.4.9: Sei X t t ein rechtsstetiges Submartingal mit X t oder X t = M t + A t für jedes t, wobei M ein Martingal und A ein aufsteigender Prozess. Dann ist X t t von der Klasse DL. Ist X t t ein gleichgradig integrierbares, rechtsstetiges Martingal, dann ist X t t von der Klasse D. 4

41 Satz Doob-Meyer-Zerlegung: Sei X t t ein rechtsstetiges Submartingal, X t t von der Klasse DL und F t t erfülle die Standard-Bedingungen. Dann gelten a Es existiert ein rechtsstetiges Martingal M t t und ein aufsteigender Prozess A t t mit X t = M t + A t für alle t. b A t t kann natürlich gewählt werden. c Wenn wir verlangen, dass A t t natürlich ist, dann ist die Zerlegung eindeutig im Sinne der Ununterscheidbarkeit. d Ist X t t von der Klasse D, dann ist M t t gleichgradig integrierbar und A t t integrierbar. Eindeutigkeit: Sei X t = M t + A t = M t + A t für alle t, wobei M t t, M t t rechtsstetige Martingale und A t t, A t t natürliche, aufsteigende Prozesse. Dann ist Z t := A t A t = M t M t wobei A t A t die Differenz zweier monotoner Funktionen, also von beschränkter Variation für festes ω ist. Sei ξ t t ein beschränktes, rechtsstetiges Martingal. Nutze in, dass A t und A t natürlich sind, so gilt Eξ t A t A Lemma t = E ξ s da s ξ s da s,t],t] = E ξ s dz s,t] Lebesgue = lim E m n ξ n n t j 1 Z m t j Z m t j 1 j=1 für eine Folge von Partitionen {t n t,..., tn n m n } mit max 1 j mn j t n j 1 und geschachtelt. Da ξ n t j 1 F n t und Z n j 1 t Z n j t ein Martingal ist, gilt j 1 E ξ n Zt n t Z n j 1 j t = j 1 sodass Eξ t A t A t = für alle t folgt. Wähle ξ t t durch ξ t := Eξ F t für alle t und für eine beschränkte Zufallsvariable ξ. Satz unter üblichen Bedingungen zeigt, dass ξ t t als rechtsstetige Modifikation gewählt werden kann unter Erhalt der Martingal-Eigenschaft. Also gilt = EEξ F t A t A t = Eξ t A t A t. 41

42 Da ξ beliebig war gilt A t = A t P-f.s. Da A t t, A t t rechtsstetig sind, folgt also PA t = A t t = 1. Existenz: Schritt 1: Schränke zunächst auf [, a] ein. Es genügt, dies zu betrachten: verwende dazu die Eindeutigkeit der Fortsetzung auf jedes [, T ]. Schritt 2: Sei also a > fest. Führe eine Zeitdiskretisierung durch: Definiere Y t := X t EX a F t für alle t [, a]. Dabei ist X t ein Submartingal und EX a F t ein Martingal. Daher ist Y t t ein Submartingal mit Y t P-f.s. für alle t. Betrachte die Partition Π n := {t n,..., tn 2n } von [, a] mit tn,..., 2 n. Nutze die Doobsche Martingalzerlegung in diskreter Zeit: Setze Y n t j j := j für j =,..., 2 n, wobei A vorhersagbar und aufsteigend ist. Es gilt A n j 1 = EY n t n t k+1 Y n t k F tk. j k= Ferner gilt Y a = X a EX a F a =, d.h. M n a Y n t j = M n t j + A n t j Schritt 3: Zeige, dass A n a = A n t j Sei dazu λ > beliebig und τ λ = τ n λ τ λ t j 1 A n t j Somit ist τ λ eine Stoppzeit aus S a. EA n a F tj. n gleichgradig integrierbar ist. = A n a. 2 n a für j = = M n t n j +A n t n j := min{a, min{t n j 1 : An t j > λ}}, d.h. es gilt > λ. Insbesondere gilt {τ λ t j 1 } F tj 1, da A n vorhersehbar ist. Es gilt τ λ < a A n a > λ. Auf {τ λ = t j } gilt EA n a j {τ λ = t j } Auflösen nach EA n a führt auf Y τj = A n τ λ {A a n >λ} F tj = EA n a F τλ. Daher gilt auf {τ λ < a} = EA n a F τλ λ EA n a F τλ F τλ und Integration über {A n a A n a d P λ Pτ λ < a Y τλ d P. {τ λ <a} > λ} = {τ λ < a} F τλ Analog für λ 2 statt λ unter Verkleinerung des Integrationsbereiches in führt zu Y τλ/2 d P = A n a A τλ/2 d P {τ λ/2 <a} {τ λ/2 <a} {τ λ <a} λ λ 2 d P = λ 2 Pτ λ < a. 42

Vorlesungsskript: Martingale

Vorlesungsskript: Martingale Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................

Mehr

Terminologie Stochastischer Prozesse

Terminologie Stochastischer Prozesse Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis SS1 von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 6. Mai 21 Inhaltsverzeichnis 1 Motivation / Einführung 4 1.1 Motivation anhand

Mehr

1 Bedingte Erwartungswerte

1 Bedingte Erwartungswerte Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 : 24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar

Mehr

A. Maß- und Integrationstheorie

A. Maß- und Integrationstheorie A. Maß- und Integrationstheorie Im folgenden sind einige Ergebnisse aus der Maß- und Integrationstheorie zusammengestellt, die wir im Laufe der Vorlesung brauchen werden. Für die Beweise der Sätze sei

Mehr

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109 A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 19 A. Stochastische Prozesse und Stoppzeiten In dieser Vorlesung arbeiten wir immer auf einem Massraum (Ω, F), der gross genug ist, um alle definierten Objekte

Mehr

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457. Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Aufgaben zu Kapitel 0

Aufgaben zu Kapitel 0 Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016 Übungen zu bedingten Erwartungswerten Tutorium Stochastische Prozesse 13. Dezember 2016 Bedingter Erwartungswert Definition Sei X eine reellwertige Zufallsvariable auf (Ω, A, P), so dass E[ X ]

Mehr

Stochastische Prozesse

Stochastische Prozesse Stochastische Prozesse Prof. Dr. H.R. Lerche Abteilung für Mathematische Stochastik Universität Freiburg März 2014 Inhaltsverzeichnis 1 Martingale 1 1.1 Definitionen und Eigenschaften..........................

Mehr

Lösungsvorschläge für das 5. Übungsblatt

Lösungsvorschläge für das 5. Übungsblatt Lösungsvorschläge für das 5. Übungsblatt Aufgabe 6 a) Sei = [0, ], f(x) := [e x ] für x. Hierbei ist [y] := maxk Z k y} für y. Behauptung: f ist messbar und es ist f(x) dx = 2 log 2. falls x [0, log 2),

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Schwache Konvergenz von Wahrscheinlichkeitsmaßen Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Maße auf Produkträumen

Maße auf Produkträumen Maße auf Produkträumen Es seien (, Ω 1 ) und (X 2, Ω 2 ) zwei Meßräume. Wir wollen uns zuerst überlegen, wie wir ausgehend davon eine geeignete σ-algebra auf X 2 definieren können. Wir betrachten die Menge

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Stochastische Analysis

Stochastische Analysis PD Dr. Jürgen Dippon, Universität Stuttgart Stochastische Analysis Stuttgart, Wintersemester 211/212 Version: 15. Februar 212 Für Hinweise auf Druckfehler und Kommentare jeder Art bin ich dankbar. 1 Viel

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Zufallsvariable, Verteilung, Verteilungsfunktion

Zufallsvariable, Verteilung, Verteilungsfunktion Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Stochastische Analysis. Karl-Theodor Sturm

Stochastische Analysis. Karl-Theodor Sturm Stochastische Analysis Karl-Theodor Sturm Literatur: I. Karatzas, S. Shreve: Brownian Motion and Stochastic Calculus. 2nd ed. Springer 91 D. Revuz, M. Yor: Continuous Martingales and Brownian Motion,

Mehr

1 Stochastische Prozesse in stetiger Zeit

1 Stochastische Prozesse in stetiger Zeit 1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis Vorlesung SS 22 Jürgen Dippon Mathematisches Institut A Universität Stuttgart Homepage der Vorlesung: www.mathematik.uni-stuttgart.de/matha/lst3/dippon/sa Version vom 17. Juni 23

Mehr

2 Allgemeine Integrationstheorie

2 Allgemeine Integrationstheorie 2 Allgemeine Integrationstheorie In diesem Abschnitt ist (,S,µ) ein Maßraum, und wir betrachten R immer mit der σ Algebra B(R). Ziel ist es, messbare Funktionen f : R zu integrieren. Das Maß µ wird uns

Mehr

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2). Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche

Mehr

Wichtige Klassen reeller Funktionen

Wichtige Klassen reeller Funktionen 0 Wichtige Klassen reeller Funktionen Monotone Funktionen sind i.a. unstetig, aber man kann etwas über das Grenzwertverhalten aussagen, wenn man nur einseitige Grenzwerte betrachtet. Definition 0. : Sei

Mehr

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik II Wahrscheinlichkeitstheorie I Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 26. November 2002

Mehr

1 Konvergenz im p ten Mittel

1 Konvergenz im p ten Mittel Konvergenz im p ten Mittel 1 1 Konvergenz im p ten Mittel In diesem Paragraphen werden zunächst in Abschnitt 1.1 die L p Räume eingeführt. Diese erweisen sich als vollständige, lineare Räume über R. In

Mehr

7 Bedingte Erwartungswerte und Bedingte Verteilungen

7 Bedingte Erwartungswerte und Bedingte Verteilungen 7 edingte Erwartungswerte und edingte Verteilungen Sei (Ω,, P ein W Raum, (Ω, ein Messraum, Y : Ω Ω sei (, -messbar und nehme die Werte y 1,..., y n Ω an. Y 1 (y k {ω Ω Y (ω y k } : k Ω 1 + + n und σ(y

Mehr

Ferienkurs in Maß- und Integrationstheorie

Ferienkurs in Maß- und Integrationstheorie Zentrum Mathematik Technische Universität München Dipl. Math. Wolfgang Erb WS 9/ Übungsblatt Ferienkurs in Maß- und Integrationstheorie Aufgabe. (σ-algebren Sei eine Menge und A eine σ-algebra in. Seien

Mehr

Strassen Type Theorems Proseminar Stochastik

Strassen Type Theorems Proseminar Stochastik Strassen Type Theorems Proseminar Stochastik Cecelie Hector Universität Hamburg Fachbereich Mathematik SoSe 2004 Vortrag am 25.06.04 Definition (a). Ein topologischer Raum E heißt polnisch, wenn es eine

Mehr

7 Der Satz von Girsanov

7 Der Satz von Girsanov 7 Der Satz von Girsanov Der Satz von Girsanov wird uns eine neue Perspektive auf die Rolle des Drifts liefern. Die Prozesse Brownsche Bewegung B t, Brownsche Bewegung mit Drift X t = B t + µt haben wir

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

8 Martingale und Stoppzeiten

8 Martingale und Stoppzeiten 8 Martingale und Stozeiten Definition Sei I eine beliebige Indexmenge und (Ω, A, P ) ein Wahrscheinlichkeitsraum. a) Eine Familie von Zufallsvariablen (X t ) t I auf (Ω, A, P ) heißt stochastischer Prozess

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

2.6 Der Satz von Fubini

2.6 Der Satz von Fubini 1 2.6 Der Satz von Fubini Unser Ziel ist der Beweis des folgenden Ergebnisses. 6.1. Satz von Fubini Sei f : R n+m R integrierbar. Dann gibt es eine Nullmenge N R m, so dass gilt: 1. Für alle y R m \ N

Mehr

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral

Mehr

10 Transformation von Zufallsvariablen

10 Transformation von Zufallsvariablen 10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Stochastik WS 007/008 Universität Karlsruhe. 0. 008 r. B. Klar Klausur zur Vorlesung Stochastik II Muster-Lösung auer: 90 Minuten Name: Vorname: Matrikelnummer: iese Klausur hat bestanden,

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 29 UNIVERSITÄT KARLSRUHE Blatt 6 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 27: Sei X eine R + -wertige

Mehr

WAHRSCHEINLICHKEITS- THEORIE II

WAHRSCHEINLICHKEITS- THEORIE II Skript zur Vorlesung WAHRSCHEINLICHKEITS- THEORIE II Jürgen Gärtner unter Mitwirkung von S. Ribbecke, N. Paetsch und S. Sturm Version Juli 2006 Inhaltsverzeichnis 1. Maßtheoretische Grundlagen 5 1.1.

Mehr

Das Lebesgue-Maß im R p

Das Lebesgue-Maß im R p Das Lebesgue-Maß im R p Wir werden nun im R p ein metrisches äußeres Maß definieren, welches schließlich zum Lebesgue-Maß führen wird. Als erstes definieren wir das Volumen von Intervallen des R p. Seien

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich

Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich Erwartungswert Naiv stellt man sich unter dem Erwartungswert einer Zufallsvariablen X Folgendes vor. Man führt das Experiment n-mal durch und bestimmt den Mittelwert (arithmetisches Mittel) der dabei für

Mehr

Lösungen zu Übungsblatt 9

Lösungen zu Übungsblatt 9 Analysis : Camillo de Lellis HS 007 Lösungen zu Übungsblatt 9 Lösung zu Aufgabe 1. Wir müssen einfach das Integral 16 (x + y d(x, y x +y 4 ausrechnen. Dies kann man einfach mittels Polarkoordinaten, da

Mehr

Absolute Stetigkeit von Maßen

Absolute Stetigkeit von Maßen Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches

Mehr

Zusammenfassung der Lebesgue-Integrationstheorie

Zusammenfassung der Lebesgue-Integrationstheorie Zusammenfassung der Lebesgue-Integrationstheorie Das Lebesguesche Integral verallgemeinert das Riemannsche Integral. Seine Vorteile liegen für unsere Anwendungen vor allem bei den wichtigen Konvergenzsätzen,

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Simulation stochastischer Prozesse Peter Frentrup Humboldt-Universität zu Berlin 27. November 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 27. November 2017

Mehr

Finanzmathematik I Lösungvorschläge für Übungsblatt 1

Finanzmathematik I Lösungvorschläge für Übungsblatt 1 Finanzmathematik I Lösungvorschläge für Übungsblatt 1 J. Widenmann ufgabe 1: Zu zeigen ist, dass Q die Definition Ü.1.1.2 erfüllt. Zunächst bemerken wir, dass Q wegen der nnahme f 0 Werte in R + annimmt.

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 24/25 Universität Karlsruhe 7. März 25 Priv-Doz. Dr. D. Kadelka Klausur zur Vorlesung Stochastik II Dauer: 9 Minuten Name: Vorname: Matrikelnummer: Diese Klausur

Mehr

Musterlösung Analysis 3 - Maßtherorie

Musterlösung Analysis 3 - Maßtherorie Musterlösung Analysis 3 - Maßtherorie 10. März 2011 Aufgabe 1: Zum Aufwärmen (i) Zeige, dass die Mengensysteme {, X} und P(X) σ-algebren sind. Es sind jeweils nur die Charakteristika nachzuweisen. (1)

Mehr

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Kapitel 8 Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Wir hatten im Beispiel 5. gesehen, dass die Wärmeleitungsgleichung t u u = f auf Ω (0, ) (8.1) eine parabolische Differentialgleichung

Mehr

Vorlesungsskript Stochastische Analysis mit Finanzmathematik

Vorlesungsskript Stochastische Analysis mit Finanzmathematik Vorlesungsskript Stochastische Analysis mit Finanzmathematik Christoph Kühn Wintersemester 4/5 letzte Aktualisierung:. April 17 1 Inhaltsverzeichnis 1 Eine Motivation 1 Allgemeine Theorie stochastischer

Mehr

Lebesgue-Integral und L p -Räume

Lebesgue-Integral und L p -Räume Lebesgue-Integral und L p -Räume Seminar Integraltransformationen, WS 2012/13 1 Treppenfunktionen Grundlage jedes Integralbegriffs ist das geometrisch definierte Integral von Treppenfunktionen. Für A R

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Darstellungssatz von Riesz in vollständig regulären Räumen. Carina Pöll Wintersemester 2012

Darstellungssatz von Riesz in vollständig regulären Räumen. Carina Pöll Wintersemester 2012 Darstellungssatz von Riesz in vollständig regulären Räumen Carina Pöll 0726726 Wintersemester 2012 Inhaltsverzeichnis 1 Einleitung 1 2 Definitionen und Resultate aus der Topologie 1 3 Der Darstellungssatz

Mehr

2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III Teil Der Wienerraum

2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III Teil Der Wienerraum 8 Wahrscheinlichkeitstheorie III Teil 3 Brownsche Bewegung Wir haben die Brownsche Bewegung bereits als Grenzwert reskalierter Irrfahrten in der VL WTH II kennengelernt siehe dazu Abschnitt 5.. In diesem

Mehr

Vollständigkeit. 1 Konstruktion der reellen Zahlen

Vollständigkeit. 1 Konstruktion der reellen Zahlen Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente

Mehr

Wahrscheinlichkeitstheorie

Wahrscheinlichkeitstheorie Vorlesung SS 2011 Wahrscheinlichkeitstheorie Prof. Dr. Franz Merkl getext von Myriam Schmidt/Robert Herrmann Inhaltsverzeichnis Inhaltsverzeichnis 1 Bedingte Erwartungen 3 1.1 Elementare bedingte Erwartungen.............................

Mehr

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen

Mehr

Mathematik III. Vorlesung 74. Folgerungen aus dem Satz von Fubini. (( 1 3 x3 1 2 x2 y +2y 3 x) 1 2)dy. ( y +2y y +4y3 )dy

Mathematik III. Vorlesung 74. Folgerungen aus dem Satz von Fubini. (( 1 3 x3 1 2 x2 y +2y 3 x) 1 2)dy. ( y +2y y +4y3 )dy Prof. Dr. H. Brenner Osnabrück WS 2010/2011 Mathematik III Vorlesung 74 Folgerungen aus dem Satz von Fubini Beispiel 74.1. Wir wollen das Integral der Funktion f :R 2 R, (x,y) x 2 xy +2y 3, über dem Rechteck

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

Metrische äußere Maße, Borel-Maße

Metrische äußere Maße, Borel-Maße Metrische äußere Maße, Borel-Maße Zum einen haben wir mit dem Fortsetzungssatz gesehen, dass man mit einem äußeren Maß (auf P(X) ) stets eine σ-algebra und ein Maß auf dieser bekommt. Liegt nun ein metrischer

Mehr

Übersicht Wahrscheinlichkeitsheorie

Übersicht Wahrscheinlichkeitsheorie Übersicht Wahrscheinlichkeitsheorie Gunther Leobacher und Friedrich Pillichshammer Universität Linz, Institut für Finanzmathematik, Altenbergerstrasse 69, 4040 Linz, Austria E-mail: gunther.leobacher@jku.at,

Mehr

Analysis I - Stetige Funktionen

Analysis I - Stetige Funktionen Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt

Mehr

Universität Ulm Abgabe: Mittwoch,

Universität Ulm Abgabe: Mittwoch, Universität Ulm Abgabe: Mittwoch, 8.5.23 Prof. Dr. W. Arendt Jochen Glück Sommersemester 23 Punktzahl: 36+4* Lösungen Halbgruppen und Evolutionsgleichungen: Blatt 2. Sei X ein Banachraum und (T (t)) t

Mehr

Nun zeigen wir: wie kann man durch eine Liftung eine neue Unterlösung konstruieren.

Nun zeigen wir: wie kann man durch eine Liftung eine neue Unterlösung konstruieren. 56 SS2016 Definition 6.17 (Unterlösung,Oberlösung). Ω R n seieingebietleinelliptischeroperator wie in Bedingung 6.1. Seien a i j, b i c stetig mit c 0 in Ω. Sei f stetig in Ω. Eine Funktion u C(Ω) heißt

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Seminar Gewöhnliche Differentialgleichungen

Seminar Gewöhnliche Differentialgleichungen Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

2. Integration. {x : f(x) <a+ 1 n }

2. Integration. {x : f(x) <a+ 1 n } 9 2.1. Definition. 2. Integration in Maß ist eine nichtnegative, abzählbar additive Mengenfunktion. in Maßraum ist ein Tripel (X,,µ) bestehend aus einem messbaren Raum X mit der -lgebra und einem auf definierten

Mehr

Lösungen der Übungsaufgaben von Kapitel 3

Lösungen der Übungsaufgaben von Kapitel 3 Analysis I Ein Lernbuch für den sanften Wechsel von der Schule zur Uni 1 Lösungen der Übungsaufgaben von Kapitel 3 zu 3.1 3.1.1 Bestimmen Sie den Abschluss, den offenen Kern und den Rand folgender Teilmengen

Mehr

(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist.

(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist. 8 Punktmengen Für die Menge M = { 1 n ; n N } ist 1 = max(m), denn 1 M und 1 n 1 für alle n N. Die Menge M besitzt aber kein Minimum, denn zu jeder Zahl x = 1 n M existiert ein y M mit y < x, etwa y =

Mehr

KONSTRUKTION VON MASSEN

KONSTRUKTION VON MASSEN KONSTRUKTION VON MASSEN MARCUS HEITEL 1. Einleitung Wir wollen im Folgenden das Lebesguemaß konstruieren. Dieses soll die Eigenschaft λ ( [a, b = b a für a, b R besitzen. Nun ist ein Maß aber auf einer

Mehr

Maßtheorie. Skript zur Vorlesung von Prof. Dr. Michael Kohler. Sommersemester 2005 und Wintersemester 2005/2006

Maßtheorie. Skript zur Vorlesung von Prof. Dr. Michael Kohler. Sommersemester 2005 und Wintersemester 2005/2006 Maßtheorie Skript zur Vorlesung von Prof. Dr. Michael Kohler Sommersemester 2005 und Wintersemester 2005/2006 1 1 Grundbegriffe der Maßtheorie Ziel: Konstruktion von Maßzahlen (wie z. B. Länge / Fläche

Mehr