Stochastische Analysis

Größe: px
Ab Seite anzeigen:

Download "Stochastische Analysis"

Transkript

1 PD Dr. Jürgen Dippon, Universität Stuttgart Stochastische Analysis Stuttgart, Wintersemester 211/212 Version: 15. Februar 212 Für Hinweise auf Druckfehler und Kommentare jeder Art bin ich dankbar. 1 Viel Spaß! 1 PD Dr. Jürgen Dippon, Universität Stuttgart, juergen.dippon@mathematik.uni-stuttgart.de; Jan-Cornelius Molnar, jan.molnar@studentpartners.de

2

3 Inhaltsverzeichnis Einführung 5 -A Eine informelle Einführung Stochastische Prozesse 11 1-A Grundlegende Begriffe B Martingale C Optional Sampling und Optional Stopping D Beispiele wichtiger stochastischer Prozesse Poisson-Prozess Wiener-Prozess Lévy-Prozesse E Lokale Martingale Stochastische Integration linksstetiger Prozesse 45 2-A Stieltjes-Integration B Semimartingale C Stochastische Integrale D Eigenschaften stochastischer Integrale E Die quadratische Variation von Semimartingalen F Die Itô-Formel Beweis der Itô-Formel Multivariate Itô-Formel G Das Fisk-Stratonovich-Integral H Einige Anwendungen der Itô-Formel Zerlegung von Semimartingalen 87 3-A Klassische Semimartingale B Der Satz von Girsanov

4 -1 Inhaltsverzeichnis 4 Stochastische Integration vorhersagbarer Prozesse 13 4-A Integration beschränkter Semimartingale Die Topologie der Integratoren Die Topologie der Integranden Erweiterung des Integrals B Integration vorhersagbarer Prozesse Martingaldarstellungssätze A Der Raum der L 2 -beschränkten Martingale Stabilität Schwache und starke Orthogonalität Eine Folgerungen B Martingaldarstellung M 2 -Martingalmaße Martingaldarstellung bezüglich einer Brownschen Bewegung Index 135 Symbolverzeichnis 137 Literaturverzeichnis Februar 212

5 Einführung Die Stochastische Analysis verbindet Konzepte der Analysis mit denen der Wahrscheinlichkeitstheorie. Eine zentrale Frage ist, wie sich die wohlbekannten Kalküle wie Differentiation und Integration übertragen, wenn die zugrundeliegenden Objekte auch vom Zufall abhängen. Sie spielt in vielen Anwendungen eine fundamentale Rolle, z.b. in der Finanzmathematik, der stochastischen Physik und bei der Modellierung von biologischen Prozessen. -A Eine informelle Einführung Einen stochastischen Prozess kann man als eine Familie von Zufallsvariablen auffassen. Im diskreten Fall ist diese Familie über eine endliche bzw. abzählbare Indexmenge parametrisiert und man erhält Folgen von Zufallsvariablen. Im kontinuierlichen Fall dagegen ist die Indexmenge überabzählbar, z.b. ein Intervall, eine offene Teilmenge des R d oder eine Teilmenge eines Hilbertraums. Als zentrales Beispiel betrachten wir im Folgenden einen Aktienkurs S = (S t ) t [,T ], dabei ist S t für jedes t [, T ] eine log-normalverteilte Zufallsvariable. Sind die Pfade t S t (ω) stetig, kann man S auch als Abbildung vom Ereignisraum in die stetigen Abbildungen auffassen S : Ω C ([, T ]), oder als reellwertige Abbildung, die stetig von einem Parameter abhängt, S : Ω [, T ] R. Die einfachste Interpretation ist jedoch die, dass S jedem Zeitpunkt t eine Zufallsvariable S t zuordnet. 5

6 Einführung Wie entwickelt sich der Aktienkurs? Ein erstes Modell stellte 19 Louis Bachelier 1 vor. Er vermutete, dass die Zuwächse S t einem deterministischen Trend folgen, welcher durch eine zufällige Komponente gestört wird, S t = µ t + σ W t. Für kleine Zeiträume von etwa einem Tag oder einem Monat ist dieses Modell durchaus annehmbar. Die zufällige Komponente W t ist hier eine N(, t)-verteilte Zufallsvariable und W t eine Brownsche Bewegung..1 Definition Eine Standard-Brownsche Bewegung (auch Wiener-Prozess) ist ein stochastischer Prozess mit unabhängigen, stationären und normalverteilten Zuwächsen. Es gilt also W = und für = t < t 1 <... < t n = T sind die W k = W tk+1 W tk unabhängige und N(, t k+1 t k )-verteilte Zufallsvariablen. Meist nehmen wir noch zusätzlich an, dass die Pfade stetig sind, d.h. W t (ω) ist stetig in t für jedes ω Ω. Formal erhält man beim Übergang t ein infinitesimales Modell für den Aktienkurs ds t = µdt + σ dw t. ( ) Hierbei ist jedoch zunächst nicht klar, wie die Differentiale zu interpretieren sind. In der Tat ist eine Brownsche Bewegung W t bis auf eine Nullmenge nirgends differenzierbar, denn ihre Totalvariation ist unbeschränkt, Var ( ) Wt = 1 t t 2 Var( W t) = 1, t. t Eine Berechtigung für die Schreibweise ( ) liefert die Integration der Gleichung, S t = S + µt + W t. 1 Louis Bachelier (* 11. März 187 in Le Havre; 26. April 1946 in St-Servan-sur-Mer) war ein französischer Mathematiker Februar 212

7 Eine informelle Einführung -A Es ist ein fundamentales Prinzip, dass stochastische Differentialgleichungen stets durch die zugehörigen stochastischen Integralgleichungen interpretiert werden. Ein Problem des Modells von Bachelier ist jedoch, dass die Wahrscheinlichkeit für einen negativen Aktienkurs strikt positiv ist P(S t < ) >, und dies wiederspricht der Realtiät. Dieser Misstand wurde erst 1965 durch ein alternatives Modell von Paul Samuelson 2 behoben. Er leitete aus der Beobachtung, dass hohe Kurse auch große Änderungsraten mit sich führen, folgende Beschreibung der Zuwächse ab S t = µs t t + σ S t W t. In diesem Modell werden also nicht die Zuwächse sondern die Renditen nach Bachelier modelliert S t S t = µ t + σ W t. Statistische Beobachtungen belegen, dass Samuelsons Modell die Wirklichkeit wesentlich besser beschreibt als das von Bachelier. Auch hier erhält man durch den Übergang t eine infinitesimale Version ds t = µs t dt + σ S t dw t, wobei bei Betrachtung der Differentiale ähnliche Probleme wie vorhin auftreten. Nach Integration erhält man die stochastische Integralgleichung S t S = µ S τ dτ + σ S τ dw τ. Hier stellt sich nun die Frage wie der Integrand S τ dw τ zu interpretieren ist, denn aufgrund der Irregularität von W t ist eine Auffassung als Riemann-Stieltjes-Integral nicht möglich. Im Laufe dieser Vorlesung widmen wir uns zunächst Fragen zur Existenz und Eindeutigkeit von Lösungen solcher Integralgleichungen. Weiterhin suchen wir nach Wegen, diese Lösungen zu beschaffen. Wie im klassischen Fall werden wir 2 Paul Anthony Samuelson (* 15. Mai 1915 in Gary, Indiana; 13. Dezember 29 in Belmont, Massachusetts[1]) war ein US-amerikanischer Wirtschaftswissenschaftler und Träger des Wirtschaftsnobelpreises von Februar 212 7

8 Einführung feststellen, dass für die Mehrzahl dieser Probleme keine geschlossenen Ausdrücke existieren, daher beschäftigen wir uns auch mit numerischer Approximation. Als Motivation betrachten wir nun ein elementares Integral W τ dw τ. Rechnen wir strikt formal nach dem aus der Analysis bekannten Kalkül, erhalten wir W τ dw τ = 1 d(wτ 2 ) = W τ 2 t. Es stellt sich nun heraus, dass diese Rechnung nicht korrekt ist, denn es gilt W τ dw τ = 1 2 W t t2, zumindest im L 2 -Sinn. Wir wollen dies nun herleiten. Unter der Voraussetzung, dass die Pfade stetig sind, können wir das Integral auch als Limes von Riemmann- Summen betrachten n 1 W τ dw τ = lim W ti (W ti+1 W ti ), n i= wobei wir W τ am linken Randpunkt t i auswerten. Diese Wahl erleichtert nicht nur die Rechnung, sondern bewirkt auch, dass die entstehenden Objekte Martingale und folglich sehr angenehm zu handhaben sind. Um den Grenzwert zu berechnen, betrachten wir zunächst n 1 i= W ti (W ti+1 W ti ) = 1 n 1 (Wt 2 2 i+1 Wt 2 i ) 1 n 1 (W ti+1 W ti ) 2 2 i= i= = 1 2 (W t 2 W 2 ) 1 n 1 (W ti+1 W ti ) 2. 2 Der Erwartungswert des letzten Terms ist n 1 n 1 n 1 E (W ti+1 W ti ) 2 = Var(W ti+1 W ti ) = (t i+1 t i ) = t, i= i= denn die Zuwächse W ti+1 W ti sind N(, t i+1 t i ) verteilt. Weiterhin gilt 2 n 1 n 1 E (W ti+1 W ti ) 2 t = Var (W ti+1 W ti ) 2 i= n 1 = i= i= i= Var(W ti+1 W ti ) 2, i= Februar 212

9 Eine informelle Einführung -A nach dem Satz von Bienaymé. Nach Voraussetzung ist die Varianz der Zuwächse t, also W ti+1 W ti = t Z mit einer standard normalverteilten Zufallsvariablen Z. Somit gilt n 1 i= n 1 Var(W ti+1 W ti ) 2 = i= t 2 Var(Z 2 ) = 3t t, d.h. es liegt Konvergenz im L 2 -Sinn vor n 1 i= W ti (W ti+1 W ti ) L W 2 t 1 2 W t und folgende Definition ist sinnvoll W τ dw τ = 1 2 W 2 t 1 2 t. Wir benötigen also einen neuen Kalkül, um Integrale dieser Art zu berechnen. Die aus der Analysis bekannten Methoden wie der Hauptsatz, partielle Integration oder Substitution sind so nicht anwendbar, und der Weg über Riemmann-Summen ist aufwändig und lästig. Die von Itô 3 entwickelte Theorie verallgemeinert die oben genannten Konzepte der Analysis auf Brownsche Bewegungen. Ist f eine differenzierbare Funktion und g von beschränkter Variation, so gilt f (g(t)) = f (g()) + f (g(τ))dg(τ). Wählen wir g(τ) = W τ, so ist nach obiger Rechnung eine Korrektur dieses Terms notwendig. Genauer gilt die sogenannte Itô-Formel f (W t ) = f (W ) + f (W τ ) dw τ + 1 f (W τ ) dτ. 2 Grob gesprochen bezahlt man durch den letzten Term eine Strafe für die Irregularität der Pfade von W t. Zur Motivation der Itô-Formel betrachten wir eine C 3 -Funktion f und zerlegen [, t] in äquidistante Teilintervalle. Mit der Taylorformel erhalten 3 Itô Kiyoshi (* 7. September 1915 in Hokusei-chō (heute Inabe), Präfektur Mie; 1. November 28 in Kyōto) war ein japanischer Mathematiker. 15. Februar 212 9

10 Einführung wir dann n 1 f (W t ) = f (W ) = (f (W ti+1 ) f (W ti )) = n 1 i= i= ( f (W ti )(W ti+1 W ti ) f (W ti )(W ti+1 W ti ) Wäre W von beschränkter Totalvariation, so würden für t alle Terme von 2. Ordnung und höher verschwinden. Dies ist aber nicht der Fall, denn es gilt lediglich (W ti+1 W ti ) 2 = O( t). Somit verschwinden nur die Terme der Ordnung 3 und höher, und die Itô-Formel folgt. In der etwas allgemeineren Situation von f C 1,2, d.h. f (t, x) ist C 1 in t und C 2 in x, existiert ebenfalls eine Itô-Formel, nämlich f (t, W t ) f (, W ) = ḟ (τ, W τ )dτ + f (τ, W τ )dw τ + f (τ, W τ )dτ, ). oder kurz df = ḟ dt + f dw f dt. Mit dieser Formel können wir zeigen, dass der Prozess S t = S exp(σ W t + µt σ 2 t) ( ) die stochastische Differentialgleichung ds t = µs t dt + σ S t dw t des Samuelson Modells für Aktienkurse löst. Setzen wir nämlich f (t, W t ) S t, dann gilt nach obiger Itô-Formel df = ds t = (µ 12 ) σ 2 S t dt + σ S t dw t σ 2 S t dw t = µs t dt + σ S t dw t. Wir werden die Itô-Formel für Semimartingale beweisen. Diese bilden eine große Klasse von stochastischen Prozessen und schließen auch die Brownsche Bewegung mit ein. Anschließend werden wir eine Substitutionsformel sowie eine partielle Integration herleiten. Damit erhalten wir einen Kalkül zur eleganten Analyse von stochastischen Differential- und Integralgleichungen, mit dessen Hilfe wir die berühmte Black & Scholes Formel erarbeiten können Februar 212

11 1 Stochastische Prozesse Wir wollen unseren stochastischen Integrationskalkül für Semimartingale als Integratoren entwickeln. Diese umfassen sowohl Wiener- und Poisson-Prozesse als auch die allgemeineren Lévy-Prozesse, welche spezielle Semimartingale sind. Ursprünglich wurde die Theorie für Wiener-Prozesse entwickelt. Diese eigenen sich z.b. zur Modellierung von Messgrößen, die sich als Summe von vielen kleinen Einflüssen denken lassen, z.b. dem Ort oder Impuls eines Teilchens oder der Rendite eines Aktienkurses. Poisson-Prozesse ermöglichen es, diskrete Ereignisse wie den radioaktiven Zerfall, Tod oder Geburt zu beschreiben. Sowohl Wiener- als auch Poisson-Prozesse sind spezielle Lévy-Prozesse, für die unsere Theorie anwendbar ist. Im Folgenden sammeln wir einige wesentliche Eigenschaften von allgemeinen Martingalen und gehen kurz auf die genannten Prozesse ein. In letzter Zeit wurden auch fraktale Brownsche Bewegungen und andere spezielle Gauß-Prozesse betrachtet, die keine Semimartingale sind. Für diese ist unsere Theorie leider nicht anwendbar, und ein anderer Kalkül notwendig. 1-A Grundlegende Begriffe Für alles Weitere sei (Ω, F, P) stets ein vollständiger Wahrscheinlichkeitsraum. An die Menge Ω stellen wir dabei keine Voraussetzungen, diese kann diskret sein, aber beispielsweise auch eine Teilmenge eines topologischen Vektorraums oder einer Banach-Algebra. Hingegen setzen wir F P(Ω) als σ -Algebra voraus, d.h. F enthält sowohl Komplemente als auch abzählbare Vereinigungen und Durchschnitte. Dies ist besonders relevant, wenn wir Grenzwertprozesse betrachten - wie es in der Analysis üblich ist. Bei der Betrachtung von zeitstetigen Prozessen wäre es auch hilfreich, wenn F überabzählbare Vereinigungen enthielte; dies ist jedoch im Allgemeinen eine zu starke Voraussetzung, die durch zusätzliche Voraussetzungen an den Prozess und/oder Ω umgangen werden muss. Eine Teilmenge A F von Ω nennen wir Ereignis, und sagen A tritt ein, wenn ein Element aus A beobachtet wird. 11

12 1 Stochastische Prozesse Schließlich ist P ein Wahrscheinlichkeitsmaß, d.h. P(Ω) = 1, und die Vollständigkeit von Ω besagt, dass jede Teilmenge einer P-Nullmenge ebenfalls eine P- Nullmenge ist. 1.1 Definition Eine Filtration F = (F t ) t I mit I R ist eine Familie von σ -Algebren, die monoton wächst, d.h. F s F t F, s t. Ein Wahrscheinlichkeitsraum mit einer Filtration F heißt gefilterter Wahrscheinlichkeitsraum; in Zeichen (Ω, F, F, P). Eine Filtration modelliert den Zuwachs von Informationen mit fortschreitender Zeit. Welche Fragen zum Zeitpunkt t beantwortbar sind, regelt dabei die σ -Algebra F t. Grob gesprochen besagt die Monotonie, dass man hinterher immer schlauer ist als vorher. Ein gefilterter vollständiger Wahrscheinlichkeitsraum (Ω, F, F, P) erfüllt die sog. üblichen Bedingungen, falls (a) F alle Nullmengen von F enthält, und (b) F ist rechtsstetig ist, d.h. F t = F u, t. u>t Die Rechtsstetigkeit besagt dabei, dass auf die Menge der zum gegenwärtigen Zeitpunkt t möglichen Ereignisse von der Menge zu zukünftigen Zeitpunkten u > t möglichen Ereignissen zurückgeschlossen werden kann. Ein ähnlicher Schluss von in der Vergangenheit beobachteten Ereignissen auf die Gegenwart wird jedoch im Allgemeinen nicht gefordert. 1.2 Definition Eine Zufallsvariable T : Ω [, ] heißt Stoppzeit (bzgl. F), falls [T t] F t, t. Es kann also mit der bis zum Zeitpunkt t (einschließlich t) theoretisch verfügbaren Information entschieden werden, ob T t. Dies ist eine echte Bedingung, d.h. nicht alle zufälligen Zeiten sind Stoppzeiten. Ein Beispiel für eine Stoppzeit ist der Zeitpunkt, an dem der Dax die 4. Punktegrenze überschreitet. Aufgrund der Rechtsstetigkeit der Filtration erhalten wir die folgende Charakterisierung von Stoppzeiten Februar 212

13 Grundlegende Begriffe 1-A 1.1 Satz Unter den oben genannten üblichen Bedingungen ist T genau dann eine Stoppzeit, wenn für alle t [T < t] F t. Beweis. : Für jedes ε > gilt [T t] = <u<t+ε u R [T < u] u>t u R F u = F t, aufgrund der Rechtsstetigkeit von F, also ist T eine Stoppzeit. : Sei T eine Stoppzeit, dann ist [T < t] = [T t ε], <ε<t ε Q wobei [T t ε] F t ε F t für ε >. v 1.3 Definition Sei I eine Indexmenge. Ein stochastischer Prozess X auf (Ω, F, P) ist eine Familie (X t ) t I von Zufallsvariablen mit Werten in einem Messraum (Ω, F ). Hierbei ist jede Zufallsvariable X t zunächst nur als F F messbar vorausgesetzt und verfügt daher im Allgemeinen über alle Informationen in der σ -Algebra F und nicht nur über die bis zum Zeitpunkt t verfügbaren Informationen aus F t F. 1.4 Definition Ein stochastischer Prozess X heißt adaptiert (zu F), falls X t für jedes t I auch F t F messbar ist. Es handelt sich hierbei um eine echte Einschränkung, denn F t F, d.h. das Urbild der σ -Algebra F muss in der kleinen σ -Algebra F t liegen. 1.5 Definition Zwei stochastische Prozesse X und Y heißen Modifikationen von einander, falls X t = Y t f.s., t I. Zwei stochastische Prozesse X und Y heißen ununterscheidbar, falls P[X t = Y t, t ] = Februar

14 1 Stochastische Prozesse Zwei ununterscheidbare Prozesse sind auch immer Modifikationen voneinander, die Umkehrung gilt im Allgemeinen nicht. Hält man ein ω Ω fest, erhält man einen möglichen Pfad des stochastischen Prozesses X(ω) : I R, t X t (ω). Früher hat man stochastische Prozesse über die Verteilung interpretiert, heute betrachtet man zunehmend die Pfade. Letzteres ist jedoch weitaus schwieriger, denn z.b. im Fall einer Brownschen Bewegung sind diese hochgradig irregulär, nirgends differenzierbar und nicht rektifizierbar. 1.6 Definition Ein stochastischer Prozess, dessen Pfade f.s. rechtsstetig sind und linksseitige Grenzwerte besitzen, heißt càdlàg. Ein stochastischer Prozess, dessen Pfade f.s. linksstetig sind und rechtseitige Grenzwerte besitzen, heißt càglàd. 1.2 Satz Der stochastische Prozess X sei eine Modifikation des stochastischen Prozesses Y. Besitzen X und Y f.s. rechtsstetige Pfade, so sind X und Y ununterscheidbar. Beweis. Setze A [X ist nicht rechtsstetig] und B [Y ist nicht rechtsstetig], dann sind beide Mengen nach Voraussetzung P-Nullmengen. Sei weiterhin N t [X t Y t ], t, dann ist N t F, P-Nullmenge und N t [, ) Q N t ist als abzählbare Vereinigung ebenfalls in F und eine P-Nullmenge. Also gilt X t (ω) = Y t (ω), t [, ) Q, ω M A B N, wobei P(M) =. Für irrationales t [, ) betrachten wir nun eine Folge rationaler Zahlen t n t, dann gilt X tn (ω) = Y tn (ω), n 1, ω M c, und somit ist aufgrund der Rechtsstetigkeit X t (ω) = Y t (ω), t, ω M c. v Februar 212

15 Grundlegende Begriffe 1-A 1.1 Korollar Die beiden stochastische Prozesse X und Y seien càdlàg. Ist X eine Modifikation von Y, so sind X und Y ununterscheidbar. 1.7 Definition Seien X ein stochastischer Prozess und Λ eine Borel-Menge. Die durch T (ω) inf{t > : X t (ω) Λ}, ω Ω definierte Zufallsvariable T heißt Eintrittszeit (hitting time) von X mit Λ. Genau genommen muss noch gezeigt werden, dass T messbar ist. 1.3 Début-Theorem Ist X ein adaptierter càdlàg Prozess und Λ R eine offene Menge, dann ist die Eintrittszeit von X mit Λ eine Stoppzeit. Das Début-Theorem verallgemeinert die Aussage des Satzes für lediglich Borelmessbares Λ und eine schwächere Bedingung an X. Der Beweis ist allerdings ziemlich kompliziert, daher beschränken wir uns auf obigen Spezialfall. Beweis. Wir verwenden die Charakterisierung aus Satz 1.1, d.h. es genügt zu zeigen [T < t] F t, t. Dazu zeigen wir die Darstellung [T < t] = [X q Λ]. q [,t) Q Die Inklusion ist klar. Für die Umkehrung nehmen wir ohne Einschränkung an, dass alle Pfade rechtsstetig sind. Sei ω [T < t], dann ist r T (ω) < t, und folglich existiert ein rationales q mit r q < t und X q Λ, denn Λ ist offen und X rechtsstetig. v 1.4 Satz Ist X ein adaptierter càdlàg Prozess und Λ R eine abgeschlossene Menge, dann definiert T (ω) inf{t > : X t (ω) Λ oder X t (ω) Λ} eine Stoppzeit T. 15. Februar

16 1 Stochastische Prozesse 1.5 Satz Sind S und T Stoppzeiten, so auch a) S T, b) S T, c) S + T, und d) αs für jedes α 1. Beweis. Siehe Aufgabe 1.2. v Man macht sich klar, dass im Allgemeinen S T oder αs für α < 1 keine Stoppzeiten sind. Insbesondere ist die Menge der Stoppzeiten kein Vektorraum. 1-B Martingale In der Vorlesung Wahrscheinlichkeitstheorie haben wir uns bereits mit zeitdiskreten Martingalen beschäftigt. Diese wollen wir nun in natürlicher Weise auf den zeitstetigen Fall verallgemeinern. 1.8 Definition Ein reellwertiger adaptierter Prozess X = (X t ) t [, ) mit (i) E X t <, t, heißt Martingal, falls (ii) E(X t F s ) = X s, s t, Supermartingal, falls (ii) E(X t F s ) X s, s t, und Submartingal, falls (ii) E(X t F s ) X s, s t. Die Integrierbarkeitsbedingung (i) garantiert hierbei, dass die bedingten Erwartungen (ii) definiert sind. Im Folgenden wollen wir bei der Verwendung von bedingten Erwartungen auch immer davon ausgehen, dass die betrachteten Zufallsvariablen integrierbar sind Februar 212

17 Martingale 1-B Während im zeitdiskreten Fall die üblicherweise auftretenden Mengenopertionen abzählbar sind, ist dies für zeitkontinuierlichen Martingale in der Regel nicht mehr so. Um sich dennoch auf abzählbare Opertionen zurückziehen zu können, benötigen wir zusätzliche Regularitätseigenschaften - wie etwa Stetigkeit. Die obige Definition lässt allerdings auch Martingale mit stark irregulären Pfaden zu. Um mehr Regularität zu erhalten, müssen wir daher zusätzliche Annahmen treffen. 1.6 Satz Sei X ein Submartingal. Die Abbildung t EX t ist genau dann rechtsstetig, wenn es eine càdlàg Modifikation Y von X gibt. Eine solche Modifikation ist eindeutig (bis auf Ununterscheidbarkeit) und wieder ein Submartingal. Sofern die relativ schwache Stetigkeitsvoraussetzung an die Kurve des Erwartungswertes von X t erfüllt ist, können wir davon ausgehen, dass X càdlàg ist. Dies erlaubt es uns in vielen Situation uns von überabzählbaren Mengenoperationen auf abzählbar viele zurückzuziehen. Um Satz 1.6 zu beweisen, benötigen wir noch etwas Vorbereitung. Sei F R eine endliche Teilmenge der reellen Zahlen und bezeichne U(X(ω), F, [a, b]), ω Ω, die Anzahl der positiven Überschreitungen des Intervalls [a, b] durch den Pfad X(ω) an den Stellen t i F. Upcrossing Inequality (Doob) Sei X ein Submartingal und F endlich mit maximalem Element t, so gilt (b a) E U(X, F, [a, b]) E(X t a) + E(X t b) +. Beweis. Siehe [2, Satz 11.5]. v Die Anzahl der möglichen positiven Überschreitungen des Intervalls [a, b] sind also durch den Erwartungswert des Positivteils von X t beschränkt. Im nächsten Schritt wollen wir auch abzählbar viele Zeitpunkte zulassen. Dazu setzen wir für eine abzählbare Menge T R U(X(ω), T, [a, b]) sup U(X(ω), F, [a, b]). F T F < Zusatz zu Upcrossing Inequality Sei X ein Submartingal und T abzählbar, so gilt (b a) E U(X, T, [a, b]) sup EX t + + a. t T 15. Februar

18 1 Stochastische Prozesse Beweis. Schöpfen wir T mit endlichen Mengen aus, d.h. mit einer Folge T n T von endlichen Mengen T n <, so gilt U(X(ω), T, [a, b]) = lim n U(X(ω), T n, [a, b]), aufgrund der Monotonie von U. Nach dem Satz von der monotonen Konvergenz können wir Erwartungswert und Grenzwertbildung vertauschen, so dass (b a) E U(X(ω), T, [a, b]) = lim n (b a) E U(X(ω), T n, [a, b]) lim n E(X tn a) + E(X tn b) + sup EX t + + a. v t T Als direkte Konsequenz erhalten wir den folgenden Martingalkonvergenzsatz. 1.7 Submartingalkonvergenzsatz in diskreter Zeit Sei X ein Submartingal mit gleichmäßig L 1 -beschränktem Positivteil, d.h. sup n EX + n <, so gilt X lim n X n existiert f.s.,. Gilt außerdem sup n E X n <, so ist X L 1. Beweis. Mit dem Lemma von Fatou erhalten wir E lim inf n X n E lim sup n X n sup E X n + <. n Die Existenz vorausgesetzt, folgt so sofort die Quasi-Integrierbarkeit von X und, unter der Zusatzvoraussetzung sup n E X n <, auch die Integrierbarkeit. Nehmen wir nun an, der Limes existiere nicht f.s., dann gibt es reelle Zahlen a, b so, dass lim inf n X n < a < b < lim sup X n n auf einer Nichtnullmenge A. Auf dieser Menge müssen die Pfade jedoch das Intervall [a, b] unendlich oft in positiver Richtung überschreiten, also P(U(X, N, [a, b]) = ) P(A) >. Dann wäre aber auch E U(X, N, [a, b]) = im Widerspruch zur Upcrossing Inequality. v Februar 212

19 Martingale 1-B Zunächst ist nur die fast sichere Konvergenz gesichert. Selbst wenn wir voraussetzen, dass die X n gleichmäßig L 1 -beschränktem sind, erhalten im Allgemeinen keine L 1 -Konvergenz. Eine hinreichende Bedingung ist die gleichmäßige L 1+δ - Beschränktheit für ein δ > oder schwächer, die gleichgradige Integrierbarkeit - siehe Aufgabe 1.6 und [6, Kapitel 11]. Definition/Satz Sei (X t ) t I eine Familie von integrierbaren Zufallsvariablen, dann sind folgende Aussagen äquivalent. (i) (X t ) ist gleichgradig integrierbar, (ii) sup t I [ X t >c] X t dp, c, (iii) sup t I X t M < und zu jedem ε > existiert ein δ >, so dass P(A) < δ sup X t < ε. t I A Mit gleichgradiger Integrierbarkeit lässt sich von fast sicherer bzw. stochastischer Konvergenz auf L 1 -Konvergenz schließen. 1.1 Lemma Sei (X n ) eine Folge von gleichgradig integrierbaren Zufallsvariablen, so gilt X n P L X X 1 n X. Die bisher definierten (Sub-/Super-)Martingale beschreiben die Abhängigkeit zukünftiger Beobachtungen von den bisherigen. Wir benötigen allerdings auch die andere Richtung. 1.9 Definition Sei (F n ) eine monoton fallende Folge von Sub-σ -Algebren, d.h. F n F m, n m. Eine Folge X = (X, X 1, X 2,...) mit E X n < für n heißt reverses Submartingal bzgl. (F n ), falls E(X m F n ) X n, n m. Auch für reverse Submartingale existiert ein Konvergenzsatz, dieser ist allerdings um einiges schärfer. 15. Februar

20 1 Stochastische Prozesse 1.8 Konvergenzsatz für reverse Submartingale Sei (X n ) n ein reverses Submartingal, so gilt X lim n X n existiert f.s.. Gilt zusätzlich sup n E X n <, so ist (X n ) n L X 1 n X und auch gleichgradig integrierbar, E(X n F ) X, n, wobei F n F n. Beweis. Aus der Monotonie der bedingten Erwartung und der Submartingaleigenschaft folgt E(X m + F n) E(X m F n ) + X n +, n m. Integration ergibt für die Erwartungswerte sup EX n + EX+ n und letzterer ist endlich aufgrund der Submartingaleigenschaft. Damit zeigt man analog zum Beweis von Satz 1.7 die fast sichere Existenz von X und die Existenz in L 1 unter der Zusatzvoraussetzung. Weiterhin ist für jedes n X n dp = X n dp EX n + [ X n >c] [X n>c] und aufgrund der Submartingaleigenschaft EX n X n dp, [X n c] EX m falls n m. Setzen wir nun sup n E X n M < voraus, so ist EX n monoton fallend und nach unten beschränkt. Folglich existiert zu jedem ε > ein m, so dass EX n > EX m ε, n m. Wir erhalten damit X n dp [ X n >c] = X m dp EX m + [X n>c] X m dp + ε. [ X n >c] X m dp + ε [X n c] Februar 212

21 Martingale 1-B Nach der Markov-Ungleichung ist P[ X n > c] 1 c sup E X n M n c, c, also ist X n gleichgradig integrierbar. Gleichgradige Integrierbarkeit ergibt schließlich X 1 n X L. Sei n m, dann gilt für Γ F F n F m, X n dp X m dp, X dp = lim X n dp, Γ Γ Γ n Γ aufgrund der L 1 -Konvergenz. v Wir können nun die fast sichere Existenz von rechts und linksseitigen Limiten zeigen. 1.9 Satz Sei X ein Submartingal, so existiert eine Menge Ω mit P(Ω ) = 1, so dass die Limites X t (ω) lim X r (ω), t >, r t, r Q und X t +(ω) lim X r (ω), t, r t, r Q für alle ω Ω existieren. Man beachte, dass die Limites nicht nur für einen festen Zeitpunkt t fast sicher existieren, sondern gleichzeitig für alle Zeitpunkte fast sicher. Beweis. Der Beweis verläuft analog zu dem der Konvergenzsätze, wir müssen lediglich argumentieren, wieso bis auf eine Nullmenge die Limites gleichzeitig für alle t existieren. a): Sei I = [t, t 1 ] (, ) ein kompaktes Zeitintervall. Wir betrachten für rationale Zahlen a, b die Menge { } M ab ω Ω : lim inf X r (ω) < a < b < lim sup X r (ω) für ein t I r t, r Q r t, r Q Da X ein Submartingal ist auch (X a) + ein Submartingal und folglich E(X s a) + E(X t a) +, s t Februar

22 1 Stochastische Prozesse Somit gilt nach der Upcrossing Inequality (b a)eu(x, I Q, [a, b]) E(X t1 a) + <, und es ist P[U(X, I Q, [a, b]) = ] =, so dass P(M ab ) =. Somit ist ebenfalls M = a,b Q M ab eine Nullmenge und auf Ω = Ω M gilt lim X r (ω) existiert für alle t I, ω Ω, r t, r Q wobei P(Ω ) = 1. Ausschöpfung von (, ) durch abzählbar viele kompakte Intervalle ergibt die allgemeine Behauptung. b): Man verfährt analog zu a) und dem Beweis von Satz 1.8. v Wir sind nun in de Lage zu beweisen, dass jedes Submartingal mit stetiger Erwartungswertfunktion t EX t eine càdlàg Modifikation besitzt, die eindeutig bis auf Ununterscheidbarkeit ist. Beweis von Satz 1.6. : Die Idee des Beweises liegt darin, X t durch den rechtsseitigen Limes X t + aus Satz 1.9 zu ersetzen und alle Eigenschaften zu verifizieren. Sei also Ω wie vorhin, und lim X r (ω), ω Ω, Y t (ω) X t +(ω) = r t, r Q, sonst, so ist Y t rechsstetig. Aufgrund der üblichen Bedingungen ist F rechtsstetig und F t enthält alle Nullmengen von F. So folgt die B [,t] F t -B-Messbarkeit d.h. Y ist ein adaptierter càdlàg Prozess. Fixiere ein t und eine rationale Folge q n t. Dann ist (X qn ) ein reverses Submartingal mit EX qn EX t, denn E(X qn F t ) X t. Wie in Satz 1.8 folgt, dass X qn gleichgradig integrierbar ist und X qn L 1 X t. Es gilt also einerseits aufgrund der Stetigkeit von t EX t EY t = lim n EX qn = EX t, Februar 212

23 Martingale 1-B sowie andererseits aufgrund der gleichgradigen Integrierbarkeit X t E(X qn F t ) E(Y t F t ) = Y t. Somit ist X t = Y t f.s. und Y ist eine Modifikation von X. Insbesondere gilt für jedes s t ( ) E(Y t F s ) = E lim X f.s. q n n F s = lim E(X qn F s ) X s = Y s, n womit die Submartingaleigenschaft folgt. Satz 1.9 liefert nun auch die Existenz linksseitiger Grenzwerte, also ist Y eine càdlàg Modifikation von X. Jede andere càdlàg Modifikation stimmt aufgrund von Satz 1.9 für alle t gleichzeitig mit Y f.s. überein, also ist Y eindeutig bis auf Ununterscheidbarkeit. : Sei Y eine càdlàg Modifikation von X. Wir fixieren erneut ein t und eine Folge t n t, so ist (X tn ) ein reverses Submartingal und gleichgradig integrierbar. Insbesondere gilt P([X tn = Y tn, Y t = X t ]) = 1, so dass X tn = Y tn Y t = X t f.s. und aufgrund der gleichgradigen Integrierbarkeit auch EX tn EX t. Somit folgt die Rechtsstetigkeit von t EX t. v Nach diesen etwas technischen Vorbereitungen können wir uns nun stets auf Martingale mit càdlàg Pfaden zurückziehen, sofern zumindest die Erwartungswertkurve t EX t stetig ist. Davon wollen wir im Folgenden aber immer ausgehen. 1.1 Submartingalkonvergenzsatz in kontinuierlicher Zeit Sei (X t ) ein Submartingal mit sup t EX t + <, so gilt X lim t X t existiert f.s.. Gilt außerdem sup t E X t <, so ist X L 1. Beweis. Der Beweis ist analog zu Satz 1.9. v 1.2 Korollar Ist X ein nichtnegatives Supermartingal, so gilt X lim t X t existiert f.s Februar

24 1 Stochastische Prozesse Beweis. Aufgrund der Supermartingaleigenschaft ist EX t EX für alle t und damit sup t E X t = sup EX t EX <, t also können wir Satz 1.1 auf X t anwenden. v Um neben fast sicherer Konvergenz auch L 1 -Konvergenz zu erhalten, müssen wir zusätzliche Voraussetzungen an die Integrierbarkeit des Prozesses stellen. Der folgende Satz liefert nun eine sehr befriedigende Charakterisierung der L 1 -Konvergenz Satz Für ein (rechtsstetiges) Martingal X = (X t ) sind äquivalent: (i) X t L 1 X lim t X t, (ii) Es gibt ein X L 1 mit X t = E(X F t ) (X heißt Abschluss des Martingals X), (iii) X ist gleichgradig integrierbar. Ist X abschließbar, also Bedingung (ii) erfüllt, so kann man den gesamten Prozess X aus einer einzigen integrierbaren Zufallsvariable X wiedergewinnen. Beweis. (ii) (iii): Sei α >, dann gilt einerseits X t dp = [ X t >α] = und andererseits nach Markov E(X F t ) dp [ X t >α] E( X F t )dp [ X t >α] X dp, [ X t >α] P([ X t > α]) 1 α E E(X F t ) E X α Also ist X gleichgradig integrierbar., α. (iii) (i): Sei X gleichgradig integrierbar, dann gilt insbesondere sup t E X t <. Mit Satz 1.1 folgt somit die fast sichere Existenz von X = lim t X t und gleichgradige Integrierbarkeit ergibt dann L 1 -Konvergenz Februar 212

25 Optional Sampling und Optional Stopping 1-C (i) (ii): Nach Voraussetzung ist X = lim t X t f.s. und in L 1. Wähle h, dann gilt E X t E(X F t ) E X t E(X t+h F t ) + E E(X t+h F t ) E(X F t ) = E X t X t + E E(X t+h X F t ) EE( X t+h X F t ) = E X t+h X, h. Da der linke Ausdruck unabhängig von h ist, gilt X t = E(X F t ) f.s.. v 1-C Optional Sampling und Optional Stopping Die bisher betrachteten Prozesse X = (X t ) hingen deterministisch von der Zeit t ab. Wir wollen nun untersuchen, welche Eigenschaften des Prozesses X erhalten bleiben, wenn man die Zeit ebenfalls als zufällige Größe modelliert. Es sinnvoll zu verlangen, dass die zufällige Zeit selbst nicht von Informationen aus der Zukunft abhängt, daher sind Stoppzeiten kanonische Kandidaten. 1.1 Definition der T Vergangenheit Die zur Stoppzeit T gehörige σ -Algebra F T der T -Vergangenheit ist definiert durch F T { A F : A [T t] F t für alle t }. Im Gegensatz zu X T hängt F T nicht vom Zufall ab, sondern bezeichnet eine feste σ -Algebra. Diese enthält alle Ereignisse A, für die mit der zum Zeitpunkt t verfügbaren Information entschieden werden kann, ob A und [T t] gemeinsam eingetreten sind. Eine Menge A ist dann nicht in F T, wenn A zu detailliert ist, um mit den zum zufälligen Zeitpunkt T verfügbaren Informationen eine Aussage über das gemeinsame Eintreten von A und [T t] zu treffen. Der folgende Satz charakterisiert die σ -Algebra F T mittels adaptierter càdlàg Prozesse Satz Ist T eine Stoppzeit, so ist F T die kleinste σ -Algebra, die von allen zum Zeitpunkt T beobachteten adaptierten Prozessen mit càdlàg Pfaden erzeugt wird. Beweis. Sei G σ ({X T T < vorausgesetzt. : X adaptierter càdlàg Prozess}), und der Einfachheit halber 15. Februar

26 1 Stochastische Prozesse F T G: Wähle A F T, dann ist A [T t] F t für alle t. Folglich definiert X t (ω) 1 A [T t] = 1 A (ω) 1 [T (ω) t] einen zur Filtration F adaptierten stochastischen Prozess mit càdlàg Pfaden. Weiterhin ist X T = 1 A und somit A G. G F T : Sei X ein adaptierter càdlàg Prozess, so ist zu zeigen, dass X T F T - messbar ist, was nach der Definition von F T äquivalent ist zu [X T B] [T t] F t, t, für jede Borel-Menge B. Wir interpretieren dazu X als X : [, ) Ω R, (s, ω) X(s, ω) X s (ω). Da X rechtsstetig ist, ist X : [, t] Ω R für jedes t auch B t F t -B-messbar und adaptiert (ohne Beweis). Weiterhin sei für beliebiges t >, ϕ t : [T t] [, ) Ω, ω ϕ(ω) (T (ω), ω), so ist ϕ t F t [T t] B (F t [T t])-messbar. Die Hintereinanderausführung X ϕ ist daher F t [, t) B-messbar und folglich [X T B] [T t] = [X ϕ B] F t für jedes B B. Da t beliebig war folgt die F T B-Messbarkeit von X T. v 1.13 Optional Sampling Theorem von Doob Sind X ein Martingal mit Abschluss X und S, T Stoppzeiten mit S T f.s., dann sind X S und X T integrierbar und es gilt X S = E(X T F S ). Ersetzen wir die deterministische Zeit t durch die zufällige Stoppzeit T, so wird die Martingaleigenschaft nicht zerstört. Die Stoppzeiteigenschaft ist dabei essentiell und stellt sicher, dass S und T keine Informationen aus der Zukunft verwenden. Bemerkung. Das Optional Sampling Theorem bleibt richtig, wenn man die Existenz des Abschlusses X durch gleichgradige Integrierbarkeit oder X t L 1 X ersetzt - siehe Satz Februar 212

27 Optional Sampling und Optional Stopping 1-C Man mache sich klar, dass X T eine einzige Zufallsvariable bezeichnet, während X einen Prozess und damit eine Familie solcher darstellt. Unser erster Schritt zum Beweis des Optional Sampling Theorems besteht darin sicherzustellen, dass für einen Prozess X und eine Stoppzeit T überhaupt E(X T F T ) = X T f.s. gilt Satz Seien X ein adaptierter càdlàg Prozess und T eine Stoppzeit. Dann ist X T F T - messbar. Beweis. Dies haben wir bereits im Beweis von Satz 1.12 gezeigt. v Im nächsten Schritt betrachten wir den Spezialfall, dass die Stoppzeiten lediglich endlich viele verschiedene Werte annehmen Satz Seien S T zwei Stoppzeiten mit endlich vielen Werten (eventuell einschließlich ). Ist X ein gleichgradig integrierbares Martingal, so gilt X S = E(X T F S ) = E(X F S ) f.s.. Beweis. Wir zeigen, dass F (X T X S )dp = für alle Mengen F F S stimmen dann E(X T F S ) und E(X S F S ) = X S fast sicher überein. gilt. Somit Seien = t t 1... t n die möglichen Werte von S und T, und F F S, so gilt (X T X S )1 F = n (X tj X tj 1 )1 [S<tj T ] 1 F. j= Schreiben wir [S < t j T ] = [S t j 1 ] [T > t j 1 ], so ist 1 [S<tj T ] 1 F offenbar F tj 1 -messbar und wir erhalten ( n ) E ((X T X S )1 F ) = E E (X tj X tj 1 )1 [S<tj T ] 1 F F tj 1 = n j= =, j= ) E (E(X tj X tj 1 F tj 1 ) 1 [S<tj T ] 1 F denn E(X tj X tj 1 F tj 1 ) für j n aufgrund der Martingaleigenschaft. Somit gilt fast sicher E(X T F S ) = E(X S F S ) = X S. Aus der gleichgradigen Integrierbarkeit folgt, dass X abschließbar ist. Betrachten wir nun T, so nimmt T nur endlich viele Werte an und es gilt S T für alle Stoppzeiten S. Somit folgt die 2. Behauptung. v 15. Februar

28 1 Stochastische Prozesse Im letzten Schritt gehen wir von Stoppzeiten mit endlich vielen Werten über zu Stoppzeiten, die überabzählbar viele verschiedene Werte annehmen können. Essentiell für diesen Übergang ist hier die Rechtsstetigkeit des Martingals. Beweis des Optional Sampling Theorems Wir zeigen zunächst, dass für eine beliebige Stoppzeit S gilt X S = E(X F S ). ( ) Die allgemeine Aussage folgt daraus, denn für jede Stoppzeit T S gilt F T und somit F S E(X T F S ) = E(E(X F T ) F S ) = E(X F S ) = X S. Wir betrachten wieder beide Seiten von ( ) unter Integration über F F S. Definiere dazu für jedes k 1, S k, S k q q 1, S < q, 2 k 2 k 2 k so nimmt S k S nur endlich viele Werte an, es gilt S k S, und [S k t] = [S < p2 ] { k, p = max q : } q 2 k t. Aufgrund der üblichen Bedingungen ist S k eine Stoppzeit und es gilt nach Satz 1.15 X Sk = E(X F Sk ). ( ) Da S k S ist, gilt F S F Sk und somit E(X Sk F S ) = E(E(X F Sk ) F S ) = E(X F S ). Mit Satz 1.11 folgt aus ( ), dass (X Sk ) k gleichgradig integrierbar ist. Ferner gilt L X Sk X S f.s. und damit auch X 1 Sk X S. Insbesondere gilt auch F X Sk dp X S dp F für jedes F F S und somit ist E(X F S ) = E(X S F S ) = X S, was zu zeigen war. v Februar 212

29 Optional Sampling und Optional Stopping 1-C Für Submartingale existiert ein zum Optional Sampling Theorem analoges Resultat. Auch hier zerstört das Ersetzen der deterministischen Zeit durch eine Stoppzeit die Submartingaleigenschaft nicht Satz Sind X ein rechtsstetiges Submartingal und S, T Stoppzeiten mit S T f.s., dann sind X S und X T integrierbar und es gilt X S E(X T F S ). Der Beweis verläuft ähnlich zu dem von Satz Allerdings können wir uns nicht auf den Spezialfall ( ) zurückziehen, da es im Allgemeinen nicht sinnvoll ist die Existenz eines Abschlusses für ein Submartingal zu fordern. In den Anwendungen ist es oftmals schwierig nachzuweisen, dass ein gegebener Prozess ein Martingal ist. Im Folgenden wollen wir daher eine hinreichende und notwendige Bedingung für die Martingaleigenschaft angeben, die ganz ohne bedingte Erwartungswerte auskommt Satz Ein adaptierter càdlàg Prozess X ist genau dann ein Martingal, falls für jede beschränkte Stoppzeit T gilt (i) X T L 1, und (ii) EX T = EX. Beweis. : Aus Satz 1.13 folgt für jede beliebige Stoppzeit T und S T, dass X T integrierbar ist und EX = EE(X T F ) = EX T. : Seien s t und A F s. Wir setzen T = t 1 A c +s 1 A, dann ist T eine Stoppzeit und nach Voraussetzung EX = EX T = E(X t 1 A c ) + E(X s 1 A ). Andererseits ist auch T t eine Stoppzeit und daher EX = EX T = E(X t 1 A c ) + E(X t 1 A ). Subtrahieren der beiden Gleichungen ergibt E(X s 1 A ) = E(X t 1 A ). Da s t und A F s beliebig waren, folgt die Martingaleigenschaft. v 15. Februar

30 1 Stochastische Prozesse Neben der Auswertung eines stochastischen Prozesses zu einem zufälligen Zeitpunkt T, spielt das Stoppen eines Prozesses zu einem zufälligen Zeitpunkt in den Anwendungen eine bedeutende Rolle Definition Für einen stochastischen Prozess X und eine zufällige Zeit T heißt der durch X T t X t T, t, definierte stochastische Prozess X T der bei T gestoppte Prozess. Der bei T gestoppte Prozess X T ist nicht zu verwechseln mit der Zufallsvariable X T, denn X T beschreibt eine ganze Familie von Zufallsvariablen, die sich ab einem zufälligen Zeitpunkt nicht mehr ändert Optional Stopping Theorem von Doob Sei X ein rechtsstetiges Martingal oder Submartingal, und T eine Stoppzeit. Dann ist auch X T ein Martingal respektive Submartingal bzgl. F = (F t ). Ist X zusätzlich gleichgradig integrierbar, so auch X T. Zufälliges Stoppen zerstört also die (Sub-)Martingaleigenschaft nicht. Bemerkung. Man kann direkt aus dem Optional Sampling Theorem die Behauptung ableiten, dass X T ein (Sub-)Martingal bzgl. der Filtration F = (F t T ) t ist. Allerdings ist dies eine schwächere Behauptung als das hier formulierte Optional Stopping Theorem, denn F T t F t, weshalb die Filtration F gröber ist als F. Beweis des Optional Stopping Theorems Wir verwenden Satz 1.17 und zeigen, dass für jede beschränkte Stoppzeit S gilt XS T L1 und EXS T = EXT. Sei X zunächst als gleichgradig integrierbar vorausgesetzt und S eine beschränkte Stoppzeit. So ist auch S T eine Stoppzeit und daher das Optional Sampling Theorem 1.13 anwendbar. Insbesondere ist XS T = X S T integrierbar und es gilt EX T S = EX S T = EX = EX T. Somit ist X T ein Martingal bezüglich F = F t. v Die folgenden Ungleichungen spielen eine fundamentale Rolle in der stochastischen Analysis Februar 212

31 Optional Sampling und Optional Stopping 1-C 1.19 Ungleichungen von Doob Für ein positives Submartingal X gelten die Maximalungleichung P [ sup X t λ t T ] 1 λ p EXp T, p 1, T [, ) und die die sogenannte L p -Ungleichung sup X t t L p q sup X t L p, p > 1, t wobei q die zu p konjugierte Zahl ist, d.h. 1 p + 1 q = 1. Man kann die Maximalungleichung als Verallgemeinerung und Verschärfung der Markov-Ungleichung P[ X λ] E X p, p 1, λp betrachten, wenn man X durch eine Familie von Zufallsvariablen ersetzt. Wiederum ermöglicht es uns die Rechtsstetigkeit der Pfade, die Ungleichung auch für überabzählbare Familien zu beweisen. Bevor wir den Beweis dieser beiden Ungleichungen angehen, wollen wir ein Beispiel zur Motivation betrachten. Beispiel 1 Wir interessieren uns für die Wahrscheinlichkeit, dass ein Aktienkurs mit Startwert A zum Zeitpunkt n einen gewissen Wert γ überschreitet. Dazu modellieren wir die zeitliche Entwicklung als Binomialmodel, d.h. A n = A Y 1 Y n, wobei wir die (Y i ) als unabhängig und identisch verteilt annehmen mit u, mit Wahrscheinlichkeit p >, Y i = d, mit Wahrscheinlichkeit q = 1 p, sowie EY i = µ > 1, u, d > und A > fest. So ist A = (A, A 1,...) ein Submartingal und mit der Ungleichung von Doob folgt P ( max A i > γ i {,1,...,n} ) EA n γ = A µ n γ. 15. Februar

32 1 Stochastische Prozesse Beweis der Ungleichungen von Doob. Wir betrachten zunächst den Fall einer abzählbaren Indexmenge I N. So ist für jedes λ und n durch τ inf{k I : X k λ} n eine Stoppzeit gegeben. Für p 1 ist x x p konvex und daher Xn p nach Jensens Ungleichung ein nichtnegatives Submartingal. Schreiben wir Xn sup k n X k, so folgt mit Satz 1.16, dass EXn p EXτ p = E(Xτ p 1 [X n λ]) + E(Xτ p 1 [X n <λ]) λ p P(Xn λ) + E(Xp n 1 [X n <λ]), denn τ = n falls Xn < λ. Subtrahieren ergibt nun P(X n λ) 1 λ p E(Xp n1 [X n λ]), p 1. Sei nun D [, ) abzählbar und dicht sowie D n D eine Ausschöpfung von endlichen Mengen. Dann gilt aufgrund der Rechtsstetigkeit sup t X t = sup t D X t = sup sup X t. t D n n 1 Schreiben wir A n = [sup t Dn X t λ], so wächst A n monoton. Bezeichnen wir das maximale Element von D n mit t n = max(d n ), so gilt P[sup X t λ] = P [ sup X t λ] = lim P(A n ) t t D n n n N lim inf n sup t 1 λ p E(Xp t n 1 [X tn λ]) 1 λ p E(Xp t 1 [sup t X t λ]). Um die zweite Ungleichung zu beweisen, wählen wir ein k 1 und betrachten für p > 1 ( ) k E((Xn k)p ) = E pλ p 1 1 X n λdλ k = p λ p 1 P[Xn λ]dλ k p λ p 2 E(X n 1 [X n λ])dλ ( k X ) n = pe X n λ p 2 dλ = p p 1 E ( X n (X n k) p 1), Februar 212

33 Optional Sampling und Optional Stopping 1-D wobei wir die oben bewiesene Abschätzung für P[Xn λ] sowie zweimal den Satz von Fubini verwendet haben. Um das Produkt abzuschätzen, verwenden wir die Hölderungleichung und bemerken, dass q = p p 1 zu p konjugiert ist. Somit gilt E((Xn k)p ) q E (X n (Xn k)p 1) q E(X p n) 1 p E((X n k)p ) p 1 p. Division durch E((Xn k)p ) p 1 p ergibt E((X n k)p ) 1 p q E(X p n) 1 p. Die rechte Seite hängt nicht von k ab, so dass wir mit dem Satz von der monotonen Konvergenz links zum Limes für k übergehen können. Schließlich erhalten wir X n L p q X n L p. ( ) Die Rechtsstetigkeit erlaubt es uns wieder, eine dichte Menge D [, ) zu betrachten, die wir mit endlichen Mengen D n D ausschöpfen. Auf jeder dieser endlichen Mengen gilt die Ungleichung ( ). Gehen wir nun rechts zum Supremum über und verwenden sup t X t = lim X n t n, so erhalten wir die Behauptung. v Mit Hilfe der Maximalungleichung und der L p -Ungleichung können wir Martingale auf L p -Konvergenz untersuchen. Der Fall p = 2 ist besonders interessant, da L 2 ein Hilbertraum ist und so einen geometrischen Zugang zu vielen Fragestellungen liefert. Beispielsweise kann man bedingte Erwartungen als ein gewisses Optimierungsproblem in L 2 auffassen Definition Ein Martingal X mit EX 2 t < für alle t heißt quadratintegrierbares Martingal. Gilt sogar sup t EX 2 t <, so heißt X L2 -beschränktes oder kurz L 2 - Martingal. Ein Martingal ist nach Satz 1.11 genau dann ein L 1 -Martingal, wenn es einen Abschluss in L 1 besitzt. Ein analoges Resultat existiert für den L 2 -Fall. Lemma X ist genau dann ein L 2 Martingal, wenn ein Abschluss X mit EX 2 < existiert. Beweis. Übungsaufgaben 1.6 und 1.7. v 15. Februar

34 1 Stochastische Prozesse 1-D Beispiele wichtiger stochastischer Prozesse Im Folgenden wollen wir die wichtigsten Eigenschaften von Poisson- und Wiener- Prozessen sammeln. Diese stochastischen Prozesse spielen eine fundamentale Rolle in der stochastischen Analysis und liefern eine wichtige Beispielklasse. Für eine ausführliche Darstellung sei auf die Vorlesung Stochastische Prozesse verwiesen. Poisson-Prozesse eigenen sich zur Modellierung von Zähldaten. Mit ihnen lässt sich beispielsweise die Fragestellung untersuchen, wie oft ein Ereignis A bis zum Zeitpunkt T eintritt. Wiener-Prozesse eigenen sich dagegen zur Modellierung von Messdaten, wie den Impuls oder den Ort eines Teilchens, welche sich aus dem unabhängigen Zusammenwirken vieler kleiner Einflüsse ergeben. Viele Vorgänge in der Natur und der Ökonomie lassen sich auf Poisson-Prozesse, Wiener-Prozesse oder eine Kombination beider zurückführen. Poisson-Prozess Poisson-Prozesse lassen sich als gewisse Zählprozesse auffassen Definition Ist = T < T 1 < T 2 <... eine strikt wachsende Folge positiver Zufallsvariablen, dann heißt der durch N t := n 1 1 [Tn t] definierte Prozess N = (N t ) t [, ] mit Werten in N { } der zur Folge (T n ) n N assoziierte Zählprozess. Wir stellen in dieser Definition keine weiteren Anforderungen an die zufälligen Zeiten T i. Fordern wir allerdings die Adaptiertheit von N, so erzwingen wir, dass die T i Stoppzeiten sind. 1.2 Satz Ein Zählprozess N ist genau dann zur Filtration F adaptiert, falls T 1, T 2,... Stoppzeiten sind. Beweis. : Seien T 1, T 2,... Stoppzeiten, dann ist für festes t jedes 1 [Ti t] F t - messbar und somit auch N t. : Sei N t adaptiert, so gilt für jedes i N und t [T i t] = [N t i] F t, also sind alle T i Stoppzeiten. v Februar 212

35 Beispiele wichtiger stochastischer Prozesse 1-D 1.14 Definition Ein adaptierter Zählprozess heißt Poisson-Prozess, falls 1. N t N s unabhängig von F s ist für s < t <, und 2. N t N s D = Nu N v für s < t <, v < u und t s = u v. Die Eigenschaften 1.) und 2.) werden als Unabhängigkeit der Zuwächse bzw. Stationarität der Zuwächse bezeichnet Satz Für einen Poisson-Prozess N = (N t ) t gilt λt (λt)n P[N t = n] = e, n, n! für ein λ >, d.h. N t ist π(λt)-verteilt. Ferner ist N stetig nach Wahrscheinlichkeit, d.h. lim u t N u P N t, t. Den Parameter λ nennt man auch Intensitätsrate von N Satz Ist N ein Poisson-Prozess mit Intensitätsrate λ >, so sind (N t λt) t und ((N t λt) 2 λt) t Martingale. Man bezeichnet den am Erwartungswert zentrierten Prozess (N t λt) t auch als kompensierten Poisson-Prozess. Beweis. Übungsaufgabe 2.2. v 1.23 Satz Ist N ein Poisson-Prozess, so ist die durch N erzeugte (sog. natürliche) Filtration F N = (F N t ) t, F N t = σ ({N s : s t}) rechtsstetig. Beweis. Sei E = [, ] und B = B E. Den Messraum Γ E s, B s, Es = E, B s = B, s [, ) s [, ) können wir als die Menge der Abbildungen f : [, ) E, s f (s) auffassen. Wir konstruieren nun einen Prozesses mit Werten in Γ π t : Ω Γ, π t (ω) : s N s t (ω), t. 15. Februar

36 1 Stochastische Prozesse Offenbar ist π t (Ω) {f : [, ) E : f ist konstant ab t}. Sei nun Λ n 1 Ft+1/n N, so ist zu zeigen, dass Λ F t N jedes n 1 eine Menge A n s [, ) B s mit. Zunächst existiert für Λ = [π t+1/n A n ]. Für jedes ω Ω existiert ein n 1, so dass s N s (ω) konstant auf [t, t + 1/n] ist. Setzen wir W n = [π t = π t+1/n ], so gilt W n Ω und daher ist Λ = lim n W n Λ = lim n W n [π t+1/n A n ] = lim n W n [π t A n ] = lim n [π t A n ]. Somit ist Λ Ft N gezeigt. Insgesamt gilt Ft N n 1 Ft+1/n N F t N rechtsstetig. v, also ist FN Wiener-Prozess Es existieren zahlreiche Möglichkeiten die Brownsche Bewegung zu definieren. Hier haben wir eine Definition gewählt, die möglichst analog zur Definition 1.14 des Poisson-Prozesses ist Definition Ein adaptierter Prozess B = (B t ) t mit Werten in R d heißt d-dimensionale Brownsche Bewegung oder Wiener-Prozess, falls 1. B t B s unabhängig von F s ist für s < t <, und 2. B t B s N(, (t s)c)-verteilt ist für s < t < mit einer Kovarianzmatrix C. Die Brownsche Bewegung startet in x, falls P(B = x) = 1. Falls zusätzlich C die Einheitsmatrix ist, heißt B Standard-Brownsche Bewegung. Im Falle einer Standard-Brownschen Bewegung stellen die Komponenten von B d unabhängige 1-dimensionale Standard-Brownsche Bewegungen dar und jede Koordinate der Zuwächse B t B s ist N(, t s)-verteilt. Im Fall einer beliebigen Kovarianzmatrix C, dies ist eine symmetrische und positiv definite Matrix, kann man die Februar 212

Terminologie Stochastischer Prozesse

Terminologie Stochastischer Prozesse Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis SS1 von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 6. Mai 21 Inhaltsverzeichnis 1 Motivation / Einführung 4 1.1 Motivation anhand

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Vorlesungsskript: Martingale

Vorlesungsskript: Martingale Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109 A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 19 A. Stochastische Prozesse und Stoppzeiten In dieser Vorlesung arbeiten wir immer auf einem Massraum (Ω, F), der gross genug ist, um alle definierten Objekte

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015 Wahrscheinlichkeitstheorie 2 & 3 Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 3. Januar 215 Inhaltsverzeichnis. Bedingte Erwartungswerte 4 1. Martingale, Stoppzeiten und Filtrierungen 9 1.1.

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis Vorlesung SS 22 Jürgen Dippon Mathematisches Institut A Universität Stuttgart Homepage der Vorlesung: www.mathematik.uni-stuttgart.de/matha/lst3/dippon/sa Version vom 17. Juni 23

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016 Übungen zu bedingten Erwartungswerten Tutorium Stochastische Prozesse 13. Dezember 2016 Bedingter Erwartungswert Definition Sei X eine reellwertige Zufallsvariable auf (Ω, A, P), so dass E[ X ]

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen

Mehr

Analysis III, WS 2011/2012 Montag $Id: masse.tex,v /10/31 15:48:07 hk Exp $

Analysis III, WS 2011/2012 Montag $Id: masse.tex,v /10/31 15:48:07 hk Exp $ $Id: masse.tex,v 1.8 2011/10/31 15:48:07 hk Exp $ 2 Maßräume 2.2 Meßbare Abbildungen Der nächste Grundbegriff sind die meßbaren Abbildungen. Erinnern Sie sich daran das wir eigentlich einen Integralbegriff

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr

Aufgaben zu Kapitel 0

Aufgaben zu Kapitel 0 Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Schwache Konvergenz von Wahrscheinlichkeitsmaßen Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN

8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN 8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN (vi) Konvergenz von Folgen ist in topologischen Räumen folgendermaßen definiert: Ist (a n ) M eine Folge, so heißt sie konvergent gegen a M, wenn es

Mehr

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

1 Bedingte Erwartungswerte

1 Bedingte Erwartungswerte Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,

Mehr

Topologische Grundbegriffe I. 1 Offene und Abgeschlossene Mengen

Topologische Grundbegriffe I. 1 Offene und Abgeschlossene Mengen Topologische Grundbegriffe I Vortrag zum Proseminar Analysis, 26.04.2010 Nina Neidhardt und Simon Langer Im Folgenden soll gezeigt werden, dass topologische Konzepte, die uns schon für die Reellen Zahlen

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Zufallsvariable, Verteilung, Verteilungsfunktion

Zufallsvariable, Verteilung, Verteilungsfunktion Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.

Mehr

1 Konvergenz im p ten Mittel

1 Konvergenz im p ten Mittel Konvergenz im p ten Mittel 1 1 Konvergenz im p ten Mittel In diesem Paragraphen werden zunächst in Abschnitt 1.1 die L p Räume eingeführt. Diese erweisen sich als vollständige, lineare Räume über R. In

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

Analyis I -Metrische Räume - eine Einführung in die Topologie

Analyis I -Metrische Räume - eine Einführung in die Topologie Analyis I -Metrische Räume - eine Einführung in die Topologie E = E isolierter Punkte x 1 x 2 x 3 E ist abgeschlossen U ɛ (x) x innerer Punkt Ω Häufungspunkte Ω Metrik Metrische Räume Definition Sei X

Mehr

22 KAPITEL 1. GRUNDLAGEN. Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion

22 KAPITEL 1. GRUNDLAGEN. Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion KAPITEL 1. GRUNDLAGEN Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion 1 für 0 x < 1 g 0 (x) = 1 1 für < x 1. Natürlich gibt dies von

Mehr

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

7 Der Satz von Girsanov

7 Der Satz von Girsanov 7 Der Satz von Girsanov Der Satz von Girsanov wird uns eine neue Perspektive auf die Rolle des Drifts liefern. Die Prozesse Brownsche Bewegung B t, Brownsche Bewegung mit Drift X t = B t + µt haben wir

Mehr

Das Black-Scholes Modell

Das Black-Scholes Modell Vathani Arumugathas Das Black-Scholes Modell 1 Das Black-Scholes Modell Vathani Arumugathas Seminar zu Finanzmarktmodellen in der Lebensversicherung, Universität zu Köln 10. Juni 016 Inhaltsverzeichnis

Mehr

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013 Reelle Analysis Vorlesungsskript Enno Lenzmann, Universität Basel 11. Oktober 2013 3 Fortsetzung von Prämassen zu Massen Der Begriff des Prämasses ist nicht ausreichend, um eine geschmeidige Integrationstheorie

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge

Mehr

Finite Elemente Methode für elliptische Differentialgleichungen

Finite Elemente Methode für elliptische Differentialgleichungen Finite Elemente Methode für elliptische Differentialgleichungen Michael Pokojovy 8. Oktober 2007 Das Ritzsche Verfahren Sei R n ein beschränktes offenes Gebiet mit abschnittsweise glattem Rand S. Betrachte

Mehr

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 : 24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar

Mehr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Extremalpunkte und der Satz von Krein-Milman. 1 Lokalkonvexe topologische Vektorräume

Extremalpunkte und der Satz von Krein-Milman. 1 Lokalkonvexe topologische Vektorräume Extremalpunkte und der Satz von Krein-Milman Seminar zu ausgewählten Kapiteln der Banachraumtheorie Vortrag von Michael Hoffmann 1 Lokalkonvexe topologische Vektorräume Im folgenden betrachten wir stets

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 24/25 Universität Karlsruhe 7. März 25 Priv-Doz. Dr. D. Kadelka Klausur zur Vorlesung Stochastik II Dauer: 9 Minuten Name: Vorname: Matrikelnummer: Diese Klausur

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2). Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche

Mehr

Kapitel III. Stetige Funktionen. 14 Stetigkeit und Rechenregeln für stetige Funktionen. 15 Hauptsätze über stetige Funktionen

Kapitel III. Stetige Funktionen. 14 Stetigkeit und Rechenregeln für stetige Funktionen. 15 Hauptsätze über stetige Funktionen Kapitel III Stetige Funktionen 14 Stetigkeit und Rechenregeln für stetige Funktionen 15 Hauptsätze über stetige Funktionen 16 Konvergenz von Funktionen 17 Logarithmus und allgemeine Potenz C 1 14 Stetigkeit

Mehr

Serie 2 Lösungsvorschläge

Serie 2 Lösungsvorschläge D-Math Mass und Integral FS 214 Prof. Dr. D. A. Salamon Serie 2 Lösungsvorschläge 1. Seien folgende Mengen gegeben: und für a, b R R := [, ] := R {, }, (a, ] := (a, ) { }, [, b) := (, b) { }. Wir nennen

Mehr

Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom

Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom Prof. Dr. M. Kaßmann Fakultät für Mathematik Wintersemester 2011/2012 Universität Bielefeld Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom 27.10.2011 Aufgabe III.1 (4 Punkte) Sei Ω R

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 9 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 40: Es sei (X t ) t 0 ein

Mehr

Musterlösung Analysis 3 - Maßtherorie

Musterlösung Analysis 3 - Maßtherorie Musterlösung Analysis 3 - Maßtherorie 10. März 2011 Aufgabe 1: Zum Aufwärmen (i) Zeige, dass die Mengensysteme {, X} und P(X) σ-algebren sind. Es sind jeweils nur die Charakteristika nachzuweisen. (1)

Mehr

8 KAPITEL 1. GRUNDLAGEN

8 KAPITEL 1. GRUNDLAGEN 8 KAPITEL 1. GRUNDLAGEN Beweis. 1. Sei A X abgeschlossen, dann ist X \ A offen und jede offene Überdeckung von A lässt sich durch Hinzunahme von X \ A auf ganz X fortsetzen. Die Kompaktheit von X erlaubt

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20 Gleichmäßige Konvergenz für Folgen und Reihen von Funktionen 20.1 Folgen und Reihen von Funktionen 20.3 Die Supremumsnorm 20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20.7 Das Cauchy-Kriterium

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Simulation stochastischer Prozesse Peter Frentrup Humboldt-Universität zu Berlin 27. November 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 27. November 2017

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

A. Maß- und Integrationstheorie

A. Maß- und Integrationstheorie A. Maß- und Integrationstheorie Im folgenden sind einige Ergebnisse aus der Maß- und Integrationstheorie zusammengestellt, die wir im Laufe der Vorlesung brauchen werden. Für die Beweise der Sätze sei

Mehr

Stochastische Analysis. Karl-Theodor Sturm

Stochastische Analysis. Karl-Theodor Sturm Stochastische Analysis Karl-Theodor Sturm Literatur: I. Karatzas, S. Shreve: Brownian Motion and Stochastic Calculus. 2nd ed. Springer 91 D. Revuz, M. Yor: Continuous Martingales and Brownian Motion,

Mehr

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik II Wahrscheinlichkeitstheorie I Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 26. November 2002

Mehr

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie

Mehr

Lösungen zu Übungsblatt 9

Lösungen zu Übungsblatt 9 Analysis : Camillo de Lellis HS 007 Lösungen zu Übungsblatt 9 Lösung zu Aufgabe 1. Wir müssen einfach das Integral 16 (x + y d(x, y x +y 4 ausrechnen. Dies kann man einfach mittels Polarkoordinaten, da

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 29 UNIVERSITÄT KARLSRUHE Blatt 6 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 27: Sei X eine R + -wertige

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

Charakteristische Funktionen

Charakteristische Funktionen Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die

Mehr

Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme

Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme Optimale Steuerung, Prof.Dr. L. Blank 1 II Linear-quadratische elliptische Steuerungsprobleme Zuerst: Zusammenstellung einiger Begriffe und Aussagen aus der Funktionalanalysis (FA), um dann etwas über

Mehr

Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung Eigenschaften von stochastischen Ordnungen Kleine Generatoren

Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung Eigenschaften von stochastischen Ordnungen Kleine Generatoren Universität Hamburg Fachbereich Mathematik Schwerpunkt Mathematische Statistik und Stochastische Prozesse Bundesstr. 55 D-20146 Hamburg Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung

Mehr

Konvergenz, Filter und der Satz von Tychonoff

Konvergenz, Filter und der Satz von Tychonoff Abschnitt 4 Konvergenz, Filter und der Satz von Tychonoff In metrischen Räumen kann man topologische Begriffe wie Stetigkeit, Abschluss, Kompaktheit auch mit Hilfe von Konvergenz von Folgen charakterisieren.

Mehr

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische

Mehr

1 Stochastische Prozesse in stetiger Zeit

1 Stochastische Prozesse in stetiger Zeit 1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.

Mehr

Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban

Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban Lösungsvorschlag studienbegleitende Klausur Finanzmathematik I Aufgabe (7 Punkte) Vorgelegt sei ein Wahrscheinlichkeitsraum (Ω, F, P) und

Mehr

13 Auswahlaxiom und Zornsches Lemma

13 Auswahlaxiom und Zornsches Lemma 13 Auswahlaxiom und Zornsches Lemma Handout zur Funktionalanalysis I von H. Glöckner, 25.11.2008 Wichtige Teile der modernen Mathematik beruhen auf dem sogenannten Auswahlaxiom der Mengenlehre. Dieses

Mehr

Gaußsche Felder und Simulation

Gaußsche Felder und Simulation 3 2 data_2d_1.dat data_2d_2.dat data_2d_64.dat data_2d_128.dat 1-1 -2-3 1 2 3 4 5 6 7 Gaußsche Felder und Simulation Benedikt Jahn, Aaron Spettl 4. November 28 Institut für Stochastik, Seminar Zufällige

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

Die Topologie von R, C und R n

Die Topologie von R, C und R n Die Topologie von R, C und R n Für R haben wir bereits eine Reihe von Strukturen kennengelernt: eine algebraische Struktur (Körper), eine Ordnungsstruktur und eine metrische Struktur (Absolutbetrag, Abstand).

Mehr

8 Verteilungsfunktionen und Dichten

8 Verteilungsfunktionen und Dichten 8 Verteilungsfunktionen und Dichten 8.1 Satz und Definition (Dichten) Eine Funktion f : R R heißt Dichtefunktion, kurz Dichte, wenn sie (Riemann-) integrierbar ist mit f(t) 0 für alle t R und Setzt man

Mehr

Mathematik III. Vorlesung 74. Folgerungen aus dem Satz von Fubini. (( 1 3 x3 1 2 x2 y +2y 3 x) 1 2)dy. ( y +2y y +4y3 )dy

Mathematik III. Vorlesung 74. Folgerungen aus dem Satz von Fubini. (( 1 3 x3 1 2 x2 y +2y 3 x) 1 2)dy. ( y +2y y +4y3 )dy Prof. Dr. H. Brenner Osnabrück WS 2010/2011 Mathematik III Vorlesung 74 Folgerungen aus dem Satz von Fubini Beispiel 74.1. Wir wollen das Integral der Funktion f :R 2 R, (x,y) x 2 xy +2y 3, über dem Rechteck

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Wichtige Klassen reeller Funktionen

Wichtige Klassen reeller Funktionen 0 Wichtige Klassen reeller Funktionen Monotone Funktionen sind i.a. unstetig, aber man kann etwas über das Grenzwertverhalten aussagen, wenn man nur einseitige Grenzwerte betrachtet. Definition 0. : Sei

Mehr

Markovsche Entscheidungsprozesse - Teil III Der erwartete Gesamtgewinn. Universität Siegen

Markovsche Entscheidungsprozesse - Teil III Der erwartete Gesamtgewinn. Universität Siegen Markovsche Entscheidungsprozesse - Teil III Der erwartete Gesamtgewinn Jan Müller Universität Siegen Sommersemester 2009 Inhaltsverzeichnis 1 Das Gesamtgewinn-Kriterium 1 1.1 Die Existenz des erwarteten

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

Vollständigkeit. 1 Konstruktion der reellen Zahlen

Vollständigkeit. 1 Konstruktion der reellen Zahlen Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente

Mehr