Martingale und Brownsche Bewegung

Größe: px
Ab Seite anzeigen:

Download "Martingale und Brownsche Bewegung"

Transkript

1 Martingale und Brownsche Bewegung Martin G. Riedler Institute for Stochastics, Johannes Kepler University 44 Linz, Austria

2 2

3 Die vorliegenden Unterlagen sind ein Skriptum zur Vorlesung Martingale und Brownsche Bewegung abgehalten im Sommersemester 212 an der Johannes Kepler Universität Linz im Umfang von zwei Semesterwochenstunden. Die Vorlesung präsentiert die Grundlagen um einen allgemeinen Integrationsbegriff bezüglich von Martingalen darauf aufbauend einzuführen, behandelt aber den stochastischen Integrationsbegriff selbst nicht. Der Inhalt der Vorlesung ist zum grössten Teil aus den unten angegebenen Monographien übernommen mit der einen Ausnahme des Kapitels zu Reihenentwicklungen der Brownschen Bewegung. Martin Riedler, Linz am 23. Juli 212 Literaturverzeichnis [EK86] S. N. Ethier and T. G. Kurtz. Markov Processes: Characterization and Convergence. Wiley, New York, [JS87] J. Jacod and A. N. Shiryaev. Limit Theorems for Stochastic Processes. Springer, Berlin, [KS91] I. Karatzas and S. E. Shreve. Brownian Motion and Stochastic Calculus, 2nd Ed. Springer, New York, [Mét82] M. Métivier. Semimartingales. degruyter, Berlin, [Pro4] P. E. Protter. Stochastic Integration and Differential Equations, 2nd Ed. Springer, Berlin, 24. [RY99] D. Revuz and M. Yor. Brownian Motion and Stochastic Calculus, 3rd Ed. Springer, Berlin,

4 4

5 Inhaltsverzeichnis 1 Stochastische Prozesse 7 2 Die Brownsche Bewegung Existenz der Brownschen Bewegung Pfadeigenschaften der Brownschen Bewegung Verwandte Prozesse Reihenentwicklung der Brownschen Bewegung Satz von Levy-Ciesielski und die Paley-Wiener Entwicklung Karhunen-Loève Entwicklung Martingale Martingalungleichungen Regularitätsatz für Submartingale Martingalkonvergenzsätze Optional Stopping Theorem Die Doob-Meyer Zerlegung & die quadratische Variation Erweiterungen des Konzepts der quadratischen Variation Schwache Konvergenz von Martingalen A Gleichgradige Integrierbarkeit 71 5

6 6 INHALTSVERZEICHNIS

7 Kapitel 1 Stochastische Prozesse Wir behandeln kurz die grundlegenden Definitionen bezügich der Theorie stochastischer Prozesse in stetiger Zeit. Das Kapitel ist eine Zusammenfassung und ersetzt nicht eine detaillierte Einfhrung. Das Hauptziel ist die Terminologie und Notation für die späteren Überlegungen zu fixieren. Im folgenden sei (Ω, F, P) stets ein Wahrscheinlichkeitsraum, dieser heißt vollständig, falls die σ-algebra F jede Teilmenge aller P-Nullmengen enthält, d.h., B F mit P(B) = und A B impliziert A F. Eine Eigenschaft von Abbildungen auf einem Wahrscheinlichkeitsraum gilt fast sicher (f.s.) falls eine messbare Menge Ω Ω existiert sodass diese Eigenschaft für alle ω Ω gilt und P(Ω c ) =, d.h., die Eigenschaft gilt bis auf höchstens einer Nullmenge. Ein stochastischer Prozess X = (X t ) t I ist eine Familie von Zufallsvariablen 1 X t : Ω E definiert auf dem Wahrscheinlichkeitsraum (Ω, F, P) mit Werten in einem messbaren Raum (E, E), genannt Zustandsraum, und Indexmenge I. Ein stochastischer Prozess heißt diskret oder zeit-diskret wenn I R + höchstens abzählbar ist, z. B., I = N, und kontinuierlich oder zeit-stetig falls I R + überabzählbar ist, z. B., I = [, T ] R + oder I = R +. Ein Prozess heißt reell falls sein Zustandsraum die reellen Zahlen ausgestattet mit der Borel-σ-Algebra ist, in Zeichen (E, E) = (R, B R ). Wir werden nachfolgend ausschließlich kontinuierliche, meist reelle Prozesse behandeln. Im Folgenden bezeichnet daher die Indexmenge I immer eine überabzählbare Menge. Sei p 1, dann heißt ein stochastischer Prozess X p-fach integrierbar, falls E X t p < für alle t I. Im Falle p = 1 oder p = 2 heißt der Prozess integrierbar bzw. quadratintegrierbar. Ein Prozess X besitzt unabhängige Inkremente (Zuwächse) falls für alle t 1 t 2 t 3 t 4 die Inkremente X t2 X t1 und X t4 X t3 unabhängig sind und er besitzt stationäre Inkremente falls für alle t, h die Verteilung der Inkremente X t+h X t nur von h 1 Wir verwenden den Begriff Zufallsvariable wie in der Stochastik üblich als Synonym für messbare Abbildung. 7

8 8 KAPITEL 1. STOCHASTISCHE PROZESSE abhängt und unabängig von t ist. 2 Ein Prozess X heißt stationär falls (X t1,..., X tn ) und (X t1 +h,..., X tn +h) für alle h dieselbe Verteilung besitzen für alle endlich-vielen Indices t 1,..., t n I. Neben der Interpretation eines stochastischen Prozesses als eine Familie von Zufallsvariable sind auch noch folgende Interpretationen möglich und theoretisch wichtig. Einerseits können wir X als eine Abbildung der beiden Argument (t, ω) betrachten, d.h., als Abbildung X : I Ω E auffassen und andererseits, können wir die Familie (X t ) t I als eine Zufallsvariable mit Werten in E I ausgestattet mit der Produkt-σ-Algebra E I betrachten, d.h., als messbare Abbildung X : Ω E I in die Menge der Pfade. Pfadeigenschaften stochastischer Prozesse: Sei X ein stochastischer Prozess, dann heißt für jedes fixe ω Ω die Abbildung t X t (ω) eine Trajektorie oder ein Pfad des Prozesses. Ein Prozess heißt (f.s.) (rechts-/links-)stetig falls (fast alle) Trajektorien (rechts-/links-)stetig sind. Ein Prozess heißt càdlàg falls er überall (!), d.h., für alle ω Ω, rechts-stetig ist und seine linken Limiten existieren. 3 Ein Prozess X ist (f.s.) lokal Hölderstetig mit Exponent γ >, falls für jedes T > eine (f.s.) positive Zufallsvariable h existiert und eine Konstante L <, sodass X t (ω) X s (ω) sup L für (fast) alle ω Ω. < t s <h(ω), t s γ t,s [,T ] Dies ist äquivalent zu der Bedingung, dass für (fast) alle ω Ω gilt X t (ω) X s (ω) L t s γ t, s [, T ] mit t s < h(ω). Umgekehrt gilt, ein Prozess ist (f.s.) nirgends lokal Hölderstetig mit Exponent γ, falls kein T > existiert, sodass obige Bedingung (f.s.) erfüllt ist. (Lokale) Hölderstetigkeit mit Exponent γ = 1 ist (lokale) Lipschitzstetigkeit. Die nachfolgenden Grössen, die sich aus den Pfaden bestimmen, beschreiben deren Oszillationsverhalten. Eine Partition oder Zerlegung P [a,b] eines Intervalls [a, b] ist eine Menge von Punkten t,..., t n [a, b] mit a = t t 1... t n = b und P [a,b] = max i t i t i 1 ist die Feinheit der Partition, wobei hier und immer in Verbindung mit Partitionen der Index i einmal die Anzahl der Elemente (ohne t ) durchläuft. Im folgenden sei X ein zeit-stetiger stochastischer Prozess, dann heißt für [a, b] I die Größe V p [a,b](x) = sup P [a,b] i X ti X ti 1 p 2 Diese Bedingung heißt oft auch stark stationär im Gegensatz zu schwach stationär welche nur die Gleichheit der der ersten beiden Momente fordert. 3 Das Gegenteil ist càglàd falls der Prozess linksstetig mit existierenden rechten Limiten ist.

9 die totale p-variation über [a, b] des Prozesses. Das Supremum wird hier über alle Partitionen des Intervalls [a, b] genommen. Die totale Variation entspricht pfadweise dem klassischen Variationskonzept der Analysis. Falls V p [a,b](x) < (f.s.) für alle endlichen Intervalle [a, b] I dann ist der Prozess von (f.s.) endlicher totaler p-variation. Falls p = 1, dann sprechen wir einfach von der totalen Variation. Ein zweites, stochastisches Variationskonzept ist das folgende. Wir bezeichnen die stochastische Grösse L p [a,b] := p-lim P [a,b] X ti X ti 1 p, falls dieser Grenzwert 4 existiert, als p-variation über [a, b], wobei der Grenzwert als Limes in Wahrscheinlichkeit für beliebige Folgen von Partitionen deren Feinheit gegen konvergiert zu interpretieren ist und unabhängig von der Wahl der Folge zu sein hat. Falls p = 2 sprechen wir von der quadratischen Variation. i 9 Äquivalenzbegriffe zwischen Stochastischen Prozessen Der einfachste aber zu restriktive Begriff der Äquivalenz ist falls zwei Prozesse X, Y dieselbe Abbildung auf I Ω definieren, d.h., X t (ω) = Y t (ω) für alle (ω, t) Ω I. Diese Äquivalenzauffasung kann unter Beiziehung eines Wahrscheinlichkeitsmasses P in dreifacher Weise zu passenderen Konzepten abgeschwächt werden. 5 Zwei Prozesse X und Y mit Werten in E definiert auf den Wahrscheinlichkeitsräumen (Ω, F, P) und (Ω, F, P ), sind Versionen voneinander falls sie dieselben endlich-dimensionalen Verteilungen besitzen, d.h., P [ ] X t1 A 1,..., X tn A [ ] n = P Y t1 A 1,..., Y tn A n für alle messbaren Mengen A i E und alle endlichen Mengen von Indices {t 1,..., t n } I. Falls die Prozesse X, Y auf dem selben Wahrscheinlichkeitsraum definiert sind und für alle t I gilt, dass P[X t = Y t ] = 1, dann heißen sie Modifikationen voneinander. Schlussendlich die beiden Prozesse sind ununterscheidbar falls P[X t = Y t t I] = 1, d.h., Trajektorien unterscheiden sich nur auf einer Nullmenge. Im falle diskreter Prozesse sind die Begriffe Modifikation und ununterscheidbar äquivalent. Im Allgemeinen gelten zwischen den Äquivalenzbegriffen die Beziehungen X, Y ununterscheidbar = X, Y Modifikationen = X, Y Versionen 4 Wir verwenden die Notation p-lim und qm-lim um Konvergenz in Wahrscheinlichkeit und Konvergenz im Quadratmittel zu bezeichnen, d.h., p-lim n X n = X ɛ > : lim n P[ X n X > ɛ] =, bzw., qm-lim n X n = X lim n E X n X 2 = 5 Alle drei sind Äquivalenzrelationen auf einer passenden Menge von Prozessen.

10 1 KAPITEL 1. STOCHASTISCHE PROZESSE und umgekehrt X, Y Modifikationen, X, Y f.s. rechts- oder linksstetig = X, Y ununterscheidbar. Aus diesen Eigenschaften folgt, dass die Äquivalenzklasse der Modifikationen eines Prozesses (bis auf Ununterscheidbarkeit) höchstens einen f.s. (rechts-/links-)stetigen Prozess enthält. Daher sagen wir f.s. (rechts-/links-)stetige Prozesse sind bis auf Unuterscheidbarkeit eindeutig definiert. Pfadeigenschaften bleiben nicht unter Modifikationen erhalten. Oft sucht man jene Modifikation, die gute Pfadeigenschaften hat. Durch Abänderung eines Prozesses auf der Nullmenge zu (rechts-/links-)stetigen Pfaden können wir immer einen (rechts-/links-)stetige ununterscheidbaren Prozessen erhalten. Die beiden schwächeren Äquivalenzbegriffe sind für die Anwendungen überaus wichtig, da sehr oft durch physikalische Überlegungen und Experimente nur Aussagen über die endlich dimensionale Verteilungen getroffen werden können. Prozesse in diesen Äquivalenzklassen können sehr unterschiedliche Pfadeigenschaften besitzen und daher kann man sich zur mathematischen Behandlung aus dieser Klasse jenen Prozess wählen, der bestmögliche Pfadeigenschaften besitzt. Abschließend sei noch einmal darauf hingewiesen, dass Versionen, Modifikationen und Ununterscheidbarkeit bezüglich eines bestimmten Masses definiert sind und diese Eigenschaften nicht erhalten bleiben müssen, wählt man eine anderes Mass. Kanonische Wahrscheinlichkeitsräume Wie bereits erwähnt gibt es auf Grund von Beobachtungen oft nur Aussagen über die endlich dimensionalen Verteilung Stochastischer Prozesse und es stellt sich vor all bei kontinuierlichen Modellen zuallererst die Frage der Existenz eines Stochastischen Prozesses, der diese endlich-dimensionalen Verteilungen besitzt. Wir betrachten nun nur kontinuierliche Indexmengen I, da die folgenden Probleme bei diskreten Prozessen nicht auftreten. Existiert ein Prozess, dann kann er als Zufallsvariable mit Werten im messbaren Raum (E I, E I ) aufgefasst werden und seine Verteilung induziert ein Bildmass darauf. Um die Existenz eines Prozesses zu zeigen, ist es nun ausreichend die Existenz dieses Masses auf dem Raum (E I, E I ) zu zeigen. Dieser Raum aller möglichen Pfade nimmt den Platz des unspezifizierten Wahrscheinlichkeitsraumes (Ω, F, P) ein und heißt daher kanonischer Wahrscheinlichkeitsraum. Auf dem kanonische Raum ist ein stochastischer Prozess durch die Familie der Koordinatenabbildungen ζ t : E I E : ω ζ t (ω) := ω(t), t I definiert und dieser heißt kanonischer Prozess. Die Produkt-σ-Algebra E I ist per definitionem die von den Koordinatenabbildungen erzeugte σ-algebra. Eine Antwort auf die Existenzfrage liefert der folgende Satz von Kolmogorov. Zuvor bemerken wir das eine Familie endlich-dimensionaler Verteilungen (P J ) J I, J < projektiv ist, falls für J = (t 1,..., t n ) und jede Permutation π von {1,..., n} P (t 1,...,t n) ( A 1... A n ) = P (t π(1),...,t π(n) ) ( A π(1)... A π(n) ) und P (t 1,...,t n) ( A 1... A n 1 E ) = P (t 1,...,t n 1 ) ( A 1... A n 1 )

11 gilt. Hier sind die endlich-dimensionale Verteilungen eine Familie von Wahrscheinlichkeitsmassen auf der Familie der Produkträume E ti... E tn für alle endlich dimensionalen Teilmengen {t 1,..., t n } I. Es ist leicht zu überprüfen, dass die endlich-dimensionalen Verteilungen eines Prozesses eine projektive Familie sind und der folgenden Satz ist in gewissem Sinne die Umkehrung dieser Aussage und liefert die Existenz eines stochastischen Prozesses zu einer gegebenen Familie von endlich-dimensionalen Verteilungen. Satz 1.1 (Kolmogorov-Existenz Satz). Sei (E, E) ein Polnischer Raum 6 zusammen mit seiner Borel-σ-Algebra. Dann existiert für jede Indexmenge I und jede projektive Familie von endlich-dimensionalen Verteilungen genau ein Wahrscheinlichkeitsmass P auf (E I, E I ), dessen Randverteilungen mit den gegebenen endlich-dimensionalen Verteilungen übereinstimmen, d.h., für beliebige endlich viele Indices t i und messbare Mengen A i gilt P [ ζ t1 A 1,..., ζ tn A n ] = P (t 1,...,t n ) ( A 1... A n ). Ein schwerwiegender Nachteil dieser Konstruktion ist, dass die Produkt-σ-Algebra E I nur Mengen enthält, die durch abzählbar viele Koordinaten festgelegt sind. Daher treten Messbarkeitsprobleme immer dann auf, wenn man Eigenschaften oder Funktionale des Prozesses betrachtet, die von überabzählbar vielen einzelnen Zufallsvariablen abhängen. Das prominenteste Beispiel unter diesen ist die Nicht-Messbarkeit der Menge {ω E I : t ζ t (ω) ist stetig} im kanonischen Wahrscheinlichkeitsraum und analog, wenn nach, z.b., der Beschränktheit oder Differenzierbarkeit der Pfade gefragt wird. Ähnliche Probleme treten auch auf, wenn man für beliebige Prozess die Abbildungen τ(ω) := inf{t > : X t (ω) > }, lim s t X s (ω), sup s t X s (ω) betrachtet. Hier kann man im Allgemeinen nicht davon ausgehen, dass diese Ausdrücke wohldefiniert oder messbar sind. Diese letzteren Probleme können behoben werden, falls man (f.s.) (rechts-/links-)stetige Prozesse betrachtet, da man nun Funktionale überabzählbar vieler Zufallsvariablen oft auf Funktionale auf dichten, abzählbaren Mengen, z.b., Q, zurückführen kann. Es bleibt aber weiterhin das Problem zu zeigen, dass der Prozess derartige Pfade besitzt. Auf Grund der Nicht-Messbarkeit der Menge der stetigen Pfade in (E I, E I ), kann man nicht einfach vorgehen und zeigen, dass die Menge der unpassenden Pfade eine Nullmenge ist. Um diese Schwierigkeit vorerst zu umgehen, schwächen wir den Begriff fast sicher (nur für den Moment!) ab, und sagen ein kanonischer Prozess ist f. s. (rechts-/links-)stetig falls jeder messbaren Menge in E I, die alle (rechts-/links-)stetigen Pfade enthält, Mass 1 zugewiesen wird. 7 Ein einfaches, allgemeines Kriterium zur Überprüfung der Stetigkeit liefert der folgende Satz. 6 Ein topologischer Raum heißt polnisch, falls er vollständig metrizierbar und separabel ist, vor allem gilt, jeder polnische Raum ist ein Borelraum. 7 Zur genaueren Unterscheidung wird eine derartige Menge auch wesentlich für des Wahrscheinlichkeitsmass genannt werden. 11

12 12 KAPITEL 1. STOCHASTISCHE PROZESSE Satz 1.2 (Kolmogorov-Centsov Stetigkeits Kriterium). Existieren für einen reellen Prozess X drei Konstanten α, β, C >, sodass E X t X s α C t s 1+β für alle t, s gilt, dann besitzt X eine f.s. stetige Modifikation. Diese ist f.s. lokal Hölder-stetig mit Exponent γ für alle γ (, β/α). Bemerkung 1.1. Man kann sogar zeigen, dass der Prozess eine überall stetige Modifikation besitzt. Dazu ändert man die f.s. stetige Modifikation so ab, dass man alle nicht-stetigen Pfade konstant gleich setzt und dann lässt sich zeigen, dass dieser überall stetige Prozess ebenfalls eine Modifikation ist. Um f.s. (rechts-)stetige Prozesse besser behandeln zu können ist der kanonische Raum (E I, E I ) meist nur ein Zwischenschritt und wird nachdem die Existenz eines Prozesses gesichert ist durch einen besser geeigneten Raum ersetzt. Im folgenden Bezeichnen wird mit D(I, E) und C(I, E) die Menge der rechtsstetigen, bzw., stetigen Pfade von I nach E, die klarerweise Teilmengen von E I sind. Ausgestattet mit der jeweiligen Spur-σ-Algebra von E I werden beide zu messbaren Räumen. Die Spur-σ-Algebra entspricht auch der von den Koordinatenabbildungen von D(I, E) bzw. C(I, E) nach E erzeugten σ-algebra. Sind die Pfade eines Prozesse f.s. (rechts-)stetig, dann erhält man durch die Einschränkung eines Masses auf E I auf diese Räume eindeutig(!) ein Wahrscheinlichkeitsmass, trotzdem beide Mengen nicht messbare Teilmengen von E I sind. Die resultierenden Wahrscheinlichkeitsräume bestehen wiederum aus einer Menge von Funktionen und dazugehörigen Koordinatenabbildungen und sind daher auch kanonische Räume. Die kanonische Version eines Prozesses ist eine Version, die auf einem (passenden) kanonischen Raum definiert. Jeder Prozess besitzt eine eindeutige kanonische Version. Somit gilt allgemein ein Prozess auf einem beliebigen Raum (Ω, F, P) ist f.s. (rechts-/links-)stetig (im normalen Sinn) wir können getrost annehmen, dass, z.b., {ω Ω : X(ω) C(R +, E)} F falls seine kanonische Version f.s. (rechts-/links-) stetig im neuen Sinne ist. Filtrationen Eine Familie von Teil-σ-Algebren F t, t I, von F, heißt Filtration falls F s F t für s t. Diese heißt vollständig bezüglich P, falls der Wahrscheinlichkeitsraum (Ω, F, P) vollständig ist und F alle P-Nullmengen in F enthält. Die Vollständigkeit der Filtration ist eine Eigenschaft bezüglich eines bestimmten Masses und muss nicht erhalten bleiben wird ein beliebiges anderes Mass gewählt. Sei N P die Menge aller P-Nullmengen in F, dann ist die Augmentierung einer Filtration jene Filtration bestehend aus den den σ-algebren Ft P := F t N P. Ist F eine vollständige σ-algebra, dann ist die augmentierte Filtration eine vollständige Filtration und auch jede σ-algebra Ft P ist vollständig. Daher ist es immer möglich auf einem vollständigen Wahrscheinlichkeitsraum aus einer beliebigen Filtration eine vollständige Filtration zu erhalten. Die augmentierte Filtration ist im Allgemeinen größer als die Filtration, die man erhält,

13 wenn man jede σ-algebra einzeln vervollständigt. Die Filtration, die man durch diese Prozedur erhält, heißt Vervollständigung. Sei Nt P die Menge der P-Nullmengen in F t dann ist die Vervollständigung einer Filtration jene Filtration bestehend aus den σ-algebren F P t := F t Nt P. Es gilt F P t Ft P und diese Inklusion kann strikt sein. Caveat: Es gilt aber das unter Umständen die Vervollständigung einer Filtration keine vollständige Filtration liefert! Zu gegebener Filtration definieren wir die σ-algebren F t := s<t F s für alle t I mit F = F und F = s I F s und F t+ := ɛ> F t+ɛ für alle t I. Eine Filtration (F t ) t I heißt links-stetig falls F t = F t für alle t I, rechts-stetig falls F t = F t+ für alle t I und stetig falls sie sowohl links- als auch rechts-stetig ist. Die Filtrationen (F t ) t I und (F t+ ) t I sind links- bzw. recht-stetig per definitionem. Ein Wahrscheinlichkeitsraum zusammen mit einer Filtration, in Zeichen, (Ω, F, (F t ) t I, P), heißt filtrierter Wahrscheinlichkeitsraum. Dieser erfüllt die üblichen Bedingungen, falls die Filtration vollständig und rechtsstetig ist. Ein Prozess X heißt an die Filtration (F t ) t I adaptiert, falls für jedes t I die Zufallsvariable X t messbar bezüglich F t ist. Eine Modifikation eines adaptierten Prozesses ist nicht notwendigerweise adaptiert. Ist aber die Filtration vollständig, dann ist jede Modifikation eines adaptierten Prozesses ebenfalls adaptiert. Eine spezielle Filtration ist die von einem Prozess erzeugte natürliche Filtration Ft X := σ(x s, s t), d.h., F t ist die gröbste 8 σ-algebra, sodass alle X s, s t, messbar bezüglich dieser sind. Die natürliche Filtration ist die gröbste Filtration an die ein Prozess adaptiert ist. Falls X ein endlich-dimensionaler reeller, links-stetiger Prozess ist, dann ist die erzeugte Filtration (Ft X ) t links-stetig. Dies gilt aber nicht für Rechts-stetigkeit! Zum Beispiel, eine Brownsche Bewegung ist stetig, aber die erzeugte Filtration ist nicht rechts-stetig. Die augmentierte Filtration eines endlich-dimensionalen, reellen starken Markov Prozesses ist rechts-stetig und ist der Prozess zusätzlich links-stetig dann ist die augmentierte Filtration stetig. Eine weitere wichtige Eigenschaft der augmentierten Filtration ist, das das Augmentieren einer Filtration die starke Markoveigenschaft als auch die Martingaleigenschaft erhält. Somit können wir meist o.b.d.a. annehmen, dass ein derartiger Prozess auf eine Wahrscheinlichkeitsraum definiert ist, der die üblichen Bedingungen erfüllt. Bemerkung 1.2. Viele Eigenschaften von Prozessen, z.b., die Markov- oder Martingaleigenschaft, sind bezüglich einer gewissen Filtration oder σ-algebra definiert. Wir werden im Allgemeinen die Angabe der Filtration weglassen, falls keine Möglichkeit der Verwechslung besteht. Falls doch, werden wir diese einfach als Prefix an das Attribut anhängen. So ist zum Beispiel ein (F t ) t I -adaptierter Prozess ein Prozess X, der an die Filtration (F t ) t I adaptiert ist. 13 Eigenschaften als Abbildung auf Ω I: Ein Prozess X ist messbar, falls die Abbildung X : I Ω E messbar bezüglich der Produkt-σ-Algebra auf I Ω ist. Der Satz von Fubini impliziert, dass Pfade messbarer 8 Sei F, F zwei σ-algebren, sodass F F, dann ist F gröber als F, bzw., F ist feiner als F.

14 14 KAPITEL 1. STOCHASTISCHE PROZESSE Prozesse Borel-messbare Abbildungen auf I sind und ebenso t EX t, falls die Erwartung definiert ist. Weiters gilt die Vertauschbarkeit der Integration, d.h., für I I E X t dt < = X t dt < f.s. und EX t dt = E X t dt. I I Prozess mit rechts- oder links-stetigen Pfaden sind messbar. Die Einführung einer Filtration führt zum folgenden etwas stärkeren Konzept. Ein Prozess X heißt progressiv messbar falls für alle t I die Zufallsvariablen X s, s t, B [,t] F t -messbar sind. Progressivität impliziert Adaptivität und Messbarkeit. Umgekehrt gilt, adaptierte, rechts- oder links-stetige Prozesse sind progressiv und ein messbarer, adaptierter Prozess besitzt eine progressiv messbare Modifikation. Weiters, die vorhersehbare σ-algebra P ist die σ-algebra auf Ω I, die von allen linksstetigen, adaptierten Prozessen aufgefasst erzeugt wird. Es kann gezeigt werden, dass diese mit der σ-algebra die von allen stetigen Prozessen erzeugt wird übereinstimmt. Ein P- messbarer Prozess heißt vorhersehbar. Stoppzeiten Eine Zufallsvariable τ mit Werten in R + = R + { } (zufällige Zeit) heißt Stoppzeit bezüglich einer Filtration (F t ) t falls {τ t} F t für alle t R +. 9 Die Stoppzeit heißt (f.s.) endlich falls τ < (f.s.) und (f.s.) beschränkt falls τ T (f.s.) für ein T >. Jede Stoppzeit kann von unten durch eine Folge beschränkter Stoppzeiten, z.b., τ n τ, und von oben durch eine nicht-wachsende Folge von Stoppzeiten, die je nur abzählbare viele Werte annehmen, z.b., τ n τ falls i für i 1 τ < i τ n := 2 k 2 n 2, i N, n für τ =, approximiert werden. Sind τ n, n N, Stoppzeiten und c [, ), dann sind auch I I τ 1 + c, τ 1 c, τ 1 + τ 2, sup n N τ n, min τ k, max τ k n N k n k n Stoppzeiten und, falls die Filtration rechtsstetig ist, sind auch inf τ n, n N lim inf τ n, lim sup n n τ n Stoppzeiten. Ein weitere wichtige Klasse zufälliger Zeiten sind Eintrittszeiten ( hitting times ). Sei X eine adaptierter Prozess mit Werten in einem beliebigen metrischen Raum und B eine Borelmenge, dann ist die zufällige Zeit τ B := inf{t : X t B}, 9 Natürlich ist das Konzept analog für beliebige Indexmengen I definiert.

15 mit inf =, eine Stoppzeit, falls entweder die Menge B offen und die Filtration rechtsstetig ist 1 oder falls die Menge B abgeschlossen und zusätzlich entweder kompakt ist oder der Prozess X linke Limiten besitzt. Erfüllt die Filtration die üblichen Bedingungen und ist der Prozess progressiv messbar, dann ist jede Eintrittszeit eine Stoppzeit. Dieselben Aussage gelten auch für Eintrittszeiten nach einer zufälligen Zeit, d.h. für zufällige Zeiten τ B,σ := inf{t σ : X t B} wobei σ eine beliebige Zufallsvariable in R + ist. Sei τ eine Stoppzeit, dann ist die gestoppte σ-algebra F τ definiert durch F τ := { A F : A {τ t} F t für alle t }. Klarerweise gilt F τ ist eine σ-algebra. Sind τ und σ zwei Stoppzeiten, dann sind τ und τ σ F τ -messbar und falls τ σ dann gilt F τ F σ. Weiters, falls γ eine F τ -messbare Zufallsvariable ist, gilt nun, dass auch τ + γ eine Stoppzeit ist. Sei X ein stochastischer Prozess und τ eine Stoppzeit. Dann definieren wir auf [τ < ] die Abbildung X τ : ω X τ(ω) (ω). Existiert ein Zufallsvariable X o.b.d.a. kann man z.b. immer X konstant wählen, dann kann diese Definition auf ganz Ω ausgedehnt werden. Ist die Stoppzeit f.s. endlich und nimmt nur höchstens abzählbar viele Werte an, dann ist X τ eine Zufallsvariable falls der Prozess X adaptiert ist. Ist die Stoppzeit f.s. beschränkt, aber nimmt überabzählbar viele Werte an, dann ist X τ eine Zufallsvariable falls der Prozess messbar ist. Ist der Prozess progressive messbar, dann ist X τ für eine beliebige Stoppzeit eine Zufallsvariable. Weiters, ist der Prozess X progressiv messbar, dann ist die Zufallsvariable X τ auch messbar bezüglich F τ und der gestoppte Prozess X τ definiert durch Xt τ := X t τ, t, ist ebenfalls progressiv messbar Allgemeiner gilt, dass in diesem Falle τ B eine (F t+ ) t -Stoppzeit ist.

16 16 KAPITEL 1. STOCHASTISCHE PROZESSE

17 Kapitel 2 Die Brownsche Bewegung Wir definieren die Brownsche Bewegung und beweisen die Existenz und Eindeutigkeit eines derartigen Prozesses. Wir analysieren die elementaren (Pfad-)Eigenschaften der Brownschen Bewegung, diskutieren weitere stochastische Prozesse, die sich aus der Brownschen Bewegung gewinnen lassen. Zuletzt präsentieren wir noch Reihendarstellungen der Brownschen Bewegung und beweisen die Karhunen-Loève-Entwicklung. Ein stochastischer Prozess B = (B t ) t wird Brownsche Bewegung oder Wiener Prozess genannt, falls er die folgenden Eigenschaften besitzt: (a) Der Prozess startet fast sicher im Ursprung, d.h., B = fast sicher, (b) besitzt stationäre unabhängig normalverteilte Zuwächsen, d.h., B t B s N(, t s ) und B t2 B t1 unabhängig von B t4 B t3 falls (t 1, t 2 ) (t 3, t 4 ) =, (c) und besitzt fast sicher stetige Pfade. Bemerkung 2.1. Die hier gegebene Definition einer Brownschen Bewegung sowie die Resultate in diesem Kapitel kommen ohne die Angabe einer Filtration aus an welche die Brownsche Bewegung adaptiert ist. Jedoch, in späteren Kapiteln wird eine solche benötigt und in diesem Falle heißt ein Prozess B eine Brownschen Bewegung bezüglich der Filtration (F t ) t falls dieser (a) (c) erfüllt, an die Filtration (F t ) t adaptiert ist und für alle s < t gilt B t B s ist unabhängig von F s. Es ist offensichhtlich, dass diese zusätzlichen Bedingungen bereits die Unabhängigkeit der Inkremente implizieren. Andererseits gilt, dass die Unabhängigkeit der Inkremente impliziert, dass eine Brownsche Bewegung immer eine Brownsche Bewegung bezüglich ihrer natürlichen Filtration (F B t ) t ist. 2.1 Existenz der Brownschen Bewegung Im folgenden ersten Satz zur Brownschen Bewegung beweisen wir deren Existenz und Eindeutigkeit mittels des Satzes von Kolmogorov. Im weiteren Verlauf werden wir noch weitere 17

18 ... A (1) 18 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Möglichkeiten kennenlernen die Existenz und Eindeutigkeit zu beweisen. Klarerweise bezieht sich hier Eindeutigkeit auf die Verteilung der kanonischen Version. Satz 2.1 (Existenz der Brownschen Bewegung). Es existiert genau ein stochastischer Prozess der die Bedingungen (a) (c) erfüllt. Dieser heißt Brownsche Bewegung oder Wiener Prozess. Bemerkung 2.2. Aus dem Beweis folgt, dass die endlich-dimensionalen Verteilungen der Brownschen Bewegung Normalverteilungen sind und für alle t, s gilt B t N(, t) und Cov(B t, B s ) = t s. Beweis. Wir verwenden nun zum Beweis des Satzes den Kolmogorov Existenzsatz und das Kolmogorov-Centsov Stetigkeitskriterium. Als Vorbemerkung zeigen wir, dass die endlichdimensionalen Verteilungen eines Prozesses der (a) (c) erfüllt, multivariat normalverteilt sind: Aus der Unabhängigkeit folgt für s < t, dass (B s, B t B s ) gemeinsam normalverteilt sind und somit auch (1 ; 1 1)(B s, B t B s ) = (B s, B t ) mit Kovarianzmatrix (s s; s t) und somit gilt Cov(B s, B t ) = s t. Analog folgt die gemeinsame Verteilung aller endlichen Vektoren (B t1,..., B tn ). Als nächstes konstruieren wir aus den Eigenschaften (a) und (b) eindeutig eine Familie endlich-dimensionaler Verteilungen bestehend aus Normalverteilungen und um die Existenz und Eindeutigkeit eines Prozesses zu erhalten, ist zu zeigen, dass diese Familie projektiv ist. Die Existenz einer regulären bedingten Erwartung garantiert, dass für t 1 < t 2 P[B t1 A 1, B t2 A 2 ] = P[B t2 A 2 B t1 ] dp Bt1 A 1 wobei P B t 1 die Verteilung von Bt1 bezeichnet. Aus der Unabhängigkeit der Inkremente folgt nun P [ ] B t2 A 2 Bt1 = (2π(t 2 t 1 )) A 1/2 exp ( (x 2 B t1 ) 2 ) dx 2, 2 2(t 2 t 1 ) }{{} =:p(t 2 t 1,x 2 B t1 ) da B t1 + (B t2 B t1 ) B t1 N(B t1, t 2 t 1 ), und somit gilt P[B t1 A 1, B t2 A 2 ] = p(t 2 t 1, x 2 x 1 ) dx 2 p(t 1, x 1 ) dx 1. A 2 A 1 Sei J = {t 1,..., t n } R + dann bezeichnen wir mit (t (1),..., t (n) ) das Tupel der aufsteigend angeordneten Elemente von J und wir bestimmen nach den obigen Überlegungen rekursiv die Familie der endlich dimensionalen Verteilungen P J[ B t1 A 1,..., B tn A n ] = A (n 1) A (n) p(t (n) t (n 1), x n x n 1 ) dx n p(t (n 1) t (n 2), x n 1 x n 2 ) dx n 1... p(t (1), x 1 ) dx 1.

19 2.1. EXISTENZ DER BROWNSCHEN BEWEGUNG 19 Diese Familie ist offensichtlich projektiv, da der Ausdruck in der rechten Seite invariant bezüglich Permutationen ist und es gilt P J[ B t1 A 1,..., B tn R ] = P J\{t n} [ B t1 A 1,..., B tn 1 A n 1 ]. Aus dem Satz von Kolmogorov, Satz 1.1, folgt nun die Existenz eines eindeutigen stochastischen Prozesses B der die Bedingungen (a) und (b) erfüllt. Um schlussendlich die Brownsche Bewegung zu erhalten müssen wir noch zeigen, dass dieser Prozess eine stetige Modifikation besitzt. Damit ist dann die eindeutige Existenz eines Prozesses der zusätzlich auch Eigenschaft (c) erfüllt bewiesen. Dazu bemühen wir das Kolmogorov-Centsov Stetigkeitskriterium, Satz 1.2. Da die Inkremente B t B s einer N(, t s )-Verteilung folgen, erhalten wir aus den bekannten Resultaten betreffend der Momente der Normalverteilung, E B t B s 4 = 3 t s 2 und somit sind die Bedingungen des Kriteriums erfüllt. Als nächstes sammeln wir einige einfache Symmetrieeigenschaften der Brownschen Bewegung, sodass wir durch Transformationen eine Brownschen Bewegung wiederum Brownsche Bewegungen erhalten. Im folgenden sei (Ω, F, P) ein Wahrscheinlichkeitsraum auf dem eine Brownsche Bewegung B definiert ist. (Symmetrie) Der Prozess B t, t, ist eine Brownsche Bewe- Proposition 2.1. (i) gung. (ii) (Homogenität) Der Prozess B s+t B s, t, ist für beliebiges s eine Brownsche Bewegung unabhängig von σ(b u ; u s). (iii) (Skalierung) Der Prozess cb t/c 2, t, ist für beliebiges c > eine Brownsche Bewegung. (iv) (Inversion) Der Prozess definiert durch X = und X t = tb 1/t, t >, ist eine Brownsche Bewegung. Beweis. Die Eigenschaften (i) (iii) sind klar und wir beweisen nur (iv). Aus der Definition gilt die Eigenschaft (a) der Brownschen Bewegung und wir betrachten die Inkremente X t X s. Diese sind normalverteilt, da die endlich-dimensionalen Verteilungen von B normalverteilt sind, mit E(X t X s ) = und E(X t X s ) 2 = t 2 EB 2 1/t + s 2 EB 2 1/s 2tsEB 1/t B 1/s = t + s 2ts max{t, s} = t s. Daher sind die Inkremente stationär und ebenfalls durch Ausmultiplizieren der Kovarianz folgt die Unabhängigkeit der Inkremente, da für t 1 t 2 t 3 t 4 gilt E(X t2 X t1 )(X t4 X t3 ) = t 2t 4 t 2 t 4 + t 1t 3 t 1 t 3 t 1t 4 t 1 t 4 t 2t 3 t 2 t 3 = t 2 + t 1 t 1 t 2 =.

20 2 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Es bleibt die Stetigkeit der Pfade zu betrachten, wobei der einzig kritische Punkt an t = ist. Da die Prozesse X t, t (, ) und B t, t (, ) dieselben endlich dimensionalen Verteilungen besitzen gilt wegen lim t, t Q+ B t = f.s. auch lim t, t Q+ X t = f.s.. Da aber X t f.s. stetige Pfade auf (, ) besitzt folgt auch lim t, t R+ X t =. Die soeben bewiesene Eigenschaft der Inversion der Brownschen Bewegung liefert einen einfachen Beweis des folgenden starkes Gesetzes der Großen Zahlen, das sublineares Wachstum der Brownschen Pfade liefert. Korollar 2.1 (Starkes Gesetz der Großen Zahlen). Für eine Brownsche Bewegung B gilt lim t B t t = f.s.. Beweis. Wegen Prop. 2.1(iv) gilt = lim s sb 1/s = lim t B t /t f.s. wobei t = 1/s. Bemerkung 2.3. Eine präzisere Beschreibung des lokalen Verhaltens von Brownschen Pfaden für t und t liefert das Gesetz des iterierten Logarithmus und Lèvy s modulus of continuity. Diese Resultate werden wir aber nicht behandeln. 2.2 Pfadeigenschaften der Brownschen Bewegung Als nächsten untersuchen wir Eigenschaften der Pfade der Brownschen Bewegung und beginnen mit Eigenschaften, die das lokale Oszillationsverhalten betreffen. Satz 2.2. (i) gilt Eine Brownsche Bewegung besitzt endliche quadratische Variation und es qm-lim P[,t] B ti B ti 1 2 = t = L 2 [,t](b). i (ii) Eine Brownsche Bewegung besitzt f.s. Pfade von unendlicher totaler Variation, d.h., V 1 [,t](b) = sup P [,t] i B ti B ti 1 = f.s.. (Genau genommen wird im Beweis nur gezeigt, dass die Menge der Pfade von endlicher totaler Variation in einer Nullmenge enthalten sind.) Bemerkung 2.4. Der Quadratmittel Limes in (i) ist interpretiert als der Limes einer beliebigen Folge von Partitionen von [, t], deren Feinheit gegen konvergiert. Die Konvergenz in (i) gilt fast sicher, falls die Folge der Partitionen aufsteigend ist (P n P n+1 ) oder der Radius genügend schnell fällt ( n P n < ). Die Eigenschaft (ii) erlaubt nun nicht mehr ein Integral bezüglich einer Brownschen Bewegung pfadweise im Sinne des Riemann- Stieltjes Integral zu definieren und ist der Grund für die Entwicklung einer stochastischen Integrationstheorie in der die Rolle der klassischen Variation (ii) durch die quadratische Variation in (i) ersetzt wird. Die Resultate gelten natürlich analog für beliebige endliche Intervall [a, b] und resultierender quadratischer Variation b a.

21 2.2. PFADEIGENSCHAFTEN DER BROWNSCHEN BEWEGUNG 21 Beweis. (i) Wegen der Unabhängigkeit der Inkremente und da EZ 4 = 3EZ 2 für normalverteiltes Z gilt [ 2 [ ( )] 2 E (B ti B ti 1 ) 2 t] = E (B ti B ti 1 ) 2 (t i t i1 ) i i (unabhängige Inkremente) = i [ E (B ti B ti 1 ) 2 (t i t i1 ) ] 2 2 i E(B ti B ti 1 ) i (t i t i1 ) 2 8 i (t i t i 1 ) 2 und die Aussage folgt da P [,t]. 8t P [,t] (ii) Konvergenz im Quadratmittel impliziert Konvergenz in der Wahrscheinlichkeit und diese wiederum impliziert, es existiert eine Teilfolge die fast sicher konvergiert. Sei nun P[,t] n ein Folge von Partitionen, sodass lim P [,t] B ti (ω) B ti 1 (ω) 2 = t ( ) i für alle ω Ω F mit P(Ω ) = 1 und o.b.d.a. können wir annehmen, dass alle diese Pfade stetig sind. Dann gilt ( ) B ti (ω) B ti 1 (ω) 2 sup B ti (ω) B ti 1 (ω) sup B ti (ω) B ti 1 (ω) ω Ω. i i P [,t] Ist nun die totale Variation endlich, dann konvergiert wegen der Stetigkeit der Brownschen Pfade die obere Schranke gegen null. Dies ist ein Widerspruch zu ( ) und daher muss die totale Variation auf Ω unendlich sein. Satz 2.3. Eine Brownschen Bewegung besitzt f.s. lokal Hölder-stetige Pfade mit Hölderexponent γ < 1/2 und ist f.s. nirgends lokal Hölder-stetig mit Exponent γ > 1/2. Genauer ausgedrückt gilt die zum Exponent γ > 1/2 an einem Punkt lokal Hölder-stetigen Pfade sind in einer Nullmenge enthalten. Beweis. Der erste Teil des Satzes folgt wie schon die Stetigkeit aus dem Satz von Kolmogorov- Centsov, Satz 1.2. Da die Inkrement normalverteilt sind existiert für jedes p > eine Konstante C p, sodass E B t B s 2p = C p t s p. Daher sind die Pfade lokal Hölder-stetig für alle γ < (p 1)/(2p) = 1/2 1/(2p). Da p beliebig groß gewählt werden kann folgt die f.s. lokale Hölder-stetigkeit für alle γ < 1/2. i

22 22 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Der zweite Teil des Satzes ist analog zum Beweis von Satz 2.2(ii). Sei wieder um P [,t] ein Folge von Partitionen, sodass lim P [,t] B ti (ω) B ti 1 (ω) 2 = t ( ) i für alle ω Ω mit P(Ω ) = 1. Falls B s1 (ω) B s2 (ω) K s 1 s 2 γ für alle s 1, s 2 t und ein γ > 1/2, dann gilt B ti (ω) B ti 1 (ω) 2 i i K 2 t i t i 1 2γ K 2 t sup t i t i 1 2γ 1. i Da P [,t] konvergiert die rechte Seite gegen null. Wiederum erhalten wir einen Widerspruch zu ( ) und es folgt, die Pfade sind fast sicher nicht Hölder-stetig mit Exponent γ > 1/2 auf [, t]. Dasselbe Argument lässt sich nun für beliebige Intervalle wiederholen und dies impliziert, dass die Brownsche Bewegung f.s. nirgends lokal Hölder-stetig mit Exponent γ > 1/2 ist. Bemerkung 2.5. Der obige Satz lässt die lokale Hölder-Stetigkeit für den Fall γ = 1 2 unbeantwortet. Das Gesetz des iterierten Logarithmus impliziert, dass der Pfad nicht überall lokal Hölder-stetig mit Exponent γ = 1/2 sein kann. Dies heißt aber nicht, dass ein solcher Pfad diese Eigenschaft nirgends auf [, ) haben kann. Eine detailliertere Diskussion dieses Aspekts findet sich in [KS91, S. 113]. Schlussendlich zeigen wir noch, dass die Pfade eine Brownschen Bewegung fast sicher nirgends differenzierbar sind. Die umständliche Formulierung des Satzes trägt dem Umstand Rechnung, dass nicht bekannt ist, ob die Menge der an einem Punkt differenzierbaren Pfade messbar ist. Satz 2.4. Die Menge der an einem Punkt differenzierbaren Pfade einer Brownschen Bewegung sind in einer Nullmenge enthalten. Beweis. Es ist ausreichend, Brownsche Pfade über den Intervall [, 1] zu betrachten, da abzählbare Vereinigungen von Nullmengen wieder um Nullmengen sind. Wir definieren D + f(t+h) f(t) f(t) = lim sup h und bezeichnen analog mit D h + f(t) den Limes inferior. Klarerweise gilt, ist f differenzierbar an t dann ist < D + f(t) = D + f(t) <. Wir betrachten nun die Menge C := { ω Ω : < D + B t (ω) D + B t (ω) < für ein t [, 1] }, die alle an einer Stelle t [, 1] differenzierbaren Brownschen Pfade enthält, und zeigen, dass C in einer Nullmenge liegt. Wir definieren weiters die Mengen A jk := t [,1] h [,1/k] { ω Ω : Bt+h (ω) B t (ω) jh }, j, k N,

23 2.2. PFADEIGENSCHAFTEN DER BROWNSCHEN BEWEGUNG 23 und es gilt C j=1 k=1 aus folgendem Grund: Sei t so, dass für eine Pfad ω C gilt < D + B t (ω) und D + B t (ω) <, d.h., für alle h klein genug, z.b., für alle h 1/k mit k groß, gilt, dann existieren reelle Konstanten C ± mit für h klein und somit gilt B t+h (ω) B t (ω) h A jk C + und C B t+h(ω) B t (ω) h hc B t+h (ω) B t (ω) hc + B t+h (ω) B t (ω) h max{ C, C + }. Es folgt nun dieser Pfad ω liegt in A jk für große j und k. Die Inklusion ( ) folgt. Auf Grund dieser reicht es nun aber für den Beweis des Satzes aus zu zeigen, dass für alle j, k N eine Nullmenge C F, d.h., P(C) =, existiert, die A jk enthält, da abzählbare Vereinigungen von Nullmengen wiederum Nullmengen sind. Wir wählen j, k fix und fixieren einen bestimmten Pfad ω A jk. Für diesen gilt t [, 1] : B t+h (ω) B t (ω) jh h [, 1/k]. ( ) Ein derartiges t sei nun ebenfalls fix und wir wählen ein n 4k. Dann können wir eine natürliche Zahl i in {1,..., n} so wählen, dass ( ) i 1 n t i n und somit i + m n Wir benutzen ( ) und ( ) und erhalten t m + 1 n 1 k für m =, 1, 2, 3. ( ) B (i+1)/n (ω) B i/n (ω) B (i+1)/n (ω) B t (ω) + B i/n (ω) B t (ω) ( i + 1 ) ( i ) n t j + n t j 2j n + j n. Wichtig ist nun, dass wir durch ω A jk nicht nur die Inkremente über [i/n, (i + 1)/n] sondern auch über die nachfolgenden Intervalle [(i+1)/n, (i+2)/n] und [(i+2)/n, (i+3)/n] erhalten. Dieselbe Abschätzung wie zuvor ergibt wegen ( ) und ( ), dass und B (i+2)/n (ω) B (i+1)/n (ω) B (i+2)/n (ω) B t (ω) + B (i+1)/n (ω) B t (ω) 3j n + 2j n B (i+3)/n (ω) B (i+3)/n (ω) B (i+3)/n (ω) B t (ω) + B (i+2)/n (ω) B t (ω) 4j n + 3j n.

24 24 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Damit haben wir gezeigt, dass mit C (n) i := 3 { ω Ω : B(i+m)/n (ω) B (i+m 1)/n (ω) (2m + 1)j/n } m=1 gilt A jk n i=1 C(n) i falls n 4k. Klarerweise gilt C (n) i F, da die Elemente nur von endlich vielen Koordinaten abhängen. Nun gilt aber, dass n (B(i+m)/n B (i+m 1)/n ) u.i.v. N(, 1) und, da für Z N(, 1) gilt P[ Z δ] δ, folgt P(C (n) i ) = Wählt man nun C als 3 m=1 [ n B(i+m)/n ] P B (i+m 1)/n (2m+1)j n 15j3 n. 3/2 C := n n=4k i=1 C (n) i F, dann gilt A jk C. Der Beweis ist nun abgeschlossen, da ( n P(C) inf n 4k P i=1 ) C (n) 15j 3 i inf n 4k =. n 3/2 2.3 Verwandte Prozesse In diesem Abschnitt betrachten wir kurz einige weitere wichtige stochastische Prozesse, die sich aus der Brownschen Bewegung ergeben. Die Pfade der besprochenen Prozesse sind in Abbildung 2.1 illustriert. Beispiel 2.1 (Brownsche Bewegung in x). Der Prozess X t = x+b t, t, heißt Brownsche Bewegung in x. Da die Bedingung B = nicht immer Teil der Definition einer Brownschen Bewegung ist, heißt B auch standard Brownsche Bewegung. Beispiel 2.2 (Brownsche Brücke). Der Prozess X t = B t tb 1 definiert für t [, 1] heißt Brownsche Brücke. Er besitzt offensichtlich stetige Pfade und erfüllt X = X 1 = fast sicher. Beispiel 2.3 (Ornstein-Uhlenbeck Prozess). Ein Prozess X definiert als X t = c e βt B exp(2βt), t mit c, β > heißt Ornstein-Uhlenbeck Prozess. Der Ornstein-Uhlenbeck Prozess ist im Gegensatz zur Brownschen Bewegung stationär.

25 2.3. VERWANDTE PROZESSE Brownsche Bewegung t Ornstein Uhlenbeck Prozess 4 (c=1,β=1) t Geometrische Brownsche Bewegung 15 (µ=2,σ=1) Brownsche Brücke t Geometrische Brownsche Bewegung 5 (µ=,σ=1) t Geometrische Brownsche Bewegung 1.5 (µ= 2,σ=1) t t Abbildung 2.1: Jeweils 1 Pfade verschiedener, in diesem Kapitel besprochener Prozesse.

26 26 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Beispiel 2.4 (Geometrische Brownsche Bewegung). Ein Prozess X definiert als ( (µ X t = c exp σ 2 /2 ) ) t σb t, t mit c, µ, σ R heißt geometrische Brownsche Bewegung. Er besitzt für c >, bzw., c <, positive bzw. negative Pfade. Die wichtigste Anwendung ist in der Finanzmathematik als einfachster Preisprozess, vgl. Black-Scholes Modell. Bemerkung 2.6. Der Ornstein-Uhlenbeck Prozess und die geometrische Brownsche Bewegung lösen gewisse stochastische Differentialgleichungen. Speziell gilt, die Lösungen zu skalaren, linearen stochastischen Differentialgleichungen mit additiven bzw. linearen multiplikativen Wiener Rauschen sind Versionen der Prozesse definiert in Beispiel 2.3 bzw Die meisten der Prozesse, die wir bis jetzt betrachtet haben besitzen die Eigenschaft, dass ihre endlich-dimensionalen Verteilungen Normalverteilungen sind. Daher sind sie Beispiele für die folgende Klasse von stochastischen Prozessen. Definition 2.1. Ein stochastischer Prozess X heißt Gaussprozess, falls seine endlichdimensionalen Verteilungen eine Familie von Normalverteilungen ist, d.h., jeder endliche Vektor (X t1,..., X tn ), n N und t 1,..., t n I, besitzt eine n-dimensionale Normalverteilung. Bekanntermaßen sind Normalverteilungen durch ihre ersten beiden Momente eindeutig festgelegt und ähnliches gilt auch für Gaussprozesse. Wir bezeichnen mit t m(t) := EX t und (s, t) K(s, t) := E(X s m(s))(x t m(t)) die Mittelwert- und die Kovarianzfunktion eines Prozesses. Ein Prozess heißt zentriert falls m(t) = für all t. Es gilt, die Kovarianzfunktion eines Gaussprozesses ist positiv semidefinit, d.h., n i,j=1 K(t i, t j )a i a j für alle t i,..., t n I und alle a 1,..., a n R. Dies folgt da die Kovarianzmatrix einer Normalverteilung positiv semidefinit ist. Der folgende Satz liefert nun die Charakterisierung von Gaussprozessen aus ihrer Mittelwert- und Kovarianzfunktion. Satz 2.5. Zu jeder Mittelwertfunktion m und jeder positiv semidefiniten Kovarianzfunktion K existiert ein (bis auf Versionen) eindeutiger Gaussprozess. Beweis. Da m + X ein eindeutiger Gaussprozess mit Mittelwertfunktion m und K ist, falls X der eindeutige zentrierte Gaussprozess mit Kovarianz K ist, ist es ausreichend die Existenz und Eindeutigkeit von zentrierten Gaussprozessen zu zeigen. Dazu verwenden wir den Satz von Kolmogorov, d.h., die Aufgabe ist es aus Kovarianzfunktion eine eindeutige projektive Familie von Verteilungen zu konstruieren. Da diese bei Gaussprozessen eine Familie von zentrierten Gaussverteilungen ist, müssen wir nur deren Kovarianzmatrizen eindeutig bestimmen. Zu je endlich-vielen Indices t 1,..., t n I konstruieren wir mittels der Kovarianzfunktion eine Matrix (σ ij ) i,j=1,...,n mit σ ij := K(t i, t j ). Diese ist positiv semidefinit, d.h., n i,j=1 σ ija i a j

27 2.3. VERWANDTE PROZESSE 27 4 Gauss sches Weißes Rauschen 4 Gauss sches Weißes Rauschen t t Abbildung 2.2: Illustration zweier Pfade von Gauss schem Weißen Rauschen. Beachte, die Pfade des Prozesses sind eigentlich nicht stetig. für alle a 1,..., a n R, da K positiv semidefinit ist. Die Matrix definiert eine eindeutige, zentrierte Normalverteilung. Somit, definiert die Kovarianzfunktion eindeutig die Familie der endlich-dimensionalen Verteilungen. Das diese Familie endlich-dimensionaler Verteilungen projektiv ist, folgt analog zu den Argumenten im Existenzsatz zur Brownschen Bewegung, Satz 2.1, und der Beweis ist abgeschlossen. Aus diesem Satz folgt nun eine zweite Charakterisierung der Brownschen Bewegung: Die Brownsche Bewegung ist der eindeutige f.s. stetige, zentrierte Gaussprozess zur Kovarianzfunktion K(s, t) = s t. Die Existenz des Prozesses folgt aus Satz 2.5, die Unabhängigkeit der Inkremente folgt aus der Kovarianzfunktion, da im Falle von Normalverteilungen Unkorreliertheit und Unabhängigkeit äquivalent sind, und die Existenz einer stetigen Modifikation folgt auch hier wiederum aus dem Satz von Kolmogorov-Centsov. Analoges gilt auch für die oben beschriebenen Prozesse. So ist die Brownsche Bewegung gestartet in x die stetige Version des Gaussprozesses zur Kovarianzfunktion K(s, t) = s t und Mittelwertfunktion m(t) = x, der Ornstein-Uhlenbeck Prozess die stetige Version des zentrierten Gausprozesses zu K(s, t) = c exp( β t s ) und die Brownsche Brücke ist die stetige Version des zentrierten Gaussprozesses auf [, 1] definiert durch die Kovarianz K(s, t) = s(1 t) für s t. Klarerweise ist aber die geometrische Brownsche Bewegung kein Gaussprozess, da die eindimensionale Verteilungen log-normalverteilungen sind. Weitere wichtige Beispiele von Gaussprozessen sind die folgenden stochastischen Prozesse. Beispiel 2.5 (Fraktionale Brownsche Bewegung). Der zentrierter, stetige Gaussprozess X zur Kovarianzfunktion K(s, t) = 1 ) (t 2H + s 2H + t s 2H, 2 mit H (, 1), heißt Fraktionale Brownsche Bewegung. Für H = 1/2 stimmt die Fraktionale Brownsche Bewegung mit der Brownschen Bewegung überein. Die Konstante H heißt Hurst Parameter des Prozesses und ist ein Mass für das Langzeitgedächtnis des Prozesses.

28 28 KAPITEL 2. DIE BROWNSCHE BEWEGUNG Beispiel 2.6 (Gauss sches Weißes Rauschen). Wir betrachten den zentrierten Gaussprozess X, der durch die Kovarianzfunktion K(s, t) = I [t=s] definiert ist. Dieser heißt Gauss sches Weißes Rauschen. Gauss sches Weißes Rauchen besitzt keine guten Eigenschaften, nicht einmal eine messbare (und somit auch keine f.s. stetige) Version existiert. Gauss sches Weißes Rauschen ist die Ableitung der Brownschen Bewegung im Sinne von Distributionen. 2.4 Reihenentwicklung der Brownschen Bewegung Im folgenden beschränken wir uns auf Prozesse über der Indexmenge [, 1], aber die Ergebnisse sind klarerweise ohne Einschränkung für beliebige endliche Indexmengen [a, b] R + gültig. Weiters erhalten wir Prozesse auf R + durch Aneinaderfügen von Ergebnissen auf endlichen Intervallen Satz von Levy-Ciesielski und die Paley-Wiener Entwicklung Gegeben sei ein Wahrscheinlichkeitsraum (Ω, F, P) mit einer darauf definierten Folge von unabhängigen, standard normalverteilten Zufallsvariablen ξ n, n N. Der folgende Satz liefert Reihendarstellungen von Brownschen Bewegungen in dem Sinne, das eine Brownsche Bewegung der Limes einer zufällig gewichteten Funktionenreihe ist. Weiters liefert der Satz eine alternative Methode um die Existenz einer Brownschen Bewegung zu erhalten bei der wir die Schwierigkeiten im Zusammenhang mit kanonischen Wahrscheinlichkeitsräumen aus überabzählbaren Produkträumen vermeiden. Satz 2.6 (Levy-Ciesielski). Sei ξ n, n N, eine Folge unabhängig, standard normalverteilter Zufallsvariablen und ϕ n, n N, eine Orthonormalbasis (ONB) von L 2 (, 1). Dann konvergiert die Summe t B t = ξ n ϕ n (s) ds fast sicher in C[, 1] und B ist eine Brownsche Bewegung auf [, 1]. n=1 Bemerkung 2.7. Durch Aneinanderfügen von unabhängigen Brownschen Bewegungen auf [, 1] erhält man sofort die Existenz einer Brownschen Bewegung auf R +. Im Unterschied zum ersten Existenzbeweis mittels des Satz von Kolmogorov in Satz 2.1, der eine reine Existenzaussage ist, ist dieser Beweis tatsächlich eine Konstruktion einer Brownschen Bewegung. Die Umkehrung des Satzes - die Existenz einer Zerlegung zu gegebener Brownschen Bewegung mit obigen Eigenschaften und die Konvergenz - ist einfacher zu zeigen. Die Zerlegung im Satz 2.6 heißt einfach orthogonal, da die ξ n orthonormal im Raum der quadrat-integrierbaren Zufallsvariablen sind. Für die Wahl der ONB ϕ n (t) = 2 sin(nπt) entspricht dieses Resultat (nicht die Beweistechnik) dem ursprünglichen Existenzbeweis der Brownschen Bewegung von N. Wiener. Ein Spezialfall dieses Satzes ist die Paley-Wiener Entwicklung der Brownsche Bewegung: B t = n Z e 2inπt 1 2inπ ξ n = n Z t ξ n e 2inπs ds

29 2.4. REIHENENTWICKLUNG DER BROWNSCHEN BEWEGUNG N=5.8 N=1 N=2 n=4 N= t Abbildung 2.3: Approximation eines Brownschen Pfades mittels Satzes 2.6 aus der ONB ϕ n (t) = 2 sin(nπt) durch endliche Reihen mit N Summanden. mit ONB (e 2inπt ) n Z. Meist wird in modernen Büchern zum Beweis der Existenz eine ONB mittels der Haar schen Funktionen H (n) k, n und k 2n mit k ungerade, gewählt, wobei H () 1 (t) = 1, t [, 1], und H (n) k (t) = 2 (n 1)/2 für k 1 2 n t < k 2 n, 2 (n 1)/2 für k 2 n t < k+1, 2 n sonst. Bei dieser Wahl einer ONB konvergiert die Summe in Satz 2.6 sogar f.s. punktweise absolut was die Beweisführung erleichtert. Die Integrale von Haar schen Funktionen, die in der Reihenentwicklung auftreten, sind die Schauderfunktionen. Beweis. Im Beweis benutzen wir folgende Resultate der Theorie unendlicher Summen unabhängigen Zufallsvariablen. Erstens, verwenden wir den Satz von Itô-Nisio: In einem separablen Banachraum ist die fast sichere Konvergenz einer unendlichen Summe unabhängiger

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis SS1 von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 6. Mai 21 Inhaltsverzeichnis 1 Motivation / Einführung 4 1.1 Motivation anhand

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2). Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Terminologie Stochastischer Prozesse

Terminologie Stochastischer Prozesse Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.

Mehr

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109 A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 19 A. Stochastische Prozesse und Stoppzeiten In dieser Vorlesung arbeiten wir immer auf einem Massraum (Ω, F), der gross genug ist, um alle definierten Objekte

Mehr

2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III Teil Der Wienerraum

2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III Teil Der Wienerraum 8 Wahrscheinlichkeitstheorie III Teil 3 Brownsche Bewegung Wir haben die Brownsche Bewegung bereits als Grenzwert reskalierter Irrfahrten in der VL WTH II kennengelernt siehe dazu Abschnitt 5.. In diesem

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Simulation stochastischer Prozesse Peter Frentrup Humboldt-Universität zu Berlin 27. November 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 27. November 2017

Mehr

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 9 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 40: Es sei (X t ) t 0 ein

Mehr

Vorlesungsskript: Martingale

Vorlesungsskript: Martingale Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Schwartz-Raum (Teil 1)

Schwartz-Raum (Teil 1) Schwartz-Raum (Teil 1) Federico Remonda, Robin Krom 10. Januar 2008 Zusammenfassung Der Schwartz-Raum ist ein Funktionenraum, der besondere Regularitätseigenschaften besitzt, die uns bei der Fouriertransformation

Mehr

7 Der Satz von Girsanov

7 Der Satz von Girsanov 7 Der Satz von Girsanov Der Satz von Girsanov wird uns eine neue Perspektive auf die Rolle des Drifts liefern. Die Prozesse Brownsche Bewegung B t, Brownsche Bewegung mit Drift X t = B t + µt haben wir

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

1 Stochastische Prozesse in stetiger Zeit

1 Stochastische Prozesse in stetiger Zeit 1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.

Mehr

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,

Mehr

Strassen Type Theorems Proseminar Stochastik

Strassen Type Theorems Proseminar Stochastik Strassen Type Theorems Proseminar Stochastik Cecelie Hector Universität Hamburg Fachbereich Mathematik SoSe 2004 Vortrag am 25.06.04 Definition (a). Ein topologischer Raum E heißt polnisch, wenn es eine

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Asymptotische Stochastik (SS 2010)

Asymptotische Stochastik (SS 2010) Institut für Stochastik PD. Dr. Dieter Kadelka Daniel Gentner Asymptotische Stochastik (SS 2010) Lösungen zu Übungsblatt 4 Aufgabe 1 (lokaler Grenzwertsatz von de Moivre und Laplace und eine Verallgemeinerung)

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik

Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik Univ. Leipzig Mathematisches Institut Vertretung Professur Stochastische Prozesse Max v. Renesse email: mrenesse@math.tu-berlin.de Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik

Mehr

Zusammenfassung Analysis 2

Zusammenfassung Analysis 2 Zusammenfassung Analysis 2 1.2 Metrische Räume Die Grundlage metrischer Räume bildet der Begriff des Abstandes (Metrik). Definition 1.1 Ein metrischer Raum ist ein Paar (X, d), bestehend aus einer Menge

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Vollständigkeit. 1 Konstruktion der reellen Zahlen

Vollständigkeit. 1 Konstruktion der reellen Zahlen Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente

Mehr

Seminar Gewöhnliche Differentialgleichungen

Seminar Gewöhnliche Differentialgleichungen Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden

Mehr

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Schwache Konvergenz von Wahrscheinlichkeitsmaßen Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind

Mehr

Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses

Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses Thomas Steinle Seminar Zufällige Felder Universität Ulm 18. November, 2008 Einleitung Inhalt Einleitung Wiederholung und Themenvorstellung Wichtiges

Mehr

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20 Gleichmäßige Konvergenz für Folgen und Reihen von Funktionen 20.1 Folgen und Reihen von Funktionen 20.3 Die Supremumsnorm 20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20.7 Das Cauchy-Kriterium

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

Ferienkurs in Maß- und Integrationstheorie

Ferienkurs in Maß- und Integrationstheorie Zentrum Mathematik Technische Universität München Dipl. Math. Wolfgang Erb WS 9/ Übungsblatt Ferienkurs in Maß- und Integrationstheorie Aufgabe. (σ-algebren Sei eine Menge und A eine σ-algebra in. Seien

Mehr

Lösungen zu Übungsblatt 9

Lösungen zu Übungsblatt 9 Analysis : Camillo de Lellis HS 007 Lösungen zu Übungsblatt 9 Lösung zu Aufgabe 1. Wir müssen einfach das Integral 16 (x + y d(x, y x +y 4 ausrechnen. Dies kann man einfach mittels Polarkoordinaten, da

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

22 KAPITEL 1. GRUNDLAGEN. Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion

22 KAPITEL 1. GRUNDLAGEN. Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion KAPITEL 1. GRUNDLAGEN Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion 1 für 0 x < 1 g 0 (x) = 1 1 für < x 1. Natürlich gibt dies von

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

8 KAPITEL 1. GRUNDLAGEN

8 KAPITEL 1. GRUNDLAGEN 8 KAPITEL 1. GRUNDLAGEN Beweis. 1. Sei A X abgeschlossen, dann ist X \ A offen und jede offene Überdeckung von A lässt sich durch Hinzunahme von X \ A auf ganz X fortsetzen. Die Kompaktheit von X erlaubt

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

1 Konvergenz im p ten Mittel

1 Konvergenz im p ten Mittel Konvergenz im p ten Mittel 1 1 Konvergenz im p ten Mittel In diesem Paragraphen werden zunächst in Abschnitt 1.1 die L p Räume eingeführt. Diese erweisen sich als vollständige, lineare Räume über R. In

Mehr

Definition 3.1. Sei A X. Unter einer offenen Überdeckung von A versteht man eine Familie (U i ) i I offener Mengen U i X mit U i

Definition 3.1. Sei A X. Unter einer offenen Überdeckung von A versteht man eine Familie (U i ) i I offener Mengen U i X mit U i 3 Kompaktheit In der Analysis I zeigt man, dass stetige Funktionen f : [a, b] R auf abgeschlossenen, beschränkten Intervallen [a, b] gleichmäßig stetig und beschränkt sind und dass sie ihr Supremum und

Mehr

Anwendungen der Logik, SS 2008, Martin Goldstern

Anwendungen der Logik, SS 2008, Martin Goldstern Anwendungen der Logik, SS 2008, Martin Goldstern Total geordnete Körper Ein total geordneter Körper ist ein Körper (K, +,, 0, 1, ) mit einer totalen (=linearen) Ordnung, die mit den Operationen verträglich

Mehr

Musterlösung Analysis 3 - Maßtherorie

Musterlösung Analysis 3 - Maßtherorie Musterlösung Analysis 3 - Maßtherorie 10. März 2011 Aufgabe 1: Zum Aufwärmen (i) Zeige, dass die Mengensysteme {, X} und P(X) σ-algebren sind. Es sind jeweils nur die Charakteristika nachzuweisen. (1)

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Analysis III, WS 2011/2012 Montag $Id: masse.tex,v /10/31 15:48:07 hk Exp $

Analysis III, WS 2011/2012 Montag $Id: masse.tex,v /10/31 15:48:07 hk Exp $ $Id: masse.tex,v 1.8 2011/10/31 15:48:07 hk Exp $ 2 Maßräume 2.2 Meßbare Abbildungen Der nächste Grundbegriff sind die meßbaren Abbildungen. Erinnern Sie sich daran das wir eigentlich einen Integralbegriff

Mehr

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm Brownsche Bewegung Satz von Donsker Bernd Barth Universität Ulm 31.05.2010 Page 2 Brownsche Bewegung 31.05.2010 Inhalt Einführung Straffheit Konvergenz Konstruktion einer zufälligen Funktion Brownsche

Mehr

Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung Eigenschaften von stochastischen Ordnungen Kleine Generatoren

Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung Eigenschaften von stochastischen Ordnungen Kleine Generatoren Universität Hamburg Fachbereich Mathematik Schwerpunkt Mathematische Statistik und Stochastische Prozesse Bundesstr. 55 D-20146 Hamburg Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung

Mehr

Elemente der mengentheoretischen Topologie

Elemente der mengentheoretischen Topologie Elemente der mengentheoretischen Topologie Es hat sich herausgestellt, dass das Konzept des topologischen Raumes die geeignete Struktur darstellt für die in der Analysis fundamentalen Begriffe wie konvergente

Mehr

Hausdorff-Maß und Hausdorff-Dimension. Jens Krüger

Hausdorff-Maß und Hausdorff-Dimension. Jens Krüger Hausdorff-Maß und Hausdorff-Dimension Jens Krüger Inhaltsverzeichnis 1 Einleitung 2 2 Grundlagen aus der Maßtheorie 3 3 Die Konstruktion des Hausdorff-Maßes 4 4 Eigenschaften des Hausdorff-Maßes und Hausdorff-Dimension

Mehr

Gaußsche Felder und Simulation

Gaußsche Felder und Simulation 3 2 data_2d_1.dat data_2d_2.dat data_2d_64.dat data_2d_128.dat 1-1 -2-3 1 2 3 4 5 6 7 Gaußsche Felder und Simulation Benedikt Jahn, Aaron Spettl 4. November 28 Institut für Stochastik, Seminar Zufällige

Mehr

8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN

8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN 8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN (vi) Konvergenz von Folgen ist in topologischen Räumen folgendermaßen definiert: Ist (a n ) M eine Folge, so heißt sie konvergent gegen a M, wenn es

Mehr

4 Fehlerabschätzungen und Konvergenz der FEM

4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Cauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit

Cauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit Vortrag zum Seminar zur Analysis, 10.05.2010 Michael Engeländer, Jonathan Fell Dieser Vortrag stellt als erstes einige Sätze zu Cauchy-Folgen auf allgemeinen metrischen Räumen vor. Speziell wird auch das

Mehr

Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme

Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme Optimale Steuerung, Prof.Dr. L. Blank 1 II Linear-quadratische elliptische Steuerungsprobleme Zuerst: Zusammenstellung einiger Begriffe und Aussagen aus der Funktionalanalysis (FA), um dann etwas über

Mehr

Thema 3 Folgen, Grenzwerte

Thema 3 Folgen, Grenzwerte Thema 3 Folgen, Grenzwerte Definition Eine Folge von reellen Zahlen ist eine Abbildung von N in R d.h. jedem n N ist eine Zahl a n zugeordnet. Wir schreiben für eine solche Folge. Beispiele. (a n ) n N

Mehr

1 Bedingte Erwartungswerte

1 Bedingte Erwartungswerte Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,

Mehr

30 Die Gammafunktion und die Stirlingsche Formel

30 Die Gammafunktion und die Stirlingsche Formel 3 Die Gammafunktion und die Stirlingsche Formel 35 Charakterisierung der Gammafunktion 36 Darstellung der Gammafunktion 38 Beziehung zwischen der Gammafunktion und der Zetafunktion 3 Stirlingsche Formel

Mehr

(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist.

(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist. 8 Punktmengen Für die Menge M = { 1 n ; n N } ist 1 = max(m), denn 1 M und 1 n 1 für alle n N. Die Menge M besitzt aber kein Minimum, denn zu jeder Zahl x = 1 n M existiert ein y M mit y < x, etwa y =

Mehr

Serie 2 Lösungsvorschläge

Serie 2 Lösungsvorschläge D-Math Mass und Integral FS 214 Prof. Dr. D. A. Salamon Serie 2 Lösungsvorschläge 1. Seien folgende Mengen gegeben: und für a, b R R := [, ] := R {, }, (a, ] := (a, ) { }, [, b) := (, b) { }. Wir nennen

Mehr

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013 Reelle Analysis Vorlesungsskript Enno Lenzmann, Universität Basel 11. Oktober 2013 3 Fortsetzung von Prämassen zu Massen Der Begriff des Prämasses ist nicht ausreichend, um eine geschmeidige Integrationstheorie

Mehr

Konvergenz im quadratischen Mittel - Hilberträume

Konvergenz im quadratischen Mittel - Hilberträume CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften

Mehr

2.6 Der Satz von Fubini

2.6 Der Satz von Fubini 1 2.6 Der Satz von Fubini Unser Ziel ist der Beweis des folgenden Ergebnisses. 6.1. Satz von Fubini Sei f : R n+m R integrierbar. Dann gibt es eine Nullmenge N R m, so dass gilt: 1. Für alle y R m \ N

Mehr

Folgen und Reihen. Thomas Blasi

Folgen und Reihen. Thomas Blasi Folgen und Reihen Thomas Blasi 02.03.2009 Inhaltsverzeichnis Folgen und Grenzwerte 2. Definitionen und Bemerkungen............................. 2.2 Konvergenz und Beschränktheit.............................

Mehr

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion

Mehr

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie

Mehr

Die Topologie von R, C und R n

Die Topologie von R, C und R n Die Topologie von R, C und R n Für R haben wir bereits eine Reihe von Strukturen kennengelernt: eine algebraische Struktur (Körper), eine Ordnungsstruktur und eine metrische Struktur (Absolutbetrag, Abstand).

Mehr

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik II Wahrscheinlichkeitstheorie I Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 26. November 2002

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

A. Maß- und Integrationstheorie

A. Maß- und Integrationstheorie A. Maß- und Integrationstheorie Im folgenden sind einige Ergebnisse aus der Maß- und Integrationstheorie zusammengestellt, die wir im Laufe der Vorlesung brauchen werden. Für die Beweise der Sätze sei

Mehr

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 : 24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar

Mehr

Stochastik Praktikum Simulation stochastischer Prozesse

Stochastik Praktikum Simulation stochastischer Prozesse Stochastik Praktikum Simulation stochastischer Humboldt-Universität zu Berlin 15.10.2010 Übersicht 1 Brownsche Bewegung und Diffusionsprozesse 2 Brownsche Brücke 3 Ornstein Uhlenbeck 4 Zusammengesetzte

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis Vorlesung SS 22 Jürgen Dippon Mathematisches Institut A Universität Stuttgart Homepage der Vorlesung: www.mathematik.uni-stuttgart.de/matha/lst3/dippon/sa Version vom 17. Juni 23

Mehr

eine reelle oder komplexe Folge ist, kann man daraus eine neue Folge {s n } n=0 konstruieren durch s n = a 0 + a a n, a k.

eine reelle oder komplexe Folge ist, kann man daraus eine neue Folge {s n } n=0 konstruieren durch s n = a 0 + a a n, a k. Analysis, Woche 7 Reihen I 7. Folgen aus Folgen Wenn a n eine reelle oder komplexe Folge ist, kann man daraus eine neue Folge s n konstruieren durch s n = a 0 + a + + a n, oder netter geschrieben s n =

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Konvergenz, Filter und der Satz von Tychonoff

Konvergenz, Filter und der Satz von Tychonoff Abschnitt 4 Konvergenz, Filter und der Satz von Tychonoff In metrischen Räumen kann man topologische Begriffe wie Stetigkeit, Abschluss, Kompaktheit auch mit Hilfe von Konvergenz von Folgen charakterisieren.

Mehr

Stochastische Prozesse Gliederung zur Vorlesung im Sommersemester 2006

Stochastische Prozesse Gliederung zur Vorlesung im Sommersemester 2006 Stochastische Prozesse Gliederung zur Vorlesung im Sommersemester 26 Markus Reiß Universität Heidelberg reiss@statlab.uni-heidelberg.de VORLÄUFIGE FASSUNG: 28. Juli 26 Inhaltsverzeichnis 1 Der Poissonprozess

Mehr

DIFFERENTIATION PARAMETERABHÄNGIGER INTEGRALE

DIFFERENTIATION PARAMETERABHÄNGIGER INTEGRALE DIFFERENTIATION PARAMETERABHÄNGIGER INTEGRALE Zusammenfassung. Ergänzend zur Übung vom 06.06.203 soll hier die Leibnizregel für die Differentiation parameterabhängiger Integrale formuliert und bewiesen

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Martingal-Maße. Stochastic Finance: An Introduction in Discrete Time (Hans Föllmer, Alexander Schied) Manuel Müller Mathematisches Institut

Martingal-Maße. Stochastic Finance: An Introduction in Discrete Time (Hans Föllmer, Alexander Schied) Manuel Müller Mathematisches Institut Martingal-Maße Manuel Müller 29.04.2016 Mathematisches Institut Stochastic Finance: An Introduction in Discrete Time (Hans Föllmer, Alexander Schied) Seite 2 Martingal-Maße 29.04.2016 Inhaltsverzeichnis

Mehr

Das Lebesgue-Maß im R p

Das Lebesgue-Maß im R p Das Lebesgue-Maß im R p Wir werden nun im R p ein metrisches äußeres Maß definieren, welches schließlich zum Lebesgue-Maß führen wird. Als erstes definieren wir das Volumen von Intervallen des R p. Seien

Mehr

Universität Ulm Abgabe: Mittwoch,

Universität Ulm Abgabe: Mittwoch, Universität Ulm Abgabe: Mittwoch, 8.5.23 Prof. Dr. W. Arendt Jochen Glück Sommersemester 23 Punktzahl: 36+4* Lösungen Halbgruppen und Evolutionsgleichungen: Blatt 2. Sei X ein Banachraum und (T (t)) t

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

Aktuelle Themen aus der Stochastik Wintersemester 2017/2018 Abschnitt 3: Metrische und polnische Räume

Aktuelle Themen aus der Stochastik Wintersemester 2017/2018 Abschnitt 3: Metrische und polnische Räume Aktuelle Themen aus der Stochastik Wintersemester 2017/2018 Abschnitt 3: Metrische und polnische Räume Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober/November 2017

Mehr

heißt Exponentialreihe. Die durch = exp(1) = e (Eulersche Zahl). n! + R m+1(x) R m+1 (x) = n! m m + 2

heißt Exponentialreihe. Die durch = exp(1) = e (Eulersche Zahl). n! + R m+1(x) R m+1 (x) = n! m m + 2 9 DIE EXPONENTIALREIHE 48 absolut konvergent. Beweis. Wegen x n+ n! n + )!x n = x n + < 2 für n 2 x folgt dies aus dem Quotientenkriterium 8.9). Definition. Die Reihe x n heißt Exponentialreihe. Die durch

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr