Bronwsche Bewegungen. Martin Brehm. 12. Juni 2007

Ähnliche Dokumente
Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Asymptotische Stochastik (SS 2010)

7. Die Brownsche Bewegung

Stochastik-Praktikum

3 Markov-Eigenschaft der Brownschen Bewegung

Erfolgsgeschichte eines stochastischen Prozesses: Die Brown sche Bewegung

13 Grenzwertsätze Das Gesetz der großen Zahlen

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 6 Martingale

Stochastische Prozesse

Weitere Interessante Funktionen

5. Spezielle stetige Verteilungen

Klausur zur Vorlesung Stochastik II

2 Stationarität. Strikte Stationarität

2 Zufallsvariable, Verteilungen, Erwartungswert

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Varianz und Kovarianz

Angewandte Stochastik

Reelle Zufallsvariablen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Brownsche Bewegung Seminar - Weiche Materie

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Wichtige Definitionen und Aussagen

Topologie metrischer Räume

Unterricht 13: Wiederholung.

Cauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit

Einiges über die Brown sche Bewegung

Charakteristische Funktionen

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

7.5 Erwartungswert, Varianz

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Diffusionsprozesse und lineare stochastische DGL

Wichtige Klassen reeller Funktionen

Einige parametrische Familien für stochastische Prozesse

Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Mathematische Ökonometrie

Weihnachtsaufgaben. a) Welche Urnenmodelle gibt es? Stelle zu jedem Modell ein konkretes Beispiel auf, welches durch dieses Modell beschrieben wird.

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

70 Wichtige kontinuierliche Verteilungen

Definition 3.1. Sei A X. Unter einer offenen Überdeckung von A versteht man eine Familie (U i ) i I offener Mengen U i X mit U i

4. Verteilungen von Funktionen von Zufallsvariablen

12 Erwartungswerte. Erwartungswerte 111. Überblick

Die Varianz (Streuung) Definition

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Einführung und Grundlagen

Technische Universität München. Aufgaben Mittwoch SS 2012

3. Folgen und Reihen. 3.1 Folgen und Grenzwerte. Denition 3.1 (Folge) Kapitelgliederung

Stochastik. 1. Wahrscheinlichkeitsräume

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1.3 Wiederholung der Konvergenzkonzepte

Wahrscheinlichkeitsrechnung und Statistik

2.6 Der Satz von Fubini

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

Scheinklausur zur Vorlesung Stochastik II

Zufallsvariablen [random variable]

Stochastik I. Vorlesungsmitschrift

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

Die Topologie von R, C und R n

Die n-dimensionale Normalverteilung

Erwartungswert und Varianz von Zufallsvariablen

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

TU DORTMUND Sommersemester 2018

Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik

Finanzmathematische Modelle und Simulation

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

Einführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie

7 Der Satz von Girsanov

Seminar Gewöhnliche Differentialgleichungen

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung

7.2 Moment und Varianz

1.3 Zufallsvariablen

22 KAPITEL 1. GRUNDLAGEN. Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion

5 Binomial- und Poissonverteilung

Kapitel VII - Funktion und Transformation von Zufallsvariablen

1 Stochastische Konvergenz 2

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

OLS-Schätzung: asymptotische Eigenschaften

5 Erwartungswerte, Varianzen und Kovarianzen

Grundbegriffe der Stochastik II

Biostatistik, Winter 2011/12

D-MATH Funktionalanalysis II FS 2014 Prof. M. Struwe. Lösung 2

Konvergenz im quadratischen Mittel und Parsevalsche Gleichung

12. Trennungssätze für konvexe Mengen 83

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Das Black-Scholes Modell

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Lösungen Klausur. k k (n + 1) n. für alle n N. Lösung: IA: Für n = 1 ist 1. k k + (n + 1) n+1. k k = k=1. k=1 kk = 1 1 = 1 2 = 2 1.

1.4 Stichproben aus einer Normalverteilung

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI

LS Informatik 4 & Funktionen. Buchholz / Rudolph: MafI 2 88

Transkript:

Bronwsche Bewegungen Martin Brehm 12. Juni 2007

Gliederung: 1. Geschichtliches 2. Denition 3. Eigenschaften der Brownschen Bewegung 3.1. Eigenschaften der Pfade 3.2. Überall nicht dierenzierbar 3.3. Allgemein 3.4. Variation 4. Beispiele mit Brownschen Bewegungen 4.1. Brownsche Brücke 4.2. Brownsche Bewegung mit Drift 4.3. geometrische Brownsche Bewegung 4.4. Weiÿes Rauschen 5. Quellenverzeichnis 2

Zu Beginn eine kleine Erinnerung an den Zentralen Grenzwertsatz: Sei X n, n N eine Folge unabhängiger identisch verteilter Zufallsvariablen. Wobei Erwartungswert µ und Standardabweichung σ existieren und endlich sind. Dann gilt ({ 1 P n n i=1 X i µ σ t )} n N Φ(t) := 1 2π t exp ( x2 2 ) dx 1 Geschichtliches Namensgeber ist der schottische Botaniker Robert Brown (* 21.12.1773, 10.06.1858). Er stellte 1827 bei Untersuchungen von Pollenkörnern fest, dass diese sich in einer Flüssigkeit in einem unregelmäÿigen Zick-Zack bewegen. (Er vermutete daraufhin sogar, dass eine bisher unbekannte Form von Lebewesen dafür verantwortlich wäre). Allerdings wurde von ihm keine weitere Forschung auf diesem Gebiet betrieben. Stattdessen machte er wichtige Entdeckungen in der Botanik, u.a. benannte er den Nucleulus. Erst Albert Einstein (* 14.03.1879, 18.04.1955) und Marian von Smoluchowski (* 28.05.1872, 05.09.1917) befassten sich ungefähr zeitgleich mit diesem Thema dieser Brownschen Bewegungen und Einstein erkannte 1905, dass es sich hierbei um eine Folge der unregelmäÿigen Stöÿen der sich ständig bewegenden Moleküle handelt. (d.h. die sichtbaren Partikel werden ununterbrochen von viel kleineren und daher unsichtbaren Teilchen der Umgebung herumgeschubst. Da diese Stöÿe zufällig geschehen und in unterschiedlicher Intensität kommt es zu diesen Zick-Zack-Bewegungen. Aufsatz: Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen) anmerkung: Die Ursache dieser Bewegungen ist also eine Abfolge von zahlreichen, unabhängigen, zufälligen Ereignissen. Wenn wir jetzt an den 3

Zentralen Grenzwertsatz denken, ist der Weg nicht mehr weit zur Normalverteilung (siehe weiter). Als erstes kam die Mathematikerin Louis Bachelier (* 11.03.1870, 26.04.1946) auf die Idee, dass diese Bewegungen ebenfalls auf die Untersuchung von Aktienkursen zu übertragen sind. Zur endgültigen Reife für die Stochastik brachte diese Betrachtungen dann Norbert Wiener (* 26.11.1894, 18.03.1964). 2 Denition von Brownschen Bewegungen Denition: Ein stochastischer Prozess B = {B t, t [0, )} heiÿt (standard) Brownsche Bewegung oder Wiener Prozess, falls die folgenden Bedingungen erfüllt sind: Er startet bei Null: B 0 = 0 Er hat stationäre und stochastisch unabhängige Zuwächse, B t B s, 0 s < t R + stochastisch unabhängig Für alle t > 0, ist B t normalverteilt mit N (0, t) Die einzelnen Pfade (als Pfad gilt die gesamte Abbildung t B t ) sind stetig (keine Sprünge) Bei der Brownschen Bewegung B = (B t1,, B tn ) handelt es sich um einen Spezialfall eines Gauÿ-Prozesses, da diese durch eine n-dimensionale Normalverteilung beschrieben wird. Wir können so einen Gauÿ-Prozess genauer durch die Erwartungsfunktion µ B (t) und die Covarianzfunktion c B (t, s) beschreiben. Durch die Deniton der einzelnen B t als N (0, t)-verteilt folgt µ B (t) = 0, t > 0. 4

Abbildung 1: Standard Brownsche Bewegung Wenn wir das Wissen verwenden, dass für die Varianz V ar(b t ) = t gilt und die Zuwächse unabhängig sind, folgt: c B (t, s) = Cov(B t, B s ) = E(B t B s ) E(B t ) E(B s ) = E(B t B s ) = = E[[(B t B s ) + B }{{} s ]B s ] = E[(B t B s )B s ] }{{} + E(Bs) 2 = +0 E ist linear ( ) = E(B t B s )E(B s ) + s = 0 + s = s, 0 s < t. mit ( ) s = V ar(b s ) = E(B 2 s) E(B s ) 2 = E(B 2 s) 0 Da die Zuwächse sationär sind, folgt das die Zufallsvariablen B t B s und B t s B 0 = B t s die gleiche Verteilung haben nämlich N (0, t s). Anschaulich: Je gröÿer die Dierenz zwischen t und s, desto gröÿer die Varianz. Dies verdeutlicht auch folgende Graphik. 5

Abbildung 2: Mit dem Intervall wächst die Varianz Allerdings darf man aus der oben gewonnenen Erkenntnis nicht folgernb t B s = B t s. So geschrieben würde das bedeuten, dass für jeden zufälligen Pfad die Werte gleich sind. Wir schreiben also: B t B s d = Bt s Und es gilt dadurch im Allgemeinen nicht: B t (ω) B s (ω) = B t s (ω) 3 Eigenschaften einer Brownschen Bewegung 3.1 Eigenschaften der Pfade Stetigkeit. Eine ganz wichtige Eigenschaft ist die Stetigkeit, die ja schon durch die Denition festgehalten ist. 6

Hölder-Stetigkeit. Die Pfade sind sogar Hölder-stetig zum Exponenten α (Verallgemeinerung der Lipschitz-Stetigkeit) für jedes α < 1/2. Mit anderen Worten, für alle T > 0, 0 < α < 1/2 und fast alle ω existiert eine Konstante C, so dass für alle t, s < T B t (ω) B s (ω) C t s α. Der Beweis dieser Aussage ist nicht ganz einfach. Ich verweise auf [9] Seite 25. Wenn man dabei den Stetigkeitssatz von Kolmogorow-Chentsow verwendet, kann man auf die von der Denition gegebene Stetigkeit verzichten und somit wäre diese an sich überüssig. 3.2 Überall nicht dierenzierbar Zu diesem Thema zuerst folgende Bilder: Was fällt uns nun an diesen Bildern auf? Die Graphen sind alle äuÿerst gleichartig. Ziemlich zackig. Doch müsste man nicht meinen, wenn man ganz nahe an einen Graphen heranzoomt wird er schlieÿlich glatt. Wenn wir uns zum Vergleich den Graphen der Sinus-Funktion vorstellen, so erkennt man von Weiten betrachtet ein unheimlich rasches Auf und Ab. Doch aus der Nähe ist es eine einzige glatte Linie. Hier ist das allerdings nicht der Fall. Die Fortgeschrittenen erinnert dieser Sachverhalt vielleicht an die Fraktale Geometrie. Der entscheidende Begri hierbei lautet: Selbstähnlichkeit. Wir wollen diesen Begri nun auf die stochastischen Prozesse übertragen und führen folgende Denition ein: Denition: Ein stochastischer Prozess {X t, t [0, )} heiÿt H- selbstähnlich für ein H > 0, falls Folgendes erfüllt ist: ( K H X t1,, K H X tn ) d= (XKt1,, X Ktn ) für jedes K > 0 und jeder Wahl von t i 0, i = 1,, n und n 1. 7

Abbildung 3: DAX-Verlauf über verschiedene Zeitperioden Was sagt uns das nun? Das ist nun eben genau die mathematische Beschreibung für die Selbstähnlichkeit der Brownschen Bewegungen. Die einzelnen Pfade haben über kurze oder lange Periode immer ein ähnliches( d =) Aussehen. Wir wollen zeigen, dass die Brownsche Bewegung 0,5-selbstähnlich ist. Lemma: ( K 1 2 Bt1,, K 1 2 Btn ) d= (BKt1,, B Ktn ) Beweis: Wir führen folgende Bezeichnungen zur schnelleren Unterscheidung ein: X t = (K 12B t1,, K 12B ) tn und Y t = (B Kt1,, B Ktn ). Es handelt sich hier auf beiden Seiten um einen Gauÿ-Prozess. Dieser ist eindeutig festgelegt durch µ X (t) und c X (t i, t j ). Die Funktion für den Erwartungswert gilt µ X (t) = µ Y (t) = 0. 8

Für die Covarianzfunktion gilt (vergleiche Kapitel 2): c X (t i, t j ) = Cov(K 1 2B ti, K 1 2B tj ) = E(K 1 2B ti K 1 2B tj ) = K E(B ti B tj ) = K t j, t j < t i. Genau wie in Kapitel zwei berechnet folgt für Y : c Y (t i, t j ) = Cov(B Kti, B Ktj ) = K t j, t j < t i.. Die Selbstähnlichkeit der Brownschen Bewegung bringt einen groÿen Vorteil mit sich. Wenn wir den Pfad auf [0, K] betrachten wollen, genügt es schon [0, 1] zu untersuchen und dann dieses Zeitintervall durch den Faktor K zu strecken. [0, 1]: (B t1,, B tn ) [0, K]: (B Kt1,, B Ktn ) = (K d 12B t1,, K 12B ) tn Mit Hilfe der Selbstähnlichkeit kann man zeigen, dass die Brownsche Bewegung zwar überall stetig, aber nirgends dierenzierbar ist. Dass solche Funktionen überhaupt existieren, ist ja nicht mal ein triviales Problem. Es wurde im 19. Jahrhundert von Karl Weierstraÿ (* 31.10.1815, 19.02.1897) zufriedenstellend behandelt. Er fand folgende Funktion, die stetig aber nicht dierenzierbar ist. f(x) = b n cos (a n πx) n=0 Man hielt dies für eine mathematische Spielerei und maÿ dem keinen praktischen Nutzen zu. Allerdings sehen wir anhand der Brownschen Bewegungen, dass solche Funktionen eine Vielzahl von Anwendungen in verschiedensten Gebieten nden. 9

Für den Beweis der Nicht-Dierenzierbarkeit verweise ich auf (siehe [8] Seite 188). Das Problem wird bereits schnell ersichtlich, wenn man erkennt, dass für folgenden Dierenzenquotientenkein Grenzwert existiert. ( ) Bt0 + t B lim t 0 V ar t0 t lim V ar t 0 ( Bt0 + t B t0 t ) = lim t 0 V ar ( B t ) t 1 = lim t 0 t V ar (B 2 t ) 1 = lim t 0 t t = 2 3.3 Allgemein Gebietliche Homogenität. Für jedes x R ist der Prozess x + B t wieder eine Brownsche Bewegung mit Startpunkt bei x. Symmetrie. B t ist eine Brownsche Bewegung. Skalierung. Aus dieser Eigenschaft des Gauÿ-Prozesses kann man auch die sogenannte Skalierungseigenschaft der Brownschen Bewegung folgern. Ist B eine Brownsche Bewegung und K 0 dann ist auch (KB K2 t) t 0 eine Brownsche Bewegung. (ohne Beweis) Starkes Gesetz der groÿen Zahlen. Noch mal ganz kurz zur Erinnerung: 1 n (X i E(X i )) n N 0 P f.s. n Es folgt: i=1 10

lim t B t t = 0 f.s. Martingaleigenschaft. Der Erwartungswert einer Beobachtung ist gleich dem Wert der vorhergehenden Beobachtung. Wir betrachten die Brownsche Bewegung als Summe von unabhängigen Zufallsvariablen (den Zuwächsen) und hierüber wird die Martingaleigenschaft sehr anschaulich klar. Seien Y 1,, Y n unabhängige Zufallsvariablen mit E(Y t ) = 0 für jedes t = 1,, n. Setze F t := σ(y 1,, Y n ) und X t := auch für r > s E(Y r F s ) = 0. Also ist für t > s E(X t F s ) = E(X s F s ) + E(X t X s F s ) = X s + t E(Y r F s ) r=s+1 = X s Ausführlicher Beweis der Martingaleigenschaft für Brownsche Bewegung vergleiche [3] Seite 60 oder auch [8] ab Seite 77. t s=1 Y s. Es gilt Markoveigenschaft Die Qualität der Prognosen über die zukünftige Entwicklung ändert sich nicht, wenn man statt der gesamten Vorgeschichte nur einen begrenzten Teil davon kennt. P (B t = x F s ) = P (B t = x B s ) wobei s, t I mit s t und x R. Die Brownsche Bewegung ist besitzt diese Markoveigenschaft (Beweis vergleiche [6] Seite 441). Oft wird die Brownsche Bewegung auch über Markov-Prozesse - als eine spezielle (stetige) Form davon - deniert. 3.4 Variation In der Integrationstheorie (besonders in der Riemann-Stieltjesschen-Theorie) und in vielen anderen Gebieten der 11

Analysis spielen Funktionen von beschränkter Variation eine entscheidende Rolle. Denition: Wir denieren V (B(ω)) = sup τ n Bti (ω) B ti 1 (ω) i=1 als die totale Variation von B. Wobei hier das Supremum über alle möglichen Zerlegungen τ gebildet wird, mit τ n : 0 = t 0 < < t n = K in [0, K]. Oensichtlich eng mit dieser Variation hängt folgender Begri zusammen. Doch existiert hier ein entscheindender Unterschied, den wir gleich sehen werden. Denition: Die quadratischen Variation einer Funktion B über das Intervall [0, K] ist deniert als Q n = n 1 lim τ n 0 k=0 für τ n : 0 = t 0 < < t n = K in [0, K]. (B ti Bt i 1 ) 2 Wir brauchen den Begri der quadratischen Variation unbedingt für die Integration von Brownschen Bewegungen. Es gilt nämlich für Q n über dem Intervall [a, b] n 1 lim n k=0 (B ti Bt i 1 ) 2 = b a Also ein endlicher Wert für endliches a, b. Bei der herkömmlichen Variation tauchen im Gegensatz dazu Probleme auf. 12

Satz: Für fast alle Pfade einer Brownschen Bewegung gilt: n V (B(ω)) = sup Bti (ω) B ti 1 (ω) = f.s. τ i=1 wobei hier das Supremum über alle möglichen Zerlegungen τ gebildet wird, mit τ n : 0 = t 0 < < t n = K in [0, K]. Beweis: Der Einfachheit halber wählen wir K = 1. Wir nehmen an V (B(ω)) < für ein gegebenes ω. Sei (τ n ) eine Folge von Zerlegungen τ n : 0 = t 0 < < t n = 1, so dass gilt τ n 0. Man erinnere sich an: i B = B ti B ti 1. Es gilt weiterhin folgende Ungleichungskette: Q n (ω) = n i=1 ( i B(ω)) 2 max ib(ω) n ( i B(ω)) i=1,,n i=1 max ib(ω) V (B(ω)) i=1,,n Wir wisen aus 3.1. dass die Pfade der Brownschen Bewegung stetig sind. Somit können wir annehmen, dass B t (ω) eine stetige Funktion von t ist. Auf dem kompakten Intervall [0, 1] ist diese Funktion somit sogar gleichmäÿig stetig. In Kombination mit τ n 0 folgt max i=1,,n ib(ω) 0. Somit wäre die rechte Seite obiger Ungleichung konvergent gegen 0. Und somit würde auch gelten: Q n (ω) 0 Allerdings gilt für ein Q n über einem Intervall [0, 1] wie oben erwähnt, P Q n 1. Aus dieser Konvergenz in Wahrscheinlichkeit folgt die Konvergenz fast-sicher für eine geeignente Teilfolge. Also zusammen Q nk (ω) f.s. 1 für passendes (n k ). Somit muss gelten P ({ω : V (B(ω)) = }) = 1 13

Einen alternativen Beweis, der nicht mit einem Widerspruch und ohne die quadratische Variation funktioniert, vergleiche [6] Seite 467. Anmerkung: Diese Unbeschränktheit der Variation und die Nicht-Dierenzierbarkeit sind die Hauptgründe dafür, dass bei Brownschen Bewegungen die klassischen Integrationsmethoden versagen und die stochastische Integration eingeführt wird. 4 Beispiele mit Brownschen Bewegungen 4.1 Brownsche Brücke Eine Brownsche Brücke ist auf einen endlichen Zeithorizont beschränkt und es sind zwei Werte zu bestimmten Zeitpunkten bekannt. Wir können uns eine Brownsche Brücke zum Beispiel so vorstellen: X t = B t tb 1, 0 t 1. Hier gilt oensichtlich: Abbildung 4: Einige Brownsche Brücken 14

X 0 = B 0 0B 1 = 0 und X 1 = B 1 1B 1 = 0. Dieser Sachverhalt ist meist typisch für eine Brownsche Brücke, dass Startwert und Endwert übereinstimmen, woher sich auch die Bezeichnung ableitet. Bei der Brownschen Brücke handelt es sich wieder um einen Gauÿ-Prozess, der durch Folgendes noch genauer beschrieben wird: µ X (t) = 0 und c X (s, t) = min (s, t) st, s, t [0, 1]. Wir rechnen die Covarianzfunktion folgendermaÿen nach: c X (s, t) = Cov (X s, X t ) = Cov (B s sb 1, B t tb 1 ) = = Cov(B s, B t ) Cov(B s, tb 1 ) [Cov(sB 1, B t ) Cov(sB 1, tb 1 )] = = Cov (B s, B t ) scov (B 1, B t ) tcov (B s, B 1 ) + stcov (B 1, B 1 ) ( ) = min(s, t) s min(1, t) t min(s, 1) + st V ar(b 1 ) = = min (s, t) st st + st = min (s, t) st ( ) : Cov(B t, B s ) = min(t, s) weiter : s, t [0, 1] min(s, 1) = s Brownsche Brücken bilden eine wichtige Basis für die Theorie der Anpassungsgüte (siehe Begrie). 4.2 Brownsche Bewegung mit Drift Betrachten wir doch einmal folgenden Prozess: X t = µt + σb t, t 0, 15

Abbildung 5: Brownsche Bewegung mit Drift für die Konstanten σ > 0 und µ R. Es handelt sich hierbei wieder um einen Gauÿ-Prozess, da jede lineare Transformation eines normalverteilten Vektors wieder normal verteilt ist. Und letztendlich ausreichend beschrieben wird die Verteilung wieder durch Folgendes: µ X (t) = µt und c X (t, s) = σ 2 min (t, s), s, t 0 Dieser Erwartungswert µ X (t) = µt ist die Hauptursache für die charakteristische Form der einzelnen Wege. Nachrechnen des Erwartungs- und der Covarianzfunktion: µ X (t) = E(X t ) = E(µt + σb t ) = = E(µt) + E(σB t ) = E(µt) = µt 16

c X (t, s) = Cov(X t, X s ) = Cov(µt + σb t, µs + σb s ) = = E [(µt + σb t ) (µs + σb s )] E(X t )E(X s ) = = }{{} E [(µ 2 ts + σµtb s + σµsb }{{} t +σ 2 B }{{} t B s )] µt µs = linear =0 =0 = E(µ 2 ts) + E(σ 2 B t B s ) µ 2 ts = E(σ 2 B t B s ) = = σ 2 E(B t B s ) ( ) = σ 2 min(s, t) ( ) : Vergleiche das Berechnen von Cov(B s, B t ) am Ende von Kapitel 2. 4.3 Geometrische Brownsche Bewegung Im Jahre 1900 entdeckte Louise Bachelier, dass die Preise für riskante Anlagen (Aktienkurse, Wechselkurse, Börsenkurse, etc.) gut durch Brownsche Bewegungen beschrieben werden können. Allerdings wenn wir die Brownsche Bewegung wie bisher als einen Gauÿ-Prozess ansehen, können dabei auch negative Werte herauskommen, was für die eine Eigenschaft des Preises nicht sonderlich wünschenswert ist. Im Jahre 1973 fanden dann Black, Scholes und Merton ein passenderes Model. Eine Geometrische Brownsche Bewegung dieser Form: X t = e µt+σb t, t 0, Hier handelt es sich nun nicht mehr um einen Gauÿ-Prozess. Nur im Exponenten steht, wie wir gerade gesehen haben, noch eine normalverteilte Funktion, die wir im Folgenden durch λz ersetzen, wenn wir jetzt den Erwartungswert dieser Zufallsvariable berechnen wollen: E ( e λz) = 1 (2π) 1/2 = e λ2 /2 1 (2π) 1/2 = e λ2 /2 e λz e z2 /2 dz e (z λ)2 /2 dz 17

Abbildung 6: Veränderung des Sigmas Beim letzten Schritt haben wir verwendet, dass (2π) 1/2 e (z λ)2 /2 die Dichte einer N (λ, 1) verteilten Zufallsvariable ist. Und wir wissen durch die Denition einer Dichte h(x), dass: h(x)dx = 1 Durch die Selbstähnlichkeit der Brownschen Abbildung folgt dann: µ X (t) = e µt E ( ) e t) σb = e µt E (e σt1/2 B 1 = e ( µ+0.5σ 2 )t Für s t, B t B s und B s sind unabhängig und B t B s d = Bt s. Somit lässt sich die Covarianzfunktion folgendermaÿen berechnen: 18

c X (t, s) = E (X t X s ) E (X t ) E (X s ) = e µ(t+s) E ( e σ(b t+b s ) ) e ( µ+0.5σ 2 )(t+s) = e µ(t+s) E ( e ) σ[(b t B s )+2B s ] e ( µ+0.5σ 2 )(t+s) = e µ(t+s) E ( e ) σ(b t B s ) E ( ) e 2σB s e (µ+0.5σ 2 )(t+s) = e ( ( ) µ+0.5σ 2 )(t+s) e σ2s 1 Daraus folgt für die Varianz einer geometrischen Brownschen Bewegung: σx 2 (t) = e ( ( ) 2µ+σ 2 )t e σ2s 1 4.4 Weiÿes Rauschen Das Weiÿe Rauschen führt uns jetzt zwar wieder vom Thema Aktienkurse weg, sieht man hieran noch einmal wie weiträumig der Begri der Brownschen Bewegung getragen wird. Dieses Rauschen und Abwandlungen davon ndet man wieder in der Akkustik, den Ingenieurwissenschaften, Chemie, Bildbearbeitung, etc. Man versuchtein solches Weiÿes Rauschen durch Folgenden Prozess zu beschreiben: X t = B t+h B t h, t 0, wobei h > 0 eine feste Konstante ist. Für diesen Prozess gilt: µ X (t) = 0 und c X (t, s) = h 2 [(s + h) min(s + h, t)], s t. Man beachte, dass c X (t, s) = 0 falls t s h, somit sind X t und X s unabhängig, aber falls t s < h, c X (t, s) = h 2 [h (t s)]. Auch hier gilt natürlich wieder, dass wir durch Grenzübergang von h gegen 0 keineswegs die Ableitung von X t erhalten. Da auch hier wie oben bereits gezeigt die Varianz σ 2 X (t) = h 1 wächst über alle Grenzen für ein kleines h. 19

5 Quellenverzeichnis Abbildung 7: Weiÿes Rauschen mit h = 2 1 Borodin, A.N. und Salminen, P.: Handbook of Brownian Motion. Birkhäuser, Basel 1996 2 Falk M.: Stochastik I. Skript 3 Heyer H.: Einführung in die Theorie Markoscher Prozesse. Bibliographisches Institut, Zürich 1979 4 Hida, T.: Brownian Motion. Springer, Berlin 1980 5 Karatzas und Shreve: Brownian Motion and Stochastic Calculus. Springer, New York 1988 6 Klenke, A.: Wahrscheinlichkeitstheorie. Springer Berlin, 2000 7 Lehmann, E.L.: Brownian Motion and Diusion. Holden-Day, San Francisco 1971 8 Mikosch T.: Elementary Stochastic Calculus. World Scientic Publishing, Singapur 1998 9 Revuz, D. und Yor, M.: Continuous Martingales and Brownian motion. Springer, Berlin 1991 20