Otto-von-Guericke-Universität Magdeburg. Studienarbeit. Simulation der Euler- und Milsteinapproximation
|
|
- Heiko Eberhardt
- vor 7 Jahren
- Abrufe
Transkript
1 Otto-von-Guericke-Universität Magdeburg Studienarbeit Simulation der Euler- und Milsteinapproximation Anja Schulze 8. Oktober 22
2 Inhaltsverzeichnis 1 Einleitung 1 2 Ein spezieller zeitstetiger Prozess: Der Wiener Prozess Stochastischer Prozess Der Wiener Prozess Simulation eines Wiener-Prozess Donskers Invarianzprinzip Programmierung des Python-Programms Programm eines Wiener-Prozesses in Python Das Ergebnis Im Vergleich dazu: Excel Stochastische Differentialgleichungen Einführung in die Grundlagen der Differentialgleichungen Numerische Lösung Euler-Approximation Milstein-Approximation Der direkte Vergleich Anwendung in der Finanzwissenschaft 23 6 Schluss 25 i
3 Abbildungsverzeichnis 3.1 Verschiedene Pfade eines Wiener-Prozesses Verschiedene Pfade des Wiener-Prozesses in Excel Der Vergleich der Euler- und Milstein-Entwürfe mit a(x ti ) =.1X ti und b(x ti ) = 2X ti wobei t [, 1] und X = ii
4 Kapitel 1 Einleitung Vor rund 1 Jahren ist Samuel Smiles zu der Erkenntnis gekommen:...hätten nicht die Mathematiker sich so lange und (...) scheinbar so unnütz mit den abstrakten Beziehungen von Linien zu Flächen abgemüht, so würden wahrscheinlich nur wenige unserer mechanischen Erfindungen das Licht der Welt erblickt haben. In der heutigen Zeit hat der Bereich der Finanzmathematik mehr an Bedeutung gewonnen, natürlich u.a. durch die vielgelobte Black/Scholes-Formel. Doch was steckt eigentlich dahinter? Die Antwort lautet: Das Gebiet der stochastischen Differentialgleichung. Diese Studienarbeit bezieht sich nur auf einen kleinen Teil dieses komplexen Bereiches. In der Wahrscheinlichkeitsrechnung treffen wir mittels stochastischer Modelle Vorhersagen über zukünftige Entwicklungen. Meine Aufgabe war es, stochastische Prozesse zu simulieren und speziell mögliche Kursverläufe mit Hilfe der Euler- und der Milstein-Approximation darzustellen. Diese Arbeit beginnt mit der grundlegenden Definition eines stochastischen Prozesses. Im darauffolgendem Abschnitt wird speziell der Wiener-Prozess und seine graphische Darstellung betrachtet. Im darauffolgendem Abschnitt werden die Euler- und Milstein-Approximationen eingeführt. Beendet wird diese Arbeit mit einem kurzen Einblick in die Finanzwelt, um die Anwendung der Approximation zu zeigen. 1
5 Kapitel 2 Ein spezieller zeitstetiger Prozess: Der Wiener Prozess Die Grundvoraussetzung für eine stochastische Differentialgleichung ist ein stochastischer Prozess mit stetigem Zeitparameter, das bedeutet, dass der Zeitparameter T entweder T = R + = [, ) oder das Intervall T = [, T ] ist, wobei T den endlichen Zeithorizont angibt. Einer der wichtigsten Prozesse dieser Art ist der Wiener Prozess, der auch unter dem Namen Standard Brownsche Bewegung bekannt ist. Die Brownsche Bewegung ist nach dem schottischen Botaniker Robert Brown (1773 bis 1858) benannt beobachtete er bei Untersuchungen von Pollenkörner unter dem Lichtmikroskop eine Zick-Zack-Bewegung. Weitere Experimente mit Staubkörner und kleinen Metallsplittern führten zu dem Ergebnis, dass die Teilchen sich umso heftiger bewegten, je kleiner und damit leichter sie waren. Das heißt, die Geschwindigkeit der Teilchen ist umso größer, je weniger Masse sie haben. Diese Erkenntnis war wichtig für die Physik, da sie die Idee des Atomismus stützte. Die Brownsche Bewegung wurde erstmal 195 von Albert Einstein (1879 bis 1955) in seinem Aufsatz Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen formuliert. Er beschreibt die Brownsche Bewegung als Folge unregelmäßiger Stöße, der sich ständig bewegenden Atome und Moleküle. Diese, erst unter dem Mikroskop sichtbaren, Teilchen, werden von den viel kleineren Molekülen der Flüssigkeit bzw. des Gases angestoßen, sozusagen herumgeschubst. Anzahl, Stärke und Richtung der stoßenden Moleküle ändert sich, so dass die beobachtete zufällige Zick-Zack-Bewegung ensteht. Ebenfalls 195 schlug Louis Bachelier (187 bis 1946) in seiner Dissertation die Brownsche Bewegung als Modell für Aktienkurse vor. Weder die Börsenmärkte noch die Mathematik waren dieser Idee gewachsen formulierten Norbert Wiener (1894 bis 1964) und Paul Pierre Levy (1886 bis 1971) die erste mathematische Definition. 2
6 2.1 Stochastischer Prozess Definition 1 Der stochastische Prozess X ist eine Familie von Zufallsgrößen X = {X t : t T } = {X t (ω) : t T, ω Ω} (2.1) über den gemeinsamen Wahrscheinlichkeitsraum (Ω, A, P ). Dabei ist T = [a, b] oder T = [a, b) oder T = [a, ) meist ein Zeitintervall. X ist ein Prozess mit stetigem Zeitparameter. Beispiel 1 Ein zufälliger Prozess X = {X t : t T } heißt Gaußscher Prozess, wenn alle endlich dimensionalen Verteilungen Gaußsch sind, d.h. mehrdimensionale Normalverteilungen. Ein n-dimensionaler Gaußvektor Y = (Y 1, Y 2,..., Y n ) T hat die Dichte: f Y ( x) = 1 exp{ 1 (2π) 1 2 (detσ) ( x µ)t Σ 1 ( x µ)} (2.2) mit x = (x 1, x 2,..., x n ) T µ = (µ 1, µ 2,..., µ n ) T Σ = {σ ij } i,j=1,2,...,n mit detσ. Dabei ist µ = EY = (EY 1, EY 2,..., EY n ) T der Mittelwertvektor und Σ die Kovarianzmatrix, mit σ ij = E(Y i µ i )(Y j µ j ) für i, j = 1, 2,..., n wobei für i = 1, 2,..., n. Somit gilt Y N(µ, Σ). σ ii = V ar(y i ) = D 2 Y i Satz 1 Der Gaußprozess X = {X t : t T } besteht aus unabhängigen, identisch N(, 1)- verteilten Zufallsgröße X t, also X t und X s sind unabhängig, wenn t s. Dann gilt: EX t = und Σ X (t, s) = { 1 für s = t für s t (2.3) 2.2 Der Wiener Prozess... oder die Standard Brownsche Bewegung Definition 2 Ein stochastischer Prozess (W t ) t [, ) (auch: (W (t)) t [, ) oder (W (t)) t ) auf einem Wahrscheinlichkeitsraum (Ω, A, P ) heißt Wiener-Prozess oder Standard Brownsche Bewegung, falls gilt: 1. W = (mit Wahrscheinlichkeit 1) 2. für s < t ist W t W s normalverteilt mit dem Erwartungswert und der Varianz t s 3
7 3. für t < t 1 < t 2 <... < t n sind die Zuwächse W ti W ti 1 mit i = 1, 2,..., n stochastisch unabhängig 4. die Pfade t W t sind stetig. Ein Ziel dieser Arbeit ist es, die Pfade eines Wiener-Prozesses zu simulieren. Doch vorher erläutern wir einige Eigenschaften dieses Prozesses: W t hat homogene identisch verteilte Zuwächse, d.h. W t W s = d W t+h W s+h Aus Punkt 2. der Definition folgt, dass die Verteilung der Zuwächse W t W s nur von der Differenz t s abhängig ist, nicht von t und s separat. Wir sagen, der Wiener-Prozess habe homogene Zuwächse. So sind z.b. die Verteilungen von W 5 W 4, W 4 W 3, W 3 W 2, W 2 W 1, W 1 W = W 1 alle gleich, nämlich standardnormalverteilt. Mit < t 1 < t 2 <... < t n gilt: sind unabhängige Zufallsgrößen. W t1 W, W t2 W t1,..., W tn W tn 1 Die Zuwächse W t W s sind normalverteilt. Es gilt W t W s = d wg.2. W t s W = wg.3. W t s N(, t s) d.h. W t W s und W t s haben dieselbe Verteilung, aber die Realisierungen können verschieden sein: W t W s W t s. Für alle t > gilt: W t N(, t), der Wiener-Prozess ist ein Gaußprozess. Die Erwartungswertfunktion lautet: µ t = für t. Die Varianzfunktion lautet: σ 2 t = t für t. Die Kovarianzfunktion lautet für t > s : γ(t, s)= E(W t W s ) = E((W t W s )W s ) + E(W s W s ) = + s = s. Also allgemein bedeutet: γ(t, s) = min{t, s} W t ist stochastisch stetig: W s P s t W t P ( W t W s > ɛ) t s für alle ɛ > W t ist quadratmittelstetig, d.h.: E( W t W s 2 ) t s Aus W s L W t folgt die stochastische Konvergenz. 4
8 W t ist nirgends differenzierbar 1 Die n-dimensionalen Randverteilungen des Wiener-Prozesses, d.h. die gemeinsame Verteilung von W t1, W t 2,..., W tn, haben eine interessante Eigenschaft, die wir als Selbstähnlichkeit in Verteilung bezeichnen. Für T > gilt: ( T W t1, T W t2,..., T W tn ) und (W T t1, W T t2,..., W T tn ) (2.4) haben die gleiche Verteilung. Skalieren wir die Zeitachse mit dem Faktor T, so ändert sich entsprechend die gemeinsame Verteilung. Die Selbstähnlichkeit bezieht sich die Verteilung und nicht auf die Zufallsvariablen bzw. die Pfade. 1 vgl. dazu das Skript Stochastik der Finanzmärkte Seite 49f und die Mitschriften zur Vorlesung Stochastische Differentialgleichung 5
9 Kapitel 3 Simulation eines Wiener-Prozess Wir werden zeigen, wie einzelne Pfade t W t des Wiener-Prozesses für t [, T ] simuliert werden. 3.1 Donskers Invarianzprinzip Es sei (ɛ i ) i N eine Folge von unabhängigen standardnormalverteilten Zufallsvariablen (ein reiner Gaußscher Standardzufallsprozess). Daraus folgt der zeitstetige Prozess S n (t) für t T und n N: S n (t) = T n i j=1 ɛ j falls t = T i n lineare Interpolation sonst mit i =,..., n (3.1) Für jedes n hat der stochastische Prozess (S n (t)) t [,T ] folgende Eigenschaften: 1. S n () = mit Wahrscheinlichkeit 1 2. Für t = k n T und s = r nt mit r < k ist S n ( k n T ) Sn ( r n T ) normalverteilt mit dem Erwartungswert und der Varianz t s 3. Für < i 1 < i 2 <... < i m sind die Differenzen stochastisch unabhängig verteilt. 4. Die Pfade t S n (t) sind stetig. S n ( i 2 n T ) Sn ( i 1 n T ),..., Sn ( i m n T ) Sn ( i m 1 n T ) 6
10 Der Prozess (S n (t)) t [,T ] schaut so ähnlich aus wie der Wiener-Prozess (W t ) t [,T ]. Satz 2 Donskers Invariaionsprinzip Der Prozess (S n (t)) t [,T ] konvergiert in Verteilung gegen den Wiener-Prozess (W t ) t [,T ] Es gilt: Die Folge S n konvergiert gegen die korrespondierende Folge W t : P (S n (t 1 ) x 1, S n (t 2 ) x 2,..., S n (t m ) x m ) P (W t1 x 1, W t2 x 2,..., W tm x m ) (3.2) wobei t i [, T ], x i R, i = 1, 2,..., m und m 1. Beweis. Die Beweisidee ist im Mikosch auf den Seiten 45f. nachzulesen. 3.2 Programmierung des Python-Programms In dieser Arbeit werden die Simulationen mit Hilfe des Programms Python 1 erzeugt. Python hat nichts mit den gefährlichen Reptilien zu tun. Der Name kommt von Monty Python s Flying Circus der erfolgreichen britischen Comedy Truppe. Manche behaupten, dass Python als Programmiersprache insofern etwas mit einem Reptil zu tun habe, weil sie genauso verführerisch wie eine Schlange sei. Sie ist einfach zu erlernen, kraftvoll wie Java, aber nicht so kompliziert. Mich hat sie verführt, diese Programmieraufgaben mit ihr zu lösen. Ich habe mich für die Programmiersprache Python und nicht für die Sprache Pascal entschieden, da Python im Vergleich zu Pascal handlicher ist. Z.B. besitzt Python ein Stochastik-Paket mit dem wir u.a. (Standard-)Normalverteilte Zufallszahlen erzeugen können mit nur einem Befehl. Im Gegensatz dazu brauchen wir in Pascal dafür eine Prozedur, die erst Zufallszahlen in Normalverteilte Zufallszahlen umwandelt 2. Python erlaubt es, sich mehr auf das Wesentliche zu konzentrieren und unterstützt im Gegensatz zu Pascal moderne Programmierkonzepte wie die Objektorientiertheit. Python ist eine sogenannte objektorientierte Skriptsprache, die neben Perl und Tcl mehr Verwendung findet. Python ist als einbettbare Sprache für die Integration von Softwarekomponenten entstanden. Eingesetzt wird Python zum Bespiel bei Office-Paketen. Python ist eine minimalistische Sprache. Der Schöpfer von Python, Guido van Rossum, hat sich beim Design von Python auf Weniges beschränkt und vertraut auf die Erweiterbarkeit der Sprache, d.h. er akkumulierte keine Features, sondern konzentrierte sich auf wenige Prinzipien: 3 1 vgl. 2 vgl. Peter E.Kloeden Numerical Solution of SDE Through Computer Experiments ab Seite 5 3 vgl. dazu die Ausgabe November 1999 der Zeitschrift IX -Magazin für professionelle Informationstechnik 7
11 Sparsamkeit durch Orthogonalität: Es gibt nur eine begrenzte Zahl von - leistungsfähigen und kombinierbaren - Konstrukten, Grunddatentypen und Standardfunktionen. Abgestufte Strukturierungsmittel: Auf mehreren Ebenen stukturierbar durch Module, Klassen und Funktionen. Programmkomponenten: dynamische Datenobjekte. Die strukturellen Einheiten von Programmen sind selbst solche Objekte. Sie lassen sich inspizieren, manipulieren, zur Laufzeit erzeugen und generell wie andere Daten handhaben. Konsistente Erweiterbarkeit: Werkzeuge für spezielle Anwendungsgebiete sind nicht fest in die Sprache integiert, sondern Erweiterungsmodule realisieren sie; wobei die vorhandenen Konstrukte und Standardfunktionen auf neue Objektklassen übertragbar sind. Die Sparsamkeit der Ausstattung und die abgestufte Struktur machen Python zu einem akzeptablen Werkzeug. Unter folgenden Plattformen kann Python verwendet werden: Unix, Win, Mac, OS/2, BeOS, Amiga et cetera. 3.3 Programm eines Wiener-Prozesses in Python Hier das Python-Programm zur Simulation eines Wiener-Prozesses mit Hilfe des Donskers Invarianzprinzip. Zu Anfang werden die verschiedenen Module aufgerufen. import random import math import Gnuplot Das Paket Gnuplot wird für die graphische Darstellung im Koordinatensystem benötigt. Die Anzahl der Realisationen wird eingegeben. Diese Zahl sollte möglichst groß sein. zahl = input("gib eine Zahl ein: ") Wenn wir das Programm starten, wird gefragt, wieviele Realisierungen wir simulieren möchten. Ein Koordinatensystem wird erzeugt, dass bis jetzt noch ohne Inhalt ist. Das k und das n wird später in den For-schleifen benötigt. g = Gnuplot.Gnuplot(debug=1) g.clear() k=zahl+1 n=zahl+1. 8
12 Es werden Felder erzeugt, die in erster Linie wie Vektoren aufgebaut sind. Der Vektor epsilon ist zuerst leer und wird dann in der For-schleife mit Standard-Normalverteilten Zufallszahlen gefüllt. Gleichzeitig wird auch der Vektor Wienerprozess erzeugt. Mit Hilfe des Donskers Invarianzprinzip 4 werden die einzelnen Realisierungen berechnet. 4 vgl. dazu Kapitel 3.1 auf Seite 6 9
13 epsilon=[] wienerprozess=[] for i in range(,k): epsilon.append(random.gauss(.,1.)) sum= for j in range(,i): sum=sum+epsilon[j] l=math.sqrt(n) wienerprozess.append(sum/l) Und das war es eigentlich schon. Mit dem print wienerprozess Befehl könnten die Daten ausgegeben werden. Doch mich interessierte mehr die graphische Darstellung. wert=[] Daten=[] for i in range(,k): j=i/n wert.append(j) wert.append(wienerprozess[i]) Daten.append(wert) wert=[] g( set data style linespoints ) g.plot(daten) g.title( Wiener Prozess ) g.xlabel( Zeit ) g.ylabel( Kurs ) g.replot() g.hardcopy( gp_wp.ps, enhanced=1, color=1) raw_input( Please press return to continue...\n ) Das Programm wird gestartet: Wir geben die Anzahl der Realisierung ein und erhalten als Output ein Koordinatenssystem. Auf der -Achse ist die Zeit abgetragen. Auf der Y-Achse sind die Realisierungen des Wiener-Prozesses. Beachte, dass die Annahmen t [, 1] getroffen wurde Das Ergebnis Den Wiener-Prozess mit verschiedenen Realisierungen finden Sie in der Abbildung 3.1 auf Seite 11. 1
14 Wiener Prozess Zeit Abbildung 3.1: Verschiedene Pfade eines Wiener-Prozesses Kurs 11
15 3.4 Im Vergleich dazu: Excel 1. Wir wählen n 5 sehr groß und berechnen 6 i n für i =, 1, 2,..., n: In das Feld A1 kommt der Wert. In das Feld A2 schreiben wir =1/1, in das Feld A3 =2/1. Wir markieren diese drei Felder und ziehen das Feld an der rechten unteren Ecke bis zum Feld A11 herunter. 2. Wir erzeugen die Realisierungen von ɛ 1, ɛ 2,..., ɛ n : In das Feld B2 schreiben wir den Befehl =norminv(zufallszahl();;1). Es wird eine Standardnormalverteilte Zufallszahl erzeugt. Um 1 Standardnormalverteilte Zufallszahlen zu erhalten, markieren wir B2 und ziehen das Feld bis B11 herunter. 3. Berechnet wird i j=1 ɛ j für i = 1, 2,..., n: In das Feld C2 schreiben wirn =B2. In das Feld C3 schreiben wir =B3+C2. Diesen Befehl vervielfältigen wir wieder bis zum Feld C Wir können die Realisierungen des Wiener-Prozesses mit Hilfe der Formel 7 W ( i n ) = 1 n i ɛ j für i = 1, 2,..., n j=1. W () =, d.h. in das Feld D1 schreiben wir den Anfangswert In das FeldD2 kommt der Befehl =wurzel(1/1)*c2. Auch dieser Befehl wird durch herunterziehen bis D Die graphische Darstellung: 8 Über den Befehl Diagramme in der Menüleiste können wir ein x,y-koordinatensystem zeichnen lassen. Die x-werte stehen in diesem Beispiel in der Spalte A und die y-werte in der Spalte D. Verschiedene Pfade des Wiener-Prozesses wie Excel sie erzeugt, finden wir in der Abbildung 3.2 auf der Seite hier sei n = 1 6 auch hier gilt die Annahme, dass mein Betrachtungszeitraum ein [, 1] Intervall ist, das heißt t [, 1] 7 vgl. Kapitel 3.1 auf der Seite 6 8 die lineare Interpolation macht Excel automatisch 12
16 1,5 -,5-1 -1,5-2 -2,5 Der Wienerprozess,2,4,6,8 1 1,2 Zeit Abbildung 3.2: Verschiedene Pfade des Wiener-Prozesses in Excel Realiesierungen 13
17 Kapitel 4 Stochastische Differentialgleichungen 4.1 Einführung in die Grundlagen der Differentialgleichungen Die grundlegende Idee der gewöhnlichen Differentialgleichung ist die folgende funktionale Beziehung: f(t, x(t), x (t), x (t),..., x n (t)) =, mit t T (4.1) wobei t die Zeit ist und x(t) eine unbekannte Funktion ist. Das Ziel ist die Funktion x(t) zu finden, die (4.1) erfüllt. Diese Funktion nennen wir Lösung der Differentialgleichung (4.1) n ter Ordnung. Die Lösung ist eindeutig, wenn eine Startlösung x() = x gegeben ist. Die einfachste Differentialgleichung ist die der 1. Ordnung, d.h. wir benötigen t, x(t) und die erste Ableitung x (t), so dass die Differentialgleichung die Form: x (t) = dx(t) dt hat, wobei a(t, x(t)) eine Funktion ist. Standardmäßig schreibt wir (4.2) folgendermaßen um: = a(t, x(t)), mit x() = x (4.2) dx(t) = a(t, x(t))dt, mit x() = x (4.3) Der einfachste Weg, den Zufall in die Gleichung (4.3) einzuführen, ist es, im Ausgangszustand mit Zufallsvariablen zu arbeiten. Die Lösung x(t) wird durch einen stochastischen Prozess (X t, t [, T ]) ersetzt: dx t = a(t, X t )dt, mit X (ω) = Y (ω) (4.4) Solch eine Gleichung wird stochastische Differentialgleichung genannt. Diese stochastischen Differentialgleichungen können auch als Differentialgleichung mit einem gestörten Ausgangszustand aufgefaßt werden. Wir führen einen zusätzlichen Zufallsterm ein: dx t = a(t, X t )dt + b(t, X t )dw t, mit X (ω) = Y (ω) (4.5) 14
18 wobei W = (W t, t ) der Wiener-Prozess und a(t, x) und b(t, x) deterministische Funktionen sind. Die Lösung X, wenn sie existiert, ist ein stochastischer Prozess. Die Gleichung (4.5) können wir anders interpretieren: t t X t = X + a(s, X s )ds + b(s, X s )dw s, mit t T (4.6) }{{}}{{} Riemann-Integral Ito-stochastisches Integral Den Term (4.6) können wir mit Hilfe des Ito-Lemma und dem Lemma von Stratonovich lösen Numerische Lösung Stochastische Differentialgleichungen mit einer expliziten Lösung sind allgemein die Ausnahme. Daher brauchen wir numerische Approximationsverfahren zur Lösung stochastischer Differentialgleichungen. Solche Approximationstechniken werden numerische Lösungen genannt. Solche numerischen Lösungsverfahren werden aus verschiedenen Gründen gebraucht: Sie zeigen einen einfachen Weg, die Lösung zu bekommen. Mit Hilfe von diesen numerischen Verfahren können wir eine Art Vorhersage von stochastischen Prozessen machen. Zu beachten sollte aber sein, dass wir diese möglichen Lösungen mit Vorsicht behandeln. Wir erhalten eine vernünftige Approximation an die Verteilung des stochastischen Prozesses, so dass wir den Erwartungswert, die Varianz und andere Momente höherer Ordnung berechnen können. Numerische Lösungen erlauben uns, verschiedene Pfade zu simulieren. Um also solche Pfade dazustellen beschränken wir unsere numerische Lösung auf das folgende stochastische Differential: dx t = a(x t )dt + b(x t )dw t, mit t [, T ] (4.7) wobei W t ein Wiener-Prozess und die Funktionen a(x) und b(x) Lipschitz stetig sind. (Eine Funktion f : [p, q] [p, q] heißt Lipschitz stetig, wenn eine Konstante r R existiert, so daß für alle Paare x, y [p, q] folgendes gilt: f(x) f(y) < r x y ). Es wurde die Annahme EX 2 < getroffen, um die Existenz und Eindeutigkeit der Lösung zu garantieren Euler-Approximation Für die Anwendung ist es interessant eine kleine Änderung X t+h X t des Prozesses zu betrachten. Meistens steht X t für den Kurs eines Wertpapiers zum Zeitpunkt t (vgl. Kapitel 5 auf Seite 23). X t+h X t a(t, X t ) h + b(t, X t ) (W t+h W t ) (4.8) 1 vgl. dazu die Abschnitte 3.2 und 3.3 im Mikosch 15
19 bedeutet 2, dass der Zuwachs X t+h X t in dem kleinen Zeitintervall [t, t + h] zwei Ursachen hat, nämlich die durch a(t, X t ) h gegebene sogenannte Driftkomponente des Prozesses, die die Richtung und Stärke der Veränderung bestimmt, und eine durch b(t, X t ) (W t+h W t ) gegebene Fluktuationskomponente, die etwas über die Stärke der zufälligen Veränderung aussagt. Wir unterteilen das Intervall [, 1]: τ n : = t < t 1 < t 2... < t n 1 < t n = 1 um den Term (4.8) zu charakterisieren. Dabei bezeichne δ n = max (t i ) i=1,...,n die Feinheit der Einteilung. Wir wählen n groß und setzen h = h (n) = 1 n, sowie t i = i h = i 1 n. Wir wissen bereits aus Abschnitt 3.1, auf Seite 6, wie wir die Werte W t des Wiener-Prozesses (W t ) t [,1] zu den Zeitpunkten t i für i = 1, 2,..., n simulieren können. Das Eulerschema ist wie folgt gegeben: X (n) = X X (n) t 1 = X (n) + a(x (n) )(t 1 t ) + b(x (n) )(W t1 W t ) X (n) t 2 = X (n) t 1 + a(x (n) t 1 )(t 2 t 1 ) + b(x (n) t 1 )(W t2 W t1 ). X (n) t n 1 = X (n) t n 2 + a(x (n) t n 2 )(t n 1 t n 2 ) + b(x (n) t n 2 )(W tn 1 W tn 2 ) X (n) t n = X (n) t n 1 + a(x (n) t n 1 )(t n t n 1 ) + b(x (n) t n 1 )(W tn W tn 1 ) Zwischen den Punkten i 1 n und i n wird linear interpoliert, so dass wir einen annähernd stetigen Pfad t X (n) t für t [, 1] erhalten. Wir können zeigen, dass für n ( und somit h (n) ) die Folge der Euler-Approximationen (X (n) t ) t [,1] in Verteilung gegen die Lösung (X t ) t [,1] konvergiert. Das Programm Wie bereits in Kapitel 3.3 auf der Seite 8 werde ich das Programm der Euler-Approximation in Python vorstellen. Dabei habe ich den obenstehenden Algorithmus mit X = 1, a(x i ) =.1 X i und b(x i ) =.1 X i mit i = 1, 2,..., n verwendet: Der Kopf ist genauso aufgebaut wie bei dem Programm für den Wiener-Prozess: 2 die Formel (4.5) ensteht in gewissem Sinne durch den Grenzübergang h aus der Differenzenfolge (4.8) 16
20 import random import math import Gnuplot zahl = input("gib eine Zahl ein: ") Wie wir in der Approximation gesehen haben, brauchen wir als erstes einen Wiener-Prozess, der genauso erzeugt wird wie in Kapitel 3.3 auf der Seite 8: g = Gnuplot.Gnuplot(debug=1) g.clear() k=zahl+1 n=zahl+1. epsilon=[] wienerprozess=[] for i in range(,k): epsilon.append(random.gauss(.,1.)) sum= for j in range(,i): sum=sum+epsilon[j] l=math.sqrt(n) wienerprozess.append(sum/l) Hier beginnt der eigentliche Approximationsalgorithmus. Den Startwert X setze ich auf 1, a(x i ) =.1 X i und b(x i ) =.1 X i. Die anderen Werte X 1, X 2,... berechne ich in einer For-Schleife: kurs=[1] for i in range(1,k): j=i-1 f=kurs[j]+.1*kurs[j]*((i)/k+(j)/k)+.1*kurs[j]*(wienerprozess[i]-wienerprozess[j]) kurs.append(f) Jetzt nur noch die graphische Ausgabe 3 : wert=[] Daten=[] for i in range(,k): j=i/n wert.append(j) wert.append(kurs[i]) 3 vgl. dazu auch die Abbilgung 4.1 auf der Seite 22 17
21 Daten.append(wert) wert=[] print Daten g( set data style linespoints ) g.plot(daten) g.title( Euler ) g.xlabel( Zeit ) g.ylabel( Kurs ) g.replot() g.hardcopy( gp_test.ps, enhanced=1, color=1) raw_input( Please press return to continue...\n ) Die numerische Lösung x (n) (t) konvergiert fast sicher gegen X(t), da Milstein-Approximation P ( lim n X(n) = X) = 1 Die Euler Approximation kann aber noch verbessert werden. Wir berücksichtigen die stochastische Differentialgleichung (4.6): X t = X + t a(x s )ds + t b(x s )dw s mit t [, T ] Für t i aus der Intervallzerlegung τ n berücksichtigen wir die Differenz X ti X ti 1 und erhalten: ti ti X ti = X + a(x s )ds + b(x s )dw s mit i = 1, 2,..., n (4.9) Die Euler-Approximation basiert auf die Diskretisierung des Integral (4.9), denn: ti a(x s )ds a(x ti 1 )(t i ) Wenn wir X ti mit X (n) t i ti b(x s )dw s b(x ti 1 )(W ti W ti 1 ) ersetzten, erhalten wir: X (n) t i = X (n) + a(x (n) )(t i ) + b(x (n) )(W ti W ti 1 ) mit i = 1, 2,..., n Die Milstein-Approximation benutzt dagegen eine sogenannte Taylor-Ito-Entwicklung. Die Idee ist, wir wenden das Ito-Lemma 4 auf a(x s ) und b(x s ) in der Formel (4.9)an. Um die Gleichung 4 vgl. dazu Mikosch Seite 12 bzw. die Vorlesung Stochastische Differentialgleichung 18
22 übersichtlicher zu gestalten, schreibe ich a, b, a,... für a(x y ), b(x y ), a (X y ),...: X ti X ti 1 = + ti [a(x ti 1 ) + ti s (aa b2 a )dy + s s s ba dw y ]ds [b(x ti 1 ) + (ab b2 b )dy + bb dw y ]dw s = a(x ti 1 )(t i ) + b(x ti 1 )(W ti W ti 1 ) + R i (4.1) wobei das Restglied R i definiert ist mit R i = R (1) i + R (2) i + Das Doppel-stochastische Integral R (1) i Zu zeigen ist: R (1) i ti s [ bb dw y ]dw s + R (2) i ist approximativ folgender Term: b(x ti 1 )b (X ti 1 ti s [ dw y ]dw s t } i 1 {{} =I I = 1 2 ((W t i W ti 1 ) 2 (t i )) Beweis: Wir können leicht zeigen, dass (dw t ) 2 = (W t=dt W t ) 2 = dt Daraus folgt: ti (dw s ) 2 = t i ds = (t i ) Berücksichtigen wir das Doppel-Integral: (W ti W ti 1 ) 2 = (W ti W ti 1 )(W ti W ti 1 ) = ( t i (dw s ))( t i (dw y )) ( t i (dw s ))( t i (dw y )) = ( t i ( t i dw y )dw s ) und das ist wieder: ( t i ( s dw y )dw s ) + ( t i ( t i s = 2 ( ti s ( dw y )dw s ) +(t i ) } {{ } vgl. mit I Daraus folgt: I = 1 2 ((W t i W ti 1 ) 2 (t i )) dw y)dw s ) + t i (dw s ) 2 = Das heisst: R (1) i 1 2 b(x )b (X ti 1 ((W ti W ti 1 ) 2 (t i )) Unter milden Annahmen für die Funktionen a(x) und b(x) können wir zeigen, dass R (2) i Vergleich zu R (2) i sehr klein ist. Mit Hilfe der Formel (4.9) definieren wir die Milstein-Approximation: im 19
23 Definition 3 Für X o (n) = X und für i = 1, 2,..., n gilt: X (n) t i = X (n) +a(x (n) )(t i )+b(x (n) )(W ti W ti 1 )+ 1 2 b(x )b (X ti 1 ((W ti W ti 1 ) 2 (t i )) Zur Qualität der numerischen Lösung sagen wir: Die Milstein Approximation konvergiert stark mit der Ordnung 1. Das Programm (4.11) Das Programm in Python sieht fast genauso au wie das Programm zur Euler-Approximation, nur die For-Schleife hat sich im Vergleich zu 11 auf der Seite 16 geändert. Hier das klomplette Programm: #!/usr/bin/python import random import math import Gnuplot zahl = input("gib eine Zahl ein: ") k=zahl+1 n=zahl+1. g = Gnuplot.Gnuplot(debug=1) g.clear() epsilon=[] wienerprozess=[] for i in range(,k): epsilon.append(random.gauss(.,1.)) sum= for j in range(,i): sum=sum+epsilon[j] l=math.sqrt(n) wienerprozess.append(sum/l) kurs=[1] for i in range(1,k): j=i-1 f=kurs[j]+.1*kurs[j]*((i)/k-(j)/k)+.1*kurs[j]* (wienerprozess[i]-wienerprozess[j])+.5*.1*kurs[j]*.1* ((wienerprozess[i]-wienerprozess[j])**2-((i)/k-(j)/k)) kurs.append(f) Zu beachten sollte hier sein, dass ich aus Form-Gründen die Gleichung f =... nicht auf eine Zeile bringen konnte. 2
24 wert=[] Daten=[] for i in range(,k): j=i/n wert.append(j) wert.append(kurs[i]) Daten.append(wert) wert=[] g( set data style linespoints ) g.plot(daten) g.title( Milstein Approximation ) g.xlabel( Zeit ) g.ylabel( Kurs ) g.replot() g.hardcopy( gp_milstein.ps, enhanced=1, color=1) raw_input( Please press return to continue...\n ) 21
25 4.2.3 Der direkte Vergleich Kurs Milstein und Euler Approximation Milstein Euler Zeit Abbildung 4.1: Der Vergleich der Euler- und Milstein-Entwürfe mit a(x ti ) =.1X ti b(x ti ) = 2X ti wobei t [, 1] und X = 1 und Wir sehen, dass besonders im letzten Drittel der Datensatz, der mit der Euler-Approximation berechent wurde, keine größeren Ausschläge mehr aufweist, als der Datensatz, der mit der Milstein-Approximation berechnet wurde. Der Grund dafür ist, dass die Milstein-Approximation, dass Ito-Lemma berücksichtig. Eine mögliche Verbesserung der Milstein-Approximation kann erreicht werden, wenn ich das Ito-Lemma auf den Integranten im Term R i anwende. Die Form der nurmerischen Lösung wird so immer mehr komplizierter. 22
26 Kapitel 5 Anwendung in der Finanzwissenschaft Seit dem berühmten Paper von Black und Scholes (1973) sowie Merton (1973) wurde es immer moderner, stochastische Rechnungen in die Finanzwelt einzusetzen, um Preise von riskanten Anleihen zu modellieren. Das führte zu einer neuen Branche der angewandten Wahrscheinlichkeitstheorie, dem Gebiet der Finanz-Mathematik. Ich möchte hier nur einen kurzen Exkurs in die Finanzwelt machen. 1 Angenommen der Preis X t einer riskanten Anleihe (eine sogenannte Aktie) zur Zeit t sei durch einen Wiener-Prozess in folgender Form gegeben: X t = f(t, W t ) = X e (c.5σ2 )t+σw t (5.1) wobei W = (W t, t ) der Wiener-Prozess ist. Zusätzlich sollte noch vorausgesetzt sein, dass X unabhängig von W ist. Diese Voraussetzung braucht man, da X die eindeutige starke Lösung der linearen stochastischen Differential Gleichung ist: Daraus folgt: X t = X + c t X s ds + σ t dx t = cx t dt + σx t dw t Wenn man die Erkenntnisse aus Formel (4.8) anwendet, erhält man: Das ist äquivalent zu: X t dt X t = cx t dt + σx t dw t X s dw s (5.2) X t+dt X t = cdt + σdw X }{{ t }{{} t } beschreibt lin.trend, der durch den Zufall gestört wird relative Rendite der Aktie Die Konstante c > ist die sogenannte Mittere Nettorendite und σ > die Volatilität, dabei ist σ ein Maß für das Risiko der Anleihe. Betrachten wir folgende zwei Fälle: 1 Eine ausführliche Einführung in die Optionswelt kann man im Mikosch (Kapitel 4) nachlesen 23
27 σ = : Der Term (5.2) ist eine deterministische Differential Gleichung, welche die wohlbekannte Lösung X t + X o exp{ct} hat. σ > : Man erhält die Zufallsgestörte Exponential Funktion (5.1) Angenommen man hat eine risikolose Anleihe, einen sogenannten Bond. β t = β e rt wobei β mein Anfangskapital und r > der konstante Zinssatz 2 ist. Beachte, dass β foldender deterministischen Integralgleichung genügt: I β t = β = r tβ s ds (5.3) Im allgemeinen hält man eine bestimmte Menge an Anleihen: a t beschreibt die Anzahl der Aktien und b t die Anzahl der Bonds. Sie bilden das Portfolio. Das Vermögen V t (oder Wert des Portfolio) zur Zeit t ist gegeben durch: V t = a t X t + b t β t Wenn man annimmt, dass das Vermögen V t nur von Preisen für die Aktien X t und für die Bonds β t abhängen, kann man den Differential-Term betrachten: dv t = d(a t X t + b t β t ) = a t dx t + b t dβ t Diese Gleichung kann man im Sinne von Ito 3 umschreiben: V t V = t d(a s X s + b s β s ) = t a s dx s + t b s dβ s Ersetzt man dx s mit der Formel (5.2) und dβ s mit der Formel (5.3) erhält man: V t V = t V t = V + = V + [a s (cx s ds + σx s dw s ) + b s (rβ s ds)] t t [a s (cx s ds + σx s dw s ) + b s (rβ s ds)] (a s cx s + b s rβ s )ds + t σx s dw s Der Wert des Portfolio V t ist genau gleich dem Anfangswert V plus dem Kapitalgewinn von den Aktien und den Bonds zur Zeit t. 2 Diese Annahme kann so getroffen, obwohl die EZB den Zinssatz ändern kann, aber sie tut dies meistens nur aus volkswirtschaftlichen Gründen 3 vgl. die Vorlesung Stochastische Dgl. 24
28 Kapitel 6 Schluss Wie in der Einleitung bereits erwähnt, bezog sich meine Studienarbeit auf einen bestimmten Teil der Stochastischen Differential Gleichung. Meine Hauptaufgabe war die Simulation eines Aktienkurses mit Hilfe der Euler- und Milstein-Approximation. Begonnen habe ich mit der Darstellung eines Wiener-Prozesses, da der Wiener-Prozess die Grundvoraussetzung der beiden Approximationen ist. Doch auch der sogenannte Ornstein-Uhlenbeck-Prozess ist sehr interessant für den Bereich der Stochastischen Differential Gleichung, das heißt hier würde auch weiteres Potential für eine Arbeit liegen. Für mich war es auch eine Herausforderung, mich in eine neue Skriptsprache einzuarbeiten. Doch Python hat es mir leicht gemacht. Im Vergleich zu Pascal ist es viel umgänglicher und leichter zu handhaben. Das zeigt aber auch, dass die Simulation von Aktienkursen gar nicht so schwierig ist. Wir brauchen nur eine Programmier- bzw. Skript-Sprache die Standardnormalverteilte Zufallszahlen ohne größeren Aufwand erzeugt. Wir könnten zusätzlich noch eine graphische Oberfläche programmieren, mit der wir die Programme noch erweitern können. 25
29 Literaturverzeichnis [1] T. Mikosch: Elementary Sochastic Calculus with Finance in View, 1998, World Scientific, Singapur [2] P.E. Kloeden, E. Platen, H. Schurz: Numerical Solution of SDE Through Computer Experiments, 2. überarbeitete Auflage 1997, Springer Verlag, Heidelberg [3] M. Trede: Skript zur Vorlesung Stochastik der Finanzmärkte, Wintersemester 21/22, Magdeburg [4] G. Christoph: Mitschriften zur Vorlesung Stochastische Differential Gleichung, Wintersemester 21/22, Magdeburg [5] R. Fischbach: Beschränkung aufs Wesentliche, 1999, ix 11/1999, S. 184ff [6] R. Fischbach: Schwierige Abgrenzung, 1999, ix 12/1999, S. 6ff [7] [8] [9] 26
Das Black-Scholes Modell
Vathani Arumugathas Das Black-Scholes Modell 1 Das Black-Scholes Modell Vathani Arumugathas Seminar zu Finanzmarktmodellen in der Lebensversicherung, Universität zu Köln 10. Juni 016 Inhaltsverzeichnis
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrBrownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung
Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
MehrBrownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung
Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
MehrStochastik-Praktikum
Stochastik-Praktikum Simulation stochastischer Prozesse Peter Frentrup Humboldt-Universität zu Berlin 27. November 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 27. November 2017
MehrBrownsche Bewegung. M. Gruber. 19. März Zusammenfassung
Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische
MehrEuler-Approximation. Leonie van de Sandt. TU Dortmund Prof. Dr. Christine Müller. 5. Juni 2012
Euler-Approximation Leonie van de Sandt TU Dortmund Prof. Dr. Christine Müller 5. Juni 2012 Leonie van de Sandt (TU Dortmund) Euler-Approximation 5. Juni 2012 1 / 26 Inhaltsverzeichnis 1 Einleitung Leonie
MehrBrownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm
Brownsche Bewegung Satz von Donsker Bernd Barth Universität Ulm 31.05.2010 Page 2 Brownsche Bewegung 31.05.2010 Inhalt Einführung Straffheit Konvergenz Konstruktion einer zufälligen Funktion Brownsche
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 9 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 40: Es sei (X t ) t 0 ein
MehrEinige parametrische Familien für stochastische Prozesse
Einige parametrische Familien für stochastische Prozesse Seminar: Grundlagen der und Statistik von dynamischen Systemen 26. November 2014 Inhaltsverzeichnis 1 Einleitung 2 3 4 5 Einleitung Ziel des Vortrages:
MehrSeminarvortrag. Euler-Approximation. Marian Verkely TU Dortmund
Seminarvortrag Euler-Approximation Marian Verkely TU Dortmund 03.12.14 1 / 33 Inhaltsverzeichnis 1 Motivation 2 Simulierte Prozesse 3 Euler-Approximation 4 Vasicek-Prozess: Vergleich analytische Lösung
Mehr7. Die Brownsche Bewegung
7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
Mehr70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
MehrSeminar Gewöhnliche Differentialgleichungen
Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden
MehrDiffusionsprozesse und lineare stochastische DGL
Diffusionsprozesse und lineare stochastische DGL Michele Bieber TU Dortmund - Fakultät Statistik 15. Mai 2012 Inhaltsverzeichnis 1 Einleitung 2 Diffusionsprozesse Stochastische DGL eines Diffusionsprozesses
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrDarstellungsformeln für die Lösung von parabolischen Differentialgleichungen
Kapitel 8 Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Wir hatten im Beispiel 5. gesehen, dass die Wärmeleitungsgleichung t u u = f auf Ω (0, ) (8.1) eine parabolische Differentialgleichung
MehrKapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten
Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
MehrKonvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen
Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess
Mehr1 Einführung, Terminologie und Einteilung
Zusammenfassung Kapitel V: Differentialgleichungen 1 Einführung, Terminologie und Einteilung Eine gewöhnliche Differentialgleichungen ist eine Bestimmungsgleichung um eine Funktion u(t) einer unabhängigen
MehrCharakteristische Funktionen
Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die
MehrStrukturerhaltende Integrationsverfahren für stochastische Differentialgleichungen in der Modellierung von Zinsderivaten
Strukturerhaltende Integrationsverfahren für stochastische Differentialgleichungen in der Modellierung von Zinsderivaten Michael Günther, Christian Kahl und Thilo Roßberg Bergische Universität Wuppertal
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrInstitut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban
Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban Lösungsvorschlag studienbegleitende Klausur Finanzmathematik I Aufgabe (7 Punkte) Vorgelegt sei ein Wahrscheinlichkeitsraum (Ω, F, P) und
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrVorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik
Univ. Leipzig Mathematisches Institut Vertretung Professur Stochastische Prozesse Max v. Renesse email: mrenesse@math.tu-berlin.de Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
Mehr8 Verteilungsfunktionen und Dichten
8 Verteilungsfunktionen und Dichten 8.1 Satz und Definition (Dichten) Eine Funktion f : R R heißt Dichtefunktion, kurz Dichte, wenn sie (Riemann-) integrierbar ist mit f(t) 0 für alle t R und Setzt man
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrKapitel 6 Martingale
Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse
MehrGaußsche Felder und Simulation
3 2 data_2d_1.dat data_2d_2.dat data_2d_64.dat data_2d_128.dat 1-1 -2-3 1 2 3 4 5 6 7 Gaußsche Felder und Simulation Benedikt Jahn, Aaron Spettl 4. November 28 Institut für Stochastik, Seminar Zufällige
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 1. Dezember 21 1 Integralrechnung Flächeninhalt Stammfunktion Rechenregeln 2 Dichten von Erwartungswert und Varianz
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrKapitel 6. Irrfahrten und Bernoullischemata
Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten
MehrFinanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
MehrSchwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik
Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
MehrKonvergenz im quadratischen Mittel und die Parsevelsche Gleichung
Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Dr. Gerhard Mülich Christian Maaß 6.Mai 8 Im letzten Vortrag haben wir gesehen, dass das
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
Mehr0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5
4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit
Mehr1 Verteilungsfunktionen, Zufallsvariable etc.
4. Test M3 ET 27 6.6.27 4. Dezember 27 Regelung für den.ten Übungstest:. Wer bei den Professoren Dirschmid, Blümlinger, Vogl oder Langer die UE aus Mathematik 2 gemacht hat, sollte dort die WTH und Statistik
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
MehrTECHNISCHE UNIVERSITÄT BERLIN BACHELORARBEIT. Theorie und Simulation einer zweidimensionalen stochastischen Differentialgleichung.
TECHNISCHE UNIVERSITÄT BERLIN Fakultät II Institut für Mathematik BACHELORARBEIT im Studiengang Mathematik über das Thema Theorie und Simulation einer zweidimensionalen stochastischen Differentialgleichung
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrKapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
Mehr- 1 - angeführt. Die Beschleunigung ist die zweite Ableitung des Ortes x nach der Zeit, und das Gesetz lässt sich damit als 2.
- 1 - Gewöhnliche Differentialgleichungen Teil I: Überblick Ein großer Teil der Grundgesetze der Phsik ist in Form von Gleichungen formuliert, in denen Ableitungen phsikalischer Größen vorkommen. Als Beispiel
MehrWahrscheinlichkeitstheorie
Wahrscheinlichkeitstheorie Dr. C.J. Luchsinger 5 n (Konvergenz, LLN) 5.1 Konvergenzarten In der WT gibt es viele Konvergenzarten für Folgen von Zufallsgrössen. Sie haben alle ihre Berechtigung. In der
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrProbeklausur zu Funktionentheorie, Lebesguetheorie und gewöhnlichen Differentialgleichungen
MATHEMATISCHES INSTITUT SoSe 24 DER UNIVERSITÄT MÜNCHEN Probeklausur zu Funktionentheorie, Lebesguetheorie und gewöhnlichen Differentialgleichungen Musterlösung Prof. Dr. P. Pickl Aufgabe Zeigen Sie, dass
MehrMultivariate Verteilungen
Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig
Mehr12 Gewöhnliche Differentialgleichungen
2 2 Gewöhnliche Differentialgleichungen 2. Einleitung Sei f : D R wobei D R 2. Dann nennt man y = f(x, y) (5) eine (gewöhnliche) Differentialgleichung (DGL) erster Ordnung. Als Lösung von (5) akzeptiert
MehrScheinklausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrÜbung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit
Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung
MehrErfolgsgeschichte eines stochastischen Prozesses: Die Brown sche Bewegung
Erfolgsgeschichte eines stochastischen Prozesses: Die Brown sche Bewegung Wolfgang König Weierstraß-Institut Berlin und Technische Universität Berlin W. König Tag der Mathematik 8. Mai 2010 p.1/10 Robert
MehrMotivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Statistik Dr. Thomas Zehrt Ausblick Motivation Wir werfen einen Würfel 000-mal und wir möchten die Wahrscheinlichkeit P bestimmen, dass zwischen
MehrI.1.3 b. (I.7a) I.1 Grundbegriffe der Newton schen Mechanik 9
I. Grundbegriffe der Newton schen Mechanik 9 I..3 b Arbeit einer Kraft Wird die Wirkung einer Kraft über ein Zeitintervall oder genauer über die Strecke, welche das mechanische System in diesem Zeitintervall
MehrDer Satz von Taylor. Kapitel 7
Kapitel 7 Der Satz von Taylor Wir haben bereits die Darstellung verschiedener Funktionen, wie der Exponentialfunktion, der Cosinus- oder Sinus-Funktion, durch unendliche Reihen kennen gelernt. In diesem
Mehr2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:
Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche
Mehr7 Der Satz von Girsanov
7 Der Satz von Girsanov Der Satz von Girsanov wird uns eine neue Perspektive auf die Rolle des Drifts liefern. Die Prozesse Brownsche Bewegung B t, Brownsche Bewegung mit Drift X t = B t + µt haben wir
Mehr1.4 Stichproben aus einer Normalverteilung
1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte
MehrDer Weg eines Betrunkenen
Der Weg eines Betrunkenen 2 Hätte es damals schon Computer gegeben, wäre es für unseren Mathematiker um einiges leichter gewesen, den Weg des Betrunkenen zu bestimmen. Er hätte nicht nur eine beliebige
Mehr30 Die Gammafunktion und die Stirlingsche Formel
3 Die Gammafunktion und die Stirlingsche Formel 35 Charakterisierung der Gammafunktion 36 Darstellung der Gammafunktion 38 Beziehung zwischen der Gammafunktion und der Zetafunktion 3 Stirlingsche Formel
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 29 UNIVERSITÄT KARLSRUHE Blatt 6 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 27: Sei X eine R + -wertige
MehrKapitel 10 VERTEILUNGEN
Kapitel 10 VERTEILUNGEN Fassung vom 18. Januar 2001 130 VERTEILUNGEN Zufallsvariable. 10.1 10.1 Zufallsvariable. HäuÞg wird statt des Ergebnisses ω Ω eines Zufalls-Experiments eine zugeordnete Zahl X(ω)
Mehr1.3 Wiederholung der Konvergenzkonzepte
1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche
MehrWahrscheinlichkeitsrechnung und stochastische Prozesse
Kapitel 7 Wahrscheinlichkeitsrechnung und stochastische Prozesse Zufallsvariable, Wahrscheinlichkeitsdichte, Markov-Prozess ( Zukunft hängt von der Vergangenheit nur über die Gegenwart ab. 7. Einführung
MehrGeometrische Brownsche Bewegung und Brownsche Brücke
Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen SoSe 2012 Geometrische Brownsche Bewegung und Brownsche Brücke Korinna Griesing 10. April 2012 Dozentin: Prof. Dr. Christine Müller
MehrEinführung in die Theorie der Markov-Ketten. Jens Schomaker
Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch
MehrK8 Stetige Zufallsvariablen Theorie und Praxis
K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R
MehrNormalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.
Normalverteilung Diskrete Stetige f(x) = 1 2πσ 2 e 1 2 ((x µ)2 σ 2 ) Gauß 91 / 169 Normalverteilung Diskrete Stetige Satz: f aus (1) ist Dichte. Beweis: 1. f(x) 0 x R und σ > 0. 2. bleibt z.z. lim F(x)
MehrKapitel VII. Einige spezielle stetige Verteilungen
Kapitel VII Einige spezielle stetige Verteilungen D. 7.. (Normalverteilung) Eine stetige Zufallsgröße X sei als normalverteilt bezeichnet, wenn sie folgende Wahrscheinlichkeitsdichte besitzt: µ f ( ; µ,
MehrErrata zu Goebbels, Ritter: Mathematik verstehen und anwenden
Errata zu Goebbels, Ritter: Mathematik verstehen und anwenden Stand 20. Februar 203 Wir danken allen Lesern, die uns auf Fehler hingewiesen haben. Seite Position gedruckt korrekt 36 Beispiel.26 = 0,22+
MehrBrownsche Bewegung Seminar - Weiche Materie
Brownsche Bewegung Seminar - Weiche Materie Simon Schnyder 11. Februar 2008 Übersicht Abbildung: 3 Realisationen des Weges eines Brownschen Teilchens mit gl. Startort Struktur des Vortrags Brownsches Teilchen
MehrSeite 1. sin 2 x dx. b) Berechnen Sie das Integral. e (t s)2 ds. (Nur Leibniz-Formel) c) Differenzieren Sie die Funktion f(t) = t. d dx ln(x + x3 ) dx
Seite Aufgabe : a Berechnen Sie das Integral b Berechnen Sie das Integral +x x+x dx. π sin x dx. c Differenzieren Sie die Funktion ft = t e t s ds. Nur Leibniz-Formel a + x x + x dx = d dx lnx + x dx =
Mehr