Otto-von-Guericke-Universität Magdeburg. Studienarbeit. Simulation der Euler- und Milsteinapproximation

Größe: px
Ab Seite anzeigen:

Download "Otto-von-Guericke-Universität Magdeburg. Studienarbeit. Simulation der Euler- und Milsteinapproximation"

Transkript

1 Otto-von-Guericke-Universität Magdeburg Studienarbeit Simulation der Euler- und Milsteinapproximation Anja Schulze 8. Oktober 22

2 Inhaltsverzeichnis 1 Einleitung 1 2 Ein spezieller zeitstetiger Prozess: Der Wiener Prozess Stochastischer Prozess Der Wiener Prozess Simulation eines Wiener-Prozess Donskers Invarianzprinzip Programmierung des Python-Programms Programm eines Wiener-Prozesses in Python Das Ergebnis Im Vergleich dazu: Excel Stochastische Differentialgleichungen Einführung in die Grundlagen der Differentialgleichungen Numerische Lösung Euler-Approximation Milstein-Approximation Der direkte Vergleich Anwendung in der Finanzwissenschaft 23 6 Schluss 25 i

3 Abbildungsverzeichnis 3.1 Verschiedene Pfade eines Wiener-Prozesses Verschiedene Pfade des Wiener-Prozesses in Excel Der Vergleich der Euler- und Milstein-Entwürfe mit a(x ti ) =.1X ti und b(x ti ) = 2X ti wobei t [, 1] und X = ii

4 Kapitel 1 Einleitung Vor rund 1 Jahren ist Samuel Smiles zu der Erkenntnis gekommen:...hätten nicht die Mathematiker sich so lange und (...) scheinbar so unnütz mit den abstrakten Beziehungen von Linien zu Flächen abgemüht, so würden wahrscheinlich nur wenige unserer mechanischen Erfindungen das Licht der Welt erblickt haben. In der heutigen Zeit hat der Bereich der Finanzmathematik mehr an Bedeutung gewonnen, natürlich u.a. durch die vielgelobte Black/Scholes-Formel. Doch was steckt eigentlich dahinter? Die Antwort lautet: Das Gebiet der stochastischen Differentialgleichung. Diese Studienarbeit bezieht sich nur auf einen kleinen Teil dieses komplexen Bereiches. In der Wahrscheinlichkeitsrechnung treffen wir mittels stochastischer Modelle Vorhersagen über zukünftige Entwicklungen. Meine Aufgabe war es, stochastische Prozesse zu simulieren und speziell mögliche Kursverläufe mit Hilfe der Euler- und der Milstein-Approximation darzustellen. Diese Arbeit beginnt mit der grundlegenden Definition eines stochastischen Prozesses. Im darauffolgendem Abschnitt wird speziell der Wiener-Prozess und seine graphische Darstellung betrachtet. Im darauffolgendem Abschnitt werden die Euler- und Milstein-Approximationen eingeführt. Beendet wird diese Arbeit mit einem kurzen Einblick in die Finanzwelt, um die Anwendung der Approximation zu zeigen. 1

5 Kapitel 2 Ein spezieller zeitstetiger Prozess: Der Wiener Prozess Die Grundvoraussetzung für eine stochastische Differentialgleichung ist ein stochastischer Prozess mit stetigem Zeitparameter, das bedeutet, dass der Zeitparameter T entweder T = R + = [, ) oder das Intervall T = [, T ] ist, wobei T den endlichen Zeithorizont angibt. Einer der wichtigsten Prozesse dieser Art ist der Wiener Prozess, der auch unter dem Namen Standard Brownsche Bewegung bekannt ist. Die Brownsche Bewegung ist nach dem schottischen Botaniker Robert Brown (1773 bis 1858) benannt beobachtete er bei Untersuchungen von Pollenkörner unter dem Lichtmikroskop eine Zick-Zack-Bewegung. Weitere Experimente mit Staubkörner und kleinen Metallsplittern führten zu dem Ergebnis, dass die Teilchen sich umso heftiger bewegten, je kleiner und damit leichter sie waren. Das heißt, die Geschwindigkeit der Teilchen ist umso größer, je weniger Masse sie haben. Diese Erkenntnis war wichtig für die Physik, da sie die Idee des Atomismus stützte. Die Brownsche Bewegung wurde erstmal 195 von Albert Einstein (1879 bis 1955) in seinem Aufsatz Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen formuliert. Er beschreibt die Brownsche Bewegung als Folge unregelmäßiger Stöße, der sich ständig bewegenden Atome und Moleküle. Diese, erst unter dem Mikroskop sichtbaren, Teilchen, werden von den viel kleineren Molekülen der Flüssigkeit bzw. des Gases angestoßen, sozusagen herumgeschubst. Anzahl, Stärke und Richtung der stoßenden Moleküle ändert sich, so dass die beobachtete zufällige Zick-Zack-Bewegung ensteht. Ebenfalls 195 schlug Louis Bachelier (187 bis 1946) in seiner Dissertation die Brownsche Bewegung als Modell für Aktienkurse vor. Weder die Börsenmärkte noch die Mathematik waren dieser Idee gewachsen formulierten Norbert Wiener (1894 bis 1964) und Paul Pierre Levy (1886 bis 1971) die erste mathematische Definition. 2

6 2.1 Stochastischer Prozess Definition 1 Der stochastische Prozess X ist eine Familie von Zufallsgrößen X = {X t : t T } = {X t (ω) : t T, ω Ω} (2.1) über den gemeinsamen Wahrscheinlichkeitsraum (Ω, A, P ). Dabei ist T = [a, b] oder T = [a, b) oder T = [a, ) meist ein Zeitintervall. X ist ein Prozess mit stetigem Zeitparameter. Beispiel 1 Ein zufälliger Prozess X = {X t : t T } heißt Gaußscher Prozess, wenn alle endlich dimensionalen Verteilungen Gaußsch sind, d.h. mehrdimensionale Normalverteilungen. Ein n-dimensionaler Gaußvektor Y = (Y 1, Y 2,..., Y n ) T hat die Dichte: f Y ( x) = 1 exp{ 1 (2π) 1 2 (detσ) ( x µ)t Σ 1 ( x µ)} (2.2) mit x = (x 1, x 2,..., x n ) T µ = (µ 1, µ 2,..., µ n ) T Σ = {σ ij } i,j=1,2,...,n mit detσ. Dabei ist µ = EY = (EY 1, EY 2,..., EY n ) T der Mittelwertvektor und Σ die Kovarianzmatrix, mit σ ij = E(Y i µ i )(Y j µ j ) für i, j = 1, 2,..., n wobei für i = 1, 2,..., n. Somit gilt Y N(µ, Σ). σ ii = V ar(y i ) = D 2 Y i Satz 1 Der Gaußprozess X = {X t : t T } besteht aus unabhängigen, identisch N(, 1)- verteilten Zufallsgröße X t, also X t und X s sind unabhängig, wenn t s. Dann gilt: EX t = und Σ X (t, s) = { 1 für s = t für s t (2.3) 2.2 Der Wiener Prozess... oder die Standard Brownsche Bewegung Definition 2 Ein stochastischer Prozess (W t ) t [, ) (auch: (W (t)) t [, ) oder (W (t)) t ) auf einem Wahrscheinlichkeitsraum (Ω, A, P ) heißt Wiener-Prozess oder Standard Brownsche Bewegung, falls gilt: 1. W = (mit Wahrscheinlichkeit 1) 2. für s < t ist W t W s normalverteilt mit dem Erwartungswert und der Varianz t s 3

7 3. für t < t 1 < t 2 <... < t n sind die Zuwächse W ti W ti 1 mit i = 1, 2,..., n stochastisch unabhängig 4. die Pfade t W t sind stetig. Ein Ziel dieser Arbeit ist es, die Pfade eines Wiener-Prozesses zu simulieren. Doch vorher erläutern wir einige Eigenschaften dieses Prozesses: W t hat homogene identisch verteilte Zuwächse, d.h. W t W s = d W t+h W s+h Aus Punkt 2. der Definition folgt, dass die Verteilung der Zuwächse W t W s nur von der Differenz t s abhängig ist, nicht von t und s separat. Wir sagen, der Wiener-Prozess habe homogene Zuwächse. So sind z.b. die Verteilungen von W 5 W 4, W 4 W 3, W 3 W 2, W 2 W 1, W 1 W = W 1 alle gleich, nämlich standardnormalverteilt. Mit < t 1 < t 2 <... < t n gilt: sind unabhängige Zufallsgrößen. W t1 W, W t2 W t1,..., W tn W tn 1 Die Zuwächse W t W s sind normalverteilt. Es gilt W t W s = d wg.2. W t s W = wg.3. W t s N(, t s) d.h. W t W s und W t s haben dieselbe Verteilung, aber die Realisierungen können verschieden sein: W t W s W t s. Für alle t > gilt: W t N(, t), der Wiener-Prozess ist ein Gaußprozess. Die Erwartungswertfunktion lautet: µ t = für t. Die Varianzfunktion lautet: σ 2 t = t für t. Die Kovarianzfunktion lautet für t > s : γ(t, s)= E(W t W s ) = E((W t W s )W s ) + E(W s W s ) = + s = s. Also allgemein bedeutet: γ(t, s) = min{t, s} W t ist stochastisch stetig: W s P s t W t P ( W t W s > ɛ) t s für alle ɛ > W t ist quadratmittelstetig, d.h.: E( W t W s 2 ) t s Aus W s L W t folgt die stochastische Konvergenz. 4

8 W t ist nirgends differenzierbar 1 Die n-dimensionalen Randverteilungen des Wiener-Prozesses, d.h. die gemeinsame Verteilung von W t1, W t 2,..., W tn, haben eine interessante Eigenschaft, die wir als Selbstähnlichkeit in Verteilung bezeichnen. Für T > gilt: ( T W t1, T W t2,..., T W tn ) und (W T t1, W T t2,..., W T tn ) (2.4) haben die gleiche Verteilung. Skalieren wir die Zeitachse mit dem Faktor T, so ändert sich entsprechend die gemeinsame Verteilung. Die Selbstähnlichkeit bezieht sich die Verteilung und nicht auf die Zufallsvariablen bzw. die Pfade. 1 vgl. dazu das Skript Stochastik der Finanzmärkte Seite 49f und die Mitschriften zur Vorlesung Stochastische Differentialgleichung 5

9 Kapitel 3 Simulation eines Wiener-Prozess Wir werden zeigen, wie einzelne Pfade t W t des Wiener-Prozesses für t [, T ] simuliert werden. 3.1 Donskers Invarianzprinzip Es sei (ɛ i ) i N eine Folge von unabhängigen standardnormalverteilten Zufallsvariablen (ein reiner Gaußscher Standardzufallsprozess). Daraus folgt der zeitstetige Prozess S n (t) für t T und n N: S n (t) = T n i j=1 ɛ j falls t = T i n lineare Interpolation sonst mit i =,..., n (3.1) Für jedes n hat der stochastische Prozess (S n (t)) t [,T ] folgende Eigenschaften: 1. S n () = mit Wahrscheinlichkeit 1 2. Für t = k n T und s = r nt mit r < k ist S n ( k n T ) Sn ( r n T ) normalverteilt mit dem Erwartungswert und der Varianz t s 3. Für < i 1 < i 2 <... < i m sind die Differenzen stochastisch unabhängig verteilt. 4. Die Pfade t S n (t) sind stetig. S n ( i 2 n T ) Sn ( i 1 n T ),..., Sn ( i m n T ) Sn ( i m 1 n T ) 6

10 Der Prozess (S n (t)) t [,T ] schaut so ähnlich aus wie der Wiener-Prozess (W t ) t [,T ]. Satz 2 Donskers Invariaionsprinzip Der Prozess (S n (t)) t [,T ] konvergiert in Verteilung gegen den Wiener-Prozess (W t ) t [,T ] Es gilt: Die Folge S n konvergiert gegen die korrespondierende Folge W t : P (S n (t 1 ) x 1, S n (t 2 ) x 2,..., S n (t m ) x m ) P (W t1 x 1, W t2 x 2,..., W tm x m ) (3.2) wobei t i [, T ], x i R, i = 1, 2,..., m und m 1. Beweis. Die Beweisidee ist im Mikosch auf den Seiten 45f. nachzulesen. 3.2 Programmierung des Python-Programms In dieser Arbeit werden die Simulationen mit Hilfe des Programms Python 1 erzeugt. Python hat nichts mit den gefährlichen Reptilien zu tun. Der Name kommt von Monty Python s Flying Circus der erfolgreichen britischen Comedy Truppe. Manche behaupten, dass Python als Programmiersprache insofern etwas mit einem Reptil zu tun habe, weil sie genauso verführerisch wie eine Schlange sei. Sie ist einfach zu erlernen, kraftvoll wie Java, aber nicht so kompliziert. Mich hat sie verführt, diese Programmieraufgaben mit ihr zu lösen. Ich habe mich für die Programmiersprache Python und nicht für die Sprache Pascal entschieden, da Python im Vergleich zu Pascal handlicher ist. Z.B. besitzt Python ein Stochastik-Paket mit dem wir u.a. (Standard-)Normalverteilte Zufallszahlen erzeugen können mit nur einem Befehl. Im Gegensatz dazu brauchen wir in Pascal dafür eine Prozedur, die erst Zufallszahlen in Normalverteilte Zufallszahlen umwandelt 2. Python erlaubt es, sich mehr auf das Wesentliche zu konzentrieren und unterstützt im Gegensatz zu Pascal moderne Programmierkonzepte wie die Objektorientiertheit. Python ist eine sogenannte objektorientierte Skriptsprache, die neben Perl und Tcl mehr Verwendung findet. Python ist als einbettbare Sprache für die Integration von Softwarekomponenten entstanden. Eingesetzt wird Python zum Bespiel bei Office-Paketen. Python ist eine minimalistische Sprache. Der Schöpfer von Python, Guido van Rossum, hat sich beim Design von Python auf Weniges beschränkt und vertraut auf die Erweiterbarkeit der Sprache, d.h. er akkumulierte keine Features, sondern konzentrierte sich auf wenige Prinzipien: 3 1 vgl. 2 vgl. Peter E.Kloeden Numerical Solution of SDE Through Computer Experiments ab Seite 5 3 vgl. dazu die Ausgabe November 1999 der Zeitschrift IX -Magazin für professionelle Informationstechnik 7

11 Sparsamkeit durch Orthogonalität: Es gibt nur eine begrenzte Zahl von - leistungsfähigen und kombinierbaren - Konstrukten, Grunddatentypen und Standardfunktionen. Abgestufte Strukturierungsmittel: Auf mehreren Ebenen stukturierbar durch Module, Klassen und Funktionen. Programmkomponenten: dynamische Datenobjekte. Die strukturellen Einheiten von Programmen sind selbst solche Objekte. Sie lassen sich inspizieren, manipulieren, zur Laufzeit erzeugen und generell wie andere Daten handhaben. Konsistente Erweiterbarkeit: Werkzeuge für spezielle Anwendungsgebiete sind nicht fest in die Sprache integiert, sondern Erweiterungsmodule realisieren sie; wobei die vorhandenen Konstrukte und Standardfunktionen auf neue Objektklassen übertragbar sind. Die Sparsamkeit der Ausstattung und die abgestufte Struktur machen Python zu einem akzeptablen Werkzeug. Unter folgenden Plattformen kann Python verwendet werden: Unix, Win, Mac, OS/2, BeOS, Amiga et cetera. 3.3 Programm eines Wiener-Prozesses in Python Hier das Python-Programm zur Simulation eines Wiener-Prozesses mit Hilfe des Donskers Invarianzprinzip. Zu Anfang werden die verschiedenen Module aufgerufen. import random import math import Gnuplot Das Paket Gnuplot wird für die graphische Darstellung im Koordinatensystem benötigt. Die Anzahl der Realisationen wird eingegeben. Diese Zahl sollte möglichst groß sein. zahl = input("gib eine Zahl ein: ") Wenn wir das Programm starten, wird gefragt, wieviele Realisierungen wir simulieren möchten. Ein Koordinatensystem wird erzeugt, dass bis jetzt noch ohne Inhalt ist. Das k und das n wird später in den For-schleifen benötigt. g = Gnuplot.Gnuplot(debug=1) g.clear() k=zahl+1 n=zahl+1. 8

12 Es werden Felder erzeugt, die in erster Linie wie Vektoren aufgebaut sind. Der Vektor epsilon ist zuerst leer und wird dann in der For-schleife mit Standard-Normalverteilten Zufallszahlen gefüllt. Gleichzeitig wird auch der Vektor Wienerprozess erzeugt. Mit Hilfe des Donskers Invarianzprinzip 4 werden die einzelnen Realisierungen berechnet. 4 vgl. dazu Kapitel 3.1 auf Seite 6 9

13 epsilon=[] wienerprozess=[] for i in range(,k): epsilon.append(random.gauss(.,1.)) sum= for j in range(,i): sum=sum+epsilon[j] l=math.sqrt(n) wienerprozess.append(sum/l) Und das war es eigentlich schon. Mit dem print wienerprozess Befehl könnten die Daten ausgegeben werden. Doch mich interessierte mehr die graphische Darstellung. wert=[] Daten=[] for i in range(,k): j=i/n wert.append(j) wert.append(wienerprozess[i]) Daten.append(wert) wert=[] g( set data style linespoints ) g.plot(daten) g.title( Wiener Prozess ) g.xlabel( Zeit ) g.ylabel( Kurs ) g.replot() g.hardcopy( gp_wp.ps, enhanced=1, color=1) raw_input( Please press return to continue...\n ) Das Programm wird gestartet: Wir geben die Anzahl der Realisierung ein und erhalten als Output ein Koordinatenssystem. Auf der -Achse ist die Zeit abgetragen. Auf der Y-Achse sind die Realisierungen des Wiener-Prozesses. Beachte, dass die Annahmen t [, 1] getroffen wurde Das Ergebnis Den Wiener-Prozess mit verschiedenen Realisierungen finden Sie in der Abbildung 3.1 auf Seite 11. 1

14 Wiener Prozess Zeit Abbildung 3.1: Verschiedene Pfade eines Wiener-Prozesses Kurs 11

15 3.4 Im Vergleich dazu: Excel 1. Wir wählen n 5 sehr groß und berechnen 6 i n für i =, 1, 2,..., n: In das Feld A1 kommt der Wert. In das Feld A2 schreiben wir =1/1, in das Feld A3 =2/1. Wir markieren diese drei Felder und ziehen das Feld an der rechten unteren Ecke bis zum Feld A11 herunter. 2. Wir erzeugen die Realisierungen von ɛ 1, ɛ 2,..., ɛ n : In das Feld B2 schreiben wir den Befehl =norminv(zufallszahl();;1). Es wird eine Standardnormalverteilte Zufallszahl erzeugt. Um 1 Standardnormalverteilte Zufallszahlen zu erhalten, markieren wir B2 und ziehen das Feld bis B11 herunter. 3. Berechnet wird i j=1 ɛ j für i = 1, 2,..., n: In das Feld C2 schreiben wirn =B2. In das Feld C3 schreiben wir =B3+C2. Diesen Befehl vervielfältigen wir wieder bis zum Feld C Wir können die Realisierungen des Wiener-Prozesses mit Hilfe der Formel 7 W ( i n ) = 1 n i ɛ j für i = 1, 2,..., n j=1. W () =, d.h. in das Feld D1 schreiben wir den Anfangswert In das FeldD2 kommt der Befehl =wurzel(1/1)*c2. Auch dieser Befehl wird durch herunterziehen bis D Die graphische Darstellung: 8 Über den Befehl Diagramme in der Menüleiste können wir ein x,y-koordinatensystem zeichnen lassen. Die x-werte stehen in diesem Beispiel in der Spalte A und die y-werte in der Spalte D. Verschiedene Pfade des Wiener-Prozesses wie Excel sie erzeugt, finden wir in der Abbildung 3.2 auf der Seite hier sei n = 1 6 auch hier gilt die Annahme, dass mein Betrachtungszeitraum ein [, 1] Intervall ist, das heißt t [, 1] 7 vgl. Kapitel 3.1 auf der Seite 6 8 die lineare Interpolation macht Excel automatisch 12

16 1,5 -,5-1 -1,5-2 -2,5 Der Wienerprozess,2,4,6,8 1 1,2 Zeit Abbildung 3.2: Verschiedene Pfade des Wiener-Prozesses in Excel Realiesierungen 13

17 Kapitel 4 Stochastische Differentialgleichungen 4.1 Einführung in die Grundlagen der Differentialgleichungen Die grundlegende Idee der gewöhnlichen Differentialgleichung ist die folgende funktionale Beziehung: f(t, x(t), x (t), x (t),..., x n (t)) =, mit t T (4.1) wobei t die Zeit ist und x(t) eine unbekannte Funktion ist. Das Ziel ist die Funktion x(t) zu finden, die (4.1) erfüllt. Diese Funktion nennen wir Lösung der Differentialgleichung (4.1) n ter Ordnung. Die Lösung ist eindeutig, wenn eine Startlösung x() = x gegeben ist. Die einfachste Differentialgleichung ist die der 1. Ordnung, d.h. wir benötigen t, x(t) und die erste Ableitung x (t), so dass die Differentialgleichung die Form: x (t) = dx(t) dt hat, wobei a(t, x(t)) eine Funktion ist. Standardmäßig schreibt wir (4.2) folgendermaßen um: = a(t, x(t)), mit x() = x (4.2) dx(t) = a(t, x(t))dt, mit x() = x (4.3) Der einfachste Weg, den Zufall in die Gleichung (4.3) einzuführen, ist es, im Ausgangszustand mit Zufallsvariablen zu arbeiten. Die Lösung x(t) wird durch einen stochastischen Prozess (X t, t [, T ]) ersetzt: dx t = a(t, X t )dt, mit X (ω) = Y (ω) (4.4) Solch eine Gleichung wird stochastische Differentialgleichung genannt. Diese stochastischen Differentialgleichungen können auch als Differentialgleichung mit einem gestörten Ausgangszustand aufgefaßt werden. Wir führen einen zusätzlichen Zufallsterm ein: dx t = a(t, X t )dt + b(t, X t )dw t, mit X (ω) = Y (ω) (4.5) 14

18 wobei W = (W t, t ) der Wiener-Prozess und a(t, x) und b(t, x) deterministische Funktionen sind. Die Lösung X, wenn sie existiert, ist ein stochastischer Prozess. Die Gleichung (4.5) können wir anders interpretieren: t t X t = X + a(s, X s )ds + b(s, X s )dw s, mit t T (4.6) }{{}}{{} Riemann-Integral Ito-stochastisches Integral Den Term (4.6) können wir mit Hilfe des Ito-Lemma und dem Lemma von Stratonovich lösen Numerische Lösung Stochastische Differentialgleichungen mit einer expliziten Lösung sind allgemein die Ausnahme. Daher brauchen wir numerische Approximationsverfahren zur Lösung stochastischer Differentialgleichungen. Solche Approximationstechniken werden numerische Lösungen genannt. Solche numerischen Lösungsverfahren werden aus verschiedenen Gründen gebraucht: Sie zeigen einen einfachen Weg, die Lösung zu bekommen. Mit Hilfe von diesen numerischen Verfahren können wir eine Art Vorhersage von stochastischen Prozessen machen. Zu beachten sollte aber sein, dass wir diese möglichen Lösungen mit Vorsicht behandeln. Wir erhalten eine vernünftige Approximation an die Verteilung des stochastischen Prozesses, so dass wir den Erwartungswert, die Varianz und andere Momente höherer Ordnung berechnen können. Numerische Lösungen erlauben uns, verschiedene Pfade zu simulieren. Um also solche Pfade dazustellen beschränken wir unsere numerische Lösung auf das folgende stochastische Differential: dx t = a(x t )dt + b(x t )dw t, mit t [, T ] (4.7) wobei W t ein Wiener-Prozess und die Funktionen a(x) und b(x) Lipschitz stetig sind. (Eine Funktion f : [p, q] [p, q] heißt Lipschitz stetig, wenn eine Konstante r R existiert, so daß für alle Paare x, y [p, q] folgendes gilt: f(x) f(y) < r x y ). Es wurde die Annahme EX 2 < getroffen, um die Existenz und Eindeutigkeit der Lösung zu garantieren Euler-Approximation Für die Anwendung ist es interessant eine kleine Änderung X t+h X t des Prozesses zu betrachten. Meistens steht X t für den Kurs eines Wertpapiers zum Zeitpunkt t (vgl. Kapitel 5 auf Seite 23). X t+h X t a(t, X t ) h + b(t, X t ) (W t+h W t ) (4.8) 1 vgl. dazu die Abschnitte 3.2 und 3.3 im Mikosch 15

19 bedeutet 2, dass der Zuwachs X t+h X t in dem kleinen Zeitintervall [t, t + h] zwei Ursachen hat, nämlich die durch a(t, X t ) h gegebene sogenannte Driftkomponente des Prozesses, die die Richtung und Stärke der Veränderung bestimmt, und eine durch b(t, X t ) (W t+h W t ) gegebene Fluktuationskomponente, die etwas über die Stärke der zufälligen Veränderung aussagt. Wir unterteilen das Intervall [, 1]: τ n : = t < t 1 < t 2... < t n 1 < t n = 1 um den Term (4.8) zu charakterisieren. Dabei bezeichne δ n = max (t i ) i=1,...,n die Feinheit der Einteilung. Wir wählen n groß und setzen h = h (n) = 1 n, sowie t i = i h = i 1 n. Wir wissen bereits aus Abschnitt 3.1, auf Seite 6, wie wir die Werte W t des Wiener-Prozesses (W t ) t [,1] zu den Zeitpunkten t i für i = 1, 2,..., n simulieren können. Das Eulerschema ist wie folgt gegeben: X (n) = X X (n) t 1 = X (n) + a(x (n) )(t 1 t ) + b(x (n) )(W t1 W t ) X (n) t 2 = X (n) t 1 + a(x (n) t 1 )(t 2 t 1 ) + b(x (n) t 1 )(W t2 W t1 ). X (n) t n 1 = X (n) t n 2 + a(x (n) t n 2 )(t n 1 t n 2 ) + b(x (n) t n 2 )(W tn 1 W tn 2 ) X (n) t n = X (n) t n 1 + a(x (n) t n 1 )(t n t n 1 ) + b(x (n) t n 1 )(W tn W tn 1 ) Zwischen den Punkten i 1 n und i n wird linear interpoliert, so dass wir einen annähernd stetigen Pfad t X (n) t für t [, 1] erhalten. Wir können zeigen, dass für n ( und somit h (n) ) die Folge der Euler-Approximationen (X (n) t ) t [,1] in Verteilung gegen die Lösung (X t ) t [,1] konvergiert. Das Programm Wie bereits in Kapitel 3.3 auf der Seite 8 werde ich das Programm der Euler-Approximation in Python vorstellen. Dabei habe ich den obenstehenden Algorithmus mit X = 1, a(x i ) =.1 X i und b(x i ) =.1 X i mit i = 1, 2,..., n verwendet: Der Kopf ist genauso aufgebaut wie bei dem Programm für den Wiener-Prozess: 2 die Formel (4.5) ensteht in gewissem Sinne durch den Grenzübergang h aus der Differenzenfolge (4.8) 16

20 import random import math import Gnuplot zahl = input("gib eine Zahl ein: ") Wie wir in der Approximation gesehen haben, brauchen wir als erstes einen Wiener-Prozess, der genauso erzeugt wird wie in Kapitel 3.3 auf der Seite 8: g = Gnuplot.Gnuplot(debug=1) g.clear() k=zahl+1 n=zahl+1. epsilon=[] wienerprozess=[] for i in range(,k): epsilon.append(random.gauss(.,1.)) sum= for j in range(,i): sum=sum+epsilon[j] l=math.sqrt(n) wienerprozess.append(sum/l) Hier beginnt der eigentliche Approximationsalgorithmus. Den Startwert X setze ich auf 1, a(x i ) =.1 X i und b(x i ) =.1 X i. Die anderen Werte X 1, X 2,... berechne ich in einer For-Schleife: kurs=[1] for i in range(1,k): j=i-1 f=kurs[j]+.1*kurs[j]*((i)/k+(j)/k)+.1*kurs[j]*(wienerprozess[i]-wienerprozess[j]) kurs.append(f) Jetzt nur noch die graphische Ausgabe 3 : wert=[] Daten=[] for i in range(,k): j=i/n wert.append(j) wert.append(kurs[i]) 3 vgl. dazu auch die Abbilgung 4.1 auf der Seite 22 17

21 Daten.append(wert) wert=[] print Daten g( set data style linespoints ) g.plot(daten) g.title( Euler ) g.xlabel( Zeit ) g.ylabel( Kurs ) g.replot() g.hardcopy( gp_test.ps, enhanced=1, color=1) raw_input( Please press return to continue...\n ) Die numerische Lösung x (n) (t) konvergiert fast sicher gegen X(t), da Milstein-Approximation P ( lim n X(n) = X) = 1 Die Euler Approximation kann aber noch verbessert werden. Wir berücksichtigen die stochastische Differentialgleichung (4.6): X t = X + t a(x s )ds + t b(x s )dw s mit t [, T ] Für t i aus der Intervallzerlegung τ n berücksichtigen wir die Differenz X ti X ti 1 und erhalten: ti ti X ti = X + a(x s )ds + b(x s )dw s mit i = 1, 2,..., n (4.9) Die Euler-Approximation basiert auf die Diskretisierung des Integral (4.9), denn: ti a(x s )ds a(x ti 1 )(t i ) Wenn wir X ti mit X (n) t i ti b(x s )dw s b(x ti 1 )(W ti W ti 1 ) ersetzten, erhalten wir: X (n) t i = X (n) + a(x (n) )(t i ) + b(x (n) )(W ti W ti 1 ) mit i = 1, 2,..., n Die Milstein-Approximation benutzt dagegen eine sogenannte Taylor-Ito-Entwicklung. Die Idee ist, wir wenden das Ito-Lemma 4 auf a(x s ) und b(x s ) in der Formel (4.9)an. Um die Gleichung 4 vgl. dazu Mikosch Seite 12 bzw. die Vorlesung Stochastische Differentialgleichung 18

22 übersichtlicher zu gestalten, schreibe ich a, b, a,... für a(x y ), b(x y ), a (X y ),...: X ti X ti 1 = + ti [a(x ti 1 ) + ti s (aa b2 a )dy + s s s ba dw y ]ds [b(x ti 1 ) + (ab b2 b )dy + bb dw y ]dw s = a(x ti 1 )(t i ) + b(x ti 1 )(W ti W ti 1 ) + R i (4.1) wobei das Restglied R i definiert ist mit R i = R (1) i + R (2) i + Das Doppel-stochastische Integral R (1) i Zu zeigen ist: R (1) i ti s [ bb dw y ]dw s + R (2) i ist approximativ folgender Term: b(x ti 1 )b (X ti 1 ti s [ dw y ]dw s t } i 1 {{} =I I = 1 2 ((W t i W ti 1 ) 2 (t i )) Beweis: Wir können leicht zeigen, dass (dw t ) 2 = (W t=dt W t ) 2 = dt Daraus folgt: ti (dw s ) 2 = t i ds = (t i ) Berücksichtigen wir das Doppel-Integral: (W ti W ti 1 ) 2 = (W ti W ti 1 )(W ti W ti 1 ) = ( t i (dw s ))( t i (dw y )) ( t i (dw s ))( t i (dw y )) = ( t i ( t i dw y )dw s ) und das ist wieder: ( t i ( s dw y )dw s ) + ( t i ( t i s = 2 ( ti s ( dw y )dw s ) +(t i ) } {{ } vgl. mit I Daraus folgt: I = 1 2 ((W t i W ti 1 ) 2 (t i )) dw y)dw s ) + t i (dw s ) 2 = Das heisst: R (1) i 1 2 b(x )b (X ti 1 ((W ti W ti 1 ) 2 (t i )) Unter milden Annahmen für die Funktionen a(x) und b(x) können wir zeigen, dass R (2) i Vergleich zu R (2) i sehr klein ist. Mit Hilfe der Formel (4.9) definieren wir die Milstein-Approximation: im 19

23 Definition 3 Für X o (n) = X und für i = 1, 2,..., n gilt: X (n) t i = X (n) +a(x (n) )(t i )+b(x (n) )(W ti W ti 1 )+ 1 2 b(x )b (X ti 1 ((W ti W ti 1 ) 2 (t i )) Zur Qualität der numerischen Lösung sagen wir: Die Milstein Approximation konvergiert stark mit der Ordnung 1. Das Programm (4.11) Das Programm in Python sieht fast genauso au wie das Programm zur Euler-Approximation, nur die For-Schleife hat sich im Vergleich zu 11 auf der Seite 16 geändert. Hier das klomplette Programm: #!/usr/bin/python import random import math import Gnuplot zahl = input("gib eine Zahl ein: ") k=zahl+1 n=zahl+1. g = Gnuplot.Gnuplot(debug=1) g.clear() epsilon=[] wienerprozess=[] for i in range(,k): epsilon.append(random.gauss(.,1.)) sum= for j in range(,i): sum=sum+epsilon[j] l=math.sqrt(n) wienerprozess.append(sum/l) kurs=[1] for i in range(1,k): j=i-1 f=kurs[j]+.1*kurs[j]*((i)/k-(j)/k)+.1*kurs[j]* (wienerprozess[i]-wienerprozess[j])+.5*.1*kurs[j]*.1* ((wienerprozess[i]-wienerprozess[j])**2-((i)/k-(j)/k)) kurs.append(f) Zu beachten sollte hier sein, dass ich aus Form-Gründen die Gleichung f =... nicht auf eine Zeile bringen konnte. 2

24 wert=[] Daten=[] for i in range(,k): j=i/n wert.append(j) wert.append(kurs[i]) Daten.append(wert) wert=[] g( set data style linespoints ) g.plot(daten) g.title( Milstein Approximation ) g.xlabel( Zeit ) g.ylabel( Kurs ) g.replot() g.hardcopy( gp_milstein.ps, enhanced=1, color=1) raw_input( Please press return to continue...\n ) 21

25 4.2.3 Der direkte Vergleich Kurs Milstein und Euler Approximation Milstein Euler Zeit Abbildung 4.1: Der Vergleich der Euler- und Milstein-Entwürfe mit a(x ti ) =.1X ti b(x ti ) = 2X ti wobei t [, 1] und X = 1 und Wir sehen, dass besonders im letzten Drittel der Datensatz, der mit der Euler-Approximation berechent wurde, keine größeren Ausschläge mehr aufweist, als der Datensatz, der mit der Milstein-Approximation berechnet wurde. Der Grund dafür ist, dass die Milstein-Approximation, dass Ito-Lemma berücksichtig. Eine mögliche Verbesserung der Milstein-Approximation kann erreicht werden, wenn ich das Ito-Lemma auf den Integranten im Term R i anwende. Die Form der nurmerischen Lösung wird so immer mehr komplizierter. 22

26 Kapitel 5 Anwendung in der Finanzwissenschaft Seit dem berühmten Paper von Black und Scholes (1973) sowie Merton (1973) wurde es immer moderner, stochastische Rechnungen in die Finanzwelt einzusetzen, um Preise von riskanten Anleihen zu modellieren. Das führte zu einer neuen Branche der angewandten Wahrscheinlichkeitstheorie, dem Gebiet der Finanz-Mathematik. Ich möchte hier nur einen kurzen Exkurs in die Finanzwelt machen. 1 Angenommen der Preis X t einer riskanten Anleihe (eine sogenannte Aktie) zur Zeit t sei durch einen Wiener-Prozess in folgender Form gegeben: X t = f(t, W t ) = X e (c.5σ2 )t+σw t (5.1) wobei W = (W t, t ) der Wiener-Prozess ist. Zusätzlich sollte noch vorausgesetzt sein, dass X unabhängig von W ist. Diese Voraussetzung braucht man, da X die eindeutige starke Lösung der linearen stochastischen Differential Gleichung ist: Daraus folgt: X t = X + c t X s ds + σ t dx t = cx t dt + σx t dw t Wenn man die Erkenntnisse aus Formel (4.8) anwendet, erhält man: Das ist äquivalent zu: X t dt X t = cx t dt + σx t dw t X s dw s (5.2) X t+dt X t = cdt + σdw X }{{ t }{{} t } beschreibt lin.trend, der durch den Zufall gestört wird relative Rendite der Aktie Die Konstante c > ist die sogenannte Mittere Nettorendite und σ > die Volatilität, dabei ist σ ein Maß für das Risiko der Anleihe. Betrachten wir folgende zwei Fälle: 1 Eine ausführliche Einführung in die Optionswelt kann man im Mikosch (Kapitel 4) nachlesen 23

27 σ = : Der Term (5.2) ist eine deterministische Differential Gleichung, welche die wohlbekannte Lösung X t + X o exp{ct} hat. σ > : Man erhält die Zufallsgestörte Exponential Funktion (5.1) Angenommen man hat eine risikolose Anleihe, einen sogenannten Bond. β t = β e rt wobei β mein Anfangskapital und r > der konstante Zinssatz 2 ist. Beachte, dass β foldender deterministischen Integralgleichung genügt: I β t = β = r tβ s ds (5.3) Im allgemeinen hält man eine bestimmte Menge an Anleihen: a t beschreibt die Anzahl der Aktien und b t die Anzahl der Bonds. Sie bilden das Portfolio. Das Vermögen V t (oder Wert des Portfolio) zur Zeit t ist gegeben durch: V t = a t X t + b t β t Wenn man annimmt, dass das Vermögen V t nur von Preisen für die Aktien X t und für die Bonds β t abhängen, kann man den Differential-Term betrachten: dv t = d(a t X t + b t β t ) = a t dx t + b t dβ t Diese Gleichung kann man im Sinne von Ito 3 umschreiben: V t V = t d(a s X s + b s β s ) = t a s dx s + t b s dβ s Ersetzt man dx s mit der Formel (5.2) und dβ s mit der Formel (5.3) erhält man: V t V = t V t = V + = V + [a s (cx s ds + σx s dw s ) + b s (rβ s ds)] t t [a s (cx s ds + σx s dw s ) + b s (rβ s ds)] (a s cx s + b s rβ s )ds + t σx s dw s Der Wert des Portfolio V t ist genau gleich dem Anfangswert V plus dem Kapitalgewinn von den Aktien und den Bonds zur Zeit t. 2 Diese Annahme kann so getroffen, obwohl die EZB den Zinssatz ändern kann, aber sie tut dies meistens nur aus volkswirtschaftlichen Gründen 3 vgl. die Vorlesung Stochastische Dgl. 24

28 Kapitel 6 Schluss Wie in der Einleitung bereits erwähnt, bezog sich meine Studienarbeit auf einen bestimmten Teil der Stochastischen Differential Gleichung. Meine Hauptaufgabe war die Simulation eines Aktienkurses mit Hilfe der Euler- und Milstein-Approximation. Begonnen habe ich mit der Darstellung eines Wiener-Prozesses, da der Wiener-Prozess die Grundvoraussetzung der beiden Approximationen ist. Doch auch der sogenannte Ornstein-Uhlenbeck-Prozess ist sehr interessant für den Bereich der Stochastischen Differential Gleichung, das heißt hier würde auch weiteres Potential für eine Arbeit liegen. Für mich war es auch eine Herausforderung, mich in eine neue Skriptsprache einzuarbeiten. Doch Python hat es mir leicht gemacht. Im Vergleich zu Pascal ist es viel umgänglicher und leichter zu handhaben. Das zeigt aber auch, dass die Simulation von Aktienkursen gar nicht so schwierig ist. Wir brauchen nur eine Programmier- bzw. Skript-Sprache die Standardnormalverteilte Zufallszahlen ohne größeren Aufwand erzeugt. Wir könnten zusätzlich noch eine graphische Oberfläche programmieren, mit der wir die Programme noch erweitern können. 25

29 Literaturverzeichnis [1] T. Mikosch: Elementary Sochastic Calculus with Finance in View, 1998, World Scientific, Singapur [2] P.E. Kloeden, E. Platen, H. Schurz: Numerical Solution of SDE Through Computer Experiments, 2. überarbeitete Auflage 1997, Springer Verlag, Heidelberg [3] M. Trede: Skript zur Vorlesung Stochastik der Finanzmärkte, Wintersemester 21/22, Magdeburg [4] G. Christoph: Mitschriften zur Vorlesung Stochastische Differential Gleichung, Wintersemester 21/22, Magdeburg [5] R. Fischbach: Beschränkung aufs Wesentliche, 1999, ix 11/1999, S. 184ff [6] R. Fischbach: Schwierige Abgrenzung, 1999, ix 12/1999, S. 6ff [7] [8] [9] 26

Das Black-Scholes Modell

Das Black-Scholes Modell Vathani Arumugathas Das Black-Scholes Modell 1 Das Black-Scholes Modell Vathani Arumugathas Seminar zu Finanzmarktmodellen in der Lebensversicherung, Universität zu Köln 10. Juni 016 Inhaltsverzeichnis

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Simulation stochastischer Prozesse Peter Frentrup Humboldt-Universität zu Berlin 27. November 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 27. November 2017

Mehr

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische

Mehr

Euler-Approximation. Leonie van de Sandt. TU Dortmund Prof. Dr. Christine Müller. 5. Juni 2012

Euler-Approximation. Leonie van de Sandt. TU Dortmund Prof. Dr. Christine Müller. 5. Juni 2012 Euler-Approximation Leonie van de Sandt TU Dortmund Prof. Dr. Christine Müller 5. Juni 2012 Leonie van de Sandt (TU Dortmund) Euler-Approximation 5. Juni 2012 1 / 26 Inhaltsverzeichnis 1 Einleitung Leonie

Mehr

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm Brownsche Bewegung Satz von Donsker Bernd Barth Universität Ulm 31.05.2010 Page 2 Brownsche Bewegung 31.05.2010 Inhalt Einführung Straffheit Konvergenz Konstruktion einer zufälligen Funktion Brownsche

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 9 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 40: Es sei (X t ) t 0 ein

Mehr

Einige parametrische Familien für stochastische Prozesse

Einige parametrische Familien für stochastische Prozesse Einige parametrische Familien für stochastische Prozesse Seminar: Grundlagen der und Statistik von dynamischen Systemen 26. November 2014 Inhaltsverzeichnis 1 Einleitung 2 3 4 5 Einleitung Ziel des Vortrages:

Mehr

Seminarvortrag. Euler-Approximation. Marian Verkely TU Dortmund

Seminarvortrag. Euler-Approximation. Marian Verkely TU Dortmund Seminarvortrag Euler-Approximation Marian Verkely TU Dortmund 03.12.14 1 / 33 Inhaltsverzeichnis 1 Motivation 2 Simulierte Prozesse 3 Euler-Approximation 4 Vasicek-Prozess: Vergleich analytische Lösung

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

Seminar Gewöhnliche Differentialgleichungen

Seminar Gewöhnliche Differentialgleichungen Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden

Mehr

Diffusionsprozesse und lineare stochastische DGL

Diffusionsprozesse und lineare stochastische DGL Diffusionsprozesse und lineare stochastische DGL Michele Bieber TU Dortmund - Fakultät Statistik 15. Mai 2012 Inhaltsverzeichnis 1 Einleitung 2 Diffusionsprozesse Stochastische DGL eines Diffusionsprozesses

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Kapitel 8 Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Wir hatten im Beispiel 5. gesehen, dass die Wärmeleitungsgleichung t u u = f auf Ω (0, ) (8.1) eine parabolische Differentialgleichung

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr

1 Einführung, Terminologie und Einteilung

1 Einführung, Terminologie und Einteilung Zusammenfassung Kapitel V: Differentialgleichungen 1 Einführung, Terminologie und Einteilung Eine gewöhnliche Differentialgleichungen ist eine Bestimmungsgleichung um eine Funktion u(t) einer unabhängigen

Mehr

Charakteristische Funktionen

Charakteristische Funktionen Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die

Mehr

Strukturerhaltende Integrationsverfahren für stochastische Differentialgleichungen in der Modellierung von Zinsderivaten

Strukturerhaltende Integrationsverfahren für stochastische Differentialgleichungen in der Modellierung von Zinsderivaten Strukturerhaltende Integrationsverfahren für stochastische Differentialgleichungen in der Modellierung von Zinsderivaten Michael Günther, Christian Kahl und Thilo Roßberg Bergische Universität Wuppertal

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban

Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban Lösungsvorschlag studienbegleitende Klausur Finanzmathematik I Aufgabe (7 Punkte) Vorgelegt sei ein Wahrscheinlichkeitsraum (Ω, F, P) und

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik

Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik Univ. Leipzig Mathematisches Institut Vertretung Professur Stochastische Prozesse Max v. Renesse email: mrenesse@math.tu-berlin.de Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

8 Verteilungsfunktionen und Dichten

8 Verteilungsfunktionen und Dichten 8 Verteilungsfunktionen und Dichten 8.1 Satz und Definition (Dichten) Eine Funktion f : R R heißt Dichtefunktion, kurz Dichte, wenn sie (Riemann-) integrierbar ist mit f(t) 0 für alle t R und Setzt man

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Gaußsche Felder und Simulation

Gaußsche Felder und Simulation 3 2 data_2d_1.dat data_2d_2.dat data_2d_64.dat data_2d_128.dat 1-1 -2-3 1 2 3 4 5 6 7 Gaußsche Felder und Simulation Benedikt Jahn, Aaron Spettl 4. November 28 Institut für Stochastik, Seminar Zufällige

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 1. Dezember 21 1 Integralrechnung Flächeninhalt Stammfunktion Rechenregeln 2 Dichten von Erwartungswert und Varianz

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Dr. Gerhard Mülich Christian Maaß 6.Mai 8 Im letzten Vortrag haben wir gesehen, dass das

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5 4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit

Mehr

1 Verteilungsfunktionen, Zufallsvariable etc.

1 Verteilungsfunktionen, Zufallsvariable etc. 4. Test M3 ET 27 6.6.27 4. Dezember 27 Regelung für den.ten Übungstest:. Wer bei den Professoren Dirschmid, Blümlinger, Vogl oder Langer die UE aus Mathematik 2 gemacht hat, sollte dort die WTH und Statistik

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

TECHNISCHE UNIVERSITÄT BERLIN BACHELORARBEIT. Theorie und Simulation einer zweidimensionalen stochastischen Differentialgleichung.

TECHNISCHE UNIVERSITÄT BERLIN BACHELORARBEIT. Theorie und Simulation einer zweidimensionalen stochastischen Differentialgleichung. TECHNISCHE UNIVERSITÄT BERLIN Fakultät II Institut für Mathematik BACHELORARBEIT im Studiengang Mathematik über das Thema Theorie und Simulation einer zweidimensionalen stochastischen Differentialgleichung

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

- 1 - angeführt. Die Beschleunigung ist die zweite Ableitung des Ortes x nach der Zeit, und das Gesetz lässt sich damit als 2.

- 1 - angeführt. Die Beschleunigung ist die zweite Ableitung des Ortes x nach der Zeit, und das Gesetz lässt sich damit als 2. - 1 - Gewöhnliche Differentialgleichungen Teil I: Überblick Ein großer Teil der Grundgesetze der Phsik ist in Form von Gleichungen formuliert, in denen Ableitungen phsikalischer Größen vorkommen. Als Beispiel

Mehr

Wahrscheinlichkeitstheorie

Wahrscheinlichkeitstheorie Wahrscheinlichkeitstheorie Dr. C.J. Luchsinger 5 n (Konvergenz, LLN) 5.1 Konvergenzarten In der WT gibt es viele Konvergenzarten für Folgen von Zufallsgrössen. Sie haben alle ihre Berechtigung. In der

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Probeklausur zu Funktionentheorie, Lebesguetheorie und gewöhnlichen Differentialgleichungen

Probeklausur zu Funktionentheorie, Lebesguetheorie und gewöhnlichen Differentialgleichungen MATHEMATISCHES INSTITUT SoSe 24 DER UNIVERSITÄT MÜNCHEN Probeklausur zu Funktionentheorie, Lebesguetheorie und gewöhnlichen Differentialgleichungen Musterlösung Prof. Dr. P. Pickl Aufgabe Zeigen Sie, dass

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

12 Gewöhnliche Differentialgleichungen

12 Gewöhnliche Differentialgleichungen 2 2 Gewöhnliche Differentialgleichungen 2. Einleitung Sei f : D R wobei D R 2. Dann nennt man y = f(x, y) (5) eine (gewöhnliche) Differentialgleichung (DGL) erster Ordnung. Als Lösung von (5) akzeptiert

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

Erfolgsgeschichte eines stochastischen Prozesses: Die Brown sche Bewegung

Erfolgsgeschichte eines stochastischen Prozesses: Die Brown sche Bewegung Erfolgsgeschichte eines stochastischen Prozesses: Die Brown sche Bewegung Wolfgang König Weierstraß-Institut Berlin und Technische Universität Berlin W. König Tag der Mathematik 8. Mai 2010 p.1/10 Robert

Mehr

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Statistik Dr. Thomas Zehrt Ausblick Motivation Wir werfen einen Würfel 000-mal und wir möchten die Wahrscheinlichkeit P bestimmen, dass zwischen

Mehr

I.1.3 b. (I.7a) I.1 Grundbegriffe der Newton schen Mechanik 9

I.1.3 b. (I.7a) I.1 Grundbegriffe der Newton schen Mechanik 9 I. Grundbegriffe der Newton schen Mechanik 9 I..3 b Arbeit einer Kraft Wird die Wirkung einer Kraft über ein Zeitintervall oder genauer über die Strecke, welche das mechanische System in diesem Zeitintervall

Mehr

Der Satz von Taylor. Kapitel 7

Der Satz von Taylor. Kapitel 7 Kapitel 7 Der Satz von Taylor Wir haben bereits die Darstellung verschiedener Funktionen, wie der Exponentialfunktion, der Cosinus- oder Sinus-Funktion, durch unendliche Reihen kennen gelernt. In diesem

Mehr

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist: Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche

Mehr

7 Der Satz von Girsanov

7 Der Satz von Girsanov 7 Der Satz von Girsanov Der Satz von Girsanov wird uns eine neue Perspektive auf die Rolle des Drifts liefern. Die Prozesse Brownsche Bewegung B t, Brownsche Bewegung mit Drift X t = B t + µt haben wir

Mehr

1.4 Stichproben aus einer Normalverteilung

1.4 Stichproben aus einer Normalverteilung 1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte

Mehr

Der Weg eines Betrunkenen

Der Weg eines Betrunkenen Der Weg eines Betrunkenen 2 Hätte es damals schon Computer gegeben, wäre es für unseren Mathematiker um einiges leichter gewesen, den Weg des Betrunkenen zu bestimmen. Er hätte nicht nur eine beliebige

Mehr

30 Die Gammafunktion und die Stirlingsche Formel

30 Die Gammafunktion und die Stirlingsche Formel 3 Die Gammafunktion und die Stirlingsche Formel 35 Charakterisierung der Gammafunktion 36 Darstellung der Gammafunktion 38 Beziehung zwischen der Gammafunktion und der Zetafunktion 3 Stirlingsche Formel

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 29 UNIVERSITÄT KARLSRUHE Blatt 6 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 27: Sei X eine R + -wertige

Mehr

Kapitel 10 VERTEILUNGEN

Kapitel 10 VERTEILUNGEN Kapitel 10 VERTEILUNGEN Fassung vom 18. Januar 2001 130 VERTEILUNGEN Zufallsvariable. 10.1 10.1 Zufallsvariable. HäuÞg wird statt des Ergebnisses ω Ω eines Zufalls-Experiments eine zugeordnete Zahl X(ω)

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

Wahrscheinlichkeitsrechnung und stochastische Prozesse

Wahrscheinlichkeitsrechnung und stochastische Prozesse Kapitel 7 Wahrscheinlichkeitsrechnung und stochastische Prozesse Zufallsvariable, Wahrscheinlichkeitsdichte, Markov-Prozess ( Zukunft hängt von der Vergangenheit nur über die Gegenwart ab. 7. Einführung

Mehr

Geometrische Brownsche Bewegung und Brownsche Brücke

Geometrische Brownsche Bewegung und Brownsche Brücke Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen SoSe 2012 Geometrische Brownsche Bewegung und Brownsche Brücke Korinna Griesing 10. April 2012 Dozentin: Prof. Dr. Christine Müller

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

K8 Stetige Zufallsvariablen Theorie und Praxis

K8 Stetige Zufallsvariablen Theorie und Praxis K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R

Mehr

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt. Normalverteilung Diskrete Stetige f(x) = 1 2πσ 2 e 1 2 ((x µ)2 σ 2 ) Gauß 91 / 169 Normalverteilung Diskrete Stetige Satz: f aus (1) ist Dichte. Beweis: 1. f(x) 0 x R und σ > 0. 2. bleibt z.z. lim F(x)

Mehr

Kapitel VII. Einige spezielle stetige Verteilungen

Kapitel VII. Einige spezielle stetige Verteilungen Kapitel VII Einige spezielle stetige Verteilungen D. 7.. (Normalverteilung) Eine stetige Zufallsgröße X sei als normalverteilt bezeichnet, wenn sie folgende Wahrscheinlichkeitsdichte besitzt: µ f ( ; µ,

Mehr

Errata zu Goebbels, Ritter: Mathematik verstehen und anwenden

Errata zu Goebbels, Ritter: Mathematik verstehen und anwenden Errata zu Goebbels, Ritter: Mathematik verstehen und anwenden Stand 20. Februar 203 Wir danken allen Lesern, die uns auf Fehler hingewiesen haben. Seite Position gedruckt korrekt 36 Beispiel.26 = 0,22+

Mehr

Brownsche Bewegung Seminar - Weiche Materie

Brownsche Bewegung Seminar - Weiche Materie Brownsche Bewegung Seminar - Weiche Materie Simon Schnyder 11. Februar 2008 Übersicht Abbildung: 3 Realisationen des Weges eines Brownschen Teilchens mit gl. Startort Struktur des Vortrags Brownsches Teilchen

Mehr

Seite 1. sin 2 x dx. b) Berechnen Sie das Integral. e (t s)2 ds. (Nur Leibniz-Formel) c) Differenzieren Sie die Funktion f(t) = t. d dx ln(x + x3 ) dx

Seite 1. sin 2 x dx. b) Berechnen Sie das Integral. e (t s)2 ds. (Nur Leibniz-Formel) c) Differenzieren Sie die Funktion f(t) = t. d dx ln(x + x3 ) dx Seite Aufgabe : a Berechnen Sie das Integral b Berechnen Sie das Integral +x x+x dx. π sin x dx. c Differenzieren Sie die Funktion ft = t e t s ds. Nur Leibniz-Formel a + x x + x dx = d dx lnx + x dx =

Mehr