Monte-Carlo-Simulation zur Optionsbewertung

Größe: px
Ab Seite anzeigen:

Download "Monte-Carlo-Simulation zur Optionsbewertung"

Transkript

1 Monte-Carlo-Simulation zur Optionsbewertung Fachbereich Mathematik und Informatik der Philipps-Universität Marburg Bachelorthesis zur Erlangung des akademischen Grades Bachelor of Science vorgelegt von Nils Benedikt Kollmar geboren am in Adenau im August 2016 Erstprüfer: Prof. Dr. Dr. Marcus Porembski

2

3 Inhaltsverzeichnis 1 Einleitung und Motivation Einleitung Approximation von π Stochastische und Finanzmathematische Grundlagen Einleitung Optionen Stochastische Grundlagen Wiener Prozess Stochastische Differentialgleichungen und Itō-Lemma Monte-Carlo-Simulation Grundidee Optionspreisbewertung Pseudozufallszahlen Linearer Kongruenzgenerator Weitere Generatoren Standardnormalverteilte Zufallszahlen Invertierung Box-Muller-Algorithmus Polar-Algorithmus Varianzreduktion Antithetic Variates Control Variates Diskretisierungsverfahren Euler-Maruyama-Verfahren Milsteinverfahren Bewertung Asiatischer Optionen mit Monte-Carlo-Simulation Einleitung Bewertung einer arithmetischen Asiatischen Option Varianzreduktion Fazit Zusammenfassende Bewertung und Fazit

4 7.2 Persönliches Schlusswort Appendix: Matlabcodes Simulation von stochastischen Prozessen Zufallszahlen Invertierung Polar-Algorithmus Vergleich der Konfidenzintervalle Vergleich der approximativen Optionswerte der einfachen Monte- Carlo-Simulation mit varianzreduzierten Methoden Vergleich der Kurssimulationen mit dem Euler-Maruyama- Verfahren und mit dem Milstein-Verfahren Bewertung Asiatischer Optionen

5 Abbildungsverzeichnis 2.1 Simulation von drei Wiener Prozessen Simulation von drei Brownschen Bewegungen mit Drift und Volatilität Zerlegung einer Geometrischen Brownschen Bewegung Simulation von drei Geometrischen Brownschen Bewegungen dimensionale Zufallsvektoren mit RANDU I dimensionale Zufallsvektoren mit RANDU II Zufallszahlen mit dem Beasley-Springer-Moro-Algorithmus Zufallszahlen mit dem Polar-Algorithmus Konfidenzintervalle des Standard Monte-Carlo-Schätzers und des Schätzers mit Control Variates Approximative Optionsbewertung mit einfacher Monte-Carlo- Methode und varianzreduzierten Monte-Carlo-Methoden Simulation eines Kurses mit dem Milsteinverfahren und mit dem Euler-Maruyama-Verfahren zu jeweils 3 Pfaden Simulation des Werts einer Asiatischen Option mit varianzreduzierten Schätzern und dem Standard Schätzer

6

7 Verzeichnis der Matlabcodes 1.1 Monte-Carlo-Simulation zur Berechnung von π Simulation der in Kapitel 2 vorgestellten Algorithmen Zerlegung der Geometrischen Brownschen Bewegung Beispiel: RANDU Multiplikativer Kongruenzgenerator Beasley-Springer-Moro-Algorithmus Polar-Algorithmus Vergleich der Konfidenzintervalle mit Control Variate Varianz des Schätzers mit Control Variate Varianz des einfachen Monte-Carlo-Schätzers Approximativ optimales b Monte-Carlo-Simulation zur Optionsbewertung einfach, mit Control Variates und mit Antithetic Variates Monte-Carlo-Simulation zur Optionsbewertung mit Antithetic Variates Monte-Carlo-Simulation zur Optionsbewertung mit dem einfachen Monte-Carlo-Schätzer Monte-Carlo-Simulation zur Optionsbewertung mit Control Variates Simulation eines Kurses mit dem Euler-Maruyama-Verfahren und mit dem Milsteinverfahren Simulation des Werts einer Asiatischen Option

8

9 Liste der Algorithmen 1 Simulation eines Wiener Prozesses Simulation einer Brownschen Bewegung mit Drift µ und Volatilität σ Simulation eines Kurses auf Grundlage der Geometrischen Brownschen Bewegung Grundalgorithmus zur Approximation des Optionspreises Approximation eines pfadabhängigen Optionspreises Linearer Kongruenzgenerator Simulation eines Kurses auf Grundlage der Geometrischen Brownschen Bewegung mittels Milstein-Verfahren Approximation des Optionspreises einer Asiatischen Option mit Euler-Maruyama-Verfahren

10

11 Tabellenverzeichnis 1.1 Monte-Carlo-Simulation zur Bestimmung von π Vergleich der Endkurse Optionswerte und Varianzen mit drei Schätzern

12

13 Wahrlich es ist nicht das Wissen, sondern das Lernen, nicht das Besitzen sondern das Erwerben, nicht das Da-Seyn, sondern das Hinkommen, was den grössten Genuss gewährt. Carl Friedrich Gauß 1 1 Einleitung und Motivation 1.1 Einleitung Wer sich für Optionen auf dem Finanzmarkt interessiert, dem ist immer auch an dem Wert der Option gelegen. Denn, wenn der Marktpreis der Option höher ist als der Wert, den man selbst der Option zuschreibt, so sollte man diese Option nicht kaufen. Also versuchen wir, Optionen ganz allgemein zu bewerten. Bei sogenannten Plain Vanilla Optionen, also Optionen mit den einfachsten Auszahlungsarten, gelingt dies sehr einfach mit der Black-Scholes-Formel 2. Betrachten wir aber Optionen mit nur geringfügig komplizierteren Auszahlungsfunktionen, so müssen wir meist auf andere Methoden zurückgreifen. Hier kommt die Monte-Carlo-Simulation ins Spiel, die eine relativ gute Näherung des exakten Wertes liefert und dennoch eine sehr einfache Struktur bietet. Weil der Grundalgorithmus bestehen bleibt, können wir mit verhältnismäßig geringem Aufwand für die jeweilige Auszahlungsfunktion der Option die Simulation anpassen. Damit ist auch die Zielstellung für diese Arbeit klar: Wir wollen möglichst einfach und mit geringem Rechenaufwand komplizierten, exotischen Optionen einen Wert zuordnen. Explizit heißt das hier, dass wir die Geometrische Brownsche Bewegung wie Glasserman [3] als Modell für die Kursentwicklung des Underlyings herleiten und darauf aufbauend den Grundalgorithmus der Monte-Carlo-Simulation zur Optionsbewertung nach Glasserman [3] formulieren. Auf dem Weg dorthin - und hier kommen wir auf das Zitat Gauss zurück - werden uns einige Möglichkeiten zur Verfeinerung der Standardmethode auffallen. Diese werden wir vor allem in Form der Varianzreduktionstechniken diskutieren. Außerdem werden wir die Kurse mit stochastischen sowie numerischen Methoden simulieren und diese Methoden insbesondere nach ihrer Umsetzbarkeit beurteilen. Letztendlich soll uns diese Herangehensweise dazu führen, eine Asiatische Option bewerten zu können. Gleichzeitig werden wir die Genauigkeit anhand von Konfidenzintervallen einschätzen und eine Aussage über die Effizienz der Methode machen, das heißt wie schnell unser Monte-Carlo-Algorithmus den Optionspreis zu einem 1 Carl Friedrich Gauss hat diesen Satz in einem Brief vom 2.September 1808 an Wolfgang Bolyai verwendet, als er nach Bolyais wissenschaftlicher Arbeit fragte. Quelle: Briefwechsel zwischen Carl Friedrich Gauß und Wolfgang Bolyai, herausgegeben von F. Schmidt, P. Stäckel, Leipzig 1899, S siehe Günther und Jüngel [4, Satz 4.12] 13

14 KAPITEL 1. EINLEITUNG UND MOTIVATION bestimmten Konfidenzintervall berechnet. Um die Idee der Monte-Carlo-Simulation zu veranschaulichen, beginnen wir mit einem mathematisch eher einfaches Beispiel: der numerischen Berechnung von π. 1.2 Approximation von π Die populärste Herangehensweise die Monte-Carlo-Simulation zu illustrieren ist wohl die näherungsweise Bestimmung von π am Einheitskreis. Dabei werden m Paare von Zufallszahlen simuliert, die auf dem Einheitsintervall gleichverteilt sind. Nennen wir diese Zufallsvariablen X und Y. Dementsprechend betrachten wir nur den positiven Viertelkreis. Mit der Flächenformel des Kreises A = π r 2 folgt für den Einheitskreis A = π. Sei B = {(X(ω), Y (ω)) X(ω) 2 + Y (ω) 2 1} die Menge, die jene Realisationen repräsentiert, die in dem Viertelkreis liegen, dann gilt für die Kardinalität von B: B 4 m = π Anhand dieses Beispiels erkennt man die Grundidee der Monte-Carlo- Simulation: Der Erwartungswert eines Zufallsexperiments wird durch Simulation der Realisierungen der Zufallsvariablen geschätzt. Außerdem ist bereits hier eine wichtige Eigenschaft von Monte-Carlo-Verfahren offensichtlich, nämlich dass die Güte der Näherung mit wachsender Anzahl an Simulationen steigt. π 3, Anzahl der Simulationen m Näherung von π absoluter Fehler 10 3,6 0, ,28 0, ,2320 0, ,1404 0, ,1440 0, ,1433 0, ,1414 0, Tabelle 1.1: Monte-Carlo-Simulation zur Bestimmung von π Um dieses Verhalten zu illustrieren ist in Matlabcode 1.1 die Simulation des Beispiels implementiert und wurde für die obige Tabelle mit unterschiedlicher Anzahl an Simulationen ausgeführt. Diese sehr einfache Simulation kann uns bereits eine auf drei Nachkommastellen genaue Approximation für π berechnen. 14

15 KAPITEL 1. EINLEITUNG UND MOTIVATION 1 rand ( s t a t e,3) ; 2 % Berechnung von Pi m i t t e l s Monte Carlo Simulation 3 % n : S i m u l a t i o n s h a e u f i g k e i t ( > Unendlich ) 4 n = ; 5 % auf ( 0, 1 ) g l e i c h v e r t e i l t e Z u f a l l s z a h l e n 6 x=rand (n, 1 ) ; % Z u f a l l s v e k t o r der Laenge n 7 y=rand (n, 1 ) ; % Z u f a l l s v e k t o r der Laenge n 8 9 punkte_im_viertelkreis = sum( x.^2+y.^2 <1) ; 10 pi = ( punkte_im_viertelkreis /n) 4 Matlabcode 1.1: Monte-Carlo-Simulation zur Berechnung von π 15

16

17 2 Stochastische und Finanzmathematische Grundlagen 2.1 Einleitung In diesem Kapitel wollen wir erklären, was eine Option als Finanzderivat ist. Außerdem ist es vonnöten, die stochastischen Grundlagen für den Monte- Carlo-Schätzer zu legen und, kurz gesagt, die Voraussetzungen zur Simulation von Kursverläufen zu schaffen. Eine zentrale Rolle dabei spielt die Geometrische Brownsche Bewegung, worauf dieses Kapitel hinarbeitet. Dabei beruht der erste Teil dieses Kapitels, der Optionen behandelt, auf dem Vorlesungsskript [20] zur Finanzmathematik von Prof. Dr. Dr. Marcus Porembski, der stochastische Teil vor allem auf der Literatur von Glasserman [3], Günther und Jüngel [4], sowie Müller-Gronbach et al. [18]. Der Abschnitt über stochastische Differentialgleichungen benötigte Erkenntnisse der spezifischen Literatur von Øksendal [19]. 2.2 Optionen Eine Option ist ein Vertrag, der das Recht beinhaltet einen Basiswert (engl. Underlying oder Underlying Asset) zu einem im Vorhinein vereinbarten Preis X, dem Strike, zu kaufen oder zu verkaufen. Eine Option hat (meist) einen Fälligkeitszeitpunkt T > 0, bis zu diesem die Optionen ausgeübt werden kann. Handelt es sich um ein Kaufrecht, so sprechen wir von einer Calloption, bei einem Verkaufsrecht von einer Putoption. Optionen werden außerdem noch darin unterschieden, zu welchen Zeitpunkten sie ausgeübt werden können. Sogenannte Europäische Optionen können nur zum Fälligkeitszeitpunkt T ausgeübt werden, das heißt der Kursverlauf ist für diese Art von Optionen unwichtig. Wichtig ist nur, welchen Wert die Option am Fälligkeitszeitpunkt hat. Demgegenüber stehen Amerikanische Optionen, die zu jedem beliebigen Zeitpunkt t mit t [0, T ] ausgeübt werden können. Eine Hybridform sind Bermudaoptionen, die zu mehreren vereinbarten Zeitpunkten ausgeübt werden können. Bermudaoptionen gehören zu den sogenannten exotischen Optionen. Auf eine andere exotische Option, die Asiatische, kommen wir später 17

18 KAPITEL 2. STOCHASTISCHE UND FINANZMATHEMATISCHE GRUNDLAGEN zurück. Bei den Amerikanischen Optionen und Bermudaoptionen, verfällt die Option mit der Ausübung, wenn diese vor dem Fälligkeitszeitpunkt erfolgt ist. Wenn von einem Underlying die Rede ist, so meint man sehr häufig eine Aktie. Es gibt aber auch Optionen, die zum Beispiel auf Indizes, Rohstoffe oder Währungen abgeschlossen werden. In dieser Arbeit beziehen wir uns aber zumeist auf beliebige Assets und wenn von einer Aktie die Rede ist, so lässt sich dies auch auf allgemeine Assets anwenden, sofern diese am Markt gehandelt werden. Preis Der Holder der Option, also derjenige, der die Option erworben hat, hat die Möglichkeit sein Recht auszuüben, aber nicht die Pflicht auszuüben - im Gegensatz zu der Partei, die die Option verkauft hat. Diese Partei muss, sofern die Option durch den Holder ausgeübt wird, den Kauf oder Verkauf des Underlying durchführen. Hier erkennen wir, dass der Holder einen gewissen Vorteil hat, da er wählen kann, ob das Ausübungsrecht genutzt wird oder nicht. Das legt den Schluss nahe, dass eine Option einen Preis haben muss, den der Holder zahlt. Ansonsten könnte man durch den Erwerb einer Option Arbitrage, also risikolosen Gewinn, generieren. Auf dem Finanzmarkt werden Optionen natürlich mit Preisen gehandelt. Diese Preise kommen auf dem Markt über Angebot und Nachfrage zustande. Aber wie sollte der Optionspreis aussehen, wenn er fair für beide Parteien sein soll? Dieser Frage gehen wir in Abschnitt 3.2 genauer nach. An dieser Stelle ist es wichtig zu differenzieren: Der Preis einer Option wird durch Marktmechanismen bestimmt. Den Wert, also den fairen Preis, können wir unter Umständen berechnen. Auf einem vollständigen Markt fielen diese Preise zusammen. Marktannahmen Um die stochastischen Zusammenhänge auf dem Finanzmarkt darzustellen, müssen bestimmte Annahmen getroffen werden. Die Wichtigste ist die Arbitragefreiheit, die aussagt, dass auf dem Markt, den wir betrachten, kein risikoloser Gewinn generiert werden kann. Außerdem unterstellen wir in der ganzen Arbeit eine stetige Verzinsung und einen zeitunabhängigen Zinssatz. Wir gehen grundsätzlich davon aus, dass keine Dividenden ausgeschüttet werden und verlangen beliebige Geldanlage und Kreditaufnahme. Zudem wenden wir ein sehr wichtiges Konzept der Finanzmathematik an, die risikoneutrale Bewertung. Das bedeutet, wir diskontieren die erwarteten Auszahlungen mit dem risikolosen Zins r ab. Dem Käufer käme somit eine 18

19 KAPITEL 2. STOCHASTISCHE UND FINANZMATHEMATISCHE GRUNDLAGEN erwartete Rendite µ in Höhe des risikolosen Zinssatzes zu, wir setzen also µ = r. Weil der Holder demzufolge weder risikoavers noch risikoaffin handelt, sprechen wir von risikoneutraler Bewertung. Die tiefergehende Theorie der risikoneutralen Bewertung und ihr Sinn in der Anwendung wird von Glasserman [3, s.25f] genauer diskutiert. Für uns soll an dieser Stelle genügen, dass wir durch Diskontierung mit dem risikolosen Zins einen fairen Preis berechnen können. Im vorherigen Abschnitt haben wir gesehen, dass ein vollständiger Markt diese Vorgehensweise rechtfertigt. Außerdem unterstellen wir, dass die Kurse der Assets, die wir betrachten, einer geometrischen Brownschen Bewegung folgen, wie wir sie im Abschnitt 2.5 herleiten werden. 2.3 Stochastische Grundlagen Um die Monte-Carlo-Simulation und die Optionsbewertung mit ebenjener Simulation zu verstehen, machen wir uns in diesem Abschnitt einige grundlegende, stochastische Zusammenhänge klar. Dabei wird unser Ziel sein, einen Aktienkursverlauf mathematisch zu beschreiben und einen solchen Verlauf zu simulieren. Wir vergegenwärtigen uns zunächst, was der Erwartungswert und die Varianz sowie die Kovarianz einer Zufallsgröße sind. Diese Definitionen tauchen in Kapitel 3 an prominenter Stelle wieder auf. Definition 2.1 (Erwartungswert, Varianz, Kovarianz). Sei X eine reelle Zufallsvariable mit integrierbarer Wahrscheinlichkeitsdichte f(x), dann heißt der Erwartungswert von X und E[X] := xf(x)dx V ar(x) := E[(X E[X]) 2 ] die Varianz von X. Sei darüber hinaus Y auch eine reelle Zufallsvariable und die Erwartungswerte E[Y ] und E[XY ] existieren, dann heißt die Kovarianz von X und Y. Cov(X, Y ) := E[(X E[X])(Y E[Y ])] Grundlegende Eigenschaften und Rechenregeln, wie die Linearität beziehungsweise lineare Transformation des Erwarungswertes und der Varianz, setzen wir als bekannt voraus. Auf die Beziehung zwischen Varianz und Kovarianz gehen wir im folgenen Satz ein, da wir diesen für die Varianzreduktion noch benötigen werden. 19

20 KAPITEL 2. STOCHASTISCHE UND FINANZMATHEMATISCHE GRUNDLAGEN Satz 2.2. Seien X,Y zwei Zufallsvariablen, dann gilt für die Varianzen V ar(x + Y ) = V ar(x) + V ar(y ) + 2Cov(X, Y ) (2.1) Für einen Beweis verweisen wir auf Henze [5, Satz 21.2]. Definition 2.3 (Normalverteilung). Eine Zufallsvariable X heißt normalverteilt mit Erwartungswert µ R und Varianz σ 2 > 0, wenn sie die Wahrscheinlichkeitsdichte f(x) = 1 ( σ 2π exp 1 ( ) ) x µ 2 2 σ mit x R besitzt.für eine normalverteilte Zufallsvariable mit Erwartungswert µ und Varianz σ 2 schreiben wir X N (µ, σ 2 ). Falls für X gilt, dass µ = 0 und σ 2 = 1 ist, so sprechen wir von der Standardnormalverteilung und schreiben X N (0, 1). Nachdem wir nun die Definition der allgemeinen Normalverteilung und der Standardnormalverteilung vorliegen haben, wollen wir noch herausfinden, wie wir eine standardnormalverteilte Zufallsvariable aus einer normalverteilten Zufallszahl gewinnen können. Dazu führen wir folgenden Satz an. Satz 2.4. Sei X eine normalverteilte Zufallsvariable mit Erwartungswert µ und Varianz σ 2, dann ist die Zufallsvariable Y = X µ σ (2.2) standardnormalverteilt, d.h. Y N (0, 1). Beweis. Der Beweis beruht auf einer einfachen Substitution der Integralgrenzen der Verteilungsfunktionen, denn für die Wahrscheinlichkeit von Y = X µ σ gilt: ( X µ P σ ) u = P (X σu + µ) = = σu+µ u = P (Y u) ( 1 exp 1 ( ) ) x µ 2 dx 2πσ 2 σ 1 exp 1 2π 2 y2 dy (2.3) mit Y N (0, 1). In der Umformung zur Gleichung 2.3 wurde x = µ + σy sowie dx = d(µ + σy) = σdy substituiert. 20

21 KAPITEL 2. STOCHASTISCHE UND FINANZMATHEMATISCHE GRUNDLAGEN 2.4 Wiener Prozess Jedenfalls bin ich überzeugt, daß der [der Alte] nicht würfelt. Albert Einstein 1 Mit diesem Ausspruch, der oftmals mit Gott würfelt nicht! wiedergegeben wird, steigen wir in die Theorie des Wiener Prozesses ein. Auch wenn sich Einstein auf die wahrscheinlichkeitstheoretische Erklärung der Quantenmechanik bezogen hat, so ist dieser Ausspruch für uns doch interessant, da wir im nachfolgenden Abschnitt eine zufällige Bewegung mathematisch beschreiben und numerisch simulieren werden. Albert Einstein selbst hat auf diesem Feld Pionierarbeit geleistet und, wenn auch nicht ganz im Sinne des obigen Ausspruches, eine mathematische Erklärung für den Wiener Prozess geliefert. Im späteren Verlauf sehen wir nämlich, dass wir zur Simulation tatsächlich in einem gewissen Sinne würfeln, wir arbeiten nämlich mit Zufallszahlen. Die zentralen Fragen dieses Abschnittes sollen sein: Was ist ein Wiener Prozess im mathematischen Sinne und wie können wir einen solchen simulieren? Um diese Fragen zu beantworten, müssen wir zunächst einen stochastischen Prozess definieren, um im Folgenden weitere spezielle Prozesse zu betrachten. Auf deren Grundlage werden wir dann die Simulationsvorschriften herleiten. Definition 2.5 (Stochastischer Prozess). Ein stetiger, stochastischer Prozess X(, t), t [0, ), ist eine Familie von Zufallsvariablen X : Ω [0, ) R, bei der die Abbildung t X(ω, t) stetig für alle ω Ω ist. Im Folgenden wird die kürzere Schreibweise X(, t) = X t genutzt. Wir sollten uns aber bewusst sein, dass wir einen stochastischen Prozess bezüglich eines Ereignisses ω betrachten. Wenn im Folgenden von einem Pfad die Rede ist, so ist die Realisation eines stochastischen Prozesses mit einem festen ω, also X(ω, t) gemeint. In diesem Fall ist der stochastische Prozess eine gewöhnliche Funktion, abhängig von der Zeit t. Die Pfade zu bestimmten Ereignissen eines Prozesses werden für die Simulation sehr wichtig sein. Betrachten wir nun einen speziellen stochastischen Prozess, der in verschiedenen Wissenschaften teilweise an sehr prominenter Stelle auftritt, wie in der Physik oder der Biologie. Definition 2.6 (Wiener Prozess). Sei (W t ) t 0 ein stetiger, stochastischer Prozess der folgende Eigenschaften erfüllt: (i) W 0 = 0 mit Wahrscheinlichkeit 1 1 Albert Einstein in einem Brief an Max Born. Mit dem Alten ist Gott gemeint. Quelle: Albert Einstein, Hedwig und Max Born: Briefwechsel , Rowohlt Taschenbuchverlag, 1972, S. 97f 21

22 KAPITEL 2. STOCHASTISCHE UND FINANZMATHEMATISCHE GRUNDLAGEN (ii) W t W s ist normalverteilt mit Erwartungswert 0 und Varianz t s, für beliebige t und s, die die Ungleichung 0 s < t erfüllen. (iii) Die Inkremente W t2 W t1, W t4 W t3 für alle 0 t 1 < t 2 t 3 < t 4 sind unabhängige Zufallsgrößen Dann heißt W t Wiener Prozess. Nachdem Albert Einstein bereits 1905 (vgl. [2] sowie [22]) die Brownsche Bewegung nutzte, um die Bewegung von Teilchen in Flüssigkeit zu erklären, bewies Norbert Wiener 1923 (siehe Müller-Gronbach et al. [18, Kapitel 4.5.2]) die wahrscheinlichkeitstheoretische Existenz dieses stochastischen Prozesses. Der Name Brownsche Bewegung geht auf Robert Brown zurück, der 1828 die Bewegung von in Flüssigkeit gelösten Pollen beobachtete. Der Wiener Prozess ist als mathematisches Modell der Brownschen Bewegung zu verstehen und wird uns im weiteren Verlauf dieser Arbeit helfen, Aktienkurse (oder allgemein Kurse von Assets) zu simulieren. Machen wir uns vorher noch einen grundlegenden Zusammenhang für den Wiener Prozess klar. Folgerung 2.7. Seien t 0 und t > 0, dann gilt, dass der Erwartungswert von W t gleich 0 ist, E[W t ] = E[W t W 0 ] = 0 und dass die Inkremente W t+ t W t normalverteilt mit Erwartungswert 0 und Varianz t sind. Mit diesen Erkenntnissen, die direkt aus der Definition folgen, können wir einen Versuch unternehmen, einen Wiener Prozess numerisch zu simulieren. Dafür sei t 0 = 0 der Anfangszeitpunkt und t die Schrittweite. Es ergeben sich also die diskreten Zeitpunkte t i = i t für einen nichtnegativen Index i und die Diskretisierung des Wiener Prozesses: i W ti (W tk W tk 1 ) (2.4) k=1 Dabei ist zu bemerken, dass die W tk W tk 1 jeweils nach Definition 2.6 unabhängig voneinander sind und normalverteilt mit Erwartungswert 0 und Varianz t. Das machen wir uns bei der Simulation von W (t) zunutze und folgern mit Gleichung 2.2, dass Z k = W t k W tk 1 (2.5) t standardnormalverteilt ist. Stellen wir Gleichung 2.5 nach W tk um, haben wir eine iterative Formel für den Wiener Prozess, abhängig von einer standardnormalverteilten Zufallszahl Z k. Nun können wir Algorithmus 1 zur Erzeugung von Realisationen eines Wiener Prozesses angeben. Dieser Algorithmus ist, wie die zwei folgenden Algorithmen, in Matlabcode 8.1 realisiert. Die Simulation von drei unterschiedlichen Wiener Prozessen in Abhängigkeit von 22

23 KAPITEL 2. STOCHASTISCHE UND FINANZMATHEMATISCHE GRUNDLAGEN Input : t, Z i N (0, 1) für i = 1,..., n set W 0 = 0 for i = 1,..., n do W ti = W ti 1 + tz i end Output : Vektor W R n+1, der den Pfad eines Wiener Prozesses beinhaltet Algorithmus 1 : Simulation eines Wiener Prozesses der Anzahl der Zeitschritte können wir in Abbildung 2.1 sehen, später werden wir aber deutlich mehr als nur drei Pfade zur Optionsbewertung nutzen. Man beachte hierbei, dass wir mit einem etwaigen Zeitintervall T die Schrittweite t := T/n setzen sollten. Man kann aber auch eine bestimmte Schrittweite vorgeben und einen Pfad der Länge n t simulieren. Nun ist Algorithmus 1 äquivalent zu der Aussage, die aus Gleichung 2.4 und 2.5 folgt: i W ti Z k t k=1 Von entscheidender Bedeutung für die Genauigkeit der Diskretisierung ist hierbei, wie groß die Schrittlänge t ist. Wir werden später noch einmal sehen, wie eine genauere Diskretisierung aussehen könnte. Nachdem wir nun den Wiener Prozess simulieren können, betrachten wir darauf aufbauend einen etwas allgemeineren Fall, der einen Parameter eines grundsätzlichen Wachstums des Kurses und einen Parameter für eine gewisse Zufälligkeit um den Trendparameter beinhaltet. Wir werden diese Parameter im Folgenden µ und σ nennen. 23

24 KAPITEL 2. STOCHASTISCHE UND FINANZMATHEMATISCHE GRUNDLAGEN Abbildung 2.1: Simulation von drei Wiener Prozessen Definition 2.8. Für gegebene Paramter µ und σ > 0 nennen wir einen stochastischen Prozess X t Brownsche Bewegung mit Drift µ und Volatilität σ, wenn X t µt (2.6) σ ein Wiener Prozess ist. Stellen wir die Gleichung 2.6 nach X t um, so definiert zu gegebenem Wiener Prozess W t X t = µt + σw t (2.7) die Brownsche Bewegung mit Drift µ und Volatilität σ. Wegen der Eigenschaften des Wiener Prozesses folgt, dass X t nach N (µt, σ 2 t) verteilt ist. Mit der Tatsache, dass wir aus einer normalverteilten Zufallsgröße sehr einfach eine standardnormalverteilte Zufallsgrößen erzeugen können, wie in Gleichung 2.2, folgt, dass wir X t wie den Wiener Prozess in Gleichung 2.5 simulieren können. Es gilt, dass X tk X tk 1 normalverteilt mit Erwartungswert µ t und Varianz σ 2 t ist. Daraus folgt wieder mit der Transformation aus Gleichung 2.2, dass die Zufallsgröße Z i standardnormalverteilt ist: Z ti := (X t k X tk 1 ) µ t σ t (2.8) 24

25 KAPITEL 2. STOCHASTISCHE UND FINANZMATHEMATISCHE GRUNDLAGEN Input : t, µ, σ, Z i N (0, 1) für i = 1,..., n set X t0 = 0 for i = 1,..., n do X ti = X ti 1 + µ t + σ tz i end Output : Vektor X R n+1, der den Pfad einer Brownschen Bewegung enthält Algorithmus 2 : Simulation einer Brownschen Bewegung mit Drift µ und Volatilität σ Damit gilt bei gegebenem Startwert X t0 Algorithmus 2. Abbildung 2.2: Simulation von drei Brownschen Bewegungen mit Drift und Volatilität Der stochastische Prozess X t, der in Algorithmus 2 berechnet wird, löst die stochastische Differentialgleichung dx t = µdt + σdw t (2.9) näherungsweise. Für eine Implementation des Algorithmus steht der Programmcode 8.1 zur Verfügung, mit welchem die Abbildung 2.2 erzeugt wurde. Sie zeigt uns drei Pfade einer Brownschen Bewegung mit Drift 0,1 und 25

26 KAPITEL 2. STOCHASTISCHE UND FINANZMATHEMATISCHE GRUNDLAGEN Volatilität 0,35. Diese Grafik stellt den wesentlichen Nachteil der Brownschen Bewegung mit Drift und Volatilität heraus, der Kurs wird negativ. Diese Eigenschaft ist bei einem Kursmodell zum Beispiel für Aktien oder Rohstoffe, Assets im Allgemeinen, nicht wünschenswert und wird im nächsten Schritt ausgebessert. Im Vergleich zur Abbildung 2.1 kann man erkennen, dass die Kursverläufe einen geringeren Trendwachstum haben und nicht so weit auseinander liegen. 2.5 Stochastische Differentialgleichungen und Itō-Lemma Nun wollen wir aus der Brownschen Bewegung die geometrische Brownsche Bewegung herleiten, welche wir dann tatsächlich nutzen, um Aktienkurse zu simulieren. Dazu müssen wir uns aber etwas genauer mit stochastischen Differentialgleichungen und dem Itō-Lemma beschäftigen. Im Folgenden wird für stochastische Differentialgleichungen die Schreibweise SDE genutzt, was für stochastic differential equation steht. In dieser Arbeit können und sollen stochastische Differentialgleichungen nicht im Mittelpunkt stehen, deshalb sei für den Beweis des Itō-Lemmas und weitergehende Diskussion der Thematik auf Øksendal [19] sowie Günther und Jüngel [4] verwiesen. Klären wir also zuerst, was eine SDE nach Itō ist. Zu gegebenem Wiener Prozess W t, stochastischem Prozess X t und zwei Funktionen a, b : R R + R nennen wir dx t = a(x t, t)dt + b(x t, t)dw t (2.10) mit der Integralschreibweise X t = X t0 + t t 0 a(x s, s)ds + t t 0 b(x s, s)dw s (2.11) Itō-SDE oder stochastische Differentialgleichung nach Itō. Hierbei heißt a(x t, t) Drift Term und b(x t, t) Diffusion. Eine Lösung von Gleichung 2.11 heißt Itō-Prozess und ist eine Verallgemeinerung des Wiener- Prozesses. Dies ist direkt erkenntlich, wenn wir die triviale SDE dx t = dw t betrachten, also ist Drift 0 und Diffusion 1. Zu bemerken ist auch, dass wir beim zweiten Integral in Gleichung 2.11 kein Riemannsches Integral oder Lebesgue-Integral nutzen können, da die Integrationsvariable ein Wiener Prozess ist. Zu Lösung des Problems hat Itō (wie auch Stratonovich, siehe Günther und Jüngel [4]) ein anderes Integral eingeführt, das man über dw t definieren kann. Da das Integral in dieser Arbeit nicht von allzu großer Bedeutung ist, sei für eine genaue Definition des Integrals auf Øksendal [19] verwiesen. 26

27 KAPITEL 2. STOCHASTISCHE UND FINANZMATHEMATISCHE GRUNDLAGEN Euler-Maruyama-Verfahren Um eine Itō-SDE zu berechnen, wird häufig auf eine Diskretisierung der Differentialgleichung zurück gegriffen. Die wohl gängigste und einfachste hierbei ist das Euler-Maruyama-Verfahren. Sei also X t ein stochastischer Prozess, der die Gleichung 2.10 erfüllt, dann kann man die Lösung durch ˆX(t) wie folgt approximieren: Sei der Startwert bekannt, also X 0 = ˆX(0), und seine Z i standardnormalverteilte Zufallszahlen, dann berechnet man die ˆX(t i ) iterativ mit der Vorschrift ˆX(t i+1 ) = ˆX(t i ) + a( ˆX(t i ))(t i+1 t i ) + b( ˆX(t i )) t i+1 t i Z i+1. (2.12) In Algorithmus 2 wird ein solches Verfahren bereits genutzt, da wir in Gleichung 2.4 eine einfache Euler-Maruyama-Diskretisierung angewandt haben. Betrachtet man die triviale Differentialgleichung ds(t) = dw t, mit S(0) = 0 und äquidistanter Schrittweite t, folgt mit a = 0 und b = 1 in obiger Schreibweise: ˆX(ti+1 ) = ˆX(t i ) + tz i+1. Es ergibt sich die Gleichung 2.5. Um die Geometrische Brownsche Bewegung herzuleiten, benötigen wir das Itō-Lemma: Lemma 2.9 (Itō ). Sei X t ein Itō-Prozess und h : R R R zweimal stetig differenzierbar. Dann ist Y t = h(t, X(t)) = h(t, x) ein Itō-Prozess und es gilt folgende Formel (Itō-Formel): ( ) h h dy (t) = (t, X(t)) + t x (t, X(t))a(t, X(t)) + 2 h (t, X(t))b(t, X(t))2 dt 2 x2 + h x (t, X(t))b(t, X(t))dW t (2.13) Beweis. Ein Beweis des Lemmas findet sich in den Werken Øksendals [19] und Korns [10]. Wenden wir nun das Itō-Lemma auf die Itō-SDE ds(t) S(t) = µdt + σdw t (2.14) an. Diese Differentialgleichung hat Drift a(t, S(t)) = µs(t) und Diffusion b(t, S(t)) = σs(t). Ein Problem, das bei der normalen Brownschen Bewegung noch besteht, ist die Negativität. Deshalb logarithmieren wir die SDE, also sei h(t, X(t)) = h(x) = ln(x) mit X(t) = S(t). Mit dem Itō-Lemma folgt ( 1 b(t, S(t)) 2 ) ( ) 1 dy t = dt + x b(t, S(t) dw t = = x a(t, S(t)) 1 2 ( µs(t) σ 2 S(t) 2 S(t) 2 S(t) 2 ) S(t) 1 2 (µ 1 ) 2 σ2 dt + σdw t dt + ( ) 1 S(t) σs(t) dw t 27

28 KAPITEL 2. STOCHASTISCHE UND FINANZMATHEMATISCHE GRUNDLAGEN Das heißt, es gilt d ln(s(t)) = (µ 1 2 σ2 ) dt + σdw t (2.15) und wir können S(0) als Startwert definieren, die Integralschreibweise wählen und exponieren. Daraus ergibt sich folgende Definition. Definition 2.10 (geometrische Brownsche Bewegung). Sei W t ein Wiener Prozess, dann ist die geometrische Brownsche Bewegung durch S t = S 0 exp ((µ 1 ) ) 2 σ2 t + σw t (2.16) gegeben. Input : t, µ, σ,s 0, Z i N (0, 1) für i = 1,..., n set S(0) = S 0 for i = 1,..., n do S(t i ) = S(t i 1 ) + µs(t i 1 ) t + σs(t i 1 ) tz i end Output : Vektor S R n+1, der den Kursverlauf beinhaltet Algorithmus 3 : Simulation eines Kurses auf Grundlage der Geometrischen Brownschen Bewegung Wir haben bereits festgestellt, dass in Gleichung 2.14 µs(t) den Drift darstellt, dass heißt für ein positives µ ist ein Anstieg des Kurses zu erwarten, zumindest langfristig im Mittel gesehen, für ein negatives µ gerade ein Fallen des Kurses. Im Gegensatz dazu steht logischerweise das σ für den stochastischen Anteil, für die Zufälligkeit. Wenn wir den speziellen Fall betrachten, bei dem σ = 0 ist, fällt in Gleichung 2.14 der stochastische Anteil weg und es bleibt eine deterministische Differentialgleichung. Abbildung 2.3 zeigt eine Zerlegung der Geometrischen Brownschen Bewegung in Drift und Diffusion. Die Grafik ist so zu verstehen, dass wenn wir Drift- und Diffusionskurve addieren und den Startwert subtrahieren, so ergibt es den Kursverlauf. Die genaue Implementation ist in Matlabcode 8.1 dokumentiert. Zu bemerken ist noch, dass hier 10 Jahre simuliert werden, damit der Einfluss des Drifts deutlich wird. Der Pfad einer Geometrischen Brownschen Bewegung wird in Algorithmus 3 simuliert, dieser ist auch in Matlabcode 8.1 realisiert und erzeugt die Abbildung 2.4. In der Grafik sind drei Pfade eines Kurses mit Startwert S 0 = 90 simuliert. Man erkennt, dass die (mögliche) Negativität der Brownschen Bewegung verschwunden ist, diese tritt auch nicht bei Startwerten nahe null auf. Mit Startwert S 0 = 0 ergibt sich logischerweise der triviale Kursverlauf, der keinen Wert außer 0 annimmt. 28

29 KAPITEL 2. STOCHASTISCHE UND FINANZMATHEMATISCHE GRUNDLAGEN Abbildung 2.3: Zerlegung einer Geometrischen Brownschen Bewegung Den Algorithmus 3 werden wir in Kapitel 3 verwenden, um mehrere Kurse eines Underlying zu simulieren. Es ist aber zu beachten, dass für die SDE aus Gleichung 2.14 die Euler-Maruyama-Diskretisierung aus Gleichung 2.12 vorgenommen wurde. Das ist eine recht einfache Approximation, eine weitere Möglichkeit zur Diskretisierung werden wir im späteren Verlauf der Arbeit noch kennenlernen. 29

30 KAPITEL 2. STOCHASTISCHE UND FINANZMATHEMATISCHE GRUNDLAGEN Abbildung 2.4: Simulation von drei Geometrischen Brownschen Bewegungen 30

31 3 Monte-Carlo-Simulation 3.1 Grundidee Ziel der Monte-Carlo-Simulation ist es, zu einer gegebenen Zufallsvariable X einen Erwartungswert E[X] zu schätzen. Dazu werden m Realisationen des Zufallsexperimentes mit computergenerierten Zufallszahlen simuliert. Grundlage der Monte-Carlo-Simulation ist der folgende Satz. Theorem 3.1 (Zentraler Grenzwertsatz der Statistik). Seien X 1, X 2,..., X m unabhängige und identisch verteilte Zufallszahlen mit E[X i ] = µ und 0 < var(x i ) = σ 2 < für alle Indizes i = 1,, m, dann gilt für alle reellen Zahlen x : ( m ) X i µ P i=1 σ m x m Φ(x) (3.1), wobei Φ(x) die Verteilungsfunktion der Standard-Normalverteilung bezeichnet (vgl. Definition 2.3). Beweis. Für eine Beweis sei auf Hesse [6, Kapitel 7, Theorem 7.2.1] verwiesen. Bemerkung 3.2. Aus Theorem 3.1 folgt direkt, dass ˆX m := m i=1 X i für große m näherungsweise normalverteilt ist, ˆX m N (mµ, mσ 2 ) mit E[ ˆX m ] = nµ und var( ˆX m ) = nσ 2. Außerdem stellt Theorem 3.1 keinerlei Anforderung an die Verteilung der unabhängigen Zufallsvariablen X i, insbesondere müssen diese X i nicht normalverteilt sein. Stellen wir nun, wie in dem einleitenden Beispiel dieser Arbeit, den Zusammenhang zwischen dem Erwartungswert eines Zufallsexperiments und der Flächenberechnung her. Sei dazu f die Dichte der Zufallsvariable X, die auf dem Einheitsintervall definiert sei, und der Erwartungswert gegeben durch 1 E[X] = f(x)dx. 0 Wenn wir das Integral als Flächeninhalt auffassen, können wir die Fläche unter der Funktion f(x) durch Summen mit gegebenen Stützstellen U 1,... U m approximieren. 1 f(x)dx 1 m f(u i ) 0 m i=1 31

32 KAPITEL 3. MONTE-CARLO-SIMULATION Nutzen wir dazu als Stützstellen U i gleichverteilte Zufallszahlen auf dem Einheitsintervall, so folgt mit dem starken Gesetz der großen Zahlen, dass für m die Konvergenz 1 m m 1 f(u i ) f(x)dx i=1 0 mit Wahrscheinlichkeit 1 gilt. Darauf aufbauend wird im Folgenden der Monte-Carlo-Schätzer definiert. Definition 3.3 (Monte-Carlo-Schätzer). Sei X eine Zufallsvariable und seien X 1,..., X m Stichproben von X, so ist der (einfache) Monte-Carlo-Schätzer gegeben durch ˆX m := 1 m X i (3.2) m Es folgt sehr schnell aus der Definition und Kolmogorows starkem Gesetz der großen Zahlen, dass der Monte-Carlo-Schätzer erwartungstreu ist, das heißt es gilt E[ ˆX m ] = E[X]. Wichtig für eine Bewertung des Schätzers ist eine Aussage der folgenden Form: Mit welcher Wahrscheinlichkeit liegt das Ergebnis des Schätzers in der Nähe des exakten Werts? Solche Aussagen können durch Konfidenzintervalle mathematisch dargestellt werden werden. Definition 3.4 (p-konfidenzintervall). Sei ɛ eine reelle Zahl, p eine reelle Zahl aus dem Einheitsintervall, m eine natürliche Zahl und µ = E[X i ], dann nennen wir ein Intervall I der Form I = [µ ɛ, µ+ɛ] ein p-konfidenzintervall für die Monte-Carlo-Simulation, wenn für die Wahrscheinlichkeit gilt. P ( 1 m i=1 ) m X i I = p (3.3) i=1 Die Konfidenzintervalle hängen, wie wir im nächsten Satz zeigen werden, von den Parametern des Schätzers ab: von der Simulationshäufigkeit m, der Standardabweichung σ und dem Erwartungswert µ der Zufallsvariable. Satz 3.5. Sei ein p (0, 1) gegeben. Dann gibt es ein k > 0, sodass das p-konfidenzintervall I m folgender Form ist: [ I m = µ kσ, µ + kσ ] m m (3.4) Beweis. In diesem Beweis nehmen wir an, dass m hinreichend groß ist, sodass ˆX approximativ normalverteilt ist. Zuerst berechnen wir die Varianz des 32

33 KAPITEL 3. MONTE-CARLO-SIMULATION Monte-Carlo-Schätzers: ( ) var( ˆX 1 m m ) = var X i m i=1 = 1 m var(x m 2 i ) = σ2 m i=1 Für die Standardabweichung des Monte-Carlo-Schätzers gilt also: var( ˆX m ) = σ m Transformieren wir nun ˆX m zu einer standardnormalverteilten Zufallszahl, wie in Gleichung 2.2, das heißt: Y = ˆX m µ σ m N (0, 1) (3.5) Geben wir nun den Wert der Wahrscheinlichkeit p an und formen die Gleichung um: p = P ( k Y k) = P k ˆX m µ σ k m ( = P µ kσ ˆX m µ + kσ ) m m Für k gilt dann mit den Eigenschaften der Standardnormalverteilung: Mit P ( k Y k) = p folgt, dass P (Y k) = p + 1, was genau dann der Fall 2 2 ist, wenn für k gilt: ( p k = Φ ) (3.6) 2 Häufig ist uns aber die Varianz einer Zufallsvariable unbekannt, was die Notwendigkeit mit sich bringt, die Varianz zu schätzen. Die geschieht in der Regel mit der sogenannten korrigierten Stichprobenvarianz. Definition 3.6 (korrigierte Stichprobenvarianz). Sei X eine Zufallsvariable mit E[X] = µ und σ 2 = var(x). Weiter seien X 1,..., X m unabhängige und 33

34 KAPITEL 3. MONTE-CARLO-SIMULATION identisch verteilte Zufallszahlen mit X i X sowie dazu ˆX m der Monte- Carlo-Schätzer wie in Definition 3.3. Die korrigierte Stichprobenvarianz s 2 ist s 2 := 1 m 1 m (X i ˆX m ) 2 i=1 Bemerkung 3.7 (korrigierte Stichprobenvarianz und t-verteilung). Die korrigierte Stichprobenvarianz ist ein erwartungstreuer Schätzer von σ 2 = var(x). Da, wie oben bereits angemerkt, häufig auf die korrigierte Stichprobenvarianz zurück gegriffen wird und nicht die tatsächliche Varianz genutzt wird, ist es sinnvoll ein Konfidenzintervall für den Fall mit s 2 anzugeben. Wichtig ist, dass die standardisierte Zufallsvariable wie in den Gleichungen 2.2 bzw. 3.5 Z = ˆX µ m s nicht standard-normalverteilt ist, sondern nach der sogenannten studentschen t-verteilung mit m 1 Freiheitsgraden verteilt ist. Die Herleitung der Konfidenzintervalle erfolgt analog, bis auf die Tatsache, dass man das k in Gleichung 3.6 durch die Inverse der t-verteilung berechnet. Grundsätzlich ist die Standardnormalverteilung aber auch an dieser Stelle anwendbar, da die studentsche t-verteilung gegen die Standardnormalverteilung für m konvergiert, wie Mosler und Schmid [17, 4.3.2] gezeigt haben. Resultat daraus ist letztendlich, dass man für geeignet große m die Konfidenzintervalle nach Satz 3.5 berechnen kann, auch wenn man nur die korrigierte Stichprobenvarianz zur Verfügung hat. An der Form der Konfidenzintervalle erkennen wir nun aber zwei wichtige Eigenschaften der Monte-Carlo-Simulation. Erstens sehen wir, dass im Zähler der Konfidenzintervallgrenzen die Standardabweichung der Zufallsvariable X steht und somit die Konvergenz der Simulation beeinflusst. Je kleiner die Varianz und damit die Standardabweichung, desto schneller konvergiert die Methode. Deshalb erscheint es nur folgerichtig zur Verbesserung der Monte-Carlo-Methode bei der Varianz anzusetzen und zu versuchen diese zu reduzieren. Genaueres sehen wir in Kapitel 4, in welchem wir mehrere Methoden zur Varianzreduktion kennenlernen und anwenden werden.beispiele mit 95%-Konfidenzintervallen sehen wir in Kapitel 4 über Varianzreduktion. Zweitens sehen wir aber auch, dass die Konvergenz von der Ordnung O( 1 m ) ist, was die sehr langsame Konvergenz der Standardmethode erklärt. 3.2 Optionspreisbewertung Ausgehend von der Beschreibung einer Option aus Kapitel 2 und den Erkenntnissen, die wir in Abschnitt 3.1 bereits erworben haben, können wir 34

35 KAPITEL 3. MONTE-CARLO-SIMULATION nun Optionspreise mit dem Monte-Carlo-Schätzer approximieren. Dazu vergegenwärtigen wir uns die Notationen aus Kapitel 2. Sei S(t) also der Kurs des Underlying Assets zum Zeitpunkt t mit 0 t T, X der Strike der Option und T der Fälligkeitszeitpunkt. Betrachten wir hier eine europäische Calloption. Wir können zwei Fälle unterscheiden: (i) S(T ) > X, das bedeutet, dass eine Ausübung der Option sinnvoll wäre, denn das Underlying kann zu einem geringeren Preis gekauft werden als der Preis, zu dem es auf dem Markt gehandelt wird. (ii) S(T ) X. In diesem Fall wird der (rational handelnde) Holder die Option verfallen lassen. Für Putoptionen gelten diese Aussagen für die negierten Ungleichungen und wenn wir mit europäischen Optionen rechnen, genügt es den Zeitpunkt T zu betrachten, da die Option nur in T ausgeübt werden kann. Obiger Logik folgend, können wir für den Payoff der Option zum Zeitpunkt T die geschlossene Formel (S(T ) X) + = max{0, S(T ) X} (3.7) angeben. Damit wir Aussagen über den jetzigen Wert der Option machen können, ist es notwendig den Present Value des Payoffs, also den abgezinsten Wert, zu betrachten. Und da wir keine sichere Aussage darüber machen können, wie der Kurs des Underlying in T ist, müssen wir den erwarteten Barwert, den Erwartungswert des Present Value E[e rt (S(T ) X) + ] (3.8) berechnen. Hierbei bezeichnet r den risikolosen Zins wie in Kapitel 2, welche im Folgenden die erwartete Rendite µ des Underlying ersetzt. Das beruht auf dem Prinzip der risikoneutralen Bewertung (vgl. Glasserman [3, Abschnitt 1.2.2]), welches wir in dem Abschnitt 2.2 über die Marktannahmen vorausgesetzt haben. In Abschnitt 2.5 haben wir den Ansatz zur Beschreibung eines Kursverlaufs eines Assets kennengelernt. Gehen wir also davon aus, dass der Kurs S(T ) des Underlayings der stochastischen Differentialgleichung ds(t) S(T ) = rdt + σdw t (3.9) genügt (wie in Gleichung 2.14). W t bezeichnet hier einen Wiener Prozess mit Erwartungswert 0 und Varianz t, r den risikolosen Zins und σ die Volatilität des Underlyings. Die Lösung der Stochastischen Differentialgleichung ist gegeben durch S(T ) = S(0)exp ([r 1 ) 2 σ2 ]T + σw T 35

36 KAPITEL 3. MONTE-CARLO-SIMULATION (vgl. Glasserman [3, Kapitel 1]), wobei W T normalverteilt mit Erwartungswert 0 und Varianz T ist. Mit einer standardnormalverteilten Zufallsvariablen Z N (0, 1) gilt, wie wir in Gleichung 3.5 gezeigt haben, dass T Z verteilt ist wie W T. Vergleiche hierzu auch Seydel [21, S.32]. Damit ergibt sich für den Kurs des Assets zum Zeitpunkt T ( S(T ) = S(0)exp [r 1 2 σ2 ]T + σ ) T Z (3.10). Dieser Gleichung liegt zugrunde, dass wir zu gegebener Simulation des Wiener Prozesses eine Lösung der SDE aus Gleichung 3.9 genau bestimmen können. In manchen Fällen ist es aber so, dass wir nicht nur an dem Endwert des Kurses interessiert sind, sondern dass wir auch zu gegebenen Zeitschritten den Kurs des Assets benötigen, um den Optionswert angeben zu können. Das kommt zum Beispiel bei Asiatischen Optionen vor, die auf dem geometrischen oder arithmetischen Mittel des Kurses beruhen. In diesem Fall müssen wir mit einem Kursverlauf rechnen, der zu jedem diskreten Zeitpunkt einen Wert angibt. Darauf kommen wir am Ende dieses Kapitels zurück, indem wir einen Algorithmus mit der Euler-Maruyama-Diskretisierung angeben. Was haben wir in diesem Abschnitt bereits herausgefunden? 1. Wir haben mit Gleichung 3.8 eine Darstellung abhängig vom Kurs des Underlying für die erwartete Auszahlung. 2. Wir haben mit Gleichung 3.10 eine Formel für den (zufälligen) Kurs des Underlying abhängig von einer standardnormalverteilten Zufallszahl. Bringen wir Gleichung 3.8 und 3.10 zunächst zusammen. Dann haben wir, unter der Annahme, wir könnten den Erwartungswert berechnen und die standardnormalverteilte Zufallszahl erzeugen, alle Werkzeuge die erwartete Auszahlung C einer Option zu berechnen. C = E [ e rt ( ( S(0)exp ( [r 1 2 σ2 ]T + σ )) ) + ] T Z X (3.11) Tatsächlich haben wir gerade für die Erwartungswertberechnung den Monte- Carlo-Schätzer eingeführt. Sei nun der Monte-Carlo-Schätzer für die erwartete, abgezinste Auszahlung der Option Ĉm, Z i seien unabhängige, standardnormalverteilte Zufallszahlen und m die Anzahl der Wiener Prozesse. Dann gilt [ ( 1 m ( Ĉ m := e rt S(0)exp ([r 12 m σ2 ]T + σ )) ) + ] T Z i X i=1 (3.12) 36

37 KAPITEL 3. MONTE-CARLO-SIMULATION Mithilfe der kompakteren Schreibweise [ ) 1 m + ] Ĉ m = e rt S i (T ) X m i=1 (3.13) mit S i (T ) = S(0)exp ( [r 1 2 σ2 ]T + σ ) T Z i sehen wir direkt, dass man (S i (T ) X) + als Stichprobe einer Zufallsvariablen interpretieren kann. Das rechtfertigt, dass wir in Gleichung 3.12 von einem Monte-Carlo-Schätzer sprechen. Daraus folgen nun die in Abschnitt 3.1 hergeleiteten Eigenschaften eines Monte-Carlo-Schätzers, insbesondere, dass Ĉm C fast sicher konvergiert, für m. Zur numerischen Umsetzung dieses Verfahrens gilt Algorithmus 4, wie ihn Glasserman [3, Kapitel 1.1.2] hergeleitet hat. Input : T, X, S(0), r, σ for i=1,, m do generate Z i N (0, 1) set S i (T ) = S(0)exp ( [r 1 2 σ2 ]T + σ ) T Z i set C i = e rt (S i (T ) X) + end set Ĉm = 1 mi=1 C m i Result : approximativer Optionspreis Ĉm Algorithmus 4 : Grundalgorithmus zur Approximation des Optionspreises Durch Algorithmus 4 haben wir nun einen Grundalgorithmus hergeleitet, mit dem wir den Wert einer Europäischen Calloption berechnen können, für ein Put müsste S i (T ) X in X S i (T ) geändert werden. An dieser Stelle ist anzumerken, dass wir in Abschnitt 2.5 mit dem Euler-Maruyama-Verfahren eine Approximation des Kursverlaufs S(t i ) eingeführt haben. Diesen können wir nutzen, um pfadabhängige Optionen zu bewerten. Es liegt also nahe, den Kurs, der in dem dazugehörigen Algorithmus 3 berechnet wird, in Algorithmus 4 für S(t i ) einzusetzen. Sei dazu Λ(S(t)) die Auszahlungsfunktion einer beliebigen, pfadabhängigen Option, dann ist durch Algorithmus 5 der Algorithmus zur Optionsbewertung mit dem Euler-Maruyama-Verfahren gegeben. Einen Algorithmus für Asiatische Optionen geben wir in Kapitel 6 an, in welchem wir den Wert einer Asiatischen Option berechnen. Noch zu erläutern ist, wie die Erzeugung der standardnormalverteilten Zufallszahlen Z i effizient zu realisieren ist. Ein kurzer Überblick dazu wird uns im nächsten Abschnitt erwarten. Natürlich gelten die in Abschnitt 3.1 angesprochenen Probleme auch für unseren Algorithmus 4, sodass wir nicht umhin kommen, die Konvergenz des Verfahrens zu verbessern. Ansatz dazu wird die Varianz des Schätzers sein. Dazu in Kapitel 4 mehr. 37

38 KAPITEL 3. MONTE-CARLO-SIMULATION Input : T, X, S(0), r, σ for i=1,, m do for j = 1,,n do generate Z i,j N (0, 1) set S i (t j ) = S i (t j 1 ) + µs i (t j 1 ) t + σs i (t j 1 ) tz i,j end set C i = e rt Λ(S i (t)) end set Ĉm = 1 m mi=1 C i Result : approximativer Optionspreis Ĉm Algorithmus 5 : Approximation eines pfadabhängigen Optionspreises 3.3 Pseudozufallszahlen Random numbers should not be generated with a method chosen at random. Donald E. Knuth 1 Im vorherigen Abschnitt haben wir gesehen, dass Zufallszahlen eine zentrale Rolle in der Monte-Carlo-Simulation einnehmen. Deswegen erscheint es sinnvoll, sich Gedanken darüber zu machen, wie solche Zufallszahlen erzeugt werden und ob wir tatsächlich identisch verteilte und unabhängige Zufallszahlen erzeugen können. Zufallszahlen haben in der Mathematik und in der Informatik sehr viele Anwendungen, weswegen die Generierung von guten Zufallszahlen durchaus noch Gegenstand der aktuellen Forschung ist, wie der Mersenne-Twister-Algorithmus 2 aus dem Jahr 1997 eindrucksvoll zeigt. Dieser Abschnitt beruht vor allem auf dem Standardwerk Art of Computer Programming von Knuth [9, Kapitel 3], sowie Tools for Computational Finance [21, Kapitel 2] von Seydel, das sich speziell auf die finanzmathematische Anwendung bezieht. Für den Monte-Carlo-Algorithmus zur Optionsbewertung benötigen wir standardnormalverteilte Zufallszahlen X N (0, 1), um die Pfade der Wiener Prozesse zu simulieren. Dabei ist die Vorgehensweise, um standardnormalverteilte Zufallszahlen zu generieren, wie folgt: 1 siehe [9, Vol. II, Seminumerical Algorithms, Kapitel 3.1] 2 Die offizielle Seite des Mersenne-Twister-Algorithmus: m-mat/mt/emt.html 38

39 KAPITEL 3. MONTE-CARLO-SIMULATION (1) Erzeuge gleichverteilte (Pseudo-)Zufallszahlen Y U[0, 1] (2) Transformiere die gleichverteilten Zufallszahlen durch eine geeignete Funktion f(y ) so, dass die Zufallsgröße X := f(y ) standardnormalverteilt ist, also X N(0, 1) Wir sprechen an dieser Stelle von Pseudozufallszahlen, da Zufallszahlen, die mit einem deterministischen Algorithmus erzeugt worden sind, streng genommen nicht unabhängig sind. Sie weisen nur eine sehr geringe Korrelation auf und sind berechenbar. Ziel der folgenden Pseudozufallszahlengeneratoren zur Erzeugung gleichverteilter Zufallszahlen ist demnach die näherungsweise Unabhängigkeit der Zufallszahlen Linearer Kongruenzgenerator Der lineare Kongruenzgenerator nach Lehmer [12, s ] wurde bereits 1949 vorgestellt und ist einer der ersten Zufallszahlengeneratoren. Deswegen und weil er die Methodik vieler Zufallszahlengeneratoren verdeutlicht, stellen wir diesen Zufallszahlengenerator hier vor. Definition 3.8 (Linearer Kongruenzgenerator). Sei X eine endliche Menge, f : X X eine Funktion, der Modulus m eine natürliche Zahl und reelle Zahlen a, b, x 0 {0,..., m 1}, für die gilt: f(x n ) = x n+1 = (ax n + b) mod m (3.14) Dann heißt f linearer Kongruenzgenerator. Für den Fall, dass b = 0 ist, sprechen wir von einem multiplikativen Kongruenzgenerator. Input : Parameter a, b, m, x 0 wie in der Definition, Iterationshäufigkeit k m for i = 0,..., k do set x i+1 = (ax i + b) mod m set y i = x i m end Result : näherungsweise gleichverteilte Pseudozufallszahlen y i Algorithmus 6 : Linearer Kongruenzgenerator Aus der Iterationsvorschrift ergibt sich der Algorithmus 6 und die y i sind auf dem Einheitsintervall gleichverteilte Pseudozufallszahlen. Entscheidend für die Güte der Zufallszahlen ist hier vor allem die Wahl der Parameter a und m, denn es können maximal m verschiedene Zufallszahlen auftreten. Unter Umständen kann eine Zufallszahl x j zum zweiten Mal in der Iteration erzeugt werden, dann wiederholt sich die Periode und es wurden nur j verschiedene Zufallszahlen generiert, mit j < k. Die Problematik dessen wird an dem 39

40 KAPITEL 3. MONTE-CARLO-SIMULATION folgenden Zahlenbeispiel deutlich: Seien a = 2, m = 10, x 0 = 3, f(x n ) wie in Gleichung 3.14 und y i = x i, dann folgt m y 1 = 0, 6 y 2 = 0, 2 y 3 = 0, 4 y 4 = 0, 8 und für alle Indizes i {0, 1,..., k} gilt y i+4 = y i. Das bedeutet, dass nur fünf voneinander verschiedene Zufallszahlen erzeugt wurden. Zur Lösung dieses Problems bringen wir folgenden Satz von Knuth [9, Theorem A, Kapitel 3.2] an, der mit Erkenntnissen der Zahlentheorie bewiesen wurde. Deshalb verzichten wir auf diesen Beweis. Satz 3.9 (Knuth). Ein Linearer Kongruenzgenerator wie in Gleichung 3.14 mit m > 1 liefert für beliebigen Startwert X 0 {0, 1,..., m 1} genau dann maximale Periodenlänge von m, wenn die folgenden Bedingungen erfüllt sind: (1) b und m sind relativ prim (2) jede Primzahl, die Teiler von m ist, teilt auch a 1 (3) wenn 4 Teiler von m ist, dann ist auch a 1 durch 4 teilbar Dieser Satz hilft uns nun dabei, bessere Parameter für einen Kongruenzgenerator zu finden. Für eine detailliertere Darstellung sei an dieser Stelle auf Knuth [9, Kapitel 3.2] verwiesen. Der Modulus m kann z.b. durch m = festgelegt sein, da dies die größte darstellbare 32-Bit Zahl ist und gleichtzeitig die Bedingung einer Mersenne-Primzahl erfüllt. Dieser Logik folgend steht in Matlab ein multiplikativer Kongruenzgenerator mit den Parametern a = 7 5 und m = zur Verfügung, wie Lewis, Goodman und Miller [13] 1969 empfohlen haben. Diese Parameterwahl gewährleistet zwar nach obigem Satz maximale Periodenlänge, jedoch ist diese Länge für viele Anwendungen noch zu gering. Ein weiteres Problem bei Linearen Kongruenzgeneratoren ist, dass die erzeugten Pseudozufallszahlen beziehungsweise die d-tupel von d aufeinanderfolgenden Zufallszahlen (y 1, y 2... y d ), (y d+1, y d+2... y 2d ),... [0, 1] d auf Hyperebenen liegen. Marsaglia spricht von crystalline nature of multiplicative generators 3. Das entspricht natürlich nicht der Anforderung von einer Gleichverteilung und Unabhängigkeit der Zufallszahlen. Hierbei ist zu beachten, dass eine höhere Anzahl an Hyperebenen, eine bessere Verteilung der Zufallszahlen gewährleistet. Marsaglia [14] zeigte, dass bei gegebenem Modulus m und gegebener Dimension d maximal (d!m) 1 d Hyperebenen im d-dimensionalem Einheitswürfel existieren, auf denen die d-tupel liegen. Diese Berechnungen beziehen sich auf multiplikative Kongruenzgeneratoren, für Generatoren mit b 0 gelten aber analoge Aussagen. Für eine weitergehende Analyse des Hyperebenenverhaltens von Kongruenzgeneratoren sei auf Seydel [21, Kapitel 2.1.3] verwiesen. Wir sehen im folgenden Beispiel, dass die d-dimensionalen Vektoren durchaus auf sehr wenigen Hyperebenen 3 Marsaglia [14, Seite 1, Zeile 15] 40

41 KAPITEL 3. MONTE-CARLO-SIMULATION liegen können und die obere Schranke, die Marsaglia angibt, deutlich unterschritten wird. Abbildung 3.1: 3-dimensionale Zufallsvektoren mit RANDU I Beispiel 3.10 (RANDU). Betrachten wir für einen multiplikativen Kongruenzgenerator (wie in Gleichung 3.14 defniert) den Fall a = und m = Dieser Generator heißt RANDU und wurde in den 1960er Jahren von IBM verbreitet. Die daraus resultierenden dreidimensionalen Zufallsvektoren liegen aber, wie auch Seydel [21] gezeigt hat, auf nur 15 Hyperebenen, was diesen Generator für die meisten Anwendungen unbrauchbar macht. In Abbildung 3.1 sind Zufalllszahlen zu dreidimensionalen Vektoren zusammengefasst. Auf den ersten Blick erscheint die Verteilung der Punkte im dreidimensionalen Einheitsintervall annähernd gleichverteilt. Rotieren wir aber die Grafik, was in Abbildung 3.2 dokumentiert ist, lassen sich die (nur) 15 Ebenen deutlich erkennen. 41

42 KAPITEL 3. MONTE-CARLO-SIMULATION Abbildung 3.2: 3-dimensionale Zufallsvektoren mit RANDU II Die Abbildungen sind mit den Matlabcodes 8.3 und 8.4 erzeugt worden. Dabei ist zu beachten, dass die Abbildungen, die Matlab erzeugt, von Hand rotiert werden müssen, um das Hyperebenenverhalten erkennbar werden zu lassen. Auch wenn die Periodizität der linearen Kongruenzgeneratoren Probleme bereitet, sind sie dennoch Grundlage einiger weiterentwickelter Generatoren, die wir aber nicht näher behandeln werden. So haben unter anderem Wichmann und Hill [23] kombinierte Generatoren zur Verbesserung des vorgestellten Algorithmus nach Lehmer [12] vorgestellt, die auf Multiplikative Kongruenzgeneratoren zurückgreifen. Ziel dabei war die Hyperflächenproblematik der Zufallszahlen zu verringern, sowie die Periodenlänge zu erhöhen, ohne dabei jedoch den Eingabewert des Modulus m zu erhöhen. Letzteres führt bei der Implementation unter anderem hinsichtlich der Darstellbarkeit der Zahlen zu Problemen. Für eine tiefergehende Diskussion dieser Generatoren kann auf Wichmann und Hill [23] oder Glasserman [3] zurückgegriffen werden Weitere Generatoren Neben den Linearen Kongruenzgeneratoren gibt es einige weitere, sehr einfache Methoden, die relativ gute Ergebnisse hervorbringen, so zum Beispiel der sogenannte verzögerte Fibonacci-Generator. Dieser ist durch die Vorschrift N i+1 = (N i α N i β ) mod m definiert. Hierbei muss die natürliche Zahl i größer als α und β sein. Das bedeutet, dass die Werte N 1,..., N max{α,β} durch einen anderen Zufallszahlengenerator, zum Beispiel durch einen Linearen Kongruenzgenerator, erzeugt 42

43 KAPITEL 3. MONTE-CARLO-SIMULATION annähernd gleich- werden müssen. Dann sind die Pseudozufallszahlen N i+1 m verteilt auf dem Einheitsintervall. Mersenne-Twister Der aktuell wichtigste Generator ist der von Matsumoto und Nishimura [16] entwickelte Mersenne-Twister-Algorithmus, der Elemente der Fibonacci- Generatoren und der Linearen Kongruenzgeneratoren aufnimmt. Ziel war es, die Nachteile der vorhergehenden Generatoren auszumerzen, wie die zu geringe Periodizität und die Gitterstruktur der Zufallsvektoren. Das ist der Grund, dass in vielen mathematischen Programmen der Mersenne-Twister- Algorithmus als Standardgenerator implementiert ist. Matsumoto und Nishimura [16] haben eine Periodenlänge von (eine Mersenne-Primzahl) erreicht, konnten aber trotzdem eine sehr schnelle Berechnungszeit und die Gleichverteilung bis in Dimension 623 gewährleisten. Letzteres ist in dem Sinne, wie wir es auch in Beispiel 3.10 (RANDU) diskutiert haben, zu verstehen. 3.4 Standardnormalverteilte Zufallszahlen Nachdem wir gesehen haben, auf welche Art und Weise (näherungsweise) gleichverteilte Zufallszahlen generiert werden können, ist die Frage, wie wir von gleichverteilten zu normalverteilten Zufallszahlen kommen. Dazu bieten sich grundsätzlich zwei Vorgehensweisen an: (i) Invertierung der Verteilungsfunktion (ii) Transformation der Zufallszahlen Grundlage der ersten Idee ist folgender Satz. Satz Sei U eine auf dem Einheitsintervall gleichverteilte Zufallsgröße und F eine stetige, streng monoton wachsende Verteilungsfunktion. Dann ist die, durch Z := F 1 (U) gegebene Zufallsgröße Z, nach F verteilt. Beweis. Es sei zuerst angemerkt, dass die Inverse F 1 aufgrund der Monotonie existiert. Mit den Eigenschaften der Gleichverteilung folgt für alle z aus dem Einheitsintervall P (U z) = z 43

44 KAPITEL 3. MONTE-CARLO-SIMULATION, was man schreiben kann als P (U F (z)) = F (z) und das liefert uns direkt die Behauptung: P (F 1 (Z) z) = F (z) An dieser Stelle fällt auf, dass für eine bestimmte Wahrscheinlichkeitsverteilung die Inverse der Verteilungsfunktion bekannt sein muss. Da wir in diesem Kapitel nicht an allgemeinen Verteilungen interessiert sind, sondern explizit standardnormalverteilte Zufallszahlen erzeugen wollen, ist das ein Problem für uns. Für die Normalverteilung existiert nämlich keine geschlossene Formel der Verteilungsfunktion und ihrer Inversen. Aus diesem Grund sind wir hier auf numerische, das heißt approximative Verfahren zur Invertierung der Verteilungsfunktion angewiesen Invertierung Zur Invertierung der Standardnormalverteilung kann unter anderem auf den Beasley-Springer-Moro Algorithmus zurückgegriffen werden. Dieser ist in Matlabcode 8.5 realisiert und erzeut sehr genaue Werte für die Inverse der Standardnormalverteilung. Hierbei wurde Glassermans Formulierung des Algorithmus [3, s.67/68] genutzt. Für Abbildung 3.3 sind gleichverteilte Zufallszahlen dem Algorithmus von Beasley-Springer-Moro übergeben und die Häufigkeit des Auftretens der Werte als Balkendiagramm dargestellt. Wir erkennen sofort, dass die erzeugten Zahlen approximativ standardnormalverteilt sind. 44

45 KAPITEL 3. MONTE-CARLO-SIMULATION Abbildung 3.3: Zufallszahlen mit dem Beasley-Springer-Moro-Algorithmus Um den zweiten Ansatz zu beleuchten, müssen wir uns der Wahrscheinlichkeitstheorie bedienen und einen einfachen Fall des Transformationssatzes betrachten. Satz Sei U eine Zufallsvariable mit Dichtefunktion f auf der Menge A = {x R n : f(x) > 0} und sei g eine Transformation mit g : A B = g(a). Ferner sei die Transformation g umkehrbar und ihre Inverse g 1 sei stetig differenzierbar. Dann gibt die Abbildung z f(g 1 (z)) dg 1 dz (z) die Wahrscheinlichkeitsdichte der Zufallsvariable Z := g(u) für z B an. Beweis. Für einen Beweis sei auf Devroye [1, Theorem 4.2] verwiesen. Um diesen Satz auf unsere Problemstellung anwenden zu können, müssen wir für alle reellen Zahlen x aus dem Einheitsintervall f(x) = 1 setzen. Das Einheitsintervall definiert dann die Menge A und Satz 3.12 ergibt für den Fall im Eindimensionalen eine Differentialgleichung erster Ordnung. Wir suchen eine Funktion g(x), die die Gleichung dg 1 dz (z) = 1 2π exp( z2 2 ) erfüllt. Analytisch können wir diesen Fall nicht berechnen. Dafür aber im zweidimensionalen Fall. Das führt uns zum sogenannten Box-Muller-Verfahren. 45

46 KAPITEL 3. MONTE-CARLO-SIMULATION Box-Muller-Algorithmus Beziehen wir uns in diesem Abschnitt auf die Notation des Satzes 3.12 und definieren in diesem Sinne A als den zweidimensionalen Einheitswürfel [0, 1] 2 und setzen f(x) = 1 für alle x aus A. Man kann dann zeigen, worauf wir an dieser Stelle verzichten und auf Seydel [21, Kapitel 2.3.1] verweisen wollen, dass die Transformation g(x) = 2ln(x 1 ) cos(2πx 2 ) 2ln(x 1 ) sin(2πx 2 ), x = ( x1 x 2 ) A (3.15) den Anforderungen des Satzes 3.12 genügt und die Determinante der Jacobi Matrix genau die Dichtefunktion der zweidimensionalen Standardnormalverteilung ist. Wenn also U auf [0, 1] 2 gleichverteilt ist, so ist g(u) standardnormalverteilt Polar-Algorithmus Um den Box-Muller-Algorithmus zu verbessern, insbesondere um die trigonometrischen Funktionen zu umgehen, entwickelten Marsaglia und Bray [15] den sogenannten Polar-Algorithmus. Dieser ist weniger aufwendig, da er durch Polartransformation die trigonometrischen Funktionen vermeidet. Dazu seien U 1, U 2 auf dem Einheitsintervall gleichverteilte Zufallszahlen, dann sind V 1 := 2U 1 1 und V 2 = 2U 2 1 auf dem Intervall [-1,1] gleichverteilt. Für den Polar-Algorithmus werden nun alle Zufallszahlen verworfen, die, jeweils zu zweidimensionalen Vektoren zusammengefasst, nicht auf der Einheitskreisscheibe liegen. In Formeln ausgedrückt verwerfen wir diese Zufallszahlen V 1, V 2, für die die Ungleichung V := V1 2 + V2 2 1 gilt. Die akzeptierten Zahlen transformieren wir wieder auf das Einheitsquadrat mit der Polartransformation T ( V1 V 2 ) = ( V1 2 + V2 2 1 arctan( V 2 2π. Nun können wir festhalten, dass, wenn T 1 und T 2 die erste und die zweite Komponente der Transformation definiert, Z 1 := 2ln(T 1 ) sowie Z 2 := 2ln(T 2 ) standardnormalverteilt sind. Durch Umformungen können wir folgende Form erreichen Z 1 = V 1 2 ln(v ) V und Z 2 = V 2 2 ln(v ) V V 1 ) ) 46

47 KAPITEL 3. MONTE-CARLO-SIMULATION Damit ergibt sich ein Algorithmus auf Grundlage der Idee des Box-Muller- Verfahrens, der aber deutlich weniger Aufwand benötigt. Auch wenn man miteinbezieht, dass ein Teil der erzeugten Zufallszahlen verworfen wird und deshalb weniger Zufallszahlen entstehen als bei dem Box-Muller-Verfahren. Eben jener Grund ist es aber auch, der dazu führt, dass häufig mit numerischer Invertierung der Standardnormalverteilung gearbeitet wird und nicht mit der Transformation, zum Beispiel in Form des Polar-Algorithmus. Bei der numerischen Invertierung werden keine der bereits erzeugten, gleichverteilten Zufallszahlen verworfen, was einen Effizienzvorteil darstellen kann. Das ist auch in der Abbildung 3.4 zu erkennen, hierzu wurden mit dem Polaralgorithmus aus gleichverteilten Zufallszahlen standardnormalverteilte Zufallszahlen erzeugt. Die Grafik ähnelt Abbildung 3.3 sehr stark, was durchaus wünschenswert ist. Aber in Abbildung 3.4 sind zum selben Input deutlich weniger Zufallszahlen entstanden. Es wurden insgesamt standardnormalverteilte Zufallszahlen erzeugt, im Gegensatz zum Beasley- Springer-Moro-Algorithmus, in dem es waren. Das liegt an der angesprochenen Verwerfung der unerwünschten Zahlen. Die Implementation zur Abbildung 3.4 ist in Matlabcode 8.6 wiederzufinden. Abbildung 3.4: Zufallszahlen mit dem Polar-Algorithmus 47

48

49 4 Varianzreduktion Monte-Carlo-Methoden weisen eine Konvergenz auf, die zum einen nicht allzu schnell erscheint und zum anderen von der Varianz des Monte-Carlo- Schätzers abhängt. Wir haben darauf schon im Kapitel 3 in Satz 3.5 hingewiesen und wollen nun in diesem Kapitel zwei Methoden einführen, die zu einer geringeren Varianz des Schätzers und somit zu einer schnelleren Konvergenz führen. Techniken, die zu einer Reduktion der Varianz führen können, haben Glasserman [3] sowie Müller-Gronbach et al. [18] genauer untersucht. Das Kapitel beruht zwar in Grundzügen auf den Erkenntnissen dieser Lehrwerke, dennoch vermag es diese Arbeit nicht die Thematik der Varianzreduktion in dem Umfang, wie es vor allem bei Glasserman [3] der Fall ist, zu beschreiben. Deshalb werden wir nur zwei verbreitete Verfahren behandeln, die Methode der Antithetic Variates und die der Control Variates. Weitere Verfahren können in Glassermans Buch [3, Kapitel 4] nachgelesen werden. Diese Methoden tragen hier wie auch in der (deutschen) Literatur der Einheitlichkeit halber englische Bezeichnungen. 4.1 Antithetic Variates Betrachten wir eine standardnormalverteilte Zufallsvariable Z, da wir damit eine geometrische Brownsche Bewegung simulieren wollen. Wegen der Symmetrie der Standardnormalverteilung um 0 betrachten wir zu Z auch Z. Für eine zweimal differenzierbare Funktion f definieren wir dann den geraden Anteil der Funktion f g (Z) = 1 (f(z) + f( Z)) sowie den ungeraden Anteil 2 f ug (Z) = 1(f(Z) f( Z)). Es gilt die Gleichheit f(z) = f 2 g(z) + f ug (Z). Wenden wir den Monte-Carlo-Schätzer z.b. zur numerischen Integration oder zur Erwartungswertberechnung auf den geraden Anteil der Funktion an, so nähert diese Approximation denselben Wert an, wie der Monte-Carlos- Schätzer auf die Funktion angewendet. Das liegt an der Symmetrie der Zufallsvariablen Z und dem Transformationssatz. Es gilt nämlich die Identität E[f(Z)] = E[f g (Z)]. Somit folgt der Monte-Carlo-Schätzer mit Antithetic Variates Ŷ := 1 m f g (Z i ) = 1 m (f(z i ) + f( Z i )) (4.1) m 2m i=1 Aber ist durch die Einführung der Antithetic Variates tatsächlich eine Varianzreduktion erfolgt? Wir rechnen nach. Dazu machen wir uns klar, dass i=1 49

50 KAPITEL 4. VARIANZREDUKTION wir, um ein vergleichbares Ergebnis zu erzielen, doppelt so viele Standard Monte-Carlo-Simulationen machen können wie Simulationen mit Antithetic Variates. Das liegt an den in etwa doppelt so hohen Kosten bei der Berechnung mit Antithetic Variates. Eine geringere Varianz haben wir also genau dann, wenn V ar(ŷ ) < V ar ( 1 2m gilt. Die linke Seite berechnet sich wie folgt 2m i=1 f(z i ) ( ) 1 m V ar(ŷ ) = V ar f(z i ) + f( Z i ) 2m i=1 = 1 ( m ) 4m V ar 2 ) f(z i ) + f( Z i ) i=1 = 1 4m V ar (f(z i) + f( Z i )) (4.2), wobei wir die lineare Transformationseigenschaft der Varianz benutzt haben und, dass die Zufallsvariablen f(z i ) + f( Z i ) identisch verteilt und unabhängig sind. Für die rechte Seite ergibt sich: V ar ( 1 2m Also ist zur Ungleichung 4.2 2m i=1 f(z i ) ) = 2m 4m 2 V ar(f(z i)) = 1 2m V ar(f(z i)) 1 4m V ar(f(z i) + f( Z i )) < 1 2m V ar(f(z i)) äquivalent. Mit einigen Umformungen und Satz 2.2 aus Kapitel 2 ergibt sich dann V ar(f(z i )) + V ar(f( Z i )) + 2Cov(f(Z i ), f( Z i )) < 2V ar(f(z i )), was genau Cov(f(Z i ), f( Z i )) < 0 ergibt. Das bedeutet, wir haben eine Varianzreduktion mittels Antithetic Variates, genau dann, wenn die Kovarianz der Zufallszahlen negativ ist. 50

51 KAPITEL 4. VARIANZREDUKTION 4.2 Control Variates Für die Varianzreduktion mittels Control Variates betrachten wir zuerst einen Zufallsvektor (X, Y ), wobei X und Y zweimal integrierbar sind. Außerdem soll Y derart sein, dass wir den Erwartungswert E[Y ] leicht berechnen können. Sei also E[X] der Erwartungswert, den wir berechnen wollen und sei b eine beliebige reelle Zahl, dann ist zur Control Variate ˆX b := X b(y E[Y ]) der Monte-Carlo-Schätzer wie folgt gegeben Ĉ m,b = 1 m ˆX i,b m i=1 = 1 m (X i b(y i E[Y ])) m i=1 = be[y ] + 1 m (X i by i ) (4.3) m i=1, wobei (X i, Z i )) unabhängig und wie (X, Y ) verteilt sind. Dass der Schätzer Ĉ m,b gegen den einfachen Monte-Carlo-Schätzer 1 mi=1 X m i konvergiert, ist offensichtlich. Nun stellt sich die Frage, wie das b aussehen muss, damit wir eine möglichst gute Varianzreduktion erhalten. Setzen wir dazu voraus, dass V ar(x) > 0 sowie V ar(y ) > 0 und ρ X,Y den Korrelationskoeffizienten von X und Y angibt. Satz 4.1. Für die minimale Varianz des modifizierten Schätzers aus Gleichung 4.3 gilt: min b R V ar(ĉm,b) = V ar(x(1 ρ 2 X,Y )) = V ar(ĉm,b ) und b = Cov(X, Y ) V ar(y ). (4.4) Beweis. Für einen Beweis sei auf Müller-Gronbach et al. [18, Satz 5.8] verwiesen. Nun sagt uns der Satz 4.1 neben dem optimalen Wert für b auch, dass wir möglichst ein Y wählen sollten, das stark mit X korreliert. Das Vorzeichen des Korrelationskoeffizienten ist hier egal. Ein Problem bei der Anwendung des optimalen b aus Gleichung 4.4 ist, dass wir meist, wenn der Erwartungswert von X unbekannt ist, die Kovarianz von X und Y nicht berechnen können. Deshalb nutzt man häufig anstelle der Kovarianz die korrigierte Stichprobenkovarianz, wie auch die korrigierte Stichprobenvarianz für die 51

52 KAPITEL 4. VARIANZREDUKTION Varianz von Y. Das heißt unser optimales b schreiben wir näherungsweise als mi=1 (Y i ˆbm = Ȳ )(X i X) mi=1 (Y i Ȳ (4.5) )2 und wir ersetzen b in Gleichung 4.3 durch ˆb m, wobei hier X sowie Ȳ jeweils das arithmetische Mittel der Stichprobe bezeichnet. Glasserman [3, s.187] sowie Müller-Gronbach et al. [18, Satz 5.11] haben gezeigt, dass ˆb m gegen b mit Wahrscheinlichkeit 1 für m konvergiert. Beispiel 4.2. Wenn wir Optionsbewertung mit einer varianzreduzierten Monte- Carlo-Simulation durchführen wollen, so können wir, wie es Glasserman [3, s.188/189] vorgeschlagen hat, neben dem Payoff der Option den Kurs des Underlying als Y in dem modifizierten Monte-Carlo-Schätzer nutzen. Vorteil daran ist, dass wir die Kurse zu allen Zeitpunkten und zu allen Pfaden bereits berechnet haben. Außerdem kennen wir den Erwartungswert des Kurses S(t), nämlich exp(rt )S(0), wobei hier wieder r der risikolose Zins und T der Fälligkeitszeitpunkt ist. Für das b berechnen wir die Varianz von S(t) sowie die Kovarianz von S(t) und des Payoffs mittels der korrigierten Stichprobenvarianz und der korrigierten Stichprobenkovarianz wie in Gleichung 4.5 angegeben. Die Implementation des optimalen b ist in Matlabcode 8.10 realisiert. Darauf aufbauend können wir die Monte-Carlo-Simulation mit Control Variates berechnen, wie beispielhaft in Matlabcode In Abbildung 4.1 ist ebenjenes berechnet und die Konfidenzintervalle wie in Satz 3.5 des einfachen Monte-Carlo-Schätzers dem Schätzer mit Control Variates gegenüber gestellt. Es wurde eine europäische Calloption mit Strike X = 100, risikolosem Zins von 10%, Volatilität von 35%, Fälligkeitszeitpunkt T = 1, Startwert S 0 = 90 und jeweils 100 Zufallszahlen pro simuliertem Pfad beschrieben. Wir betrachten das Verhalten der Konfidenzintervalle in Abhängigkeit von der Anzahl der simulierten Wiener Prozesse. Die Berechnungen, die zu der Abbildung 4.1 geführt haben, sind mit dem Matlabcode 8.7 erzeugt worden. Zu beachten ist hier, dass der Monte-Carlo-Schätzer mit Control Variate einen größeren Aufwand hat, wenn man den Algorithmus mit dem einfachen Monte-Carlo-Schätzer vergleicht. Der Mehraufwand ist in etwa der Größenordnung von m, der Anzahl der Simulationen. Deshalb stellen wir den Schätzer mit Control Variates und Simulationshäufigkeit m dem einfachen Monte-Carlo-Schätzer mit 2m Simulationen gegenüber. In der Abbildung 4.1 ist auf der X-Achse dementsprechend die Anzahl der Simulationen mit Control Variates abgetragen, der Standard Schätzer wurde jeweils doppelt so oft simuliert. 52

53 KAPITEL 4. VARIANZREDUKTION Abbildung 4.1: Konfidenzintervalle des Standard Monte-Carlo-Schätzers und des Schätzers mit Control Variates Beispiel 4.3. Betrachten wir nun ein nahezu identisches Setting wie in Beispiel 4.2, in dem die Parameter bis auf die Anzahl der Zufallszahlen pro Pfad gleich sind. Hier nutzen wir 1500 Zufallszahlen pro Wiener-Prozess. Mit dem Programmcode 8.11 kann der näherungsweise Optionswert der Europäischen Option aus Beispiel 4.2 in Abhängigkeit von der Anzahl der Pfade berechnet werden. An dieser Stelle nutzen wir Control Variates und Antithetic Variates separat, um die Genauigkeit dieser varianzreduzierten Methoden zu zeigen. Das Ergebnis dieser Implementation liegt mit Abbildung 4.2 vor. Es ist zu erkennen, dass bei den varianzreduzierten Methoden eine deutlich geringere Anzahl an Pfadsimulationen nötig ist, um eine gewisse Genauigkeit zu erhalten. Außerdem sehen wir in unserem Beispiel, dass sowohl die Methode der Control Variates als auch die Methode der Antithetic Variates eine Verbesserung der Konvergenz herbeiführt. Die modifizierten Schätzer erzeugen mit weniger Aufwand als der Standard Schätzer eine vergleichbare Genauigkeit des Optionswertes. 53

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Nr. 4: Pseudo-Zufallszahlengeneratoren

Nr. 4: Pseudo-Zufallszahlengeneratoren Proseminar: Finanzmathematische Modelle und Simulationen Martin Dieckmann WS 09/0 Nr. 4: Pseudo-Zufallszahlengeneratoren Begriff Pseudo-Zufallszahl Zufallszahlen im Rechner entstehen letztlich immer durch

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Optionspreistheorie Seminar Stochastische Unternehmensmodelle

Optionspreistheorie Seminar Stochastische Unternehmensmodelle Seminar Stochastische Unternehmensmodelle Lukasz Galecki Mathematisches Institut Universität zu Köln 1. Juni 2015 1 / 30 Inhaltsverzeichnis 1 Was ist eine Option? Definition einer Option Übersicht über

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Das Black-Scholes Modell

Das Black-Scholes Modell Vathani Arumugathas Das Black-Scholes Modell 1 Das Black-Scholes Modell Vathani Arumugathas Seminar zu Finanzmarktmodellen in der Lebensversicherung, Universität zu Köln 10. Juni 016 Inhaltsverzeichnis

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral

Mehr

Einige parametrische Familien für stochastische Prozesse

Einige parametrische Familien für stochastische Prozesse Einige parametrische Familien für stochastische Prozesse Seminar: Grundlagen der und Statistik von dynamischen Systemen 26. November 2014 Inhaltsverzeichnis 1 Einleitung 2 3 4 5 Einleitung Ziel des Vortrages:

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

1 Stochastische Konvergenz 2

1 Stochastische Konvergenz 2 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.

Mehr

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler 6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()

Mehr

Stochastik für die Naturwissenschaften

Stochastik für die Naturwissenschaften Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 7. n (Konvergenz, LLN, CLT) n heisst für uns n gross Literatur Kapitel 7 * Statistik in Cartoons: Kapitel 5, Seite 114 in Kapitel 6 * Stahel:

Mehr

7 Zufallszahlen, Simulation

7 Zufallszahlen, Simulation 7 Zufallszahlen, Simulation Es ist nützlich, Folgen von i.i.d. R[0, 1]-verteilten Zufallszahlen auf einem Rechner erzeugen zu können vgl. Simulation, Monte-Carlo-Verfahren). Letztere sind i.a. keine echten

Mehr

Monte-Carlo Tests. Diplomarbeit. Wiebke Werft. Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf

Monte-Carlo Tests. Diplomarbeit. Wiebke Werft. Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Monte-Carlo Tests Diplomarbeit Wiebke Werft Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Düsseldorf im Dezember 2003 Betreuung: Prof. Dr. Arnold Janssen Inhaltsverzeichnis Einleitung

Mehr

K8 Stetige Zufallsvariablen Theorie und Praxis

K8 Stetige Zufallsvariablen Theorie und Praxis K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

Simulation von Zufallsvariablen und Punktprozessen

Simulation von Zufallsvariablen und Punktprozessen Simulation von Zufallsvariablen und Punktprozessen 09.11.2009 Inhaltsverzeichnis 1 Einleitung 2 Pseudozufallszahlen 3 Punktprozesse Zufallszahlen Definition (Duden): Eine Zufallszahl ist eine Zahl, die

Mehr

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Statistik Dr. Thomas Zehrt Ausblick Motivation Wir werfen einen Würfel 000-mal und wir möchten die Wahrscheinlichkeit P bestimmen, dass zwischen

Mehr

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische

Mehr

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung R. Brinkmann http://brinkmann-du.de Seite 5.05.0 Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung Erwartungswert binomialverteilter Zufallsgrößen Wird ein Bernoulli- Versuch, bei

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

Stochastik für die Naturwissenschaften

Stochastik für die Naturwissenschaften Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 4. Zufallsgrösse X Literatur Kapitel 4 * Storrer: Kapitel (37.2)-(37.8), (38.2)-(38.3), (38.5), (40.2)-(40.5) * Stahel: Kapitel 4, 5 und 6 (ohne

Mehr

Beziehungen zwischen Verteilungen

Beziehungen zwischen Verteilungen Kapitel 5 Beziehungen zwischen Verteilungen In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.t. schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie

Mehr

Stochastik für die Naturwissenschaften

Stochastik für die Naturwissenschaften Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 7. n (Konvergenz, LLN, CLT) Literatur Kapitel 7 n heisst für uns n gross * Statistik in Cartoons: Kapitel 5, Seite 114 in Kapitel 6 * Stahel:

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Portfoliotheorie, Risikomanagenient und die Bewertung von Derivaten

Portfoliotheorie, Risikomanagenient und die Bewertung von Derivaten Jürgen Kremer Portfoliotheorie, Risikomanagenient und die Bewertung von Derivaten Zweite, vollständig überarbeitete und erweiterte Auflage 45J Springer Inhaltsverzeichnis Teill Ein-Perioden- Wertpapiermärkte

Mehr

Die Familie der χ 2 (n)-verteilungen

Die Familie der χ 2 (n)-verteilungen Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

67 Zufallsvariable, Erwartungswert, Varianz

67 Zufallsvariable, Erwartungswert, Varianz 67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In

Mehr

Euler-Approximation. Leonie van de Sandt. TU Dortmund Prof. Dr. Christine Müller. 5. Juni 2012

Euler-Approximation. Leonie van de Sandt. TU Dortmund Prof. Dr. Christine Müller. 5. Juni 2012 Euler-Approximation Leonie van de Sandt TU Dortmund Prof. Dr. Christine Müller 5. Juni 2012 Leonie van de Sandt (TU Dortmund) Euler-Approximation 5. Juni 2012 1 / 26 Inhaltsverzeichnis 1 Einleitung Leonie

Mehr

Stetige Standardverteilungen

Stetige Standardverteilungen Universität Basel Wirtschaftswissenschaftliches Zentrum Stetige Standardverteilungen Dr. Thomas Zehrt Inhalt: 1. Die stetige Gleichverteilung 2. Die Normalverteilung (a) Einstimmung (b) Standardisierung

Mehr

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009 Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

2 Aufgaben aus [Teschl, Band 2]

2 Aufgaben aus [Teschl, Band 2] 20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

10 Transformation von Zufallsvariablen

10 Transformation von Zufallsvariablen 10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :

Mehr

Seminar: Finanzmathematik. Bewertung von Barriere Optionen im Black-Scholes Modell sowie die Symmetrie von P. Carr

Seminar: Finanzmathematik. Bewertung von Barriere Optionen im Black-Scholes Modell sowie die Symmetrie von P. Carr Seminar: Finanzmathematik Bewertung von Barriere Optionen im Black-Scholes Modell sowie die Symmetrie von P. Carr Deniz Atug 4. April 2010 Zusammenfassung Die vorliegende Arbeit gibt eine Einführung in

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 8. Vorlesung Pseudozufallszahlen sind, wie der Name schon sagt, keine echten Zufallszahlen, sondern werden durch Generatoren erzeugt. Als Pseudozufallszahlen bezeichnet man Zahlenfolgen die durch einen

Mehr

Die n-dimensionale Normalverteilung

Die n-dimensionale Normalverteilung U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung

Mehr

9 Die Normalverteilung

9 Die Normalverteilung 9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k

Mehr

Nikolay Kachakliev Volatilitätsprodukte Eigenschaften, Arten und Bewertungen

Nikolay Kachakliev Volatilitätsprodukte Eigenschaften, Arten und Bewertungen Nikolay Kachakliev Volatilitätsprodukte Eigenschaften, Arten und Bewertungen IGEL Verlag Nikolay Kachakliev Volatilitätsprodukte Eigenschaften, Arten und Bewertungen 1.Auflage 2009 ISBN: 978 3 86815 358

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Mathematik für Naturwissenschaften, Teil 2

Mathematik für Naturwissenschaften, Teil 2 Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse

Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse Karlsruher Institut für Technologie Ulrich Husemann Institut für Experimentelle Kernphysik, Karlsruher Institut für Technologie

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Kapitel 8 Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Wir hatten im Beispiel 5. gesehen, dass die Wärmeleitungsgleichung t u u = f auf Ω (0, ) (8.1) eine parabolische Differentialgleichung

Mehr

SozialwissenschaftlerInnen II

SozialwissenschaftlerInnen II Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen

Mehr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Kapitel VII. Einige spezielle stetige Verteilungen

Kapitel VII. Einige spezielle stetige Verteilungen Kapitel VII Einige spezielle stetige Verteilungen D. 7.. (Normalverteilung) Eine stetige Zufallsgröße X sei als normalverteilt bezeichnet, wenn sie folgende Wahrscheinlichkeitsdichte besitzt: µ f ( ; µ,

Mehr

Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban

Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban Lösungsvorschlag studienbegleitende Klausur Finanzmathematik I Aufgabe (7 Punkte) Vorgelegt sei ein Wahrscheinlichkeitsraum (Ω, F, P) und

Mehr