Blatt 5. 2 Herleitung des linear komplementären Problems

Ähnliche Dokumente
Blatt 4. 1 Einführung. Programmierpraktikum Computational Finance. WS 2014/ 2015 Prof. Dr. Thomas Gerstner Marco Noll

Finite Elemente Methoden (aus der Sicht des Mathematikers) Alfred Schmidt

Einführung in numerische Methoden für Ingenieure (nach A. Quarteroni, F. Saleri: Wissenschaftliches Rechnen mit MATLAB)

u(x, 0) = g(x) : 0 x 1 u(0, t) = u(1, t) = 0 : 0 t T

1. Hierarchische Basen. 1. Hierarchische Basen Perlen der Informatik I, Hans-Joachim Bungartz page 1 of 33

Finite Elemente Methoden (aus der Sicht des Mathematikers)

Bewertung von europäischen und amerikanischen Optionen

Finite Elemente Methode für elliptische Differentialgleichungen

Bewertung Amerikanischer Optionen mit stochastischer Volatilität

Numerische Lineare Algebra

Hauptseminar: Moderne Simulationsmethoden

Symmetrische Gleichungssysteme Das Verfahren konjugierter Gradienten

Modellieren in der Angewandten Geologie II. Sebastian Bauer

KAPITEL 1. Einleitung

Iterative Methoden zur Lösung von linearen Gleichungssystemen

Inexakte Newton Verfahren

Kapitel 3. Diskretisierungsverfahren. 3.1 Elliptische Differentialgleichung

ẋ = αx(t) + βx(t τ) (1.3) 1.1 DDE als diskrete Abbildung x(t + h) = x(t) + hẋ(t) (1.2)

Klausur Mathematik II

38 Iterative Verfahren für lineare Gleichungssysteme

Lineare Gleichungssysteme

Bildverarbeitung: Diffusion Filters. D. Schlesinger ()Bildverarbeitung: Diffusion Filters 1 / 10

III. Iterative Löser. III.1 Direkte Löser und ihre Nachteile. III.2 Klassische lineare Iterationsverfahren

Bildverarbeitung: Kontinuierliche Energieminimierung. D. Schlesinger BV: () Kontinuierliche Energieminimierung 1 / 9

Glättung durch iterative Verfahren

Numerik gewöhnlicher Differentialgleichungen

Institut für Numerische Simulation der Universität Bonn Prof. Dr. Mario Bebendorf

Rheinisch-Westfälische Technische Hochschule. Gegeben seien eine gewöhnliche Dierentialgleichung (DGL) und ein Anfangswert. γ l K l.

Übung zur Numerik linearer und nichtlinearer Parameterschätzprobleme A. Franke-Börner, M. Helm

Kevin Caldwell. 18.April 2012

Lineare Gleichungssysteme Hierarchische Matrizen

Unstetige Galerkin-Verfahren und die lineare Transportgleichung. Tobias G. Pfeiffer Freie Universität Berlin

Adaptive Mehrschrittverfahren

Iterative Löser: Einführung

Analysis 4. Lösungsvorschlag zum 12. Übungsblatt

4 Fehlerabschätzungen und Konvergenz der FEM

1 Geometrie - Lösungen von linearen Gleichungen

5.3.5 Abstiegs & Gradientenverfahren

Übungen zu Einführung in die Numerische Mathematik (V2E2) Sommersemester 2016

Iterative Lösung Linearer Gleichungssysteme

Partielle Differentialgleichungen. Hofer Joachim/Panis Clemens

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom

Algebra und Zahlentheorie WS 13/14

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Numerische Behandlung von linearen Gleichungssystemen

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

Algorithmik III Algorithmen und Modelle für kontinuierliche Datenstrukturen

Iterative Verfahren für lineare Gleichungssysteme

Lineare Gleichungssysteme: eine Ergänzung

Einführung in die numerische Mathematik

3. Lineare Gleichungssysteme

10 Lineare Gleichungssysteme

Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt

Ein Blick über den Tellerrand... mit FreeFem++

Nichtlineare Gleichungssysteme

Kapitel 13. Lineare Gleichungssysteme und Basen

Übungsblatt 6 Musterlösung

Iterative Verfahren, Splittingmethoden

Diskontinuierliche Galerkin-Analyse für die lineare Elastizität. CES-Seminararbeit. Vorgelegt von: Siamak Mirzagholipour. Matr.Nr.:

7. Iterative Lösung. linearer Gleichungssysteme

Numerische Verfahren zur Lösung der Monge-Ampère-Gleichung, Teil II

Kurze Einführung in die Finite-Elemente-Methode

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

Einführung FEM 1D - Beispiel

Ausgleichsproblem. Definition (1.0.3)

Diskretisierungskonzepte für Optimalsteuerungsprobleme mit partiellen Differentialgleichungen

Lösungsvorschlag zur Nachklausur zur Analysis

Übungen zu Splines Lösungen zu Übung 20

Angewandte Strömungssimulation

Einführung in die numerische Lösung von partiellen Dierentialgleichungen mit C++

Schwache Lösungstheorie

Blatt 1. 1 Einführung. Programmierpraktikum Computational Finance. WS 2014/ 2015 Prof. Dr. Thomas Gerstner Marco Noll

Johannes Veit. 8. Januar 2016

Lösen der Matrizengleichung

Lösung zum 9. Tutorium

Angewandte Strömungssimulation

Numerische Methoden 7. Übungsblatt

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

Dipl.-Ing. Christoph Erath 10. November FVM-BEM Kopplung. Was gewinnen wir, wenn wir zwei numerische Methoden miteinander koppeln?

BERGISCHE UNIVERSITÄT WUPPERTAL Fachbereich C Mathematik und Naturwissenschaften

TECHNISCHE UNIVERSITÄT MÜNCHEN. Einführung in die Matrizenrechnung

Integration von Adaptivität in einen Dünngitterlöser für Basket-Optionen. Integration of Adaptivity into a Sparse Grid Solver for Basket Options

VF-2: 2. Es seien x = 1 3 und y = π Bei der Berechnung von sin(x) sin(y) in M(10, 12, 99, 99) tritt. Auslöschung auf.

Prüfung zur Vorlesung Mathematik I/II

Ferienkurs Mathematik für Physiker I Blatt 3 ( )

Studienschwerpunkt Numerische Mathematik

2 Lineare Gleichungssysteme

5 Lineare Gleichungssysteme und Determinanten

2. Quasilineare PDG erster Ordnung

Lösungen zu Mathematik I/II

Monte Carlo Finite Elemente Methode

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Algorithmen und Datenstrukturen (für ET/IT)

3. Approximation von Funktionen und Extremwertprobleme im R n

d) Produkte orthogonaler Matrizen sind wieder orthogonal.

Geraden in 3 Dimensionen in Form von 2 linearen Gleichungen in den 3 Unbekannten x 1, x 2, x 3.

Lineare Iterationsverfahren: Definitionen

Transkript:

Programmierpraktikum Computational Finance WS 2014/ 2015 Prof. Dr. Thomas Gerstner Marco Noll Programmierpraktikum Computational Finance Blatt 5 1 Einführung Auf diesem Blatt wollen wir nun Amerikanische Optionen über den PDE Ansatz berechnen. Der Wert von Amerikanischen Optionen ist jedoch nicht, wie bei Europäischen Optionen als Lösung einer Dierentialgleichung gegeben, sondern wegen der Möglichkeit der vorzeitigen Ausübung der Option als Lösung einer DierentialUngleichung, nämlich eines freien Randwertproblems. Für eine numerische Lösung wird das freie Randwertproblem als linear komplementäres Problem geschrieben und es werden nach Diskretisierung projektive iterative Verfahren, wie das projektive SOR oder das projektive CG Verfahren angewandt. Neben der Diskretisierung mit Finiten Dierenzen, die wir auf Blatt 4 kennengelernt haben, werden wir auf diesem Blatt auch Finite Elemente einsetzen. Mit Hilfe von hierarchischen Finiten Elementen ist es möglich das Diskretisierungsgitter adaptiv an lokale Unglattheiten der Lösung verfeinern, was die Konvergenzrate verbessert. Im Falle von Optionen ist die Lösung aufgrund des Knicks in der Auszahlungsfunktion in der Nähe des Ausübungszeitpunktes weniger glatt, als weiter entfernt. 2 Herleitung des linear komplementären Problems Auf Blatt 4 haben wir die BlackScholes Gleichung hergeleitet. Diese Herleitung gilt auch für Amerikanische Optionen, wobei hier jedoch an Stelle der Gleichung eine Ungleichung V t + 1 2 σ2 S 2 2 V V + rs rv 0 (1) S2 S entsteht. Weiterhin muÿ bei Amerikanische Optionen im Gegensatz zu Europäischen Optionen der Optionspreis aus Arbitragegründen immer über der Auszahlungsfunktion liegen, d.h. für Call Optionen und für Put Optionen V (S, t) (S K) + (2) V (S, t) (K S) +. (3) Diese beiden komplementären Bedingungen gelten für alle (S, t). Für den Fall, daÿ die strikte Ungleichung in (2),(3) gilt, muÿ in (1) Gleichheit gelten und damit ein Punkt S f (t) mit 0 < S f (t) < K existieren, für den V (S, t) = (K S) V (S, t) löst die BSGleichung für S S f (t) für S > S f (t) (4) gilt. Sobald S S f wird, sollte der Halter der Amerikanischen Option diese sofort ausüben. Dieser optimale Ausübungspunkt S f (t) ist jedoch a priori unbekannt und daher wird das Problem, den Optionspreis für S > S f (t) zu berechnen, auch freies Randwertproblem genannt (siehe Abb. 1). An dem optimalen Ausübungspunkt selbst müssen zwei Bedingungen gelten. Zum einen gilt, wie eben gesehen, V (S f (t), t) = S f (t) K (5)

V K S f K S Abbildung 1: Der Optionspreis einer Amerikanischen Put Option mit freiem Rand. und aus Arbitragegründen muÿ der Optionspreis V glatt in die Auszahlungsfunktion übergehen, d.h. V (S f (t), t) S = 1. (6) Im Prinzip muÿ also für Amerikanische Optionen auch nur die BlackScholes Gleichung gelöst werden, allerdings zusammen mit dem freien Rand S f (t). Nachdem der freie Rand S f (t) unbekannt ist, wird daher das Problem so umformuliert, daÿ die freien Randbedingungen nicht explizit auftreten. Dies geschieht Schreibweise des Ungleichungssystems als linear komplementäres Problem ( V t + 1 2 σ2 S 2 2 V V + rs S2 S rv ) (V (K S) + ) = 0 V t + 1 2 σ2 S 2 2 V V + rs rv 0 (7) S2 S (V (K S) + ) 0. mit den bereits bekannten Anfangsbedingungen und obigen Randbedingungen. Nach Transformation (3.1) vom letzten Blatt entsteht so das linear komplementäre Problem ( ) y τ 2 y x 2 (y g) = 0 ( ) y τ 2 y x 2 0 (8) mit der Anfangsbedingung und den Randbedingungen y g 0 y(x, 0) = g(x, 0) (9) lim y(x, τ) = lim g(x, τ) (10) x ± x ± wobei nach Diskretisierung hier wieder x min und x max verwendet werden. Die Funktion g(x, τ) ist die Auszahlungsfunktion nach Transformation, also mit q = 2r/σ 2, wie auf dem letzten Blatt. g(x, τ) = e 1 4 (q+1)2τ max{e 1 2 (q 1)x e 1 2 (q+1)x, 0} (11)

3 Lösung des linear komplementären Problems Zur Lösung des linear komplementären Problems kann jetzt nicht mehr die LRZerlegung, wie auf Blatt 4 beschrieben, verwendet werden. Daher wird hier auf iterative Verfahren, die vor allem bei mehrdimensionalen partiellen Dierentialgleichungen eingesetzt werden, zurückgegrien. Wir wollen hier zwei dieser Verfahren betrachten, das projektive SOR und das projektive CG Verfahren. 3.1 Projektives SOR Wir wollen nun das gleiche Diskretisierungsgitter ( τ, x) wie in 3.2 auf dem letzten Blatt beschrieben betrachten. Sei A die Iterationsmatrix des Zeitschrittverfahrens (also die Einheitsmatrix für das explizite Verfahren, die Matrix C für das implizite Verfahren, bzw. die Matrix A des CrankNicolson Verfahrens), b die rechte Seite (also y (j) für das explizite, y = y (j) + e (j) für das implizite und By (j) + d (j) für das CrankNicolson Verfahren), y = y (j) die aktuelle Iterierte und g = g (j) = g(x i, τ j ) = (g 1,j,..., g M 1,j ) T der Vektor bestehend aus der Funktion g aus Formel (11) ausgewertet an den Gitterpunkten. Dann ist wie aus Formel (8) ersichtlich in jedem Zeitschritt das folgende diskrete Problem (Ay b) T (y g) = 0, Ay b 0, y g (12) zu lösen. Das projektive SOR (sukzessive Überrelaxation) Verfahren entspricht dem normalen SOR Verfahren, wobei nur in jedem Iterationsschritt der Lösungsvektor komponentenweise auf g projiziert wird, um die Ungleichungen zu erfüllen. Der Parameter ω heiÿt Relaxationsparameter und kann in 1 ω 2 frei gewählt werden. Für viele Probleme kann ein optimales ω gefunden werden. In unserem Fall reicht es aus ω = 1 zu setzen, wodurch das SOR Verfahren zum GauÿSeidel Verfahren wird. Der folgende Algorithmus löst das System (12) mit dem projektiven SOR Verfahren.

setze z (0) = max{g (j), y (j) } wiederhole für i = 1, 2... M 1 i 1 r i = b i z (it+1) i k=1 a ik z (it+1) k M 1 k=i+1 = max{g (j) i, z (it) i + ω r i } a ii setze it = it + 1 solange z (it) z (it 1) < ε setze y (j+1) = z (it) a ik z (it) k Algorithmus 13: Das projektive SOR Verfahren. 3.2 Projektives CG Eine schnellere Konvergenz läÿt sich insbesondere für groÿe Zeitschrittweiten mit dem konjugierte Gradienten Verfahren erreichen. Auch hier existiert eine projektive Variante, die sich wie im folgenden Algorithmus beschrieben, darstellen läÿt z = max{g (j), y (j) } e = b r = b ρ = 0 init = 1 solange ρ/e < eps für i = 1,... M 1 z i = r i /a ii ρ = ρ ρ = r z falls init = 1 p = z init = 0 sonst p = (ρ/ ρ) p + z q = A p α = ρ/(p q) z = max{g (j), z + α p} r = r α q setze y (j+1) = z Algorithmus 14: Das projektive CG Verfahren. In beiden Verfahren läÿt sich der freie Rand in jedem Zeitschritt als derjenige Gitterpunkt y xi,τ j ermitteln, ab dem y(x i, τ j ) > g(x i, τ j ) (13) gilt. Nach Rücktransformation muÿ dann genau V (S, t) > (K S) gelten. 4 Diskretisierung mit Finiten Elementen Als letzte Variante wollen wir anstatt der Diskretisierung mit Finiten Dierentzen die exibleren Finiten Elemente betrachten. Hierbei wird die Lösung der Dierentialgleichung y = 0 (14)

Abbildung 2: Knotenbasis (oben) im Vergleich zur hierarchischen Basis (unten). auf [x min, x max ] mit den bekannten Randbedingungen variationell gelöst. Dies geschieht durch die Lösung des Gleichungssystems a(u, v) = (f, v) (15) wobei die Bilinearform a(, ) zum Dierentialoperator (14) gegeben ist als und (, ) das Standard L 2 Skalarprodukt a(u, v) = (f, v) = xmax x min u (x)v (x)dx (16) xmax x min f(x)v(x)dx (17) ist. Bei dem GalerkinAnsatz wird der Gleiche Raum an Basisfunktionen sowohl für die Ansatzfunktionen u als auch die Testfunktionen v verwendet, die in Basisdarstellung wie folgt aussehen u(x) = M c i φ i (x). (18) i=0 Wie bei Finiten Dierenzen sind die Unbekannten wiederum nur für 1 i M 1 gegeben. Es gibt verschiedene Wahlen für die Basisfunktionen φ (den niten Elementen), von denen stückweise lineare Funktionen die einfachste Wahl sind. Hierbei gilt φ i (x) = x x i 1 x i x i 1 für x i 1 x < x i x i+1 x x i+1 x i für x i x < x i+1 0 sonst mit entsprechenden Modikationen am Rand (siehe Abb. 2 oben). Stellt man nun das so entstehende Gleichungssystem (15) explizit auf, so stellt man fest, daÿ es mit dem Gleichungssystem aus dem Finite DierenzenVerfahren (nur die Ortsdiskretisierung) bis auf die Vorfaktoren übereinstimmt. Eine exiblere Möglichkeit besteht in der Verwendung hierarchischer Finiter Elemente, welche adaptive, also lokale Verfeinerung erlauben. Hierbei wird der Ansatzraum (in ähnlicher Weise wie bei der Brownschen Brücke) um eine LevelKomponente l erweitert und die Ansatz- bzw. Testfunktionen über die Doppelsume u(x) = (19) L M l c li ψ li (x) (20) l=0 i=1 wobei L der maximal betrachtete Level darstellt. Hierbei sind die Basisfunktionen wiederum Hutfunktionen, jedoch mit Maschenweite abhängig vom Level l x x l,i 1 x li x l,i 1 für x l,i 1 x < x l,i x ψ li (x) = l,i+1 x x l,i+1 x li für x l,i x < x l,i+1. (21) 0 sonst für l 1 mit ψ 0i (x) = ψ i (x) auf dem gröbsten Gitter (siehe Abb. 2 (oben)). Dabei sind x l,i die Gitterpunkte auf dem entsprechenden Gitter, im Falle von äquidistanten Gittern also x l,i = x min + (x max x min ) (2i 1)2 l (22)

mit M l = 2 l 1 für l 1 und x 00 = x min und x 01 = x max mit M 0 = 2 auf dem gröbsten Gitter. Das Gleichungssystem der hierarchischen Basis ist auf dem ersten Blick voller besetzt als das entsprechende Gleichungssystem der Knotenbasis. Allerdings kann unter Ausnutzung der Verfeinerungseigenschaft der hierarchischen Basis ψ li (x) = 1 2 φ 2i 1(x) + φ 2i (x) + 1 2 φ 2i+1(x), (23) wobei φ i (x) die entsprechende Knotenbasis mit der Maschenweite 2 l (x max x min ) ist, die Grundoperation Matrix Vektor Multiplikation von iterativen Verfahren bei der hierarchischen Basis genauso ezient ausgeführt werden wie bei der Knotenbasis. Der Vorteil der hierarchischen Basis liegt in der Möglichkeit der adaptiven Verfeinerung. Hierbei wird eine lokal an einer Stelle durch Hinzufügen von Basisfunktionen auf feineren Leveln verfeinert, wenn ein sogenannter Fehlerschätzer einen groÿen Fehler aufzeigt. Umgekehrt kann lokal durch weglassen von Basisfunktionen vergröbert werden, wenn der Fehlerschätzer einen kleinen Fehler indiziert. Ein einfacher Fehlerschätzer besteht in der Verwendung der hierarchischen Dierenz e l,i = (u l 1 (x) u l (x) [xl,i 1,x l,i+1 ] (24) also der Dierenz der Lösungen bis zu unterschiedlichen Leveln eingeschränkt auf den Träger der Basis ψ l,i. Der Fehlerschätzer wird dann mit einer vorgegebenen Fehlerschranke η verglichen um die Verfeinerung/Vergröberung zu steuern. 5 Implementierung Schreiben sie die folgenden Programme. Überprüfen Sie die Verfahren anhand der bereits programmierten Verfahren. PSOR(M, A, b, x, g): Das projektive SOR Verfahren zur Lösung des linear komplementären Problems (12). PCG(M, A, b, x, g): Das projektive CG Verfahren zur Lösung des linear komplementären Problems. FINITE_DIFFERENCE(M, N, xmin, xmax, K, T, sigma, r, Method, Eur, Call): Das Finite DierenzenVerfahren zur Lösung der BlackScholes Gleichung für Amerikanische (Eur=0) Call (Call=1) und Put (Call=0) Optionen mit den übrigen Parametern wie auf Blatt 4. FINITE_ELEMENT(M, N, xmin, xmax, K, T, sigma, r, Method, Eur, Call): Das Finite ElementeVerfahren basierend auf der stückweise linearen Knotenbasis zur Lösung der Black Scholes Gleichung für Europäische und Amerikanische Call Optionen mit Parametern wie bei obigem Finite Dierenzen Verfahren. HIER_FINITE_ELEMENT(M, N, xmin, xmax, K, T, sigma, r, Method, Eur, Call): Das Finite ElementeVerfahren basierend auf der stückweise linearen hierarchischen Basis mit adaptiver Verfeinerung. 6 Beispiele Alle Aufgabenlösungen müssen wieder schriftlich in elektronischer Form abgegeben werden. Sie können die Lösung per email einschicken (spanier@math.uni-frankfurt.de). Führen Sie mit den Programmen folgende Beispielrechnungen durch: (a) Berechnen Sie die Preise einer Amerikanischen Put Option mit S0 = 20, K = 21, σ = 0.15, r = 0.03 und T = 2 mit dem Finite DierenzenVerfahren basierend auf den drei besprochenen Diskretisierungsverfahren. Verwenden Sie dabei wieder folgende Parameter: M = N = 1, 2, 4, 8, 16, 32, 64, 128, x min = 5, x max = 5. Plotten Sie die Lösung des CrankNicolson Verfahrens in einem zweidimensionalen Plot für M = N = 64. (b) Ermitteln Sie den freien Rand S f (t) für obiges Problem und plotten Sie seinen Verlauf.

(c) Berechnen Sie die Preise einer Amerikanischen Put Option mit denselben Parametern wie in Aufgabenteil a) mit dem Finite ElementeVerfahren mit Knotenbasis und hierarchischer Basis mit adaptiver Verfeinerung. Verwenden Sie die gleichen Parameter wie oben. Plotten Sie die Lösung in einem zweidimensionalen Plot für M = N = 64. Literatur [1] R. Seydel, Tools for Computational Finance, Springer, 2002. [2] P. Wilmott, S. Howison, H. Dewynne, The Mathematics of Financial Derivatives, Cambridge University Press, 1995.