Hedgen von Swing Optionen durch Randomisierte Doppelstoppzeiten ohne und mit Transaktionskosten



Ähnliche Dokumente
Primzahlen und RSA-Verschlüsselung

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

Amerikanischen Optionen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

Einführung in die Algebra

Beispiel Zusammengesetzte Zufallsvariablen

Zeichen bei Zahlen entschlüsseln

Mengensysteme, Wahrscheinlichkeitsmaße

1 Mathematische Grundlagen

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Data Mining: Einige Grundlagen aus der Stochastik

Finanzmathematik - Wintersemester 2007/08.

Korrigenda Handbuch der Bewertung

Absolute Stetigkeit von Maßen

Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Informationsblatt Induktionsbeweis

Codierungstheorie Rudolf Scharlau, SoSe

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Lineare Gleichungssysteme

3. Zusammenhang. 22 Andreas Gathmann

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Kapitalerhöhung - Verbuchung

Einleitung. Das Ein-Perioden-Modell ist das einfachste. von derivaten Finanzinstrumenten (hier: Optionen) zu erklären.

Nichtlineare Optimierung ohne Nebenbedingungen

a n auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert:

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse Lösung 10 Punkte

Programmiersprachen und Übersetzer

WS 2009/10. Diskrete Strukturen

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

7 Rechnen mit Polynomen

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

34 5. FINANZMATHEMATIK

FAQ Spielvorbereitung Startspieler: Wer ist Startspieler?

Das Briefträgerproblem

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes.

Grundlagen der Theoretischen Informatik, SoSe 2008

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

1 topologisches Sortieren

Bewertung von Barriere Optionen im CRR-Modell

Professionelle Seminare im Bereich MS-Office

Rekursionen. Georg Anegg 25. November Methoden und Techniken an Beispielen erklärt

BONUS MALUS SYSTEME UND MARKOV KETTEN

3. LINEARE GLEICHUNGSSYSTEME

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II Thomas Brox, Fabian Kuhn

8. Quadratische Reste. Reziprozitätsgesetz

4. Versicherungsangebot

Lineare Gleichungssysteme


Motivation. Formale Grundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen. Informales Beispiel. Informales Beispiel.

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

Skript und Aufgabensammlung Terme und Gleichungen Mathefritz Verlag Jörg Christmann Nur zum Privaten Gebrauch! Alle Rechte vorbehalten!

3. Grundlagen der Linearen Programmierung

Das Persönliche Budget in verständlicher Sprache

Tutorial: Homogenitätstest

Anleitung über den Umgang mit Schildern

Statistische Thermodynamik I Lösungen zur Serie 1

Der Zwei-Quadrate-Satz von Fermat

Kapitel 4 Die Datenbank Kuchenbestellung Seite 1

Kapitel 7 und Kapitel 8: Gleichgewichte in gemischten Strategien. Einleitung. Übersicht Teil 2 2. Übersicht 3

Also kann nur A ist roter Südler und B ist grüner Nordler gelten.

3.2 Spiegelungen an zwei Spiegeln

Repetitionsaufgaben Wurzelgleichungen

Derivate und Bewertung

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester gehalten von Harald Baum

Physik & Musik. Stimmgabeln. 1 Auftrag

Mathematischer Vorbereitungskurs für Ökonomen

Linearen Gleichungssysteme Anwendungsaufgaben

Lösungshinweise zur Einsendearbeit 2 SS 2011

0, v 6 = , v 4 = span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

t r Lineare Codierung von Binärbbäumen (Wörter über dem Alphabet {, }) Beispiel code( ) = code(, t l, t r ) = code(t l ) code(t r )

Kreativ visualisieren

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster

Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert.

3.3 Eigenwerte und Eigenräume, Diagonalisierung

Grundbegriffe der Informatik

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Anmerkungen zur Übergangsprüfung

Kapitel 3: Etwas Informationstheorie

7 Die Determinante einer Matrix

Wahrscheinlichkeitstheorie. Zapper und

lohmeyer White Paper Use Cases II UX+Prozessanalyse

Quantilsschätzung als Werkzeug zur VaR-Berechnung

Dow Jones am im 1-min Chat

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

Was meinen die Leute eigentlich mit: Grexit?

Optimierung und Simulation ökonomischer Problemlagen privater Haushalte 3. Vorlesung

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x y = x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775,

infach Geld FBV Ihr Weg zum finanzellen Erfolg Florian Mock

Guide DynDNS und Portforwarding

1 Ordnung muß sein. 1.1 Angeordnete Körper. 1.2 Folgerungen aus den Anordnungsaxiomen. ( c) (b a) > 0. Somit a c b c > 0.

Das RSA-Verschlüsselungsverfahren 1 Christian Vollmer

Leichte-Sprache-Bilder

Transkript:

Hedgen von Swing Optionen durch Randomisierte Doppelstoppzeiten ohne und mit Transaktionskosten - Diplomarbeit - Johann Wolfgang Goethe Universität Frankfurt/Main Fachbereich Mathematik eingereicht von: Guido Prill geboren am: 28.08.1982, in: Hanau Betreuer: Prof Dr. Christoph Kühn Nidderau, den 17. Juli 2007

Inhaltsverzeichnis 1 Einleitung 3 1.1 Swing Optionen................................. 3 1.2 Upper Hedging Preis aus Sicht der Linearen Optimierung......... 4 2 Grundlegendes 7 2.1 Grundmodell.................................. 7 2.2 Paarmaße.................................... 9 2.3 Das Hedging Problem............................. 9 2.4 Maße und Martingalmaße........................... 10 2.5 Pfadrandomisierung.............................. 12 2.6 Die Filtration.................................. 13 2.7 Das Wechseln der Hedging Strategien.................... 16 3 Upper Hedging Preis ohne Transaktionskosten 17 3.1 Das Primale Programm............................ 17 3.2 Das Duale Programm............................. 20 3.3 Wichtige Sätze................................. 21 3.4 Der Upper Hedging Preis........................... 29 3.5 Reduktion auf Doppelstoppzeiten...................... 30 3.6 Darstellung des Upper Hedging Preises durch die Snell Einhüllende.... 33 4 Upper Hedging Preis mit Transaktionskosten 37 4.1 Transaktionskosten............................... 37 4.2 Das Primale Programm unter TAK...................... 38 4.3 Das Duale Programm unter TAK....................... 41 4.4 Upper Hedging Preis unter TAK....................... 41 4.5 Die Notwendigkeit von Pfadrandomisierungen................ 43 5 Schlussbemerkung 47 1

Inhaltsverzeichnis 2

1 Einleitung 1.1 Swing Optionen Wir beschäftigen uns in dieser Arbeit mit dem Hedgen sogenannter Swing Optionen oder Multiple Exercise Optionen. Diese Optionen verallgemeinern Amerikanische Optionen, indem sie dem Halter das Recht einräumen, mehrfach -zu frei wählbaren Zeitpunkteninnerhalb eines endlichen Zeitraumes auszuüben. Einzige Einschränkung ist, dass die Ausübungszeitpunkte nicht übereinstimmen dürfen, sondern einen gewissen Mindesabstand haben müssen. Wir werden uns mit einer Swing Option mit zwei Ausübungszeitpunkten in einer diskreten Zeitdarstellung sowie einem endlichen Zustandsraum befassen. Der Verkäufer muss bei dem zweiten Ausübungszeitpunkt eine zum Startzeipunkt nicht bekannte Auszahlung tätigen, die allerdings auch von dem ersten Ausübungspunkt abhängt. Zwischen den Ausübungszeiten (später auch Stoppzeiten genannt), muss mindestens ein Zeitschritt liegen. Der Preis der Option wird zum Eintritt in den Vertrag fixiert. Dadurch sichert sich der Käufer gegen eventuelle Preisänderungen während der Vertragslaufzeit. Andererseits muss der Verkäufer den Preis der Option hoch genug ansetzen, um sich eben gegen diese unbekannte Auszahlung abzusichern. Die Frage ist nun, wie hoch der Preis dieser Option sein muss, damit sich der Verkäufer gegen die finanziellen Risiken vollständig absichern kann? Der minimale Preis, mit dem dies möglich ist, wird Upper Hedging Preis (p up ) genannt. Die Swing Optionen finden heutzutage wegen der sehr komplexen Nachfrage nach Energie große Anwendung auf diesen Märkten. Der Verbrauch von Energie ist stark von externen Faktoren wie z.b. dem Wetter abhängig. Außerdem gibt es aufgrund der begrenzten Speichermöglichkeit von Energie obere Nachfrageschranken für einen bestimmten Zeitraum. Dies sind Bedingungen, die auf den Finanzmärkten im Allgemeinen nicht gelten: Hier ist es üblich, zum optimalen Zeitpunkt so viel wie möglich nachzufragen. Um also diesen sehr variablen Verbrauch auf den Energiemärkten zu regeln, hat man 3

1 Einleitung Swing Optionen mit Verträgen verbunden, sogenannte Swing Contracts. In diesen Verträgen wird im Allgemeinen eine feste Anzahl von Ausübungszeitpunkten vereinbart, die auch realisiert werden müssen. Des weiteren muss die abgenommene Menge an Energie des Halters zwischen einem vorher festgelegten Minmalverbrauch und Maximalverbrauch liegen. Bei Über- bzw. Unterschreitung wird eine Vertragsstrafe fällig. Allerdings muss diese Abnahmemenge nur über die gesamte Laufzeit realisiert werden, zu den verschiedenen Ausübungszeitpunkten kann der Halter seine Abnahmemenge variieren. Somit hat er durch diese Art des Vertrages die Möglichkeit, seinen Verbrauch auszupendeln (engl. to swing). Näheres zu Swing Optionen, auch in Bezug auf den Aktienmarkt, kann man unter anderem dem Artikel The Swing Option On The Stock Market von Martin Dahlgren und Ralf Korn entnehmen. 1.2 Upper Hedging Preis aus Sicht der Linearen Optimierung In dieser Arbeit werden wir eine Darstellung von p up mit Hilfe der Linearen Optimierung für den Fall ohne und später mit Transaktionskosten (TAK) herleiten. Meine Arbeit ist eine Verallgemeinerung des Papers Randomized Stopping Times and American Option Pricing with Transaction Costs von Prasad Chalasani und Somesh Jha. Bei der Notation folge ich allerdings auch häufig dem Vorlesungsskript Stochastische Finanzmathematik von Herrn Prof. Dr. Christoph Kühn. Im Falle einer Amerikanischen Option formuliere ich im Folgenden das Superhedging Problem wie in Kapitel 1.3.1 der Dissertation von Herrn Prof. Dr. Kühn: Der Upper Hedging Preis ist das kleinste Startkapital ˆx, mit dem sich der Verkäufer ein selbstfinanzierendes Portfolio aufbauen kann, dessen Wert den Auszahlungsprozess L der Option dominiert. D.h. es existiert eine Strategie ϕ so dass ˆx + t 0 ϕ u ds u L t t [0, T ] Dabei muss ϕ allerdings vorhersehbar bzgl. der Filtration des Verkäufers sein! Es stellt sich heraus, dass ˆx = sup τ S sup E Q (L τ ), Q M e 4

1.2 Upper Hedging Preis aus Sicht der Linearen Optimierung wobei S die Menge der Stoppzeiten und M e die Menge der äquivalenten Martingalmaße ist. Der Upper Hedging Preis ist also der kleinste Preis, mit dem sich der Hedger vollständig gegen das Risiko absichern kann. Dieses Superhedging Problem werden wir im Diskreten für eine Swing Option als Lineares Programm formulieren. Es wird unser Primales Programm sein. Mit Hilfe der Dualitätstheorie bilden wir ein Duales Programm, dass exakt die gleiche Lösung besitzt. Hierbei werden wir zum ersten Mal auf eine Art gemischte Stoppstrategie, die man als Gewichtung von verschiedenen Stoppzeiten verstehen kann, stoßen. Im Fall ohne Transaktionskosten (TAK) können wir die Nebenbedingungen des Dualen Programmes derart umformen, dass sie eine Ein-Perioden Martingalbedingung ergeben. Wir erhalten eine geschlossene Darstellung des Upper Hedging Preises, die der oben beschriebenden Darstellung für Amerikanische Optionen stark ähnelt. Es wird sich weiter zeigen, dass man die erwähnten gemischten Strategien nicht benötigt, sondern dass ein Paar von normalen Stoppzeiten ausreichend ist. Später beschäftigen wir uns mit dem Fall, dass proportionale TAK auftreten. Wir erhalten ein anderes Primales und somit auch ein anderes Duales Programm als im Fall ohne TAK. Hier lässt sich nun aus den Nebenbedingung allerdings nur eine schwache Martingalbedingung folgern. Die resultierende Darstellung von p up hält sich daher ziemlich allgemein. Für diese Darstellung werden in diesem Fall allerdings die gemischten Strategien benötigt. 5

1 Einleitung 6

2 Grundlegendes 2.1 Grundmodell Wir befinden uns in einem Wahrscheinlichkeitsraum (Ω, F, P ) mit Filtration (F t ) t=1,...,t. Jedes F t erzeugt eine endliche Zerlegung (A t,1,..., A t,mt ) von Ω, d.h. F t = σ(a t,1,..., A t,mt ), Ω = i=1,...,m t A t,i und A t,i A t,j = für i j. Zur Zeit t kann der Beobachter also sagen, welches der Ereignisse A t,i eingetreten ist. Eine Zufallsvariable Y : Ω R ist genau dann F t messbar, wenn sie für festes i allen ω A t,i den gleichen Wert zuordnet. Wir können also in diesen Fall schreiben: Y (ω) = m t i=1 y ii At,i (ω), y i R. Für den Rest der Arbeit stellen wir uns diesen Zustandsraum durch einen endlichen Baum B der folgenden Form vor: Beispielbaum mit T=2 Die A t,i, i = 1,..., m t sind die Knoten des Baumes zur Zeit t (z.b. ist A 1,1 = u). Der Baum stellt somit keinen stochastischen Prozess dar, sondern die Knoten repräsentieren die Zeit und den Informationsverlauf. Wir bezeichnen die Knoten des Baumen standardmäßig mit u, v, w oder b, k, l. Jeder Knoten k hat einen eindeutigen Vorgänger k 7

2 Grundlegendes (z.b. ist u1 = u2 = u), d.h. zwei vergabelte Pfade treffen sich nicht wieder. Dies ist allerdings keine Einschränkung, sondern es bedeutet vielmehr, dass jeder Knoten eindeutig mit einem Zeitpunkt und der Information zu diesem Zeitpunkt identifiziert werden kann. Zu jedem Knoten gehört also auch seine gesamte Vorgeschichte. Auf dem Baum ist die Abbildung t : B {0,..., T }, u t(u) definiert. Sie ordnet jedem Knoten die Zeit zu, zu der er im Baum erscheint (z.b. ist t(u) = 1). Zeiten werden in unserem Modell generell mit s, t oder i, j bezeichnet. Jeder Baum beginnt zur Zeit 0 im eindeutigen Knoten 0 endet zur Zeit T. Die Knoten u mit t(u) = T heißen Endknoten. Jeder Knoten k B mit t(k) < T hat mindestens einen direkten Nachfolger. Definition 2.1.1 Die Menge der direkten Nachfolger von einem Knoten u B wird mit u + bezeichnet. Diese Menge ist für jeden Knoten u mit t(u) < T nicht leer. Ist v ein direkter Nachfolger von u, so schreiben wir v u +. Wie man der Graphik entnehmen kann, gilt z.b. v + = {v1, v2, v3}. Da die Menge der direkten Nachfolger nicht leer ist, bricht kein Ast des Baumes vor der Zeit T ab. Da weiter zu jedem Knoten auch seine gesamte Vergangenheit gehört, steht jeder Endknoten in unserem Modell für einen Pfad ω des Zustandsraumes. Die Menge aller Endknoten beschreiben somit die möglichen Szenarien, die eintreten können. Auf der Menge der Knoten existiert eine Relation : dabei ist k l, wenn k und l auf dem selben Ast liegen und t(k) t(l) ist. Beachte, dass durch die Relation allerdings nur Knoten miteinander verglichen werden können, die auf mindestens einem gemeinsamen Ast liegen. Analog ist im Weiteren definiert. Die Menge der durch vergleichbaren Knoten bezeichnen wir von nun an mit D. D = {(u, v) B B : u v} Notation 1 Zur Vereinfachung werden wir im Verlauf der Arbeit bei diversen Beschreibungen und Beweisen auf folgende Notationen zurückgreifen: Es sei k ein Knoten mit t(k) = T, der den Pfad ω beschreibt. Gilt für einen Knoten u, dass (u, k) D, so schreiben wir auch u ω. Weiter können wir u = ω t(u) schreiben, wenn u ω. Jeder Knoten kann also auch als Zeitpunkt auf den Pfaden beschrieben werden, auf denen er liegt. Es ist z.b. in der Graphik der letzten Seite v ω, wenn ω durch einen der Punkte 8

2.2 Paarmaße v1 v3 beschrieben wird. In diesem Fall schreiben wir auch v = ω 1. Mit dieser Notation definieren wir uns abschließend die Menge der vergleichbaren Knoten entlang eines Pfades ω: D(ω) = {(u, v) D : v ω} Aus der Struktur des Baumes wird klar, dass mit v ω auch u ω, wenn (u, v) D. 2.2 Paarmaße Auf der Menge D ist eine Abbildung definiert, das sogenannte Paarmaß. Definition 2.2.1 (Paarmaß) Eine Abbildung W : D [0, 1], (u, v) W u,v heißt Paarmaß, wenn W u,v = 1 (2.1) (u,v) D Da die Paare aus D später im Modell alle möglichen Stoppzeitpunkte bilden, kann W u,v als Wahrscheinlichkeit angesehen werden, dass man auf dem Baum in u und v stoppt. 2.3 Das Hedging Problem Zur Vereinfachung befinden wir uns in einem Markt mit nur einer Aktie. Der Preisprozess dieser Aktie ist S, also ist der Aktienpreis im Knoten u gleich S u (dies ist der Preis der Aktie, falls zur Zeit t(u) das Ereignis u eintritt). Ein Portfolio Φ ist auf dem gesamten Baum definiert und besteht aus der Aktienkomponente ϕ sowie der Bargeldkomponente β: Φ : B R 2, u (ϕ u, β u ), wobei ϕ u die Anzahl der Aktien und β u das Bargeld im Knoten u ist. Der Wert des Portfolios Φ wird durch die Abbildung V : B R, u V u = ϕ u S u + β u beschrieben. ϕ(u) = ϕ(u) ϕ(u ) sind die Aktienkäufe von u nach u. In unserem Model finden die Käufe ϕ(u) bereits im Knoten u statt. Bemerkung 2.3.1 Eine dynamische Handelsstrategie besteht darin, in jedem Knoten u B eine (reellwertige) Anzahl an Aktien zum Preis S u zu kaufen. Die Wertsteigerung des Portfolios, die sich nach der Transaktion auf u ergibt, wird erst durch den Aktienpreis im Knoten u erkennbar. Die Wertsteigerung des Kaufes einer Aktie 9

2 Grundlegendes ist (S(u) S(u )) = S(u). Der Portfoliowert in einem Knoten l hängt demnach nur von den Transaktionen bis l ab. Es existieren weiter zwei Akteure. Einer von diesen, der Verkäufer, bietet dem Käufer eine Swing Option mit zwei Ausübungszeitpunkten an. Bei dieser Art von Option muss der Käufer zwei Mal ausüben (zukünftig auch stoppen genannt), kann dies allerdings zu beliebigen Zeiten tun. Es muss lediglich mindestens ein Zeitschritt zwischen dem ersten und dem zweiten Stoppen liegen. Da weiter die beiden Stoppknoten auf mindestens einem gemeinsamen Pfad liegen müssen, kommen als mögliche Paare von Ausübungsknoten (oder Stoppknoten) demnach nur Elemente der Menge der vergleichbaren Knotenpaare D in Frage. Stoppt der Käufer in (u, v) D, so muss der Verkäufer zur Zeit t(v) die Auszahlung L u + L v tätigen. L wird als Auszahlungsprozess bezeichnet. Man beachte, dass die Auszahlung erst beim zweiten Stoppen fällig wird, d.h. erst zu diesem Zeitpunkt muss der Wert des Portfolios die Auszahlung dominieren. Ziel des Verkäufers ist es nun, den Preis x der Option so zu wählen, dass er sich mit diesem ein selbstfinanzierendes Portfolio Φ aufbauen kann, dessen Wert V k für jeden Knoten k 0 die Auszahlung für ein beliebiges Paar (u, k) D dominiert. Der kleinste Preis, mit dem dies möglich ist, wird Upper Hedging Preis (p up ) genannt: p up = min(x R + 0 Φ,x Φ selbstfinanz.: Vk L u + L k (u, k) D) (2.2) Den Upper Hedging Preis zu finden, ist also ein Minimierungsproblem über den Optionspreis x. 2.4 Maße und Martingalmaße Gemäß der allgemeinen Definition ordnet ein Maß Q den Pfaden (bzw. Endknoten des Baumes) ω Wahrscheinlichkeiten zu. Es bestimmt also, mit welcher Wahrscheinlichkeit die möglichen verschiedenen Szenarien eintreten. Diese Verteilung ist jedoch abhängig von externen Ereignissen, die den Zustandsraum beeinflussen. Zu diesen zählen auch die vorher nicht bekannten Stoppentscheidungen des Käufers (d.h. auf welchem Knoten eines Pfades das erste Mal gestoppt wird). Die Wahl des Pfades alleine determiniert also noch nicht die Stoppstrategie, sondern man benötigt zusätzlich eine von Ω unabhängigie Information, die das zufällige Stoppen beschreibt. Dies modellieren wir, indem zu Be- 10

2.4 Maße und Martingalmaße ginn eine Zahl e uniform aus [0, 1] gezogen wird. Wie aus dieser nun für jeden Pfad das randomisierte Stoppen wird, beschreiben wir in Kapitel 2.5, wenn wir den Begriff der Pfadrandomisierung kennengelernt haben. Mit dieser Modellierung erhalten wir nun den randomisierten Zustandsraum Ω = Ω [0, 1]. Ein Maß auf diesem Zufallsraum ist wie folgt definiert: Definition 2.4.1 (randomisiertes Maß) Eine Abbildung Q : Ω [0, 1], ({ω}, A) Q({ω} A) heißt normiertes, randomisiertes Maß (im Folgenden stets randomisiertes Maß genannt), wenn Q({ω} A) = λ(a) A [0, 1] (2.3) ω wobei λ(a) das Lebesgue-Maß auf [0, 1] ist und die Realisierung von e als unabhängige Randomisierung des Zustandsraumes bezeichnet wird. Q({ω} A) erhält man durch Integration über die Menge A: Q({ω} A) = Q e (ω)de Wir schreiben im Folgenden zur Abkürzung: Q({ω} A) = Q A (ω). Zu späteren Zwecken beschreiben wir nun, wie man das randomisierte Maß theoretisch auf den gesamten Baum B erweitern kann. Sieht man Q(ω) nämlich als Wahrscheinlichkeit an, sich auf dem Baum bis zu dem Endknoten zu bewegen, der den Pfad ω beschreibt, so kann man analog Q(u) als Wahrscheinlichkeit, durch u zu laufen, interpretieren und definieren als: Q A (u) = Q A (ω) u B (2.4) ω:u ω Die Wahrscheinlichkeit, durch u zu laufen, wird demnach als Summe der Wahrscheinlichkeiten der Pfade, auf denen u liegt, verstanden. A Bemerkung 2.4.2 Die Definition (2.4) ist äquivalent zu der Gleichung: Q A (v) = Q A (u) u : t(u) < T v u + Der Beweis ist trivial und sei an dieser Stelle dem Leser überlassen. 11

2 Grundlegendes Bei dem Begriff des Martingalmaßes werden wir uns in dieser Arbeit verschiedener Definition bedienen. Mit TAK werden wir eine handlich Ein-Perioden Martingalbedingung benutzen, ohne TAK müssen wir später allerdings mit einer unhandlichen Definition arbeiten. Näheres hierzu in den jeweiligen Kapiteln. 2.5 Pfadrandomisierung Nun kommen wir zu einer Abbildung, die uns durch die gesamte Arbeit begleiten wird, die Pfadrandomisierung. Aus ihr wird später durch die zufällige Realisierung von e eine Stoppstrategie, die sogenannte Randomisierte Doppelstoppzeit. Dazu mehr in Kapitel 2.6. Definition 2.5.1 (Pfadrandomisierung) Eine Abbildung X : D [0, 1], X u,v heißt Pfadrandomisierung, wenn (u, v) X u,v = 1 ω Ω (2.5) (u,v) D(ω) und wenn für jeden festen Knoten u die Zufallsvariable ω X u,v (2.6) F t(u) - messbar ist. v:(u,v) D(ω) X lässt sich folgendermaßen interpretieren: Geht man entlang eines festen Pfades ω, so ordnet eine Pfadrandomisierung X allen Punktepaaren (u, v) D(ω) Stoppwahrscheinlichkeiten zu, die sich auf ω zu 1 addieren. Bemerkung 2.5.2 Aus (2.6) folgt, dass l gilt: u:0 u l v:(u,v) D(ω) X u,v } {{ } F t(u) messbar ist F t(l ) messbar (u,v) D(ω):l u = 1 ( u:0 u l v:(u,v) D(ω) X u,v) ist F t(l ) messbar 12

2.6 Die Filtration v ω:l v X k,v = v ω:k v X k,v } {{ } F t(k) messbar v ω:k v l X k,v } {{ } F t(l ) messbar ist F t(l ) messbar k l Durch Gleichung (2.6) wird eine Art Adaptiertheit von X an die Filtration F vorausgesetzt. Mit obiger Bemerkung folgt, dass durch diese Adaptiertheit der Pfadrandomisierungen X in jedem Knoten die Reststoppwahrscheinlichkeit sowohl für den Fall, dass noch nicht gestoppt wurde, als auch für den Fall, dass bereits das erste Mal gestoppt wurde, unabhängig von dem weiteren Verlauf ist. Bemerkung 2.5.3 Die Gleichung (2.6) ist äquivalent dazu, dass zu jedem u mit t(u) < T und für je zwei Pfade ω, ω, die u enthalten, gilt: X u,v X u,v = 0 v:(u,v) D(ω) v:(u,v) D(ω ) Zusammen mit Gleichung (2.5) folgt nun, dass die Menge der Pfadrandomisierungen auf einem festen Baum einen Polyeder bilden, da diese nur durch lineare Beschränkungen beschrieben werden. 2.6 Die Filtration In diesem Abschnitt beschreiben wir die Filtration ( F t ) t=1...t in unserem Modell. Diese enthält zusätzlich zu F Informationen über die unabhängigige Randomisierung des Zufallsraumes. e wird zwar zu Beginn gezogen, ist allerdings noch nicht direkt vollständig bekannt. Nähere Informationen über e fließen sukzessiv in die Filtrierung F ein. Daraus entsteht nun zu einer gegebenen Pfadrandomisierung X eine Stoppstrategie, die sogenannte Randomisierte Doppelstopptzeit (RDS). Um diese herzuleiten, halten wir einen Pfad ω fest und zerlegen zunächst für diesen das Intervall [0, 1] in die Teilintervalle b i (ω) = (P (ω) i 1, P (ω) i ] für i = 1,..., T 1 und b 0 = [0, P (ω) 0 ] wobei (P (ω) s ) s=0,...,t 1 = (u,v) D(ω):t(u) s die Wahrscheinlichkeit angibt, bis s bereits das erste Mal gestoppt zu haben, wenn man entlang des Pfades ω geht. Es gilt offensichtlich, dass P (ω) T 1 = 1 ω Ω. Ist e b i (ω), so wird auf dem Pfad ω zur Zeit i das erste Mal gestoppt. X u,v 13

2 Grundlegendes Um nun auch das zweite Stoppen aus e abzuleiten, unterteilen wir weiter die Intervalle b i (ω) in die Teilintervalle b i,j (ω) = (P (ω) i,j 1, P (ω) i,j ] für j = i + 1,..., T wobei P (ω) i,j = P (ω) i 1 + X ωi,v und P (ω) i,i = P (ω) i 1 v ω:t(v) j sei und b 0,1 (ω) = [0, P (ω) 0,1 ]. Da weiter P (ω) i,t = P (ω) i, wird somit das Intervall b i (ω) vollständig unterteilt. Ist e b i,j (ω), so wird auf dem Pfad ω zu den Zeiten i, j gestoppt. Man beachte, dass für ω, ω A t,i gilt: b k,l (ω) = b k,l (ω ), l t und aufgrund der Adaptiertheit von X auch b k (ω) = b k (ω ), k t. Wir setzen nun im Folgenden für l < t : b k,l (A t,i ) = b k,l (ω) für ein beliebiges ω A t,i. Analog sei b k (A t,i ) = b k (ω) für k < t. In unserem Modell mit Randomisierung wird die Filtration zur Zeit t, ( F t ), nun von F t sowie von den Beobachtungen über die unabhängige Randomisierung e bis zur Zeit t erzeugt, also F t = σ(f t, {e b k,l (A t,i )} A t,i, l t, {e b k (A t,i )} A t,i, k t). Zur Zeit t weiß der Verkäufer also auf welchem Knoten des Baumes er sich befindet sowie ob und wie oft auf dem Weg dorthin bereits gestoppt wurde. Im Falle des Stoppens ist auch der bzw. die Stoppknoten bekannt. Ein zukünftiges Stoppen, dass sich aus e ergibt, kann er allerdings nicht voraussehen. Mit dem Wissen der Filtration F ist aus der Pfadrandomisierung nun eine Stoppstrategie geworden. Diese Stoppstrategie ist ein wichtiges Objekt in der weiteren Arbeit und wird Randomisierte Doppelstoppzeit (RDS) genannt. Die Pfadrandomisierung lässt sich also als Gewichtung verschiedener Stoppstrategien verstehen. Durch die Ziehung von e entscheidet sich, welche Stoppstrategie eintritt. Es handelt sich also um eine Art zufällige Stoppstrategie, der RDS. Eine Funktion f : Ω R ist genau dann F t -messbar, wenn eine Funktion g existiert, so dass f(ω, e) = g(i {e bk,l (A t,i )} A t,i, I {e bk (A t,i )} A t,i, k, l t, I At,i, i = 1,..., m t ) (ω, e) Da wie oben beschrieben aus der Realisierung von e die vom Pfad ω abhängigen Stoppentscheidungen (u, v) ω des Käufers folgen, kann man nun das Randomisierte Maß Q aus Kapitel 2.4 statt von A für jeden Pfad ω spezifisch von den Stoppknoten (u, v) ω 14

2.6 Die Filtration abhängig machen. Man betrachte dazu den Pfad ω. Folgt aus jeder Realisierung e A das erste Stoppen in u ω (z.b. für A = b t(u) ( ω)), so erhalten wir mit Gleichung (2.4) schließlich die Wahrscheinlichkeit, durch v zu laufen, bedingt darauf, dass bei u das erste Mal gestoppt wurde: Q A (v) = Q u (v) = Q u (ω) A b t(u) ( ω) (2.7) ω:v ω wobei A zusammenhängend sei. Auf diese Weise können wir nun je zwei Knoten (u, v) D eine Wahrscheinlichkeit Q u (v) zuordnen. Zuletzt definieren wir verschiedene Arten von Produkten zweier Prozesse und deren Erwartung unter Q: Definition 2.6.1 (Produktprozesse) Es sei X eine Pfadrandomisierung und L ein an F adaptierter Prozess auf D bzw. L ein an F adaptierter Prozess auf B, so bezeichnen L X bzw. L X den einfachen bzw. doppelten Produktprozess. Diese seien definiert als (L X) (u,v) = X u,v (L u + L v ) (2.8) bzw. ( L X) (u,v) = X u,v (L v ) (2.9) Bemerkung 2.6.2 Da wir nun Pfadrandomisierungen und die Filtration kennen, können wir einen Erwartungswert unter dem randomisierten Maß aus Kapitel 2.4 definieren. Die Erwartung ergibt sich per Mittelung über die Pfade sowie über die unabhängige Randomisierung des Zustandsraumes e. Sei also L ein adaptierter Prozess, so ist: E Q (L) = ( ) 1 ω Ω 0 Q e(ω)l(ω, e)de = ( ) ω Ω i,j:i<j T b i,j (ω) Q e(ω)l(ω, e)de = ( ) ω Ω i,j:i<j T Q(ω, b i,j(ω))l(ω, b i,j (ω)) = ω Ω i,j:i<j T Q ω i,ω j L(ω, b i,j (ω)) Es gilt demnach für die in Def. 2.6.1 beschriebenen Prozesse: E Q (L X) = Q ωi,ω j X ωi,ω j (L ωi + L ωj ) ω Ω i,j:i<j T 15

2 Grundlegendes und E Q ( L X) = ω Ω i,j:i<j T Q ωi,ω j X ωi,ω j Lωj 2.7 Das Wechseln der Hedging Strategien Da der Verkäufer nach der Modellierung der Filtration zu jedem Zeitpunkt t weiß, ob und wenn auf welchen Knoten bereits gestoppt wurde, kann er seine weitere Strategie von diesem Wissen abhängig machen. Also existiert bis zum ersten Stoppen eine eindeutige Strategie Φ 1 = (ϕ 1, β 1 ), direkt danach findet jedoch ein Strategiewechsel in Abhängigkeit von der Stoppentscheidung statt, so dass zu jedem möglichen ersten Stoppknoten (k : t(k) < T ) (bzw. zu jeder Realisierung von e und jedem ω) eine Folgestrategie Φ 2 k = (ϕ 2 k, β2 k ) existiert. Welche der Φ2 k schließlich gewählt wird, ist rein zufällig. Anschaulich bedeutet dies, dass der Verkäufer der Swing-Option für jeden möglichen ersten Stoppzeitpunkt k eine Strategie Φ 2 k bereithält. Der Verkäufer wird direkt nach dem Stoppen des Käufers benachrichtigt, wählt dann seine zweite Strategie und beginnt direkt in k anhand dieser zu handeln. Eine solche Modellierung lässt dem Verkäufer den größt möglichen Handlungsrahmen, da dieser nicht schon zu Beginn seine Strategien wählen muss. Φ setzt sich nun aus Φ 1 und aus einem der Φ 2 (k) (je nachdem, wo gestoppt wurde) zusammen. Φ aus Kapitel (2.2) ist also in der weiteren Arbeit als eine Familie von Strategien Φ(k) zu verstehen, wobei k alle möglichen ersten Stoppzeitpunkte durchläuft. 16

3 Upper Hedging Preis ohne Transaktionskosten 3.1 Das Primale Programm Zunächst betrachten wir das Problem ohne Transaktionskosten (TAK), um erst einmal die Auswirkungen der Randomisierung des Zustandsraumes und damit eingehend des Strategiewechsels beim ersten Stoppen besser zu verstehen. Die erste Hedging Strategie Φ 1 startet bei t = 0, d.h. zur Zeit (z.z.) 0 wird zum ersten Mal mit Aktien gehandelt, und endet mit dem ersten Stoppen bei k. In diesen Knoten beginnt dann die zweite Strategie Φ 2. Diese ist, wie in Kapitel 2.7 beschrieben, vom Stoppknoten k abhängig, also Φ 2 k. Theoretisch könnte man das Portfolio ohne TAK in k komplett auflösen und dann direkt in k mit Φ 2 k neu beginnen. Da dies aber spätestens bei Auftreten von TAK unnötige Kosten verursachen könnte, wird auch jetzt schon angenommen, dass das Portfolio beim ersten Stoppen nicht aufgelöst wird, sondern direkt in die zweite Strategie einfließt. Für den Start der zweiten Hedgingstrategie gilt also Φ 2 k (k ) = Φ 1 (k ) k : t(k) < T (3.1) Ziel des Verkäufers ist es nun, seine Strategien Φ 1 und (Φ 2 k ) k:t(k)<t so zu wählen, dass er sich mit einem möglichst geringen Startkapital x ein selbstfinanzierendes Portfolio aufbauen kann, dessen Vermögensprozess V zu beliebigen Stoppzeiten (k, l) D die Auszahlung an den Verkäufer L k + L l dominiert. Die Selbstfinanzierungsbedingung ist erfüllt, wenn sich der Wert des Portfolios in einem Knoten l nur aus den Preisänderungen der Aktie und des Bargeldes bis l ergibt. Da der Preis für Bargeld konstant ist, können wir die Bargeldkomponenten in V vernachlässigen und erhalten: V l (k) x,φ = x + ϕ 1 (u ) S u + ϕ 2 k (u ) S u (3.2) u:0 u k u:k u l 17

3 Upper Hedging Preis ohne Transaktionskosten Gilt nun Gleichung (3.2) (k, l) D, so ist das Portfolio selbstfinanzierend. Beachte, dass das Vermögen auch von dem ersten Stoppknoten abhängig ist. Der Hedging-Preis ist somit der minimale Betrag x, für den sich eine Strategie Φ finden lässt, so dass V l (k) die Auszahlung L k + L l für alle (k, l) D dominiert. Es ergibt sich folgendes Optimierungsproblem: min x NB : x+ ϕ 1 (u ) S u + ϕ 2 k (u ) S u L k +L l u:0 u k u:k u l x 0 (k, l) D Wir können einige Vereinfachungen an den Nebenbedingungen des Primalen Programms vornehmen. Betrachte hierzu zunächst mit der Konvention ϕ 1 (0 ) = 0: u:0 u k ϕ1 (u)(s l S u ) = u:0 u k (ϕ1 (u) ϕ( 1 u ))(S l S u ) = S l u:0 u k (ϕ1 (u) ϕ 1 (u )) u:0 u k (ϕ1 (u) ϕ 1 (u ))S u = S l (ϕ 1 (k ) ϕ 1 (0 )) + [(ϕ 1 (0) ϕ 1 (0 ))( S } {{ } } {{ } 0 ) +... =0 =0 +(ϕ 1 (k ) ϕ 1 (k ))( S k )] = ϕ 1 (k )S l + [ ϕ 1 (0)(S 1 S 0 ) +... + ϕ 1 (k )(S k S k ) ϕ 1 (k ] )S k = u:0 u k ϕ1 (u ) S u + ϕ 1 (k )S l ϕ 1 (k )S k ϕ 1 (u ) S u + ϕ 1 (k )S l ϕ 1 (k )S k = u:0 u k u:0 u k ϕ 1 (u)(s l S u ) (3.3) Des Weiteren ergibt sich für jeden möglichen ersten Stoppknoten k: u:k u l ϕ2 k (u)(s l S u ) = u:k u l ϕ2 k (u)(s l S u ) = S l (ϕ 2 k (l) ϕ2 k (k )) [(ϕ 2 } {{ } k (k) ϕ2 k (k ))S } {{ } k +... + (ϕ 2 k (l) ϕ2 k (l ))S l ] ϕ 1 (k ) ϕ 1 (k ) = u:k u l ϕ2 k (u ) S u + S l (ϕ 2 k (l) ϕ1 (k )) + ϕ 1 (k )S k ϕ 2 k (l)s l 18

3.1 Das Primale Programm ϕ 2 k (u ) S u ϕ 1 (k )S l + ϕ 1 (k )S k = ϕ 2 (u)(s l S u ) (3.4) u:k u l u:k u l Fasst man nun die Gleichungen (3.3) und (3.4) zusammen, so erhält man (k, l) D: ϕ 1 (u ) S u + ϕ 2 k (u ) S u = ϕ 1 (u)(s l S u )+ ϕ 2 (u)(s l S u ) u:0 u k u:k u l u:0 u k u:k u l (3.5) Es ergibt sich folgendes Primale Problem (PP) mit geänderten Nebenbedingungen: min x NB : x + u:0 u k ϕ1 (u)(s l S u )+ u:k u l ϕ2 k (u)(s l S u ) L k + L l (k, l) D (W k,l ) x 0 Der Preis der Option ist positiv, also ist die endogene Variable x beschränkt. Die restlichen endogenen Variablen ϕ 1 ( ) und ϕ 2 k ( ) sind frei, wobei ( ) alle möglichen Knoten und k alle möglichen ersten Stoppknoten durchläuft. Nach der Dualitätstheorie wird es also im Dualen Programm nur eine Ungleichheitsnebenbedingung geben. Die restlichen Nebenbedingungen, die zu den freien Variablen gehören, werden Gleichheitsnebenbedingungen sein. Zu jedem Paar von Knoten (k, l) D wird es eine endogene Variable geben (W k,l ). Daran spiegelt sich nun die Abhängigkeit der Strategie ϕ 2 von der ersten Stoppentscheidung wider. Alle W k,l werden nach der Dualitätstheorie positiv sein. 19

3 Upper Hedging Preis ohne Transaktionskosten 3.2 Das Duale Programm Das Duale Programm (DP) zu dem PP des letzten Abschnitts hat die folgende Form: NB : max W (k,l) D W k,l (L k + L l ) (k,l) D W k,l 1 [I] (k,l) D:u k W k,l(s l S u ) = 0 [II(u)] u : t(u) < T l:u l W k,l(s l S u ) = 0 [III(k,u)] (k, u) : k u, t(u) < T W k,l 0 Die Bedingung I gehört zur primalen Variablen x und ist unabhängig von der Wahl der ersten Stoppzeit. Bedingung II(u) gehört zur primalen Variblen ϕ 1 (u). Da alle ϕ 1 ( ) noch nicht von der ersten Stoppentscheidung abhängen, taucht ϕ 1 (u) in allen Nebenbedingungen W k,l mit dem Faktor (S(l) S(u)) auf, bei denen u k ist. Somit ergibt sich für alle u mit t(u) < T, die Bedingung II(u). Die Nebenbedingung II(k,u) gehört zu ϕ 2 k (u). Hier muss nun auf die erste Stoppentscheidung bedingt werden. Denn liegt diese z.b. bei k, so muss der Verkäufer durch seine nun gewählte Strategie ϕ 2 k nur noch die Auszahlungen L k + L l, k l dominieren. ϕ 2 k (u) kommt also nur dann zum Tragen, wenn k u ist und bei k das erste Mal gestoppt wurde, also bei W k,l, u l. Man beachte, dass hier sowohl u als auch k fest gewählt sind und die Summation nur über l läuft. Hingegen wird bei I und allen II(u) stets über Paare (k, l) D summiert! Alle Nebenbedingungen außer I sind Gleichheitsbedingungen, da sie zu freien Variablen im Primalen Programm gehören. Da alle freien Variablen zusätzlich mit dem Faktor 0 in der Minimierung auftauchen, x allerdings mit Faktor 1, ergibt sich die rechte Seite des Gleichungssystems. Da x 0 und der Prozess L beschränkt ist, hat das Primale Programm aus Kapitel (3.1) immer eine Lösung. Mit dem Startkapital x = max (k,l) D L k + L l < lassen sich trivialerweise alle Auszahlungen dominieren. Nach dem Dualitätssatz hat nun aber auch das DP eine Lösung und diese stimmt mit der Lösung des PP überein! 20

3.3 Wichtige Sätze 3.3 Wichtige Sätze Bevor wir im nächsten Abschnitt die gewünschte Darstellung des Upper Hedging Preises herleiten, werden wir nun einige wichtige Sätze beweisen, die uns den Weg dorthin ebnen werden. Zunächst beschäftigen wir uns näher mit der Konstruktion von randomisierten Maßen, da wir im folgenden Satz anhand von einem Paarmaß W ein randomisiertes Maß Q schrittweise durch seine Übergangswahrscheinlichkeiten auf dem Baum definieren werden. Auch bei der Konstruktion des Maßes muss aufgrund der Randomisierung des Zufallsraumes (wie in Kapitel 2 beschrieben) wiederum darauf bedingt werden, ob und wo bereits gestoppt wurde. qk l ist im Folgenden die Übergangswahrscheinlichkeit von dem Knoten k zu einem Nachfolger l zu wandern, falls noch nicht gestoppt wurde. Wurde hingegen bereits bei u gestoppt, so steht qk l (u) für die auf u bedingte Übergangswahrscheinlichkeit. Die Wahrscheinlichkeit, v zu erreichen, wenn bei u gestoppt wurde, ist nun das Produkt der Übergangswahrscheinlichkeiten bis v: Q u (v) = 0 k u q l k u k v qk l (u) (u, v) D (3.6) wobei mit l jeweils der Nachfolger von k in Richtung v gemeint ist. Damit die Gleichungen (2.4) und (2.5) erfüllt sind, muss des Weiteren gelten, dass l k + q l k = 1 k : t(k) < T 1 bzw. l k + q l k (u) = 1 (u, k) : u k, t(k) < T (3.7) Denn somit folgt direkt, dass l k + Q(l) = Q(k) k : t(k) < T 1 bzw. l k + Q u (l) = Q u (k) (u, k) : u k, t(k) < T was nach Bem 2.4.2 äquivalent zu den Gleichungen (2.4) bzw. (2.5) ist. Die Gleichung (3.6) ist somit konsistent zu der Erweiterung des Maßes von Kapitel 2.4 und Kapitel 2.6. Kommen wir nun zu unserem ersten Hauptresultat: Satz 3.3.1 Jedes Paarmaß W lässt sich in eine Pfadrandomisierung X und ein randomisiertes Maß Q zerlegen, so dass W u,v = X u,v Q u (v) (u, v) D (3.8) 21

3 Upper Hedging Preis ohne Transaktionskosten Seien umgekehrt X eine Pfadrandomisierung und Q ein randomisiertes Maß auf B, so bildet das Produkt (X u,v Q u (v)) (u,v) D ein Paarmaß auf B. Beweis: Beginnen wir mit dem ersten Teil des Satzes: Gegeben sei ein Paarmaß W. Definiere nun die Übergangswahrscheinlichkeiten des gesuchten Maßes Q wie folgt. falls bis k noch nicht gestoppt wurde und qk l = (u,v) D:l u W u,v (u,v) D:k u W u,v qk l (u) = v:l v W u,v v:k v W u,v (3.9) (3.10) wenn bei u k bereits gestoppt wurde. Offensichtlich erfüllt das so definierte randomisierte Maß Q die Gleichung (3.7). Anhand von Q definieren wir uns nun die Pfadrandomisierung. Setze für festes u mit Q(u) > 0 X u,v = W u,v Q u(v) für Q u (v) > 0 P 0 für Q u (v) = 0, Q u (v ) = 0 v :v v W u,v Q u(v ) P v :u v W u,v Q(u) für Q u (v) = 0, Q u (v ) > 0, v u für Q u (v) = 0, Q u (v ) > 0, v = u Ist Q(u) = 0, aber Q(u ) > 0, so setze X u,v = { P (u,v) D:u u Wu,v Q(u ) für v u + 0 sonst Gilt Q(u) = 0 und Q(u ) = 0, so setze auch X u,v = 0 v : u v. Da mit (3.9) und (3.10) aus Q u (v) = 0 auch W u,v = 0 folgt (da mindestens eine Übergangswahrscheinlichkeit auf dem Weg zu v gleich 0 sein muss), gilt offentsichtlich mit der obgigen Definition von X, dass X u,v Q u (v) = W u,v (u, v) D. Zu zeigen ist nun allerdings noch, dass X eine Pfadrandomisierung ist, also die Adaptiertheit von X und dass (u,v) D(ω) X u,v = 1 ω Ω. Beachte hierfür, dass nach der 22

3.3 Wichtige Sätze Konstruktion von Q folgendes gilt: Q u (l) Q u (k) = ql k (u) v:k v W u,v Q u (k) = v:l v W u,v Q u (l) l k + (3.11) und Q(l) Q(k) = ql k (u,v) D:k u W u,v Q(k) = (u,v) D:l u W u,v Q(l) l k + (3.12) Kommen wir zunächst zum Beweis der Adaptiertheit. Wähle zu einem festen u mit Q(u) > 0 einen beliebigen Pfad ω mit u ω. Es gilt mehrere Fälle zu betrachten: Fall 1: Q u (ω T ) > 0 In diesem Fall folgt aus der Konstruktion des Maßes Q, dass keine der auf u bedingten Übergangswahrscheinlichkeiten entlang des Pfades ω ab u gleich 0 ist und somit auch Q u (v) > 0 (u, v) D(ω), da Q(u) > 0 per Annahme. Im Weiteren sei mit u + 1 der Nachfolger von u auf ω gemeint. Weiter sei im Folgenden, wie in Notation 1 beschrieben, ω i der Knoten auf ω zur Zeit i. Es gilt also mit dem ersten Fall der Definition von X: v:(u,v) D(ω) X u,v = v ω:u v = = (3.11) = W u,v Q u(v) ( Wu,u+1 Q u(u+1) + + Wu,ω T 1 Q u(ω T 1 ) + Wu,ω T Q u(ω T ) ( P Wu,u+1 Q + + Wu,ω T 1 u(u+1) Q u(ω T 1 ) + ( P Wu,u+1 Q + + Wu,ω T 1 u(u+1) Q u(ω T 1 ) + ( P ) Wu,u+1 = Q + + v:ω T 1 v Wu,v u(u+1) Q u(ω T 1 ) ( P Wu,u+1 = Q + + Wu,ω T 2 u(u+1) Q u(ω T 2 ) + (3.11) = ( Wu,u+1 Q u(v) P + + Wu,ω T 2 Q u(ω T 2 ) + ) v:ω T v Wu,v Q u(ω T ) ) v:ω T 1 v Wu,v Q u(ω T 1 ) v:ω T 1 v Wu,v Q u(ω T 1 ) ) v:ω T 2 v Wu,v Q u(ω T 2 ) Durch das Wiederholen der letzten beiden Gleichungen für alle v entlang des Pfades ω bis u (ω T 1,, u + 1) unter Verwendung von (3.11) erhält man schließlich: = P P v:v u+1 Wu,v v:v u+1 Q u(u+1) = Wu,v Q(u) qu u+1 (u) = P v:u v Wu,v Q(u) ) ) 23

3 Upper Hedging Preis ohne Transaktionskosten Fall 2: Q u (ω T ) = 0, Q u (u + 1) > 0 Nun sind ab einem eindeutigen Knoten ˆv ω mit Q u (ˆv) > 0 die Wahrscheinlichkeiten Q u (v) = 0 v ω : v ˆv. Wir betrachten den Knoten ˆv + 1. Für diesen trifft der 3. Fall, für alle nach ihm der zweite Fall der Definition von X (für Q(u) > 0 ist) zu. Es folgt also: v:(u,v) D(ω) X u,v = v ω:u v ˆv = = = (3.11) = W u,v Q u(v) + X u,ˆv+1 ( Wu,u+1 Q u(u+1) + + W u,ˆv Q u(ˆv) + P ( Wu,u+1 Q u(u+1) + + P v:ˆv v Wu,v Q u(ˆv) ( Wu,u+1 Q u(u+1) + + W u,ˆv Q u(ˆv ) + P ( Wu,u+1 Q u(v) v:ˆv v Wu,v Q u(ˆv) ) + + W u,ˆv Q u(ˆv ) + P ) v:ˆv v Wu,v Q u(ˆv) ) v:ˆv v Wu,v Q u(ˆv ) Durch das Wiederholen der letzten beiden Gleichungen für alle v entlang des Pfades ω bis u (ˆv,, u + 1) unter Verwendung von (3.11) erhält man schließlich ebenfalls: = Fall 3: Q u (u + 1) = 0 P P v:v u+1 Wu,v v:v u+1 Q u(u+1) = Wu,v Q(u) qu u+1 (u) = ) P v:u v Wu,v Q(u) Nun folgt direkt aus dem vierten Fall der Definition von X, dass P v:(u,v) D(ω) X v:u v u,v = Wu,v Q(u) Aus Fall 1-3 folgt, dass : v:(u,v) D(ω) X u,v = v:u v W u,v Q(u) u : t(u) < T F t(u) messbar ist, (3.13) wenn Q(u) 0. Ist hingegen Q(u) = 0, so folgt direkt aus der Definition von X auch in diesem Fall die Adaptiertheit von X. Mit (3.12) und (3.13) werden wir nun weiter zeigen, dass (u,v) D(ω) X u,v = 1 ω Ω. Betrachte dazu wiederum einen beliebigen Pfad ω. Auf ω sei û der letzte Knoten mit 24

3.3 Wichtige Sätze Q(û) > 0. Es gilt offensichtlich t(û) < T und man erhält für û = ω T 1 : v:û v Wû,v = (u,v):û u W u,v Gilt hingegen û ω T, so folgt aus der Definition von X, dass (u,v) D(ω):û u X u,v = Xû+1,û+2 = (u,v) D:û u W u,v Q(û) Mit den obigen Gleichungen, der Definition von X sowie Gleichung (3.13) erhält man schließlich: Also haben wir: (u,v) D(ω):û u X u,v = (u,v) D(ω) X u,v = u ω v:(u,v) D(ω) X u,v (3.13) = (3.14) = (3.12) = = P v:v 0 W 0,v Q(0) + + P v:v 0 W 0,v Q(0) + + P v:v 0 W 0,v Q(0) + + P v:v 0 W 0,v Q(0) + + (u,v) D:û u W u,v Q(û) P v:v û Wû,v Q(û ) P v:v û Wû,v + Q(û ) P v:v û Wû,v Q(û ) + P (u,v):u û Wu,v Q(û ) + (u,v) D(ω):û u X u,v P (u,v):u û Wu,v Q(û) P (u,v):u û W u,v Q(û ) Durch Wiederholen der letzten beiden Gleichungen für alle u entlang des Pfades ω, (û,,0) unter Verwendung von (3.12) erhält man schließlich: = P (u,v):u 0 Wu,v Q(0) = 1 1 = 1 Damit wäre die Hinrichtung des Satzes gezeigt. (3.14) Für die Rückrichtung wähle ein beliebiges Paar X, Q. Zu zeigen ist nun, dass X u,v Q u (v) die Wahrscheinlichkeit ist, bei u und v zu stoppen, also W u,v. Die Wahrscheinlichkeit, dass man genau bei (u, v) stoppt, setzt sich aus den Wahrscheinlichkeiten zusammen, vor t(u) noch nicht gestoppt zu haben und bedingt darauf, nach u zu laufen ( ) 1 X k,l (k,l) D(ω):t(k)<t(u) k:0 k u q l k 25

3 Upper Hedging Preis ohne Transaktionskosten wobei man aufgrund der Adaptiertheit von X einen beliebigen Pfad ω mit v ω für diese Darstellung verwenden kann. in u das erste Mal zu stoppen (bedingt darauf, noch nicht gestoppt zu haben) l:(u,l) D(ω) X u,l 1 (k,l) D(ω):t(k)<t(u) X k,l bedingt auf dieses Stoppen weiter bis v zu laufen k:u k v q l k (u) und schließlich in v das zweite Mal zu stoppen (bedingt darauf, in u bereits gestoppt Also gilt zu haben) X u,v l:(u,l) D(ω) X u,l W u,v = ( 1 = X u,v (k,l) D(ω):t(k)<t(u) k:u k v k:0 k l = X u,v Q u (v) q l k (u) q l k X k,l ) X u,v k:0 k l l:(u,l) D(ω) X u,l k:u k v q l k (u) q l k l:(u,l) D(ω) X u,l 1 (k,l) D(ω):t(k)<t(u) X k,l Da sich diese Wahrscheinlichkeiten zu 1 aufsummieren, gilt also (u,v) D X u,v Q u (v) = 1. Damit wäre unser erstes Hauptresultat gezeigt. Im nächsten Satz werden wir eine Folgerung aus dem Dualen Programm aus Kapitel (3.2) herleiten: 26

3.3 Wichtige Sätze Satz 3.3.2 Aus dem Dualen Programm (DP) von Kapitel 3.2 folgt das Optimierungsproblem: NB : max W (k,l) D W k,l (L k + L l ) (k,l) D W k,l = 1 [I ] b u +(S b S u ) (k,l) D:b k W k,l = 0 [II (u)] u : t(u) < T b u +(S b S u ) l:b l W k,l = 0 [III (k,u)] (k, u) : k u, t(u) < T W k,l 0 Beweis: Die Ungleichheitsbedingung I des DP kann bei dem gegebenen Maximierungsproblem offensichtlich als Gleichheitsbedingung und somit als I geschrieben werden. Zu zeigen bleibt, dass man die Nebenbedingungen II(u) u : t(u) < T und III(k,u) (k, u) : k u in die Nebenbedingungen II (u) und III (k,u) überführen kann. Beginnen wir mit II (u): Setzt man in Bedingung III(k,u) k = u, so erhält man Also folgt u : t(u) < T : W k,l (S l S k ) = 0 k T (3.15) l:k l II(u)- b u + II(b)= 0 (k,l) D:u k W k,l(s l S u ) b u + (k,l) D:b k W k,l(s l S b ) = b u + l:(b,l) D W b,l(s l S u ) + b u (k,l) D:b k + W k,l [(S l S u ) (S l S b )] } {{ } =S b S u Subtrahieren von Gleichung (3.15) für alle k = b u + ergibt = b u + l:(b,l) D W b,l(s b S u ) + b u (k,l) D:b k + W k,l(s b S u ) = ( b u + l:(b,l) D W b,l + ) (k,l) D:b k W k,l (S b S u ) = b u +(S b S u ) (k,l) D:b k W k,l = 0 = II (u) 27

3 Upper Hedging Preis ohne Transaktionskosten Kommen wir nun zu III (u): Für jedes Paar (k, u) : k u gilt III(k,u)- b u + III(k,b) = 0 l:u l W k,l(s l S u ) b u l:b l + W k,l(s l S b ) = b u + W k,b(s b S u ) + b u l:b l + W k,l[(s l S u ) (S l S b )] = b u (W + k,b (S b S u ) + ) l:b l W k,l(s b S u ) = b u +(S b S u ) l:b l W k,l = 0 = III (k,u) Damit wäre das Lemma bewiesen. Definition 3.3.3 (Martingalmaß) Es sei S ein adaptierter, stochastischer Prozess. Ein randomisiertes Maß Q heißt Martingalmaß für S, wenn E Q (S t+1 S t Ft ) = 0 für t = 0,..., T 1 Die Menge der Martingalmaße eines Prozesses S bezeichnen wir mit M(S). Ein Martingalmass muss also nur die handliche Ein-Perioden Martingalbedingung erfüllen. Da man allerdings auf Ft bedingt, fließen Informationen über das Stoppen in der Vergangenheit in die Erwartung mit ein. Korollar 3.3.4 Gelten die Gleichungen W k,l (S l S u ) = 0 u : t(u) < T 1 (3.16) (k,l) D:u k sowie W k,l (S l S u ) = 0 (k, u) : k u, t(u) < T (3.17) l:u l so macht das durch die Gleichungen (3.9) und (3.10) definierte Maß Q den Preis der Aktie S zu einem Martingal. Beweis: Der Beweis folgt sofort aus Satz 3.3.2. Aus II (u) folgt die Martingaleigenschaft für 28

3.4 Der Upper Hedging Preis den Fall, dass noch nicht gestoppt wurde und aus III (k,u) für den Fall, dass bereits in k gestoppt wurde. 3.4 Der Upper Hedging Preis Mit den Ergebnissen des vorangegangenen Abschnitts kommen wir nun zu einem der Hauptresultate dieser Arbeit: Satz 3.4.1 Der Upper Hedging Preis p up hat folgende Darstellung: p up = max X wobei X eine Pfadrandomisierung ist. max Q M(S) EQ [L X] (3.18) Beweis Das Minimierungsproblem des Primalen Programmes aus Kapitel 3.1 beschreibt den Upper Hedging Preis p up. Dieser lässt sich nach der starken Dualität auch als Maximierungsproblem des Dualen Programmes aus Kapitel 3.2 schreiben. Die Nebenbedingung I vom DP besagt, dass es sich bei W um ein Paarmaß handelt. Maximiert man also im DP über Paarmaße, so entfällt diese Nebenbedingung. Aus Satz 3.3.1 ergibt sich weiter, dass die Maximierung über alle Paarmaße W äquivalent zu der Maximierung über alle Pfadrandomisierungen X und alle randomisierten Maße Q ist. Letztlich ergibt sich aus Korollar 3.3.4, dass man die Maximierung auf Martingalmaße bzgl. dem Aktienpreisprozess S einschränken kann, da die Martingaleigenschaft von Q durch die Nebenbedingungen II und III verlangt wird. Also erhält man die Form: p up = max X max Q M(S) (u,v) D X u,v Q u (v) (L u + L v ) (3.19) Wir definieren die Menge Ω i,j = {(k, l) D : t(k) = i, t(l) = j}. Es folgt nun: (u,v) D X k,l Q u (v)(l k + L l ) = i,j:i<j T = i,j:i<j T (k,l) Ω i,j X k,l Q k (l)(l k + L l ) (k,l) Ω i,j X k,l ω:l ω Q ω i ( ω)(l k + L l ) 29

3 Upper Hedging Preis ohne Transaktionskosten = i,j:i<j T (k,l) Ω i,j (k,l) Ω i,j ω:l ω X k,lq ωi ( ω)(l k + L l ) = i,j:i<j T ω:l ω X ω i, ω j Q ωi ( ω)(l ωi + L ωj ) = i,j:i<j T ω X ω i,ω j Q ωi (ω)(l ωi + L ωj ) = ω i,j:i<j T X ω i,ω j Q ωi (ω)(l ωi + L ωj ) ) Bem 2.4.2 = E (X Q ωi,ω j (L ωi + L ωj ) = E Q (L X) Somit erhalten wir nun die gewünschte Darstellung p up = max X max Q M(S) EQ (L X) (3.20) 3.5 Reduktion auf Doppelstoppzeiten In diesem Abschnitt werden wir die Ergebnisse des letzten Kapitels auf sogenannte Doppelstoppzeiten reduzieren. Wir werden zeigen, dass im Fall ohne TAK keine Pfadran- domisierungen für die Darstellung des Upper Hedging Preises nötig sind. Definition 3.5.1 (Doppelstoppzeit) Eine Pfadrandomisierung X ist eine Doppelstoppzeit wenn sie pro Pfad ω nur einem Punktepaar einen Wert > 0 zuordnet, d.h. wenn X u,v > 0 für (u, v) D(ω) (k, l) D(ω) mit (k, l) (u, v) : X k,l > 0. Da eine Doppelstoppzeit ein Spezialfall einer Pfadrandomisierung ist, folgt direkt, dass auf jedem Pfad genau einem Knotenpaar die Stoppwahrscheinlichkeit 1 zugeordnet wird. Eine Doppelstoppzeit ließe sich somit auch als Paar von Stoppzeiten (τ 1, τ 2 ) mit τ 2 > τ 1 + 1 P f.s. interpretieren. Nach Bem. 2.5.3 bildet die Menge der Pfadrandomisierungen einen endlich erzeugten Polyeder P. Weiter ist offensichtlich f(x) = max Q M(S) E Q [L X] konvex. Nach Satz 1.14. aus dem Skript zur Vorlesung Optimierung I, Sommersemester 2005 von Prof. 30

3.5 Reduktion auf Doppelstoppzeiten Rüdiger Frey gilt somit die Abschätzung f(x) max{f(x i ), 1 i r} x P wobei {x 1,..., x r } die Extremalpunkte von P sind. Im folgenden Satz werden wir nun zeigen, dass jeder Extremalpunkte des Polyeders der Pfadrandomisierungen eine Doppelstoppzeit ist. Somit wird es ausreichen, die Maximierung im Ausdruck (3.20) über Doppelstoppzeiten durchzuführen. Satz 3.5.2 Die Extremalpunkte der Menge der Pfadrandomisierungen sind Doppelstoppzeiten. Beweis: Wir werden zeigen, dass eine echte Pfadrandomisierung kein Extremalpunkt sein kann, was gleichbedeutend zu der Aussage des Satzes ist. Sei nun also eine Pfadrandomisierung X keine Doppelstoppzeit, d.h. es existiert ein ω mit (u, v), (ũ, ṽ) D(ω) so dass X u,v > 0 und Xũ,ṽ > 0. Wir betrachten nun diesen Pfad ω sowie die Knotenpaare (u, v) und (ũ, ṽ). Wähle weiter ein ɛ > 0 so dass ɛ < X k,l (k, l) D mit X k,l > 0. A) Es sei u ũ : Definiere nun X ɛ für einen festen Pfad ω durch X ωi,ω j ( ) Xω ɛ X ωi,ω i,ω j = X ωi,ω j + ɛ P j v ω:u v Xu,v ( ) X ωi,ω X ωi,ω j ɛ P j v ω:ũ v X ũ,v wenn u ω i ũ wenn ω i = u wenn ω i = ũ Analog sei X ɛ definiert. Aus der Konstruktion von X ɛ und X ɛ folgt sofort, dass X = 1 2 (Xɛ + X ɛ ). Zu zeigen bleibt nun also noch, dass X ɛ und X ɛ Pfadrandomisierungen sind! Beginnen wir mit X ɛ : Für einen festen Pfad ω gilt: (k,l) D(ω) Xɛ k,l = (k,l) D(ω):ũ k u Xɛ k,l + l ω:u l Xɛ u,l + l ω:ũ l Xɛ ũ,l = (k,l) D(ω):ũ k u X k,l + l ω:u l X u,l + ɛ + l ω:ũ l X ũ,l ɛ = (k,l) D(ω) X k,l = 1 Ähnlich zeigen wir die Adaptiertheit von X ɛ. Zu zeigen ist, dass für festes k : t(k) < T 31

3 Upper Hedging Preis ohne Transaktionskosten die Zufallsvariable ω l:(k,l) D(ω) Xɛ k,l F t(k) messbar ist. Fall 1: ũ k u In diesem Fall ist Xk,l ɛ = X k,l l : (k, l) D(ω) und somit folgt aus der Adaptiertheit von X auch die Adaptiertheit von X ɛ auf diesen Knoten. Fall 2: k = u l:(k,l) D(ω) X ɛ k,l = l:(k,l) D(ω) ( X ) k,l X k,l +ɛ l:(k,l) D(ω) X k,l = l:(k,l) D(ω) X k,l +ɛ ω : k ω Auch hier folgt damit aus der Adaptiertheit von X die Adaptiertheit von X ɛ auf dem Knoten u. Fall 3: k = ũ Analog zu Fall 2 ergibt sich: Xk,l ɛ = X k,l ɛ l:(k,l) D(ω) l:(k,l) D(ω) ω : k ω und somit die gewünschte Eigenschaft von X ɛ auf ũ. Mit Fall 1-3 folgt nun, dass X ɛ eine RDS ist. Der Beweis für X ɛ läuft vollkommen analog ab. B) Ist hingegen u = ũ: In diesem Fall setze Xu,v ɛ = X u,v ɛ, Xũ,ṽ ɛ = X ũ,ṽ + ɛ und ansonsten Xk,l ɛ = X k,l (k, l) : (u, v) (k, l) (ũ, ṽ). Analog definiere X ɛ. Offensichtlich sind sowohl X ɛ als auch X ɛ Pfadrandomisierungen und es gilt X = 1 2 (Xɛ +X ɛ ). Damit wäre der Satz 3.5.2 bewiesen und wir können uns nach der folgenden alternativen Herleitung von p up im nächsten Kapitel dem allgemeinen Problem mit TAK stellen. 32

3.6 Darstellung des Upper Hedging Preises durch die Snell Einhüllende 3.6 Darstellung des Upper Hedging Preises durch die Snell Einhüllende Zum Abschluss dieses Kapitels werden wir nun einen Weg skizzieren, den Upper Hedging Preis mit Hilfe der Snell Einhüllenden zu finden. Die Zeit bei dieser Herleitung ist weiterhin diskret, allerdings kann der Zustandsraum beliebig gewählt werden. Wir gehen analog zu dem Vorlesungsskript Stochastische Finanzmathematik von Prof. Dr. Christoph Kühn vor. Alle Hinweise auf Sätze bzw. Definitionen beziehen sich auf das Kapitel 6 Superhedging des oben genannten Skripts. Wir verwenden somit nicht den Begriff der Pfadrandomisierung bzw. Doppelstoppzeit, sondern betrachten in diesem Abschnitt ein Paar von Stoppzeiten (τ 1, τ 2 ) mit τ 2 τ 1 + 1 P f.s. Die sonstigen Bezeichnungen übernehmen wir aus den vorherigen Kapiteln dieser Arbeit. Gesucht wird auch jetzt wiederum der minimale Optionspreis x, der Startkapital für ein Portfolio Φ ist, so dass Behauptung ist, dass t1 t2 x + ϕ 1 ds + ϕ 2 ds L t1 + L t2 (t 1, t 2 ) : t 2 t 1 + 1 0 t 1 x = sup (τ 1,τ 2 ):τ 2 τ 1 +1 sup E Q (L τ1 + L τ2 ) Q M(S) dieser minimale Preis ist. Zunächste betrachten wir die obere Snell Einhüllende der Menge M(S): Y t = ess sup τ2 t ess sup Q M(S) E Q (L τ2 F t ) Den Sprung der Snell Einhüllenden von t auf t + 1 unterteilen wir nun folgendermaßen: Y t+0,5 = ess sup τ 2 t+1 ess sup Q M(S) E Q (L τ2 F t ) Beim Schritt von t zu t + 0, 5 wird zunächst die Menge der Stoppzeiten bei gegebener Filtration eingeschränkt. Es wird so modelliert, dass in diesem Schritt allerdings noch kein Handel stattfindet, sondern erst von t + 0, 5 bis t + 1. Demnach gilt F t+0,5 = F t. Man kann also zur Zeit t + 0, 5 erst in t + 1 wieder stoppen, hat allerdings nicht mehr Informationen als zur Zeit t. 33

3 Upper Hedging Preis ohne Transaktionskosten Definition 3.6.1 Sei Q eine nichtleere Menge von Wahrscheinlichkeitsmaßen auf (Ω, F T ). Ein adaptierter Prozess L heißt Q- Supermartingal, wenn L ein Q-Supermartingal für alle Q Q ist. Satz 3.6.2 Der zusammengesetzte Prozess Y 0, Y 0,5, Y 1, Y 1,5,... ist ein M(S) Supermartingal. Beweis: Es gilt offensichtlich: Y t+0,5 Y t. Also folgt Q M(S): E Q (Y t+0,5 F t) E Q (Y t F t ) = E Q (ess sup τ2 t ess sup Q M(S) E Q (L τ2 F t ) F t ) = ess sup τ2 t ess sup Q M(S) E Q (L τ2 F t ) = Y t z.z. bleibt, dass E Q (Y t+1 F t+0,5) Y t+0,5. Diesen Beweise führe ich analog zu dem Beweis, dass die obere Snell Einhüllende ein Supermartingal ist (Satz 6.11 aus dem oben genannten Skript). Es sei Y Q t die Snell Einhüllende von L bzgl. des Maßes Q zur Zeit t. Es gilt: Y t 0,5 = ess sup Q M(S) ess sup τ2 t E Q (L τ2 F t 1 ) = ess sup Q M(S) E Q (ess sup τ2 t E Q (L τ2 F t ) F t 1 ) = ess sup Q M(S) E Q (Y Q t F t 1 ) (3.21) Für ein festes Q M(S) sei Q t (Q ) die Menge der Maße Q, die auf F t mit Q übereinstimmt. Da Y Q t F t -messbar ist, gilt: E Q (Y Q t F t 1 ) = E Q (Y Q t F t 1 ) Q t (Q ) (3.22) Aus Lemma 6.3 und Lemma 6.6 folgt, dass die Menge {Y Q t Q Q t (Q )} maximumsstabil ist und dass ess sup Q M(S) Y Q t = ess sup Q Qt(Q ) Y Q t gibt. Mit Monotoner Konver- folgt, dass es eine Folge (Q k ) k N Q t (Q ) mit Y Q k t genz erhält man: Y t. Aus diesen beiden Aussagen ess sup Q M(S) E Q (Y Q t F t 1 ) (3.22) = ess sup Q M(S) ess sup Q Qt(Q ) E Q (Y Q t F t 1 ) = ess sup Q M(S) lim k E Q (Y Q k t F t 1 ) 34