Jan Kallsen. Mathematical Finance Eine Einführung in die zeitdiskrete Finanzmathematik

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "Jan Kallsen. Mathematical Finance Eine Einführung in die zeitdiskrete Finanzmathematik"

Transkript

1 Jan Kallsen Mathematical Finance Eine Einführung in die zeitdiskrete Finanzmathematik AU zu Kiel, WS 13/14, Stand 10. Februar 2014

2 Inhaltsverzeichnis 1 Mathematische Hilfsmittel Absolutstetigkeit und Äquivalenz Bedingter Erwartungswert Diskrete stochastische Analysis Stochastische Prozesse Martingale Stochastisches Integral Mathematische Marktmodellierung Wertpapiere und Handelsstrategien Arbitrage Wertpapiere mit Dividenden Konkrete Marktmodelle Bewerten und Hedgen von Derivaten Termingeschäfte Marktbewertung Individuelle Sichtweise Beispiele Forward Future Europäische all- und Put-Optionen im Binomialmodell Europäische all- und Put-Optionen im Standardmarktmodell Amerikanische Optionen Unvollständige Märkte Martingalmodellierung Varianz-optimales Hedgen Portfolio-Optimierung Portfolio-Optimierung

3 INHALTSVERZEIHNIS 3 7 Ausblick in die zeitstetige Finanzmathematik Zeitstetige Theorie Black-Scholes-Modell Literatur 87

4 Kapitel 1 Mathematische Hilfsmittel In diesem Kapitel werden einige wahrscheinlichkeitstheoretische Begriffe vorgestellt, die in einführenden Stochastik-Vorlesungen in der Regel nicht zur Sprache kommen. 1.1 Absolutstetigkeit und Äquivalenz Ein ganz wesentlicher Kunstgriff in der Finanzmathematik besteht darin, neben dem eigentlichen Wahrscheinlichkeitsmaß weitere zu betrachten, unter denen bestimmte Erwartungswerte verschwinden. Dabei interessiert man sich aber vorwiegend für solche Maße, unter denen die Mengen mit positiver Wahrscheinlichkeit dieselben wie unter dem ursprünglichen Wahrscheinlichkeitsmaß sind. Solche äquivalenten Maßwechsel spielen auch in der Statistik eine wichtige Rolle. Seien µ, ν Maße auf einem messbaren Raum (Ω, F ). Später werden wir fast ausschließlich Wahrscheinlichkeitsmaße betrachten. Definition 1.1 Das Maß ν heißt absolutstetig bezüglich µ, falls jede µ-nullmenge auch eine ν-nullmenge ist. Man schreibt dafür ν µ. 1 Dabei ist eine µ-nullmenge eine beliebige Teilmenge einer Menge N F mit µ(n) = 0. Man fordert bei Nullmengen also nicht unbedingt die Messbarkeit. Dies ist bisweilen aus technischen Gründen sinnvoll. Definition 1.2 µ und ν heißen äquivalent, falls µ ν und ν µ. Man schreibt dafür µ ν. Der Satz von Radon-Nikodým besagt, dass das dominierte Maß bei Absolutstetigkeit schon eine Dichte bzgl. des dominierenden Maßes besitzt. Satz 1.3 (Radon-Nikodým) Sei µ σ-endlich (d.h. es existieren Mengen A 1, A 2,... F mit i=1a i = Ω und µ(a n ) < für alle n). 2 Dann sind äquivalent: 1 ν µ bedeutet für endliches Ω einfach, dass aus µ({ω}) = 0 schon ν({ω}) = 0 folgt. 2 Im Falle endlichen Grundraums oder für ein Wahrscheinlichkeitsmaß gilt dies automatisch. 4

5 1.2. BEDINGTER ERWARTUNGSWERT 5 1. ν hat eine µ-dichte f (d. h. es gibt eine nichtnegative messbare Abbildung f : Ω R mit ν(a) = fdµ für alle A F ).3 A 2. ν µ. Die Dichte dν dµ := f ist µ-fast überall eindeutig.4 Beweis. Siehe z.b. [Bau78] Bemerkung. Für nichtnegative, messbare oder nach ν integrierbare Funktionen g : Ω R gilt gdν = g dν dµ dµ. 1.2 Bedingter Erwartungswert Bei einfachen Zufallsexperimenten hat man es in der Regel mit nur zwei unterschiedlichen Informationsständen zu tun. Vor dem Experiment liegt der Ausgang noch weitgehend im Dunkeln, und man kann lediglich Wahrscheinlichkeiten für die verschiedenen Ereignisse angeben. Nach dem Experiment hingegen ist der eingetretene Zustand vollständig determiniert. Dies spiegelt sich auch bei Zufallsvariablen X wider. Nach dem Experiment kennt man X exakt, vorher gibt man sich z. B. mit dem Erwartungswert E(X) als erwartetem Mittelwert zufrieden. Wenn sich Zufallsexperimente jedoch über einen längeren Zeitraum hinziehen, erscheint diese Betrachtungsweise unangemessen. Mit dem Fortschreiten der Zeit werden die Vorstellungen über den Ausgang des Experiments immer präziser. Es erscheint daher wünschenswert, Wahrscheinlichkeiten und Erwartungswerte auf Grundlage der zum augenblicklichen Zeitpunkt vorhandenen Information zu betrachten. Dazu muss man jedoch zunächst den etwas vagen Begriff der vorhandenen Information mathematisch präzisieren. Es gehört zu den außerordentlich fruchtbaren Ideen der Wahrscheinlichkeitstheorie, dies mit Hilfe von σ-algebren zu bewerkstelligen, die ja in der Maßtheorie zunächst nur als Definitionsbereiche von Maßen in Erscheinung treten, für die sich wie etwa beim Lebesguemaß die Potenzmenge als zu groß erweist. Inwiefern steht nun eine σ-algebra für den Umfang an Information, der zu einem gegebenen Zeitpunkt zur Verfügung steht? Dies geschieht in der Form, dass genau die Ereignisse enthält, von denen wir schon zum gegenwärtigen Zeitpunkt sicher sagen können, ob sie eintreten oder nicht. 3 Für endliches Ω heißt das also ν(a) = ω A f(ω)µ({ω}). (1.1) 4 Für endliches Ω ist f(ω) = ν({ω}) µ({ω}) sofern nicht µ({ω}) = 0, und Gleichung (1.1) ist offensichtlich.

6 6 KAPITEL 1. MATHEMATISHE HILFSMITTEL Betrachten wir dazu ein konkretes Beispiel. Wir würfeln dreimal mit einem Würfel und bezeichnen die Ergebnisse als X 1, X 2, X 3. Nach dem ersten Würfelwurf sind bereits all die Ereignisse entschieden, die sich nur auf diesen ersten Wurf beziehen, z. B. das Ereignis {X 1 ist gerade}. Die zu diesem Informationsstand passende σ-algebra ist daher die von der Zufallsvariablen X 1 erzeugte, d. h. = σ(x 1 ) = {X 1 (B) : B B}. 5 Aber auch die Vorstellungen hinsichtlich noch nicht determinierter Ereignisse und Zufallsvariablen können sich nach dem ersten Wurf geändert haben. Zum Beispiel gilt für die Augensumme E(X 1 + X 2 + X 3 ) = E(X 1 ) + E(X 2 ) + E(X 3 ) = 10,5; nach dem ersten Wurf hingegen erwarten wir im Mittel X 1 + E(X 2 ) + E(X 3 ) = X 1 + 7, da die Zufallsvariable X 1 für uns nun nicht mehr zufällig ist. Man bezeichnet diesen Erwartungswert auf Grundlage der Information als bedingten Erwartungswert gegeben und schreibt E(X ). Bedingte Wahrscheinlichkeiten lassen sich durch die Definition P (A ) = E(1 A ) als Spezialfall bedingter Erwartungswerte auffassen. Damit die Abbildung A P (A ) aber auch σ-additiv ist, wie man es von einem Wahrscheinlichkeitsmaß erwartet, sind einige maßtheoretische Hürden zu überwinden, auf die hier nicht eingegangen werden soll. Wir beschränken uns daher auf bedingte Erwartungswerte. Seien (Ω, F, P ) ein Wahrscheinlichkeitsraum und eine Unter-σ-Algebra von F (d. h. F ). Ferner sei X eine R-wertige Zufallsvariable 6. Wir betrachten zunächst den Fall, dass Ω nur endlich oder abzählbare viele Elemente besitzt. Lemma 1.4 Sei Ω endlich oder abzählbar. Dann gibt es eine Partition 7 ( i ) i I von Ω, so dass = { i J i : J I}. Beweis. Für ω Ω sei (ω) = { : ω }. Für ω Ω \ (ω) existiert ein (ω, ω ) derart, dass ω (ω, ω ) und ω / (ω, ω ). Es folgt (ω) = {(ω, ω ) : ω Ω \ (ω)}, da Ω abzählbar ist. Die höchstens abzählbar vielen Mengen (ω), ω Ω numerieren wir als 0, 1,..., die Menge der auftretenden Indizes heiße I. Sie bilden offenbar eine Partition von Ω. Definiere := { i J i : J I}. Es gilt, da eine σ-algebra ist. Für gilt ferner = ω (ω). Zusammen folgt =. Anschaulich besagt das vorige Lemma, dass es endlich oder abzählbar viele Atome i gibt, aus denen sich die Mengen der σ-algebra zusammensetzen. Die verschiedenen Ergebnisse ω i der einzelnen Atome tauchen immer gemeinsam in den Ereignissen auf und lassen sich auf Grundlage der durch gegebenen Information nicht trennen. Anders formuliert: Auf Grundlage der durch gegebenen Information wissen wir zwar genau, welches der Ereignisse i eintritt, aber wir wissen nichts darüber, welches konkrete Ergebnis ω i am Ende des Zufallsexperiments tatsächlich vorliegt. Je größer die σ-algebra ist, desto 5 Für endliches Ω enthält σ(x 1 ) beliebige Vereinigungen von Mengen der Form X 1 (x) = {X = x} := {ω Ω : X(ω) = x}, wobei x R. 6 R := [, ] 7 Partition bedeutet i I i = Ω und paarweise Disjunktheit, d. h. i j = für i j.

7 1.2. BEDINGTER ERWARTUNGSWERT 7 genauer können wir das Endergebnis ω einkreisen, d. h. desto mehr Information haben wir über den Ausgang des Zufallsexperiments. Wir können nun den bedingten Erwartungswert im endlichen oder abzählbaren Fall definieren. Definition 1.5 Sei = { i J i : J I}, wobei ( i ) i I eine endliche oder abzählbare Partition von Ω ist. 8 Sei X ferner nichtnegativ oder integrierbar. 9 Wir definieren den bedingten Erwartungswert von X gegeben als E(X )(ω) := { E(X i ) falls ω i mit P ( i ) > 0, 0 falls ω i mit P ( i ) = 0. (1.2) Dabei ist E(X i ) der Erwartungswert unter der durch A P (A i) P ( i ) Wahrscheinlichkeitsverteilung P ( i ), für den gilt definierten bedingten E(X i ) := E(X1 i ) P ( i ). Wenn man den Erwartungswert E(X) als beste Prognose einer Zuallsvariablen X auffasst, dann steht der bedingte Erwartungswert E(X ) als beste Prognose auf Grundlage der gegebenen Information. Da wir in diesem Fall schon wissen, in welcher Menge i das Ergebnis des Zufallsexperiments liegt, wird bei der Berechnung des Erwartungswerts in (1.2) nur über die ω i gemittelt. Der bedingte Erwartungswert besitzt u. a. die folgenden wichtigen Eigenschaften. Satz 1.6 Der bedingte Erwartungswert aus Definition 1.5 ist -messbar, und es gilt E(X )dp = XdP (1.3) für alle. Ferner ist E(X ) nichtnegativ bzw. integrierbar, falls dies für X der Fall ist. Beweis. Sei B B mit 0 / B. Dann ist {E(X ) B} = i J i für J := {i I : P ( i ) > 0 und E(X i ) B}. Insbesondere ist E(X ) -messbar. Sei nun, o.b.d.a. = i für ein i I. Dann ist E(X )dp = E(X i )dp = P ( i ) E(X1 i ) = XdP i P ( i ) im Falle P ( i ) > 0 und ähnlich auch für P ( i ) = 0. 8 Wenn Ω endlich ist, hat jede σ-algebra nach dem vorigen Lemma eine solche Form, wobei man dann mit endlich vielen Atomen i auskommt. 9 Integrierbarkeit ist für endliches Ω automatisch gegeben, falls die Zufallsvariable nur endliche Werte annimmt.

8 8 KAPITEL 1. MATHEMATISHE HILFSMITTEL E(X ) ist offenbar nichtnegativ, falls dies für X gilt. Falls X integrierbar ist, gilt für := {E(X ) 0} : E(X ) + dp = E(X )dp = XdP X dp < und analog E(E(X ) ) <. Es folgt die Integrierbarkeit von E(X ). -Messbarkeit im vorigen Satz bedeutet anschaulich, dass der bedingte Erwartungswert auf Grundlage der durch gegebenen Information bekannt ist. Es handelt sich also um eine ganz natürliche Eigenschaft. Die Integralgleichung bedeutet, dass sich X von seinem bedingten Erwartungswert durch die Brille -messbarer Mengen insofern nicht unterscheidet, als es die gleichen Integrale liefert. Es verhält sich also in gewisser Weise ähnlich wie X selbst. In allgemeinen Wahrscheinlichkeitsräumen ist Definition 1.5 nicht anwendbar, da Unterσ-Algebren im allgemeinen nicht von einer Partition erzeugt werden. Man wählt daher als Ersatz eine Definition, die auf den Eigenschaften aus dem vorigen Satz beruht, die auch in allgemeineren Situationen noch sinnvoll sind. Satz 1.7 Falls X nichtnegativ (oder integrierbar) ist, dann existiert eine P -fast sicher eindeutige -messbare nichtnegative (bzw. integrierbare) Zufallsvariable E(X ) derart, dass E(X )dp = XdP (1.4) für alle. Beweis. 1. Schritt: Sei zunächst X 0 und fast sicher endlich. Wir definieren ein neues Maß Q P durch die Dichte dq := X. Für die auf die Unter-σ-Algebra eingeschränkten dp Maße P, Q gilt Q P : Für jede P -Nullmenge N existiert nämlich ein A F mit N A und P (A) = P (A) = 0, was wegen Q P auch Q (A) = Q(A) = 0 impliziert. Nach dem Satz von Radon-Nikodym existiert eine -messbare, nichtnegative Dichte Y := dq dp, d. h. Q () = Y dp für alle. Damit Y die Eigenschaften einer bedingten Erwartung hat, bleibt zu zeigen, dass Y dp = XdP (1.5) für alle. Dies folgt aus XdP = Q() = Q () = ( ) Y dp = Y dp, wobei die letzte Gleichung ( ) vielleicht nicht offensichtlich ist. Wir beweisen sie mit Hilfe der bisweilen als algebraische Induktion bezeichneten Beweismethode. Darunter versteht man, dass eine Aussage zunächst für Indikatorfunktionen, dann für Zufallsvariablen mit endlich vielen Werten, danach für allgemeine nichtnegative

9 1.2. BEDINGTER ERWARTUNGSWERT 9 und schließlich durch Zerlegung in Positiv- und Negativteil ggf. für beliebige Zufallsvariablen gezeigt wird. Für Z = 1 A mit A gilt ZdP = P (A) = P (A) = ZdP wie gewünscht. Wegen der Linearität des Integrals gilt die Aussage ZdP = ZdP daher auch für Linearkombinationen solcher Indikatoren. Nach dem Satz über monotone Konvergenz erhalten wir sie auch für beliebige nichtnegative -messbare Z, denn jedes solche Z lässt sich als monotoner Limes von Linearkombinationen von Indikatoren schreiben. Zum Beweis von ( ) wählen wir dann Z = Y Schritt: Wir betrachten nun integrierbare X. Wir konstruieren deren bedingten Erwartungswert als E(X ) := E(X + ) E(X ), wobei die rechten Seiten durch den 1. Schritt bereits definiert sind. Die rechte Seite ist offenbar -messbar. Integrierbarkeit gilt wegen E( E(X + ) E(X ) ) E(E(X + ) + E(X )) = E(E(X + )) + E(E(X )) = E(X + ) + E(X ) = E( X ) < Gleichung (1.4) folgt aus der Linearität des Integrals. 3. Schritt: Der Vollständigkeit halber wird noch der weniger wichtige Fall einer allgemeinen nichtnegativen Zufallsvariablen X betrachtet. Setze A := {X = }. Wir definieren Y := E(1 A ) + E(X1 A ), wobei die rechte Seite durch den ersten Schritt bereits erklärt ist und wir die übliche Konvention 0 = 0 verwenden. Offenbar ist Y nichtnegativ und -messbar. Sei. Im Fall P ( A) > 0 sind Y dp 1 A dp = P ( A) = und XdP P ( A) =, so dass (1.5) gilt. Im Fall P ( A) = 0 folgt (1.5) aus Y dp = P ( A) + X1 A dp = X1 A dp = XdP. 4. Schritt: Es bleibt noch die Eindeutigkeit zu zeigen. Dazu seien Y, Ỹ zwei -messbare Zufallsvariablen, die die Eigenschaften des bedingten Erwartungswerts besitzen. Für n N setze := {Y > Ỹ und Y Ỹ n}. Dann gilt (Y Ỹ )dp = Y dp Ỹ dp = XdP XdP = 0,

10 10 KAPITEL 1. MATHEMATISHE HILFSMITTEL also P () = 0, da Y Ỹ > 0 auf. Stetigkeit von unten impliziert P (Y > Ỹ ) = 0. Analog folgt P (Y < Ỹ ) = 0 und somit Y = Ỹ fast sicher. Nach Satz 1.6 stimmt E(X ) mit dem in Definition 1.5 eingeführten bedingten Erwartungswert überein, falls die entsprechenden Voraussetzungen an gegeben sind. Dies motiviert die folgende Definition E(X ) heißt bedingte Erwartung von X gegeben. 2. E(X ) kann durch die Festlegung E(X ) := E(X + ) E(X ) auch noch im Falle E( X ) < definiert werden. Der bedingte Erwartungswert ist also im allgemeinen implizit über gewünschte Eigenschaften und nicht explizit durch eine Formel festgelegt. Im folgenden Satz sind wichtige Rechenregeln für den bedingten Erwartungswert zusammengestellt. Satz 1.9 Sei X nichtnegativ oder integrierbar. Dann gelten: 1. E(X ) = X, falls X -messbar ist. 2. E(X ) = E(X), falls σ(x) und unabhängig sind E(E(X )) = E(X) 4. E(E(X ) D) = E(X D), falls D Unter-σ-Algebra von ist. 5. Die Abbildung X E(X ) ist linear und monoton. 6. Es gilt der Satz von der monotonen Konvergenz, d. h. für jede wachsende Folge (X n ) n N nichtnegativer Zufallsvariablen mit Limes X := sup n N X n gilt fast sicher. E(X n ) E(X ) 7. Es gilt der Satz von der majorisierten Konvergenz, d. h. für jede fast sicher konvergente Folge (X n ) n N von Zufallsvariablen mit Limes X und E(sup n N X n ) < gilt E(X n ) E(X ) (1.6) fast sicher und in L Es gilt die Jensensche Ungleichung, d. h. für integrierbares X und jede konvexe Abbildung f : R R derart, dass f(x) integrierbar ist, gilt f(e(x )) E(f(X) ). 10 d.h. falls P (A B) = P (A)P (B) für alle A σ(x), B

11 1.2. BEDINGTER ERWARTUNGSWERT Für -messbares Y : Ω R gilt E(XY ) = E(X )Y, falls die Ausdrücke sinnvoll sind, d. h. falls X, Y 0 oder X, XY integrierbar sind. Insbesondere gilt E(XY ) = E(E(X )Y ). Beweis. 1. X hat offenbar die in der Definition geforderten Eigenschaften. 2. -Messbarkeit sowie Nichtnegativität bzw. Integrierbarkeit des Kandidaten sind offensichtlich. Sei. Da X σ(x)-messbar und 1 -messbar sind, gilt wegen der Unabhängigkeit der σ-algebren E(X1 ) = E(X)E(1 ) und somit wie gewünscht. 3. Dies gilt wegen E(X)dP = E(X)E(1 ) = E(X1 ) = E(E(X )) = Ω E(X )dp = Ω XdP XdP = E(X). 4. Wir zeigen, dass der Kandidat E(E(X ) D) die Eigenschaften der bedingten Erwartung E(X D) erfüllt. D-Messbarkeit gilt nach Definition. Für D D gilt ferner E(E(X ) D)dP = E(X )dp = XdP wie gewünscht. D 5. Für Zufallsvariablen X, Y ist E(X ) + E(Y ) -messbar: Mit (E(X ) + E(Y ))dp = = = D D E(X )dp + XdP + Y dp (X + Y )dp E(Y )dp für folgt, dass E(X ) + E(Y ) die Eigenschaften des bedingten Erwartungswerts E(X + Y ) besitzt. Analog zeigt man E(cX ) = ce(x ) für c R, sofern cx nichtnegativ oder integrierbar ist. Im Falle X Y zerlegen wir Y = X + (Y X). Wegen Y X 0 ist auch E(Y X ) 0. Aus der Additivität folgt E(Y ) = E(X ) + E(Y X ) und somit E(Y ) E(X ).

12 12 KAPITEL 1. MATHEMATISHE HILFSMITTEL 6. Wegen der Monotonie der bedingten Erwartung ist (E(X n )) n N eine aufsteigende Folge. Offenbar ist ihr Limes Y := sup n N E(X n ) -messbar. Es bliebt zu zeigen, dass (1.5) für beliebiges gilt. Nach dem üblichen Satz über monotone Konvergenz gilt Y dp = lim E(X n )dp = lim X n dp = XdP n n wie gewünscht. 7. Definere Y := sup n N X n, X n := sup k n X k, X n := inf k n X k. Dann gilt Für n gilt Nach Aussage 6 folgt Y X n X n X n Y, n N. Y X n Y lim sup X n = Y X, n Y + X n Y + lim inf X n = Y + X. n E(Y X n ) E(Y X ) fast sicher und in L 1, E(Y X n ) E(Y X ) fast sicher und in L 1 und somit E(X n ), E(X n ) E(X ) fast sicher und in L 1. Wegen ergibt sich (1.6). E(X n ) E(X n ) E(X n ) 8. Konvexe Funktionen lassen sich nach Sätzen der Analysis schreiben als mit rellen Koeffizienten a n, b n. Es folgt f(x) = sup(a n x + b n ) n N f(e(x )) = sup(a n E(X ) + b n ) n N = sup E(a n X + b n ) n N ( ) E sup(a n X + b n ) n N = E(f(X) ). 9. Wir zeigen, dass der Kandidat E(X )Y die Eigenschaften von E(XY ) besitzt. -Messbarkeit ist klar. Für Y = 1 A mit A ist E(X )Y dp = E(X )dp = XdP = XY dp, A wie gewünscht. Weiter geht es mit algebraischer Induktion. Die Formel für den unbedingten Erwartungswert folgt nach Eigenschaft 3. A

13 1.2. BEDINGTER ERWARTUNGSWERT 13 Der bedingte Erwartungswert lässt sich auch als eine Orthogonalprojektion auffassen. Satz 1.10 Sei X L 2 (Ω, F, P ). Dann ist E(X ) die Orthogonalprojektion 11 von X auf den Unterraum L 2 (Ω,, P ). Beweis. Nach der Jensenschen Ungleichung gilt (E(X )) 2 E(X 2 ) und somit E ( E(X ) 2) E ( E(X 2 ) ) = E(X 2 ) <. Da E(X ) -messbar ist, gilt also E(X ) L 2 (Ω,, P ). Für Y L 2 (Ω,, P ) gilt nach Satz 1.9(9) ferner X E(X ), Y = E((X E(X ))Y ) = E(XY ) E(E(X )Y ) = E(XY ) E(XY ) = 0, d. h. X E(X ) ist orthogonal zu L 2 (Ω,, P ). Damit folgt die Behauptung. Zur Berechnung bedingter Erwartungswerte ist mitunter folgendes Resultat nützlich. Lemma 1.11 Seien Y eine Zufallsvariable und g : R R R eine messbare Abbildung derart, dass g(x, Y ) nichtnegativ oder integrierbar ist. Falls X -messbar und Y unabhängig von ist, dann gilt: E(g(X, Y ) ) = g(x, y)p Y (dy). 12 Beweis. Sei zunächst g nichtnegativ. Im Zusammenhang mit dem Satz von Fubini wird gezeigt, dass die Abbildung x g(x, y)p Y (dy) Borel-messbar ist. Somit ist auch die Zufallsvariable g(x, y)p Y (dy) als Verkettung zweier messbarer Abbildungen -messbar. Für definiere Z := 1. Da (X, Z) unabhängig von Y ist, gilt P (X,Z) P Y = P (X,Z,Y ). Mit dem Transformationssatz und dem Satz von Fubini folgt g(x, y)p Y (dy)dp = g(x, y)zp Y (dy)dp = g(x, y)zp Y (dy)p (X,Z) (d(x, z)) = g(x, y)zp (X,Z,Y ) (d(x, z, y)) = g(x, Y )ZdP = g(x, Y )dp, 11 L 2 (Ω, F, P ) ist ein Hilbertraum bzgl. des Skalarprodukts X, Y := E(XY ), wenn man fast sicher gleiche Zufallsgrößen miteinander identifiziert. 12 Das bedeutet im endlichen Fall E(g(X, Y ) )(ω) = y R g(x(ω), y)p (Y = y).

14 14 KAPITEL 1. MATHEMATISHE HILFSMITTEL woraus die Behauptung folgt. Der Beweis für integrierbares g(x, Y ) verläuft analog. Die Integrierbarkeit des Kandidaten folgt mit der obigen Rechnung angewandt auf g(x, Y ) und = Ω: E( g(x, y)p Y (dy) ) E( g(x, y) P Y (dy)) = E( g(x, Y ) ) <. Bezeichnung. E(X Y ) := E(X σ(y )) für messbare Abbildungen Y : (Ω, F ) (Γ, G ) mit Werten in einem messbaren Raum (Γ, G ). Die Eigenschaft -Messbarkeit der bedingten Erwartung ist intuitiv so zu verstehen, dass E(X ) durch die Information in determiniert ist. Wenn nun die σ-algebra von einer Zufallsvariablen Y erzeugt ist, sollte man erwarten, dass sich E(X ) als Funktion von Y schreiben lässt. Die folgende Bemerkung zeigt, dass dies in der Tat der Fall ist. Lemma 1.12 Sei Y : (Ω, F ) (Γ, G ) mit Werten in einem messbaren Raum (Γ, G ). Dann ist X genau dann σ(y )-messbar, wenn es eine messbare Abbildung g : (Γ, G ) (R, B) gibt mit X = g Y. Beweis. : Im Falle X = 1 bedeutet σ(y )-Messbarkeit, dass σ(y ) = Y 1 (G ) ist, also = Y 1 (G) für ein G G. Somit ist X = 1 G (Y ) = g Y für g := 1 G. Weiter geht es mit algebraischer Induktion. : Dies gilt, da die Verkettung messbarer Abbildung messbar ist.

15 Kapitel 2 Diskrete stochastische Analysis In der stochastischen Finanzmathematik fasst man Wertpapierkursverläufe, wie man sie in der Zeitung oder auf dem Bildschirm verfolgen kann, als stochastische Prozesse, d. h. als zufällige Funktionen der Zeit, auf. Auch die variierende Zahl der Wertpapiere im Anlageportfolio sowie das daraus resultierende Anlagevermögen fallen in diesen Rahmen. Die zugehörigen mathematischen Begriffe, die auch ganz unabhängig von der Finanzmathematik angewandt werden, werden in diesem Kapitel vorgestellt. Wir beschränken uns dabei an dieser Stelle auf eine diskrete Menge von Zeitpunkten (etwa Tage, Minuten, Sekunden). Der kontinuierliche Fall erfordert eine erheblich kompliziertere Theorie. 2.1 Stochastische Prozesse Wie schon im vorigen Kapitel angedeutet, spielt die bis zum jeweiligen Zeitpunkt zur Verfügung stehende Information eine wichtige Rolle. Entscheidungen wie z. B. der Kauf oder Verkauf von Wertpapieren können ja nur auf dem derzeitigen Wissen über den Zustand des Finanzmarktes oder der Welt gründen. Mathematisch wird diese Information durch den Begriff der Filtrierung ausgedrückt. Definition 2.1 Eine Filtrierung (F n ) n N auf einem Wahrscheinlichkeitsraum (Ω, F, P ) ist eine Folge von σ-algebren F n F mit F m F n für m n. (Ω, F, (F n ) n N, P ) heißt filtrierter Wahrscheinlichkeitsraum. Die σ-algebra F n steht für die bis zur Zeit n angesammelte Information. A F n bedeutet, dass wir schon zur Zeit n wissen, ob das Ereignis A eintritt oder nicht. Von nun an sei ein filtrierter Wahrscheinlichkeitsraum (Ω, F, (F n ) n N, P ) gegeben. Definition Ein stochastischer Prozess X = (X n ) n N ist eine Familie von Zufallsvariablen. 2. Ein Prozess X heißt adaptiert, falls X n F n -messbar ist für alle n N. 15

16 16 KAPITEL 2. DISKRETE STOHASTISHE ANALYSIS Das n steht dabei wie oben schon für einen Zeitparameter. Ein stochastischer Prozess beschreibt also den zufälligen Zustand eines Systems durch die Zeit hindurch. Der Wertebereich von X n ist üblicherweise R oder allgemeiner R d, etwa wenn es sich bei X n um den Kurs eines oder mehrerer Wertpapiere zum Zeitpunkt n handelt. Falls nichts anderes vermerkt ist, nehmen wir alle Prozesse als reellwertig an. Adaptiertheit bedeutet, dass wir den derzeitigen Wert des Prozesses kennen, zumindest insofern, als er von zufälligen Einflüssen abhängt. Insbesondere ist jeder deterministische Prozess adaptiert. Wir betrachten ab jetzt fast ausschließlich solche adaptierten Prozesse. Bemerkung. Wir identifizieren einen Prozess X manchmal auch mit einer Abbildung X : Ω N R (bzw. R d ) oder einer Abbildung X : Ω R N (bzw. (R d ) N ). Er kann also auch als Zufallsvariable aufgefasst werden, deren Werte Funktionen N R (bzw. R d ) sind. Bezeichnung. 1. Adaptierte Prozesse nennen wir auch diskrete Semimartingale. 2. Wir benutzen die Notation n := n 1 für n N \ {0}, 0 := 0. Ferner sei X n := X n X n. Hier wie auch später im Text verwenden wir vergleichsweise hochtrabende Bezeichnungen für ganz einfache Dinge (z. B. stochastisches Integral für eine Summe usw.). Die Idee ist, eine möglichst weitgehende Analogie zur allgemeinen stochastischen Analysis zu erzielen, wo die entsprechenden Begriffe und Ergebnisse oft einen hohen technischen Aufwand erfordern. Die hier behandelten zeitdiskreten Resultate lassen sich auch als Spezialfälle der allgemeinen Semimartingaltheorie auffassen. Etwas stärker als Adaptiertheit ist der folgende Begriff. Definition 2.3 Ein Prozess X heißt vorhersehbar, falls X n F n -messbar ist für alle n N. Das bedeutet, dass der Wert von X n schon kurz vor dem Zeitpunkt n bekannt ist. Vorhersehbare Prozesse spielen bei der stochastischen Integration eine zentrale Rolle. Bislang ist offen, welche Gestalt die Filtrierung tatsächlich besitzt. Denkbar ist zumindest im Rahmen des mathematischen Modells, dass unser ganzes nicht-deterministisches Wissen aus der Beobachtung eines einzigen stochastischen Prozesses X, etwa eines Aktienkursverlaufs, herrührt: Definition 2.4 Die Filtrierung (F n ) n N heißt von dem Prozess X erzeugt, falls F n = σ(x 0,..., X n ) für alle n N. Zufällige Zeitpunkte, die nur insofern nicht deterministisch sind, als sie von zufälligen Ereignissen in der Vergangenheit abhängen können, heißen Stoppzeiten. Definition 2.5 Eine Stoppzeit ist eine Abbildung T : Ω N { } mit {T n} F n für alle n N.

17 2.2. MARTINGALE 17 Eine äquivalente Definition ist {T = n} F n für alle n N. Anschaulich heißt das, dass wir aufgrund der uns zur Verfügung stehenden Information F n zu jedem Zeitpunkt n entscheiden können, ob wir Stopp! sagen müssen oder nicht. Eine Stoppzeit ist z. B. der erste Zeitpunkt, zu dem ein Vulkan ausbricht, sofern die Beobachtung des Vulkans in der Informationsstruktur (F n ) n N enthalten ist. Auch jeder deterministische Zeitpunkt ist eine Stoppzeit. Keine Stoppzeit ist hingegen der Zeitpunkt genau 3 Stunden vor dem Vulkanausbruch, denn dazu müsste man in die Zukunft blicken können. Auf Grundlage der im Augenblick vorhandenen Information ist i. a. nicht sicher, ob dieser Zeitpunkt schon gekommen ist. Ein typisches Beispiel einer Stoppzeit ist die erste Eintrittszeit eines Prozesses in eine Menge, etwa der Zeitpunkt, an dem der Aktienindex DAX zum ersten Mal die Schwelle 4000 überwindet. Lemma 2.6 Sei X ein R d -wertiges diskretes Semimartingal und B B d. Dann ist T := inf{n N : X n B} eine Stoppzeit. Beweis. Sei n N. Dann ist {T n} = m n {X m B} F n, da {X m B} F m F n für m n. Für das Einfrieren eines Prozesses ab einem gewissen Zeitpunkt gibt es einen eigenen mathematischen Begriff. Definition 2.7 Für einen Prozess X und eine Stoppzeit T ist der bei T gestoppte Prozess X T definiert durch X T n := X T n. Ein gestoppter Prozess bleibt also ab der zugehörigen Stoppzeit konstant. 2.2 Martingale Der Martingalbegriff ist von zentraler Bedeutung für die stochastische Analysis. Auch die moderne Finanzmathematik wird in vielfältiger Weise von ihm durchdrungen. Definition 2.8 Ein Martingal (bzw. Submartingal, Supermartingal) ist ein adaptierter stochastischer Prozess X derart, dass E( X n ) < 1 und E(X n F m ) = X m (bzw. X m, X m ) für alle m, n N mit m n. Man kann sich unter einem Martingal z. B. das Spielkapital in einem fairen Spiel vorstellen. Als Beispiel sei etwa ein Roulettespiel betrachtet, wo der Einsatz bei Fallen von Rot verdoppelt wird. Wir setzen über mehrere Ausspielungen hinweg 1 e auf Rot und bezeichnen den Spielkapitalprozess als X. Wenn nun Rot mit Wahrscheinlichkeit 1 fällt, dann sind 2 wir nach jeder Ausspielung im Mittel so reich wie vorher, d. h. X ist ein Martingal. Für die (beschränkte) Zukunft ist im Mittel weder ein Gewinn noch ein Verlust zu erwarten. 1 Integrierbarkeit gilt für endliches Ω automatisch.

18 18 KAPITEL 2. DISKRETE STOHASTISHE ANALYSIS In Wirklichkeit ist das Roulettespiel unfair zu Gunsten der Spielbank, da nur mit Wahrscheinlichkeit 18 Rot fällt. Daher entsprechen die realen Gegebenheiten eher einem Supermartingal. Anlagen in risikobehaftete Wertpapiere wie etwa Aktien hingegen werden die 37 meisten Anleger nur tätigen wollen, wenn zumindest im Mittel ein Gewinn zu erwarten ist, d. h. wenn es sich um Submartingale handelt. Lemma 2.9 Anstelle von E(X n F m ) = X m (bzw., ) für m n reicht es in der vorigen Definition zu zeigen, dass E(X n F n 1 ) = X n 1 (bzw., ) für alle n N \ {0}. Beweis. Wegen E(X n F n 2 ) = E(E(X n F n 1 ) F n 2 ) usw. folgt dies mit vollständiger Induktion. Die einfachsten Martingale erhält man, indem man unabhängige, zentrierte Zufallsvariablen sukzessive aufsummiert. Beispiel 2.10 Sei X 1, X 2,... eine Folge unabhängiger, integrierbarer Zufallsvariablen mit E(X n ) = 0 für n = 1, 2,... Dann wird durch S n := n m=1 X m und F n := σ(x 1,..., X n ) ein Martingal S bzgl. (F n ) n N definiert. Beweis. Adaptiertheit und Integrierbarkeit sind offensichtlich. Die Martingaleigenschaft gilt wegen ( n 1 ) n 1 E(S n F n 1 ) = E X m F n 1 + E(X n F n 1 ) = X m + E(X n ) = S n 1, m=1 m=1 da X 1,..., X n 1 F n 1 -messbar und X n unabhängig von F n 1 sind. Auch aus einer einzigen Zufallsvariablen kann man ein Martingal erzeugen. Lemma 2.11 Sei Y eine Zufallsvariable mit E( Y ) <. Dann wird durch X n := E(Y F n ) für n N ein Martingal X definiert (das von Y erzeugte Martingal). Beweis. Die Adaptiertheit ist offensichtlich. Die Integrierbarkeit folgt aus der Jensenschen Ungleichung wegen E( X n ) E( E(Y F n ) ) E(E( Y F n )) = E( Y ) <. Ferner gilt E(X n F m ) = E(E(Y F n ) F m ) = E(Y F m ) = X m für m n. Umgekehrt kann man sich fragen, ob jedes Martingal von einer Zufallsvariablen erzeugt wird. Das hieße, dass man die Menge der Martingale mit der Menge der integrierbaren Zufallsvariablen identifizieren könnte. Das ist jedoch im allgemeinen nicht der Fall, sondern nur unter einer zusätzlichen gleichgradigen Integrabiliätsbedingung oder wenn die Zeitindexmenge (hier N) nach oben beschränkt ist, wie es in den folgenden Kapiteln der Fall sein wird. Beispiel 2.12 Sei Q P ein Wahrscheinlichkeitsmaß. Dann heißt das von dq dp Martingal Z der Dichteprozess von Q bzgl. P, und es gilt Z n = dq Fn dp Fn. erzeugte

19 2.2. MARTINGALE 19 Beweis. Für F n gilt Z n dp Fn = Z n dp = dq dp dp = Q() = Q F n (), wobei die erste Gleichheit im Beweis von Satz 1.7 gezeigt wurde. Somit erfüllt Z n die Eigenschaften einer Dichte von Q Fn bezüglich P Fn Lemma 2.13 (Verallgemeinerte Bayessche Formel) Sei Q P ein Wahrscheinlichkeitsmaß mit Dichteprozess Z. Für n N sei X eine F n -messbare, nichtnegative oder Q- integrierbare Zufallsvariable. Für m n gilt dann E Q (X F m ) = E(XZ n F m ) Z m. Beweis. Wir zeigen, dass E Q (X F m )Z m die Eigenschaften von E(XZ n F m ) besitzt. F m - Messbarkeit und ggf. Nichtnegativität sind offensichtlich. Falls X Q-integrierbar ist, gilt und E( XZ n ) = E( X Z n ) = E Q ( X ) < E( E Q (X F m )Z m ) E(E Q ( X F m )Z m ) = E Q (E Q ( X F m )) = E Q ( X ) <, da Z n, Z m Dichten von Q auf F n bzw. F m sind. Für F m gilt aus demselben Grund E Q (X F m )Z m dp = E Q (X F m )dq = XdQ = XZ n dp wie gewünscht. Martingale sind also durch ihren Wert in der Zukunft schon zu jedem früheren Zeitpunkt determiniert. Lemma 2.14 Seien X, Y Martingale und N N mit X N = Y N. Dann gilt X n = Y n für n = 0,..., N. Beweis. Dies folgt aus X n = E(X N F n ) = E(Y N F n ) = Y n. Wie wir gesehen haben, erwartet man bei einem Martingal für die Zukunft im Mittel den heutigen Wert. Ein allgemeiner Prozess hingegen könnte einen positiven, negativen oder auch wechselnden Trend aufweisen. Dies wird durch die Doobsche Zerlegung formalisiert. Sie zerlegt den Zuwachs X n eines beliebigen Prozesses in einen kurzfristigen, vorhersehbaren Trend A n und eine zufällige Abweichung M n von diesem Trend. Satz 2.15 (Doob-Zerlegung) Sei X ein diskretes Semimartingal mit E( X n < ) für alle n N. Dann lässt sich X fast sicher eindeutig in der Form X = X 0 + M + A zerlegen, wobei M ein Martingal mit M 0 = 0 und A ein vorhersehbarer Prozess mit A 0 = 0 sind. A heißt Kompensator von X.

20 20 KAPITEL 2. DISKRETE STOHASTISHE ANALYSIS Beweis. Definiere A n := n m=1 E( X m F m 1 ) und M := X X 0 A. Dann ist M n = X n E( X n F n 1 ). Offensichtlich ist M adaptiert, integrierbar und E( M n F n 1 ) = 0, woraus die Martingaleigenschaft folgt. Umgekehrt sei X = X 0 + M + A eine beliebige Zerlegung wie im Satz. Wegen der Vorhersehbarkeit von A und der Martingaleigenschaft von M gilt dann A n = E( A n F n 1 ) = E( X n F n 1 ) E( M n F n 1 ) = E( X n F n 1 ) (2.1) für alle n, woraus die Eindeutigkeit folgt. Bemerkung. Falls X ein Submartingal (bzw. Supermartingal) ist, dann ist A monoton wachsend (bzw. fallend). 2.3 Stochastisches Integral Wie bisher sei ein filtrierter Wahrscheinlichkeitsraum (Ω, F, (F n ) n N, P ) gegeben. Von nun an beschränken wir uns jedoch auf endliches Ω, die zugehörige kanonische σ-algebra F = P(Ω) sowie den Fall P ({ω}) > 0 für alle ω Ω, d. h. alle Ergebnisse können tatsächlich eintreten. Der zentrale Begriff der stochastischen Analysis ist das stochastische Integral, das im Zeitdiskreten nichts anderes als eine Summe ist. Definition 2.16 Sei X ein R d -wertiges diskretes Semimartingal und H ein R d -wertiger vorhersehbarer (oder zumindest adaptierter) Prozess. Unter dem stochastischen Integral von H nach X versteht man das folgendermaßen definierte diskrete Semimartingal H X: n n H X n := H m dx m := Hm X m. (2.2) 0 Motivieren lässt sich das stochastische Integral sehr schön durch die folgende finanzmathematische Anschauung, auch wenn es davon unabhängig entwickelt wurde. Dazu fassen wir, wie wir es auch in den folgenden Kapiteln tun werden, X als den Kursverlauf einer Aktie und H n als die Anzahl an Aktien auf, die wir zur Zeit n besitzen. Durch die Kursänderung der Aktie zwischen n 1 und n ändert sich nun unser Anlagevermögen, nämlich gerade um H n (X n X n 1 ) = H n X n. Das Integral H X n steht also für die kumulativen Handelsgewinne oder -verluste zwischen den Zeitpunkten 0 und n, wie sie sich aus Kursänderungen (und nicht etwa durch Kauf oder Verkauf von Wertpapieren) ergeben. Wenn wir ein Portfolio aus mehreren Aktien besitzen, werden X und H vektorwertig. H i n steht in diesem Fall für die Anzahl an Aktien vom Typ i und X i n für deren Kurs. Die Handelsgewinne zwischen n 1 und n ergeben sich nunmehr als Skalarprodukt H n (X n X n 1 ) = H n X n. Auch im vektorwertigen Fall lässt sich also das Integral H X n als kumulativer Handelsgewinn auffassen. Bei der obigen Interpretation muss man jedoch sehr vorsichtig sein, in welcher Reihenfolge sich die Dinge zum Zeitpunkt n ereignen. Wenn wir H n (X n X n 1 ) als den Kursgewinn zum Zeitpunkt n deuten, bedeutet dies offenbar, dass wir unser Portfolio H n gekauft m=1

21 2.3. STOHASTISHES INTEGRAL 21 haben, bevor sich der Aktienkurs von X n 1 nach X n geändert hat, also gewissenmaßen am Ende des vorigen Zeitpunkts n 1, nachdem sich der Preis X n 1 schon eingestellt hatte. Daher erscheint es plausibel, dass wir zur Wahl von H n auch nur die bis zum Zeitpunkt n 1 gesammelte Information verwenden können und insbesondere nicht den Wert X n, der für uns im Augenblick des Kaufs des Portfolios noch im Dunkeln liegt. Dies motiviert auch zumindest aus finanzmathematischer Sicht, warum man sich überwiegend auf die Betrachtung vorhersehbarer Integranden beschränkt. Denn um die Adaptiertheit von H X zu gewährleisten, würde ja die Adaptiertheit von H reichen. Definition 2.17 Seien X, Y reellwertige diskrete Semimartingale. Unter der Kovariation von X und Y versteht man das durch [X, Y ] n := n X m Y m m=1 definierte diskrete Semimartingal [X, Y ]. Im Falle X = Y spricht man von der quadratischen Variation von X. Die Kovariation ist zumindest im zeitdiskreten Fall vor allem für die Regel der partiellen Integration (vgl. Lemma 2.19) von Interesse. Definition 2.18 Seien X, Y Martingale (oder allgemeiner diskrete Semimartingale) derart, dass E( [X, Y ] n ) < für alle n N. Dann heißt der Kompensator von [X, Y ] vorhersehbare Kovariation von X und Y und wird mit X, Y bezeichnet. Im Falle X = Y spricht man wieder von der vorhersehbaren quadratischen Variation von X. Bemerkung. Offenbar ist X, Y n = E( X n Y n F n 1 ) für n N. Die vorhersehbare quadratische Kovariation von Martingalen kann als eine Art dynamische Verallgemeinerung der Kovarianz zentrierter Zufallsvariablen aufgefasst werden. Wir benötigen sie aus technischen Gründen für den Satz von Girsanow (Lemma 2.25) und im Zusammenhang mit finanzmathematischen Fragestellungen in Kapitel 5.2. Lemma 2.19 Seien X, Y diskrete Semimartingale und H, K vorhersehbare Prozesse. Dann gelten: 1. H (K X) = (HK) X 2. [H X, Y ] = H [X, Y ] 3. die Regel der partiellen Integration: XY = X 0 Y 0 + X Y + Y X (2.3) = X 0 Y 0 + X Y + Y X + [X, Y ] (2.4)

22 22 KAPITEL 2. DISKRETE STOHASTISHE ANALYSIS 4. Falls E( [X, Y ] n ) < und E( [H X, Y ] n ) < für alle n N, ist H X, Y = H X, Y. 5. Wenn X ein Martingal ist, dann ist H X ein Martingal. 6. Wenn X ein Supermartingal und H nichtnegativ sind, dann ist H X ein Supermartingal. 7. Wenn X ein Martingal und T eine Stoppzeit sind, dann ist auch X T ein Martingal. 8. Wenn X ein Supermartingal und T eine Stoppzeit sind, dann ist auch X T ein Supermartingal. Intuitiv bedeuten die beiden letzten Regeln, dass ein gestopptes faires (bzw. ungünstiges) Spiel fair (bzw. ungünstig) bleibt. Man kann also bei dem oben betrachteten Roulettespiel den mittleren Gewinn nicht dadurch steigern, dass man zu einem geschickt gewählten Zeitpunkt das Spielkasino verlässt. Beweis. 1. H (K X) n = n m=1 H m (K X) m = n m=1 H mk m X m = (HK) X n 2. Für festes n gilt und 3. Für festes n gelten [H X, Y ] n = n m=1 (H X) m Y m = n m=1 H m X m Y m = n m=1 H m [X, Y ] m = H [X, Y ] n. X n Y n = X 0 Y 0 + n m=1 (X my m X m 1 Y m 1 ) = X 0 Y 0 + n m=1 (X m 1(Y m Y m 1 ) + Y m (X m X m 1 )) = X 0 Y 0 + X Yn + Y X n Y X n = n m=1 Y m X m = n m=1 (Y m 1 X m + (Y m Y m 1 ) X m ) = Y Xn + [X, Y ] n. 4. Es reicht zu zeigen, dass die Zuwächse übereinstimmen. Dies gilt wegen (H X, Y n ) = H n X, Y n (2.1) = H n E( [X, Y ] n F n 1 ) = E(H n [X, Y ] n F n 1 ) 2. = E( [H X, Y ] n F n 1 ) (2.1) = H X, Y n.

23 2.3. STOHASTISHES INTEGRAL Die Adaptiertheit von H X ist klar, da H X n eine Linearkombination F n - messbarer Zufallsvariabler ist. Die Martingalbedingung folgt wegen E(H X n F n 1 ) = E(H X n 1 + H n X n F n 1 ) = H X n 1 + H n E( X n F n 1 ) aus der Martingaleigenschaft von X. 6. Dies folgt analog zu 5. 7.,8. Definiere den Prozess H durch H n := 1 {T n}. H ist vorhersehbar, denn für festes n ist {H n = 1} = {T n} = {T n 1} F n. Ferner ist X T = X 0 + H X, denn X 0 + H X n = X 0 + n T m=1 X m = X n T = Xn T. Mit Eigenschaft 5 bzw. 6 folgt die Behauptung. Bemerkung. 1. Das stochastische Integral H X ist linear in H und X. 2. Die Kovariation [X, Y ] und die vorhersehbare Kovariation X, Y sind linear in X und Y. 3. Die obigen Aussagen gelten auch für vektorwertige Prozesse, sofern sich sinnvolle Aussagen ergeben. Z. B. ist H (K X) = (HK) X, falls K, X R d -wertig sind. Die Itô-Formel ist im Zeitdiskreten nichts anderes als eine mehr oder weniger kompliziert aufgeschriebene Teleskopsumme und spielt auch keine große Rolle. In der zeitstetigen Analysis ist sie dagegen von zentraler Bedeutung, weswegen wir sie hier der Vollständigkeit halber ebenfalls erwähnen. Satz 2.20 (Itô-Formel) Seien X ein R d -wertiges diskretes Semimartingal und f : R d R eine differenzierbare Funktion. Dann ist f(x) ein diskretes Semimartingal, und es gilt: f(x n ) = f(x 0 ) + n (f(x m ) f(x m )) m=1 = f(x 0 ) + (Df(X )) X n + Beweis. durch einfaches Nachrechnen. n ) (f(x m ) f(x m ) Df(X m ) X m m=1 Bemerkung. Wenn die Sprünge X klein sind und f zweifach stetig differenzierbar ist, dann gilt näherungsweise f(x n ) f(x 0 ) + (Df(X )) X n d Dijf(X 2 ) [X i, X j ] n (2.5) i,j=1 (d. h. f(x n ) f(x 0 ) + f (X ) X n f (X ) [X, X] n für reellwertiges X).

24 24 KAPITEL 2. DISKRETE STOHASTISHE ANALYSIS Beweis. Die Näherungsformel folgt mit einer Taylorentwicklung 2. Ordnung: f(x m ) f(x m ) + Df(X m ) X m d i,j=1 D2 ijf(x m ) X i m X j m. Stochastische Exponentiale sind Prozesse von multiplikativer Gestalt und spielen in der stochastischen Analysis eine wichtige Rolle. Sie lassen sich gut finanzmathematisch illustrieren: Wenn X n als Zins zwischen den Zeitpunkten n 1 und n ausgeschüttet wird (d. h. aus 1 e bei n 1 werden 1 + X n e zur Zeit n), dann gibt E (X) an, wie sich ein Anfangskapital von 1 e durch die Zeit hindurch mit Zins und Zinseszins entwickelt. Definition 2.21 Sei X ein reellwertiges diskretes Semimartingal. Unter dem stochastischen Exponential E (X) versteht man das diskrete Semimartingal Z, das die Gleichung löst. Z = 1 + Z X Für das stochastische Exponential gibt es eine einfache explizite Darstellung. Lemma 2.22 Es gilt E (X) n = n m=1 (1 + X m). Beweis. Die Produktdarstellung zeigt man induktiv via Z n = Z n 1 + Z n 1 X n = n 1 m=1 (1 + X m)(1 + X n ) = n m=1 (1 + X n). Bemerkung. 1. Wenn die Sprünge X klein sind, dann gilt näherungsweise ( E (X) n exp X n X 0 1 ) 2 [X, X] n. (2.6) Beweis. In der Näherung o(( X m ) 2 ) 0 gilt exp(x n X 0 1[X, X] 2 n) = n m=1 exp( X m) exp( 1( X 2 m) 2 ) = n m=1 (1 + X m + 1( X 2 m) 2 + o(( X m ) 2 )(1 1( X 2 m) 2 + o(( X m ) 2 )) = n m=1 (1 + X m + 1( X 2 m) 2 1( X 2 m) 2 + o(( X m ) 2 )) n m=1 (1 + X m) = E (X) n. 2. Wenn X ein Martingal ist, so gilt dies nach Lemma 2.19(5) auch für E (X). 3. Z := ce (X) ist wegen ce (X) = c(1 + E (X) X) = c + (ce (X)) X die eindeutige Lösung der Gleichung Z = c + Z X. In der folgenden Rechenregel für das stochastische Exponential taucht im Vergleich zur gewöhnlichen Exponentialfunktion noch ein Kovariationsterm auf.

25 2.3. STOHASTISHES INTEGRAL 25 Lemma 2.23 (Yorsche Fomel) Für diskrete Semimartingale X, Y gilt E (X)E (Y ) = E (X + Y + [X, Y ]). Beweis. Nach Lemma 2.19 gilt E (X)E (Y ) = E (X) 0 E (Y ) 0 + E (X) E (Y ) + E (Y ) E (X) + [E (X), E (Y )] = 1 + (E (X) E (Y ) ) Y + (E (X) E (Y ) ) X + (E (X) E (Y ) ) [X, Y ] = 1 + (E (X)E (Y )) (Y + X + [X, Y ]) und damit die Behauptung. Die Yorsche Formel kann man durch folgendes Beispiel illustrieren. Wir bezeichnen mit E (X) den in Dollar notierten Aktienkurs einer Aktie. Wenn E (Y ) den Dollarkurs in Euro bezeichnet, erhält man E (X)E (Y ) = E (X + Y + [X, Y ]) als Aktienkurs in Euro. Die Yorsche Formel drückt aus, dass die Rendite X + Y + [X, Y ] von der Summe der Renditen von E (X) und E (Y ) um den Kovariationsterm [X, Y ] abweicht. Wenn z. B. sowohl der Aktienkurs in Dollar als auch der Dollarkurs um 3% wachsen, dann erhöht sich der Aktienkurs in Euro um 6.09% statt um 6%. Da die Definition des Martingals einen Erwartungswert beinhaltet, ist sie nicht invariant unter Wechsel des Wahrscheinlichkeitsmaßes. Der folgende Satz zeigt, wie man anhand des Dichteprozesses feststellen kann, ob ein Prozess ein Martingal unter einem gegebenen äquivalenten Wahrscheinlichkeitsmaß ist. Solche Maßwechsel, unter denen gewisse Prozesse zu Martingalen werden, spielen in der Finanzmathematik eine wichtige Rolle. Lemma 2.24 Sei Q P ein Wahrscheinlichkeitsmaß mit Dichteprozess Z, und sei X ein diskretes Semimartingal. X ist genau dann ein Q-Martingal, wenn XZ ein P -Martingal ist. Beweis. Die Adaptiertheit ist klar. Nach der verallgemeinerten Bayesschen Formel (Lemma 2.13) gilt Z n 1 E Q (X n F n 1 ) = E P (Z n X n F n 1 ). X ist genau dann ein Q-Martingal, wenn die linke Seite für n = 1, 2,... mit Z n 1 X n 1 übereinstimmt. Analog ist ZX ist genau dann ein P -Martingal, wenn die rechte Seite für n = 1, 2,... mit Z n 1 X n 1 übereinstimmt. Der Satz von Girsanow liefert die Doob-Zerlegung eines P -Martingals unter einem äquivalenten Wahrscheinlichkeitsmaß Q in Abhängigkeit des Dichteprozesses von Q. Lemma 2.25 (Girsanow) Sei Q P ein Wahrscheinlichkeitsmaß mit Dichteprozess Z. Ferner sei X ein Martingal. Dann ist X 1 Z Z, X ein Q- Martingal, wobei die vorhersehbare Kovariation bzgl. des Wahrscheinlichkeitsmaßes P zu verstehen ist.

26 26 KAPITEL 2. DISKRETE STOHASTISHE ANALYSIS Beweis. Für := {Z n = 0} gilt Q() = E P ( dq dp 1 ) = E P (Z n 1 ) = 0, also auch P () = 0 und somit Z n 0 fast sicher. Folglich ist der vorhersehbare Prozess A := 1 Z Z, X wohldefiniert. Nach Lemma 2.19 ist (X A)Z = XZ AZ = X 0 Z 0 + X Z + Z X + [Z, X] Z A A Z = X 0 Z 0 + X Z + Z X + ([Z, X] X, Z ) A Z ein P -Martingal. Die Behauptung folgt mit Lemma Die Irrfahrten sind nach den konstanten Prozessen die einfachsten und wichtigsten. Definition 2.26 Unter einer Irrfahrt verstehen wir ein Semimartingal X mit X 0 = 0 derart, dass ( X n ) n N\{0} unabhängige, identisch verteilte Zufallsvariablen sind. Wir nennen sie binomische Irrfahrt, falls die Zufallsvariablen X n nur zwei Werte haben. Nur sehr einfache Prozesse X wie die binomische Irrfahrt oder deren zeitlich inhomogene oder gestoppte Varianten besitzen die folgende Darstellungseigenschaft, dass sich jedes Martingal bzgl. ihrer Filtrierung schon als stochastisches Integral nach X schreiben lässt. Diese Eigenschaft hängt in der Finanzmathematik eng mit der Vollständigkeit von Märkten zusammen (vgl. Kapitel 4). Satz 2.27 (Martingaldarstellungssatz) Sei X eine binomische Irrfahrt, die ein Martingal ist. Wenn (F n ) n N die von X erzeugte Filtrierung ist, dann gibt es für jedes Martingal Y einen vorhersehbaren Prozess H derart, dass Y = Y 0 + H X. Beweis. Wenn a, b die Werte von X n sind, gilt P ( X n = a) = 1 P ( X n = b) = p, wobei für p wegen der Martingaleigenschaft ap = b(1 p) gilt. Da Y n σ( X 1,..., X n )- messbar ist, gibt es eine Funktion f n : { b, a} n R mit Y n = f n ( X 1,..., X n ). Da Y ein Martingal ist, gilt 0 = E( Y n F n 1 ) = pf n ( X 1,..., X n 1, a) + (1 p)f n ( X 1,..., X n 1, b) nach Lemma 1.11, also Dann ist 1 f a n( X 1,..., X n 1, a) = 1f b n( X 1,..., X n 1, b) =: H n. H n X n = f n ( X 1,..., X n 1, a) = Y n im Falle X n = a und analog für X n = b.

27 Kapitel 3 Mathematische Marktmodellierung In diesem Kapitel wird der allgemeine mathematische Rahmen abgesteckt, den wir zur Behandlung verschiedener konkreter Fragestellungen benötigen. Wir gehen dabei wie in Abschnitt 2.3 von einem endlichen filtrierten Wahrscheinlichkeitsraum (Ω, F, (F n ) n N, P ) mit Elementen positiver Wahrscheinlichkeit aus. 3.1 Wertpapiere und Handelsstrategien In der stochastischen Finanzmathematik geht es überwiegend um Fragen, die mit dem Wertpapierhandel zusammenhängen. Im mathematischen Modell des Finanzmarktes kommen daher vor allem zwei Arten von stochastischen Prozessen zum Tragen: Wertpapierpreisprozesse, die das Auf und Ab der Kurse beschreiben, und Handelsstrategien, die für unser eigenes Anlageportfolio stehen. Gegeben sei ein R d+1 -wertiges diskretes Semimartingal S = (S 0,..., S d ), der Preisprozess der d + 1 Wertpapiere am Markt. Die Zufallsvariable S i n gibt den Preis oder Kurs von Wertpapier i zur Zeit n an. Konkrete Modelle werden wir am Schluss des Kapitels kennenlernen. Mit den Wertpapieren können wir handeln. Dies wird ebenfalls durch einen stochastischen Prozess ausgedrückt. Definition 3.1 Eine Handelsstrategie (oder ein Portfolio) ist ein R d+1 -wertiger vorhersehbarer Prozess ϕ = (ϕ 0,..., ϕ d ). Der Wertprozess oder Vermögensprozess des Portfolios ist V (ϕ) := ϕ S. ϕ i n bezeichnet die Anzahl der Wertpapiere vom Typ i in unserem Portfolio zur Zeit n. Auch diese ist in dem Sinne zufällig, dass wir sie von zufälligen Ereignissen wie z. B. Kursentwicklungen der Aktien bis zum Zeitpunkt n abhängig machen können. Dies erklärt, warum es sich bei Handelsstrategien um adaptierte Prozesse handeln sollte. Warum fordert man 27

28 28 KAPITEL 3. MATHEMATISHE MARKTMODELLIERUNG aber Vorhersehbarkeit? Dies hängt, wie wir im letzten Kapitel schon angedeutet haben, mit der zeitlichen Abfolge der Ereignisse zusammen. Zwischen den Zeitpunkten n 1 und n ändern sich sowohl die Kurse als auch das Anlageportfolio. Wir folgen der Konvention, dass zunächst das Portfolio von ϕ n 1 zu ϕ n umgeschichtet wird und danach die Kursänderung von S n 1 nach S n stattfindet. Das neue Portfolio ϕ n wird also noch zu den Preisen S n 1 erworben. Insbesondere steht uns für die Wahl von ϕ n die Information über S n noch nicht zur Verfügung; wir können sie nur von den Ereignissen bis zur Zeit n 1 abhängig machen. Dies wird gerade durch die Vorhersehbarkeit ausgedrückt. Der Wert V n (ϕ) schließlich wird nach der Kursänderung der Wertpapiere bestimmt, also zu Preisen S n. Man beachte, dass es sich in der Definition um ein Skalarprodukt handelt. Es werden also die Bestände der verschiedenen Papiere aufsummiert. Bargeld im engeren Sinne ist im Modell übrigens nicht vorgesehen. Stattdessen wird auch das Bankkonto, auf dem das nicht anderweitig angelegte Vermögen ruht, als ein Wertpapier angesehen (vgl. Abschnitt 3.4). In diesem einführenden Text beschränken wir uns auf einen in verschiedener Hinsicht idealisierten Finanzmarkt. Wir nehmen an, dass sich Wertpapiere in beliebigen reellen also auch gebrochenen oder negativen Stückzahlen halten lassen. Dies erscheint vor allem bei negativen Stückzahlen als abwegig. Es ist aber in der Praxis mit gewissen Einschränkungen durchaus möglich, Wertpapiere zu verkaufen, die man gar nicht besitzt (Leerverkauf), wenn zu einem späteren Zeitpunkt das entsprechende Gegengeschäft getätigt wird. Ferner treten im mathematischen Modell keinerlei Transaktionskosten oder Dividendenausschüttungen auf, Guthaben- und Schuldenzinsen stimmen überein, und die Kursentwicklung wird durch unseren Handel nicht beeinflusst. Wir betrachten also weder sehr große Anleger, die Preise sehr wohl beeinflussen können, noch sehr kleine, für die Transaktionskosten und Gebühren eine Rolle spielen. Ebensowenig passt dieser allgemeine Rahmen auf Märkte, an denen so wenig gehandelt wird, dass die Differenz zwischen Geld- und Briefkurs, also den Kursen für Käufer und Verkäufer des Wertpapiers, nicht vernachlässigt werden kann. Im Gegensatz zur den Wertpapierkursen können wir über die Handelsstrategie je nach unseren Bedürfnissen selbst bestimmen. Wir beschränken uns allerdings ausschließlich auf in folgendem Sinne selbstfinanzierende Strategien. Definition 3.2 Eine Handelsstrategie ϕ heißt selbstfinanzierend, falls für n = 1, 2,... ( ϕ n ) S n 1 = 0 Die Selbstfinanzierungsbedingung bedeutet, dass das Anlagevermögen zwar zwischen den verschiedenen Wertpapieren umgeschichtet werden kann, dass aber nach dem Zeitpunkt 0 weder Kapital zugeführt noch entnommen wird. Wenn man, wie im vorigen Kapitel motiviert, das stochastische Integral als kumulative Handelsgewinne bzw. -verluste interpretiert, liefert das folgende Lemma eine intuitive Form der Selbstfinanzierungsbedingung. Der Wert des Portfolios gleicht dem Anfangskapital zuzüglich Kursgewinnen oder -verlusten aus dem Handel mit den veschiedenen Wertpapieren.

Jan Kallsen. Einführung in die zeitdiskrete Finanzmathematik

Jan Kallsen. Einführung in die zeitdiskrete Finanzmathematik Jan Kallsen Einführung in die zeitdiskrete Finanzmathematik CAU zu Kiel, WS 08/09, Stand 11. Februar 2009 Inhaltsverzeichnis 0 Hinweise für Nebenfachstudenten 4 1 Mathematische Hilfsmittel 8 1.1 Absolutstetigkeit

Mehr

Absolute Stetigkeit von Maßen

Absolute Stetigkeit von Maßen Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches

Mehr

Amerikanischen Optionen

Amerikanischen Optionen Die Bewertung von Amerikanischen Optionen im Mehrperiodenmodell Universität-Gesamthochschule Paderborn Fachbereich 17 Seminar Finanzmathematik SS 2001 Referentin: Christiane Becker-Funke Dozent: Prof.

Mehr

Mengensysteme, Wahrscheinlichkeitsmaße

Mengensysteme, Wahrscheinlichkeitsmaße Kapitel 1 Mengensysteme, Wahrscheinlichkeitsmaße Der Großteil der folgenden fundamentalen Begriffe sind schon aus der Vorlesung Stochastische Modellbildung bekannt: Definition 1.1 Eine Familie A von Teilmengen

Mehr

Martingale. Kapitel 6. 6.1 Martingale in diskreter Zeit. 6.1.1 Definition und Beispiele

Martingale. Kapitel 6. 6.1 Martingale in diskreter Zeit. 6.1.1 Definition und Beispiele Kapitel 6 Martingale In der Statistik modellieren Martingale z.b. Glücksspiele oder Handelsstrategien in Finanzmärkten und sind ein grundlegendes Hilfsmittel für die statistische Inferenz stochastischer

Mehr

Finanzmathematik - Wintersemester 2007/08. http://code.google.com/p/mitgetexed/

Finanzmathematik - Wintersemester 2007/08. http://code.google.com/p/mitgetexed/ Finanzmathematik - Wintersemester 2007/08 http://code.google.com/p/mitgetexed/ Stand: 4. November 2007 Inhaltsverzeichnis 1 Motivation und erste Begriffe 2 2 Endliche Finanzmärkte 4 3 Das Cox-Ross-Rubinstein-Modell

Mehr

1 Stochastische Prozesse in stetiger Zeit

1 Stochastische Prozesse in stetiger Zeit 1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Vorlesung. Funktionen/Abbildungen 1

Vorlesung. Funktionen/Abbildungen 1 Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.

Mehr

Jan Kallsen. Einführung in die zeitdiskrete Finanzmathematik

Jan Kallsen. Einführung in die zeitdiskrete Finanzmathematik Jan Kallsen Einführung in die zeitdiskrete Finanzmathematik 22. Juli 2005 Inhaltsverzeichnis 0 Mathematische Hilfsmittel 3 0.1 Absolutstetigkeit und Äquivalenz....................... 3 0.2 Bedingte Erwartung..............................

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

7 Bedingte Erwartungswerte und Bedingte Verteilungen

7 Bedingte Erwartungswerte und Bedingte Verteilungen 7 edingte Erwartungswerte und edingte Verteilungen Sei (Ω,, P ein W Raum, (Ω, ein Messraum, Y : Ω Ω sei (, -messbar und nehme die Werte y 1,..., y n Ω an. Y 1 (y k {ω Ω Y (ω y k } : k Ω 1 + + n und σ(y

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban

Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban Lösungsvorschlag 8. Übungsblatt zur Vorlesung Finanzmathematik I Aufgabe Hedging Amerikanischer Optionen Wir sind in einem arbitragefreien

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also Universität Konstanz Fachbereich Mathematik und Statistik Repetitorium Analysis 0 Dr DK Huynh Blatt 8 Aufgabe 6 Bestimmen Sie (a) (x + x 7x+)dx (c) (f) x n exp(x)dx (n N fest) sin (x)dx (g) (b) (d) ln(x)dx

Mehr

Data Mining: Einige Grundlagen aus der Stochastik

Data Mining: Einige Grundlagen aus der Stochastik Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457. Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf

Mehr

Einleitung. Das Ein-Perioden-Modell ist das einfachste. von derivaten Finanzinstrumenten (hier: Optionen) zu erklären.

Einleitung. Das Ein-Perioden-Modell ist das einfachste. von derivaten Finanzinstrumenten (hier: Optionen) zu erklären. Einleitung Das Ein-Perioden-Modell ist das einfachste Modell, um die Idee der Preisgebung von derivaten Finanzinstrumenten (hier: Optionen) zu erklären. naive Idee der Optionspreisbestimmung: Erwartungswertprinzip

Mehr

3. Zusammenhang. 22 Andreas Gathmann

3. Zusammenhang. 22 Andreas Gathmann 22 Andreas Gathmann 3. Zusammenhang Eine der anschaulichsten Eigenschaften eines topologischen Raumes ist wahrscheinlich, ob er zusammenhängend ist oder aus mehreren Teilen besteht. Wir wollen dieses Konzept

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Zählen und Zahlbereiche Übungsblatt 1 1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Für alle m, n N gilt m + n = n + m. in den Satz umschreiben:

Mehr

Stochastische Eingangsprüfung, 17.05.2008

Stochastische Eingangsprüfung, 17.05.2008 Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)

Mehr

7. Ringe und Körper. 7. Ringe und Körper 49

7. Ringe und Körper. 7. Ringe und Körper 49 7. Ringe und Körper 49 7. Ringe und Körper In den bisherigen Kapiteln haben wir nur Gruppen, also insbesondere nur Mengen mit lediglich einer Verknüpfung, untersucht. In der Praxis gibt es aber natürlich

Mehr

Erinnerung/Zusammenfassung zu Abbildungsmatrizen

Erinnerung/Zusammenfassung zu Abbildungsmatrizen Erinnerung/Zusammenfassung zu Abbildungsmatrizen Thomas Coutandin (cthomas@student.ethz.ch) 7. November 2 Abbildungsmatrizen Im Folgenden betrachten wir stets endlich dimensionale K-Vektorräume (K irgend

Mehr

Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14. Auswahl vorausgesetzter Vorkenntnisse

Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14. Auswahl vorausgesetzter Vorkenntnisse UNIVERSITÄT DES SAARLANDES FACHRICHTUNG 6.1 MATHEMATIK Dipl.-Math. Kevin Everard Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14 Auswahl vorausgesetzter Vorkenntnisse

Mehr

Martingal-Maße. Stochastic Finance: An Introduction in Discrete Time (Hans Föllmer, Alexander Schied) Manuel Müller Mathematisches Institut

Martingal-Maße. Stochastic Finance: An Introduction in Discrete Time (Hans Föllmer, Alexander Schied) Manuel Müller Mathematisches Institut Martingal-Maße Manuel Müller 29.04.2016 Mathematisches Institut Stochastic Finance: An Introduction in Discrete Time (Hans Föllmer, Alexander Schied) Seite 2 Martingal-Maße 29.04.2016 Inhaltsverzeichnis

Mehr

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel Ausarbeitung zum Proseminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn zum Thema Simulation des Anlagenpreismodels von Simon Uphus im WS 09/10 Zusammenfassung

Mehr

Aufgaben zu Kapitel 0

Aufgaben zu Kapitel 0 Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

1 Bedingte Erwartungswerte

1 Bedingte Erwartungswerte Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

34 5. FINANZMATHEMATIK

34 5. FINANZMATHEMATIK 34 5. FINANZMATHEMATIK 5. Finanzmathematik 5.1. Ein einführendes Beispiel Betrachten wir eine ganz einfache Situation. Wir haben einen Markt, wo es nur erlaubt ist, heute und in einem Monat zu handeln.

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Wahrscheinlichkeitstheorie. Zapper und

Wahrscheinlichkeitstheorie. Zapper und Diskrete Wahrscheinlichkeitsräume Slide 1 Wahrscheinlichkeitstheorie die Wissenschaft der Zapper und Zocker Diskrete Wahrscheinlichkeitsräume Slide 2 Münzwürfe, Zufallsbits Elementarereignisse mit Wahrscheinlichkeiten

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum Fachschaft Mathematik und Informatik (FIM) LA I VORKURS Herbstsemester 2015 gehalten von Harald Baum 2. September 2015 Inhaltsverzeichnis 1. Stichpunkte zur Linearen Algebra I 2. Körper 3. Vektorräume

Mehr

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011 Mathematik für Informatiker II Christoph Eisinger Sommersemester 211 Beispiellösungen zur Probeklausur Aufgabe 1 Gegeben sind die Polynome f, g, h K[x]. Zu zeigen: Es gibt genau dann Polynome h 1 und h

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Maße auf Produkträumen

Maße auf Produkträumen Maße auf Produkträumen Es seien (, Ω 1 ) und (X 2, Ω 2 ) zwei Meßräume. Wir wollen uns zuerst überlegen, wie wir ausgehend davon eine geeignete σ-algebra auf X 2 definieren können. Wir betrachten die Menge

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Extrema von Funktionen in zwei Variablen

Extrema von Funktionen in zwei Variablen Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen in zwei Variablen Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Terminologie Stochastischer Prozesse

Terminologie Stochastischer Prozesse Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Basis und Dimension Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren

Mehr

Vorlesungsskript: Martingale

Vorlesungsskript: Martingale Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 : 24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar

Mehr

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u. Universität Stuttgart Fachbereich Mathematik Prof. Dr. C. Hesse PD Dr. P. H. Lesky Dipl. Math. D. Zimmermann Msc. J. Köllner FAQ 3 Höhere Mathematik I 4..03 el, kyb, mecha, phys Vektorräume Vektorräume

Mehr

Vorlesung Analysis I / Lehramt

Vorlesung Analysis I / Lehramt Vorlesung Analysis I / Lehramt TU Dortmund, Wintersemester 2012/ 13 Winfried Kaballo Die Vorlesung Analysis I für Lehramtsstudiengänge im Wintersemester 2012/13 an der TU Dortmund basiert auf meinem Buch

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

STOCHASTISCHE PROZESSE. Vorlesungsskript

STOCHASTISCHE PROZESSE. Vorlesungsskript STOCHASTISCHE PROZESSE II: Martingale und Brownsche Bewegung Wolfgang König Vorlesungsskript Universität Leipzig Wintersemester 2005/6 Inhaltsverzeichnis 1 Theorie der Martingale 3 1.1 Definition und

Mehr

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik Höhere Mathematik 3 Apl. Prof. Dr. Norbert Knarr FB Mathematik Wintersemester 2015/16 4. Homogene lineare Dierentialgleichungen 4.1. Grundbegrie 4.1.1. Denition. Es sei J R ein Intervall und a 0 ; : :

Mehr

3. Die Eigenschaften der reellen Zahlen II: Geordnete Körper

3. Die Eigenschaften der reellen Zahlen II: Geordnete Körper 32 Andreas Gathmann 3. Die Eigenschaften der reellen Zahlen II: Geordnete Körper Wir haben bisher von den reellen Zahlen nur die Körpereigenschaften, also die Eigenschaften der vier Grundrechenarten ausgenutzt

Mehr

Verteilungsmodelle. Verteilungsfunktion und Dichte von T

Verteilungsmodelle. Verteilungsfunktion und Dichte von T Verteilungsmodelle Verteilungsfunktion und Dichte von T Survivalfunktion von T Hazardrate von T Beziehungen zwischen F(t), S(t), f(t) und h(t) Vorüberlegung zu Lebensdauerverteilungen Die Exponentialverteilung

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

A. Maß- und Integrationstheorie

A. Maß- und Integrationstheorie A. Maß- und Integrationstheorie Im folgenden sind einige Ergebnisse aus der Maß- und Integrationstheorie zusammengestellt, die wir im Laufe der Vorlesung brauchen werden. Für die Beweise der Sätze sei

Mehr

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert:

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: Beispiel: Wir untersuchen die rekursiv definierte Folge a 0 + auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: ( ) (,, 7, 5,...) Wir können also vermuten, dass die Folge monoton fallend

Mehr

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 7. November 2013

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 7. November 2013 Reelle Analysis Vorlesungsskript Enno Lenzmann, Universität Basel 7. November 2013 6 L p -Räume Mit Hilfe der Masstheorie können wir nun die sog. L p -Räume einführen. Diese Räume sind wichtig in vielen

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

Lebesgue-Integral und L p -Räume

Lebesgue-Integral und L p -Räume Lebesgue-Integral und L p -Räume Seminar Integraltransformationen, WS 2012/13 1 Treppenfunktionen Grundlage jedes Integralbegriffs ist das geometrisch definierte Integral von Treppenfunktionen. Für A R

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

Lösungen zum 3. Aufgabenblatt

Lösungen zum 3. Aufgabenblatt SS, Lineare Algebra Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com aufrufbar.

Mehr

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,

Mehr

12 Erwartungswerte. Erwartungswerte 111. Überblick

12 Erwartungswerte. Erwartungswerte 111. Überblick Erwartungswerte 111 12 Erwartungswerte Zur Motivation der Begrisbildung wird zunächst der Erwartungswert im diskreten Fall als Reihenwert eingeführt. Der allgemeine, auf dem Integral basierende Erwartungswert

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

2.6 Der Satz von Fubini

2.6 Der Satz von Fubini 1 2.6 Der Satz von Fubini Unser Ziel ist der Beweis des folgenden Ergebnisses. 6.1. Satz von Fubini Sei f : R n+m R integrierbar. Dann gibt es eine Nullmenge N R m, so dass gilt: 1. Für alle y R m \ N

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

Zufallsvariable, Verteilung, Verteilungsfunktion

Zufallsvariable, Verteilung, Verteilungsfunktion Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Metrische äußere Maße, Borel-Maße

Metrische äußere Maße, Borel-Maße Metrische äußere Maße, Borel-Maße Zum einen haben wir mit dem Fortsetzungssatz gesehen, dass man mit einem äußeren Maß (auf P(X) ) stets eine σ-algebra und ein Maß auf dieser bekommt. Liegt nun ein metrischer

Mehr

Finanzmathematik. Wirtschaftswissenschaftliches Zentrum Universität Basel. Mathematik für Ökonomen 1 Dr. Thomas Zehrt

Finanzmathematik. Wirtschaftswissenschaftliches Zentrum Universität Basel. Mathematik für Ökonomen 1 Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Finanzmathematik Literatur Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen, Band 1, 17. Auflage,

Mehr

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Bernhard Ganter Institut für Algebra TU Dresden D-01062 Dresden bernhard.ganter@tu-dresden.de WS 2013/14 Isomorphie Zwei Graphen (V 1, E 1 ) und (V

Mehr

Stochastische Prozesse Gliederung zur Vorlesung im Sommersemester 2006

Stochastische Prozesse Gliederung zur Vorlesung im Sommersemester 2006 Stochastische Prozesse Gliederung zur Vorlesung im Sommersemester 26 Markus Reiß Universität Heidelberg reiss@statlab.uni-heidelberg.de VORLÄUFIGE FASSUNG: 28. Juli 26 Inhaltsverzeichnis 1 Der Poissonprozess

Mehr

Analysis III, WS 2011/2012 Montag $Id: masse.tex,v /10/31 15:48:07 hk Exp $

Analysis III, WS 2011/2012 Montag $Id: masse.tex,v /10/31 15:48:07 hk Exp $ $Id: masse.tex,v 1.8 2011/10/31 15:48:07 hk Exp $ 2 Maßräume 2.2 Meßbare Abbildungen Der nächste Grundbegriff sind die meßbaren Abbildungen. Erinnern Sie sich daran das wir eigentlich einen Integralbegriff

Mehr

Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich

Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich Erwartungswert Naiv stellt man sich unter dem Erwartungswert einer Zufallsvariablen X Folgendes vor. Man führt das Experiment n-mal durch und bestimmt den Mittelwert (arithmetisches Mittel) der dabei für

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Ergänzungen zur Analysis I

Ergänzungen zur Analysis I 537. Ergänzungsstunde Logik, Mengen Ergänzungen zur Analysis I Die Behauptungen in Satz 0.2 über die Verknüpfung von Mengen werden auf die entsprechenden Regelnfür die Verknüpfung von Aussagen zurückgeführt.

Mehr

Irrfahrten. Und ihre Bedeutung in der Finanzmathematik

Irrfahrten. Und ihre Bedeutung in der Finanzmathematik Irrfahrten Und ihre Bedeutung in der Finanzmathematik Alexander Hahn, 04.11.2008 Überblick Ziele der Finanzmathematik Grundsätzliches zu Finanzmarkt, Aktien, Optionen Problemstellung in der Praxis Der

Mehr

Betragsgleichungen und die Methode der Fallunterscheidungen

Betragsgleichungen und die Methode der Fallunterscheidungen mathe online Skripten http://www.mathe-online.at/skripten/ Betragsgleichungen und die Methode der Fallunterscheidungen Franz Embacher Fakultät für Mathematik der Universität Wien E-mail: franz.embacher@univie.ac.at

Mehr

13 Auswahlaxiom und Zornsches Lemma

13 Auswahlaxiom und Zornsches Lemma 13 Auswahlaxiom und Zornsches Lemma Handout zur Funktionalanalysis I von H. Glöckner, 25.11.2008 Wichtige Teile der modernen Mathematik beruhen auf dem sogenannten Auswahlaxiom der Mengenlehre. Dieses

Mehr

Derivatebewertung im Binomialmodell

Derivatebewertung im Binomialmodell Derivatebewertung im Binomialmodell Roland Stamm 27. Juni 2013 Roland Stamm 1 / 24 Agenda 1 Einleitung 2 Binomialmodell mit einer Periode 3 Binomialmodell mit mehreren Perioden 4 Kritische Würdigung und

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 24/25 Universität Karlsruhe 7. März 25 Priv-Doz. Dr. D. Kadelka Klausur zur Vorlesung Stochastik II Dauer: 9 Minuten Name: Vorname: Matrikelnummer: Diese Klausur

Mehr

Vorkurs Mathematik. Übungen Teil IV

Vorkurs Mathematik. Übungen Teil IV Vorkurs Mathematik Herbst 009 M. Carl E. Bönecke Skript und Übungen Teil IV. Folgen und die Konstruktion von R Im vorherigen Kapitel haben wir Z und Q über (formale) Lösungsmengen von Gleichungen der Form

Mehr

Ferienkurs in Maß- und Integrationstheorie

Ferienkurs in Maß- und Integrationstheorie Zentrum Mathematik Technische Universität München Dipl. Math. Wolfgang Erb WS 9/ Übungsblatt Ferienkurs in Maß- und Integrationstheorie Aufgabe. (σ-algebren Sei eine Menge und A eine σ-algebra in. Seien

Mehr