Grundlagen der Stochastischen Analysis. Egbert Dettweiler

Größe: px
Ab Seite anzeigen:

Download "Grundlagen der Stochastischen Analysis. Egbert Dettweiler"

Transkript

1 Grundlagen der Stochastischen Analysis Egbert Dettweiler

2

3 Vorwort Der erste Teil des vorliegenden Manuskripts ist im wesentlichen eine Vorlesungsausarbeitung einer im Sommersemester 23 an der Universität Tübingen gehaltenen Spezialvorlesung. Zu einer Ausdehnung des Manuskripts im vorliegenden Umfang habe ich mich dann aus verschiedenen Gründen entschlossen. Bei der Beschäftigung mit der Theorie der markierten Punktprozesse fiel mir auf, daß die stochastische Analysis allgemeiner Semimartingale und vor allem der Sprungprozesse in der Lehrbuchliteratur nicht befriedigend behandelt ist. Monographien wie etwa die Bücher von Jacod-Shiryayev oder Liptser-Shiryayev sind mehr für Spezialisten geeignet, und auch das Buch von Protter dürfte den Rahmen eines Lehrbuchs ein wenig sprengen. Von der Konzeption her ist Métiviers Buch über Semimartingale am überzeugendsten, und es lieferte bei der Erstellung dieses Manuskripts eine Reihe von Anregungen. Leider kam Métivier nicht mehr dazu, die Vielzahl an notwendigen redaktionellen und inhaltlichen Korrekturen noch durchzuführen. Eine korrigierte Neuauflage wäre diesem Buch auf jeden Fall zu wünschen, und in gewisser Hinsicht entsprang das vorliegende Manuskript in der Tat dem Bedürfnis, einige Teile des Buches von Métivier in überarbeiteter Form darzustellen. Soweit wie möglich habe ich mich bemüht, mein Manuskript selfcontained zu halten. Bis auf den Abschnitt über die Grundlagen der Martingaltheorie ist dies hoffentlich auch gelungen, so daß ein Leser mit fundierten Kenntnissen der allgemeinen Wahrscheinlichkeits- und Maßtheorie auskommen müßte. Egbert Dettweiler, Tübingen, April 26 i

4 Inhaltsverzeichnis Einführung 1 1 Stochastische Prozesse Prozesse und Filtrationen Stopzeiten Klassifikation der Stopzeiten Martingale Der Satz von Doob-Meyer Lebesgue-Stieltjes-Integration Das Doléans Maß Die Doob-Meyer-Zerlegung Die Struktur natürlicher Prozesse Semimartingale Quadratisch integrierbare Martingale Zufällige Maße Semimartingale und ihre Struktur Quasi-Martingale Stochastische Integration Integration bzgl. eines L 2 -Martingals Erweiterung des Integrals Integration bzgl. eines Semimartingals Kontrollprozesse Die Ito-Formel Die quadratische Variation Die Ito-Formel Die mehrdimensionale Ito-Formel Die Girsanov Transformation Exponentielle Semimartingale Der Satz von Girsanov-Meyer ii

5 INHALTSVERZEICHNIS iii 6.3 Die Girsanov Transformation für Martingalmaße Stochastische Differentialgleichungen Existenz und Eindeutigkeit Lösungen bei lokalen Bedingungen Konstruktive Bestimmung der Lebenszeit Die Markov-Eigenschaft Bibliography 265 Index 265

6 iv INHALTSVERZEICHNIS

7 Einführung Die meisten Lehrbücher zum Thema Stochastische Analysis beschränken sich im wesentlichen auf die Brownsche Bewegung oder allenfalls stetige Semimartingale. Gegenstand dieses Buches ist dagegen die Stochastische Analysis allgemeiner Semimartingale. Damit sollen die Grundlagen für möglichst breite Anwendungen gelegt werden. Insbesondere ist die sonst disjunkt abgehandelte sog. dynamische Theorie der Punktprozesse, die etwa in der Risikotheorie eine Rolle spielt, mit den in diesem Buch präsentierten Resultaten gut vorbereitet. Im ersten Kapitel sind die nötigen allgemeinen Grundlagen der Theorie der stochastischen Prozesse dargestellt. Dazu gehört zentral der Begriff der Filtration, der die mit der Zeit anwachsende Menge von Informationen modelliert, sowie der Begriff der Stopzeit. Ist (F t ) t eine Filtration, d.h. eine aufsteigende Familie von σ-algebren, so definiert jede (F t )-Stopzeit T zwei wichtige σ-algebren: die σ-algebra F T der Ereignisse bis (einschließlich) zum Zeitpunkt T und die σ- Algebra F T der Ereignisse vor der Zeit T. Während man bei der stochastischen Analysis stetiger Prozesse mit den σ-algebren F T auskommt, spielt für unsere Zwecke auch F T eine wichtige Rolle. Dies zeigt sich bereits bei Klassifikation der Stopzeiten in sog. vorhersehbare, zugängliche und total unzugängliche Stopzeiten, die für die Analysis der Sprünge von Prozessen (Kapitel 2) von großer Bedeutung ist. Im letzten Abschnitt des ersten Kapitels werden die zentralen Begriffe und Resultate der Martingaltheorie bereitgstellt. Das zweite Kapitel beschäftigt sich mit dem Satz von Doob-Meyer, d.h. der Zerlegung eines (nicht-negativen) Submartingals in ein Martingal und einen vorhersehbaren monoton wachsenden Prozeß. Zunächst geben wir eine kurze Darstellung der Lebesgue-Stieltjes Integration. Danach zeigen wir die Existenz des sog. Doléans Maßes für ein nicht-negatives Submartingal. Für die Doob-Meyer Zerlegung gehen wir zunächst nicht von den vorhersehbaren und monoton wachsenden Prozessen aus, sondern von den sog. natürlich wachsenden Prozessen. Erst gegen Ende des Kapitels werden wir dann zeigen, daß die natürlich wachsenden Prozesse genau die vorhersehbaren sind. Dies hat den Vorteil, daß sich die Doob-Meyer Zerlegung konstruktiver aus der Doob-Zerlegung für Submartingale mit diskreter Zeit ergibt. Im Gegensatz zu dem klassischen Kompaktheitsargument zeigen wir dabei direkt die σ(l 1, L )-Konvergenz der entsprechenden monton wachsenden 1

8 2 INHALTSVERZEICHNIS Prozesse in diskreter Zeit. Der Rest des Kapitels beschäftigt sich mit der Struktur natürlich wachsender Prozesse. Wir zeigen, daß ein monoton wachsender Prozeß X genau dann natürlich wachsend ist, wenn X höchstens Sprünge in vorhersehbaren Stopzeiten besitzt. Hieraus ergibt sich dann die angestrebte Äquivalenz der Begriffe natürlich wachsend und monoton wachsend und vorhersehbar. Im dritten Kapitel stellen wir die Klasse der Semimartingale vor. Als Kernstück dieser Klasse untersuchen wir zunächst die quadratisch integrierbaren Martingale. Hauptresultat ist hier die orthogonale Zerlegung eines gegebenen quadratisch integrierbaren Martingals M in ein stetiges Martingal M c und ein sog. rein unstetiges Martingal M d, das durch die Sprünge von M bestimmt wird. Als weitere Vorbereitung behandeln wir dann zufällige Z + -wertige Maße. Ist X ein Cadlag-Prozeß, d.h. ein rechtsseitig stetiger Prozeß mit linksseitigen Limiten, so sei ν t (B) für jedes t und jede Borelmenge B R die Anzahl der Sprünge von X bis zum Zeitpunkt t, die in der Menge B liegen. Dann ist t ν t (B) ein Cadlag-Prozeß, und B ν t (B) ein Z + -wertiges Maß, so daß die Festsetzung ν(]s, t], B) = ν t (B) ν s (B) ein zufälliges Maß ν(ds, dx) auf R + R liefert. Jedem Prozeß (ν t (B)) t läßt sich nun über die Doob-Meyer Zerlegung ein sog. Kompensatorprozeß (π t (B)) t zuordnen, so daß ebenfalls t π t (B) ein Cadlag-Prozeß, und B π t (B) ein σ-endliches Maß ist. Ist dann B die Familie aller Borelmengen in R, die einen positiven Abstand zum Nullpunkt besitzen, und ist für jedes B B der Prozeß t µ t (B) := ν t (B) π t (B) ein (lokales) quadratisch integrierbares Martingal, so nennen wir das zufällige Maß µ(ds, dx) ein (lokales) Martingalmaß. Ist X z.b. ein (lokales) quadratisch integrierbares Martingal, so ist µ(ds, dx) ein (lokales) Martingalmaß. In Vorgriff auf die stochastische Integration von Kapitel 4 behandeln wir schon hier stochastische Integrale bzgl. eines Martingalmaßes. Abschnitt 3.3 des Kapitels behandelt nun allgemeine Semimartingale. Ist (F t ) t eine gegebene (Standard-)Filtration, so ist nach Definition ein (F t )-adaptierter Cadlag-Prozeß X ein Semimartingal, wenn X die Zerlegung X = Y +Z in ein lokales (F t )-Martingal Z und einen (F t )-adaptierten Cadlag-Prozeß Y besitzt, dessen Pfade lokal von beschränkter Variation sind (derartige Prozesse werden in diesem Buch BV-Prozesse genannt). Allgemeine Semimartingale haben den Nachteil, daß sie nicht-integrierbare Sprünge besitzen können. Aus diesem Grund führt man die Teilklasse der sog. speziellen Semimartingale ein. Es ist X ein spezielles Semimartingal, wenn bei der Zerlegung X = Y +Z der BV-Prozeß von lokal integrierbarer Variation ist. X besitzt dann eine eindeutige Zerlegung X = A+M

9 INHALTSVERZEICHNIS 3 in ein lokales Martingal M und einen vorhersehbaren BV-Prozeß A. Als Hauptresultat zeigen wir eine Art Lévy-Khintchine-Formel für Semi-Martingale: Ist X ein Semimartingal, so existieren ein vorhersehbarer Prozeß A, ein stetiges Martingal M c und ein Martingalmaß µ = ν π, so daß X die Darstellung X t = X + A t + Mt c + x ν t (dx) + x µ t (dx) ( ) { x >1} { x 1} besitzt. Dabei erfüllt das zufällige Maß π die von der klassischen Lévy-Khintchine- Formel her bekannte Integrierbarkeitsbedingung (x 2 1) π t (dx) < P-f.s.. R Im letzten Abschnitt zeigen wir, daß die speziellen Semimartingale gerade die lokalen Quasi-Martingale sind. In Kapitel 4 entwickeln wir die stochastische Integration bzgl. allgemeiner Semimartingale. Wir beginnen mit der Integrationstheorie bzgl. eines L 2 -Martingals. Ist M ein solches L 2 -Martingal, so erhält man für jeden elementaren vorhersehbaren Prozeß X die fundamentale Ito-Isometrie E ( R + X s dm s ) 2 = E R + X 2 s M s. Dabei ist M die vorhersehbare quadratische Variation von M, d.h. der Kompensator von M 2. Damit läßt sich zunächst das stochastische Integral auf den Hilbertraum L 2 (M) aller vorhersehbaren Prozesse X mit X M = ( ) E X 2 1 s M 2 s < R + fortsetzen. Entscheidend ist dabei, daß sich diese Fortsetzung so wählen läßt, daß der durch Y t = 1 [,t] X dm erklärte Integralprozeß Y wieder ein Cadlag-Prozeß ist, dessen Sprünge gerade von der Form X t M t sind. Für diesen so gewählten Integralprozeß schreiben wir Y t = X s dm s. Im zweiten Abschnitt erweitern wir das stochastische Integral gleich in zweifacher Weise. Als Integratorprozeß lassen wir nun allgemeiner ein lokales L 2 - Martingal M zu. Ist dann L 2 loc (M) der Raum aller vorhersehbaren Prozesse X,

10 4 INHALTSVERZEICHNIS für die es eine lokalisierende Folge (T n ) n 1 von Stopzeiten für M gibt, so daß gleichzeitig E 1 ],Tn] Xs 2 d M s < für jedes n 1 ist, so läßt sich für alle X L 2 loc (M) wieder ein Cadlag- Integralprozeß X s dm s definieren. Als Cadlag-Prozesse lassen sich die stochastischen Integralprozesse als D(R + )- wertige Zufallsvariable auffassen, wobei wir D(R + ) mit der Topologie der lokal gleichmäßigen Konvergenz versehen. Dann läßt sich mit Hilfe der Ungleichung von Lenglart zeigen, daß auch für stochastische Integrale eine Art Konvergenzsatz von Lebesgue (bzgl. der stochastischen Konvergenz D(R + )-wertiger Zufallsvariabler) gilt. Für die stochastische Integration bzgl. eines Semimartingals nutzen wir die oben angegebene Lévy-Khintchine-Struktur ( ) aus. Dann ist im wesentlichen noch das stochastische Integral bzgl. eines vorhersehbaren BV-Prozesses A zu erklären. Dies kann jedoch leicht durch pfadweise Lebesgue-Stieltjes Integration definiert werden. Im letzten Abschnitt von Kapitel 4 behandeln wir den Begriff des Kontrollprozesses eines Semimartingals, der von Métivier und Pellaumail für die stochastische Integration bzgl. allgemeiner Semimartingale eingeführt wurde. Wir benötigen Kontrollprozesse vor allem bei der Untersuchung stochastischer Differentialgleichungen in Kapitel 7. In Kapitel 5 behandeln wir die sog. Ito-Formel. Als Vorbereitung definieren wir die (optionale) quadratische Variation [Z] eines Semimartingals Z durch die Gleichung [Z] t = Z 2 t Z 2 2 Z s dz s. Ist Z = X + M (M lokales L 2 -Martingal, X BV-Prozeß), so gilt [Z] t = [M c ] t + s t ( Z s ) 2. Zunächst zeigen wir die eindimensionale Ito-Formel in der üblichen Form. Ist Z = X+M ein Semimartingal und F : R R eine zweimal stetig differenzierbare Funktion, so ist F (Z t ) = F (Z ) + + s t F (Z s ) dz s + 1 F (Z s ) d[m c ] s 2 { } F (Zs ) F (Z s ) Z s.

11 INHALTSVERZEICHNIS 5 Mit Blick auf die Struktur ( ) von Z läßt sich zeigen, daß diese Formel äquivalent ist zu der Formel F (Z t ) = F (Z ) F (Z s ) da s F (Z s ) dms c F (Z s ) d[m c ] s { F (Zs + x) F (Z s ) F (Z s ) x } π(ds, dx) R { F (Zs + x) F (Z s ) } µ(ds, dx). R Diese Gestalt der Ito-Formel ist vor allem im Rahmen der Punktprozeßtheorie der klassischen Form vorzuziehen. In nächsten Abschnitt betrachten wir den Fall, daß Z = (Z 1,, Z p ) ein p- dimensionales Semimartingal ist. Jetzt ist die quadratische Variation [Z] von Z definiert als der Matrix-wertige Prozeß [Z] = ( [Z i, Z j ] ) 1 i,j p der wechselseitigen quadratischen Variationen. Ist dann F : R p R q eine zweimal stetig differenzierbare Funktion, so lassen sich mit den entsprechenden Notationen völlig analog zum eindimensionalen Fall die mehrdimensionalen Ito- Formeln zeigen. Wir beenden das Kapitel, indem wir eine wichtige Verallgemeinerung zeigen. Dazu gehen wir von einer offenen Teilmenge G R p aus und betrachten ein p- dimensionales Semimartingal Z, so daß sowohl Z als auch Z G-wertig sind. Ist dann F : G R q zweimal stetig differenzierbar, so gilt ebenfalls die Ito-Formel. Kapitel 6 beschäftigt sich mit der sog. Girsanov-Transformation. Wir behandeln zunächst die sog. exponentiellen Semimartingale, die auch unabhängig von der Girsanov-Transformation (z.b. in der Theorie der Punktprozesse) von Bedeutung sind. Ist X ein gegebenes Semimartingal, so besitzt die stochastische Integralgleichung Z t = 1 + die Lösung Z s dx s ( ) Z t = exp ( X t 1 2 [X] ) t { (1 + X s ) exp ( X s ( X s) 2)}. s t

12 6 INHALTSVERZEICHNIS Diese Lösung wird auch das stochastische Exponential von X genannt und mit E(X) bezeichnet. Entscheidend ist, daß sich zeigen läßt, daß E(X) die einzige Lösung von ( ) ist. Für den Beweis dieser Aussage benötigen wir eine auf Métivier zurückgehende stochastische Form des Lemmas von Gronwall, die auch später für die stochastischen Differentialgleichungen wichtig ist. Da es für die Girsanov-Transformation von Bedeutung ist, wann ein exponentielles Semimartingal sogar ein Martingal ist, geben wir hierfür einige Beispiele. Es sei X ein (F t )-Semimartingal mit der Zerlegung X = A + M (M lokales Martingal, A BV-Prozeß) bzgl. P. Ersetzt man nun P durch ein äquivalentes Wahrscheinlichkeitsmaß Q, so besagt der Satz von Girsanov-Meyer, daß X auch ein Semimartingal bzgl. Q ist. Die Zerlegung von X bzgl. Q ist dabei durch die Radon-Nikodym-Dichte Y = dq bestimmt: Ist (Z dp t) t eine Cadlag-Modifikation von (E{Y F t }) t, so besitzt X bzgl. Q die Zerlegung X = B + N, wobei das lokale Q-Martingal N gegeben ist durch N t = M t 1 Z s d [Z, M] s. In den Anwendungen erhält man das äquivalente W-Maß Q meist durch exponentielle Martingale. Neben dem klassischen Beispiel einer Brownschen Bewegung mit Drift untersuchen wir im letzten Abschnitt die Girsanov-Transformation für Punktprozesse. Das letzte Kapitel behandelt einige grundlegende Resultate über stochastische Differentialgleichungen. Im ersten Abschnitt zeigen wir die Existenz und Eindeutigkeit von Lösungen stochastischer Differentialgleichung (besser: Integralgleichungen) unter globalen Lipschitzbedingungen. Es bezeichne nun D den Raum aller adaptierten Cadlag-Prozesse. Eine Funktion F : D p D p q heißt dann ein Lipschitz-Operator, wenn (1) für jede Stopzeit T und alle X, Y D p gilt: X T = Y T F (X) T = F (Y ) T, und wenn (2) ein monoton wachsender, adaptierter, rechtsseitig stetiger Prozeß (K t ) t existiert, so daß F (X) t F (Y ) t K t sup X s Y s s t für alle t gilt. P-f.s. Ist dann Z ein q-dimensionales Semimartingal, so besitzt die stochastische Integralgleichung X t = X + F (X) s dz s

13 INHALTSVERZEICHNIS 7 zu jeder F -meßbaren Anfangsbedingung X genau eine Lösung. Wir führen den Beweis, indem wir lokal den Banachschen Fixpunktsatz anwenden. Im zweiten Abschnitt lösen wir uns sowohl von der globalen Lipschitzbedingung, als auch von der Annahme, daß der Lipschitzoperator F auf ganz D p definiert ist. Dabei schränken wir allerdings die Klasse der Lipschitzoperatoren ein wenig ein. Um unser Vorgehen im Rahmen dieser Einführung klarer verständlich zu machen, sei hier G eine offene Teilmenge des R p und nun F : G R p q eine Funktion mit der folgenden lokalen Lipschitz-Eigenschaft: Für x R p und ρ > bezeichne K ρ (x) die abgeschlossene Kugel mit Mittelpunkt x und Radius ρ. Wir setzen voraus, daß daß es zwei stetige Funktionen r : G R + und C : G R + gibt, so daß für alle x G und alle y, z K r(x) (x) gilt: F (y) F (z) C(x) y z. Wenn wir nun nach Lösungen der stochastischen Integralgleichung (I) X t = X + F (X s ) dz s (X G) suchen, so läßt sich nicht mehr erwarten, daß für alle t eine solche Lösung existiert, denn diese Gleichung macht nur Sinn, solange X t G ist, was allein schon durch einen Sprung von Z gestört werden kann. Um den Begriff der Lösung zu präzisieren, wählen wir noch einen (mehr artifiziellen) Punkt / G. Dann läßt sich das folgende Resultat zeigen: Es sei X ein G-wertiger, F -meßbarer, R p -wertiger Zufallsvektor, und F erfülle die gerade beschriebene lokale Lipschitz-Bedingung. Dann existiert eine P-f.s. eindeutige maximale Stopzeit T max und ein Prozeß X (D 2 loc )p, so daß gilt: Auf [, T max [ ist X Lösung von (I) und auf [T max, [ ist X. Die Stopzeit T max ist nur durch einen abstrakten Existenzbeweis gegeben. Es läßt sich jedoch zeigen, daß sich T max aus einer einfachen Iteration gewinnen läßt. Zu der gegebenen Anfangsbedingung X definieren wir induktiv eine monoton wachsende Folge (S n ) n 1 von Stopzeiten und zeigen dann S := sup S n = T max. Für den Beweis dieser Gleichung betrachten wir die Mengen und zeigen A m := {x G r(x) m 1 und C(x) m}, P{X S n A m unendlich oft } = für jedes m 1. [Der Beweis benutzt eine Idee von Skorohod, die dieser im Zusammenhang von Untersuchungen über die Regularität der Pfade von Prozessen verwandte.] Hieraus ergibt sich nicht nur die Identität T max = S, sondern

14 8 INHALTSVERZEICHNIS man erhält auch zusätzliche Informationen über das Verhalten des Prozesses für t T max (Explosion, Konvergenz gegen den Rand). Die stochastische Integralgleichung (I) läßt sich noch etwas verallgemeinern, indem man zusätzlich noch einen Integralterm bzgl. eines (lokalen) Martingalmaßes betrachtet: X t = X + F (X s ) dz s + G(X s, x)µ(ds, dx). E Derartige stochastische Integralgleichungen sind vor allem im Rahmen der Punktprozeßtheorie von Interesse. Auch in diesem Fall gibt es entsprechende Existenzund Eindeutigkeitsresultate. Der letzte Abschnitt behandelt die Markov-Eigenschaft der Lösungen von (I). Wir definieren die Klasse der Lévy-Prozesse und zeigen, daß die Lösungen stochastischer Integralgleichungen starke Markov-Prozesse sind, wenn der Integratorprozeß Z ein Lévy-Prozeß ist.

15 Kapitel 1 Stochastische Prozesse 1.1 Prozesse und Filtrationen In diesem Paragraphen geben wir eine kurze Einführung in die Grundbegriffe der Theorie der stochastischen Prozesse. Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum (kurz: W-Raum). Ist die reelle Zahlengerade R mit der Borel-σ-Algebra B(R) := σ ( {G R G ist offen} ) versehen, so ist eine Zufallsvariable X auf Ω definiert als F-B(R)-meßbare Funktion X : Ω R. Der Raum aller Zufallsvariablen auf Ω werde mit L (Ω) bezeichnet, und für p > sei L p (Ω) der Unterraum aller X L (Ω), für die E X p = X(ω) p P(dω) < Ω ist. Die Elemente X L p (Ω) nennen wir p-integrierbare Zufallsvariable. Für p = 1 heißt X einfach integrierbar und für p = 2 nennen wir X auch quadratisch integrierbar. Für Zufallsvariable gibt es eine ganze Reihe verschiedener Konvergenzarten: (a) Es sei (X n ) n 1 eine Folge in L (Ω). Man sagt, daß (X n ) n 1 P-fast sicher (kurz: P-f.s.) gegen X L (Ω) konvergiert, wenn es eine P-Nullmenge N F gibt, so daß für alle ω N gilt lim n X n (ω) = X(ω). (b) Wir sagen, daß die Folge (X n ) n 1 stochastisch gegen X konvergiert, wenn für alle ε > gilt lim P{ X n X ε} =. n 9

16 1 KAPITEL 1. STOCHASTISCHE PROZESSE Bekanntlich impliziert die fast sichere Konvergenz die stochastische Konvergenz, und eine Folge (X n ) n 1 in L (Ω) konvergiert genau dann stochastisch gegen X, wenn jede Teilfolge von (X n ) n 1 eine fast sicher konvergente Teilfolge enthält. Setzt man für X L p (Ω) (p 1) X p := ( E X p) 1 p, so ist X p fast eine Norm auf L p (Ω), nur die Eigenschaft gilt nicht: X p = X = X p = X N := {Y L (Ω) Y = P-f.s.}. Um also einen normierten Raum zu erhalten, muß man übergehen zu dem Quotientenraum L p (Ω) := L p (Ω)/N der Äquivalenzklassen P-f.s. gleicher, p-integrierbarer Zufallsvariabler. Für X = X + N L p (Ω) definiert dann X p := X p = ( E X p) 1 p eine Norm auf L p (Ω). L p (Ω) ist ein Banachraum bzgl. p und L 2 (Ω) ist sogar ein Hilbertraum unter dem Skalarprodukt X, Ỹ := E XY. Wir werden allerdings oft (sofern keine Mißverständnisse möglich sind) diese Unterscheidung zwischen L p (Ω) und L p (Ω) nicht immer hervorheben, und so auch z.b. von dem Hilbertraum L 2 (Ω) sprechen. Die Normen p auf L p (Ω) (bzw. L p (Ω)) liefern nun die nächste Konvergenzart: (c) Wir sagen, daß eine Folge (X n ) L p (Ω) im p-ten Mittel gegen X L p (Ω) konvergiert, wenn lim n X n X p = ist, d.h. wenn lim E X n X p = n ist. Wir sagen auch kürzer, daß (X n ) n 1 in L p gegen X konvergiert, und für p = 2 sprechen wir auch von quadratischer Konvergenz.

17 1.1. PROZESSE UND FILTRATIONEN 11 Für eine weitere Konvergenzart führen wir den Raum L (Ω) := {X L C > : X C P-f.s.} ein, und definieren L (Ω) := L (Ω)/N. Setzt man für X = X + N L X := X := inf{c > : X C P-f.s.}, so ist auch L (Ω) bzgl. ein Banachraum, und L (Ω) ist der sog. duale Banachraum von L 1 (Ω), d.h. L (Ω) läßt sich identifizieren mit der Menge aller stetigen Linearformen auf L 1 (Ω). Wir definieren nun (d) Es sei (X n ) n 1 eine Folge in L 1 (Ω). Dann sagen wir, daß die Folge (X n ) n 1 schwach gegen X L 1 (Ω) konvergiert, wenn lim E X ny = E XY n für alle Y L (Ω) gilt. Die durch diese Konvergenzart induzierte Topologie auf L 1 (Ω) wird in der Funktionalanalysis auch die schwache Topologie, oder auch die σ(l 1, L )-Topologie genannt. Für I B(R) nennen wir eine Familie (X t ) t I in L (Ω) einen (mit I indizierten) stochastischen Prozeß. Meist wird hier I = R + sein. Dann schreiben wir auch (X t ) t und nennen (X t ) t einen Prozeß mit stetiger Zeit, während wir einen mit Z + indizierten Prozeß (X n ) n einen Prozeß mit diskreter Zeit nennen. Jeder stochastische Prozeß läßt sich aus drei verschiedenen Blickrichtungen betrachten: (1) als Abbildung X : I L (Ω) (t X t ) (dies ist gerade die Definition eines stochastischen Prozesses), (2) als Abbildung X : Ω R I ( ω (t Xt (ω)) ), und (3) als Abbildung X : I Ω R ( (t, ω) X t (ω) ). Alle drei Betrachtungsweisen spielen eine Rolle: Ad (1): X = (X t ) t I heißt p-integrierbar, wenn jedes X t L p (Ω) ist.

18 12 KAPITEL 1. STOCHASTISCHE PROZESSE Ad (2): Für jedes feste ω Ω heißt die Abbildung t X t (ω) ein Pfad von X, und man sagt z.b.: X ist stetig (rechtsseitig stetig usw.), wenn jeder Pfad von X diese Eigenschaft besitzt. Ad (3): Ist I Ω mit der Produkt-σ-Algebra B(I) F (B(I) := I B(R)) versehen, so heißt X meßbar, wenn X als Abbildung im Sinne von (3) B(I) F- B(R)-meßbar ist. Für das Folgende nehmen wir nun an, daß die Indexmenge I der stochastischen Prozesse gleich R + ist. Zufallsvariable, die f.s. gleich sind, werden oft identifiziert. Für stochastische Prozesse gibt es auf Grund der unterschiedlichen Sichtweisen mehrere Möglichkeiten solcher Identifikation. Definition (1) Ein stochastischer Prozeß Y = (Y t ) t auf Ω heißt eine Modifikation von X = (X t ) t, wenn gilt: P({X t = Y t }) = 1 für alle t. (1.1) (2) X und Y heißen P-gleich (oder ununterscheidbar), wenn gilt: P({X t = Y t für alle t }) = 1. (1.2) Sind X und Y heißen P-gleich, so schreiben wir dafür auch kurz X = Y [P]. (1.3) (3) Ein Prozeß X heißt P-vernachlässigbar, wenn er P-gleich zu dem Prozeß ist, der identisch gleich Null ist, und eine Menge A R + Ω, so daß 1 A ein stochastischer Prozeß ist, heißt P-vernachlässigbar, wenn 1 A P-vernachlässigbar ist. Bemerkung (i) Teil (2) der Definition setzt stillschweigend voraus, daß {X t = Y t für alle t } F ist, was nicht notwendig gelten muß. Genauer müßte man in (2) P durch das äußere Maß P ersetzen. (ii) Es ist klar, daß zwei P-gleiche Prozesse X und Y auch Modifikationen voneinander sind. Die Umkehrung gilt nicht: Es sei Z eine R + -wertige Zufallsvariable mit stetiger Verteilung. Wir setzen X t = für alle t und Y t = 1 {Z=t}. Dann ist stets P({X t = Y t }) = P({Z t}) = 1,

19 1.1. PROZESSE UND FILTRATIONEN 13 aber P({X t = Y t für alle t }) =. Es gilt jedoch: Sind X und Y rechtsseitig stetige Prozesse, und ist Y eine Modifikation von X, so sind X und Y P-gleich. Denn wegen der rechtsseitigen Stetigkeit gilt P({X t = Y t für alle t }) = t Q + P{X t = Y t }. Wir diskutieren jetzt zwei wichtige Beispiele stochastischer Prozesse. Definition Ein stochastischer Prozeß X = (X t ) t heißt ein Prozeß mit unabhängigen Zuwächsen, wenn für alle m 1 und alle Zeitpunkte t < t 1 < < t m < die Zufallsvariablen X t, X t1 X t,, X tm X tm 1 stochastisch unabhängig sind. Beispiel (Die Brownsche Bewegung) Ein stochastischer Prozeß B = (B t ) t heißt eine Brownsche Bewegung, wenn er die folgenden Eigenschaften besitzt: (1) B hat unabhängige Zuwächse, (2) für s < t < ist B t B s normalverteilt mit Erwartungswert und Varianz t s, (3) B ist stetig. Für die Existenz einer Brownschen Bewegung und ihre wichtigsten Eigenschaften verweisen wir auf [8] (Kapitel 2). Ist µ := P B, so heißt µ die Anfangsverteilung von B. Für µ = δ x (x R) sagen wir auch, daß B in x startet. Meist werden wir sogar annehmen, daß B eine in startende Brownsche Bewegung ist. Beispiel (Der Poisson Prozeß) Ein stochastischer Prozeß N = (N t ) t heißt ein Poisson Prozeß mit Parameter λ >, wenn die folgenden Eigenschaften erfüllt sind: (1) N hat unabhängige Zuwächse, (2) N = und für s < t < ist N t N s Poissonverteilt mit Erwartungswert λ(t s), (3) N ist rechtsseitig stetig. Die Pfade von N sind monoton wachsend, haben höchstens Sprünge der Höhe 1, sind zwischen zwei Sprüngen konstant,und gehen gegen für t.

20 14 KAPITEL 1. STOCHASTISCHE PROZESSE Bezeichnet T n (n Z + ) die zufällige Zeit des n-ten Sprungs, die gegeben ist durch T n := inf{t N t n}, so läßt sich relativ einfach zeigen, daß die Folge (T n T n 1 ) n 1 der Wartezeiten zwischen zwei Sprüngen unabhängig und identisch verteilt ist, und daß T n T n 1 exponentialverteilt ist mit Parameter λ, d.h. es ist für t. P({T n T n 1 > t}) = e λt Die Interpretation eines stochastischen Prozesses X = (X t ) t I als Abbildung X : Ω R I bedeutet nichts anderes, als daß man X auffaßt als Zufallsvariable mit Werten in dem Raum R I. Dies spielt vor allem in Situationen eine Rolle, in denen man weiß, daß alle Pfade X(ω) in einem Teilraum S von R I liegen, der schöne Eigenschaften besitzt. Beim Beispiel der Brownschen Bewegung könnte man z.b. S = C(R + ) (Raum der stetigen Funktionen von R + nach R) wählen, und beim Beispiel des Poissonprozesses den Raum D(R + ) aller Funktionen f : R + R, die rechtsseitig stetig sind und in jedem Punkt auch einen linksseitigen Limes besitzen. Dieser Raum D(R + ) wird für uns später eine gewisse Rolle spielen, und wir wollen schon hier auf Zufallsvariable mit Werten in D(R + ) etwas eingehen. Zunächst führen wir auf D(R + ) eine Topologie ein. Definition Wir sagen, daß eine Folge (f n ) n 1 in D(R + ) lokal gleichmäßig gegen f D(R + ) konvergiert, wenn für jedes t gilt lim sup f n (s) f(s) =. n s t Man kann zeigen, daß dieser Konvergenzbegriff durch eine Metrik d lg D(R + ) beschrieben wird: Für f, g D(R + ) setzen wir auf d lg (f, g) := 2 n min(1, sup f n (s) f(s) ). s n n 1 Äquivalent dazu könnte man auch sagen, daß die Konvergenz in Definition durch eine Folge (d n lg ) n 1 von Semimetriken d n lg beschrieben wird, die durch d n lg(f, g) := sup f n (s) f(s) s n definiert sind. Es gilt nun (s. z.b. [2]):

21 1.1. PROZESSE UND FILTRATIONEN 15 Proposition Bzgl. d lg ist D(R + ) ein vollständiger metrischer Raum, und C(R + ) ist bzgl. d lg sogar ein vollständiger, separabler metrischer Raum. Der metrische Raum (D(R + ), d lg ) ist nicht separabel. Es existiert jedoch eine Metrik auf D(R + ) (die sog. Skorohod-Metrik), bzgl. der D(R + ) ebenfalls ein vollständiger, separabler metrischer Raum ist. Für unsere Zwecke reicht die Metrik d lg. Wir betonen jedoch, daß die Skorohod-Metrik eigentlich die natürlichere Metrik auf D(R + ) ist. Dies betrifft vor allem Fragestellungen, die mit dem Problem des zentralen Grenzwertsatzes für D(R + )-wertige Zufallsvariable zusammenhängen. Hierfür verweisen wir auf [2] oder auch [7]. D(R + ) versehen wir mit der σ-algebra D := D(R + ) B(R) R +. Damit können wir einen stochastischen Prozeß X, dessen Pfade X(ω) sämtlich in D(R + ) liegen, als D(R + )-wertige Zufallsvariable auffassen. Definition Es sei X eine D(R + )-wertige Zufallsvariable und (X n ) n 1 eine Folge von D(R + )-wertigen Zufallsvariablen. Wir sagen, daß (X n ) n 1 stochastisch gegen X konvergiert bzgl. der Topologie der lokal gleichmäßigen Konvergenz (etwas kürzer: (X n ) n 1 konvergiert stochastisch in D(R + )), wenn für alle ε > und alle t gilt lim P{sup Xs n X s ε} =. (1.4) n s t Man zeigt leicht, daß (1.4) genau dann für alle ε > und alle t gilt, wenn lim P{d lg(x n, X) ε} = n ist, d.h. der stochastische Konvergenzbegriff ist genau die stochastische Konvergenz bzgl. der Metrik d lg. Hieraus ergibt sich insbesondere aus der Vollständigkeit von (D(R + ), d lg ) der folgende Sachverhalt, dessen Beweis genauso verläuft wie der entsprechende Beweis für reelle Zufallsvariable. Proposition Konvergiert die Folge (X n ) n 1 von D(R + )-wertigen Zufallsvariablen bzgl. der Topologie der lokal gleichmäßigen Konvergenz stochastisch gegen X (im Sinne von Definition 1.1.8), so existiert eine Teilfolge (X n k )k 1, die P-f.s. gegen X konvergiert. Die Indexmenge I eines stochastischen Prozesses X = (X t ) t I wird gewöhnlich als Zeitachse interpretiert, so daß dann X t (ω) der zum Zeitpunkt t beobachtete Wert des Prozesses ist. Mit der nun folgenden Begriffsbildung einer sog. Filtration wird der mit der Zeit anwachsende Fluß an Informationen modelliert.

22 16 KAPITEL 1. STOCHASTISCHE PROZESSE Definition (1) Eine Familie F = (F t ) t I von Unter-σ-Algebren von F heißt eine Filtration (auf Ω), wenn für s < t stets F s F t ist. (2) Ist X = (X t ) t I ein stochastischer Prozeß, und setzt man F X t := σ({x s s t, s I}) für t I, so heißt F X = (F X t ) t I die kanonische Filtration von X. (3) Ist F = (F t ) t I eine Filtration und X = (X t ) t I ein stochastischer Prozeß, so heißt X F-adaptiert, wenn jedes X t F t -meßbar ist. Es ist klar, daß X genau dann F-adaptiert ist, wenn F X t F t ist für alle t. Es sei nun wieder I = R +. Ist F = (F t ) t eine gegebene Filtration, so setzen wir F t+ := s>t F s, F t := s<t F s (F := F ) und F := s F s. (1.5) Hierbei ist s<t F s = σ( s<t F s). Die Familien F + = (F t+ ) t und F = (F t ) t sind dann wieder Filtrationen, und wir nennen eine Filtration F rechtsseitig stetig, wenn F = F + ist, d.h. wenn F t = F t+ für alle t gilt. Basierend auf dem Begriff der Filtration führen wir nun zwei Meßbarkeitsbegriffe für stochastische Prozesse ein, die von fundamentaler Bedeutung sind. Definition Es sei F eine gegebene Filtration auf Ω. Ein stochastischer Prozeß X = (X t ) t heißt F-progressiv meßbar, wenn für jedes t der Prozeß X als Abbildung X : [, t] Ω R B([, t]) F t -meßbar ist. Bemerkung (1) Ist X progressiv meßbar, so ist X automatisch F- adaptiert: Definiere für t die Abbildung ψ t : Ω [, t] Ω durch ψ t (ω) := (t, ω). Ist nun B B([, t]) und F F t gegeben, so ist ψ 1 t (B F ) = { F Ft für t B F t für t / B,

23 1.1. PROZESSE UND FILTRATIONEN 17 so daß ψ t F t -(B([, t]) F t )-meßbar ist. Wegen X t = X ψ t ist damit X t F t - meßbar. (2) Setzt man G(F) := { A R + Ω 1A ist progressiv meßbar }, (1.6) so läßt sich leicht zeigen, daß G(F) eine σ-algebra auf R + Ω ist, und daß ein Prozeß X : R + Ω R genau dann progressiv meßbar ist, wenn X G(F)-meßbar ist. Proposition Es sei F eine Filtration und X = (X t ) t ein F-adaptierter stochastischer Prozeß. Ist X zudem rechtsseitig stetig (oder linksseitig stetig), so ist X F-progressiv meßbar. Beweis: (a) Es sei X rechtsseitig stetig und t gegeben. Für jedes n 1 definieren wir durch X (n) : [, t] Ω R X (n) (s, ω) := X t (ω)1 {t} (s) + 2 n 1 k= X (k+1)t 2 n (ω)1 [ kt 2 n, (k+1)t 2 n [ (s) für s t und ω Ω. Für jedes B B(R) ist dann (X (n) ) 1 (B) = ({t} Xt 1 (B)) 2 n 1 k= Da X F-adaptiert ist, gilt für alle k 2 n 1 ( kt (k + 1)t [, 2n 2 n [ X 1 (k+1)t 2 n (B) ). [ kt (k + 1)t, [ X 1 2n 2 n (k+1)t (B) B([, t]) F (k+1)t B([, t]) F t, 2 n 2 n und natürlich auch {t} Xt 1 (B) B([, t]) F t, und wir haben gezeigt, daß jedes X (n) B([, t]) F t -meßbar ist. Wegen der rechtsseitigen Stetigkeit von X haben wir lim n X(n) (s, ω) = X(s, ω) für alle (s, ω) [, t] Ω, so daß X als Abbildung X : [, t] Ω R B([, t]) F t - meßbar ist. (b) Ist X linksseitig stetig, so argumentiert man ähnlich, indem man jetzt als approximierende Folge (X (n) ) n 1 definiert X (n) (s, ω) := X (ω)1 {} (s) + 2 n 1 k= X kt 2 n (ω)1 ] kt 2 n, (k+1)t 2 n ] (s).

24 18 KAPITEL 1. STOCHASTISCHE PROZESSE Definition Für eine gegebene Filtration F auf Ω setzen wir Dann heißt R(F) := { {} F F F } { ]s, t] F s < t, F Fs }. (1.7) P(F) := σ(r(f)) die σ-algebra der F-vorhersehbaren Mengen. Die Mengen in R(F) nennt man auch F-vorhersehbare Rechtecke. Ein stochastischer Prozeß heißt schließlich F- vorhersehbar, wenn X als Abbildung X : R + Ω R P(F)-meßbar ist. Proposition Jeder F-adaptierte, linksseitig stetige Prozeß ist F-vorhersehbar, und P(F) ist identisch mit der σ-algebra, die von allen F-adaptierten, linksseitig stetigen Prozessen erzeugt wird. Ferner ist jeder F-vorhersehbare Prozeß F-progressiv meßbar, d.h. es ist P(F) G(F). Beweis: Es sei X = (X t ) t ein F-adaptierter und linksseitig stetiger Prozeß. Für jedes n 1 setzen wir (ähnlich wie im Beweis von Proposition ) X (n) (t, ω) := X (ω)1 {} (t) + k X k 2 n (ω)1 ] k 2 n, k+1 2 n ] (t) für (t, ω) R + Ω. Dann ist X (n) : R + Ω R eine Summe von Funktionen von der Form Y 1 {} (Y F -meßbar) bzw. von der Form Y 1 ]s,t] (Y F s -meßbar). Da alle diese Summanden P(F)-meßbar sind, ist X (n) P(F)-meßbar. Die linksseitige Stetigkeit von X impliziert lim n X(n) (t, ω) = X(t, ω) für alle (t, ω) R + Ω, und es folgt die P(F)-Meßbarkeit von X. Es bezeichne nun (nur für diesen Beweis) P l (F) die von den F-adaptierten, linksseitig stetigen Prozessen erzeugte σ-algebra auf R + Ω. Dann haben wir soeben gezeigt, daß P l (F) P(F) gilt. Andererseits ist die Indikatorfunktion jedes F- vorhersehbaren Rechtecks sicher ein F-adaptierter, linksseitig stetiger Prozeß, so daß auch P(F) P l (F) gilt. Nach Proposition (siehe auch Bemerkung 1.6, (2)) ist jeder F-adaptierte, linksseitig stetige Prozeß auch F-progressiv meßbar. Daher gilt P(F) P l (F) G(F). 1.2 Stopzeiten Die Analyse eines stochastischen Prozesses X = (X t ) t bedeutet vor allem die Untersuchung der Eigenschaften der (zufälligen) Pfade t X t (ω). Dabei tauchen

25 1.2. STOPZEITEN 19 ganz natürlich Zeitpunkte auf, die vom gegebenen Pfad und damit ebenfalls vom Zufall abhängen. Man denke etwa an die zufälligen Zeiten der Sprünge eines Poissonprozesses. Eine solche zufällige Zeit sollte sicher eine Zufallsvariable sein. Ist zusätzlich F = (F t ) t eine Filtration und X F-adaptiert, so ist es außerdem eine naheliegende Forderung, daß ein Ereignis der Form {T t} (T (ω) ist vor der Zeit t eingetreten) in F t liegen sollte. Definition Es sei F = (F t ) t eine gegebene Filtration. Eine Abbildung T : Ω R + (= R + { }) heißt F-Stopzeit, wenn {T t} F t für alle t gilt. Ist T eine F-Stopzeit, so nennen wir T endlich, falls T (ω) < für alle ω Ω ist, und beschränkt, wenn T C für eine Konstante C > ist. Ist T eine F-Stopzeit, so folgt aus {T t} F t F, daß T notwendig eine R + -wertige Zufallsvariable ist. Wegen {T < t} = n 1 {T t 1 n } n 1 F t 1 n F t F t ist auch {T < t} F t für alle t. (1.8) Im allgemeinen impliziert die Eigenschaft (1.8) für eine Abbildung T : Ω R + jedoch nicht, daß T eine Stopzeit im Sinne von Definition ist. Es gilt jedoch: Proposition Ist die Filtration F rechtsseitig stetig, so ist eine Abbildung T : Ω R + mit der Eigenschaft (1.8) eine F-Stopzeit. Beweis: Für jedes t gilt {T t} = n 1 {T < t + 1 n } n 1 F t+ 1 n = F t+. Nach Voraussetzung ist F t+ = F t, und somit ist T eine F-Stopzeit. Wir geben jetzt ein allgemeines Beispiel von Stopzeiten. Dieses Beispiel zeigt einerseits wieder die Bedeutung der rechtsseitigen Stetigkeit einer Filtration und liefert andererseits eine Begründung, warum man für Stopzeiten den Wert zuläßt.

26 2 KAPITEL 1. STOCHASTISCHE PROZESSE Proposition Es sei F eine rechtsseitig stetige Filtration und X = (X t ) t ein F-adaptierter, rechtsseitig stetiger Prozeß. Für eine gegebene offene Menge G R sei T G (ω) := inf{t X t (ω) G} (1.9) (mit der Konvention inf = ). Dann ist T G eine F-Stopzeit, die sog. Treffzeit von G. Beweis: Ist X s (ω) G für ein s < t, so folgt aus der rechtsseitigen Stetigkeit des Pfades u X u (ω) und der Offenheit von G, daß es dann insbesondere auch ein r Q + mit s r < t geben muß, so daß X r (ω) G ist. Damit erhält man {T G < t} = {X s G} = {X r G} F t F t. s<t r<t,r Q + Nach Proposition ist damit T G eine F-Stopzeit. Die nächste Proposition beschreibt einige elementare Eigenschaften von Stopzeiten. Proposition Es sei F = (F t ) t eine gegebene Filtration. Dann gelten die folgenden Eigenschaften: (1) Jede Konstante c R + - aufgefaßt als konstante Funktion auf Ω - ist eine F-Stopzeit. (2) Sind S und T F-Stopzeiten, so sind auch S T := min(s, T ) und S T := max(s, T ) F-Stopzeiten. (3) Ist (T n ) n 1 eine Folge von F-Stopzeiten, so ist auch sup n 1 T n eine F-Stopzeit. Ist F zudem rechtsseitig stetig, so ist auch inf n 1 T n eine F-Stopzeit. Beweis: Behauptung (1) ist trivial. (2) folgt wegen {S T t} = {S t} {T t} F t und {S T t} = {S t} {T t} F t. Die erste Behauptung von (3) folgt aus {sup T n t} = {T n t}, n 1 n 1 und die zweite Behauptung ergibt sich wegen {inf T n < t} = {T n < t} n 1 n 1

27 1.2. STOPZEITEN 21 aus Proposition Das nächste Resultat zeigt, daß man jede F-Stopzeit T als Infimum einer absteigenden Folge (T (n) ) n 1 von F-Stopzeiten erhält, die alle nur abzählbar viele Werte annehmen. Diese Approximation ist oft sehr nützlich. Proposition Es sei T eine F-Stopzeit. Für jedes n N setzen wir T (n) := k 1 k 2 n 1 { k 1 2 n T < k 2 n } + 1 {T = }. (1.1) Dann ist (T (n) ) n 1 eine absteigende Folge von F-Stopzeiten mit den Eigenschaften (i) inf n 1 T (n) = T, und (ii) T < T (n) auf {T < }. Beweis: Für jedes t und n 1 gibt es genau ein m t N mit und es ist m t 1 2 n t < m t 2 n, {T (n) t} = {T (n) = k m 2 } = t 1 { k 1 T < k n 2 n 2 } = {T < m t 1 } F n 2 n t. m t 1 k=1 k=1 Damit ist jedes T (n) eine F-Stopzeit. Die behaupteten Eigenschaften (i) und (ii) der Folge (T (n) ) n 1 sind klar. Zu jeder Stopzeit T definieren wir nun zwei σ-algebren F T und F T, die die σ-algebren F t und F t verallgemeinern. Definition Es sei T eine gegebene F-Stopzeit. Wir setzen F T := { A F t : A {T t} Ft } (1.11) und F T := σ ( F { F {T > t} F Ft, t }). (1.12) Dann ist F T eine σ-algebra, die wir die σ-algebra der Ereignisse bis (zur Zeit) T nennen. Die σ-algebra F T nennen wir die σ-algebra der Ereignisse vor (der Zeit) T.

28 22 KAPITEL 1. STOCHASTISCHE PROZESSE Man zeigt leicht, daß für eine konstante Stopzeit T = t R + gilt: F T = F t und F T = F t. Es sei nun X = (X t ) t ein F-adaptierter stochastischer Prozeß, und F die um F erweiterte Filtration. X läßt sich leicht zu einem mit R + indizierten, F-adaptierten Prozeß (X t ) t ausdehnen, indem man eine beliebige, feste F - meßbare Zufallsvariable als X wählt. Dann läßt sich zu jeder Stopzeit T die in T gestoppte Zufallsvariable X T durch X T (ω) := X T (ω) (ω) (1.13) definieren. In Bezug auf diese Zufallsvariable erweist sich die σ-algebra F T als geeignete Verallgemeinerung der σ-algebren F t : Proposition Es sei X = (X t ) t ein F-progressiv meßbarer Prozeß. Dann ist X T F T -meßbar, und der gestoppte Prozeß (X T t ) t ist wieder F-progressiv meßbar. Beweis: Für die erste Behauptung müssen wir zeigen, daß {X T B} {T t} F t für alle B B(R) und t ist. Wegen {X T B} {T t} = {X T t B} {T t} genügt es {X T t B} F t zu zeigen. Dies ist jedoch gerade die Behauptung, daß (X T t ) t F-adaptiert ist, und diese Behauptung folgt, wenn wir zeigen, daß (X T t ) t F-progressiv meßbar ist (s. Bem ). Dazu betrachten wir die Abbildung ψ : ([, t] Ω, B([, t]) F t ) ([, t] Ω, B([, t]) F t ), definiert durch ψ(s, ω) := (s T (ω), ω), und zeigen, daß ψ meßbar ist. Dazu genügt es zu zeigen, daß ψ 1 (]u, t] F ) B([, t]) F t

29 1.2. STOPZEITEN 23 ist für alle u < t und F F t. Dies folgt aus ψ 1 (]u, t] F ) = { (s, ω) [, t] Ω s T (ω) > u, ω F } = ]u, t] ({T > u} F ). Da X progressiv meßbar ist, ist somit X ψ meßbar. Aus (X ψ)(s, ω) = X s T (ω) (ω) ergibt sich die behauptete progressive Meßbarkeit von (X t T ) t. Wir untersuchen jetzt weitere Eigenschaften der σ-algebren F T und F T. Proposition Es seien S und T F-Stopzeiten. Dann gelten die folgenden Aussagen: (1) Für jedes A F S ist A {S T } F T. Ist insbesondere S T, so folgt F S F T. (2) Es ist F S T = F S F T, und es gilt {T < S}, {S < T }, {T S}, {S T }, {S = T } F S T. Beweis: (1): Für jedes t ist T t F t -meßbar, denn für c < t ist {T t > c} = {T > c} F c F t, und für c t ist {T t > c} = F t. (2): Nach (1) ist F S T F S F T. Ist nun A F S F T, so folgt aus A {S T t} = (A {S t}) (A {T t}) F t, daß A F S T. Damit gilt F S T = F S F T. Nach (1) ist {S T } F T und damit {S > T } F T. Wir setzen R = S T. R ist F R - und folglich auch F T -meßbar. Deshalb ist {S < T } = {R < T } F T und somit auch {S = T } F T. Aus Symmetriegründen folgt entsprechend {S < T }, {S > T }, {S = T } F S. Aus Proposition ergibt sich eine Eigenschaft bedingter Erwartungen, die manchmal nützlich ist. Proposition Es seien S, T zwei F-Stopzeiten. Dann gilt: (1) Für jede F S -meßbare Zufallsvariable X ist die Zufallsvariable 1 {S T } X F T - meßbar, und (2) für jede integrierbare Zufallsvariable Y ist 1 {S T } E { E{Y F T } FS } = 1{S T } E{Y F S } P-f.s..

30 24 KAPITEL 1. STOCHASTISCHE PROZESSE Beweis: (1): Nach Proposition ist die Zufallsvariable 1 {S T } 1 A für alle A F S F T -meßbar. Damit gilt (1) auch für jede elementare F S -meßbare Zufallsvariable. Da eine beliebige F S -meßbare Zufallsvariable sich durch eine Folge elementarer F S -meßbarer Zufallsvariabler approximieren läßt, gilt (1). (2): Nach (1) genügt es zu zeigen, daß für alle A F S gilt: 1 {S T } E{Y F T } dp = 1 {S T } E{Y F S } dp. A A Diese Gleichung folgt nun wegen {S T } A F S F T für A F S aus 1 {S T } E{Y F T } dp = 1 {S T } A Y dp A = 1 {S T } E{Y F S } dp. A Proposition Es seien S, T F-Stopzeiten. Dann gelten die folgenden Aussagen: (1) F T F T, (2) T ist F T -meßbar, (3) für alle A F S ist A {S < T } F T, (4) für S T ist F S F T, (5) für A F ist A {T = } F T, und (6) ist S T und auf der Menge { < T < } sogar S < T, so ist F S F T. Beweis: Die Aussagen (1) und (2) folgen unmittelbar aus der Definition von F T und F T. (3): Für A F S ist A {S < T } = r Q + (A {S r}) {r < T } F T, da A {S r} F r ist für alle r nach Definition von F S. (4) folgt ebenfalls unmittelbar aus der Definition von F T. (5): Für A F t ist A {T = } = n 1(A {T > t + n} F T. (1.14) Nun ist { B F B {T = } F T } eine Unter-σ-Algebra von F = σ ( t F t). Damit folgt aus (1.14) die Behauptung.

31 1.2. STOPZEITEN 25 (6): Für A F S ist A = (A {T = }) ( A [{ < T < } ({T = } {S < })] ) = (A {T = }) (A {S < T }) (A {S = }). (A {S = }) Nun ist A {T = } F F T, A {S < T } F T (nach (4)), und auch A {S = } F T (nach (4) und (5)), so daß A F T bewiesen ist. Proposition Es sei F eine rechtsseitig stetige Filtration und (T n ) n 1 eine monotone Folge von F-Stopzeiten. Wir setzen T := lim n T n. Dann gelten die folgenden Aussagen: (1) Ist (T n ) n 1 monoton fallend, so ist F T = n 1 F Tn. (2) Ist (T n ) n 1 monoton fallend, und ist T < T n auf der Menge { < T n < }, so ist F T = n 1 F Tn. (3) Ist (T n ) n 1 monoton wachsend, so ist F T = n 1 F Tn. (4) Ist (T n ) n 1 monoton wachsend, und ist T n < T auf der Menge { < T < }, so ist F T = n 1 F Tn. Für den Beweis von (3) und (4) ist dabei die rechtsseitige Stetigkeit von F nicht erforderlich. Beweis: (1): Nach Proposition 1.2.8,(1) ist sicher F T n 1 F T n. Ist andererseits A n 1 F T n, so ist für alle t, n 1 und damit A {T n < t} F t, A {T < t} = n 1(A {T n < t}) F t,

32 26 KAPITEL 1. STOCHASTISCHE PROZESSE also A {T t} F t+ = F t. Damit ist A F T gezeigt. (2): Nach Proposition 1.2.1,(6) ist F T F Tn, und die Behauptung folgt aus (1). (3): Aus Proposition 1.2.1,(4) ergibt sich F Tn F T. n 1 Andererseits gilt für t und A F t A {t < T } = n 1(A {t < T n }, so daß n 1 F T n einen Erzeuger von F T enthält. Also gilt auch F T n 1 F Tn. (4): Nach Proposition 1.2.1,(6) ist F Tn F Tn F T, und (4) folgt aus (3). Sind S und T zwei F-Stopzeiten mit S T, so können wir die folgenden sog. stochastischen Intervalle definieren. Wir setzen ]S, T ] = { (t, ω) R + Ω S(ω) < t T (ω) }, (1.15) [S, T ] = { (t, ω) R + Ω S(ω) t T (ω) }, [S, T [= { (t, ω) R + Ω S(ω) t < T (ω) }, und ]S, T [= { (t, ω) R + Ω S(ω) < t < T (ω) }. Nach Definition sind also stochastische Intervalle Teilmengen von R + Ω, obwohl Stopzeiten auch den Wert annehmen können. Ist S = T, so schreiben wir statt [T, T ] einfach [T ] und nennen [T ] den Graphen von T. Es ist [T ] = {(T (ω), ω) T (ω) < }. (1.16)

33 1.2. STOPZEITEN 27 Proposition Die σ-algebra P(F) der vorhersehbaren Mengen ist gleich der σ-algebra, die von den Mengen {} F (F F ) und den stochastischen Intervallen der Form ]S, T ] erzeugt wird. Beweis: Für den Beweis setzen wir H := σ ({ {} F F F } { ]S, T ] S, T Stopzeiten }). (a): Für den Beweis von P H genügt es zu zeigen, daß jede Menge ]s, t] F (F F s ) ein stochastisches Intervall der Form ]S, T ] ist. Dazu setzen wir Dann ist S := s 1 F + t 1 F c. ]s, t] F =]S, t]. (b): Die Inklusion P H folgt unmittelbar aus Proposition , da der Prozeß 1 ]S,T ] F-adaptiert und linksseitig stetig ist. Für später zeigen wir noch eine schöne Eigenschaft der P-meßbaren Prozesse. Proposition Es sei X ein P-meßbarer Prozeß. Dann ist für jede Stopzeit T die Zufallsvariable X T 1 {T < } meßbar bzgl. der σ-algebra F T. Beweis: Es bezeichne L(P) den Vektorraum aller P-meßbaren Prozesse, und D sei die Menge aller P-meßbaren Prozesse X, so daß für jede Stopzeit T die Zufallsvariable X T 1 {T < } meßbar bzgl. F T ist. Wir zeigen: D = L(P). D ist sicher ein Vektorraum, und man überlegt sich, daß D die Indikatorfunktionen aller vorhersehbaren Rechtecke enthält: (a) Ist X = 1 {} 1 F (F F ), so ist X T 1 {T < } = 1 F 1 {T =} F T -meßbar nach Definition von F T. (b) Ist X = 1 ]s,t] 1 F (F F s ), so ist X T 1 {T < } = 1 F 1 {s<t t} F T -meßbar, denn es ist F {s < T } F T nach Definition von F T und {T t} F T, da T F T -meßbar ist (Proposition 1.2.1,(2)). Nun sei (X n ) n 1 eine Folge in D, so daß X := sup n 1 X n wieder ein P- meßbarer Prozeß ist. Da alle X n T 1 {T < } F T -meßbar sind, ist auch X T 1 {T < } = sup XT n 1 {T < } n 1 F T -meßbar, d.h. es ist X D. Nach dem Satz über monotone Klassen aus der Maßtheorie (s. z.b. [4]) folgt aus dem Gezeigten D = L(P).

34 28 KAPITEL 1. STOCHASTISCHE PROZESSE 1.3 Klassifikation der Stopzeiten In diesem Paragraphen untersuchen wir die Klasse der Stopzeiten etwas näher. Es stellt sich heraus, daß sich die Stopzeiten im wesentlichen in zwei Typen unterteilen lassen. Diese Klassifikation wird für die weitere Analyse der stochastischen Prozesse, insbesondere bei der Untersuchung der Sprünge der Pfade dieser Prozesse von entscheidender Bedeutung sein. Definition Es sei F eine gegebene Filtration und T eine F-Stopzeit. T heißt vorhersehbar, wenn es eine monoton wachsende Folge (T n ) n 1 von F- Stopzeiten gibt, so daß die folgenden beiden Bedingungen gelten: (1) T = lim n T n P-f.s., und (2) T n < T auf der Menge {T > }. Die Folge (T n ) n 1 heißt eine T ankündigende Folge von F-Stopzeiten. Bemerkung Man zeigt leicht, daß die Bedingung (2) zu der Bedingung (2 ) T n < T auf der Menge { < T < } äquivalent ist. Einfachste Beispiele vorhersehbarer Stopzeiten sind die konstanten Stopzeiten. Ist zudem T eine beliebige Stopzeit und t >, so ist T + t vorhersehbar. Proposition Es sei X = (X t ) t ein F-adaptierter, stetiger Prozeß. Dann ist für jedes a R T := T a := inf{t X t a} = min{t X t = a} (1.17) (wobei die letzte Gleichung wegen der Stetigkeit von X gilt) eine F-Stopzeit, die vorhersehbar ist. Beweis: Aus der Stetigkeit von X ergibt sich die Beziehung {T u} = r u{x r a} für alle u. Wegen {X r a} F u für r u ist damit {T u} F u für alle u, also T eine F-Stopzeit. Für jedes n 1 setzen wir nun T n := inf{t X t a 1 n }. Dann ist jedes T n genau wie T eine F-Stopzeit. Ferner ist T n < T auf { < T < }, und (T n ) n 1 ist eine aufsteigende Folge. Es sei nun ω Ω gegeben mit lim n T n (ω) <. Für jedes n 1 ist X Tn (ω) = a 1, und aus der Stetigkeit n von X folgt lim n X T n (ω) = a = X limn T n (ω). Hieraus ergibt sich nun lim n T n (ω) = T (ω).

35 1.3. KLASSIFIKATION DER STOPZEITEN 29 Proposition (1) Sind S und T vorhersehbare Stopzeiten, so sind auch die Stopzeiten S T und S T vorhersehbar. (2) Ist (T n ) n 1 eine monoton wachsende Folge vorhersehbarer Stopzeiten, so ist auch T := sup n 1 T n eine vorhersehbare Stopzeit. (3) Es sei F rechtsseitig stetig und (T n ) n 1 eine monoton fallende Folge vorhersehbarer Stopzeiten, die die folgende Eigenschaft besitzt: für alle ω Ω existiert ein m N, so daß gilt T (ω) := inf n 1 T n(ω) = T m (ω). (1.18) Dann ist T eine vorhersehbare Stopzeit. Beweis: Der Beweis von (1) folgt leicht aus der Definition (2) Für jedes n 1 sei (T n,j ) j 1 eine T n ankündigende Folge. Wir setzen für k 1 S k := sup T n,j. j k,n k Dann verifiziert man leicht, daß (S k ) k 1 eine T ankündigende Folge ist. (3): Wir versehen R + (den Wertebereich von Stopzeiten) mit der Metrik d, die gegeben ist durch d(s, t) := arctan(s) arctan(t) (mit der Konvention arctan( ) = π 2 ). Für jedes n 1 sei wieder (T n,j ) j 1 eine T n ankündigende Folge. Wegen der Eigenschaft (1) der Definition einer ankündigenden Folge können und wollen wir dabei annehmen, daß für alle n 1 und alle j 1 gilt P({d(T n, T n,j ) > 2 j }) 2 (n+j). Wir setzen nun S j := inf n 1 T n,j. Dann ist (S j ) j 1 eine monoton wachsende Folge von F-Stopzeiten, und aus der Eigenschaft (1.18) folgt sowie S j < T auf der Menge {T > }, {d(s j, T ) > 2 j } = {d(inf n 1 T n,j, T ) > 2 j } n 1{d(T n,j, T n ) > 2 j }.

7 Rechnen mit Polynomen

7 Rechnen mit Polynomen 7 Rechnen mit Polynomen Zu Polynomfunktionen Satz. Zwei Polynomfunktionen und f : R R, x a n x n + a n 1 x n 1 + a 1 x + a 0 g : R R, x b n x n + b n 1 x n 1 + b 1 x + b 0 sind genau dann gleich, wenn

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

Mengensysteme, Wahrscheinlichkeitsmaße

Mengensysteme, Wahrscheinlichkeitsmaße Kapitel 1 Mengensysteme, Wahrscheinlichkeitsmaße Der Großteil der folgenden fundamentalen Begriffe sind schon aus der Vorlesung Stochastische Modellbildung bekannt: Definition 1.1 Eine Familie A von Teilmengen

Mehr

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

4. Versicherungsangebot

4. Versicherungsangebot 4. Versicherungsangebot Georg Nöldeke Wirtschaftswissenschaftliche Fakultät, Universität Basel Versicherungsökonomie (FS 11) Versicherungsangebot 1 / 13 1. Einleitung 1.1 Hintergrund In einem grossen Teil

Mehr

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung Kapitel 3 Dynamische Systeme Definition 31: Ein Differentialgleichungssystem 1 Ordnung = f(t, y) ; y R N ; f : R R N R N heißt namisches System auf dem Phasenraum R N Der Parameter t wird die Zeit genannt

Mehr

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum Fachschaft Mathematik und Informatik (FIM) LA I VORKURS Herbstsemester 2015 gehalten von Harald Baum 2. September 2015 Inhaltsverzeichnis 1. Stichpunkte zur Linearen Algebra I 2. Körper 3. Vektorräume

Mehr

8. Quadratische Reste. Reziprozitätsgesetz

8. Quadratische Reste. Reziprozitätsgesetz O Forster: Prizahlen 8 Quadratische Reste Rezirozitätsgesetz 81 Definition Sei eine natürliche Zahl 2 Eine ganze Zahl a heißt uadratischer Rest odulo (Abkürzung QR, falls die Kongruenz x 2 a od eine Lösung

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen 1. Quadratische Gleichungen Quadratische Gleichungen lassen sich immer auf die sog. normierte Form x 2 + px + = 0 bringen, in

Mehr

Mathematischer Vorbereitungskurs für Ökonomen

Mathematischer Vorbereitungskurs für Ökonomen Mathematischer Vorbereitungskurs für Ökonomen Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Gleichungen Inhalt: 1. Grundlegendes 2. Lineare Gleichungen 3. Gleichungen mit Brüchen

Mehr

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist. Matrizennorm Es seien r,s N Mit M r,s (R bezeichnen wir die Menge der reellen r s- Matrizen (also der linearen Abbildungen R s R r, und setze M s (R := M s,s (R (also die Menge der linearen Abbildungen

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

BONUS MALUS SYSTEME UND MARKOV KETTEN

BONUS MALUS SYSTEME UND MARKOV KETTEN Fakultät Mathematik und Naturwissenschaften, Fachrichtung Mathematik, Institut für Mathematische Stochastik BONUS MALUS SYSTEME UND MARKOV KETTEN Klaus D. Schmidt Ringvorlesung TU Dresden Fakultät MN,

Mehr

Informationsblatt Induktionsbeweis

Informationsblatt Induktionsbeweis Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln

Mehr

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN CHRISTIAN HARTFELDT. Zweiter Mittelwertsatz Der Mittelwertsatz Satz VI.3.4) lässt sich verallgemeinern zu Satz.. Seien f, g : [a, b] R auf [a,

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Frohe Weihnachten und ein gutes neues Jahr!

Frohe Weihnachten und ein gutes neues Jahr! Frohe Weihnachten und ein gutes neues Jahr! Die mit dem Stern * gekennzeichneten Übungen sind nicht verpflichtend, aber sie liefern zusätzliche Punkte. Unten wird immer mit I das reelle Intervall [0, 1]

Mehr

Absolute Stetigkeit von Maßen

Absolute Stetigkeit von Maßen Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches

Mehr

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

1 Stochastische Prozesse in stetiger Zeit

1 Stochastische Prozesse in stetiger Zeit 1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.

Mehr

13.5 Der zentrale Grenzwertsatz

13.5 Der zentrale Grenzwertsatz 13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle

Mehr

Approximation durch Taylorpolynome

Approximation durch Taylorpolynome TU Berlin Fakultät II - Mathematik und Naturwissenschaften Sekretariat MA 4-1 Straße des 17. Juni 10623 Berlin Hochschultag Approximation durch Taylorpolynome Im Rahmen der Schülerinnen- und Schüler-Uni

Mehr

Die reellen Lösungen der kubischen Gleichung

Die reellen Lösungen der kubischen Gleichung Die reellen Lösungen der kubischen Gleichung Klaus-R. Löffler Inhaltsverzeichnis 1 Einfach zu behandelnde Sonderfälle 1 2 Die ganzrationale Funktion dritten Grades 2 2.1 Reduktion...........................................

Mehr

3. Zusammenhang. 22 Andreas Gathmann

3. Zusammenhang. 22 Andreas Gathmann 22 Andreas Gathmann 3. Zusammenhang Eine der anschaulichsten Eigenschaften eines topologischen Raumes ist wahrscheinlich, ob er zusammenhängend ist oder aus mehreren Teilen besteht. Wir wollen dieses Konzept

Mehr

Grundbegriffe der Informatik

Grundbegriffe der Informatik Grundbegriffe der Informatik Kapitel 6: Induktives Vorgehen Thomas Worsch KIT, Institut für Theoretische Informatik Wintersemester 2015/2016 GBI Grundbegriffe der Informatik KIT, Institut für Theoretische

Mehr

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b Aufgabe 1: Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. (a) Nehmen Sie lineares Wachstum gemäß z(t) = at + b an, wobei z die Einwohnerzahl ist und

Mehr

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

!(0) + o 1("). Es ist damit möglich, dass mehrere Familien geschlossener Orbits gleichzeitig abzweigen.

!(0) + o 1(). Es ist damit möglich, dass mehrere Familien geschlossener Orbits gleichzeitig abzweigen. Bifurkationen an geschlossenen Orbits 5.4 167 der Schnittabbldung konstruiert. Die Periode T (") der zugehörigen periodischen Lösungen ergibt sich aus =! + o 1 (") beziehungsweise Es ist also t 0 = T (")

Mehr

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!. 040304 Übung 9a Analysis, Abschnitt 4, Folie 8 Die Wahrscheinlichkeit, dass bei n - maliger Durchführung eines Zufallexperiments ein Ereignis A ( mit Wahrscheinlichkeit p p ( A ) ) für eine beliebige Anzahl

Mehr

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Prof. Dr. Volker Schulz Universität Trier / FB IV / Abt. Mathematik 8. November 2010 http://www.mathematik.uni-trier.de/ schulz/elan-ws1011.html

Mehr

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen Gleichungen Lösen Was bedeutet es, eine Gleichung zu lösen? Was ist überhaupt eine Gleichung? Eine Gleichung ist, grundsätzlich eine Aussage über zwei mathematische Terme, dass sie gleich sind. Ein Term

Mehr

Wahrscheinlichkeitstheorie. Zapper und

Wahrscheinlichkeitstheorie. Zapper und Diskrete Wahrscheinlichkeitsräume Slide 1 Wahrscheinlichkeitstheorie die Wissenschaft der Zapper und Zocker Diskrete Wahrscheinlichkeitsräume Slide 2 Münzwürfe, Zufallsbits Elementarereignisse mit Wahrscheinlichkeiten

Mehr

Lösungen zum 3. Aufgabenblatt

Lösungen zum 3. Aufgabenblatt SS, Lineare Algebra Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com aufrufbar.

Mehr

Data Mining: Einige Grundlagen aus der Stochastik

Data Mining: Einige Grundlagen aus der Stochastik Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener

Mehr

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert:

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: Beispiel: Wir untersuchen die rekursiv definierte Folge a 0 + auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: ( ) (,, 7, 5,...) Wir können also vermuten, dass die Folge monoton fallend

Mehr

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel Ausarbeitung zum Proseminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn zum Thema Simulation des Anlagenpreismodels von Simon Uphus im WS 09/10 Zusammenfassung

Mehr

Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken?

Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken? UErörterung zu dem Thema Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken? 2000 by christoph hoffmann Seite I Gliederung 1. In zu großen Mengen ist alles schädlich. 2.

Mehr

Korrelation (II) Korrelation und Kausalität

Korrelation (II) Korrelation und Kausalität Korrelation (II) Korrelation und Kausalität Situation: Seien X, Y zwei metrisch skalierte Merkmale mit Ausprägungen (x 1, x 2,..., x n ) bzw. (y 1, y 2,..., y n ). D.h. für jede i = 1, 2,..., n bezeichnen

Mehr

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. 13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. Sie heißt linear, wenn sie die Form y (n) + a n 1 y (n 1)

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

Musterlösungen zur Linearen Algebra II Blatt 5

Musterlösungen zur Linearen Algebra II Blatt 5 Musterlösungen zur Linearen Algebra II Blatt 5 Aufgabe. Man betrachte die Matrix A := über dem Körper R und über dem Körper F und bestimme jeweils die Jordan- Normalform. Beweis. Das charakteristische

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Vorkurs Mathematik Übungen zu Differentialgleichungen

Vorkurs Mathematik Übungen zu Differentialgleichungen Vorkurs Mathematik Übungen zu Differentialgleichungen Als bekannt setzen wir die folgenden Umformungen voraus: e ln(f(x)) = f(x) e f(x)+c = e f(x) e c e ln(f(x)) +c = f(x) e c = f(x) c f ( g(x) ) g (x)

Mehr

Lineare Differentialgleichungen erster Ordnung erkennen

Lineare Differentialgleichungen erster Ordnung erkennen Lineare Differentialgleichungen erster Ordnung In diesem Kapitel... Erkennen, wie Differentialgleichungen erster Ordnung aussehen en für Differentialgleichungen erster Ordnung und ohne -Terme finden Die

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Anleitung über den Umgang mit Schildern

Anleitung über den Umgang mit Schildern Anleitung über den Umgang mit Schildern -Vorwort -Wo bekommt man Schilder? -Wo und wie speichert man die Schilder? -Wie füge ich die Schilder in meinen Track ein? -Welche Bauteile kann man noch für Schilder

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Das Eigenwertproblem Sei A eine quadratische Matrix vom Typ m,m. Die Aufgabe, eine Zahl λ und einen dazugehörigen Vektor x zu finden, damit Ax = λx ist, nennt

Mehr

Aufgabenset 1 (abzugeben 16.03.2012 an LK@wacc.de)

Aufgabenset 1 (abzugeben 16.03.2012 an LK@wacc.de) Aufgabenset 1 (abzugeben 16.03.2012 an LK@wacc.de) Aufgabe 1 Betrachten Sie die Cashflows der Abbildung 1 (Auf- und Abwärtsbewegungen finden mit gleicher Wahrscheinlichkeit statt). 1 Nehmen Sie an, dass

Mehr

Beweisbar sichere Verschlüsselung

Beweisbar sichere Verschlüsselung Beweisbar sichere Verschlüsselung ITS-Wahlpflichtvorlesung Dr. Bodo Möller Ruhr-Universität Bochum Horst-Görtz-Institut für IT-Sicherheit Lehrstuhl für Kommunikationssicherheit bmoeller@crypto.rub.de 6

Mehr

Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban

Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban Lösungsvorschlag 8. Übungsblatt zur Vorlesung Finanzmathematik I Aufgabe Hedging Amerikanischer Optionen Wir sind in einem arbitragefreien

Mehr

Lösungsmethoden gewöhnlicher Differentialgleichungen (Dgl.)

Lösungsmethoden gewöhnlicher Differentialgleichungen (Dgl.) Lösungsmethoden gewöhnlicher Dierentialgleichungen Dgl) Allgemeine und partikuläre Lösung einer gewöhnlichen Dierentialgleichung Eine Dierentialgleichung ist eine Gleichung! Zum Unterschied von den gewöhnlichen

Mehr

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Basis und Dimension Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren

Mehr

Das Briefträgerproblem

Das Briefträgerproblem Das Briefträgerproblem Paul Tabatabai 30. Dezember 2011 Inhaltsverzeichnis 1 Problemstellung und Modellierung 2 1.1 Problem................................ 2 1.2 Modellierung.............................

Mehr

Stochastische Eingangsprüfung, 17.05.2008

Stochastische Eingangsprüfung, 17.05.2008 Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)

Mehr

EM-Wellen. david vajda 3. Februar 2016. Zu den Physikalischen Größen innerhalb der Elektrodynamik gehören:

EM-Wellen. david vajda 3. Februar 2016. Zu den Physikalischen Größen innerhalb der Elektrodynamik gehören: david vajda 3. Februar 2016 Zu den Physikalischen Größen innerhalb der Elektrodynamik gehören: Elektrische Stromstärke I Elektrische Spannung U Elektrischer Widerstand R Ladung Q Probeladung q Zeit t Arbeit

Mehr

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen .3 Komplexe Potenzreihen und weitere komplexe Funktionen Definition.) komplexe Folgen: z n = x n + j. y n mit zwei reellen Folgen x n und y n.) Konvergenz: Eine komplexe Folge z n = x n + j. y n heißt

Mehr

1.3 Die Beurteilung von Testleistungen

1.3 Die Beurteilung von Testleistungen 1.3 Die Beurteilung von Testleistungen Um das Testergebnis einer Vp zu interpretieren und daraus diagnostische Urteile ableiten zu können, benötigen wir einen Vergleichsmaßstab. Im Falle des klassischen

Mehr

Aufgabe 1. Zunächst wird die allgemeine Tangentengleichung in Abhängigkeit von a aufgestellt:

Aufgabe 1. Zunächst wird die allgemeine Tangentengleichung in Abhängigkeit von a aufgestellt: Aufgabe 1 1.1. Bestimmung von D max : 1. Bedingung: x >0 ; da ln(x) nur für x > 0 definiert ist. 2. Bedingung: Somit ist die Funktion f a nur für x > 0 definiert und sie besitzt eine Definitionslücke an

Mehr

Statistik I für Betriebswirte Vorlesung 5

Statistik I für Betriebswirte Vorlesung 5 Statistik I für Betriebswirte Vorlesung 5 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik 07. Mai 2015 PD Dr. Frank Heyde Statistik I für Betriebswirte Vorlesung 5 1 Klassische Wahrscheinlichkeitsdefinition

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Coupon Collector's-Problem (Sammelbilderproblem) Name: Walter Wolf Matrikelnr.: 533440 Dozent: Dr. W. Kössler

Coupon Collector's-Problem (Sammelbilderproblem) Name: Walter Wolf Matrikelnr.: 533440 Dozent: Dr. W. Kössler Coupon Collector's-Problem (Sammelbilderproblem) Name: Walter Wolf Matrikelnr.: 533440 Dozent: Dr. W. Kössler Problemstellung Als Sammelbilderproblem bezeichnet man die Frage, wie viele Produkte bzw. Bilder

Mehr

Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert.

Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert. Der Gutachtenstil: Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert. Das Ergebnis steht am Schluß. Charakteristikum

Mehr

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u. Universität Stuttgart Fachbereich Mathematik Prof. Dr. C. Hesse PD Dr. P. H. Lesky Dipl. Math. D. Zimmermann Msc. J. Köllner FAQ 3 Höhere Mathematik I 4..03 el, kyb, mecha, phys Vektorräume Vektorräume

Mehr

Betragsgleichungen und die Methode der Fallunterscheidungen

Betragsgleichungen und die Methode der Fallunterscheidungen mathe online Skripten http://www.mathe-online.at/skripten/ Betragsgleichungen und die Methode der Fallunterscheidungen Franz Embacher Fakultät für Mathematik der Universität Wien E-mail: franz.embacher@univie.ac.at

Mehr

Physik 4, Übung 11, Prof. Förster

Physik 4, Übung 11, Prof. Förster Physik 4, Übung 11, Prof. Förster Christoph Hansen Emailkontakt ieser Text ist unter dieser Creative Commons Lizenz veröffentlicht. Ich erhebe keinen Anspruch auf Vollständigkeit oder Richtigkeit. Falls

Mehr

Die Optimalität von Randomisationstests

Die Optimalität von Randomisationstests Die Optimalität von Randomisationstests Diplomarbeit Elena Regourd Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Düsseldorf im Dezember 2001 Betreuung: Prof. Dr. A. Janssen Inhaltsverzeichnis

Mehr

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also Universität Konstanz Fachbereich Mathematik und Statistik Repetitorium Analysis 0 Dr DK Huynh Blatt 8 Aufgabe 6 Bestimmen Sie (a) (x + x 7x+)dx (c) (f) x n exp(x)dx (n N fest) sin (x)dx (g) (b) (d) ln(x)dx

Mehr

Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand

Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand Vorüberlegung In einem seriellen Stromkreis addieren sich die Teilspannungen zur Gesamtspannung Bei einer Gesamtspannung U ges, der

Mehr

Ausarbeitung des Seminarvortrags zum Thema

Ausarbeitung des Seminarvortrags zum Thema Ausarbeitung des Seminarvortrags zum Thema Anlagepreisbewegung zum Seminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn von Imke Meyer im W9/10 Anlagepreisbewegung

Mehr

1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem P( ) = 0.

1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem P( ) = 0. 1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem Folg. 2 Sei (Ω, E, P) W.-raum. Seien A, B,A 1,...,A n Ereignisse. Es gelten die folgenden Aussagen: 1. P(A) = 1 P(A). 2. Für das unmögliche Ereignis gilt:

Mehr

Professionelle Seminare im Bereich MS-Office

Professionelle Seminare im Bereich MS-Office Der Name BEREICH.VERSCHIEBEN() ist etwas unglücklich gewählt. Man kann mit der Funktion Bereiche zwar verschieben, man kann Bereiche aber auch verkleinern oder vergrößern. Besser wäre es, die Funktion

Mehr

Erstellen einer Collage. Zuerst ein leeres Dokument erzeugen, auf dem alle anderen Bilder zusammengefügt werden sollen (über [Datei] > [Neu])

Erstellen einer Collage. Zuerst ein leeres Dokument erzeugen, auf dem alle anderen Bilder zusammengefügt werden sollen (über [Datei] > [Neu]) 3.7 Erstellen einer Collage Zuerst ein leeres Dokument erzeugen, auf dem alle anderen Bilder zusammengefügt werden sollen (über [Datei] > [Neu]) Dann Größe des Dokuments festlegen beispielsweise A4 (weitere

Mehr

W-Rechnung und Statistik für Ingenieure Übung 11

W-Rechnung und Statistik für Ingenieure Übung 11 W-Rechnung und Statistik für Ingenieure Übung 11 Christoph Kustosz (kustosz@statistik.tu-dortmund.de) Mathematikgebäude Raum 715 Christoph Kustosz (kustosz@statistik.tu-dortmund.de) W-Rechnung und Statistik

Mehr

Vorlesung. Funktionen/Abbildungen 1

Vorlesung. Funktionen/Abbildungen 1 Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.

Mehr

Grundlagen der Theoretischen Informatik, SoSe 2008

Grundlagen der Theoretischen Informatik, SoSe 2008 1. Aufgabenblatt zur Vorlesung Grundlagen der Theoretischen Informatik, SoSe 2008 (Dr. Frank Hoffmann) Lösung von Manuel Jain und Benjamin Bortfeldt Aufgabe 2 Zustandsdiagramme (6 Punkte, wird korrigiert)

Mehr

1 Konvexe Funktionen. 1.1 Definition. 1.2 Bedingung 1.Ordnung. Konvexität und Operationen, die die Konvexität bewahren Seite 1

1 Konvexe Funktionen. 1.1 Definition. 1.2 Bedingung 1.Ordnung. Konvexität und Operationen, die die Konvexität bewahren Seite 1 Konvexität und Operationen, die die Konvexität bewahren Seite 1 1 Konvexe Funktionen 1.1 Definition Eine Funktion f heißt konvex, wenn domf eine konvexe Menge ist und x,y domf und 0 θ 1: f(θx + (1 θ)y)

Mehr

Modulabschlussklausur Analysis II

Modulabschlussklausur Analysis II Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen

Mehr

Gleichungen und Ungleichungen

Gleichungen und Ungleichungen Gleichungen Ungleichungen. Lineare Gleichungen Sei die Gleichung ax = b gegeben, wobei x die Unbekannte ist a, b reelle Zahlen sind. Diese Gleichung hat als Lösung die einzige reelle Zahl x = b, falls

Mehr

Universität Bonn, Institut für Angewandte Mathematik. WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW

Universität Bonn, Institut für Angewandte Mathematik. WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW Universität Bonn, Institut für Angewandte Mathematik Dr. Antje Kiesel WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW 08.03.2013 Matrikelnummer Platz Name Vorname 1 2 3 4 5 6

Mehr

Modellbildungssysteme: Pädagogische und didaktische Ziele

Modellbildungssysteme: Pädagogische und didaktische Ziele Modellbildungssysteme: Pädagogische und didaktische Ziele Was hat Modellbildung mit der Schule zu tun? Der Bildungsplan 1994 formuliert: "Die schnelle Zunahme des Wissens, die hohe Differenzierung und

Mehr

Lernerfolge sichern - Ein wichtiger Beitrag zu mehr Motivation

Lernerfolge sichern - Ein wichtiger Beitrag zu mehr Motivation Lernerfolge sichern - Ein wichtiger Beitrag zu mehr Motivation Einführung Mit welchen Erwartungen gehen Jugendliche eigentlich in ihre Ausbildung? Wir haben zu dieser Frage einmal die Meinungen von Auszubildenden

Mehr

Charakteristikenmethode im Beispiel

Charakteristikenmethode im Beispiel Charakteristikenmethode im Wir betrachten die PDE in drei Variablen xu x + yu y + (x + y )u z = 0. Das charakteristische System lautet dann ẋ = x ẏ = y ż = x + y und besitzt die allgemeine Lösung x(t)

Mehr

11.AsymmetrischeInformation

11.AsymmetrischeInformation .AsymmetrischeInformation Informationistnurwichtig,wenneineEntscheidungssituationdurcheinunsicheresUmfeld charakterisiertist.istesvielleichtso,daßauchdieunsicherheitselbstzueinereinschränkung derfunktionsfähigkeitvonmärktenführt?diesistinder

Mehr

Abschlussprüfung Realschule Bayern II / III: 2009 Haupttermin B 1.0 B 1.1

Abschlussprüfung Realschule Bayern II / III: 2009 Haupttermin B 1.0 B 1.1 B 1.0 B 1.1 L: Wir wissen von, dass sie den Scheitel hat und durch den Punkt läuft. Was nichts bringt, ist beide Punkte in die allgemeine Parabelgleichung einzusetzen und das Gleichungssystem zu lösen,

Mehr

Kevin Caldwell. 18.April 2012

Kevin Caldwell. 18.April 2012 im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig

Mehr

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Zählen und Zahlbereiche Übungsblatt 1 1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Für alle m, n N gilt m + n = n + m. in den Satz umschreiben:

Mehr

Der Zwei-Quadrate-Satz von Fermat

Der Zwei-Quadrate-Satz von Fermat Der Zwei-Quadrate-Satz von Fermat Proseminar: Das BUCH der Beweise Fridtjof Schulte Steinberg Institut für Informatik Humboldt-Universität zu Berlin 29.November 2012 1 / 20 Allgemeines Pierre de Fermat

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Bernhard Ganter Institut für Algebra TU Dresden D-01062 Dresden bernhard.ganter@tu-dresden.de WS 2013/14 Isomorphie Zwei Graphen (V 1, E 1 ) und (V

Mehr

1 topologisches Sortieren

1 topologisches Sortieren Wolfgang Hönig / Andreas Ecke WS 09/0 topologisches Sortieren. Überblick. Solange noch Knoten vorhanden: a) Suche Knoten v, zu dem keine Kante führt (Falls nicht vorhanden keine topologische Sortierung

Mehr

Satz. Für jede Herbrand-Struktur A für F und alle t D(F ) gilt offensichtlich

Satz. Für jede Herbrand-Struktur A für F und alle t D(F ) gilt offensichtlich Herbrand-Strukturen und Herbrand-Modelle Sei F eine Aussage in Skolemform. Dann heißt jede zu F passende Struktur A =(U A, I A )eineherbrand-struktur für F, falls folgendes gilt: 1 U A = D(F ), 2 für jedes

Mehr

Das Mathematik-Abitur im Saarland

Das Mathematik-Abitur im Saarland Informationen zum Abitur Das Mathematik-Abitur im Saarland Sie können Mathematik im Abitur entweder als grundlegenden Kurs (G-Kurs) oder als erhöhten Kurs (E-Kurs) wählen. Die Bearbeitungszeit für die

Mehr

Rente = laufende Zahlungen, die in regelmäßigen Zeitabschnitten (periodisch) wiederkehren Rentenperiode = Zeitabstand zwischen zwei Rentenzahlungen

Rente = laufende Zahlungen, die in regelmäßigen Zeitabschnitten (periodisch) wiederkehren Rentenperiode = Zeitabstand zwischen zwei Rentenzahlungen 5.2. entenrechnung Definition: ente = laufende Zahlungen, die in regelmäßigen Zeitabschnitten (periodisch) wiederkehren entenperiode = Zeitabstand zwischen zwei entenzahlungen Finanzmathematisch sind zwei

Mehr

Extrema von Funktionen in zwei Variablen

Extrema von Funktionen in zwei Variablen Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen in zwei Variablen Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen?

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen? Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen können zwei Ebenen (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen? Wie heiÿt

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 17 Crash Course Brownsche Bewegung (stetige Zeit, stetiger Zustandsraum); Pricing & Hedging von Optionen in stetiger Zeit Literatur Kapitel 17 * Uszczapowski:

Mehr