Stochastische Prozesse

Größe: px
Ab Seite anzeigen:

Download "Stochastische Prozesse"

Transkript

1 Stochastische Prozesse Prof. Dr. H.R. Lerche Abteilung für Mathematische Stochastik Universität Freiburg März 2014

2

3 Inhaltsverzeichnis 1 Martingale Definitionen und Eigenschaften Beispiele für Martingale Weitere Eigenschaften Martingale als faire Spiele Nichtexistenz günstiger Spielsysteme Das Optional Sampling Theorem Einige Anwendungen des Optional Sampling Theorems Martingalkonvergenzsätze Die Upcrossing Ungleichung Konvergenzsätze Gleichgradige Integrierbarkeit Weitere Beispiele zu den Martingalkonvergenzsätzen Die Doobsche Ungleichung Kakutanis Alternative für unendliche Produktmaße Charakteristische Funktionen und schwache Konvergenz Definitionen und Eigenschaften Beispiele Der Eindeutigkeitssatz für charakteristische Funktionen Die Umkehrformel Die Taylorentwicklung einer charakteristischen Funktion Das Momentenproblem Schwache Konvergenz Der Stetigkeitssatz Zentrale Grenzwertsätze Der zentrale Grenzwertsatz für identisch verteilte Zufallsvariablen Grenzwertsätze für Folgen unabhängiger Zufallsvariablen Gleichverteilung auf stetigen Funktionen ein Ausblick) i

4 ii INHALTSVERZEICHNIS 5 Unendlich teilbare Verteilungen Einführung Beispiele für unendlich teilbare Verteilungen Eine Charakterisierung unendlich teilbarer Verteilungen Die Lévy Khinchin Formel Stabile Verteilungen Beispiele für stabile Verteilungen Die Lévy Khinchin Formel für stabile Verteilungen Existenz von stochastischen Prozessen Gaußsche und Markovsche Prozesse Der Konsistenzsatz von Kolmogorov Konstruktion einer Brownschen Bewegung auf R I Konstruktion der Brownschen Bewegung nach P. Lévy Pfadeigenschaften der Brownschen Bewegung Das Gesetz vom iterierten Logarithmus Variation und quadratische Variation Die Starke Markov-Eigenschaft Das Optional Stopping Theorem im stetigen Fall und einige Überschreitungswahrscheinlichkeiten Die Starke Markov-Eigenschaft für einen allgemeinen Wahrscheinlichkeitsraum Das Reflexionsprinzip Die starke Markov-Eigenschaft auf C[0, ) Anwendung auf die k-dimensionale Brownsche Bewegung Zur Brownschen Bewegung mit Drift 125 A Die mehrdimensionale Normalverteilung 133 B Historische Bemerkungen 137 B.1 Einsteins Überlegungen zur Brownschen Bewegung Literaturverzeichnis 143

5 Kapitel 1 Martingale Im Folgenden betrachten wir Martingale, Submartingale und Supermartingale. Das sind spezielle Folgen von Zufallsvariablen, die man als faire, günstige bzw. ungünstige Spiele interpretieren kann. 1.1 Definitionen und Eigenschaften Wir werden unseren Betrachtungen einen Wahrscheinlichkeitsraum Ω, F, P ) und ein Intervall I von Z {, } zugrundelegen. Wird nichts anderes gesagt, so sind alle auftretenden Folgen von Zufallsvariablen auf Ω, F, P ) definiert und auftretende σ-algebren sind Unter σ-algebren von F. Definition 1.1 Sei X n ) n I ein Folge von Zufallsvariablen und sei F n ) n I eine Folge von Unter σ-algebren von F. 1) F n ) n I heißt Filtrierung, falls die F n aufsteigend sind, d.h. F n F n+1 für alle n I. 2) X n ) n I heißt adaptiert bezüglich F n ) n I, falls X n F n -messbar ist für alle n I. Definition 1.2 Sei F n ) n I eine Filtrierung und sei X n ) n I eine Folge F n ) n I -adaptierter Zufallsvariablen. 1) X n, F n ) n I heißt Submartingal, falls EX + n für alle n I endlich ist und für alle m, n I mit m < n gilt, dass X m EX n F m ). 2) X n, F n ) n I heißt Supermartingal, falls EX n für alle n I endlich ist und X n, F n ) n I ein Submartingal ist, also für alle m, n I mit m < n gilt, dass X m EX n F m ). 3) Die Folge X n, F n ) n I heißt Martingal, falls sie sowohl ein Sub- als auch ein Supermartingal ist. Wenn klar ist, welche Filtration zugrundeliegt, schreiben wir anstatt X n, F n ) n I auch oft nur X n ) n I oder noch kürzer einfach X. 1

6 2 Kapitel 1: Martingale Bemerkung 1.3 1) Es gilt genau dann EX n F m ) = X m bzw., bzw. ) für alle m < n, wenn A X n dp = A X m dp bzw., bzw. ) für alle m < n und alle A F m. 2) Enthält I weder noch +, so gilt EX n F m ) = X m bzw., bzw. ) für alle m < n, genau dann wenn EX n+1 F n ) = X n für alle n N. Beweis: Zu 2): Für m < n gilt EX n F m ) = EEX n F n 1 ) F m ) = EX n 1 F m ) = = EX m F m ) = X m. Die Aussagen mit und folgen analog. 1.2 Beispiele für Martingale Summen unabhängiger Zufallsvariablen Sei Y i ) i IN eine Folge unabhängiger Zufallsvariablen mit E Y k < und EY k = 0 für alle k 1. Sei X 0 := 0, X n := n i=1 Y i, F 0 := {Ø, Ω} und F n := σy 1,..., Y n ) für n 1. Dann ist X n, F n ) n 0 ein Martingal. Beweis: EX n F n 1 ) = EX n 1 F n 1 ) + EY n F n 1 ) = X n 1 + EY n = X n 1. Man sieht, dass X n, F n ) n 0 im Falle EY k > 0 ein Submartingal ist, während sich für EY k < 0 ein Supermartingal ergibt Produkte unabhängiger Zufallsvariablen Sei Z i ) i IN ein Folge nichtnegativer, unabhängiger Zufallsvariablen mit EZ k = 1 für alle k IN. Sei Z 0 := 1, F 0 := {Ø, Ω} und X n = n k=1 Z k sowie X 0 := 1. Außerdem sei F n := σz 1,..., Z n ). Dann ist X n, F n ) n 0 ein Martingal. Beweis: Für alle n IN gilt EX n F n 1 ) = EX n 1 Z n F n 1 ) = X n 1 EZ n F n 1 ) = X n 1 EZ n = X n 1. Wie man sieht, ergibt sich für EZ k < 1 ein Supermartingal.

7 1.2. Beispiele für Martingale Von integrierbaren Zufallsvariablen erzeugte Martingale Sei Y eine Zufallsvariable mit E Y < und sei F n ) n 0 eine Filtrierung sowie X n := EY F n ). Dann ist X n, F n ) n 0 ein Martingal. Beweis: Für alle n IN gilt EX n F n 1 ) = EEY F n ) F n 1 ) = EY F n 1 ) = X n Stochastische Exponentiale Sei Y i ) i IN eine Folge unabhängiger, identisch verteilter Zufallsvariablen. Es existiere ein λ > 0, sodass ϕλ) := Ee λy 1 endlich ist. Sei X n := eλy 1+ +Y n ) ϕλ) n = n i=1 e λy i ϕλ). Sei F 0 = {Ø, Ω}, F n := σy 1,..., Y n ) für n 1 und X 0 := 1. Dann ist X n, F n ) n 0 als Spezialfall von 2) ein Martingal Dichteprozesse Sei F n ) n IN eine Filtrierung und seien Q 1 und Q 2 Wahrscheinlichkeitsmaße auf F. Seien Q 1 n := Q 1 F n und Q 2 n := Q 2 F n mit der Eigenschaft Q 1 n Q 2 n und sei X n := dq 1 n/dq 2 n die Radon-Nikodym Ableitung von Q 1 n bezüglich Q 2 n, d.h., für alle A F n gilt Q 1 na) = A X n dq 2 n. Dann ist X n, F n ) n 1 ein Martingal bezüglich Q 2. Beweis: Für alle m, n 1 mit m < n und für alle A F m gilt: X m dq 2 = X m dq 2 m = Q 1 ma) = Q 1 A) = A A A X n dq Ein rückläufiges Martingal Das folgende Beispiel werden wir später nutzen, um das starke Gesetz der großen Zahlen zu beweisen. Sei Y i ) i IN eine Folge unabhängiger, identisch verteilter Zufallsvariablen mit E Y 1 <. Sei S n := n i=1 Y i, X n := S n /n und F n := σs m : m n). Dann gilt EY 1 F n ) = S n /n. Beweis: Für alle n 1 und alle k {1,..., n} gilt EY 1 F n ) = EY k F n ). Dies sieht man wie folgt: Wegen Übung Nr. 4 gilt EY k F n ) = EY k σs n )) für k {1,..., n}. Da die Y i identisch verteilt sind, gilt {S n B} Y k dp = {S n B} Y 1 dp für alle B B, das heißt Damit folgt EY 1 F n ) = EY 1 σs n )) = EY k σs n )) = EY k F n ) ney 1 F n ) = für k {1,..., n}. n n ) EY k F n ) = E Y k F n = ES n F n ) = S n. k=1 k=1

8 4 Kapitel 1: Martingale 1.3 Weitere Eigenschaften Als nächstes zeigen wir die Jensensche Ungleichung für bedingte Erwartungen. Lemma 1.4 Sei ϕ : IR IR eine konvexe Funktion und X eine Zufallsvariable mit EϕX) <. Dann gilt ϕex G)) EϕX) G) P -fast sicher. Beweis: Mit Hilfe der Jensenschen Ungleichung für Erwartungen folgt ϕex) EϕX), also EX <. Wegen der Konvexität von ϕ existiert zu x 0 IR ein λ IR mit ϕx) ϕx 0 ) + λx x 0 ) für alle x IR. Sei h eine Version von EX G). Dann ist ϕx) ϕh) + λ h X h), wobei λ h eine G-messbare Abbildung ist. Bildet man nun E G), so ist EϕX) G) Eϕh) G) + Eλ h X h) G) = ϕh) + λ h EX G) h) = ϕh), da der zweite Term gleich Null ist. Lemma 1.4 zeigt wie man aus gegebenen Submartingalen neue konstruieren kann. Lemma 1.5 Sei X n, F n ) n I ein Submartingal und ϕ eine monoton wachsende, konvexe Funktion mit EϕX n0 ) + < für ein n 0 I. Dann ist ein Submartingal. ϕx n ), F n ) n I,n n0 Beweis: Wende Lemma 1.4 an. Bemerkung 1.6 Ist X n, F n ) n I in Lemma 1.5 ein Martingal, so reicht es aus, ϕ als konvex vorauszusetzen. Beispiel 1.7 Sei X n, F n ) n I ein Martingal. Dann gelten die folgenden Eigenschaften: 1) X n, F n ) n I ist ein Submartingal, denn die Funktion x x ist konvex. 2) Ist EX 2 n für alle n I endlich, so ist X 2 n, F n ) n I ein Submartingal, da die Funktion x x 2 konvex ist. 3) Sei X n, F n ) n I ein Submartingal. Dann ist auch max{x n, a}, F n ) n I ein Submartingal. Insbesondere ist X + n, F n ) n I ein Submartingal. Beweis: Zu 3): Für alle m, n I mit m < n gilt Emax{X n, a} F m ) EX n F m ) X m und Emax{X n, a} F m ) Ea F m ) = a.

9 1.4. Martingale als faire Spiele Martingale als faire Spiele Im Folgenden werden wir sehen, dass sich Martingale Submartingale bzw. Supermartingale) als faire günstige bzw. ungünstige) Spiele interpretieren lassen. Definition 1.8 Sei X n, F n ) n IN ein Martingal und V n, F n ) n IN vorhersehbar, d.h., V n ist F n 1 -messbar für jedes n IN. Sei V X) 0 := 0 und n V X) n := V i X i X i 1 ) i=1 für n IN. Dann heißt V X) n, F n ) n IN0 Martingaltransformierte von X bezüglich V. Für die Martingaltransformierte gibt es eine einfache anschauliche Deutung: Nehmen wir an, dass das Martingal ein Spiel beschreibt und dass X n die Anzahl der gewonnenen abzüglich der verlorenen Spiele nach n Wiederholungen ist, X n X n 1 ) ist dann der Ausgang des n-ten Spiels). Weiterhin sei V n der Einsatz im n ten Spiel Vorhersehbarkeit ist hier eine natürliche Annahme, da der Einsatz vor dem Zeitpunkt n gemacht werden muss). Dann ist V X) n der Gesamtgewinn nach n Spielen. Lemma 1.9 Ist V n ) n IN durch ein k IR beschränkt, das heißt V n k für alle n IN, und vorhersehbar und ist X n, F n ) n IN ein Martingal, so ist auch V X) n, F n ) n IN ein Martingal. Ist V n zusätzlich für alle n IN nichtnegativ und ist X n, F n ) n IN ein Super- bzw. Submartingal, so ist auch V X) n, F n ) n IN ein Super- bzw. Submartingal. Beweis: Für alle n IN gilt: EV X) n F n 1 ) V X) n 1 = EV X) n V X) n 1 F n 1 ) = EV n X n X n 1 ) F n 1 ) = V n EX n X n 1 F n 1 ). Wegen = 0 : falls X n, F n ) n IN ein Martingal EX n X n 1 F n 1 ) 0 : falls X n, F n ) n IN ein Submartingal 0 : falls X n, F n ) n IN ein Supermartingal folgt die Behauptung Interpretation und Beispiele für Spielsysteme Sei Z n ) n IN eine Folge von unabhängig, identisch verteilten Bernoulli-Variablen mit P Z n = 1) = p und P Z n = 1) = 1 p =: q. Man interpretiert Z n = 1 als Gewinn im n-ten Spiel und entsprechend Z n = 1 als Verlust. Sei F n := σz 1,..., Z n ). Darüber hinaus sei V n der Einsatz im n-ten Spiel, sodass wir annehmen dürfen, dass V n vorhersehbar ist, denn der Einsatz wird vor dem n-ten Spiel nur unter Kenntnis der ersten n 1 Spiele festgelegt. Sei X n := Z Z n mit der Konvention X 0 := 0 und sei W n := n i=1 V i Z i = n i=1 V i X i X i 1 ) die

10 6 Kapitel 1: Martingale Martingaltransformierte von X bezüglich V. Dies ist dann der Gesamtgewinn nach n Spielen. Dann gilt: EW n W n 1 F n 1 ) = V n EX n X n 1 F n 1 ) = V n EZ n F n 1 ) = V n EZ n. Ist V n strikt positiv, so folgt > 0 falls p > q, d.h. X n, F n ) n IN ist Submartingal V n EZ n = 0 falls p = q, d.h. X n, F n ) n IN ist Martingal < 0 falls p < q, d.h. X n, F n ) n IN ist Supermartingal. Man kann somit ein Martingal als faires Spiel, ein Submartingal als günstiges und ein Supermartingal als ungünstiges Spiel ansehen. Als Beispiel betrachten wir das Petersburger Paradoxon: Wir definieren V 1 := 1 und 2 n 1 falls Z 1 = 1,..., Z n 1 = 1 V n := 0 sonst Dies heißt, man verdoppelt stets seinen Einsatz, bis zum ersten Gewinn. Außerdem nehmen wir an, das Spiel sei fair, d.h. P Z i = +1) = P Z i = 1) = 1/2. Nun überlegt man sich leicht, dass W n = 1 ist, wenn n der erste Zeitpunkt ist, zu dem man gewinnt. Wir haben also eine Spielstrategie gefunden, mit der wir immer gewinnen und das nach endlich vielen Spielen, wie wir jetzt sehen werden. Definieren wir nämlich T := min{ n 1 : W n = 1 }, so gilt ) 1 k P T = k) = P { Z 1 = 1 } { Z k 1 = 1 } { Z k = 1 }) =. 2 Damit ist ET = k=1 kp T = k) = k=1 k1/2) k <. Das heißt, im Mittel tritt nach endlich vielen Spielen ein Gewinn ein. Weshalb ist es aber trotzdem nicht ratsam, diese Strategie zu verwenden? Das Problem ist, dass man, um zu gewinnen, ein unendlich großes Spielkapital benötigt, denn es gilt: EV T = V k P T = k) = k=1 1 k 2 2) k 1 = k=1 1.5 Nichtexistenz günstiger Spielsysteme k=1 1 2 =. Bis einschließlich Beispiel 5.13 dient im Folgenden das Buch Probability with Martingales von D. Williams als Grundlage. Wir wollen uns nun folgendem Problem zuwenden: Falls X n, F n ) n IN ein Martingal ist und T eine Stoppzeit, unter welchen Voraussetzungen gilt dann EX T = EX 0? Dass Voraussetzungen nötig sind, zeigt schon das Beispiel des Petersburger Paradoxon, bei dem EW T = 1 0 = EW 0 gilt. Als weiteres Beispiel betrachten wir die symmetrische

11 1.5. Nichtexistenz günstiger Spielsysteme 7 Irrfahrt: Sei X n ) n IN eine Folge von unabhängig, identisch verteilten Bernoulli-Variablen mit P X i = 1) = P X i = 1) = 1/2 und sei X 0 := 0. Außerdem sei S n := n i=1 X i, S 0 := 0 und T := min{ n : S n = 1 }. Dann ist ES T = 1, aber ES 0 = 0. Satz 1.10 Sei X n, F n ) n IN ein Martingal und T eine Stoppzeit. Dann ist X T n X 0, F n ) n IN ein Martingal mit Erwartungswert 0. Insbesondere gilt EX T n = EX 0 für alle n IN. Beweis: Sei V n T ) := 1l { T n }. Dann ist V n T ) F n 1 -messbar, denn und { V T ) n = 0 } = { T < n } = { T n 1 } F n 1 { V T ) n = 1 } = { V T ) n = 0 } c F n 1. Nach Lemma 1.9 ist V T ) X) n, F n ) n IN ein Martingal. Wegen V T ) X) n = n i=1 V T ) i X i X i 1 ) = n 1l { T i } X i X i 1 ) = X T n X 0 i=1 folgt die Behauptung. Satz 1.11 Die Nichtexistenz eines günstigen Spielsystems) Sei X ein Martingal, dessen Zuwächse X n X n 1 durch ein k 1 IR beschränkt sind und sei V ein vorhersehbarer Prozess, der durch eine Konstante k 2 IR beschränkt ist. Ferner sei T eine Stoppzeit mit ET <. Dann ist EV X) T = 0. Unter den Voraussetzungen aus Satz 1.11 kann man also den Gesamtgewinn eines Spiels durch ändern des Spielsystems nicht verbessern. Wir werden später noch eine Verallgemeinerung diese Satzes kennenlernen. Beweis: Nach Satz 1.10 wissen wir, dass ) EV X) T n = EV X) 0 = 0 gilt. Außerdem ist T n T V X) T n = V k X k X k 1 ) k 2 X k X k 1 k 1 k 2 T. k=1 Da lim n V X) T n = V X) T, folgt mit dem Satz von der majorisierten Konvergenz, da ET < ist, dass lim n EV X) T n = EV X) T. Die Behauptung ergibt sich nun mit ). k=1 Bemerkung 1.12 Satz 1.11 mit V = 1 wird auch als Optional Stopping Theorem bezeichnet. Siehe auch den folgenden Satz 1.15.

12 8 Kapitel 1: Martingale Beispiel 1.13 Die ABRACADABRA-Aufgabe) Jede Sekunde tippe ein Affe einen von 26 möglichen Buchstaben. Wie lange braucht der Affe im Mittel bis er das Wort ABRACADABRA getippt hat? Sei T die Zeit in Sekunden), die der Affe benötigt. Wir werden sehen, dass ET = gilt. Für den Beweis werden wir das Optional Stopping Theorem nach D. Williams) verwenden. Dazu betrachten wir das Problem als ein faires Spiel: Zu den Zeitpunkten n IN setzt ein Spieler einen Euro darauf, dass der Affe als ersten Buchstaben ein A schreibt. Wenn er gewinnt, erhält er 26 Euro und setzt diese im zweiten Spiel darauf, dass der Affe B tippt. Gewinnt er, so bekommt er 26 2 Euro ausgezahlt, usw. Verliert der Spieler, so ist das Spiel für ihn beendet. Das Spiel ist insgesamt beendet, wenn erstmals das Wort ABRACADABRA erscheint. Wir kommen nun zum zugehörenden Formalismus: Für n IN sei 1l {i-ter Buchstabe vom n-ten Spieler richtig getippt}, falls i 11 Y n,i := 1/26, falls i 12 Wir nehmen an, dass die Y n,i unabhängig sind mit P Y n,i = 1) = 1 26 für i 11. Der Gewinn des n-ten Spielers nach l Buchstaben ist gegeben durch l 26 l, falls die ersten l Buchstaben richtig sind Z n,l := 26Y n,i ) = 0, falls einer der ersten l Buchstaben falsch ist i=1 Nach Beispiel ist Z n,l in l ein Martingal bezüglich σy n,1,..., Y n,l ). Sei W n die Auszahlung nach der n-ten Spielrunde. Dann ist W n = n 1 l=0 Z n l,l+1. Die Folge W n n) n IN ist bezüglich F n := σy k,i : k + i n + 1) ein Martingal. Sei T := min{n IN : W n } der erste Zeitpunkt, zu dem das Wort ABRACADABRA erscheint. Wie man sich leicht überlegt, ist Z T,1 = 26, Z T 3,4 = 26 4 und Z T 10,11 = Alle anderen Z T i,i+1 sind identisch null. Es ergibt sich W T = Darüber hinaus folgt mit dem Optional Stopping Theorem EW T T ) = 0. Damit gilt ET = EW T = Das Optional Sampling Theorem Wir wollen nun die recht starken Voraussetzungen von Satz 1.11 abschwächen. Es ist klar, dass man für die Gültigkeit von EX T = EX 0 fordern muss, dass E X T < ist. Allerdings ist diese Bedingung nicht ausreichend, wie das Beispiel der symmetrischen Irrfahrt zeigt. Der folgende, zentrale Satz gibt uns eine zweite Bedingung, die zusammen mit E X T < hinreichend ist. Satz 1.14 Optional Sampling Theorem) Sei T i ) i IN eine Folge von Stoppzeiten mit 1 T 1 T 2 T 3... Sei X n, F n ; n IN) ein Submartingal. Es gelte: 1) E X Tk < für alle k IN.

13 1.6. Das Optional Sampling Theorem 9 2) lim inf N {T k >N} X+ N dp = 0 für alle k IN. Dann ist X Tk, F Tk ; k IN) ein Submartingal. Dabei definieren wir für eine Stoppzeit T die σ-algebra F T = {A F : A {T = k} F k für k IN}. Ist X n, F n ; n 1) ein Martingal und gilt anstelle von 2) die Bedingung 2 ) lim inf N {T k >N} X n dp = 0 so ist X Tk, F Tk ; k 1) ein Martingal. Der Beweis ergibt sich mit folgenem Satz Die Aussage über das Martingal folgt, wenn man beachtet, dass jedes Martingal Sub- und Supermartingal ist und das Negative eines Supermartingals ein Submartingal ist. Satz 1.15 Sei X n, F n ; n 1) ein Submartingal und seien S und T endliche Stoppzeiten mit E X S < und E X T <. Gilt lim inf X + N N dp = 0, {T >N} so gilt EX T F S ) X S auf {T S} P -fast sicher. Insbesondere für S 1 gilt EX 1 EX T. Beweis: Wir zeigen, dass für jedes A F S gilt EX T 1l A {T S} EX S 1l A {T S}. Wir benutzen folgende Schreibweise: IA, T S) := 1l A {T S}. Es reicht für jedes n 1 zu zeigen: oder mit B := A {S = n} ausgedrückt, EX T IA, T S, S = n) EX S IA, T S, S = n) EX T IB, T n) EX n IB, T n). Dies folgert man so. Sei N n. Durch Iteration erhält man EX n IB, T n) = EX n IB, T = n) + EX n IB, T > n) EX n IB, T = n) + EEX n+1 F n )IB, T > n)) = EX n IB, T = n) + EX n+1 IB, T n + 1) = EX T IB, n T n + 1) + EX n+1 IB, T > n + 1) EX T IB, n T n + 1) + EX n+2 IB, T n + 2). EX T IB, n T N) + EX N IB, T > N)

14 10 Kapitel 1: Martingale Da E X T < ist folgt dass lim EX T IB, n T N) existiert wegen majorisierter N Konvergenz). Folglich erhält man EX T IB, T n) = lim N EX T IB, n T N) lim nib, T n) EX N IB, T > N)] N = EX n IB, T n) lim N EX N IB, T > N)) EX n IB, T n) lim EX N + IB, T > N) N = EX n IB, T n). Bemerkung 1.16 Im Beispiel der symmetrischen Irrfahrt Seite 7) ist Voraussetzung 2 ) aus Satz 1.14 verletzt. Beweis: Mit den Bezeichnungen aus dem Beispiel der symmetrischen Irrfahrt auf Seite 7 folgt: S n ) n IN ist ein Martingal, also ist S n ) n IN ein Submartingal siehe Beispiel 1.7 1)). Sei A N 1 := { S 1 = 1, S 2 0,..., S N 1 0 }. Dann ist A N 1 ein Element von F N 1 und es gilt A N 1 { T > N }. Damit erhalten wir: S N dp S N dp S N 1 dp { T >N } A N 1 A N 1 S N 1 dp S N 2 dp A N 2 A N 2 S 1 dp = P S 1 = 1) { S 1 = 1 } = 1 2. Somit ist lim inf N { T >N } S N dp 1/ Einige Anwendungen des Optional Sampling Theorems Beispiel 1.17 Ruin-Problem) Sei X i ) i IN eine Folge unabhängiger, identisch verteilter Zufallsvariablen mit P X i = 1) = p = 1 P X i = 1). Sei S n := S 0 + n i=1 X i, S 0 := k für ein 0 < k < N, F 0 := { Ø, Ω } und F n := σx 1,..., X n ). Darüberhinaus bezeichnen wir mit T die Stoppzeit T := min{ n 1 : S n {0, N} }. p k sei durch p k := P S T = 0) definiert p k ist dann die Wahrscheinlichkeit, sich bei dem durch X i ) i IN definierten Spiel zu ruinieren, wenn man das Kapital k einsetzt). ) Wir wollen p k berechnen. Sei q := 1 p. Durch Y n := q Sn p wird ein Martingal definiert, denn es gilt:

15 1.7. Einige Anwendungen des Optional Sampling Theorems 11 q ) ) Sn+Xn+1 ) q Sn q Xn+1 EY n+1 F n ) = E Fn = E p p p) ) q Sn q ) 1 ) q q Sn = q + p = p p p) p) = Y n. ) Damit erhalten wir EY n = EY 0 = q k p und EYT = EY 0 Optional Stopping Theorem). Wegen ) q N q N EY T = P S T = 0) + P S T = N) = p k + 1 p k ) p p) folgt ) q k p q N p) p k = 1 q p ) N für p q. Beispiel 1.18 Waldsche Identität) Sei ξ n ) n IN eine Folge unabhängiger, identisch verteilter Zufallsvariablen mit E ξ 1 <. Seien F n := σξ 1,..., ξ n ), T eine Stoppzeit bezüglich F n ) n IN mit ET < und S T := Ti=1 ξ i zufällig gestoppte Summe). Man kann sich vorstellen, dass ξ n ) n IN eine Folge von Schadensfällen z.b. Unwetterschäden) beschreibt, wobei ξ n die Höhe des n-ten Schadens angibt und dass T die Anzahl dieser Schadensfälle innerhalb eines Jahres) ist. Dann ist ES T der mittlere Gesamtschaden. Es gilt ES T = Eξ 1 ET. Beweis: Wir wollen Satz 1.14 anwenden. Dazu definieren wir uns X n := S n neξ 1 als ein geeignetes Martingal. Dann ist E X n < für alle n IN. Es genügt somit, die Voraussetzungen 1) und 2) aus Satz 1.14 für T nachzuprüfen. Zu 1): Y n := n i=1 ξ i ne ξ 1 definiert ein Martingal. Also folgt mit Satz 1.10, dass EY T n = 0 und damit E T n i=1 ξ i = ET n)e ξ 1 gilt. Es ist und deshalb folgt: T n T n T E ξ i = E ξ i 1l { T n } + E ξ i 1l { T >n } E ξ i 1l { T n } i=1 i=1 i=1 i=1 T ET E ξ 1 ET n)e ξ 1 E ξ i 1l { T n } i=1 T E ξ i für n Satz von der monotonen Konvergenz). i=1

16 12 Kapitel 1: Martingale Damit ist T T E X T = E S T T Eξ 1 E ξ i + ET E ξ 1 E ξ i + ET E ξ 1 i=1 i=1 2ET E ξ 1 <. Also folgt 1). Zu 2): Auf {T > N} gilt N N T X N = ξ i N Eξ 1 ξ i + N E ξ 1 ξ i + T E ξ 1 i=1 i=1 i=1 Daraus folgt T ) X N dp ξ i + T E ξ 1 dp 0 für N, {T >N} {T >N} i=1 da nach 1) gilt Somit ist auch 2) gezeigt. T E ξ i + ET E ξ 1 <. i=1 Wir erhalten nun mit Hilfe von Satz 1.15, dass EX T = EX 1 = 0 ist und damit ES T ET Eξ 1 = 0. Beispiel 1.19 Die Stoppverteilung der Irrfahrt) Die Folge von Zufallsvariablen X i ) i IN und die σ-algebren F n seien wie in Beispiel 1.17 definiert. Sei S n := n i=1 X i und T b := min{n IN : S n b} für b IN. Wir setzen q := 1 p. Dann gilt für alle p 0, 1): Es T b 1 {Tb < } = ) b 1 1 4pqs 2 für s 0, 1]. 2qs Beweis: Sei zunächst p q. Dann ist T b < fast sicher. Für z > 0 ist {z S n /ϕz) n, F n ; n N} nach Beispiel ein Martingal, wobei ϕz) = Ez X 1 = pz + qz 1 ist. Wir werden zeigen, dass das Martingal und die Stoppzeit T b die zweite Voraussetzung von Satz 1.15 erfüllen die erste gilt offensichtlich für p q). Dazu seien s 0, 1) und z so gewählt, dass ϕz) = s 1 ist. Beachte für z > max1, q p ) ist φz) > 1 für alle 0 < p < 1.) Dann gilt ) z S n +) E ϕz) n 1 {T b >n} z b s n P T b > n) z b s n. Da s 0, 1) ist, konvergiert die rechte Seite für n gegen 0. Damit sind alle Voraussetzungen des Optional Sampling Theorems erfüllt und folglich gilt 1 = E zs T b ϕz) T b = zb Es T b,

17 1.7. Einige Anwendungen des Optional Sampling Theorems 13 d.h. Es T b = z b ). Nun gilt s 1 = ϕz) = pz + qz 1. Mit w = z 1 ergibt sich daraus 1 = spw 1 + sqw oder äquivalent w = sp + sqw 2. Die einzig sinnvolle Lösung ist ) 1 1 4pqs z 1 2 = w =. 2qs Setzt man dies in ) ein, so folgt die Behauptung. Übrigens gilt auch z = pqs 2 2ps ). Schließlich ergibt sich lim s 1 d ds EsT b = ET b = b p q für p > q. Dies ist auch direkt aus der Waldschen Identität Beispiel 1.18) herleitbar, ebenso wie VarT b ) = σ2 b p q) 3 mit σ 2 = 1 p q) 2. Im Fall von p < q ist T b = mit positiver Wahrscheinlichkeit, so dass Satz 1.15 nicht anwendbar ist. Nach Satz 1.10 hat man aber mit X n = z Sn /ϕz) n 1 = EX 1 = EX Tb n = z b Es T b 1 {Tb n} + s n Ez S n 1 {Tb >n}. Wegen +) konvergiert der zweite Term gegen null. Durch den Übergang n erhält man E s T b 1 {Tb < } = z b. Damit folgt die gewünschte Aussage auch in diesem Fall. Für s = 1 erhält man mit 1 4pq = 2q 1) 2, so dass P T b < ) = p q ) b gilt. Als eine weitere Anwendung des Optional Sampling Theorems zeigen wir eine Kolmogorov- Ungleichung. Satz 1.20 Maximalungleichung) Sei X n, F n ) 1 n k ein Submartingal. Dann gilt für jedes b > 0, P max 1 n k X n > b) EX+ k b. Beweis: Setze min{ j k : X j > b } T 1 := k, falls { j k : X j > b } = Ø

18 14 Kapitel 1: Martingale und T 2 := k. Da T 1 und T 2 beschränkt sind, sind die Voraussetzungen aus Satz 1.15 trivialerweise erfüllt. Wegen { X T1 > b } F T1 und der Submartingaleigenschaft der Folge X n, F n ) 1 n k erhalten wir P max X n > b) = P {X T1 > b}) 1 X T1 dp 1 1 n k b {X T1 >b} b = 1 X k dp 1 X k + b {X T1 >b} b dp {X T1 >b} X T2 dp = 1 b EX+ k. Beispiel 1.21 Ein sequentieller Alarmplan) Das im Folgenden beschriebene Verfahren ist eine idealisierte Version eines sequentiellen Versuchsplanes, um Nebenwirkungen bei medizinischen oder pharmazeutischen Behandlungen zu entdecken. Gegeben seien unabhängige identisch verteilte Zufallsvariablen X n ) n IN mit unbekannter Dichte f bezüglich eines Maßes µ. Für die Wahl von f seien die beiden Alternativen p und q möglich. Ziel ist es, ein Verfahren anzugeben, das aufgrund der Beobachtungen X n ) n IN signalisiert, dass f = q eingetreten ist. Dazu nehmen wir zunächst an, dass f = p vorliegt. Falls der Dichtequotient Y n = qx 1) qx n ) px 1 ) px n ) aber zu groß wird, entscheiden wir f = q. Formal heißt dies, für a > 0 sei min{n 1 : Y n > a} T a :=, falls {n 1 : Y n > a} = Ø Falls T a < ist, schließt man auf f = q. Die Stoppzeit T a ist ein sogenanntes sequentielles Entscheidungsverfahren. Diese haben die besondere Eigenschaft, dass die Zahl der für eine Entscheidung notwendigen Beobachtungen nicht vorab festgelegt ist. Ob das Verfahren beendet wird oder nicht, wird zu jedem Zeitpunkt aufgrund der bis dahin gewonnenen Daten erneut entschieden. Wir werden nun sehen, dass sich durch die Wahl von a die Wahrscheinlichkeit falschen Alarms, d.h. die Wahrscheinlichkeit sich für f = q zu entscheiden, obwohl f = p vorliegt, beschränken lässt. Dazu sei P := pµ und F n := σx 1,..., X n ). Nach Beispiel ist Y n ) n IN bezüglich der Filtrierung F n ) n IN ein Martingal unter dem Maß P. Deshalb folgt mit Satz 1.20 für alle N IN P T a N) = P max Y n > a) E Y N = EY N = 1 1 n N a a a. Damit gilt für die Wahrscheinlichkeit eines falschen Alarms P T a < ) = lim N P T a N) 1 a.

19 Kapitel 2 Martingalkonvergenzsätze 2.1 Die Upcrossing Ungleichung Nehmen wir an, dass wir die Werteentwicklung einer Aktie zu den Zeitpunkten n IN verfolgen und dass wir die Aktie kaufen wollen, sobald sie einen bestimmten Wert r unterschreitet und sie wieder verkaufen, wenn ein Wert s mit s > r überschritten wird. Dann wird unser Gewinn zum Zeitpunkt n größer sein als s r multipliziert mit der Anzahl der Überschreitungen der Grenzen r und s jeweils beginnend mit r und endend mit s). Wir fassen diese Betrachtungen in einen formalen Rahmen: Sei X n ) n IN eine Folge reeller Zufallsvariablen und [r, s] ein reelles Intervall. Dann definieren wir die Stoppzeiten T 1 und T 2 durch T 1 := inf{i > 0 : X i r} und T 2 := inf{i > T 1 : X i s} und nennen das Intervall T 1, T 2 ] ein Upcrossing. Für k 2 definieren wir dann induktiv T 2k 1 := inf{i > T 2k 2 : X i r}, T 2k := inf{i > T 2k 1 : X i s} sowie T k :=, falls eine der Mengen leer ist, sodass 0 falls T 2 > n β n r, s) := max{m IN : T 2m n} sonst gerade die Anzahl der Upcrossings von [r, s] durch die Folge X 1,..., X n ist. Ferner ist βr, s) := lim n β n r, s) die Anzahl der Upcrossings von [r, s] durch die Folge X n ) n IN. Ersetzen wir die Folge von Zufallsvariablen X n ) n IN durch eine Folge a n ) n IN reeller Zahlen, so gilt: Lemma 2.1 Ist βr, s) < für alle r, s Q mit r < s, so existiert lim n a n, wobei + und als Limiten zugelassen sind. Beweis: Sei a := lim inf n a n und a := lim sup n a n. Wir nehmen an, dass a < a. Dann existieren r, s Q mit a < r < s < a. Aus den Eigenschaften von lim inf und lim sup folgt, dass a n r für unendlich viele n und a m s für unendlich viele m gilt. Damit existieren unendlich viele Upcrossings von [r, s] durch a n ) n IN. Deshalb ist βr, s) =, was aber im Widerspruch zur vorausgesetzten Endlichkeit steht. Also ist a = a. 15

20 16 Kapitel 2: Martingalkonvergenzsätze Satz 2.2 Upcrossing Ungleichung) Sei X = X i, F i ) 1 i n ein Submartingal. Dann gilt Eβ n r, s) EX n r) + s r 1 s r EX+ n + r ). Beweis: Die Anzahl der Upcrossings von [r, s] durch X i ) 1 i n ist gleich der Anzahl der Upcrossings von [0, s r] durch das Submartingal X i r) + 1 i n für die Submartingaleigenschaft siehe Beispiel 1.7 3)). Wir können deshalb ohne Einschränkung annehmen, dass r = 0 und X i 0 ist für alle i {1,..., n}. Sei X 0 := 0, F 0 := {Ø, Ω} und 1 : m 2IN : T m < i T m+1 ϕ i := 0 : m 2IN : T m < i T m+1 d.h., ϕ i ist genau dann 1, wenn der Index i in einem Upcrossing-Zyklus liegt. Also gilt s β n 0, s) n i=1 ϕ i X i X i 1 ). Wegen {ϕ i = 1} = {T m < i} \ {T m+1 < i}) F i 1 gilt m 2IN 0 +1 n n seβ n 0, s) E ϕ i X i X i 1 ) = X i X i 1 ) dp i=1 i=1 {ϕ i =1} n = EX i F i 1 ) X i 1 ) dp da {ϕ i = 1} F i 1 ) i=1 {ϕ i =1} n EX i F i 1 ) X i 1 ) dp Submartingaleigenschaft) i=1 n = X i X i 1 ) dp = EX n EX 0 i=1 = EX n EX n +. Die zweite Ungleichung des Satzes ist offensichtlich. 2.2 Konvergenzsätze Bisher konnten wir nur unter der Annahme der stochastischen Unabhängigkeit einer Folge von Zufallsvariablen Aussagen über fast sichere Konvergenz machen starkes Gesetz der großen Zahlen). Nun werden wir sehen, dass man auf Unabhängigkeit verzichten kann, wenn man stattdessen die Submartingaleigenschaft annimmt. Satz 2.3 Konvergenzsatz von Doob) Sei X n, F n ) n IN ein Submartingal mit sup n IN EX n + <. Dann existiert X := lim X n fast sicher. Falls EX n0 > für ein n n 0 IN, so ist X integrierbar.

21 2.2. Konvergenzsätze 17 Beweis: Ziel ist es, in geeigneter Weise die Upcrossing Ungleichung anzuwenden, wobei wir wie im Beweis zu Lemma 2.1 vorgehen werden. Sei X := lim sup n X n und X := lim inf n X n. Wir nehmen an, dass P X < X ) > 0 ist und führen diese Aussage zu einem Widerspruch. Seien r, s Q mit r < s und Br, s) := {X < r < s < X }. Dann ist {X < X } = r,s Q Br, s). Wegen P X < X ) > 0 existieren somit r, s Q mit r < s und P Br, s)) > 0. Mit Lemma 2.1 folgt, dass lim n β n r, s) = auf Br, s) gilt. Damit ist lim n Eβ n r, s) lim n Eβ n r, s)1l Br,s) ) =. Andererseits folgt mit Satz 2.2, dass EX n r) + sup Eβ n r, s) sup n IN n IN s r <. Das ist aber ein Widerspruch zu lim n Eβ n r, s) =. Somit existiert X fast sicher. Beweisen wir nun die zweite Aussage des Satzes: Sei n 0 IN mit EX n0 >. Aus der Submartingaleigenschaft folgt EX n0 EX n für alle n n 0. Damit folgt: E X = E lim n X n lim inf n E X n Lemma von Fatou) sup n n 0 E X n = sup n n 0 2EX + n EX n ) 2 sup n n 0 EX + n EX n0 <. Korollar 2.4 Sei X n, F n ) n IN ein nichtnegatives Supermartingal. Dann existiert lim n X n fast sicher. Ist lim n EX n = 0, so gilt lim n X n = 0 fast sicher. Beweis: X n, F n ) n IN ist ein Submartingal mit sup n n0 E X + n ) <. Mit Satz 2.3 folgt die fast sichere Existenz von X := lim n X n. Sei nun lim n EX n = 0. Dann gilt wegen dem Lemma von Fatou 0 EX = E lim n X n lim inf n EX n = lim n EX n = 0. Also ist EX = 0 und somit X fast sicher null. Beispiel 2.5 Ein Submartingal, das fast sicher aber nicht in L 1 konvergiert.) Sei Ω, F, P ) := [0, 1], B [0, 1], λ [0,1] ), X 1 1, 2 n 1 : 0 ω 1 X n ω) := 2 n 1 0 : sonst F 1 := {Ø, Ω} und F n := σx 1,..., X n ). Dann ist X n, F n ) n IN ein Submartingal. Beweis: Sei n IN. Es ist zu zeigen, dass A X n+1 dp A X n dp für alle A F n. Man beachte: Das einzige Intervall in F n auf dem X n+1, X n 0 gilt, ist [0, 1 2 n 1 ]. Es gilt: 1 2 n 1 0 X n+1 dp = 1 2 n 0 2 n dp = 1 = 1 2 n 1 0 X n dp.

22 18 Kapitel 2: Martingalkonvergenzsätze Also ist X n, F n ) n IN sogar ein Martingal mit EX n + = EX n = 1 für alle n IN. Damit ist sup n IN EX n + = 1 und mit Satz 2.3 folgt, dass lim n X n fast sicher existiert. Offensichtlich gilt X := lim n X n = 0 fast sicher, also EX = 0, weshalb die Folge X n ) n IN nicht in L 1 gegen X konvergieren kann. Beispiel 2.6 Ein sequentieller Alarmplan Fortsetzung von Beispiel 1.21)) Sei X n ) n IN eine Folge unabhängiger, identisch verteilter Zufallsvariablen, deren Bildverteilung die Dichte f bezüglich eines Wahrscheinlichkeitsmaßes µ besitzt. Es soll gelten, dass f = p oder f = q. Ziel ist es, zu entscheiden, ob p oder q vorliegt. Sei a IR +. Dann definieren wir Y n := qx 1) qx n) px 1 ) px n ) Sei F n := σx 1,..., X n ). Dann ist Y n, F n ) n IN ein Martingal unter P = pµ mit Erwartungswert 1. Nach dem Konvergenzsatz von Doob existiert Y := lim n Y n fast sicher und es gilt Y = 0. Beweis: Es gilt 1 lim n n log Y 1 n = lim n n n i=1 log qx i) px i ) = E P log qx 1) px 1 ) < 0, denn nach der Jensenschen Ungleichung gilt E P log qx 1) px 1 ) < log E P qx 1) px 1 ) = 0. Also ist lim log Y n = n fast sicher und damit lim n Y n = 0 fast sicher. Beispiel 2.7 Das Blackwellsche Vorhersageverfahren) Wir betrachten Vorhersageverfahren für eine unendliche 0 1 Folge x 1, x 2,... Sei y n+1 eine Vorhersage für x n+1, wenn x 1,..., x n bereits bekannt sind. Seien x n = 1 n ni=1 x i die relative Häufigkeit der Einsen in der Folge x 1,..., x n, γ i = 1l {yi =x i } und γ n = 1 n ni=1 γ i die relative Häufigkeit für richtige Vorhersagen bis n. Sei µ n = x n, γ n ) [0, 1] 2 und S = {x, y) [0, 1] 2 y maxx, 1 x)}. γ n S L R µ n U w n x n Der Blackwell-Algorithmus funktioniert wie folgt: y n+1 wird mit Hilfe von µ n gewählt gemäß 0 falls µ n L y n+1 = 1 falls µ n R. 1 mit Wahrscheinlichkeit w n, falls µ n U

23 2.3. Gleichgradige Integrierbarkeit 19 Wenn µ n im Inneren von S liegt, kann y n+1 beliebig gewählt werden. Sei außerdem y 1 = 1. Dann gilt für den Blackwell-Algorithmus: Für jede unendliche 0 1 Folge gilt dµ n, S) 0 für n fast sicher. Dabei bedeutet dµ n, S) den euklidischen Abstand von µ n zu S. Beweisskizze: Sei d n = dµ n, S). Für µ n L oder R gilt d n+1 = n n+1 d n. Für µ n U hat man ) ) n 2 ) E d 2 n+1 Vergangenheitn) d 2 1 n + n + 1 2n + 1) 2. Für die Details zu ) siehe die Arbeit von Lerche-Sarkar 1994): The Blackwell prediction algorithm for infinite 0 1 sequences and a generalization. Aus ) kann man nun Ed 2 n 1 2n folgern. Nun ist aber d 2 n + j>n 1, n 1) ein Supermartingal dessen Erwartungswert gegen 2j 2 0 konvergiert, so dass mit Hilfe von Korollar 2.4 d 2 n 0 für n fast sicher folgt. 2.3 Gleichgradige Integrierbarkeit In Beispiel 2.5 haben wir gesehen, das ein Submartingal, das fast sicher konvergiert, im Allgemeinen nicht in L 1 konvergiert. Ziel dieses Abschnitts ist es, eine Bedingung anzugeben, die sowohl fast sichere als auch L 1 -Konvergenz impliziert. Ein Beispiel für eine solche Bedingung liefert der Satz von der majorisierten Konvergenz: Ist X n ) n IN eine fast sicher konvergente Folge von Zufallsvariablen, die eine integrierbare Majorante besitzt, so konvergiert sie in L 1. Wir wollen die Voraussetzung der Majorisierbarkeit abschwächen. Lemma 2.8 Sei X eine integrierbare Zufallsvariable. Dann existiert zu jedem ε > 0 ein δ > 0, sodass für alle F F mit P F ) < δ gilt: F X dp < ε. Beweis: Wir nehmen an, dass die Aussage falsch ist. Dann existiert ein ε 0 > 0, sodass es zu jedem δ > 0 ein F F gibt mit P F ) < δ und F X dp ε 0. Wir können also zu n IN Elemente δ n und F n so wählen, dass n IN δ n <, P F n ) < δ n und F n X dp ε 0 gilt. Dann folgt mit dem Lemma von Borel-Cantelli, dass P H) = 0 mit H := lim sup n F n. Nach dem Lemma von Fatou gilt X dp lim sup X dp ε 0. H n F n Andererseits ist aber H X dp = 0 wegen P H) = 0 und der Integrierbarkeit von X. Damit haben wir einen Widerspruch erhalten. Korollar 2.9 Ist ε > 0 und X eine integrierbare Zufallsvariable, so existiert ein k IR + mit X dp < ε. { X >k} Beweis: Zu ε > 0 sei δ > 0 wie in Lemma 2.8 gewählt. Außerdem wählt man k so groß, dass < δ ist. Dann folgt mit der Markov-Ungleichung E X k P X > k) E X k < δ.

24 20 Kapitel 2: Martingalkonvergenzsätze Nach Wahl von δ ist somit { X >k} X dp < ε. Wir definieren nun den entscheidenden Begriff. Definition 2.10 Eine Klasse C von Zufallsvariablen heißt gleichgradig integrierbar, falls zu jedem ε > 0 ein k ε existiert, sodass { X >k ε } X dp < ε für alle X C gilt. Bemerkung ) Nach Korollar 2.9 sind einelementige Klassen von integrierbaren Zufallsvariablen gleichgradig integrierbar. 2) Ist C gleichgradig integrierbar, so gilt sup X C E X <. Beweis: Für alle X C gilt E X = E X 1l { X >k1 } + E X 1l { X k1 } 1 + k 1. Satz 2.12 Sei C eine Klasse von Zufallsvariablen, für die eine integrierbare Majorante existiert d.h., es existiert eine integrierbare Zufallsvariable Y mit X Y für alle X C). Dann ist C gleichgradig integrierbar. Beweis: Wir müssen zeigen, dass lim c sup X C { X >c} X dp = 0. Nach Voraussetzung ist sup X C X integrierbar. Darüberhinaus gilt für alle X C: { Y >c} Y dp { sup X >c} X C Y dp { sup X >c} X C sup X dp X C { X >c} X dp. Deshalb folgt sup X C { X >c} X dp {sup X C X >c} sup X C X dp. Wegen der Integrierbarkeit von sup X C X geht der rechte Ausdruck für c gegen null. Beispiel 2.13 Eine Klasse, die nicht gleichgradig integrierbar ist) Sei X n := n1l 1 [0, und P := λ n] [0,1]. Dann ist E X n = EX n = 1 für alle n IN und [ ]) E X n 1l { Xn >k} = np 0, 1 n = 1 für n > k. Lemma 2.14 Sei C eine Klasse von Zufallsvariablen. Dann ist C genau dann gleichgradig integrierbar, wenn 1) sup X C E X <. 2) Zu jedem ε > 0 existiert ein δ > 0 mit sup X C A X dp < ε für alle A F mit P A) < δ. Beweis: : Nach Bemerkung ) gilt 1). Es reicht also aus, 2) zu zeigen. Für jede Zufallsvariable X C, a > 0 und A F gilt: X dp = X dp + X dp ap A) + X dp. A A { X a} A { X >a} { X >a}

25 2.3. Gleichgradige Integrierbarkeit 21 Damit folgt: sup X dp ap A) + sup X dp. X C A X C { X >a} Ist a hinreichend groß, so wird der zweite Summand der rechten Seite wegen der gleichgradigen Integrierbarkeit kleiner als ε ε 2. Wählt man nun δ := 2a, so folgt für alle A mit P A) δ, dass gilt ε X dp a 2a + ε 2 = ε. : Nach der Markov-Ungleichung gilt für a > 0: A sup P X > a) 1 X C a sup E X. X C Man wählt deshalb a so groß, dass die rechte Seite kleiner oder gleich δ ist, denn dann folgt mit 2), dass { X >a} X dp < ε für alle X C. Satz 2.12 zeigt, dass der folgende Satz eine Verallgemeinerung des Satz von der majorisierten Konvergenz ist. Satz 2.15 Sei X n ) n IN eine Folge integrierbarer Zufallsvariablen. Dann existiert genau dann eine Zufallsvariable X, sodass X n ) n IN in L 1 gegen X konvergiert, wenn 1) X n ) n IN stochastisch gegen X konvergiert, 2) X n ) n IN gleichgradig integrierbar ist. Beweis: : Wir zeigen zuerst, dass X integrierbar ist. Wegen 1) existiert eine Teilfolge X nj ) j IN von X n ) n IN, die fast sicher gegen X konvergiert. Deshalb erhalten wir aus 2), Lemma 2.14 und dem Lemma von Fatou, dass E X lim inf j E X n j sup E X n <. n IN Als nächstes zeigen wir die L 1 -Konvergenz. Für ε > 0 gilt: X n X dp = X n X dp + ε + { X n X ε} { X n X >ε} { X n X >ε} X n X dp X n dp + X dp. { X n X >ε} Nach 1) gilt lim n P X n X > ε) = 0. Deshalb folgt aus Lemma 2.14, dass X n dp < ε { X n X >ε} für genügend große n. Nach Lemma 2.8 gilt auch { X n X >ε} X dp < ε für genügend große n. Also folgt die L 1 -Konvergenz. : 1) folgt mit Hilfe der Tschebycheffschen Ungleichung. Es reicht also aus, 2) zu zeigen. Dazu sei ein beliebiges ε > 0 vorgegeben. Zu diesem existiert ein n 0 IN, sodass E X n X < ε für alle n n 0. Damit gilt sup n IN E X n n 0 i=0 E X i +ε, wobei wir X 0 := X gesetzt haben.

26 22 Kapitel 2: Martingalkonvergenzsätze Um die gleichgradige Integrierbarkeit zu zeigen beachten wir: Für A F sei µ n A) := A X n dp. Dann ist µ n ein Maß, dass absolut stetig bezüglich P ist. Mit der ε-δ-formulierung der Dominiertheit folgt, dass ein δ n > 0 existiert, sodass für A F mit P A) < δ n gilt, dass µ n A) < ε ist. Wir setzen δ := min{δ n : n n 0 }. Für n n 0 gilt nach Definition von δ, dass A X n dp ε. Für A F mit P A) < δ und n n 0 : X n dp X n X n0 dp + X n0 dp E X n X n0 + X n0 dp 3ε. A A A Damit folgt aus Lemma 2.14 die gleichgradige Integrierbarkeit der Folge X n ) n IN. Das nächste Lemma wird vor allem im Fall p = 2 häufig verwendet werden. Lemma 2.16 Sei C eine Klasse von Zufallsvariablen. Existiert ein p > 1, sodass E X p < A < für alle X C, so ist C gleichgradig integrierbar. Beweis: Ist 0 < k < y, so ist y < k 1 p y p für p > 1. Deshalb gilt für k > 0 und X C: X dp k 1 p X p dp 1 A. kp 1 { X >k} { X >k} A Wegen lim k 1 k p 1 A = 0 folgt die Behauptung. Der folgende Satz enthält die für unsere Zwecke wichtigste gleichgradig integrierbare Klasse von Zufallsvariablen. Satz 2.17 Sei X eine integrierbare Zufallsvariable. Dann ist die Klasse gleichgradig integrierbar. {EX G) : G F Unter σ-algebra} Beweis: Sei ε > 0. Nach Lemma 2.8 existiert ein δ > 0, sodass F X dp < ε für alle F F mit P F ) < δ. Sei Y G eine Version von EX G). Dann gilt Y G = EX G) E X G) fast sicher, also E Y G E X und deshalb sup G E Y G E X <. Sei nun k IN so groß, dass E X < δ. Dann folgt mit Hilfe der Tschebycheffschen-Ungleichung, dass 1 k kp Y G > k) E Y G E X < kδ. Damit erhalten wir P Y G > k) < δ, wobei die Ungleichung nicht von der Wahl von G abhängt. Wegen { Y G > k} G folgt: E Y G 1l { YG >k}) = E EX G) 1l { YG >k}) EE X 1l { YG >k} G) = E X 1l { YG >k}) < ε. Also gilt sup G E Y G 1l { YG >k}) < ε.

27 2.3. Gleichgradige Integrierbarkeit 23 Wir werden jetzt den Doobschen Konvergenzsatz Satz 2.3) mit der gleichgradigen Integrierbarkeit kombinieren und charakterisieren so Martingale und Submartingale), die sowohl fast sicher als auch in L 1 konvergieren. Wir werden sehen, dass das Martingal in diesem Fall schon fast sicher) eindeutig durch das Limeselement festgelegt ist, mit der Konsequenz, dass der Raum der gleichgradig integrierbaren Martingale mit demjenigen der integrierbaren Zufallsvariablen identifizierbar ist, wodurch man auf dem Raum der gleichgradig integrierbaren Martingale eine Banachraum-Struktur erhält. Außerdem werden wir aus den folgenden Sätzen schon bekannte folgern können, wie z.b. das 0-1 Gesetz von Kolmogorov, das starke Gesetz der großen Zahlen oder den Satz von Radon-Nikodym. Aus dem folgenden Konvergenzsatz lässt sich das starke Gesetz der großen Zahlen Satz 1.1) folgern. Satz 2.18 Sei X n, F n ) n 0 ein Martingal und sei F := n 0 F n. Dann existiert X := lim n X n fast sicher und in L 1. Außerdem ist X n, F n ) n 0 ein Martingal. Beweis: Mit Beispiel 1.7 1) folgt, dass X n, F n ) n 0 ein Submartingal ist. Damit folgt E X n E X 0 < für alle n 0. Also gilt sup n 0 E X n E X 0. Die fast sichere Konvergenz zeigt man nun wie im Konvergenzsatz von Doob Satz 2.3) mit Hilfe der Upcrossing- Ungleichung Satz 2.2). Damit existiert X := lim n X n fast sicher. Als nächstes zeigen wir die L 1 -Konvergenz. Dazu werden wir mit Hilfe von Satz 2.17 folgern, dass die Folge X n ) n 0 gleichgradig integrierbar ist und anschließend Satz 2.15 anwenden. Wegen der Martingaleigenschaft gilt X n = EX 0 F n ) für alle n 0. Nach Satz 2.17 folgt, dass X n ) n 0 gleichgradig integrierbar ist. Es bleibt zu zeigen, dass X n, F n ) n 0 ein Martingal ist. Wegen der L 1 -Konvergenz ist X integrierbar. Wir werden zeigen, dass X n = EX 0, F n ) für alle n 0 gilt. Die Martingaleigenschaft folgt dann mit Beispiel Da wir schon wissen, dass X n = EX 0 F n ) für alle < n 0, reicht es aus zu zeigen, dass X = EX 0 F ). Offensichtlich ist X F -messbar. Wegen der L 1 -Konvergenz gilt für alle A F, dass lim n A X n dp = A X dp ist. Da F F n für alle n 0, folgt mit der Martingaleigenschaft für alle A F : A X n dp = A X 0 dp. Deshalb erhalten wir A X dp = lim X n dp = X 0 dp = EX 0 F ) dp. n A A A Es gilt also X = EX 0 F ). Korollar 2.19 Das starke Gesetz der großen Zahlen) Sei Y n ) n IN eine Folge unabhängiger, identisch verteilter Zufallsvariablen mit E Y 1 < und sei S n := n i=1 Y i. Dann S gilt lim n n n = EY 1 fast sicher. Beweis: Wir setzen X n := S n /n und F n := σs k : k n). Nach Beispiel ist dann X n, F n ) n 1 ein Martingal und es gilt EY 1 F n ) = S n /n. Also folgt mit Satz 2.18, dass X = lim n X n = lim n S n n

28 24 Kapitel 2: Martingalkonvergenzsätze fast sicher und in L 1 existiert und dass X n, F n ) n 1 ein Martingal ist. Damit erhalten wir EX = EX n = E S n n = EY 1. Nach dem 0-1 Gesetz von Kolmogorov gilt X = EX fast sicher X ist F -messbar; F ist aber gerade die σ-algebra der terminalen Ereignisse). Damit ist das Korollar bewiesen. Satz 2.20 Sei X n, F n ) n IN ein gleichgradig integrierbares Submartingal bzw. gleichgradig integrierbares Martingal). Dann existiert X := lim n X n fast sicher und in L 1. Darüberhinaus ist X n, F n ) 1 n, mit F := σ n IN F n), ein Submartingal bzw. Martingal). Beweis: Die Konvergenzen folgen mit Hilfe der Sätze 2.3 und Es ist also nur noch die Abschlusseigenschaft zu zeigen. Diese zeigen wir wie in Satz Offensichtlich ist X F -messbar. Außerdem gilt wegen der L 1 -Konvergenz für alle A F: lim n A X n dp = A X dp. Aus der Submartingaleigenschaft folgt für alle A F n und m < n, dass A X m dp A X n dp. Also ist die Konvergenz lim n A X n dp = A X dp isoton und wir erhalten A X n dp A X dp für alle A F n. Damit ist X n EX F n ) für alle n IN und deshalb ist X n, F n ) 1 n ein Submartingal. Im Falle eines Martingals ersetze man oben die Ungleichungen durch Gleichungen. Der folgende Martingalkonvergenzsatz von P. Levy ist eine Umkehrung von Satz Satz 2.21 Sei Y eine integrierbare Zufallsvariable und sei F n ) n IN eine Filtrierung. Außerdem sei X n := EY F n ) und F wie in Satz 2.20 definiert. Dann konvergiert die Folge X n ) n IN fast sicher und in L 1 gegen EY F ). Beweis: Beispiel und Satz 2.17 zeigen, dass X n, F n ) n IN ein gleichgradig integrierbares Martingal ist. Die Konvergenzen folgen dann mit Satz Nennen wir den Limes X, so bleibt zu zeigen, dass X = EY F ) ist. Nach Satz 2.20 gilt lim n A X n dp = A X dp für alle A F n. Wegen F n F für alle n IN und der Definition von X n folgt: X dp = lim X n dp = Y dp = EY F ) dp. n A A Also gilt A X dp = A EY F ) dp für alle A n IN F n. Mit dem Eindeutigkeitssatz für Maße erhalten wir dann die Gleichheit auf F und somit X = EY F ) da X F -messbar ist). A A Korollar Gesetz von Kolmogorov) Sei X n ) n IN eine Folge unabhängiger Zufallsvariablen und sei T := n IN T n, mit T n := σx k : k n), die σ-algebra der terminalen Ereignisse. Dann gilt für alle A T, dass P A) {0, 1}. Beweis: Sei F n := σx 1,..., X n ) und A T. Dann gilt wegen T F nach Satz l A = E1l A F ) = lim n E1l A F n ).

29 2.4. Weitere Beispiele zu den Martingalkonvergenzsätzen 25 Nun ist A ein terminales Ereignis und damit für jedes n IN unabhängig von F n. Es gilt deshalb E1l A F n ) = E1l A = P A) für alle n IN. Also folgt P A) = 1l A, was aber P A) {0, 1} impliziert. Korollar 2.23 Sei X n, F n ) n IN ein Martingal. Es gelte sup n IN E X n p < für ein p > 1. Dann existiert X := lim n X n fast sicher und in L 1 und schließt das Martingal ab. Beweis: Die Folge X n ) n IN ist nach Lemma 2.16 gleichgradig integrierbar. Deshalb folgen die Aussagen des Satzes aus Satz Weitere Beispiele zu den Martingalkonvergenzsätzen Der Satz von Radon-Nikodym Wir werden folgenden Spezialfall betrachten: Satz 2.24 Radon-Nikodym) Sei F eine abzählbar erzeugte σ-algebra und P sowie Q endliche Maße auf F, sodass Q absolut stetig bezüglich P ist. Dann existiert eine fast sicher eindeutig bestimmte nichtnegative Zufallsvariable X mit QA) = A X dp für alle A F. Zur Erinnerung sei bemerkt, dass eine σ-algebra abzählbar erzeugt heißt, wenn eine abzählbare Folge A n ) n IN von Teilmengen von Ω existiert, sodass F = σa n : n IN). Ein Beispiel hierfür ist die Borelsche σ-algebra auf IR n, denn sie wird von dem System {, q] : q Q n } erzeugt. Allgemeiner ist die Borelsche σ-algebra eines polnischen Raumes abzählbar erzeugt, denn Separabilität ist äquivalent zur Existenz einer abzählbar erzeugten Basis der Topologie des Grundraumes. Wir wenden uns nun dem Beweis des Satzes von Radon-Nikodym zu. Beweis: Die Beweisidee besteht darin, sich in geeigneter Weise ein gleichgradig integrierbares Martingal zu definieren, dessen Abschlusselement gerade eine Dichte von Q bezüglich P ist. Dabei verwenden wir, dass dq ) dp G = E dq dp G für jede Unter σ-algebra G von F gilt. Sei A n ) n IN ein abzählbares Erzeugendensystem für F. Wir setzen F n := σa 1,..., A n ), dann ist n IN F n eine Algebra. Sei F = σ n IN F n). Wir wollen F n noch etwas anders darstellen. Dazu sei {A n,k : k k n } diejenige Partition von Ω, die von {A 1,..., A n } erzeugt wird. Dann ist F n = { k J A n,k : J {1,..., k n }}. Damit können wir eine Abbildung X n : Ω [0, ) definieren durch QA n,k ) P A X n ω) := n,k ) : ω A n,k und P A n,k ) > 0 0 : ω A n,k und P A n,k ) = 0 Es gilt nun, dass das so definierte X n F n -messbar sowie P -integrierbar ist. Als erstes stellen wir fest, dass X n nur endlich viele Werte annimmt, da die Partition endlich ist. Deswegen ist X n messbar.

Vorlesungsskript: Martingale

Vorlesungsskript: Martingale Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

1 Bedingte Erwartungswerte

1 Bedingte Erwartungswerte Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

1 Konvergenz im p ten Mittel

1 Konvergenz im p ten Mittel Konvergenz im p ten Mittel 1 1 Konvergenz im p ten Mittel In diesem Paragraphen werden zunächst in Abschnitt 1.1 die L p Räume eingeführt. Diese erweisen sich als vollständige, lineare Räume über R. In

Mehr

8 Martingale und Stoppzeiten

8 Martingale und Stoppzeiten 8 Martingale und Stozeiten Definition Sei I eine beliebige Indexmenge und (Ω, A, P ) ein Wahrscheinlichkeitsraum. a) Eine Familie von Zufallsvariablen (X t ) t I auf (Ω, A, P ) heißt stochastischer Prozess

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015 Wahrscheinlichkeitstheorie 2 & 3 Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 3. Januar 215 Inhaltsverzeichnis. Bedingte Erwartungswerte 4 1. Martingale, Stoppzeiten und Filtrierungen 9 1.1.

Mehr

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457. Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Terminologie Stochastischer Prozesse

Terminologie Stochastischer Prozesse Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Schwache Konvergenz von Wahrscheinlichkeitsmaßen Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung Eigenschaften von stochastischen Ordnungen Kleine Generatoren

Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung Eigenschaften von stochastischen Ordnungen Kleine Generatoren Universität Hamburg Fachbereich Mathematik Schwerpunkt Mathematische Statistik und Stochastische Prozesse Bundesstr. 55 D-20146 Hamburg Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 24/25 Universität Karlsruhe 7. März 25 Priv-Doz. Dr. D. Kadelka Klausur zur Vorlesung Stochastik II Dauer: 9 Minuten Name: Vorname: Matrikelnummer: Diese Klausur

Mehr

Gesetz der großen Zahlen

Gesetz der großen Zahlen Gesetz der großen Zahlen Marie Reichstein Technische Universität Wien 19. Jänner 2012 Übersicht Geschichte Fragestellung schwaches Gesetz der großen Zahlen starkes Gesetz der großen Zahlen Null-Eins-Gesetze

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Stochastik WS 007/008 Universität Karlsruhe. 0. 008 r. B. Klar Klausur zur Vorlesung Stochastik II Muster-Lösung auer: 90 Minuten Name: Vorname: Matrikelnummer: iese Klausur hat bestanden,

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2). Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik II Wahrscheinlichkeitstheorie I Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 26. November 2002

Mehr

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 : 24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr

10 Kriterien für absolute Konvergenz von Reihen

10 Kriterien für absolute Konvergenz von Reihen 10 Kriterien für absolute Konvergenz von Reihen 10.1 Majoranten- und Minorantenkriterium 10.3 Wurzelkriterium 10.4 Quotientenkriterium 10.9 Riemannscher Umordnungssatz 10.10 Äquivalenzen zur absoluten

Mehr

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

ist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1

ist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1 24 14 Metrische Räume 14.1 R n als euklidischer Vektorraum Die Menge R n = {(x 1,..., x n ) x i R} versehen mit der Addition und der skalaren Multiplikation x + y = (x 1 + y 1,..., x n + y n ) λx = (λx

Mehr

Vollständigkeit. 1 Konstruktion der reellen Zahlen

Vollständigkeit. 1 Konstruktion der reellen Zahlen Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich

Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich Erwartungswert Naiv stellt man sich unter dem Erwartungswert einer Zufallsvariablen X Folgendes vor. Man führt das Experiment n-mal durch und bestimmt den Mittelwert (arithmetisches Mittel) der dabei für

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Satz 61 (Chebyshev-Ungleichung)

Satz 61 (Chebyshev-Ungleichung) Die folgende Abschätzung ist nach Pavnuty Lvovich Chebyshev (1821 1894) benannt, der ebenfalls an der Staatl. Universität in St. Petersburg wirkte. Satz 61 (Chebyshev-Ungleichung) Sei X eine Zufallsvariable,

Mehr

Charakteristische Funktionen

Charakteristische Funktionen Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die

Mehr

Strassen Type Theorems Proseminar Stochastik

Strassen Type Theorems Proseminar Stochastik Strassen Type Theorems Proseminar Stochastik Cecelie Hector Universität Hamburg Fachbereich Mathematik SoSe 2004 Vortrag am 25.06.04 Definition (a). Ein topologischer Raum E heißt polnisch, wenn es eine

Mehr

GESETZ VOM ITERIERTEN LOGARITHMUS

GESETZ VOM ITERIERTEN LOGARITHMUS KAPITEL 19 GESETZ VOM ITERIERTEN LOGARITHMUS Eines der Hauptanliegen der Wahrscheinlichkeitstheoretiker war seit jeher das Studium der Fluktuationen von geeignet normierten) Summen S n = X 1 + + X n, deren

Mehr

Zufallsvariable, Verteilung, Verteilungsfunktion

Zufallsvariable, Verteilung, Verteilungsfunktion Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.

Mehr

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion

Mehr

Analyis I -Metrische Räume - eine Einführung in die Topologie

Analyis I -Metrische Räume - eine Einführung in die Topologie Analyis I -Metrische Räume - eine Einführung in die Topologie E = E isolierter Punkte x 1 x 2 x 3 E ist abgeschlossen U ɛ (x) x innerer Punkt Ω Häufungspunkte Ω Metrik Metrische Räume Definition Sei X

Mehr

Cauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit

Cauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit Vortrag zum Seminar zur Analysis, 10.05.2010 Michael Engeländer, Jonathan Fell Dieser Vortrag stellt als erstes einige Sätze zu Cauchy-Folgen auf allgemeinen metrischen Räumen vor. Speziell wird auch das

Mehr

Analysis I. Guofang Wang Universität Freiburg

Analysis I. Guofang Wang Universität Freiburg Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum

Mehr

TU Darmstadt FB Mathematik, AG 9 WS 2004/2005 Jakob Creutzig (1 + ρ)

TU Darmstadt FB Mathematik, AG 9 WS 2004/2005 Jakob Creutzig (1 + ρ) TU Darmstadt FB Mathematik, AG 9 WS 2004/2005 Jakob Creutzig 9..04 Lösungsvorschläge zum 3. Aufgabenblatt der Vorlesung,,Einführung in die Finanzmathematik Gruppenübungen Aufgabe : Es sei Ω = {, +} n,

Mehr

Topologische Grundbegriffe I. 1 Offene und Abgeschlossene Mengen

Topologische Grundbegriffe I. 1 Offene und Abgeschlossene Mengen Topologische Grundbegriffe I Vortrag zum Proseminar Analysis, 26.04.2010 Nina Neidhardt und Simon Langer Im Folgenden soll gezeigt werden, dass topologische Konzepte, die uns schon für die Reellen Zahlen

Mehr

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20 Gleichmäßige Konvergenz für Folgen und Reihen von Funktionen 20.1 Folgen und Reihen von Funktionen 20.3 Die Supremumsnorm 20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20.7 Das Cauchy-Kriterium

Mehr

Extremalpunkte und der Satz von Krein-Milman. 1 Lokalkonvexe topologische Vektorräume

Extremalpunkte und der Satz von Krein-Milman. 1 Lokalkonvexe topologische Vektorräume Extremalpunkte und der Satz von Krein-Milman Seminar zu ausgewählten Kapiteln der Banachraumtheorie Vortrag von Michael Hoffmann 1 Lokalkonvexe topologische Vektorräume Im folgenden betrachten wir stets

Mehr

Definition Eine Metrik d auf der Menge X ist eine Abbildung d : X X IR

Definition Eine Metrik d auf der Menge X ist eine Abbildung d : X X IR 0 Inhaltsverzeichnis 1 Metrik 1 1.1 Definition einer Metrik............................. 1 1.2 Abstand eines Punktes von einer Menge................... 1 1.3 Einbettung eines metrischen Raumes in einen

Mehr

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

eine reelle oder komplexe Folge ist, kann man daraus eine neue Folge {s n } n=0 konstruieren durch s n = a 0 + a a n, a k.

eine reelle oder komplexe Folge ist, kann man daraus eine neue Folge {s n } n=0 konstruieren durch s n = a 0 + a a n, a k. Analysis, Woche 7 Reihen I 7. Folgen aus Folgen Wenn a n eine reelle oder komplexe Folge ist, kann man daraus eine neue Folge s n konstruieren durch s n = a 0 + a + + a n, oder netter geschrieben s n =

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

a 0, a 1, a 2, a 3,... Dabei stehen die drei Pünktchen für unendlich oft so weiter.

a 0, a 1, a 2, a 3,... Dabei stehen die drei Pünktchen für unendlich oft so weiter. 7 Folgen 30 7 Folgen Wir betrachten nun (unendliche) Folgen von Zahlen a 0, a, a 2, a 3,.... Dabei stehen die drei Pünktchen für unendlich oft so weiter. Bezeichnung Wir bezeichnen mit N die Menge der

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

Grundlagen der Wahrscheinlichkeitstheorie

Grundlagen der Wahrscheinlichkeitstheorie Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)

Mehr

Finanzmathematik I Lösungvorschläge für Übungsblatt 1

Finanzmathematik I Lösungvorschläge für Übungsblatt 1 Finanzmathematik I Lösungvorschläge für Übungsblatt 1 J. Widenmann ufgabe 1: Zu zeigen ist, dass Q die Definition Ü.1.1.2 erfüllt. Zunächst bemerken wir, dass Q wegen der nnahme f 0 Werte in R + annimmt.

Mehr

Übungen zur Vorlesung Finanzmathematik. Wintersemester 2014/15

Übungen zur Vorlesung Finanzmathematik. Wintersemester 2014/15 Übungen zur Vorlesung Finanzmathematik Wintersemester 2014/15 PD Dr. V. Paulsen Blatt 7 25.11.2014 Aufgabe 1: Ruinwahrscheinlichkeit beim Roulette Sei S n = n X i, n N 0 eine Irrfahrt in Z, die aus dem

Mehr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Asymptotische Stochastik (SS 2010)

Asymptotische Stochastik (SS 2010) Institut für Stochastik PD. Dr. Dieter Kadelka Daniel Gentner Asymptotische Stochastik (SS 2010) Lösungen zu Übungsblatt 4 Aufgabe 1 (lokaler Grenzwertsatz von de Moivre und Laplace und eine Verallgemeinerung)

Mehr

Aufgaben zu Kapitel 0

Aufgaben zu Kapitel 0 Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Markovsche Entscheidungsprozesse - Teil III Der erwartete Gesamtgewinn. Universität Siegen

Markovsche Entscheidungsprozesse - Teil III Der erwartete Gesamtgewinn. Universität Siegen Markovsche Entscheidungsprozesse - Teil III Der erwartete Gesamtgewinn Jan Müller Universität Siegen Sommersemester 2009 Inhaltsverzeichnis 1 Das Gesamtgewinn-Kriterium 1 1.1 Die Existenz des erwarteten

Mehr

1 Stochastische Prozesse in stetiger Zeit

1 Stochastische Prozesse in stetiger Zeit 1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN

8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN 8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN (vi) Konvergenz von Folgen ist in topologischen Räumen folgendermaßen definiert: Ist (a n ) M eine Folge, so heißt sie konvergent gegen a M, wenn es

Mehr

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm Brownsche Bewegung Satz von Donsker Bernd Barth Universität Ulm 31.05.2010 Page 2 Brownsche Bewegung 31.05.2010 Inhalt Einführung Straffheit Konvergenz Konstruktion einer zufälligen Funktion Brownsche

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge

Mehr

7 Der Satz von Girsanov

7 Der Satz von Girsanov 7 Der Satz von Girsanov Der Satz von Girsanov wird uns eine neue Perspektive auf die Rolle des Drifts liefern. Die Prozesse Brownsche Bewegung B t, Brownsche Bewegung mit Drift X t = B t + µt haben wir

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Höhere Mathematik I für die Fachrichtung Informatik. Lösungsvorschläge zum 4. Übungsblatt

Höhere Mathematik I für die Fachrichtung Informatik. Lösungsvorschläge zum 4. Übungsblatt KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heiko Hoffmann WS 0/4 Höhere Mathematik I für die Fachrichtung Informatik Lösungsvorschläge zum 4. Übungsblatt Aufgabe

Mehr

Dem Anschein nach werden diese Zahlen kleiner und kleiner und streben gegen Null. Was sollen sie sonst auch tun? Aber der Begriff

Dem Anschein nach werden diese Zahlen kleiner und kleiner und streben gegen Null. Was sollen sie sonst auch tun? Aber der Begriff 47 5 Irrationales 5.1 Folgen, Konvergenz und Vollständigkeit Eine Abbildung a : N R definiert eine Folge von reellen Werten a 1 = a(1), a 2 = a(2), a 3 = a(3),... Solche Zahlenfolgen werden uns dazu dienen,

Mehr

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische

Mehr

Kapitel V. Folgen und Konvergenz. V.1 Konvergenz von Zahlenfolgen

Kapitel V. Folgen und Konvergenz. V.1 Konvergenz von Zahlenfolgen Kapitel V Folgen und Konvergenz V.1 Konvergenz von Zahlenfolgen Wir erinnern an den Begriff der Folge, den wir schon im Kapitel III verwenden. Eine Folge (a n ) n=1 AN in A ist eine Abbildung a ( ) : N

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 29 UNIVERSITÄT KARLSRUHE Blatt 6 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 27: Sei X eine R + -wertige

Mehr

Das Lebesgue-Maß im R p

Das Lebesgue-Maß im R p Das Lebesgue-Maß im R p Wir werden nun im R p ein metrisches äußeres Maß definieren, welches schließlich zum Lebesgue-Maß führen wird. Als erstes definieren wir das Volumen von Intervallen des R p. Seien

Mehr

Mathematische Ökonometrie

Mathematische Ökonometrie Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch

Mehr

67 Zufallsvariable, Erwartungswert, Varianz

67 Zufallsvariable, Erwartungswert, Varianz 67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In

Mehr

5 Teilmengen von R und von R n

5 Teilmengen von R und von R n 5 Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,...,x n ) : x i R} = R }... {{ R }. n mal Für x R ist x der Abstand zum Nullpunkt. Die entsprechende Verallgemeinerung

Mehr

Ferienkurs in Maß- und Integrationstheorie

Ferienkurs in Maß- und Integrationstheorie Zentrum Mathematik Technische Universität München Dipl. Math. Wolfgang Erb WS 9/ Übungsblatt Ferienkurs in Maß- und Integrationstheorie Aufgabe. (σ-algebren Sei eine Menge und A eine σ-algebra in. Seien

Mehr

Kapitel 5 KONVERGENZ

Kapitel 5 KONVERGENZ Kapitel 5 KONVERGENZ Fassung vom 21. April 2002 Claude Portenier ANALYSIS 75 5.1 Metrische Räume 5.1 Metrische Räume DEFINITION 1 Sei X eine Menge. Eine Abbildung d : X X! R + heißt Metrik oder Distanz

Mehr

Zufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011

Zufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011 Zufällige stabile Prozesse und stabile stochastische Integrale Stochastikseminar, Dezember 2011 2 Stabile Prozesse Dezember 2011 Stabile stochastische Prozesse - Definition Stabile Integrale α-stabile

Mehr

Kapitel 3. Konvergenz von Folgen und Reihen

Kapitel 3. Konvergenz von Folgen und Reihen Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden

Mehr

2 Folgen und Reihen. 2.1 Folgen in C Konvergenz von Folgen. := f(n)

2 Folgen und Reihen. 2.1 Folgen in C Konvergenz von Folgen. := f(n) 2 Folgen und Reihen 2.1 Folgen in C 2.1.1 Konvergenz von Folgen Eine Folge komplexer Zahlen ist eine Funktion f : N C. Mit a n schreibt man (a n ) n=1, (a n ) oder auch a 1, a 2,.... := f(n) (a n ) heißt

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 9 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 40: Es sei (X t ) t 0 ein

Mehr