Martingale in diskreter Zeit

Größe: px
Ab Seite anzeigen:

Download "Martingale in diskreter Zeit"

Transkript

1 Kapitel XI Martingale in diskreter Zeit Reinhard Höpfner Vorlesung Stochastik II Wintersemester 2006/07 und 2010/11 Institut für Mathematik, Johannes Gutenberg Universität Mainz , ,

2 2 Martingale in diskreter Zeit Übersicht zu Kapitel XI : A. Martingale, Submartingale, Supermartingale Trend und trendfreie Zufallsschwankungen in Random Walks 11.1 Dynkin-Formel in Markov-Ketten 11.2 stochastische Prozesse 11.2 Filtrationen, adaptierte Prozesse Martingale, Submartingale, Supermartingale Vorhersehbarkeit und Doob-Meyer-Zerlegung von Submartingalen Martingale vom Typ sukzessive Prognosen an ein unendlich fernes Ziel 11.7 Martingale in Galton-Watson-Verzweigungsprozessen 11.8 B. Stopzeiten, Stopsätze Stopzeiten T, σ-algebra der Vergangenheit vor T Zustand eines Prozesses zur zufälligen Zeit T Einfrieren eines Prozesses (Martingals, Supermartingals,...) zur Zeit T Stopsatz für beschränkte Stopzeiten Beispiele: Verzweigungsprozesse, Glücksspiele Stopsatz in nichtnegativen Supermartingalen C. Doob-Ungleichung und aufsteigende Überquerungen Doob-Ungleichung Verallgemeinerung auf abzählbare Indexmengen Abschluß eines Martingals, Sub- oder Supermartingals Indexmengen mit Häufungspunkt links, Abschluß nach links Anzahl aufsteigender Überquerungen N I a,b Doob s Abschätzungen für E(Na,b I ), aufsteigende/absteigende Grenzwerte (11.24)

3 Kapitel XI 3 D. Konvergenzsätze für Martingale, Submartingale und Supermartingale P-fast sichere Konvergenz in Sub- oder Supermartingalen Nichtnegative Supermartingale Konvergenz P-fast sicher und in L 1 (P), unter gleichgradiger Integrierbarkeit (11.28) Abschluß eines (Sub-, Super-) Martingals Zustand X T zur Zeit T in abgeschlossenen (Sub-, Super-) Martingalen Nichtnegative Submartingale und gleichgradige Integrierbarkeit Hauptsatz über gleichgradig integrierbare Martingale Stopsatz in gleichgradig integrierbaren Martingalen E. L p -Ungleichungen und L p -Martingale Maximumsprozeß und L p -Ungleichungen in nichtnegativen Submartingalen L p -Martingale, p > Hauptsatz über L p -Martingale Beispiel: Martingale in Verzweigungsprozessen 11.38

4 4 Martingale in diskreter Zeit A. Martingale, Submartingale, Supermartingale Martingale enstehen durch Aufaddieren trendfreier Zufallsschwankungen. Dies wird zunächst an Beispielen aufgezeigt Beispiel: Betrachte eine Folge von Glücksspielen. Schreibe Y n für den Gewinn/Verlust im n-ten Spiel, und setze voraus: Y n, n = 1,2,..., sind iid ZV auf (Ω, A,P) mit Y 1 L 1 (P) und E(Y 1 ) =: m. Bilde dazu den Partialsummenprozeß oder Random Walk (S n ) n S n := n Y j, n 1, S 0 0, j=1 der die Entwicklung des Vermögens des Spielers als Funktion der Zeit beschreibt. Definiere eine wachsende Folge (F n ) n von Sub-σ-Algebren von A F n := σ(s 0,S 1,...,S n ) = σ(y 1,...,Y n ), n 1, F 0 := {,Ω} ; F n beschreibt den Informationsstand eines idealen Beobachters, der bis zur Zeit n einschließlich den Verlauf der Folge von Glücksspielen verfolgen kann. Wegen der Unabhängigkeit der einzelnen Glücksspiele liefert die bedingte Erwartung E(S n+1 F n ) = S n + E(Y n+1 F n ) = S n + m die beste Prognose für den Vermögensstand S n+1 zur Zeit n + 1 gegeben den Spielverlauf bis zur Zeit n. Die Folge von Glücksspielen ist damit für den Spieler tendentiell vorteilhaft m > 0 > S n fair m = 0 E(S n+1 F n ) = S n unvorteilhaft m < 0 < S n n IN 0. Dementsprechend zerlegen wir den Prozeß (S n ) n in einen vorhersehbaren Trend plus einen Prozeß trendfreier Zufallsschwankungen S n = S 0 + A n + M n, n IN 0 wobei der vorhersehbare Trend ein deterministischer Prozeß A = (A n ) n IN0, A n := mn, n IN 0

5 Kapitel XI 5 und der Prozeß trendfreier Zufallsschwankungen n M = (M n ) n IN0, M 0 := 0, M n := (Y j m), n 1 j=1 ein zentrierter Random Walk ist, vgl Beispiel: a) Eine Markov-Kette X = (X n ) n IN0 mit Werten in einem meßbaren Raum (E, E) mit 1-Schritt-Übergangswahrscheinlichkeit Q(, ) ist ein stochastischer Prozeß, definiert auf irgendeinem (Ω, A,P), der sich sukzessiv in der Zeit entwickelt gemäß n 0 : P(X n+1 F F n ) = Q(X n,f), F E, ( ) L(X 0 P) = ν. Dabei ist F n := σ(x 0,X 1,...,X n ) die σ-algebra der Vergangenheit im Prozeß X bis zur Zeit n, ν ist ein vorgegebenes Wahrscheinlichkeitsmaß auf (E, E), welches die Startverteilung für X liefert, und Q(, ) eine Übergangswahrscheinlichkeit auf (E, E). Diese würfelt in Abhängigkeit allein von dem jeweils zuletzt erreichten Zustand X n einen Folgezustand X n+1 aus. Genauer: mit ( ) sind für den Prozeß X eine Startverteilung ν und eine reguläre Version (ω,f) Q(X n (ω),f) der bedingten Verteilung von X n+1 gegeben F n festgelegt, für jedes n 0; diese reguläre Version benutzt von der ganzen Vergangenheit im Prozeß bis zur Zeit n nur noch den zuletzt erreichten Zustand X n. b) Sei nun X eine Markov-Kette mit 1-Schritt-Übergangswahrscheinlichkeit Q(.,.). Betrachte Funktionen f : E IR, beschränkt und E-meßbar, und definiere einen Operator L auf dem Raum der beschränkten E-meßbaren Funktion durch (+) (Lf)(x) := [f(y) f(x)]q(x,dy), x E. E Der Operator L heißt Markov-Generator der Kette X = (X n ) n IN0. Mit ( ) liefert a) E(f(X n+1 ) F n ) = f(y)q(x n,dy) = f(x n ) + (Lf)(X n ), n IN 0 ; dies ist die beste Prognose für f(x n+1 ) gegeben F n. Damit zerlegen wir jeden Prozeß (f(x n )) n, f beschränkt und E-meßbar, vermöge f(x n ) = f(x 0 ) + n [f(x j ) f(x j 1 )] j=1

6 6 Martingale in diskreter Zeit in einen vorhersehbaren Trend A = (A n ) n IN0 n A n := (Lf)(X j 1 ) F n 1 meßbar, n 1, A 0 := 0 j=1 plus einen Prozeß M = (M n ) n IN0, welcher trendfreie Zufallsfluktuationen aufaddiert M n := = n [f(x j ) f(x j 1 ) (Lf)(X j 1 )] j=1 n [ f(x j ) E(f(X j ) F j 1 ) ], n 1, M 0 := 0 j=1 plus einen Startwert: die so entstandene Zerlegung (++) f(x n ) = f(x 0 ) + M n + A n, n 0 heißt Dynkin-Formel für die Kette X = (X n ) n IN0. Zunächst geben wir die noch ausstehende Definition für den Begriff stochastischer Prozeß : 11.2 Definition: Sei (Ω, A) ein ein meßbarer Raum, sei I eine beliebige Indexmenge, sei (E, E) ein meßbarer Raum. Ein stochastischer Prozess X = (X t ) t I auf (Ω, A) mit Werten in (E, E) ist eine Kollektion meßbarer Abbildungen X t : (Ω, A) (E, E), t I. Wir werden in diesem Kapitel Indexmengen I IR betrachten, und t I als Zeit interpretieren. Die Beispiele 11.1 und 11.2 motivieren die folgenden Begriffe Definition: Sei (Ω, A) ein meßbarer Raum, sei I IR eine Indexmenge. a) Eine Filtration IF = (F t ) t I in A ist eine aufsteigende Familie von Sub-σ-Algebren von A: s < t in I = F s F t. b) Sei X = (X t ) t I ein stochastischer Prozeß auf (Ω, A) mit Werten in (E, E), sei IF = (F t ) t I eine Filtration in A. Der Prozeß X heißt IF-adaptiert falls gilt für jedes t I gilt: X t : Ω E ist F t E meßbar Bemerkung: Die Geschichte von X = (X t ) t I ist die Filtration (σ(x s : s I,s t)) t I. IF-Adaptierheit des Prozesses X bedeutet nichts anderes, als daß die Geschichte von X = (X t ) t I

7 Kapitel XI 7 Teil einer größeren Geschichte IF = (F t ) t I ist Definition: Sei (Ω, A, P) ein Wahrscheinlichkeitsraum, I IR eine Indexmenge, sei IF = (F t ) t I eine Filtration in A. Betrachte einen stochastischen Prozeß X = (X t ) t I mit Werten in (IR, B(IR)) und mit den Eigenschaften X ist IF-adaptiert, und X t L 1 (P) für jedes t I. Der Prozeß X heißt Submartingal (P,IF) Martingal Supermartingal falls für alle s < t in I gilt : X s = E(X t F s ). Im Sinne einer besten Prognose an X t gegeben den Informationsstand F s, s < t, ist ein Submartingal tendentiell wachsend, ein Supermartingal tendentiell fallend, ein Martingal trendfrei Bemerkungen: Unter den Voraussetzungen und Bezeichnungen aus 11.4: a) Es gilt X Submartingal ( X) := ( X t ) t I Supermartingal ; also genügt es oft, entweder Sub- oder Supermartingale zu betrachten. b) Nach Definition ist X ein (P,IF)-Submartingal falls s < t I : X s E P (X t F s ) =: g für eine F s -meßbare Funktion g = g t,s als Festlegung von E P (X t F s ). Dies ist äquivalent zu s < t I, F F s : E P (1 F X s ) E P (1 F g) = E P (1 F E P (X t F s )) = E P (1 F X t ). Damit ist die Submartingaleigenschaft bezüglich (P,IF) äquivalent zu ( ) s < t I, F F s : E P (1 F X s ) E P (1 F X t ). Dasselbe gilt für Martingale mit =, und für Supermartingale mit. Oft liefert ( ) den einfachsten Weg, eine Submartingaleigenschaft (analog Martingal-, Supermartingaleigenschaft) zu verifizieren.

8 8 Martingale in diskreter Zeit c) Sei X ein (P, IF)-Martingal (Sub-, Supermartingal). Geht man von P zu einem anderen Wahrscheinlichkeitsmaß P auf A über, oder von IF zu einer anderen Filtration IF in A, so geht im allgemeinen die Martingaleigenschaft (Sub-, Supermartingaleigenschaft) von X verloren. Den folgenden Begriff geben wir nur in einer auf diskrete Zeit zugeschnittenen Einfachversion Definition: Sei (Ω, A,P) ein Wahrscheinlichkeitsraum, sei IF = (F n ) n IN0 eine Filtration in A. Ein stochastischer Prozeß A = (A n ) n IN0 heißt IF-vorhersehbar falls gilt: für jedes n 1 ist die Zufallsvariable A n F n 1 meßbar, und A 0 cst ist deterministisch Beispiel: Sei X = (X n ) n IN0 eine (E, E)-wertige Markovkette auf (Ω, A,P), sei IF = (σ(x j : 0 j n)) n IN0 die Geschichte von X. Die Dynkinformel (++) aus Beispiel 11.2 liefert für f : E IR beschränkt und E-meßbar eine Zerlegung f(x n ) = f(x 0 ) + A n + M n in einen IF-vorhersehbaren Prozeß A = (A n ) n IN0 n A n = (Lf)(X j 1 ), n 1, A 0 0 j=1 und ein (P,IF)-Martingal M = (M n ) n IN0 M n = mit Startwert M 0 0. n (f(x j ) f(x j 1 ) (Lf)(X j 1 )), n 1 j= Beispiel: (Doob-Meyer-Zerlegung von Submartingalen) Sei X = (X n ) n IN0 ein Submartingal auf (Ω, A,IF=(F n ) n IN0,P). Die Submartingaleigenschaft liefert E(X j X j 1 F j 1 ) 0 für jedes j 1 ; folglich existiert ein wachsender vorhersehbarer Prozeß A = (A n ) n IN0 A n := n E(X j X j 1 F j 1 ), n 1, A 0 0 j=1 und ein Martingal M = (M n ) n IN0 M n := n ((X j X j 1 ) E(X j X j 1 F j 1 )), n 1 j=1

9 Kapitel XI 9 mit Startwert M 0 0 so daß gilt ( ) X n = X 0 + M n + A n, n IN 0. Die Zerlegung eines Submartingals ( ) in Form Startwert + vorhersehbarer wachsender Prozeß + Martingal nennt man Doob-Meyer-Zerlegung. Notwendig ist eine solche Zerlegung eindeutig: sei A ein anderer wachsender vorhersehbarer Prozeß und M ein anderes Martingal, beide mit Start in 0, so daß zusätzlich zu ( ) auch ( ) X n = X 0 + M n + A n, n IN 0 gilt. Setze N n := M n M n, V n := A n A n. Einerseits ist N = (N n ) n ein Martingal, also E(N n F n 1 ) = N n 1 für alle n IN. Andererseits ist N n = V n F n 1 -meßbar, folglich ist N n selbst eine Festlegung der bedingten Erwartung E(N n F n 1 ), und damit gilt N n = N n 1 P-fast sicher. Dies gilt für jedes n 1. Sukzessiv zurückgehend bis zum Startwert N 0 = M 0 M 0 = 0 erhält man N n = 0 P-fast sicher für jedes n 1. Also ist die Zerlegung eindeutig. Im Beispiel 11.1 des Vermögens S = (S n ) n IN0 eines Glücksspielers setze X n := S n im Fall m > 0, und X n := S n im Fall m < 0 hatte man also eine Doob-Meyer-Zerlegung des Submartingals X = (X n ) n IN0 angegeben. Martingale können als sukzessive Prognosen an ein unendlich fernes Ziel entstehen. Dieser Typ von Martingalen wird in der Folge eine wichtige Rolle spielen Satz: Sei X L 1 (Ω, A,P), sei IF := (F n ) n IN0 eine wachsende Folge von Sub-σ-Algebren von A; dann erhält man durch M n := E P (X F n ), n IN 0 ein (P,IF)-Martingal M = (M n ) n IN0. Beweis: Per Definition ist jedes M n eine F n -meßbare ZV; nach Jensen-Ungleichung bzw. nach gilt M n L 1 (P) für n 0. Die Martingaleigenschaft von M bezüglich P und IF folgt aus E P (M n+1 F n ) = E(E(X F n+1 ) F n ) = E(X F n ) = M n, n IN 0.

10 10 Martingale in diskreter Zeit Wir beenden das erste Teilkapitel mit einem Beispiel Beispiel: (Martingalstruktur in Verzweigungsprozessen) 1) Bereite vor IN 0 -wertige iid ZV (ξ n,j ) n IN0, j IN auf einem Wahrscheinlichkeitsraum (Ω, A,P); dabei sei ξ 1,1 L 1 (P) und m := E(ξ 1,1 ) > 0. Definiere damit einen stochastischen Prozeß X = (X n ) n IN0 mit Werten in IN 0 : X 0 := 1, X n+1 := 1 {Xn>0} X n ξ n+1,j {Xn=0}, n IN 0. j=1 Interpretiere ξ n+1,j als die Zahl von Nachkommen, mit der ein j-tes Individuum der Generation n zur Generation n + 1 beiträgt: damit ist X = (X n ) n IN0 ein klassischer Galton-Watson- Verzweigungsprozeß, siehe z.b. Jagers (1975). Setze F n := σ(x 0,X 1,...,X n ), n 0 (insbesondere gilt F 0 = {,Ω} da X 0 konstant): die Filtration IF := (F n ) n IN0 modelliert die Information, über die ein idealer Beobachter des Prozessverlaufs von X verfügt; dieser sieht die zeitliche Entwicklung der Generationsgrößen. Definiere F n := σ(ξ m,j : 0 m n,j 1), n 0 sicher gilt F n F n für jedes n, und die Filtration IF := (F n ) n IN 0 beschreibt einen Beobachter, der zusätzlich zum Verlauf des Prozesses X individuelle Nachkommenszahlen kennt. Die Familie {ξ n+1,j : j 1} ist unabhängig von F n, damit erst recht unabhängig von F n, also gilt nach 10.9 E(ξ n+1,j F n ) = E(ξ n+1,j ) = m. 2) Damit gilt für beliebiges F F n, mit F k := F {X n = k} F n F k X n+1 dp = F k i=1 k ξ n+1,j dp = F k m k dp = F k m X n dp falls k 1, und X n+1 dp = 0 = F {X n=0} Summation über k IN 0 liefert X n+1 dp = F F F {X n=0} m X n dp. mx n dp, F F n.

11 Kapitel XI 11 Damit ist X ein (P, IF)-Martingal falls m = 1, d.h. falls jedes Individuum der Generation n mit im Mittel m = 1 Nachkommen zur Generation n+1 beiträgt; für m > 1 ist X ein Submartingal, für m < 1 ein Supermartingal. 3) Betrachte nun Y := (Y n ) n definiert durch Wegen E(Y n+1 F n ) = Y n := X n m n, n IN 0. 1 m n+1e(x n+1 F n ) = m X n m n+1 = Y n ist der Prozeß Y := (Y n ) n ein (P,IF)-Martingal mit Werten in [0, ). 4) Die in 2) und 3) genannten Martingaleigenschaften von X bzw. von Y bleiben erhalten, wenn man von der Filtration IF zur größeren Filtration IF übergeht. B. Stopzeiten, Stopsätze Stopzeiten sind Zufallszeiten mit einer speziellen Struktur. Wir betrachten sie nur im Rahmen diskreter Zeit Definition: Sei (Ω, A) ein meßbarer Raum; zu einer gegebenen Filtration IF = (F n ) n IN0 in A definiere F n := σ( n n IN 0 F n ). a) Eine Abbildung T : Ω IN 0 = IN 0 { } heißt IF-Stopzeit falls n IN 0 : {T n} F n. b) Ist T eine IF-Stopzeit, so heißt F T := { A n F n : A {T n} F n für jedes n IN 0 } σ-algebra der Vergangenheit bis zur Zeit T. Eine IF-Stopzeit T ist also eine zufällige Zeit, über die ein Beobachter mit Kenntnisstand F n zur Zeit n stets sagen kann, ob diese bereits eingetreten ist oder nicht Bemerkungen: a) Jede konstante Zeit T m, m IN 0, ist eine IF-Stopzeit.

12 12 Martingale in diskreter Zeit a ) Ist T eine IF-Stopzeit, so gehören auch die Ereignisse {T = n} = {T n} \ {T n 1}, n 1, und {T > n} = {T n} c, n 0, zur σ Algebra F n. b) Für jede IF-Stopzeit T ist F T wie in 11.9 b) definiert wirklich eine σ-algebra: man hat Ω F T da Ω {T n} = {T n} F n für jedes n IN 0, nach Definition der Stopzeit; danach liegt mit A F T auch A c = Ω \ A in F T, wegen A c {T n} = {T n} \ (A {T n}) F n, n IN 0 ; klar ist das in b) definierte Mengensystem F T abgeschlossen unter abzählbaren Vereinigungen. c) Für jede IF-Stopzeit T liegt das Ereignis {T = } = {T > n} in der σ-algebra F n, n IN 0 n damit auch das Ereignis A {T = } für jedes A F T. d) In diskreter Zeit kann man die in Definition 11.9 geforderten Eigenschaften folgendermaßen umschreiben: wegen {T n} = n {T = j} ist eine Abbildung T : Ω IN 0 genau dann eine (F n ) n IN0 -Stopzeit falls gilt j=0 j IN 0 : {T = j} F j, und die σ-algebra der Vergangenheit bis zur Zeit T kann äquivalent als F T = { A n F n : A {T = j} F j für jedes j IN 0 } eingeführt werden. Beides gilt nur in diskreter Zeit Beispiele: Sei X = (X n ) n IN0 ein stochastischer Prozeß auf (Ω, A,P) mit Werten in (E, E), sei IF = (F n ) n IN0 eine Filtration in A, sei X adaptiert an IF. a) Für jedes F E ist die Treffzeit oder Zeit des ersten Besuchs in F T := min{n IN 0 : X n F } = min{n = 0,1,2,... : X n F } (mit Konvention min := + ) eine IF-Stopzeit, denn für jedes n IN 0 gilt {T = n} = {X n F, X j / F, 0 j < n } F n. b) Für jedes F E ist die Eintrittszeit in F (beachte den Unterschied im Zeitpunkt 0) S := min{n IN : X n F } = min{n = 1,2,... : X n F } (mit Konvention min := + ) sowie sukzessiv definierte Wiedereintrittszeiten in F S 0 0, S 1 := S, S m := min{n : n > S m 1, X n F }, m = 2,3,...

13 Kapitel XI 13 IF Stopzeiten. Dies sieht man induktiv. Wie in a) ist S 1 eine IF-Stopzeit. Ist für ein m 2 schon S m 1 als IF-Stopzeit nachgewiesen, so ist auch S m eine IF-Stopzeit, denn {S m = n} = = n 1 {S m 1 = k, S m = n } k=1 n 1 ({S m 1 = k} {X j / F, k < j < n } {X n F }) F n. k=1 c) Für E meßbares f : E [0, ) und festes Niveau a > 0 ist die level crossing Zeit n T := min{n IN 0 : f(x j ) > a } ( n (mit min := + ) eine IF-Stopzeit: mit X ist auch Y := j=0 j)) f(x Prozeß, und T ist die Zeit des ersten Besuchs des Prozesses Y in (a, ). j=0 n ein IF-adaptierter Satz: Betrachte (Ω, A), IF = (F n ) n IN0, und IF-Stopzeiten T, T 1,T 2,... : Ω IN 0. a) T ist eine F T -meßbare Abbildung von Ω nach IN 0. b) Aus T 1 T 2 folgt F T1 F T2. c) T 1 T 2, T 1 T 2, inf T m und sup T m sind IF-Stopzeiten. m 1 m 1 Beweis: a) Wir zeigen {T a} F T für a IR (vgl. 1.42). Sei o.e. a 0, bezeichne a die größte ganze Zahl a. Da T IF Stopzeit, gilt für beliebiges n IN 0 (+) {T a} {T n} = {T (n a )} F n a F n. Vereinigung über alle n IN 0 liefert {T a} n F n. Mit dieser Aussage liefert (+), per Definition der σ-algebra F T, auch {T a} F T für alle a 0. Damit ist T F T meßbar. b) Sei A F T1. Dann gilt A {T 1 n} F n für jedes n IN 0. Für T 1 T 2 folgt und damit A F T2. A {T 2 n} = (A {T 1 n}) {T }{{} 2 n} F }{{} n n F n F n c) Für S := sup m T m liegt das Ereignis {S > n} = m{t m > n} in F n, damit auch {S n} = {S > n} c, für jedes n IN 0. Für S := inf m T m betrachtet man für jedes n {S n} = {S < n + 1} = {T m < n + 1} = {T m n} F n. m m

14 14 Martingale in diskreter Zeit Genauso argumentiert man für T 1... T l oder T 1... T l, für endliches l Satz: Betrachte auf (Ω, A,IF=(F n ) n IN0 ) einen reellwertigen IF-adaptierten stochastischen Prozeß X = (X n ) n IN0 und eine IF-Stopzeit T. Dann ist der Zustand von X zur Zeit T X T := X n 1 {T=n} n IN 0 eine F T -meßbare Zufallsvariable Ω IR (beachte: die hier gegebene Definition impliziert X T := 0 auf {T = } und bezieht sich explizit auf einen Prozeß X, dessen Indexmenge den Punkt + nicht enthält). Beweis: Da X IF-adaptiert und T eine IF-Stopzeit ist, muß X T = X n 1 {T=n} {T= } n IN 0 zunächst F n meßbar sein. Also gilt {X T B} F n für jedes B B(IR), und dann weiter n n {X T B} {T = n} = {X n B} {T = n} F n, n IN 0. Gemäß Definition 11.9 und c) ist damit gezeigt, daß {X T B} zur σ-algebra F T der Vergangenheit bis T gehört. Damit ist X T eine F T meßbare Zufallsvariable Satz: Betrachte auf (Ω, A,IF=(F n ) n IN0 ) einen reellwertigen IF-adaptierten stochastischen Prozeß X = (X n ) n IN0 und eine IF-Stopzeit T. Dann ist X T := (X T n ) n IN0 ein IF-adaptierter stochastischer Prozeß: X T heißt der zur Zeit T gestoppte oder der zur Zeit T eingefrorene Prozeß. Beweis: Es gilt X T 0 = X 0, und für n 1 und jedes B B(IR) {X T n B} = n {X j B} {T = j} {X }{{}}{{} n B} {T > n} F }{{}}{{} n. F j F n j=0 F j F n

15 Kapitel XI Satz: Betrachte (Ω, A,IF=(F n ) n IN0,P), sei T eine IF-Stopzeit. Ist dann X = (X n ) n IN0 ein (P, IF)-Martingal (Submartingal, Supermartingal), so ist auch der zur Zeit T gestoppte Prozeß X T ein (P,IF)-Martingal (Submartingal, Supermartingal). Beweis: Sei X ein Martingal oder ein Supermartingal bezüglich P und IF. Nach ist der zur Zeit T gestoppte Prozeß X T IF-adaptiert; wegen X T n X X n ist jede Variable X T n in L1 (P). Weiter gilt E(X T n+1 XT n F n) = E(X T (n+1) X T n F n ) = E( 0 1 {T n} + (X n+1 X n )1 {T>n} F n ) = 1 {T>n} E(X n+1 X n F n ) da {T > n} = {T n} c F n nach Definition einer Stopzeit. Damit folgt E(Xn+1 T F n) Xn T E(Xn+1 T F n) = Xn T falls X Supermartingal X Martingal für alle n IN 0. Ist X ein Submartingal, so ist X ein Supermartingal Stopsatz für beschränkte Stopzeiten (Doob): Betrachte einen stochastischen Prozeß X = (X n ) n IN0 auf (Ω, A,IF=(F n ) n IN0,P) mit der Eigenschaft X = (X n ) n IN0 ist ein (P,IF)-Martingal (Submartingal, Supermartingal). a) Für beschränkte IF-Stopzeiten S T gilt X S,X T in L 1 (P) und Submartingal E(X T F S ) = X S falls X Martingal Supermartingal. b) Ist (T j ) j eine aufsteigende Folge beschränkter Stopzeiten und setzt man X j := X Tj, Fj := F Tj (Zeittransformation durch beschränkte Stopzeiten), so gilt Submartingal X := ( X j ) j ist ein Martingal bezüglich (P,ĨF), mit ĨF := ( F j ) j. Supermartingal

16 16 Martingale in diskreter Zeit Beweis: Es reicht, Martingale und Supermartingale zu betrachten. a) Betrachte Stopzeiten S, T beschränkt durch k IN. Insbesondere gilt dann X T = X T k. Klar X S X X k, also X S L 1 (P); genauso X T L 1 (P). Sei nun S T und C F S. Sicher gilt C {S = j} F j, 0 j k, nach Definition von F S. Zugleich hat man aber auch C {S = j} F S nach a). Wegen S T und für den gestoppten Prozeß X T folgt (X T X S )dp = (X T X j )dp C {S=j} = C {S=j} C {S=j} (X T k XT j )dp Summation über j = 0,1,...,k liefert E(1 C X T ) = E(1 CX S ) für alle C F S und damit die Behauptung. 0 falls X Supermartingal = 0 falls X Martingal b) folgt sofort aus a) und Bemerkung: Für unbeschränkte IF-Stopzeiten wird die Aussage von i.a. falsch. Zwei typische Beispiele illustrieren dies. a) Das asymptotische Verhalten des Verzweigungsprozesses X aus Beispiel 11.8 ist bekannt; wir setzen voraus, daß die Reproduktionsvariablen die Bedingung ξ 1,1 L 2 (Ω, A,P) erfüllen. Im kritischen Fall m = 1 ist X = (X n ) n IN0 nach 11.8 ein Martingal mit X 0 1; zugleich weiß man, daß X im Fall m = 1 mit Wahrscheinlichkeit 1 aussterben wird: es gilt P(X n = 0 für schließlich alle n) = 1, P(X n > 0) cst 1 n für n (siehe Jagers, 1975, p. 25). Damit ist die Aussterbezeit T := inf{n IN 0 : X n = 0} eine IF-Stopzeit, welche P-fast sicher endlich, aber nicht beschränkt ist. Also erfüllt T nicht die in a) gemachte Voraussetzung. Für den Zustand des Verzweigungsprozesses X zur Zeit T gilt X T 0 P-fast sicher. Trivialerweise ist auch R 0 eine IF-Stopzeit, und es gilt X R = X 0 1. Beides zusammen ergibt R T, X R = 1 0 = E(X T F R ).

17 Kapitel XI 17 b) Ein weiteres Beispiel liefert die Folge von Glücksspielen aus Beispiel 11.1, wobei wir zusätzlich voraussetzen, daß für das Einzelspiel die Bedingung Y 1 L 2 (Ω, A,P) erfüllt sei. Im fairen Fall m = 0 ist S = (S n ) n ein Martingal mit S 0 0. Man weiß, daß die IF-Stopzeit T := inf{n IN 0 : S n 10 6 }, zu der das Vermögen des Spielers zum erstenmal die Millionengrenze überschreitet, eine P-fast sicher endliche, aber unbeschränkte Stopzeit ist: es gilt P (T > t) cst t 1 2 für t (cf. Bingham, Goldie und Teugels, 1987, Section 8.9; insbesondere: Theorem (iii) auf S. 381). Also erfüllt T nicht die in a) gemachte Voraussetzung. Es gilt S T 10 6 P-fast sicher, also auch E(S T F 0 ) 10 6 : mit der trivialen Stopzeit R 0 entsteht wegen S 0 0 die Situation R T, S R = 0 < 10 6 E(S T F R ). In nichtnegativen Supermartingalen dagegen als Ausnahmesituation bleibt der Stopsatz auch mit unbeschränkten Stopzeiten gültig: Satz: Ist X in ein nichtnegatives (P,IF)-Supermartingal, so gilt X S E(X T F S ) in a) sogar für beliebige IF-Stopzeiten S T, und Transformation durch beliebige aufsteigende Folgen (T j ) j von IF-Stopzeiten wie in 1.15 b) liefert wieder ein nichtnegatives Supermartingal. Beweis: In einem nichtnegativen Prozeß X = (X n ) n IN0 gilt S(ω) < : lim n X S n (ω) = X S (ω), S(ω) = : X S n (ω) = X n (ω) 0 = X S (ω) für alle n, weil X S nach Definition 1.13 auf dem Ereignis {S = } den Wert 0 annimmt. Also hat man in einem nichtnegativen Prozeß X X S lim inf n E(X S n) und mit Fatou 2.8 und Stopsatz für beschränkte Stopzeiten a) E(X S ) E(lim inf n X S n) lim inf n E(X S n) E(X 0 ) <.

18 18 Martingale in diskreter Zeit Da X S nichtnegativ ist, zeigt dies X S L 1 (P). Genauso erhält man X T L 1 (P). Es bleibt zu zeigen: Sind S, T F-Stopzeiten mit S T, so gilt X S E P (X T F S ). Wir zeigen dies in der Form ( ) A F S : A X S dp A X T dp. Betrachte also IF-Stopzeiten S T, sei A F S. Für jedes n gilt dann auch A {S n} F S n : l IN 0 : (A {S n}) {S n l} = (A {S n}) }{{} {S l} F l. F S Mit a) für die beschränkten IF-Stopzeiten S n T n folgt dann X S dp = X S n dp A {S n} = A {S n} A {S n} A {T n} A {T n} X T n dp (11.15 a) für das Supermartingal X) X T n dp (wegen S T und X T n 0) X T dp. Läßt man nun auf beiden Seiten dieser Ungleichungskette n gegen streben, erhält man mit dominierter Konvergenz ( ) A F S : A {S< } X S dp A {T < } X T dp. Beachtet man X S = 0 auf {S = } und X T = 0 auf {T = } nach 11.13, so ist mit ( ) auch ( ) gezeigt. Bemerkung: Startet man in insbesondere mit einem nichtnegativen IF-Martingal X, so wird bei Zeittransformation durch eine aufsteigende Folge beliebiger IF-Stopzeiten (T j ) j die Martingaleigenschaft im allgemeinen verlorengehen. Ein Beispiel liefert der Verzweigungsprozeß mit m = 1 in a): der mit T 0 0, T 1 = T,... wie dort zeittransformierte Prozeß ist nur noch ein Supermartingal (X Tj ) j bezüglich der zeittransformierten Filtration (F Tj ) j. C. Doob-Ungleichung und aufsteigende Überquerungen Die Ungleichung von J.L. Doob und seine Abschätzung der Anzahl der aufsteigenden Überquerungen (1940/1953) ist der Schlüssel zu allen Martingalkonvergenzsätzen.

19 Kapitel XI Doob-Ungleichung: Sei (X n ) n IN0 ein Sub- oder Supermartingal bezüglich IF = (F n ) n IN0, auf (Ω, A,P). Sei J eine endliche Teilmenge von IN 0, setze β := max{n : n J}, α := min{n : n J}, sei r > 0 beliebig. i) Ist X ein Submartingal, so gilt r P(max n J X n > r) {max n J Xn>r} X β dp E(X + β ). ii) Ist X ein Supermartingal, so gilt r P(max n J X n > r) E(X α ) X β dp. {max Xn r} n J iii) Ist X ein nichtnegatives Supermartingal, so gilt r P(max n J X n > r) E(X α ). Beweis: Notwendig gilt α,β J da J endlich. Definiere T := min{n J : X n > r} (mit min := + ). Dann ist T ist eine IF-Stopzeit, denn für alle l IN 0 gilt {T l} = n l, n J {X n > r} F l. Für diese gilt {max X n > r} = {T β} und X T > r auf {T β}, damit n J r P(max X n > r) = r P(T β) X T dp = n J {T β} (1) = (X T β X β )dp + X β dp (2) Ω = E(X T β ) {T>β} X β dp. {T β} {T β} X T β dp Der Stopsatz für beschränkte Stopzeiten schließt nun den Beweis ab: ist X ein Submartingal, gilt in dieser Ungleichungskette in (1) Ω (X T β X β )dp 0

20 20 Martingale in diskreter Zeit und das ist die Aussage i); ist X ein Supermartingal, so gilt in (2) E(X T β ) E(X α ) und damit ii); iii) folgt sofort aus ii). Wir formulieren eine nützliche Variante, die für Indexmengen I der Art IQ [0,N], N IN, interessant ist Folgerung: Sei (Ω, A, P) ein Wahrscheinlichkeitsraum, sei I [0, ] eine abzählbare Indexmenge mit α := inf{t : t I} I, β := sup{t : t I} I. Sei X = (X t ) t I ein Sub- oder ein Supermartingal bezüglich IF = (F t ) t I. Dann bleiben die Abschätzungen aus gültig, falls man überall max X n durch supx t ersetzt: n J t I i) Ist X ein Submartingal, so gilt r P(sup X t > r) X β dp E(X + β ). t I {sup X t>r} t I ii) Ist X ein Supermartingal, so gilt r P(sup X t > r) t I E(X α ) {sup X t r} t I X β dp. iii) Ist X ein nichtnegatives Supermartingal, so gilt r P(sup X t > r) E(X α ). t I Beweis: Wähle eine Folge endlicher Teilmengen J n I mit J n I für n, setze α n := minj n, β n := maxj n. Für n gilt α n α, β n β, und F n := {max X t > r} {supx t > r} =: F t J n für festes r > 0. Aufsteigende Stetigkeit von Wahrscheinlichkeitsmaßen liefert also t I r P(max t J n X t > r) n r P(sup X t > r), n. t I

21 Kapitel XI 21 Ist X ein Submartingal, kann man für jede endliche Indexmenge J n die rechte Seite der Ungleichung i) wegen F n = {max t J n X t > r} F βn fortsetzen zu einer Abschätzung F n X βn dp F n X β dp, und hat mit dominierter Konvergenz für n nach Definition von F = {sup X t > r} und t I wegen β I F n X β dp n F X β dp. Zusammen erhält man für ein Submartingal X: aus 1.18 i) für jedes J n und J n I folgt r P(supX t > r) t I {sup X t>r} t I X β dp E(X + β ). Ist X ein Supermartingal, kann man für jedes J n das Integral auf der rechten Seite von ii) mit demselben Argument weiter abschätzen durch X βn dp F c n klar gilt in diesem Fall auch F c n X β dp n F c X β dp ; E(X αn ) E(X α ) n wegen α I. Aus 1.18 ii) für jedes J n und J n I folgt also r P(sup X t > r) E(X α ) t I {sup X t r} t I X β dp. Die in gemachte Voraussetzung sup I I gilt sicherlich nicht für Indexmengen der Art I = [0,1) IQ oder I = IN 0. Damit erhebt sich die Frage: kann man in Martingalen, Sub- oder Supermartingalen Indexmengen durch Hinzufügen von supi in sinnvoller Weise abschließen? Definition: (Abschluß eines Martingals, Submartingals oder Supermartingals) Betrachte auf (Ω, A,IF=(F t ) t I,P) mit Indexmenge I IR ein (P,IF)-Martingal (Submartingal, Supermartingal) X = (X t ) t I. Betrachte β := sup{t : t I} / I, I := I {β} IR.

22 22 Martingale in diskreter Zeit Gibt es eine sinnvolle Ergänzung (X β, F β ) nach rechts, mit der die Filtration (F t ) t I zu (F t ) t I und der Prozeß (X t ) t I zu (X t ) t I so fortgesetzt werden kann, daß gilt (X t ) t I ist ein Martingal (Submartingal, Supermartingal) bezüglich (P,(F t ) t I ), so heißt ( (X t ) t I, (F t ) t I ) Abschluß des Martingals (Sub-, Supermartingals) ((Xt ) t I, (F t ) t I ) Beispiel: Das Martingal M = (M n ) n IN0 aus 1.7 M n := E P (X F n ), n IN 0, welches durch Vorgabe einer Zufallsvariable X L 1 (Ω, A,P) und einer Filtration (F n ) n IN0 in A entsteht, erlaubt einen Abschluß auf zwei Weisen: i) durch β := +, F β := A und M β := X; ii) durch β := +, F β := F n (Notation aus 11.9) und M β := E P (X F n ). n n Ein Abschluß im Sinne von muß keineswegs existieren. In Teilkapitel D werden wir sehen (Satz 11.33), daß gleichgradig integrable Martingale (X n ) n IN0 stets einen Abschluß durch (1.20 ) F := n F n zusammen mit einer n F n -meßbaren Limesvariable X erlauben. Ab jetzt wird für Indexmenge I = IN 0 die Bezeichnung F ausschließlich für die in (1.20 ) definierte σ-algebra n F n reserviert sein Bemerkung: ( Abschluß nach links ) Martingale mit Indexmenge I IR so daß α := inf{t : t I} / I, I := {α} I IR kann man stets nach links abschließen (typische Beispiele solcher Indexmengen sind ( ) I := {t IR : t = 1 n für ein n IN 0} oder I := { n : n IN} mit α = 0 bzw. α = ). Betrachte ein Martingal X = (X t ) t I auf (Ω, A,IF=(F t ) t I,P). Für α wie oben setzt man F α := s I F s, M α := E(M t0 F α ) für ein beliebiges t 0 I, und erhält ein Martingal (M t ) t I bezüglich (P,(F t ) t I ).

23 Kapitel XI 23 Martingale ((M t ) t I,(F t ) t I ) mit Indexmengen vom Typ ( ) nennt man manchmal Rückwärtsmartingale ; dies ist jedoch ein schlimmer sprachlicher Lapsus, denn auch bei Indexmengen vom Typ ( ) gilt die Martingaleigenschaft stets vorwärts in der Zeit wie in 11.4 definiert. Martingalkonvergenzsätze (siehe Teilkapitel D) beruhen auf Abschätzungen für die Anzahl aufsteigender Überquerungen im Pfad I Supermartingals) X = (X t ) t I. t X t (ω) IR eines Martingals (Submartingals, Definition: Sei I IR endlich oder abzählbar, sei X = (X t ) t I ein reellwertiger stochastischer Prozeß auf (Ω, A), sei < a < b < +. Für ω Ω setze N I ab (ω) := sup { l IN 0 : es existieren t 1 < t 2 <... < t 2l 1 < t 2l I X t2j 1 (ω) < a so daß X t2j (ω) > b für 1 j l }. N I ab heißt die Anzahl aufsteigender Überquerungen des Streifens [a,b] entlang I. t X t ( ω) b a IR + t 1 t... 2 t 2j-1 t 2j Hauptsatz über aufsteigende Überquerungen (Doob): Sei I IR endlich oder abzählbar, sei X = (X t ) t I ein Submartingal bezüglich IF = (F t ) t I auf (Ω, A,P). a) Für jede endliche Teilmenge J von I mit β := max{t : t J} und α := min{t : t J} gilt : N J ab ist eine F β-meßbare Zufallsvariable Ω IN 0 mit E(Nab J ) 1 ( E(Xβ ) E(X α ) + E((X β a) ) ). b a b) N I ab ist eine IN 0-wertige Zufallsvariable auf (Ω, A). c) Unter den Voraussetzungen (11.24) supe(x t ) <, t I supe(xt ) < t I

24 24 Martingale in diskreter Zeit gibt es eine Konstante K < so daß E(Nab I ) 1 (K + a ) für jede Wahl von < a < b < +. b a d) Ist I unendlich, so gibt es unter der Voraussetzung (11.24) eine P-Nullmenge N A so daß für jeden Häufungspunkt γ von I ω / N = und jede monotone Folge t n γ, (t n ) n I : lim n X tn (ω) existiert in IR. Bemerkung: Die Aussage d) ist wichtig für I = IN 0 mit Häufungspunkt γ = +, wird aber erst recht interessant für Indexmengen der Art IQ [0, ) oder IQ [0,N], N IN, die in IR + oder in kompakten Teilmengen von IR + dicht liegen... Beweis: 1) Betrachte zuerst nur eine feste endliche Teilmenge J I. Für diese sind β := max{t : t J} und α := min{t : t J} in J. Bildet man ähnlich wie in b) eine wachsende Folge beschränkter IF-Stopzeiten durch τ 0 α, τ 1 := min{t J : X t < a} β, τ 2 := min{t J : t > τ 1,X t > b} β,... τ 2j 1 := min{t J : t > τ 2(j 1),X t < a} β, τ 2j := min{t J : t > τ 2j 1,X t > b} β,... dann werden wegen der Endlichkeit von J alle aufsteigenden Überquerungen des Streifens [a,b] im Pfad {X(t,ω) : t J} durch Paare (τ 2j 1,τ 2j ) mit τ 2j 1 < τ 2j und X τ2j > b erfaßt, und Nab J = 1 {τ2j 1 <τ 2j, X τ2j >b}. j=1 Insbesondere ist Nab J eine F β meßbare Zufallsvariable (dies sieht man mit : die durch β beschränkten Stopzeiten τ 2j 1 bzw. τ 2j sind F τ2j 1 bzw. F τ2j meßbare Zufallsvariable, damit F β -meßbar, also gilt {τ 2j 1 < τ 2j } F β ; zugleich ist X τ2j eine F β meßbare Zufallsvariable, also liegt jedes der Ereignisse {τ 2j 1 < τ 2j, X τ2j > b} in der σ-algebra F β ).

25 Kapitel XI 25 Doob s Stopsatz für beschränkte Stopzeiten im Submartingal (X t ) t I zeigt E(X β ) E(X α ) E(X τ2l ) E(X τ0 ) = = l j=1 l E(X τ2j X τ2(j 1) ) j=1 { } E(X τ2j X τ2j 1 ) + E(X τ2j 1 X τ2(j 1) ) }{{} 0 nach l E(X τ2j X τ2j 1 ) j=1 für beliebiges l 1. Nach Definition der Stopzeiten τ 2j 1 bzw. τ 2j gilt aber X τ2j X τ2j 1 b a falls τ 2j 1 < τ 2j,X τ2j > b X τ2j X τ2j 1 (X β a) falls τ 2j 1 < τ 2j,X τ2j b X τ2j X τ2j 1 = 0 falls τ 2j 1 = τ 2j wobei die erste dieser drei Zeilen einer vollendeten Überquerung des Streifens [a, b] entspricht, die zweite einer vor der Zeit β begonnenen, aber zur Zeit β unvollendeten Überquerung: abgeschlossene Überquerung angefangene letzte Überquerung b a x xx x x x x x x x x x x x x x x x x x x x x x x x x (x) x x x x τ 2j-1 τ 2j β τ 2j-1 β=τ 2j (für eine solche gilt X β = X τ2j zusammen mit der Abschätzung X τ2j X τ2j {Xβ X τ2j 1 } ( X β X τ2j 1 ) 1{Xβ <X τ2j 1 } (X β a) der Negativteile). Die dritte der obengenannten Zeiten entspricht einem Indexpaar, für das beide Stopzeiten τ 2j 1,τ 2j bereits an β = maxj trunkiert und damit trivial sind. Zusammen ergibt sich aus der obenstehenden Ungleichungskette E(X β ) E(X α ) (b a)e(nab J ) E((X β a) ) und damit die Aussage a) des Satzes.

26 26 Martingale in diskreter Zeit 2) Für eine abzählbare Indexmenge I IR wählt man wieder eine aufsteigende Folge endlicher Teilmengen J n I, J n I, und schreibt α n := min{t : t J n }, β n := max{t : t J n } wie in 1). Dann erhält man N I ab als aufsteigenden Limes F β n -meßbarer Zufallsvariablen N I ab = lim n NJn ab ; insbesondere ist damit Nab I eine A-meßbare IN 0-wertige Zufallsvariable, und es gilt nach 1) [ 1 E(Nab I ) = lim n E(NJn ab ) = lim ( E(Xβn ) E(X αn ) + E((X βn a) )]. n b a Unter Voraussetzung (11.24) gibt es dafür obere Schranken, die nicht mehr von n abhängen: E(X βn ) supe(x t ) < t I E(X αn ) = E(X α + n Xα n ) E(Xα n ) supe(xt ) < t I E((X βn a) ) E(X β n ) + a supe(xt ) + a t I womit die Aussagen b)+c) des Satzes (mit K := 2supE(Xt ) + sup E(X t )) bewiesen sind. t I t I 3) Sei nun I nicht endlich und sei γ IR ein Häufungspunkt von I. Betrachte aufsteigende Konvergenz t γ, t I, und definiere { N γ := ω Ω : lim inf t γ X t (ω) < lim sup X t (ω) + t γ } A. Für jedes ω N γ kann man ein geeignetes (auf ω zugeschnittenes) Paar rationaler Zahlen zwischen lim inf t γ X t (ω) und lim sup t γ X t (ω) einschieben: dies bedeutet N γ = a<b a,b IQ { ω Ω : lim inf t γ X t (ω) < a < b < lim sup X t (ω) t γ }. Aus dieser Darstellung wird klar, daß es für jedes ω N γ einen geeigneten Streifen [a,b] gibt, den der ω-pfad t X t (ω) für t γ, t I, unendlich oft aufsteigend überquert. Damit gilt ( ) N γ a<b a,b IQ { ω Ω : N I a,b (ω) = + } =: N A. Die auf der rechten Seite definierte Menge N A ist unter der Voraussetzung (11.24) notwendig eine P-Nullmenge, denn jede der Variablen Na,b I, a < b IQ, liegt nach der schon bewiesenen Aussage b) des Satzes in L 1 (P) und ist damit insbesondere P-fast sicher endlich. Weiter hängt die Menge N aus ( ) nicht mehr von dem eingangs betrachteten Häufungspunkt γ I ab, so

27 Kapitel XI 27 daß dieselbe P-Nullmenge N als Obermenge schon alle zu beliebigen Häufungspunkten γ der Indexmenge I zu bildenden Ausnahmemengen N γ enthält. Gezeigt ist: für ω Ω \ N existiert lim n X t n (ω) für jeden Häufungspunkt γ von I und jede gegen γ aufsteigende Folge (t n ) n I. Das Argument für absteigende Konvergenz t γ, t I, geht analog, und führt zu derselben P-Nullmenge N aus ( ). Damit ist auch Aussage d) des Satzes bewiesen. D. Konvergenzsätze für Martingale, Submartingale und Supermartingale Satz (Doob): Betrachte auf (Ω, A,P) einen Prozeß X = (X n ) n IN0 und eine Filtration IF = (F n )) n IN0, sei X dabei entweder oder ein (P,IF)-Submartingal mit ein (P,IF)-Supermartingal mit sup n IN 0 E X n < sup E(Xn ) <. n IN 0 Mit F = n F n wie in (1.20 ) gibt es dann eine Zufallsvariable X L 1 (Ω, F,P) so daß X n X P-fast sicher für n, E( X ) lim inf n E X n <. Beweis: 1) Sei X ein Submartingal mit sup n IN0 E X n <. Stets vgl g) gilt G := {ω Ω : lim n X n(ω) existiert in IR} F. Mit Satz d) wegen X n X n, X n X n ist die Voraussetzung (11.24) erfüllt folgt P(G) = 1, also X n = 1 G X n P-fast sicher für alle n IN 0. Definiere X := lim n 1 GX n. Dies ist eine F -meßbare, IR-wertige Zufallsvariable; nach Fatou gilt sogar E( X ) = E(lim inf n X n ) lim inf n E X n <

28 28 Martingale in diskreter Zeit und damit X L 1 (P); nach Abänderung auf der P-Nullmenge { X = + } F gilt die Aussage des Satzes für die reellwertige Zufallsvariable X := X 1 { ex < }. 2) Sei X ein Supermartingal mit sup n IN0 E(X n ) <. Dann ist X := X ein Submartingal mit sup n E( X n ) < : das erhält man wegen E(X n ) E(X 0 ) aus X n = X n = X n + X + n = 2X n + X n = E( X n ) 2E(X n ) + E(X 0 ). Schritt 1) für das Submartingal X liefert nun die Behauptung für das Supermartingal X Folgerung: Ein nichtnegatives Supermartingal X = (X n ) n IN0 konvergiert P-fast sicher gegen eine Zufallsvariable X L 1 (Ω, F,P). Beweis: mit X n 0 für alle n Hauptsatz: Sei X = (X n ) n IN0 ein (P,(F n ) n IN0 )-Martingal (oder ein Submartingal, oder ein Supermartingal) mit der Eigenschaft die Familie {X n : n IN 0 } ist gleichgradig integrierbar. Dann gibt es eine Zufallsvariable X L 1 (Ω, F,P) so daß gilt: (11.28) X n X P-fast sicher und in L 1 (P) für n. Beweis: 1) Sei X ein Submartingal. Wegen gleichgradiger Integrierbarkeit der {X n : n IN 0 } (vgl. 2.25) gibt es für jedes ε > 0 ein K < so daß insbesondere gilt sup n IN 0 { X n K(ε)} sup n IN 0 E( X n ) K(ε) + sup n IN 0 X n dp < ε ; { X n K(ε)} X n dp <. Damit erfüllt das Submartingal X dann die Bedingung aus 11.25, und liefert P-fast sichere Konvergenz der X n gegen eine F -meßbare Limesvariable X L 1 (P). Gleichgradige Integrabilität liefert nach 2.28 (mit p = 1) zusätzlich die Konvergenz in L 1 (P).

29 Kapitel XI 29 2) Für ein gleichgradig integrierbares Martingal ist nach 1) alles bewiesen. Sei nun X ein gleichgradig integrierbares Supermartingal. Dann ist X := ( X n ) n ein gleichgradig integrierbares Submartingal, und 1) angewandt auf X liefert die Behauptung für X. Bemerkung: a) Wir werden in Satz sehen, daß die gleichgradige Integrierbarkeit in als Bedingung für (11.28) nicht abgeschwächt werden kann. b) Eine einfache hinreichende Bedingung für gleichgradige Integrierbarkeit in ist nach 2.27 sup n IN 0 E( X n p ) < für ein p > 1. Häufig kann man diese Bedingung etwa für p = 2 leicht nachprüfen. In werden wir darauf zurückkommen Hilfssatz: Betrachte auf (Ω, A,(F n ) n IN0,P) ein Martingal (Submartingal, Supermartingal) (X n ) n IN0. Gibt es eine Zufallsvariable X L 1 (Ω, F,P) so daß (11.28) gilt, so kann ((X n ) n IN0, (F n ) n IN0 ) durch Hinzunahme von (X, F ) aus (11.28)+(11.20 ) zu einem Martingal (Submartingal, Supermartingal) ) ((X n ) n IN0, (F n ) n IN0 fortgesetzt werden (IN 0 = IN 0 {+ }, F = σ( n IN 0 F n )). Dies ist ein Abschluß wie in 11.20, aber mit der zusätzlichen Eigenschaft (11.28). Beweis: Die L 1 -Konvergenz in (11.28) liefert für jedes feste m lim X n dp = n m, n F F X dp für alle F F m. (X n ) n IN0 ist ein Martingal (Submartingal, Supermartingal), also ist die Folge ( F X n dp) n m konstant (bzw. aufsteigend, bzw. fallend), also gilt für jedes m und jedes F F m = Martingal E P (1 F X m ) E P (1 F X ) falls (X n ) n IN0 Submartingal Supermartingal. Damit ist ein Abschluß als Martingal (Submartingal, Supermartingal) gefunden.

30 30 Martingale in diskreter Zeit Konvention: Betrachte auf (Ω, A,P) eine (F n ) n IN0 -Stopzeit T : Ω IN 0 und ein Martingal (Submartingal, Supermartingal) (X n ) n IN0 bezüglich (F n ) n IN0. In diesem Zusammenhang definiert man den Zustand von X zur Zeit T oft auch durch ( ) X T := n IN 0 X n 1 {T=n} mit Hilfe der hier zur Verfügung stehenden Variablen X, anstelle der (die Konstante 0 als default value benutzenden) allgemeinen Definition aus Wir benutzen die auf 11.27, (11.28) und zugeschnittene Konvention ( ) (anstelle der in der allgemeinen Situation nicht verbesserbaren Definition aus 11.13) stets nur mit ausdrücklichem Hinweis. Auch mit Konvention ( ) ist X T eine F T -meßbare Zufallsvariable: mit Benutzung des F - meßbaren X auf dem Ereignis {T = } ist X T nach ( ) zuerst wieder F -meßbar; danach bleibt für Mengen B B(IR) das Argument aus {X T B} {T = l} F l, l IN 0 unverändert gültig: also ist {X T B} in F T Hilfssatz: Sei I [0, ] eine Indexmenge. Betrachte auf (Ω, A,P) einen stochastischen Prozeß X = (X t ) t I, adaptiert an eine Filtration (F t ) t I in A. a) Ist X = (X t ) t I ein Submartingal, ist g : IR IR konvex und nichtfallend, und ist g(x t ) in L 1 (P) für alle t I, so ist auch (g(x t )) t 0 ein Submartingal. b) Ist X = (X t ) t I ein Martingal, so ist ( X t ) t I ein nichtnegatives Submartingal. Beweis: a) Sei X ein Submartingal. Zunächst ist eine konvexe Funktion g : IR IR meßbar, da {g a} für jedes a IR ein Intervall ist. Der Prozeß (g(x t )) t I ist damit (F t ) t I -adaptiert, und nach Voraussetzung gilt g(x t ) L 1 (P) für alle t I. Für ein Submartingal X liefert die Jensen-Ungleichung kombiniert mit der Monotonie von g( ) s < t I = E(g(X t ) F s ) g(e(x t F s ) }{{} X s ) g(x s ). b) Sei X ein Martingal. Die Jensen-Ungleichung für die konvexe Funktion g(x) = x zeigt E( X t F s ) E(X t F s ) }{{} = X s. =X s

31 Kapitel XI Satz: Betrachte ein nichtnegatives Submartingal X = (X n ) n IN0 auf (Ω, A,(F n ) n IN0,P). Sei T die Klasse aller (F n ) n IN0 -Stopzeiten mit endlich vielen Werten (d.h. {T(ω) : ω Ω} ist eine endliche Teilmenge von IN 0 ). Dann gilt (mit Konvention ( ) aus 11.30) die Familie {X T : T T } ist gleichgradig integrierbar. Beweis: Wegen der Nichtnegativität von X ist zu zeigen (vgl. 2.25): zu jedem ε > 0 existiert ein K = K(ε) < so daß sup T T {X T K} X T dp < ε. 1) Sei T T. Für das Submartingal X = (X n ) n IN0 gilt X n L 1 (P), n IN 0. Bezeichnet man mit t 1 <... < t l + (abhängig von T) die endlich vielen für T möglichen Werte, so folgt X T L 1 (P) aus der trivialen Abschätzung X T X t X tl. Für Ereignisse F F T impliziert wegen F {T = t i } F ti die Submartingaleigenschaft von (X n ) n IN0 nach Aufspalten von F E(1 F (X X T )) = l E(1 F {T=ti }(X X ti )) 0 ; i=1 insbesondere erhält man für F = {X T K} F T, K < beliebig, die Aussage (+) {X T K} X T dp {X T K} 2) Da X L 1 (P), gibt es zu jedem ε > 0 ein δ > 0 so daß (++) A A, P(A) < δ = hierzu wählt man zuerst ein N IN so daß {X >N} A X dp < ε 2, X dp. X dp < ε : setzt δ := 1 N ε 2, dann gilt für jedes A A mit P(A) < δ X dp N P(A {X N}) + X dp < ε. {X >N} A Wählt man nun eine Konstante K 1 δ E(X ), hat man wegen (+) (+ + +) P(X T K) E(X T) K E(X ) K δ für jedes T T.

32 32 Martingale in diskreter Zeit 3) Sei ε > 0 beliebig. Zusammen ergibt sich mit K und δ wie oben X T dp X dp < ε {X T K} {X T K} für beliebiges T T, nach (+), (+++) und (++), und damit die Behauptung Hauptsatz über gleichgradig integrierbare Martingale: Sei (X n ) n IN0 ein Martingal auf (Ω, A,(F n ) n IN0,P). Die folgenden Aussagen sind gleichwertig: i) die Familie {X n : n IN 0 } ist gleichgradig integrierbar; ii) (X n ) n konvergiert P-fast sicher und in L 1 (P) gegen eine F -meßbare Variable X ; iii) X kann zu einem Martingal (X n ) n IN0 bezüglich (F n ) n IN0 fortgesetzt werden. Unter jeder dieser Bedingungen gilt in der Fortsetzung aus iii) X n = E(X F n ) P-fast sicher, für jedes n IN 0. Beweis: i)= ii) ist eine Teilaussagen von 11.27; ii)= iii) ist Wir zeigen iii)= i): Ist (X n ) n IN0 ein Martingal bezüglich (F n ) n IN0, so ist nach b) ( X n ) n IN0 ein nichtnegatives Submartingal bezüglich (F n ) n IN0. Nach ist dann da die konstanten Zeiten T n insbesondere Stopzeiten in T sind zuerst { X n : n IN 0 } und damit auch {X n : n IN 0 } eine gleichgradig integrierbare Familie. Mit stellt sich also das einfache Beispiel 1.7 (Martingale als sukzessive Prognosen an ein unendlich fernes Ziel) als Prototyp gleichgradig integrierbarer Martingale heraus Stopsatz in gleichgradig integrierbaren Martingalen: Betrachte ein Martingal X = (X n ) n IN0 auf (Ω, A,IF = (F n ) n IN0,P) mit der Eigenschaft die Familie {X n : n IN 0 } ist gleichgradig integrierbar. a) Dann gilt für beliebige IF-Stopzeiten S T (mit Konvention ( ) aus für X S und X T ): E(X T F S ) = X S. b) Jede aufsteigende Folge (T j ) j von IF-Stopzeiten liefert ein zeittransformiertes Martingal X = (X Tj ) j bezüglich ĨF = (F Tj ) j.

33 Kapitel XI 33 Beweis: Da b) aus a) folgt, reicht es, a) zu beweisen. Arbeite mit dem Abschluß ((X n ) n IN0, (F n ) n IN0 ) nach bzw. nach Seien S T IF-Stopzeiten; zu zeigen ist ( ) E(1 F X S ) = E(1 F X T ) für beliebiges F F S. Dabei kann man sich auf Ereignisse F F S mit F {S < } beschränken: als IF-Stopzeit ist S eine F S meßbare Zufallsvariable, also gilt F {S < } F S falls F F S ; wegen S T und Konvention ( ) in gilt X S = X T = X auf {S = }, folglich muß ( ) nur für F {S < } anstelle von F bewiesen werden. Wir betrachten also F F S mit F {S < }; für diese gilt F {S n} F, n. 1) Stets gilt für F F S F n = F {S n} F S n für jedes n IN 0 denn für l IN 0 beliebig F n {S n l} = (F {S n}) {S l} = F {S l n} F l n F l. 2) Wende b) und an auf das Martingal (X n ) n IN0 : zuerst ist ( X n ) n IN0 ein nichtnegatives Submartingal, dann ist die Familie { X S n : n IN 0 } gleichgradig integrierbar, denn jedes S n ist eine Stopzeit mit endlich vielen Werten. Damit sind auch {X S n : n IN 0 } und erst recht {1 Fn X S n : n IN 0 } gleichgradig integrierbare Familien. Nach konvergiert (X n ) n P-fast sicher gegen X, also konvergiert (1 Fn X n ) n P-fast sicher gegen 1 F X. Wegen gleichgradiger Integrierbarkeit wird daraus (+) 1 Fn X S n 1 F X S P-fast sicher und in L 1 (P), n. Wiederholt man das Argument mit T statt S, erhält man für dieselbe Folge (F n ) n (++) 1 Fn X T n 1 F X T P-fast sicher und in L 1 (P), n.

34 34 Martingale in diskreter Zeit 3) Doob s Stopsatz für beschränkte Stopzeiten zeigt aber (+ + +) E(1 Fn X S n ) = E(1 Fn X T n ) für jedes n IN 0, denn F n = F {S n} F S n nach Schritt 1). Zusammen liefern (+) bis (+++) die Aussage ( ), und der Beweis ist abgeschlossen. E. L p -Ungleichungen und L p -Martingale Unter welchen Bedingungen kann für Martingale wie in die dortige Konvergenzaussage zu einer Konvergenz in L p, p > 1, verschärft werden? Satz (Doob): Betrachte den Maximumsprozeß X = (X n) n IN0 zu einem nichtnegativen Submartingal X = (X n ) n IN0 auf (Ω, A, IF = (F n ) n IN0,P) X n := max 0 k n X k, n IN 0. Für beliebiges p > 1 und q definiert durch 1 p + 1 q = 1 gilt die Abschätzung X n p X n p q X n p für beliebiges n IN, mit p = L p (Ω,A,P). Beweis: Wir beweisen das zweite Ungleichheitszeichen; das erste ist trivial. Fixiere n 1 und p > 1, assoziiere q = p p 1 zu p > 1. Wir setzen voraus X n L p (P) und X n p 0 (sonst wäre nichts zu zeigen). 1) Betrachte ein Paar nichtfallender stetiger Funktionen F,G : [0, ) [0, ) mit F(0) = G(0) = 0, aufgefaßt als Verteilungsfunktionen σ-endlicher Maße auf (0, ), welche durch ( ) G(dr) = 1 F(dr) auf (0, ) r gekoppelt sind (ein Beispiel wird in Schritt 2) gegeben). Da das Submartingal X nach Voraussetzung nichtnegativ ist, gilt mit Fubini für jedes N < nach ( ) E(F(X n N)) = = Ω N 0 P(dω) X n (ω) N 0 F(dr) = F(dr) P({X n > r}) = Ω N 0 P(dω) N 0 G(dr) r P(X n > r ) 1 {X n (ω)>r} F(dr)

35 Kapitel XI 35 und weiter unter Ausnutzung der Doob-Ungleichung i) N [ ] G(dr) X n dp 0 { Xn>r } X n (ω) N = P(dω)X n (ω) G(dr) Ω = E ( X n G(X n N)) <. Mit Hölder 2.14 erhalten wir für p und q wie oben ( ) E(F(X n N)) E (X n G(X n N)) X n p G(X n N) q. 2) Nach Wahl von p und q gilt 1 q = 1 p (p 1) und (p 1)q = p. Also gilt ( ) insbesondere für F(y) := y p, G(y) := q y p 1, 0 < y <, 0 und man schreibt mit Z := Xn N ( 1/q G(Z) q = q [Z p 1 ] dp) q = q In diesem Spezialfall schreibt sich ( ) also als ( ) 1 Z p p (p 1) dp = q Z p 1 p. ( Xn N p ) p X n p q ( Xn N p ) p 1. Da X n in L 1 (P) und da Xn N nach Konstruktion beschränkt ist, sind alle Normen in der letzten Ungleichung endlich, also gilt nach Division durch ( Xn N p) p 1 Xn N p q X n p. Hieraus folgt für N die Aussage des Satzes Folgerung: Sei X = (X n ) n IN0 ein nichtnegatives Submartingal und X der Maximumsprozeß zu X wie in Sei p > 1. Dann ist die Bedingung ( ) hinreichend für und mit q := p p 1 X gilt die Abschätzung sup n IN 0 E(X p n) < := sup X n L p (P), n IN 0 sup n IN 0 X n p X p q sup n IN 0 X n p.

KAPITEL 1. Martingale

KAPITEL 1. Martingale KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst

Mehr

Vorlesungsskript: Martingale

Vorlesungsskript: Martingale Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................

Mehr

2 Martingale in stetiger Zeit

2 Martingale in stetiger Zeit 2 Martingale in stetiger Zeit Ziel dieses Abschnitts ist es die wichtigsten Resultate für Martingale aus diskreter Zeit in stetige Zeit zu übertragen. Wie zu erwarten ist treten in stetiger Zeit einige

Mehr

Kapitel 7. Martingale 1

Kapitel 7. Martingale 1 Kapitel 7 Martingale 1 7.1 Definition: a) (Ω, F) sei ein messbarer Raum. Eine Filtration (oder Filtrierung) ist eine aufsteigende Folge F = (F n ) n N von Teil-σ-Algebren von F, d.h. F n F n+1 F für n

Mehr

3 Bedingte Erwartungswerte

3 Bedingte Erwartungswerte 3 Bedingte Erwartungswerte 3.3 Existenz und Eindeutigkeit des bedingten Erwartungswertes E A 0(X) 3.6 Konvexitätsungleichung für bedingte Erwartungswerte 3.9 Konvergenzsätze von Levi, Fatou und Lebesgue

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Terminologie Stochastischer Prozesse

Terminologie Stochastischer Prozesse Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.

Mehr

5 MARTINGALE 64. k = j k=1

5 MARTINGALE 64. k = j k=1 5 MRTINGLE 64 5 Martingale 5.1 Bedingte Erwartungswerte Im Folgenden sei stets Z eine Zufallsvariable in R mit E[ Z < oder Z 0 f.s. Falls ein Ereignis mit P() > 0 ist, so erklärt man durch E[Z := 1 P()

Mehr

4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale

4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale 4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale 4.2 Filtrationen und kanonische Filtrationen 4.3 Supermartingale, Martingale bzw. Submartingale bzgl. der Filtrationen (A t ) t I 4.4 Gleichgradig

Mehr

Stochastische Prozesse

Stochastische Prozesse Albert-Ludwigs-Universität Freiburg Vorlesungsskript Stochastische Prozesse apl. Prof. Dr. Stefan Tappe Wintersemester 2017/18 Abteilung für Mathematische Stochastik Inhaltsverzeichnis 1 Grundlegende

Mehr

1 Bedingte Erwartungswerte

1 Bedingte Erwartungswerte Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Abgabetermin: 5. Mai 2017, Uhr

Abgabetermin: 5. Mai 2017, Uhr Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel IV SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale

8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale 8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale 8.1 Der quadratische Variationsprozess eines stetigen, lokalen Martingals 8.3 Die quadratische Variation einer reellen Brownschen

Mehr

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 : 24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

Zufallsvariable, Verteilung, Verteilungsfunktion

Zufallsvariable, Verteilung, Verteilungsfunktion Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Aufgaben zu Kapitel 0

Aufgaben zu Kapitel 0 Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.

Mehr

Skript. Martingale. Prof. Dr. Zakhar Kabluchko. Universität Münster Institut für Mathematische Stochastik

Skript. Martingale. Prof. Dr. Zakhar Kabluchko. Universität Münster Institut für Mathematische Stochastik Skript Martingale Prof. Dr. Zakhar Kabluchko Universität Münster Institut für Mathematische Stochastik Inhaltsverzeichnis Vorwort 2 Literatur 2 1. Stochastische Prozesse 3 2. Filtrationen 3 3. Martingale

Mehr

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015 Wahrscheinlichkeitstheorie 2 & 3 Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 3. Januar 215 Inhaltsverzeichnis. Bedingte Erwartungswerte 4 1. Martingale, Stoppzeiten und Filtrierungen 9 1.1.

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

Studienbegleitende Prüfung Stochastik 2

Studienbegleitende Prüfung Stochastik 2 Universität Karlsruhe (TH) Institut für Stochastik Prof. Dr. N. Bäuerle Name: Vorname: Matr.-Nr.: Studienbegleitende Prüfung Stochastik 2 27. März 2007 Diese Klausur hat bestanden, wer mindestens 20 Punkte

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

13 Auswahlaxiom und Zornsches Lemma

13 Auswahlaxiom und Zornsches Lemma 13 Auswahlaxiom und Zornsches Lemma Handout zur Funktionalanalysis I von H. Glöckner, 25.11.2008 Wichtige Teile der modernen Mathematik beruhen auf dem sogenannten Auswahlaxiom der Mengenlehre. Dieses

Mehr

Übungen zur Vorlesung Finanzmathematik. Wintersemester 2014/15

Übungen zur Vorlesung Finanzmathematik. Wintersemester 2014/15 Übungen zur Vorlesung Finanzmathematik Wintersemester 2014/15 PD Dr. V. Paulsen Blatt 7 25.11.2014 Aufgabe 1: Ruinwahrscheinlichkeit beim Roulette Sei S n = n X i, n N 0 eine Irrfahrt in Z, die aus dem

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Darstellungssatz von Riesz in vollständig regulären Räumen. Carina Pöll Wintersemester 2012

Darstellungssatz von Riesz in vollständig regulären Räumen. Carina Pöll Wintersemester 2012 Darstellungssatz von Riesz in vollständig regulären Räumen Carina Pöll 0726726 Wintersemester 2012 Inhaltsverzeichnis 1 Einleitung 1 2 Definitionen und Resultate aus der Topologie 1 3 Der Darstellungssatz

Mehr

8 Martingale und Stoppzeiten

8 Martingale und Stoppzeiten 8 Martingale und Stozeiten Definition Sei I eine beliebige Indexmenge und (Ω, A, P ) ein Wahrscheinlichkeitsraum. a) Eine Familie von Zufallsvariablen (X t ) t I auf (Ω, A, P ) heißt stochastischer Prozess

Mehr

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20 Gleichmäßige Konvergenz für Folgen und Reihen von Funktionen 20.1 Folgen und Reihen von Funktionen 20.3 Die Supremumsnorm 20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20.7 Das Cauchy-Kriterium

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Strassen Type Theorems Proseminar Stochastik

Strassen Type Theorems Proseminar Stochastik Strassen Type Theorems Proseminar Stochastik Cecelie Hector Universität Hamburg Fachbereich Mathematik SoSe 2004 Vortrag am 25.06.04 Definition (a). Ein topologischer Raum E heißt polnisch, wenn es eine

Mehr

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +

Mehr

Analysis I - Stetige Funktionen

Analysis I - Stetige Funktionen Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt

Mehr

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Schwache Konvergenz von Wahrscheinlichkeitsmaßen Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind

Mehr

Stoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016

Stoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016 Stoppzeiten und Charakteristische Funktionen Tutorium Stochastische Prozesse 15. November 2016 Inhalte des heutigen Tutoriums Im heutigen Tutorium besprechen wir: (1) Eindeutigkeit von Maßen ohne schnittstabilen

Mehr

Analysis I. Guofang Wang Universität Freiburg

Analysis I. Guofang Wang Universität Freiburg Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum

Mehr

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109 A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 19 A. Stochastische Prozesse und Stoppzeiten In dieser Vorlesung arbeiten wir immer auf einem Massraum (Ω, F), der gross genug ist, um alle definierten Objekte

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Kapitel 6 Grenzwerte von Funktionen und Stetigkeit

Kapitel 6 Grenzwerte von Funktionen und Stetigkeit Kapitel 6 Grenzwerte von Funktionen und Stetigkeit 225 Relle Funktionen Im Folgenden betrachten wir reelle Funktionen f : D R, mit D R. Wir suchen eine formale Definition für den folgenden Sachverhalt.

Mehr

Einführung in die Stochastik 6. Übungsblatt

Einführung in die Stochastik 6. Übungsblatt Einführung in die Stochastik 6. Übungsblatt Fachbereich Mathematik SS M. Kohler 3. Mai A. Fromkorth D. Furer Gruppen und Hausübung Aufgabe (a) Die Wahrscheinlichkeit, dass eine S Bahn Verspätung hat, betrage.3.

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Brownsche Bewegung: Eine Einführung

Brownsche Bewegung: Eine Einführung Brownsche Bewegung: Eine Einführung Batu Güneysu Institut für Mathematik Humboldt-Universität zu Berlin Greifswald, 18.04.2018 Batu Güneysu Brownsche Bewegung: Eine Einführung 1 / 14 Wir fixieren m N und

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 2 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript

Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Janko Latschev Fachbereich Mathematik Universität Hamburg www.math.uni-hamburg.de/home/latschev Hamburg,

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr

Wie in der reellen Analysis üblich notiert man Folgen f in der Form

Wie in der reellen Analysis üblich notiert man Folgen f in der Form 2.1.3 Folgen und Konvergenz Viele aus der Analysisvorlesung bekannte Begriffe lassen sich in den Bereich der metrischen Räume verallgemeinern. Diese Verallgemeinerung hat sich als sehr nützliches mathematisches

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis SS1 von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 6. Mai 21 Inhaltsverzeichnis 1 Motivation / Einführung 4 1.1 Motivation anhand

Mehr

sign: R R, sign(x) := 0 falls x = 0 1 falls x < 0 Diese ist im Punkt x 0 = 0 nicht stetig, denn etwa zu ε = 1 finden wir kein δ > 0

sign: R R, sign(x) := 0 falls x = 0 1 falls x < 0 Diese ist im Punkt x 0 = 0 nicht stetig, denn etwa zu ε = 1 finden wir kein δ > 0 ANALYSIS FÜR PHYSIK UND VERWANDTE FÄCHER I 81 3. Stetigkeit 3.1. Stetigkeit. Im Folgenden sei D R eine beliebige nichtleere Teilmenge. Typischerweise wird D ein allgemeines Intervall sein, siehe Abschnitt

Mehr

1 0, x C X (A). = 1 χ A(x).

1 0, x C X (A). = 1 χ A(x). Aufgabe 1 a) Wir müssen nur zeigen, dass χ A B (x) = χ A (x) χ B (x) für alle x X gilt. (Dass χ A χ B Abbildung von X in {0, 1} ist, ist klar.) Sei also x X beliebig. Fall 1: x A B. Dies bedeutet x A und

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

ist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1

ist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1 24 14 Metrische Räume 14.1 R n als euklidischer Vektorraum Die Menge R n = {(x 1,..., x n ) x i R} versehen mit der Addition und der skalaren Multiplikation x + y = (x 1 + y 1,..., x n + y n ) λx = (λx

Mehr

Lösungsvorschläge für das 5. Übungsblatt

Lösungsvorschläge für das 5. Übungsblatt Lösungsvorschläge für das 5. Übungsblatt Aufgabe 6 a) Sei = [0, ], f(x) := [e x ] für x. Hierbei ist [y] := maxk Z k y} für y. Behauptung: f ist messbar und es ist f(x) dx = 2 log 2. falls x [0, log 2),

Mehr

Vorlesung Der Satz von Fubini. 6.2 Der Satz von Beppo Levi 6.1. DER SATZ VON FUBINI 33

Vorlesung Der Satz von Fubini. 6.2 Der Satz von Beppo Levi 6.1. DER SATZ VON FUBINI 33 6.1. DER SATZ VON FUBINI 33 Vorlesung 6 6.1 Der Satz von Fubini Das Lebesgue-Integralkann natürlichauchüber mehrdimensionale Gebiete definiert werden. Wir haben uns hier auf den eindimenionalen Fallbeschränkt.

Mehr

Kapitel X: Reguläre bedingte Wahrscheinlichkeitsverteilungen

Kapitel X: Reguläre bedingte Wahrscheinlichkeitsverteilungen Reinhard Höpfner Vorlesung Stochastik Kapitel X: Reguläre bedingte Wahrscheinlichkeitsverteilungen Wintersemester 2016/17 Institut für Mathematik, Johannes Gutenberg Universität Mainz November 18, 2016

Mehr

53 Die Parsevalsche Gleichung

53 Die Parsevalsche Gleichung 53 Die Parsevalsche Gleichung 53 Die Parsevalsche Gleichung 5 53. Skalarprodukte auf Räumen quadratintegrierbarer Funktionen. a) Die Orthogonalitätsrelationen (5.5) legen die Interpretation des Ausdrucks

Mehr

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457. Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf

Mehr

6. Übungsblatt zur Einführung in die Stochastik

6. Übungsblatt zur Einführung in die Stochastik Fachbereich Mathematik Prof. Dr. Michael Kohler Dipl.-Math. Andreas Fromkorth Dipl.-Inf. Jens Mehnert SS 9 1.6.29 6. Übungsblatt zur Einführung in die Stochastik Aufgabe 22 Sei P ein auf der Borelschen

Mehr

2.6 Der Satz von Fubini

2.6 Der Satz von Fubini 1 2.6 Der Satz von Fubini Unser Ziel ist der Beweis des folgenden Ergebnisses. 6.1. Satz von Fubini Sei f : R n+m R integrierbar. Dann gibt es eine Nullmenge N R m, so dass gilt: 1. Für alle y R m \ N

Mehr

Vollständigkeit. 1 Konstruktion der reellen Zahlen

Vollständigkeit. 1 Konstruktion der reellen Zahlen Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente

Mehr

Kapitel VI: Schwache Konvergenz

Kapitel VI: Schwache Konvergenz Reinhard Höpfner Vorlesung Stochastik I Kapitel VI: Schwache Konvergenz Sommersemester 2016 Institut für Mathematik, Johannes Gutenberg Universität Mainz October 5, 2016 1 Übersicht zu Kapitel VI : A.

Mehr

Regulär variierende Funktionen

Regulär variierende Funktionen KAPITEL 4 Regulär variierende Funktionen Unser nächstes Ziel ist es, die Max-Anziehungsbereiche der Extremwertverteilungen zu beschreiben. Dies wird im nächsten Kapitel geschehen. Wir haben bereits gesehen,

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

Stochastische Prozesse

Stochastische Prozesse Stochastische Prozesse Prof. Dr. H.R. Lerche Abteilung für Mathematische Stochastik Universität Freiburg März 2014 Inhaltsverzeichnis 1 Martingale 1 1.1 Definitionen und Eigenschaften..........................

Mehr

2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit

2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit 2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit a) Fortsetzungssatz, Eindeutigkeit Es wird gezeigt, dass jedes Prämaß µ auf einem Ring R zu einem Maß µ auf A(R) fortgesetzt werden kann, d.h. µ kann

Mehr

Lösungen zur Übungsserie 9

Lösungen zur Übungsserie 9 Analysis 1 Herbstsemester 2018 Prof. Peter Jossen Montag,? November Lösungen zur Übungsserie 9 Aufgaben 1,2,3,5,6,8,9,11 Aufgabe 1. Sei a R. Berechnen Sie die folgenden Grenzwerte, falls sie existieren.

Mehr

Topologische Grundbegriffe I. 1 Offene und Abgeschlossene Mengen

Topologische Grundbegriffe I. 1 Offene und Abgeschlossene Mengen Topologische Grundbegriffe I Vortrag zum Proseminar Analysis, 26.04.2010 Nina Neidhardt und Simon Langer Im Folgenden soll gezeigt werden, dass topologische Konzepte, die uns schon für die Reellen Zahlen

Mehr

Finanzmathematik I Lösungvorschläge für Übungsblatt 1

Finanzmathematik I Lösungvorschläge für Übungsblatt 1 Finanzmathematik I Lösungvorschläge für Übungsblatt 1 J. Widenmann ufgabe 1: Zu zeigen ist, dass Q die Definition Ü.1.1.2 erfüllt. Zunächst bemerken wir, dass Q wegen der nnahme f 0 Werte in R + annimmt.

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

2 Folgen und Reihen. 2.1 Folgen in C Konvergenz von Folgen. := f(n)

2 Folgen und Reihen. 2.1 Folgen in C Konvergenz von Folgen. := f(n) 2 Folgen und Reihen 2.1 Folgen in C 2.1.1 Konvergenz von Folgen Eine Folge komplexer Zahlen ist eine Funktion f : N C. Mit a n schreibt man (a n ) n=1, (a n ) oder auch a 1, a 2,.... := f(n) (a n ) heißt

Mehr

Kommutativität. De Morgansche Regeln

Kommutativität. De Morgansche Regeln 1. Formale Logik Proposition 1.1. Die logischen Elementarverknüpfungen gehorchen folgenden Äquivalenzen: (1.1) (1.2) p p p p p p Idempotenz (1.3) (1.4) p q q p p q q p Kommutativität (1.5) (1.6) (p q)

Mehr

Zufallsvariable in separablen Banach- und Hilbert-Räumen

Zufallsvariable in separablen Banach- und Hilbert-Räumen Zufallsvariable in separablen Banach- und Hilbert-Räumen Hans-Jörg Starkloff TU Bergakademie Freiberg Westsächsische Hochschule Zwickau Januar 2011 Hans-Jörg Starkloff Zufallsvariable in separablen Banach-

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

Skript zur Vorlesung Analysis 3

Skript zur Vorlesung Analysis 3 Skript zur Vorlesung Analysis 3 Wintersemester 2013/2014 Prof. Dr. Benjamin Schlein Inhaltsverzeichnis 1 Masstheorie 2 1.1 σ-algebren.................................. 6 1.2 Masse.....................................

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2). Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche

Mehr

Wahrscheinlichkeitstheorie II

Wahrscheinlichkeitstheorie II Wahrscheinlichkeitstheorie II Vorlesung vo 24.04. Christian Wiesel V5-09...2.3 Martingale, Stoppzeiten und Filtrierungen Stochastische Prozesse und -Algebren Stoppzeiten Martingale.3a Martingale in diskreter

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich

Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich Erwartungswert Naiv stellt man sich unter dem Erwartungswert einer Zufallsvariablen X Folgendes vor. Man führt das Experiment n-mal durch und bestimmt den Mittelwert (arithmetisches Mittel) der dabei für

Mehr

ANALYSIS I FÜR TPH WS 2018/19 3. Übung Übersicht

ANALYSIS I FÜR TPH WS 2018/19 3. Übung Übersicht ANALYSIS I FÜR TPH WS 208/9 3. Übung Übersicht Aufgaben zu Kapitel 5 und 6 Aufgabe : Konvergenz von Reihen (i) Aufgabe 2: Konvergenz von Reihen (ii) Aufgabe 3: ( ) Konvergenz von Reihen (iii) Aufgabe 4:

Mehr

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik II Wahrscheinlichkeitstheorie I Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 26. November 2002

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Hawkes Prozesse Grundlagen

Hawkes Prozesse Grundlagen Hawkes Prozesse Grundlagen Im Folgenden sei (Ω, F, F, P) eine stochastische Basis. Das heißt F = (F t ) t ist eine rechtsstetige Filtration mit F t F für alle t und P ein Wahrscheinlichkeitsmaß auf dem

Mehr

(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist.

(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist. 8 Punktmengen Für die Menge M = { 1 n ; n N } ist 1 = max(m), denn 1 M und 1 n 1 für alle n N. Die Menge M besitzt aber kein Minimum, denn zu jeder Zahl x = 1 n M existiert ein y M mit y < x, etwa y =

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

15. Bereichsintegrale

15. Bereichsintegrale H.J. Oberle Analysis III WS 212/13 15. Bereichsintegrale 15.1 Integrale über uadern Ziel ist die Berechnung des Volumens unterhalb des Graphen einer Funktion f : R n D R, genauer zwischen dem Graphen von

Mehr

Topologische Grundbegriffe II. Inhaltsverzeichnis

Topologische Grundbegriffe II. Inhaltsverzeichnis Vortrag zum Seminar zur Analysis, 03.05.2010 Dennis Joswig, Florian Goy Aufbauend auf den Resultaten des Vortrages Topologische Grundbegriffe I untersuchen wir weitere topologische Eigenschaften von metrischen

Mehr

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016 Übungen zu bedingten Erwartungswerten Tutorium Stochastische Prozesse 13. Dezember 2016 Bedingter Erwartungswert Definition Sei X eine reellwertige Zufallsvariable auf (Ω, A, P), so dass E[ X ]

Mehr

Analysis I für Studierende der Ingenieurwissenschaften

Analysis I für Studierende der Ingenieurwissenschaften Analysis I für Studierende der Ingenieurwissenschaften Ingenuin Gasser Department Mathematik Universität Hamburg Technische Universität Hamburg Harburg Wintersemester 2008/2009 1 Definition: Sei M R, alsom

Mehr

heißt Exponentialreihe. Die durch = exp(1) = e (Eulersche Zahl). n! + R m+1(x) R m+1 (x) = n! m m + 2

heißt Exponentialreihe. Die durch = exp(1) = e (Eulersche Zahl). n! + R m+1(x) R m+1 (x) = n! m m + 2 9 DIE EXPONENTIALREIHE 48 absolut konvergent. Beweis. Wegen x n+ n! n + )!x n = x n + < 2 für n 2 x folgt dies aus dem Quotientenkriterium 8.9). Definition. Die Reihe x n heißt Exponentialreihe. Die durch

Mehr

Einführung in die angewandte Stochastik

Einführung in die angewandte Stochastik Einführung in die angewandte Stochastik Fabian Meyer 5. April 2018 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 3 1.1 Definitionen................................... 3 1.2 Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsverteilung,

Mehr