Martingale in diskreter Zeit
|
|
- Miriam Weiss
- vor 5 Jahren
- Abrufe
Transkript
1 Kapitel XI Martingale in diskreter Zeit Reinhard Höpfner Vorlesung Stochastik II Wintersemester 2006/07 und 2010/11 Institut für Mathematik, Johannes Gutenberg Universität Mainz , ,
2 2 Martingale in diskreter Zeit Übersicht zu Kapitel XI : A. Martingale, Submartingale, Supermartingale Trend und trendfreie Zufallsschwankungen in Random Walks 11.1 Dynkin-Formel in Markov-Ketten 11.2 stochastische Prozesse 11.2 Filtrationen, adaptierte Prozesse Martingale, Submartingale, Supermartingale Vorhersehbarkeit und Doob-Meyer-Zerlegung von Submartingalen Martingale vom Typ sukzessive Prognosen an ein unendlich fernes Ziel 11.7 Martingale in Galton-Watson-Verzweigungsprozessen 11.8 B. Stopzeiten, Stopsätze Stopzeiten T, σ-algebra der Vergangenheit vor T Zustand eines Prozesses zur zufälligen Zeit T Einfrieren eines Prozesses (Martingals, Supermartingals,...) zur Zeit T Stopsatz für beschränkte Stopzeiten Beispiele: Verzweigungsprozesse, Glücksspiele Stopsatz in nichtnegativen Supermartingalen C. Doob-Ungleichung und aufsteigende Überquerungen Doob-Ungleichung Verallgemeinerung auf abzählbare Indexmengen Abschluß eines Martingals, Sub- oder Supermartingals Indexmengen mit Häufungspunkt links, Abschluß nach links Anzahl aufsteigender Überquerungen N I a,b Doob s Abschätzungen für E(Na,b I ), aufsteigende/absteigende Grenzwerte (11.24)
3 Kapitel XI 3 D. Konvergenzsätze für Martingale, Submartingale und Supermartingale P-fast sichere Konvergenz in Sub- oder Supermartingalen Nichtnegative Supermartingale Konvergenz P-fast sicher und in L 1 (P), unter gleichgradiger Integrierbarkeit (11.28) Abschluß eines (Sub-, Super-) Martingals Zustand X T zur Zeit T in abgeschlossenen (Sub-, Super-) Martingalen Nichtnegative Submartingale und gleichgradige Integrierbarkeit Hauptsatz über gleichgradig integrierbare Martingale Stopsatz in gleichgradig integrierbaren Martingalen E. L p -Ungleichungen und L p -Martingale Maximumsprozeß und L p -Ungleichungen in nichtnegativen Submartingalen L p -Martingale, p > Hauptsatz über L p -Martingale Beispiel: Martingale in Verzweigungsprozessen 11.38
4 4 Martingale in diskreter Zeit A. Martingale, Submartingale, Supermartingale Martingale enstehen durch Aufaddieren trendfreier Zufallsschwankungen. Dies wird zunächst an Beispielen aufgezeigt Beispiel: Betrachte eine Folge von Glücksspielen. Schreibe Y n für den Gewinn/Verlust im n-ten Spiel, und setze voraus: Y n, n = 1,2,..., sind iid ZV auf (Ω, A,P) mit Y 1 L 1 (P) und E(Y 1 ) =: m. Bilde dazu den Partialsummenprozeß oder Random Walk (S n ) n S n := n Y j, n 1, S 0 0, j=1 der die Entwicklung des Vermögens des Spielers als Funktion der Zeit beschreibt. Definiere eine wachsende Folge (F n ) n von Sub-σ-Algebren von A F n := σ(s 0,S 1,...,S n ) = σ(y 1,...,Y n ), n 1, F 0 := {,Ω} ; F n beschreibt den Informationsstand eines idealen Beobachters, der bis zur Zeit n einschließlich den Verlauf der Folge von Glücksspielen verfolgen kann. Wegen der Unabhängigkeit der einzelnen Glücksspiele liefert die bedingte Erwartung E(S n+1 F n ) = S n + E(Y n+1 F n ) = S n + m die beste Prognose für den Vermögensstand S n+1 zur Zeit n + 1 gegeben den Spielverlauf bis zur Zeit n. Die Folge von Glücksspielen ist damit für den Spieler tendentiell vorteilhaft m > 0 > S n fair m = 0 E(S n+1 F n ) = S n unvorteilhaft m < 0 < S n n IN 0. Dementsprechend zerlegen wir den Prozeß (S n ) n in einen vorhersehbaren Trend plus einen Prozeß trendfreier Zufallsschwankungen S n = S 0 + A n + M n, n IN 0 wobei der vorhersehbare Trend ein deterministischer Prozeß A = (A n ) n IN0, A n := mn, n IN 0
5 Kapitel XI 5 und der Prozeß trendfreier Zufallsschwankungen n M = (M n ) n IN0, M 0 := 0, M n := (Y j m), n 1 j=1 ein zentrierter Random Walk ist, vgl Beispiel: a) Eine Markov-Kette X = (X n ) n IN0 mit Werten in einem meßbaren Raum (E, E) mit 1-Schritt-Übergangswahrscheinlichkeit Q(, ) ist ein stochastischer Prozeß, definiert auf irgendeinem (Ω, A,P), der sich sukzessiv in der Zeit entwickelt gemäß n 0 : P(X n+1 F F n ) = Q(X n,f), F E, ( ) L(X 0 P) = ν. Dabei ist F n := σ(x 0,X 1,...,X n ) die σ-algebra der Vergangenheit im Prozeß X bis zur Zeit n, ν ist ein vorgegebenes Wahrscheinlichkeitsmaß auf (E, E), welches die Startverteilung für X liefert, und Q(, ) eine Übergangswahrscheinlichkeit auf (E, E). Diese würfelt in Abhängigkeit allein von dem jeweils zuletzt erreichten Zustand X n einen Folgezustand X n+1 aus. Genauer: mit ( ) sind für den Prozeß X eine Startverteilung ν und eine reguläre Version (ω,f) Q(X n (ω),f) der bedingten Verteilung von X n+1 gegeben F n festgelegt, für jedes n 0; diese reguläre Version benutzt von der ganzen Vergangenheit im Prozeß bis zur Zeit n nur noch den zuletzt erreichten Zustand X n. b) Sei nun X eine Markov-Kette mit 1-Schritt-Übergangswahrscheinlichkeit Q(.,.). Betrachte Funktionen f : E IR, beschränkt und E-meßbar, und definiere einen Operator L auf dem Raum der beschränkten E-meßbaren Funktion durch (+) (Lf)(x) := [f(y) f(x)]q(x,dy), x E. E Der Operator L heißt Markov-Generator der Kette X = (X n ) n IN0. Mit ( ) liefert a) E(f(X n+1 ) F n ) = f(y)q(x n,dy) = f(x n ) + (Lf)(X n ), n IN 0 ; dies ist die beste Prognose für f(x n+1 ) gegeben F n. Damit zerlegen wir jeden Prozeß (f(x n )) n, f beschränkt und E-meßbar, vermöge f(x n ) = f(x 0 ) + n [f(x j ) f(x j 1 )] j=1
6 6 Martingale in diskreter Zeit in einen vorhersehbaren Trend A = (A n ) n IN0 n A n := (Lf)(X j 1 ) F n 1 meßbar, n 1, A 0 := 0 j=1 plus einen Prozeß M = (M n ) n IN0, welcher trendfreie Zufallsfluktuationen aufaddiert M n := = n [f(x j ) f(x j 1 ) (Lf)(X j 1 )] j=1 n [ f(x j ) E(f(X j ) F j 1 ) ], n 1, M 0 := 0 j=1 plus einen Startwert: die so entstandene Zerlegung (++) f(x n ) = f(x 0 ) + M n + A n, n 0 heißt Dynkin-Formel für die Kette X = (X n ) n IN0. Zunächst geben wir die noch ausstehende Definition für den Begriff stochastischer Prozeß : 11.2 Definition: Sei (Ω, A) ein ein meßbarer Raum, sei I eine beliebige Indexmenge, sei (E, E) ein meßbarer Raum. Ein stochastischer Prozess X = (X t ) t I auf (Ω, A) mit Werten in (E, E) ist eine Kollektion meßbarer Abbildungen X t : (Ω, A) (E, E), t I. Wir werden in diesem Kapitel Indexmengen I IR betrachten, und t I als Zeit interpretieren. Die Beispiele 11.1 und 11.2 motivieren die folgenden Begriffe Definition: Sei (Ω, A) ein meßbarer Raum, sei I IR eine Indexmenge. a) Eine Filtration IF = (F t ) t I in A ist eine aufsteigende Familie von Sub-σ-Algebren von A: s < t in I = F s F t. b) Sei X = (X t ) t I ein stochastischer Prozeß auf (Ω, A) mit Werten in (E, E), sei IF = (F t ) t I eine Filtration in A. Der Prozeß X heißt IF-adaptiert falls gilt für jedes t I gilt: X t : Ω E ist F t E meßbar Bemerkung: Die Geschichte von X = (X t ) t I ist die Filtration (σ(x s : s I,s t)) t I. IF-Adaptierheit des Prozesses X bedeutet nichts anderes, als daß die Geschichte von X = (X t ) t I
7 Kapitel XI 7 Teil einer größeren Geschichte IF = (F t ) t I ist Definition: Sei (Ω, A, P) ein Wahrscheinlichkeitsraum, I IR eine Indexmenge, sei IF = (F t ) t I eine Filtration in A. Betrachte einen stochastischen Prozeß X = (X t ) t I mit Werten in (IR, B(IR)) und mit den Eigenschaften X ist IF-adaptiert, und X t L 1 (P) für jedes t I. Der Prozeß X heißt Submartingal (P,IF) Martingal Supermartingal falls für alle s < t in I gilt : X s = E(X t F s ). Im Sinne einer besten Prognose an X t gegeben den Informationsstand F s, s < t, ist ein Submartingal tendentiell wachsend, ein Supermartingal tendentiell fallend, ein Martingal trendfrei Bemerkungen: Unter den Voraussetzungen und Bezeichnungen aus 11.4: a) Es gilt X Submartingal ( X) := ( X t ) t I Supermartingal ; also genügt es oft, entweder Sub- oder Supermartingale zu betrachten. b) Nach Definition ist X ein (P,IF)-Submartingal falls s < t I : X s E P (X t F s ) =: g für eine F s -meßbare Funktion g = g t,s als Festlegung von E P (X t F s ). Dies ist äquivalent zu s < t I, F F s : E P (1 F X s ) E P (1 F g) = E P (1 F E P (X t F s )) = E P (1 F X t ). Damit ist die Submartingaleigenschaft bezüglich (P,IF) äquivalent zu ( ) s < t I, F F s : E P (1 F X s ) E P (1 F X t ). Dasselbe gilt für Martingale mit =, und für Supermartingale mit. Oft liefert ( ) den einfachsten Weg, eine Submartingaleigenschaft (analog Martingal-, Supermartingaleigenschaft) zu verifizieren.
8 8 Martingale in diskreter Zeit c) Sei X ein (P, IF)-Martingal (Sub-, Supermartingal). Geht man von P zu einem anderen Wahrscheinlichkeitsmaß P auf A über, oder von IF zu einer anderen Filtration IF in A, so geht im allgemeinen die Martingaleigenschaft (Sub-, Supermartingaleigenschaft) von X verloren. Den folgenden Begriff geben wir nur in einer auf diskrete Zeit zugeschnittenen Einfachversion Definition: Sei (Ω, A,P) ein Wahrscheinlichkeitsraum, sei IF = (F n ) n IN0 eine Filtration in A. Ein stochastischer Prozeß A = (A n ) n IN0 heißt IF-vorhersehbar falls gilt: für jedes n 1 ist die Zufallsvariable A n F n 1 meßbar, und A 0 cst ist deterministisch Beispiel: Sei X = (X n ) n IN0 eine (E, E)-wertige Markovkette auf (Ω, A,P), sei IF = (σ(x j : 0 j n)) n IN0 die Geschichte von X. Die Dynkinformel (++) aus Beispiel 11.2 liefert für f : E IR beschränkt und E-meßbar eine Zerlegung f(x n ) = f(x 0 ) + A n + M n in einen IF-vorhersehbaren Prozeß A = (A n ) n IN0 n A n = (Lf)(X j 1 ), n 1, A 0 0 j=1 und ein (P,IF)-Martingal M = (M n ) n IN0 M n = mit Startwert M 0 0. n (f(x j ) f(x j 1 ) (Lf)(X j 1 )), n 1 j= Beispiel: (Doob-Meyer-Zerlegung von Submartingalen) Sei X = (X n ) n IN0 ein Submartingal auf (Ω, A,IF=(F n ) n IN0,P). Die Submartingaleigenschaft liefert E(X j X j 1 F j 1 ) 0 für jedes j 1 ; folglich existiert ein wachsender vorhersehbarer Prozeß A = (A n ) n IN0 A n := n E(X j X j 1 F j 1 ), n 1, A 0 0 j=1 und ein Martingal M = (M n ) n IN0 M n := n ((X j X j 1 ) E(X j X j 1 F j 1 )), n 1 j=1
9 Kapitel XI 9 mit Startwert M 0 0 so daß gilt ( ) X n = X 0 + M n + A n, n IN 0. Die Zerlegung eines Submartingals ( ) in Form Startwert + vorhersehbarer wachsender Prozeß + Martingal nennt man Doob-Meyer-Zerlegung. Notwendig ist eine solche Zerlegung eindeutig: sei A ein anderer wachsender vorhersehbarer Prozeß und M ein anderes Martingal, beide mit Start in 0, so daß zusätzlich zu ( ) auch ( ) X n = X 0 + M n + A n, n IN 0 gilt. Setze N n := M n M n, V n := A n A n. Einerseits ist N = (N n ) n ein Martingal, also E(N n F n 1 ) = N n 1 für alle n IN. Andererseits ist N n = V n F n 1 -meßbar, folglich ist N n selbst eine Festlegung der bedingten Erwartung E(N n F n 1 ), und damit gilt N n = N n 1 P-fast sicher. Dies gilt für jedes n 1. Sukzessiv zurückgehend bis zum Startwert N 0 = M 0 M 0 = 0 erhält man N n = 0 P-fast sicher für jedes n 1. Also ist die Zerlegung eindeutig. Im Beispiel 11.1 des Vermögens S = (S n ) n IN0 eines Glücksspielers setze X n := S n im Fall m > 0, und X n := S n im Fall m < 0 hatte man also eine Doob-Meyer-Zerlegung des Submartingals X = (X n ) n IN0 angegeben. Martingale können als sukzessive Prognosen an ein unendlich fernes Ziel entstehen. Dieser Typ von Martingalen wird in der Folge eine wichtige Rolle spielen Satz: Sei X L 1 (Ω, A,P), sei IF := (F n ) n IN0 eine wachsende Folge von Sub-σ-Algebren von A; dann erhält man durch M n := E P (X F n ), n IN 0 ein (P,IF)-Martingal M = (M n ) n IN0. Beweis: Per Definition ist jedes M n eine F n -meßbare ZV; nach Jensen-Ungleichung bzw. nach gilt M n L 1 (P) für n 0. Die Martingaleigenschaft von M bezüglich P und IF folgt aus E P (M n+1 F n ) = E(E(X F n+1 ) F n ) = E(X F n ) = M n, n IN 0.
10 10 Martingale in diskreter Zeit Wir beenden das erste Teilkapitel mit einem Beispiel Beispiel: (Martingalstruktur in Verzweigungsprozessen) 1) Bereite vor IN 0 -wertige iid ZV (ξ n,j ) n IN0, j IN auf einem Wahrscheinlichkeitsraum (Ω, A,P); dabei sei ξ 1,1 L 1 (P) und m := E(ξ 1,1 ) > 0. Definiere damit einen stochastischen Prozeß X = (X n ) n IN0 mit Werten in IN 0 : X 0 := 1, X n+1 := 1 {Xn>0} X n ξ n+1,j {Xn=0}, n IN 0. j=1 Interpretiere ξ n+1,j als die Zahl von Nachkommen, mit der ein j-tes Individuum der Generation n zur Generation n + 1 beiträgt: damit ist X = (X n ) n IN0 ein klassischer Galton-Watson- Verzweigungsprozeß, siehe z.b. Jagers (1975). Setze F n := σ(x 0,X 1,...,X n ), n 0 (insbesondere gilt F 0 = {,Ω} da X 0 konstant): die Filtration IF := (F n ) n IN0 modelliert die Information, über die ein idealer Beobachter des Prozessverlaufs von X verfügt; dieser sieht die zeitliche Entwicklung der Generationsgrößen. Definiere F n := σ(ξ m,j : 0 m n,j 1), n 0 sicher gilt F n F n für jedes n, und die Filtration IF := (F n ) n IN 0 beschreibt einen Beobachter, der zusätzlich zum Verlauf des Prozesses X individuelle Nachkommenszahlen kennt. Die Familie {ξ n+1,j : j 1} ist unabhängig von F n, damit erst recht unabhängig von F n, also gilt nach 10.9 E(ξ n+1,j F n ) = E(ξ n+1,j ) = m. 2) Damit gilt für beliebiges F F n, mit F k := F {X n = k} F n F k X n+1 dp = F k i=1 k ξ n+1,j dp = F k m k dp = F k m X n dp falls k 1, und X n+1 dp = 0 = F {X n=0} Summation über k IN 0 liefert X n+1 dp = F F F {X n=0} m X n dp. mx n dp, F F n.
11 Kapitel XI 11 Damit ist X ein (P, IF)-Martingal falls m = 1, d.h. falls jedes Individuum der Generation n mit im Mittel m = 1 Nachkommen zur Generation n+1 beiträgt; für m > 1 ist X ein Submartingal, für m < 1 ein Supermartingal. 3) Betrachte nun Y := (Y n ) n definiert durch Wegen E(Y n+1 F n ) = Y n := X n m n, n IN 0. 1 m n+1e(x n+1 F n ) = m X n m n+1 = Y n ist der Prozeß Y := (Y n ) n ein (P,IF)-Martingal mit Werten in [0, ). 4) Die in 2) und 3) genannten Martingaleigenschaften von X bzw. von Y bleiben erhalten, wenn man von der Filtration IF zur größeren Filtration IF übergeht. B. Stopzeiten, Stopsätze Stopzeiten sind Zufallszeiten mit einer speziellen Struktur. Wir betrachten sie nur im Rahmen diskreter Zeit Definition: Sei (Ω, A) ein meßbarer Raum; zu einer gegebenen Filtration IF = (F n ) n IN0 in A definiere F n := σ( n n IN 0 F n ). a) Eine Abbildung T : Ω IN 0 = IN 0 { } heißt IF-Stopzeit falls n IN 0 : {T n} F n. b) Ist T eine IF-Stopzeit, so heißt F T := { A n F n : A {T n} F n für jedes n IN 0 } σ-algebra der Vergangenheit bis zur Zeit T. Eine IF-Stopzeit T ist also eine zufällige Zeit, über die ein Beobachter mit Kenntnisstand F n zur Zeit n stets sagen kann, ob diese bereits eingetreten ist oder nicht Bemerkungen: a) Jede konstante Zeit T m, m IN 0, ist eine IF-Stopzeit.
12 12 Martingale in diskreter Zeit a ) Ist T eine IF-Stopzeit, so gehören auch die Ereignisse {T = n} = {T n} \ {T n 1}, n 1, und {T > n} = {T n} c, n 0, zur σ Algebra F n. b) Für jede IF-Stopzeit T ist F T wie in 11.9 b) definiert wirklich eine σ-algebra: man hat Ω F T da Ω {T n} = {T n} F n für jedes n IN 0, nach Definition der Stopzeit; danach liegt mit A F T auch A c = Ω \ A in F T, wegen A c {T n} = {T n} \ (A {T n}) F n, n IN 0 ; klar ist das in b) definierte Mengensystem F T abgeschlossen unter abzählbaren Vereinigungen. c) Für jede IF-Stopzeit T liegt das Ereignis {T = } = {T > n} in der σ-algebra F n, n IN 0 n damit auch das Ereignis A {T = } für jedes A F T. d) In diskreter Zeit kann man die in Definition 11.9 geforderten Eigenschaften folgendermaßen umschreiben: wegen {T n} = n {T = j} ist eine Abbildung T : Ω IN 0 genau dann eine (F n ) n IN0 -Stopzeit falls gilt j=0 j IN 0 : {T = j} F j, und die σ-algebra der Vergangenheit bis zur Zeit T kann äquivalent als F T = { A n F n : A {T = j} F j für jedes j IN 0 } eingeführt werden. Beides gilt nur in diskreter Zeit Beispiele: Sei X = (X n ) n IN0 ein stochastischer Prozeß auf (Ω, A,P) mit Werten in (E, E), sei IF = (F n ) n IN0 eine Filtration in A, sei X adaptiert an IF. a) Für jedes F E ist die Treffzeit oder Zeit des ersten Besuchs in F T := min{n IN 0 : X n F } = min{n = 0,1,2,... : X n F } (mit Konvention min := + ) eine IF-Stopzeit, denn für jedes n IN 0 gilt {T = n} = {X n F, X j / F, 0 j < n } F n. b) Für jedes F E ist die Eintrittszeit in F (beachte den Unterschied im Zeitpunkt 0) S := min{n IN : X n F } = min{n = 1,2,... : X n F } (mit Konvention min := + ) sowie sukzessiv definierte Wiedereintrittszeiten in F S 0 0, S 1 := S, S m := min{n : n > S m 1, X n F }, m = 2,3,...
13 Kapitel XI 13 IF Stopzeiten. Dies sieht man induktiv. Wie in a) ist S 1 eine IF-Stopzeit. Ist für ein m 2 schon S m 1 als IF-Stopzeit nachgewiesen, so ist auch S m eine IF-Stopzeit, denn {S m = n} = = n 1 {S m 1 = k, S m = n } k=1 n 1 ({S m 1 = k} {X j / F, k < j < n } {X n F }) F n. k=1 c) Für E meßbares f : E [0, ) und festes Niveau a > 0 ist die level crossing Zeit n T := min{n IN 0 : f(x j ) > a } ( n (mit min := + ) eine IF-Stopzeit: mit X ist auch Y := j=0 j)) f(x Prozeß, und T ist die Zeit des ersten Besuchs des Prozesses Y in (a, ). j=0 n ein IF-adaptierter Satz: Betrachte (Ω, A), IF = (F n ) n IN0, und IF-Stopzeiten T, T 1,T 2,... : Ω IN 0. a) T ist eine F T -meßbare Abbildung von Ω nach IN 0. b) Aus T 1 T 2 folgt F T1 F T2. c) T 1 T 2, T 1 T 2, inf T m und sup T m sind IF-Stopzeiten. m 1 m 1 Beweis: a) Wir zeigen {T a} F T für a IR (vgl. 1.42). Sei o.e. a 0, bezeichne a die größte ganze Zahl a. Da T IF Stopzeit, gilt für beliebiges n IN 0 (+) {T a} {T n} = {T (n a )} F n a F n. Vereinigung über alle n IN 0 liefert {T a} n F n. Mit dieser Aussage liefert (+), per Definition der σ-algebra F T, auch {T a} F T für alle a 0. Damit ist T F T meßbar. b) Sei A F T1. Dann gilt A {T 1 n} F n für jedes n IN 0. Für T 1 T 2 folgt und damit A F T2. A {T 2 n} = (A {T 1 n}) {T }{{} 2 n} F }{{} n n F n F n c) Für S := sup m T m liegt das Ereignis {S > n} = m{t m > n} in F n, damit auch {S n} = {S > n} c, für jedes n IN 0. Für S := inf m T m betrachtet man für jedes n {S n} = {S < n + 1} = {T m < n + 1} = {T m n} F n. m m
14 14 Martingale in diskreter Zeit Genauso argumentiert man für T 1... T l oder T 1... T l, für endliches l Satz: Betrachte auf (Ω, A,IF=(F n ) n IN0 ) einen reellwertigen IF-adaptierten stochastischen Prozeß X = (X n ) n IN0 und eine IF-Stopzeit T. Dann ist der Zustand von X zur Zeit T X T := X n 1 {T=n} n IN 0 eine F T -meßbare Zufallsvariable Ω IR (beachte: die hier gegebene Definition impliziert X T := 0 auf {T = } und bezieht sich explizit auf einen Prozeß X, dessen Indexmenge den Punkt + nicht enthält). Beweis: Da X IF-adaptiert und T eine IF-Stopzeit ist, muß X T = X n 1 {T=n} {T= } n IN 0 zunächst F n meßbar sein. Also gilt {X T B} F n für jedes B B(IR), und dann weiter n n {X T B} {T = n} = {X n B} {T = n} F n, n IN 0. Gemäß Definition 11.9 und c) ist damit gezeigt, daß {X T B} zur σ-algebra F T der Vergangenheit bis T gehört. Damit ist X T eine F T meßbare Zufallsvariable Satz: Betrachte auf (Ω, A,IF=(F n ) n IN0 ) einen reellwertigen IF-adaptierten stochastischen Prozeß X = (X n ) n IN0 und eine IF-Stopzeit T. Dann ist X T := (X T n ) n IN0 ein IF-adaptierter stochastischer Prozeß: X T heißt der zur Zeit T gestoppte oder der zur Zeit T eingefrorene Prozeß. Beweis: Es gilt X T 0 = X 0, und für n 1 und jedes B B(IR) {X T n B} = n {X j B} {T = j} {X }{{}}{{} n B} {T > n} F }{{}}{{} n. F j F n j=0 F j F n
15 Kapitel XI Satz: Betrachte (Ω, A,IF=(F n ) n IN0,P), sei T eine IF-Stopzeit. Ist dann X = (X n ) n IN0 ein (P, IF)-Martingal (Submartingal, Supermartingal), so ist auch der zur Zeit T gestoppte Prozeß X T ein (P,IF)-Martingal (Submartingal, Supermartingal). Beweis: Sei X ein Martingal oder ein Supermartingal bezüglich P und IF. Nach ist der zur Zeit T gestoppte Prozeß X T IF-adaptiert; wegen X T n X X n ist jede Variable X T n in L1 (P). Weiter gilt E(X T n+1 XT n F n) = E(X T (n+1) X T n F n ) = E( 0 1 {T n} + (X n+1 X n )1 {T>n} F n ) = 1 {T>n} E(X n+1 X n F n ) da {T > n} = {T n} c F n nach Definition einer Stopzeit. Damit folgt E(Xn+1 T F n) Xn T E(Xn+1 T F n) = Xn T falls X Supermartingal X Martingal für alle n IN 0. Ist X ein Submartingal, so ist X ein Supermartingal Stopsatz für beschränkte Stopzeiten (Doob): Betrachte einen stochastischen Prozeß X = (X n ) n IN0 auf (Ω, A,IF=(F n ) n IN0,P) mit der Eigenschaft X = (X n ) n IN0 ist ein (P,IF)-Martingal (Submartingal, Supermartingal). a) Für beschränkte IF-Stopzeiten S T gilt X S,X T in L 1 (P) und Submartingal E(X T F S ) = X S falls X Martingal Supermartingal. b) Ist (T j ) j eine aufsteigende Folge beschränkter Stopzeiten und setzt man X j := X Tj, Fj := F Tj (Zeittransformation durch beschränkte Stopzeiten), so gilt Submartingal X := ( X j ) j ist ein Martingal bezüglich (P,ĨF), mit ĨF := ( F j ) j. Supermartingal
16 16 Martingale in diskreter Zeit Beweis: Es reicht, Martingale und Supermartingale zu betrachten. a) Betrachte Stopzeiten S, T beschränkt durch k IN. Insbesondere gilt dann X T = X T k. Klar X S X X k, also X S L 1 (P); genauso X T L 1 (P). Sei nun S T und C F S. Sicher gilt C {S = j} F j, 0 j k, nach Definition von F S. Zugleich hat man aber auch C {S = j} F S nach a). Wegen S T und für den gestoppten Prozeß X T folgt (X T X S )dp = (X T X j )dp C {S=j} = C {S=j} C {S=j} (X T k XT j )dp Summation über j = 0,1,...,k liefert E(1 C X T ) = E(1 CX S ) für alle C F S und damit die Behauptung. 0 falls X Supermartingal = 0 falls X Martingal b) folgt sofort aus a) und Bemerkung: Für unbeschränkte IF-Stopzeiten wird die Aussage von i.a. falsch. Zwei typische Beispiele illustrieren dies. a) Das asymptotische Verhalten des Verzweigungsprozesses X aus Beispiel 11.8 ist bekannt; wir setzen voraus, daß die Reproduktionsvariablen die Bedingung ξ 1,1 L 2 (Ω, A,P) erfüllen. Im kritischen Fall m = 1 ist X = (X n ) n IN0 nach 11.8 ein Martingal mit X 0 1; zugleich weiß man, daß X im Fall m = 1 mit Wahrscheinlichkeit 1 aussterben wird: es gilt P(X n = 0 für schließlich alle n) = 1, P(X n > 0) cst 1 n für n (siehe Jagers, 1975, p. 25). Damit ist die Aussterbezeit T := inf{n IN 0 : X n = 0} eine IF-Stopzeit, welche P-fast sicher endlich, aber nicht beschränkt ist. Also erfüllt T nicht die in a) gemachte Voraussetzung. Für den Zustand des Verzweigungsprozesses X zur Zeit T gilt X T 0 P-fast sicher. Trivialerweise ist auch R 0 eine IF-Stopzeit, und es gilt X R = X 0 1. Beides zusammen ergibt R T, X R = 1 0 = E(X T F R ).
17 Kapitel XI 17 b) Ein weiteres Beispiel liefert die Folge von Glücksspielen aus Beispiel 11.1, wobei wir zusätzlich voraussetzen, daß für das Einzelspiel die Bedingung Y 1 L 2 (Ω, A,P) erfüllt sei. Im fairen Fall m = 0 ist S = (S n ) n ein Martingal mit S 0 0. Man weiß, daß die IF-Stopzeit T := inf{n IN 0 : S n 10 6 }, zu der das Vermögen des Spielers zum erstenmal die Millionengrenze überschreitet, eine P-fast sicher endliche, aber unbeschränkte Stopzeit ist: es gilt P (T > t) cst t 1 2 für t (cf. Bingham, Goldie und Teugels, 1987, Section 8.9; insbesondere: Theorem (iii) auf S. 381). Also erfüllt T nicht die in a) gemachte Voraussetzung. Es gilt S T 10 6 P-fast sicher, also auch E(S T F 0 ) 10 6 : mit der trivialen Stopzeit R 0 entsteht wegen S 0 0 die Situation R T, S R = 0 < 10 6 E(S T F R ). In nichtnegativen Supermartingalen dagegen als Ausnahmesituation bleibt der Stopsatz auch mit unbeschränkten Stopzeiten gültig: Satz: Ist X in ein nichtnegatives (P,IF)-Supermartingal, so gilt X S E(X T F S ) in a) sogar für beliebige IF-Stopzeiten S T, und Transformation durch beliebige aufsteigende Folgen (T j ) j von IF-Stopzeiten wie in 1.15 b) liefert wieder ein nichtnegatives Supermartingal. Beweis: In einem nichtnegativen Prozeß X = (X n ) n IN0 gilt S(ω) < : lim n X S n (ω) = X S (ω), S(ω) = : X S n (ω) = X n (ω) 0 = X S (ω) für alle n, weil X S nach Definition 1.13 auf dem Ereignis {S = } den Wert 0 annimmt. Also hat man in einem nichtnegativen Prozeß X X S lim inf n E(X S n) und mit Fatou 2.8 und Stopsatz für beschränkte Stopzeiten a) E(X S ) E(lim inf n X S n) lim inf n E(X S n) E(X 0 ) <.
18 18 Martingale in diskreter Zeit Da X S nichtnegativ ist, zeigt dies X S L 1 (P). Genauso erhält man X T L 1 (P). Es bleibt zu zeigen: Sind S, T F-Stopzeiten mit S T, so gilt X S E P (X T F S ). Wir zeigen dies in der Form ( ) A F S : A X S dp A X T dp. Betrachte also IF-Stopzeiten S T, sei A F S. Für jedes n gilt dann auch A {S n} F S n : l IN 0 : (A {S n}) {S n l} = (A {S n}) }{{} {S l} F l. F S Mit a) für die beschränkten IF-Stopzeiten S n T n folgt dann X S dp = X S n dp A {S n} = A {S n} A {S n} A {T n} A {T n} X T n dp (11.15 a) für das Supermartingal X) X T n dp (wegen S T und X T n 0) X T dp. Läßt man nun auf beiden Seiten dieser Ungleichungskette n gegen streben, erhält man mit dominierter Konvergenz ( ) A F S : A {S< } X S dp A {T < } X T dp. Beachtet man X S = 0 auf {S = } und X T = 0 auf {T = } nach 11.13, so ist mit ( ) auch ( ) gezeigt. Bemerkung: Startet man in insbesondere mit einem nichtnegativen IF-Martingal X, so wird bei Zeittransformation durch eine aufsteigende Folge beliebiger IF-Stopzeiten (T j ) j die Martingaleigenschaft im allgemeinen verlorengehen. Ein Beispiel liefert der Verzweigungsprozeß mit m = 1 in a): der mit T 0 0, T 1 = T,... wie dort zeittransformierte Prozeß ist nur noch ein Supermartingal (X Tj ) j bezüglich der zeittransformierten Filtration (F Tj ) j. C. Doob-Ungleichung und aufsteigende Überquerungen Die Ungleichung von J.L. Doob und seine Abschätzung der Anzahl der aufsteigenden Überquerungen (1940/1953) ist der Schlüssel zu allen Martingalkonvergenzsätzen.
19 Kapitel XI Doob-Ungleichung: Sei (X n ) n IN0 ein Sub- oder Supermartingal bezüglich IF = (F n ) n IN0, auf (Ω, A,P). Sei J eine endliche Teilmenge von IN 0, setze β := max{n : n J}, α := min{n : n J}, sei r > 0 beliebig. i) Ist X ein Submartingal, so gilt r P(max n J X n > r) {max n J Xn>r} X β dp E(X + β ). ii) Ist X ein Supermartingal, so gilt r P(max n J X n > r) E(X α ) X β dp. {max Xn r} n J iii) Ist X ein nichtnegatives Supermartingal, so gilt r P(max n J X n > r) E(X α ). Beweis: Notwendig gilt α,β J da J endlich. Definiere T := min{n J : X n > r} (mit min := + ). Dann ist T ist eine IF-Stopzeit, denn für alle l IN 0 gilt {T l} = n l, n J {X n > r} F l. Für diese gilt {max X n > r} = {T β} und X T > r auf {T β}, damit n J r P(max X n > r) = r P(T β) X T dp = n J {T β} (1) = (X T β X β )dp + X β dp (2) Ω = E(X T β ) {T>β} X β dp. {T β} {T β} X T β dp Der Stopsatz für beschränkte Stopzeiten schließt nun den Beweis ab: ist X ein Submartingal, gilt in dieser Ungleichungskette in (1) Ω (X T β X β )dp 0
20 20 Martingale in diskreter Zeit und das ist die Aussage i); ist X ein Supermartingal, so gilt in (2) E(X T β ) E(X α ) und damit ii); iii) folgt sofort aus ii). Wir formulieren eine nützliche Variante, die für Indexmengen I der Art IQ [0,N], N IN, interessant ist Folgerung: Sei (Ω, A, P) ein Wahrscheinlichkeitsraum, sei I [0, ] eine abzählbare Indexmenge mit α := inf{t : t I} I, β := sup{t : t I} I. Sei X = (X t ) t I ein Sub- oder ein Supermartingal bezüglich IF = (F t ) t I. Dann bleiben die Abschätzungen aus gültig, falls man überall max X n durch supx t ersetzt: n J t I i) Ist X ein Submartingal, so gilt r P(sup X t > r) X β dp E(X + β ). t I {sup X t>r} t I ii) Ist X ein Supermartingal, so gilt r P(sup X t > r) t I E(X α ) {sup X t r} t I X β dp. iii) Ist X ein nichtnegatives Supermartingal, so gilt r P(sup X t > r) E(X α ). t I Beweis: Wähle eine Folge endlicher Teilmengen J n I mit J n I für n, setze α n := minj n, β n := maxj n. Für n gilt α n α, β n β, und F n := {max X t > r} {supx t > r} =: F t J n für festes r > 0. Aufsteigende Stetigkeit von Wahrscheinlichkeitsmaßen liefert also t I r P(max t J n X t > r) n r P(sup X t > r), n. t I
21 Kapitel XI 21 Ist X ein Submartingal, kann man für jede endliche Indexmenge J n die rechte Seite der Ungleichung i) wegen F n = {max t J n X t > r} F βn fortsetzen zu einer Abschätzung F n X βn dp F n X β dp, und hat mit dominierter Konvergenz für n nach Definition von F = {sup X t > r} und t I wegen β I F n X β dp n F X β dp. Zusammen erhält man für ein Submartingal X: aus 1.18 i) für jedes J n und J n I folgt r P(supX t > r) t I {sup X t>r} t I X β dp E(X + β ). Ist X ein Supermartingal, kann man für jedes J n das Integral auf der rechten Seite von ii) mit demselben Argument weiter abschätzen durch X βn dp F c n klar gilt in diesem Fall auch F c n X β dp n F c X β dp ; E(X αn ) E(X α ) n wegen α I. Aus 1.18 ii) für jedes J n und J n I folgt also r P(sup X t > r) E(X α ) t I {sup X t r} t I X β dp. Die in gemachte Voraussetzung sup I I gilt sicherlich nicht für Indexmengen der Art I = [0,1) IQ oder I = IN 0. Damit erhebt sich die Frage: kann man in Martingalen, Sub- oder Supermartingalen Indexmengen durch Hinzufügen von supi in sinnvoller Weise abschließen? Definition: (Abschluß eines Martingals, Submartingals oder Supermartingals) Betrachte auf (Ω, A,IF=(F t ) t I,P) mit Indexmenge I IR ein (P,IF)-Martingal (Submartingal, Supermartingal) X = (X t ) t I. Betrachte β := sup{t : t I} / I, I := I {β} IR.
22 22 Martingale in diskreter Zeit Gibt es eine sinnvolle Ergänzung (X β, F β ) nach rechts, mit der die Filtration (F t ) t I zu (F t ) t I und der Prozeß (X t ) t I zu (X t ) t I so fortgesetzt werden kann, daß gilt (X t ) t I ist ein Martingal (Submartingal, Supermartingal) bezüglich (P,(F t ) t I ), so heißt ( (X t ) t I, (F t ) t I ) Abschluß des Martingals (Sub-, Supermartingals) ((Xt ) t I, (F t ) t I ) Beispiel: Das Martingal M = (M n ) n IN0 aus 1.7 M n := E P (X F n ), n IN 0, welches durch Vorgabe einer Zufallsvariable X L 1 (Ω, A,P) und einer Filtration (F n ) n IN0 in A entsteht, erlaubt einen Abschluß auf zwei Weisen: i) durch β := +, F β := A und M β := X; ii) durch β := +, F β := F n (Notation aus 11.9) und M β := E P (X F n ). n n Ein Abschluß im Sinne von muß keineswegs existieren. In Teilkapitel D werden wir sehen (Satz 11.33), daß gleichgradig integrable Martingale (X n ) n IN0 stets einen Abschluß durch (1.20 ) F := n F n zusammen mit einer n F n -meßbaren Limesvariable X erlauben. Ab jetzt wird für Indexmenge I = IN 0 die Bezeichnung F ausschließlich für die in (1.20 ) definierte σ-algebra n F n reserviert sein Bemerkung: ( Abschluß nach links ) Martingale mit Indexmenge I IR so daß α := inf{t : t I} / I, I := {α} I IR kann man stets nach links abschließen (typische Beispiele solcher Indexmengen sind ( ) I := {t IR : t = 1 n für ein n IN 0} oder I := { n : n IN} mit α = 0 bzw. α = ). Betrachte ein Martingal X = (X t ) t I auf (Ω, A,IF=(F t ) t I,P). Für α wie oben setzt man F α := s I F s, M α := E(M t0 F α ) für ein beliebiges t 0 I, und erhält ein Martingal (M t ) t I bezüglich (P,(F t ) t I ).
23 Kapitel XI 23 Martingale ((M t ) t I,(F t ) t I ) mit Indexmengen vom Typ ( ) nennt man manchmal Rückwärtsmartingale ; dies ist jedoch ein schlimmer sprachlicher Lapsus, denn auch bei Indexmengen vom Typ ( ) gilt die Martingaleigenschaft stets vorwärts in der Zeit wie in 11.4 definiert. Martingalkonvergenzsätze (siehe Teilkapitel D) beruhen auf Abschätzungen für die Anzahl aufsteigender Überquerungen im Pfad I Supermartingals) X = (X t ) t I. t X t (ω) IR eines Martingals (Submartingals, Definition: Sei I IR endlich oder abzählbar, sei X = (X t ) t I ein reellwertiger stochastischer Prozeß auf (Ω, A), sei < a < b < +. Für ω Ω setze N I ab (ω) := sup { l IN 0 : es existieren t 1 < t 2 <... < t 2l 1 < t 2l I X t2j 1 (ω) < a so daß X t2j (ω) > b für 1 j l }. N I ab heißt die Anzahl aufsteigender Überquerungen des Streifens [a,b] entlang I. t X t ( ω) b a IR + t 1 t... 2 t 2j-1 t 2j Hauptsatz über aufsteigende Überquerungen (Doob): Sei I IR endlich oder abzählbar, sei X = (X t ) t I ein Submartingal bezüglich IF = (F t ) t I auf (Ω, A,P). a) Für jede endliche Teilmenge J von I mit β := max{t : t J} und α := min{t : t J} gilt : N J ab ist eine F β-meßbare Zufallsvariable Ω IN 0 mit E(Nab J ) 1 ( E(Xβ ) E(X α ) + E((X β a) ) ). b a b) N I ab ist eine IN 0-wertige Zufallsvariable auf (Ω, A). c) Unter den Voraussetzungen (11.24) supe(x t ) <, t I supe(xt ) < t I
24 24 Martingale in diskreter Zeit gibt es eine Konstante K < so daß E(Nab I ) 1 (K + a ) für jede Wahl von < a < b < +. b a d) Ist I unendlich, so gibt es unter der Voraussetzung (11.24) eine P-Nullmenge N A so daß für jeden Häufungspunkt γ von I ω / N = und jede monotone Folge t n γ, (t n ) n I : lim n X tn (ω) existiert in IR. Bemerkung: Die Aussage d) ist wichtig für I = IN 0 mit Häufungspunkt γ = +, wird aber erst recht interessant für Indexmengen der Art IQ [0, ) oder IQ [0,N], N IN, die in IR + oder in kompakten Teilmengen von IR + dicht liegen... Beweis: 1) Betrachte zuerst nur eine feste endliche Teilmenge J I. Für diese sind β := max{t : t J} und α := min{t : t J} in J. Bildet man ähnlich wie in b) eine wachsende Folge beschränkter IF-Stopzeiten durch τ 0 α, τ 1 := min{t J : X t < a} β, τ 2 := min{t J : t > τ 1,X t > b} β,... τ 2j 1 := min{t J : t > τ 2(j 1),X t < a} β, τ 2j := min{t J : t > τ 2j 1,X t > b} β,... dann werden wegen der Endlichkeit von J alle aufsteigenden Überquerungen des Streifens [a,b] im Pfad {X(t,ω) : t J} durch Paare (τ 2j 1,τ 2j ) mit τ 2j 1 < τ 2j und X τ2j > b erfaßt, und Nab J = 1 {τ2j 1 <τ 2j, X τ2j >b}. j=1 Insbesondere ist Nab J eine F β meßbare Zufallsvariable (dies sieht man mit : die durch β beschränkten Stopzeiten τ 2j 1 bzw. τ 2j sind F τ2j 1 bzw. F τ2j meßbare Zufallsvariable, damit F β -meßbar, also gilt {τ 2j 1 < τ 2j } F β ; zugleich ist X τ2j eine F β meßbare Zufallsvariable, also liegt jedes der Ereignisse {τ 2j 1 < τ 2j, X τ2j > b} in der σ-algebra F β ).
25 Kapitel XI 25 Doob s Stopsatz für beschränkte Stopzeiten im Submartingal (X t ) t I zeigt E(X β ) E(X α ) E(X τ2l ) E(X τ0 ) = = l j=1 l E(X τ2j X τ2(j 1) ) j=1 { } E(X τ2j X τ2j 1 ) + E(X τ2j 1 X τ2(j 1) ) }{{} 0 nach l E(X τ2j X τ2j 1 ) j=1 für beliebiges l 1. Nach Definition der Stopzeiten τ 2j 1 bzw. τ 2j gilt aber X τ2j X τ2j 1 b a falls τ 2j 1 < τ 2j,X τ2j > b X τ2j X τ2j 1 (X β a) falls τ 2j 1 < τ 2j,X τ2j b X τ2j X τ2j 1 = 0 falls τ 2j 1 = τ 2j wobei die erste dieser drei Zeilen einer vollendeten Überquerung des Streifens [a, b] entspricht, die zweite einer vor der Zeit β begonnenen, aber zur Zeit β unvollendeten Überquerung: abgeschlossene Überquerung angefangene letzte Überquerung b a x xx x x x x x x x x x x x x x x x x x x x x x x x x (x) x x x x τ 2j-1 τ 2j β τ 2j-1 β=τ 2j (für eine solche gilt X β = X τ2j zusammen mit der Abschätzung X τ2j X τ2j {Xβ X τ2j 1 } ( X β X τ2j 1 ) 1{Xβ <X τ2j 1 } (X β a) der Negativteile). Die dritte der obengenannten Zeiten entspricht einem Indexpaar, für das beide Stopzeiten τ 2j 1,τ 2j bereits an β = maxj trunkiert und damit trivial sind. Zusammen ergibt sich aus der obenstehenden Ungleichungskette E(X β ) E(X α ) (b a)e(nab J ) E((X β a) ) und damit die Aussage a) des Satzes.
26 26 Martingale in diskreter Zeit 2) Für eine abzählbare Indexmenge I IR wählt man wieder eine aufsteigende Folge endlicher Teilmengen J n I, J n I, und schreibt α n := min{t : t J n }, β n := max{t : t J n } wie in 1). Dann erhält man N I ab als aufsteigenden Limes F β n -meßbarer Zufallsvariablen N I ab = lim n NJn ab ; insbesondere ist damit Nab I eine A-meßbare IN 0-wertige Zufallsvariable, und es gilt nach 1) [ 1 E(Nab I ) = lim n E(NJn ab ) = lim ( E(Xβn ) E(X αn ) + E((X βn a) )]. n b a Unter Voraussetzung (11.24) gibt es dafür obere Schranken, die nicht mehr von n abhängen: E(X βn ) supe(x t ) < t I E(X αn ) = E(X α + n Xα n ) E(Xα n ) supe(xt ) < t I E((X βn a) ) E(X β n ) + a supe(xt ) + a t I womit die Aussagen b)+c) des Satzes (mit K := 2supE(Xt ) + sup E(X t )) bewiesen sind. t I t I 3) Sei nun I nicht endlich und sei γ IR ein Häufungspunkt von I. Betrachte aufsteigende Konvergenz t γ, t I, und definiere { N γ := ω Ω : lim inf t γ X t (ω) < lim sup X t (ω) + t γ } A. Für jedes ω N γ kann man ein geeignetes (auf ω zugeschnittenes) Paar rationaler Zahlen zwischen lim inf t γ X t (ω) und lim sup t γ X t (ω) einschieben: dies bedeutet N γ = a<b a,b IQ { ω Ω : lim inf t γ X t (ω) < a < b < lim sup X t (ω) t γ }. Aus dieser Darstellung wird klar, daß es für jedes ω N γ einen geeigneten Streifen [a,b] gibt, den der ω-pfad t X t (ω) für t γ, t I, unendlich oft aufsteigend überquert. Damit gilt ( ) N γ a<b a,b IQ { ω Ω : N I a,b (ω) = + } =: N A. Die auf der rechten Seite definierte Menge N A ist unter der Voraussetzung (11.24) notwendig eine P-Nullmenge, denn jede der Variablen Na,b I, a < b IQ, liegt nach der schon bewiesenen Aussage b) des Satzes in L 1 (P) und ist damit insbesondere P-fast sicher endlich. Weiter hängt die Menge N aus ( ) nicht mehr von dem eingangs betrachteten Häufungspunkt γ I ab, so
27 Kapitel XI 27 daß dieselbe P-Nullmenge N als Obermenge schon alle zu beliebigen Häufungspunkten γ der Indexmenge I zu bildenden Ausnahmemengen N γ enthält. Gezeigt ist: für ω Ω \ N existiert lim n X t n (ω) für jeden Häufungspunkt γ von I und jede gegen γ aufsteigende Folge (t n ) n I. Das Argument für absteigende Konvergenz t γ, t I, geht analog, und führt zu derselben P-Nullmenge N aus ( ). Damit ist auch Aussage d) des Satzes bewiesen. D. Konvergenzsätze für Martingale, Submartingale und Supermartingale Satz (Doob): Betrachte auf (Ω, A,P) einen Prozeß X = (X n ) n IN0 und eine Filtration IF = (F n )) n IN0, sei X dabei entweder oder ein (P,IF)-Submartingal mit ein (P,IF)-Supermartingal mit sup n IN 0 E X n < sup E(Xn ) <. n IN 0 Mit F = n F n wie in (1.20 ) gibt es dann eine Zufallsvariable X L 1 (Ω, F,P) so daß X n X P-fast sicher für n, E( X ) lim inf n E X n <. Beweis: 1) Sei X ein Submartingal mit sup n IN0 E X n <. Stets vgl g) gilt G := {ω Ω : lim n X n(ω) existiert in IR} F. Mit Satz d) wegen X n X n, X n X n ist die Voraussetzung (11.24) erfüllt folgt P(G) = 1, also X n = 1 G X n P-fast sicher für alle n IN 0. Definiere X := lim n 1 GX n. Dies ist eine F -meßbare, IR-wertige Zufallsvariable; nach Fatou gilt sogar E( X ) = E(lim inf n X n ) lim inf n E X n <
28 28 Martingale in diskreter Zeit und damit X L 1 (P); nach Abänderung auf der P-Nullmenge { X = + } F gilt die Aussage des Satzes für die reellwertige Zufallsvariable X := X 1 { ex < }. 2) Sei X ein Supermartingal mit sup n IN0 E(X n ) <. Dann ist X := X ein Submartingal mit sup n E( X n ) < : das erhält man wegen E(X n ) E(X 0 ) aus X n = X n = X n + X + n = 2X n + X n = E( X n ) 2E(X n ) + E(X 0 ). Schritt 1) für das Submartingal X liefert nun die Behauptung für das Supermartingal X Folgerung: Ein nichtnegatives Supermartingal X = (X n ) n IN0 konvergiert P-fast sicher gegen eine Zufallsvariable X L 1 (Ω, F,P). Beweis: mit X n 0 für alle n Hauptsatz: Sei X = (X n ) n IN0 ein (P,(F n ) n IN0 )-Martingal (oder ein Submartingal, oder ein Supermartingal) mit der Eigenschaft die Familie {X n : n IN 0 } ist gleichgradig integrierbar. Dann gibt es eine Zufallsvariable X L 1 (Ω, F,P) so daß gilt: (11.28) X n X P-fast sicher und in L 1 (P) für n. Beweis: 1) Sei X ein Submartingal. Wegen gleichgradiger Integrierbarkeit der {X n : n IN 0 } (vgl. 2.25) gibt es für jedes ε > 0 ein K < so daß insbesondere gilt sup n IN 0 { X n K(ε)} sup n IN 0 E( X n ) K(ε) + sup n IN 0 X n dp < ε ; { X n K(ε)} X n dp <. Damit erfüllt das Submartingal X dann die Bedingung aus 11.25, und liefert P-fast sichere Konvergenz der X n gegen eine F -meßbare Limesvariable X L 1 (P). Gleichgradige Integrabilität liefert nach 2.28 (mit p = 1) zusätzlich die Konvergenz in L 1 (P).
29 Kapitel XI 29 2) Für ein gleichgradig integrierbares Martingal ist nach 1) alles bewiesen. Sei nun X ein gleichgradig integrierbares Supermartingal. Dann ist X := ( X n ) n ein gleichgradig integrierbares Submartingal, und 1) angewandt auf X liefert die Behauptung für X. Bemerkung: a) Wir werden in Satz sehen, daß die gleichgradige Integrierbarkeit in als Bedingung für (11.28) nicht abgeschwächt werden kann. b) Eine einfache hinreichende Bedingung für gleichgradige Integrierbarkeit in ist nach 2.27 sup n IN 0 E( X n p ) < für ein p > 1. Häufig kann man diese Bedingung etwa für p = 2 leicht nachprüfen. In werden wir darauf zurückkommen Hilfssatz: Betrachte auf (Ω, A,(F n ) n IN0,P) ein Martingal (Submartingal, Supermartingal) (X n ) n IN0. Gibt es eine Zufallsvariable X L 1 (Ω, F,P) so daß (11.28) gilt, so kann ((X n ) n IN0, (F n ) n IN0 ) durch Hinzunahme von (X, F ) aus (11.28)+(11.20 ) zu einem Martingal (Submartingal, Supermartingal) ) ((X n ) n IN0, (F n ) n IN0 fortgesetzt werden (IN 0 = IN 0 {+ }, F = σ( n IN 0 F n )). Dies ist ein Abschluß wie in 11.20, aber mit der zusätzlichen Eigenschaft (11.28). Beweis: Die L 1 -Konvergenz in (11.28) liefert für jedes feste m lim X n dp = n m, n F F X dp für alle F F m. (X n ) n IN0 ist ein Martingal (Submartingal, Supermartingal), also ist die Folge ( F X n dp) n m konstant (bzw. aufsteigend, bzw. fallend), also gilt für jedes m und jedes F F m = Martingal E P (1 F X m ) E P (1 F X ) falls (X n ) n IN0 Submartingal Supermartingal. Damit ist ein Abschluß als Martingal (Submartingal, Supermartingal) gefunden.
30 30 Martingale in diskreter Zeit Konvention: Betrachte auf (Ω, A,P) eine (F n ) n IN0 -Stopzeit T : Ω IN 0 und ein Martingal (Submartingal, Supermartingal) (X n ) n IN0 bezüglich (F n ) n IN0. In diesem Zusammenhang definiert man den Zustand von X zur Zeit T oft auch durch ( ) X T := n IN 0 X n 1 {T=n} mit Hilfe der hier zur Verfügung stehenden Variablen X, anstelle der (die Konstante 0 als default value benutzenden) allgemeinen Definition aus Wir benutzen die auf 11.27, (11.28) und zugeschnittene Konvention ( ) (anstelle der in der allgemeinen Situation nicht verbesserbaren Definition aus 11.13) stets nur mit ausdrücklichem Hinweis. Auch mit Konvention ( ) ist X T eine F T -meßbare Zufallsvariable: mit Benutzung des F - meßbaren X auf dem Ereignis {T = } ist X T nach ( ) zuerst wieder F -meßbar; danach bleibt für Mengen B B(IR) das Argument aus {X T B} {T = l} F l, l IN 0 unverändert gültig: also ist {X T B} in F T Hilfssatz: Sei I [0, ] eine Indexmenge. Betrachte auf (Ω, A,P) einen stochastischen Prozeß X = (X t ) t I, adaptiert an eine Filtration (F t ) t I in A. a) Ist X = (X t ) t I ein Submartingal, ist g : IR IR konvex und nichtfallend, und ist g(x t ) in L 1 (P) für alle t I, so ist auch (g(x t )) t 0 ein Submartingal. b) Ist X = (X t ) t I ein Martingal, so ist ( X t ) t I ein nichtnegatives Submartingal. Beweis: a) Sei X ein Submartingal. Zunächst ist eine konvexe Funktion g : IR IR meßbar, da {g a} für jedes a IR ein Intervall ist. Der Prozeß (g(x t )) t I ist damit (F t ) t I -adaptiert, und nach Voraussetzung gilt g(x t ) L 1 (P) für alle t I. Für ein Submartingal X liefert die Jensen-Ungleichung kombiniert mit der Monotonie von g( ) s < t I = E(g(X t ) F s ) g(e(x t F s ) }{{} X s ) g(x s ). b) Sei X ein Martingal. Die Jensen-Ungleichung für die konvexe Funktion g(x) = x zeigt E( X t F s ) E(X t F s ) }{{} = X s. =X s
31 Kapitel XI Satz: Betrachte ein nichtnegatives Submartingal X = (X n ) n IN0 auf (Ω, A,(F n ) n IN0,P). Sei T die Klasse aller (F n ) n IN0 -Stopzeiten mit endlich vielen Werten (d.h. {T(ω) : ω Ω} ist eine endliche Teilmenge von IN 0 ). Dann gilt (mit Konvention ( ) aus 11.30) die Familie {X T : T T } ist gleichgradig integrierbar. Beweis: Wegen der Nichtnegativität von X ist zu zeigen (vgl. 2.25): zu jedem ε > 0 existiert ein K = K(ε) < so daß sup T T {X T K} X T dp < ε. 1) Sei T T. Für das Submartingal X = (X n ) n IN0 gilt X n L 1 (P), n IN 0. Bezeichnet man mit t 1 <... < t l + (abhängig von T) die endlich vielen für T möglichen Werte, so folgt X T L 1 (P) aus der trivialen Abschätzung X T X t X tl. Für Ereignisse F F T impliziert wegen F {T = t i } F ti die Submartingaleigenschaft von (X n ) n IN0 nach Aufspalten von F E(1 F (X X T )) = l E(1 F {T=ti }(X X ti )) 0 ; i=1 insbesondere erhält man für F = {X T K} F T, K < beliebig, die Aussage (+) {X T K} X T dp {X T K} 2) Da X L 1 (P), gibt es zu jedem ε > 0 ein δ > 0 so daß (++) A A, P(A) < δ = hierzu wählt man zuerst ein N IN so daß {X >N} A X dp < ε 2, X dp. X dp < ε : setzt δ := 1 N ε 2, dann gilt für jedes A A mit P(A) < δ X dp N P(A {X N}) + X dp < ε. {X >N} A Wählt man nun eine Konstante K 1 δ E(X ), hat man wegen (+) (+ + +) P(X T K) E(X T) K E(X ) K δ für jedes T T.
32 32 Martingale in diskreter Zeit 3) Sei ε > 0 beliebig. Zusammen ergibt sich mit K und δ wie oben X T dp X dp < ε {X T K} {X T K} für beliebiges T T, nach (+), (+++) und (++), und damit die Behauptung Hauptsatz über gleichgradig integrierbare Martingale: Sei (X n ) n IN0 ein Martingal auf (Ω, A,(F n ) n IN0,P). Die folgenden Aussagen sind gleichwertig: i) die Familie {X n : n IN 0 } ist gleichgradig integrierbar; ii) (X n ) n konvergiert P-fast sicher und in L 1 (P) gegen eine F -meßbare Variable X ; iii) X kann zu einem Martingal (X n ) n IN0 bezüglich (F n ) n IN0 fortgesetzt werden. Unter jeder dieser Bedingungen gilt in der Fortsetzung aus iii) X n = E(X F n ) P-fast sicher, für jedes n IN 0. Beweis: i)= ii) ist eine Teilaussagen von 11.27; ii)= iii) ist Wir zeigen iii)= i): Ist (X n ) n IN0 ein Martingal bezüglich (F n ) n IN0, so ist nach b) ( X n ) n IN0 ein nichtnegatives Submartingal bezüglich (F n ) n IN0. Nach ist dann da die konstanten Zeiten T n insbesondere Stopzeiten in T sind zuerst { X n : n IN 0 } und damit auch {X n : n IN 0 } eine gleichgradig integrierbare Familie. Mit stellt sich also das einfache Beispiel 1.7 (Martingale als sukzessive Prognosen an ein unendlich fernes Ziel) als Prototyp gleichgradig integrierbarer Martingale heraus Stopsatz in gleichgradig integrierbaren Martingalen: Betrachte ein Martingal X = (X n ) n IN0 auf (Ω, A,IF = (F n ) n IN0,P) mit der Eigenschaft die Familie {X n : n IN 0 } ist gleichgradig integrierbar. a) Dann gilt für beliebige IF-Stopzeiten S T (mit Konvention ( ) aus für X S und X T ): E(X T F S ) = X S. b) Jede aufsteigende Folge (T j ) j von IF-Stopzeiten liefert ein zeittransformiertes Martingal X = (X Tj ) j bezüglich ĨF = (F Tj ) j.
33 Kapitel XI 33 Beweis: Da b) aus a) folgt, reicht es, a) zu beweisen. Arbeite mit dem Abschluß ((X n ) n IN0, (F n ) n IN0 ) nach bzw. nach Seien S T IF-Stopzeiten; zu zeigen ist ( ) E(1 F X S ) = E(1 F X T ) für beliebiges F F S. Dabei kann man sich auf Ereignisse F F S mit F {S < } beschränken: als IF-Stopzeit ist S eine F S meßbare Zufallsvariable, also gilt F {S < } F S falls F F S ; wegen S T und Konvention ( ) in gilt X S = X T = X auf {S = }, folglich muß ( ) nur für F {S < } anstelle von F bewiesen werden. Wir betrachten also F F S mit F {S < }; für diese gilt F {S n} F, n. 1) Stets gilt für F F S F n = F {S n} F S n für jedes n IN 0 denn für l IN 0 beliebig F n {S n l} = (F {S n}) {S l} = F {S l n} F l n F l. 2) Wende b) und an auf das Martingal (X n ) n IN0 : zuerst ist ( X n ) n IN0 ein nichtnegatives Submartingal, dann ist die Familie { X S n : n IN 0 } gleichgradig integrierbar, denn jedes S n ist eine Stopzeit mit endlich vielen Werten. Damit sind auch {X S n : n IN 0 } und erst recht {1 Fn X S n : n IN 0 } gleichgradig integrierbare Familien. Nach konvergiert (X n ) n P-fast sicher gegen X, also konvergiert (1 Fn X n ) n P-fast sicher gegen 1 F X. Wegen gleichgradiger Integrierbarkeit wird daraus (+) 1 Fn X S n 1 F X S P-fast sicher und in L 1 (P), n. Wiederholt man das Argument mit T statt S, erhält man für dieselbe Folge (F n ) n (++) 1 Fn X T n 1 F X T P-fast sicher und in L 1 (P), n.
34 34 Martingale in diskreter Zeit 3) Doob s Stopsatz für beschränkte Stopzeiten zeigt aber (+ + +) E(1 Fn X S n ) = E(1 Fn X T n ) für jedes n IN 0, denn F n = F {S n} F S n nach Schritt 1). Zusammen liefern (+) bis (+++) die Aussage ( ), und der Beweis ist abgeschlossen. E. L p -Ungleichungen und L p -Martingale Unter welchen Bedingungen kann für Martingale wie in die dortige Konvergenzaussage zu einer Konvergenz in L p, p > 1, verschärft werden? Satz (Doob): Betrachte den Maximumsprozeß X = (X n) n IN0 zu einem nichtnegativen Submartingal X = (X n ) n IN0 auf (Ω, A, IF = (F n ) n IN0,P) X n := max 0 k n X k, n IN 0. Für beliebiges p > 1 und q definiert durch 1 p + 1 q = 1 gilt die Abschätzung X n p X n p q X n p für beliebiges n IN, mit p = L p (Ω,A,P). Beweis: Wir beweisen das zweite Ungleichheitszeichen; das erste ist trivial. Fixiere n 1 und p > 1, assoziiere q = p p 1 zu p > 1. Wir setzen voraus X n L p (P) und X n p 0 (sonst wäre nichts zu zeigen). 1) Betrachte ein Paar nichtfallender stetiger Funktionen F,G : [0, ) [0, ) mit F(0) = G(0) = 0, aufgefaßt als Verteilungsfunktionen σ-endlicher Maße auf (0, ), welche durch ( ) G(dr) = 1 F(dr) auf (0, ) r gekoppelt sind (ein Beispiel wird in Schritt 2) gegeben). Da das Submartingal X nach Voraussetzung nichtnegativ ist, gilt mit Fubini für jedes N < nach ( ) E(F(X n N)) = = Ω N 0 P(dω) X n (ω) N 0 F(dr) = F(dr) P({X n > r}) = Ω N 0 P(dω) N 0 G(dr) r P(X n > r ) 1 {X n (ω)>r} F(dr)
35 Kapitel XI 35 und weiter unter Ausnutzung der Doob-Ungleichung i) N [ ] G(dr) X n dp 0 { Xn>r } X n (ω) N = P(dω)X n (ω) G(dr) Ω = E ( X n G(X n N)) <. Mit Hölder 2.14 erhalten wir für p und q wie oben ( ) E(F(X n N)) E (X n G(X n N)) X n p G(X n N) q. 2) Nach Wahl von p und q gilt 1 q = 1 p (p 1) und (p 1)q = p. Also gilt ( ) insbesondere für F(y) := y p, G(y) := q y p 1, 0 < y <, 0 und man schreibt mit Z := Xn N ( 1/q G(Z) q = q [Z p 1 ] dp) q = q In diesem Spezialfall schreibt sich ( ) also als ( ) 1 Z p p (p 1) dp = q Z p 1 p. ( Xn N p ) p X n p q ( Xn N p ) p 1. Da X n in L 1 (P) und da Xn N nach Konstruktion beschränkt ist, sind alle Normen in der letzten Ungleichung endlich, also gilt nach Division durch ( Xn N p) p 1 Xn N p q X n p. Hieraus folgt für N die Aussage des Satzes Folgerung: Sei X = (X n ) n IN0 ein nichtnegatives Submartingal und X der Maximumsprozeß zu X wie in Sei p > 1. Dann ist die Bedingung ( ) hinreichend für und mit q := p p 1 X gilt die Abschätzung sup n IN 0 E(X p n) < := sup X n L p (P), n IN 0 sup n IN 0 X n p X p q sup n IN 0 X n p.
KAPITEL 1. Martingale
KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst
MehrVorlesungsskript: Martingale
Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................
Mehr2 Martingale in stetiger Zeit
2 Martingale in stetiger Zeit Ziel dieses Abschnitts ist es die wichtigsten Resultate für Martingale aus diskreter Zeit in stetige Zeit zu übertragen. Wie zu erwarten ist treten in stetiger Zeit einige
MehrKapitel 7. Martingale 1
Kapitel 7 Martingale 1 7.1 Definition: a) (Ω, F) sei ein messbarer Raum. Eine Filtration (oder Filtrierung) ist eine aufsteigende Folge F = (F n ) n N von Teil-σ-Algebren von F, d.h. F n F n+1 F für n
Mehr3 Bedingte Erwartungswerte
3 Bedingte Erwartungswerte 3.3 Existenz und Eindeutigkeit des bedingten Erwartungswertes E A 0(X) 3.6 Konvexitätsungleichung für bedingte Erwartungswerte 3.9 Konvergenzsätze von Levi, Fatou und Lebesgue
MehrKapitel 6 Martingale
Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse
MehrTerminologie Stochastischer Prozesse
Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.
Mehr5 MARTINGALE 64. k = j k=1
5 MRTINGLE 64 5 Martingale 5.1 Bedingte Erwartungswerte Im Folgenden sei stets Z eine Zufallsvariable in R mit E[ Z < oder Z 0 f.s. Falls ein Ereignis mit P() > 0 ist, so erklärt man durch E[Z := 1 P()
Mehr4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale
4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale 4.2 Filtrationen und kanonische Filtrationen 4.3 Supermartingale, Martingale bzw. Submartingale bzgl. der Filtrationen (A t ) t I 4.4 Gleichgradig
MehrStochastische Prozesse
Albert-Ludwigs-Universität Freiburg Vorlesungsskript Stochastische Prozesse apl. Prof. Dr. Stefan Tappe Wintersemester 2017/18 Abteilung für Mathematische Stochastik Inhaltsverzeichnis 1 Grundlegende
Mehr1 Bedingte Erwartungswerte
Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrAbgabetermin: 5. Mai 2017, Uhr
Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung
MehrMathematik für Physiker, Informatiker und Ingenieure
Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel IV SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de
Mehr1.3 Zufallsvariablen
1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P
Mehr3 Markov-Eigenschaft der Brownschen Bewegung
Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t
Mehr8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale
8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale 8.1 Der quadratische Variationsprozess eines stetigen, lokalen Martingals 8.3 Die quadratische Variation einer reellen Brownschen
MehrMeßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :
24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrKapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten
Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem
MehrZufallsvariable, Verteilung, Verteilungsfunktion
Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrAufgaben zu Kapitel 0
Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.
MehrSkript. Martingale. Prof. Dr. Zakhar Kabluchko. Universität Münster Institut für Mathematische Stochastik
Skript Martingale Prof. Dr. Zakhar Kabluchko Universität Münster Institut für Mathematische Stochastik Inhaltsverzeichnis Vorwort 2 Literatur 2 1. Stochastische Prozesse 3 2. Filtrationen 3 3. Martingale
MehrWahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015
Wahrscheinlichkeitstheorie 2 & 3 Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 3. Januar 215 Inhaltsverzeichnis. Bedingte Erwartungswerte 4 1. Martingale, Stoppzeiten und Filtrierungen 9 1.1.
Mehr4 Messbare Funktionen
4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und
MehrErwartungswert als Integral
Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral
MehrStudienbegleitende Prüfung Stochastik 2
Universität Karlsruhe (TH) Institut für Stochastik Prof. Dr. N. Bäuerle Name: Vorname: Matr.-Nr.: Studienbegleitende Prüfung Stochastik 2 27. März 2007 Diese Klausur hat bestanden, wer mindestens 20 Punkte
MehrScheinklausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr13 Auswahlaxiom und Zornsches Lemma
13 Auswahlaxiom und Zornsches Lemma Handout zur Funktionalanalysis I von H. Glöckner, 25.11.2008 Wichtige Teile der modernen Mathematik beruhen auf dem sogenannten Auswahlaxiom der Mengenlehre. Dieses
MehrÜbungen zur Vorlesung Finanzmathematik. Wintersemester 2014/15
Übungen zur Vorlesung Finanzmathematik Wintersemester 2014/15 PD Dr. V. Paulsen Blatt 7 25.11.2014 Aufgabe 1: Ruinwahrscheinlichkeit beim Roulette Sei S n = n X i, n N 0 eine Irrfahrt in Z, die aus dem
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrDarstellungssatz von Riesz in vollständig regulären Räumen. Carina Pöll Wintersemester 2012
Darstellungssatz von Riesz in vollständig regulären Räumen Carina Pöll 0726726 Wintersemester 2012 Inhaltsverzeichnis 1 Einleitung 1 2 Definitionen und Resultate aus der Topologie 1 3 Der Darstellungssatz
Mehr8 Martingale und Stoppzeiten
8 Martingale und Stozeiten Definition Sei I eine beliebige Indexmenge und (Ω, A, P ) ein Wahrscheinlichkeitsraum. a) Eine Familie von Zufallsvariablen (X t ) t I auf (Ω, A, P ) heißt stochastischer Prozess
Mehr20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen
20 Gleichmäßige Konvergenz für Folgen und Reihen von Funktionen 20.1 Folgen und Reihen von Funktionen 20.3 Die Supremumsnorm 20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20.7 Das Cauchy-Kriterium
Mehr7. Die Brownsche Bewegung
7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen
MehrStrassen Type Theorems Proseminar Stochastik
Strassen Type Theorems Proseminar Stochastik Cecelie Hector Universität Hamburg Fachbereich Mathematik SoSe 2004 Vortrag am 25.06.04 Definition (a). Ein topologischer Raum E heißt polnisch, wenn es eine
Mehr3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte
Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +
MehrAnalysis I - Stetige Funktionen
Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt
MehrSchwache Konvergenz von Wahrscheinlichkeitsmaßen
Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind
MehrStoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016
Stoppzeiten und Charakteristische Funktionen Tutorium Stochastische Prozesse 15. November 2016 Inhalte des heutigen Tutoriums Im heutigen Tutorium besprechen wir: (1) Eindeutigkeit von Maßen ohne schnittstabilen
MehrAnalysis I. Guofang Wang Universität Freiburg
Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum
MehrA. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109
A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 19 A. Stochastische Prozesse und Stoppzeiten In dieser Vorlesung arbeiten wir immer auf einem Massraum (Ω, F), der gross genug ist, um alle definierten Objekte
MehrStochastik Wiederholung von Teil 1
Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,
MehrKapitel 6 Grenzwerte von Funktionen und Stetigkeit
Kapitel 6 Grenzwerte von Funktionen und Stetigkeit 225 Relle Funktionen Im Folgenden betrachten wir reelle Funktionen f : D R, mit D R. Wir suchen eine formale Definition für den folgenden Sachverhalt.
MehrEinführung in die Stochastik 6. Übungsblatt
Einführung in die Stochastik 6. Übungsblatt Fachbereich Mathematik SS M. Kohler 3. Mai A. Fromkorth D. Furer Gruppen und Hausübung Aufgabe (a) Die Wahrscheinlichkeit, dass eine S Bahn Verspätung hat, betrage.3.
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
MehrBrownsche Bewegung: Eine Einführung
Brownsche Bewegung: Eine Einführung Batu Güneysu Institut für Mathematik Humboldt-Universität zu Berlin Greifswald, 18.04.2018 Batu Güneysu Brownsche Bewegung: Eine Einführung 1 / 14 Wir fixieren m N und
Mehr7. Die Brownsche Bewegung
7. DIE BROWNSCHE BEWEGUNG 2 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen
MehrMathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript
Mathematik I für Studierende der Geophysik/Ozeanographie, Meteorologie und Physik Vorlesungsskript Janko Latschev Fachbereich Mathematik Universität Hamburg www.math.uni-hamburg.de/home/latschev Hamburg,
MehrKonvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen
Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess
MehrWie in der reellen Analysis üblich notiert man Folgen f in der Form
2.1.3 Folgen und Konvergenz Viele aus der Analysisvorlesung bekannte Begriffe lassen sich in den Bereich der metrischen Räume verallgemeinern. Diese Verallgemeinerung hat sich als sehr nützliches mathematisches
MehrStochastische Analysis
Stochastische Analysis SS1 von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 6. Mai 21 Inhaltsverzeichnis 1 Motivation / Einführung 4 1.1 Motivation anhand
Mehrsign: R R, sign(x) := 0 falls x = 0 1 falls x < 0 Diese ist im Punkt x 0 = 0 nicht stetig, denn etwa zu ε = 1 finden wir kein δ > 0
ANALYSIS FÜR PHYSIK UND VERWANDTE FÄCHER I 81 3. Stetigkeit 3.1. Stetigkeit. Im Folgenden sei D R eine beliebige nichtleere Teilmenge. Typischerweise wird D ein allgemeines Intervall sein, siehe Abschnitt
Mehr1 0, x C X (A). = 1 χ A(x).
Aufgabe 1 a) Wir müssen nur zeigen, dass χ A B (x) = χ A (x) χ B (x) für alle x X gilt. (Dass χ A χ B Abbildung von X in {0, 1} ist, ist klar.) Sei also x X beliebig. Fall 1: x A B. Dies bedeutet x A und
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
Mehrist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1
24 14 Metrische Räume 14.1 R n als euklidischer Vektorraum Die Menge R n = {(x 1,..., x n ) x i R} versehen mit der Addition und der skalaren Multiplikation x + y = (x 1 + y 1,..., x n + y n ) λx = (λx
MehrLösungsvorschläge für das 5. Übungsblatt
Lösungsvorschläge für das 5. Übungsblatt Aufgabe 6 a) Sei = [0, ], f(x) := [e x ] für x. Hierbei ist [y] := maxk Z k y} für y. Behauptung: f ist messbar und es ist f(x) dx = 2 log 2. falls x [0, log 2),
MehrVorlesung Der Satz von Fubini. 6.2 Der Satz von Beppo Levi 6.1. DER SATZ VON FUBINI 33
6.1. DER SATZ VON FUBINI 33 Vorlesung 6 6.1 Der Satz von Fubini Das Lebesgue-Integralkann natürlichauchüber mehrdimensionale Gebiete definiert werden. Wir haben uns hier auf den eindimenionalen Fallbeschränkt.
MehrKapitel X: Reguläre bedingte Wahrscheinlichkeitsverteilungen
Reinhard Höpfner Vorlesung Stochastik Kapitel X: Reguläre bedingte Wahrscheinlichkeitsverteilungen Wintersemester 2016/17 Institut für Mathematik, Johannes Gutenberg Universität Mainz November 18, 2016
Mehr53 Die Parsevalsche Gleichung
53 Die Parsevalsche Gleichung 53 Die Parsevalsche Gleichung 5 53. Skalarprodukte auf Räumen quadratintegrierbarer Funktionen. a) Die Orthogonalitätsrelationen (5.5) legen die Interpretation des Ausdrucks
MehrBeweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.
Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf
Mehr6. Übungsblatt zur Einführung in die Stochastik
Fachbereich Mathematik Prof. Dr. Michael Kohler Dipl.-Math. Andreas Fromkorth Dipl.-Inf. Jens Mehnert SS 9 1.6.29 6. Übungsblatt zur Einführung in die Stochastik Aufgabe 22 Sei P ein auf der Borelschen
Mehr2.6 Der Satz von Fubini
1 2.6 Der Satz von Fubini Unser Ziel ist der Beweis des folgenden Ergebnisses. 6.1. Satz von Fubini Sei f : R n+m R integrierbar. Dann gibt es eine Nullmenge N R m, so dass gilt: 1. Für alle y R m \ N
MehrVollständigkeit. 1 Konstruktion der reellen Zahlen
Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente
MehrKapitel VI: Schwache Konvergenz
Reinhard Höpfner Vorlesung Stochastik I Kapitel VI: Schwache Konvergenz Sommersemester 2016 Institut für Mathematik, Johannes Gutenberg Universität Mainz October 5, 2016 1 Übersicht zu Kapitel VI : A.
MehrRegulär variierende Funktionen
KAPITEL 4 Regulär variierende Funktionen Unser nächstes Ziel ist es, die Max-Anziehungsbereiche der Extremwertverteilungen zu beschreiben. Dies wird im nächsten Kapitel geschehen. Wir haben bereits gesehen,
MehrSchwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik
Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind
MehrStochastische Prozesse
Stochastische Prozesse Prof. Dr. H.R. Lerche Abteilung für Mathematische Stochastik Universität Freiburg März 2014 Inhaltsverzeichnis 1 Martingale 1 1.1 Definitionen und Eigenschaften..........................
Mehr2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit
2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit a) Fortsetzungssatz, Eindeutigkeit Es wird gezeigt, dass jedes Prämaß µ auf einem Ring R zu einem Maß µ auf A(R) fortgesetzt werden kann, d.h. µ kann
MehrLösungen zur Übungsserie 9
Analysis 1 Herbstsemester 2018 Prof. Peter Jossen Montag,? November Lösungen zur Übungsserie 9 Aufgaben 1,2,3,5,6,8,9,11 Aufgabe 1. Sei a R. Berechnen Sie die folgenden Grenzwerte, falls sie existieren.
MehrTopologische Grundbegriffe I. 1 Offene und Abgeschlossene Mengen
Topologische Grundbegriffe I Vortrag zum Proseminar Analysis, 26.04.2010 Nina Neidhardt und Simon Langer Im Folgenden soll gezeigt werden, dass topologische Konzepte, die uns schon für die Reellen Zahlen
MehrFinanzmathematik I Lösungvorschläge für Übungsblatt 1
Finanzmathematik I Lösungvorschläge für Übungsblatt 1 J. Widenmann ufgabe 1: Zu zeigen ist, dass Q die Definition Ü.1.1.2 erfüllt. Zunächst bemerken wir, dass Q wegen der nnahme f 0 Werte in R + annimmt.
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
Mehr2 Folgen und Reihen. 2.1 Folgen in C Konvergenz von Folgen. := f(n)
2 Folgen und Reihen 2.1 Folgen in C 2.1.1 Konvergenz von Folgen Eine Folge komplexer Zahlen ist eine Funktion f : N C. Mit a n schreibt man (a n ) n=1, (a n ) oder auch a 1, a 2,.... := f(n) (a n ) heißt
MehrKommutativität. De Morgansche Regeln
1. Formale Logik Proposition 1.1. Die logischen Elementarverknüpfungen gehorchen folgenden Äquivalenzen: (1.1) (1.2) p p p p p p Idempotenz (1.3) (1.4) p q q p p q q p Kommutativität (1.5) (1.6) (p q)
MehrZufallsvariable in separablen Banach- und Hilbert-Räumen
Zufallsvariable in separablen Banach- und Hilbert-Räumen Hans-Jörg Starkloff TU Bergakademie Freiberg Westsächsische Hochschule Zwickau Januar 2011 Hans-Jörg Starkloff Zufallsvariable in separablen Banach-
MehrGesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
Mehr1.3 Wiederholung der Konvergenzkonzepte
1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche
MehrSkript zur Vorlesung Analysis 3
Skript zur Vorlesung Analysis 3 Wintersemester 2013/2014 Prof. Dr. Benjamin Schlein Inhaltsverzeichnis 1 Masstheorie 2 1.1 σ-algebren.................................. 6 1.2 Masse.....................................
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrKapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).
Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche
MehrWahrscheinlichkeitstheorie II
Wahrscheinlichkeitstheorie II Vorlesung vo 24.04. Christian Wiesel V5-09...2.3 Martingale, Stoppzeiten und Filtrierungen Stochastische Prozesse und -Algebren Stoppzeiten Martingale.3a Martingale in diskreter
Mehrx, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
MehrErwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich
Erwartungswert Naiv stellt man sich unter dem Erwartungswert einer Zufallsvariablen X Folgendes vor. Man führt das Experiment n-mal durch und bestimmt den Mittelwert (arithmetisches Mittel) der dabei für
MehrANALYSIS I FÜR TPH WS 2018/19 3. Übung Übersicht
ANALYSIS I FÜR TPH WS 208/9 3. Übung Übersicht Aufgaben zu Kapitel 5 und 6 Aufgabe : Konvergenz von Reihen (i) Aufgabe 2: Konvergenz von Reihen (ii) Aufgabe 3: ( ) Konvergenz von Reihen (iii) Aufgabe 4:
MehrLehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler
Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik II Wahrscheinlichkeitstheorie I Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 26. November 2002
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrHawkes Prozesse Grundlagen
Hawkes Prozesse Grundlagen Im Folgenden sei (Ω, F, F, P) eine stochastische Basis. Das heißt F = (F t ) t ist eine rechtsstetige Filtration mit F t F für alle t und P ein Wahrscheinlichkeitsmaß auf dem
Mehr(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist.
8 Punktmengen Für die Menge M = { 1 n ; n N } ist 1 = max(m), denn 1 M und 1 n 1 für alle n N. Die Menge M besitzt aber kein Minimum, denn zu jeder Zahl x = 1 n M existiert ein y M mit y < x, etwa y =
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
Mehr15. Bereichsintegrale
H.J. Oberle Analysis III WS 212/13 15. Bereichsintegrale 15.1 Integrale über uadern Ziel ist die Berechnung des Volumens unterhalb des Graphen einer Funktion f : R n D R, genauer zwischen dem Graphen von
MehrTopologische Grundbegriffe II. Inhaltsverzeichnis
Vortrag zum Seminar zur Analysis, 03.05.2010 Dennis Joswig, Florian Goy Aufbauend auf den Resultaten des Vortrages Topologische Grundbegriffe I untersuchen wir weitere topologische Eigenschaften von metrischen
MehrÜbungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016
Übungen zu bedingten Erwartungswerten Tutorium Stochastische Prozesse 13. Dezember 2016 Bedingter Erwartungswert Definition Sei X eine reellwertige Zufallsvariable auf (Ω, A, P), so dass E[ X ]
MehrAnalysis I für Studierende der Ingenieurwissenschaften
Analysis I für Studierende der Ingenieurwissenschaften Ingenuin Gasser Department Mathematik Universität Hamburg Technische Universität Hamburg Harburg Wintersemester 2008/2009 1 Definition: Sei M R, alsom
Mehrheißt Exponentialreihe. Die durch = exp(1) = e (Eulersche Zahl). n! + R m+1(x) R m+1 (x) = n! m m + 2
9 DIE EXPONENTIALREIHE 48 absolut konvergent. Beweis. Wegen x n+ n! n + )!x n = x n + < 2 für n 2 x folgt dies aus dem Quotientenkriterium 8.9). Definition. Die Reihe x n heißt Exponentialreihe. Die durch
MehrEinführung in die angewandte Stochastik
Einführung in die angewandte Stochastik Fabian Meyer 5. April 2018 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 3 1.1 Definitionen................................... 3 1.2 Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsverteilung,
Mehr