Kapitel 7. Martingale 1

Größe: px
Ab Seite anzeigen:

Download "Kapitel 7. Martingale 1"

Transkript

1 Kapitel 7 Martingale Definition: a) (Ω, F) sei ein messbarer Raum. Eine Filtration (oder Filtrierung) ist eine aufsteigende Folge F = (F n ) n N von Teil-σ-Algebren von F, d.h. F n F n+1 F für n N. Ist P ein Wahrscheinlichkeitsmaß auf (Ω, F), so nennt man (Ω, F, F, P) einen filtrierten Wahrscheinlichkeitsraum. b) (E, E) sei ein zweiter messbarer Raum. Eine Folge X := (X n ) n N von Abbildungen Ω E heißt F-adaptiert, falls für alle n N X n F n -E-messbar ist und F-vorhersagbar oder F-prävisibel, wenn X 1 konstant und für alle n 2 X n F n 1 -E-messbar ist. Oft wird als Indexmenge statt N auch N 0 verwendet. Notation: F := ( ) F n = σ F n F. n n=1 Beispiel: X := (X n ) sei eine Folge von F-E messbaren Abbildungen. F n := σ(x 1,..., X n ) = n X 1 j (E). j=1 F = (F n ) n N ist eine Filtrierung. (X n ) ist F-adaptiert. F heißt die von X erzeugte Filtration. 7.2 Bemerkung: Sei X := (X n ) eine F-adaptierte (E, E)-wertige Folge. F n : E n E sei E n -E - messbar, wobei (E, E ) ein neuer messbarer Raum ist. Y n := F n (X 1,..., X n ) ist dann ebenfalls F-adaptiert. Notation: N = N { } 1 Version Dezember

2 7.3 Definition: Sei F eine Filtrierung auf (Ω, F). Eine Abbildung ν : Ω N heißt F-Stoppzeit, falls für alle n N gilt: {ν = n} F n Bemerkung: ( c Wegen {ν = n} F n F gilt {ν = } = {ν = n}) F. n=1 7.5 Beispiele: X := (X n ) sei F-adaptiert, (E, E)-wertig. (a) A E, ν A = inf{n N : X n A} (,wobei inf := ). Dann ist ν A eine Stoppzeit. Für n N gilt {ν A = n} = {X n A} n 1 {X k A c } F n. (b) Sei τ eine beliebige Stoppzeit, A E und ν := inf{n > τ : X n A}. Dann ist ν eine Stoppzeit. ( {ν = n} = {X n A} n 1 {τ = k} n 1 l=k+1 ) {X l / A} Aus a), b) folgt: Zweiteintrittszeiten etc. sind Stoppzeiten. 7.6 Definition: ν sei eine F-Stoppzeit F n. F ν := {A F : A {ν = n} F n n} heißt σ-algebra der Prä-ν-Ereignisse. Man prüfe nach, dass F ν eine σ-algebra ist und ν F ν -messbar ist! Bemerkung: ν : Ω N sei konstant = m N. Dann gilt { n m {ν = n} = Ω n = m F n. F ν = {A F : A {ν = n} F n Somit gilt F ν = F m. n}. 2

3 Beispiel: Sei ν = ν A wie in Beispiel 7.5(a) und C E. Wir betrachten das Ereignis D, dass X n mindestens einmal in C ist, bevor es nach A gelangt: 7.7 Lemma: D = { n < ν mit X n C}. D σ(x n : n N) F. n 1 D {ν = n} = {ν = n} {X k C} F n n D F ν. (a) Sei ν : Ω N eine Abbildung. ν ist genau dann eine F-Stoppzeit, wenn {ν n} F n für alle n N gilt. (b) A F liegt genau dann in F ν, wenn A {ν n} F n für alle n gilt. a) I) Sei ν eine Stoppzeit. Dann folgt {ν n} F n II) Umkehrung: {ν = n} = {ν n} \ {ν n 1} F n. b) analog. 7.8 Lemma: Sei ν k, k N eine Folge von Stoppzeiten. Dann sind sup ν k und inf k k (sup N = ). ν k Stoppzeiten {sup ν k n} = k {inf k ν k n} = {ν k n} F n {ν k n} F n. Die Behauptung folgt nun aus

4 7.9 Lemma: ν, ν seien zwei Stoppzeiten. Dann gilt: a) {ν ν }, {ν = ν } F ν F ν. b) Gilt ν ν, so folgt F ν F ν. c) F ν ν = F ν F ν. d) Ist X = (X n ) adaptiert und ν(ω) < für alle ω, dann ist X ν F ν -messbar. a) ν, ν sind F -messbar. Daher gilt {ν ν } F. {ν ν } {ν = n} = {ν = n} {ν n} F n n {ν ν } F ν. {ν ν } {ν = n} = {ν = n} {ν n} F n n {ν ν } F ν. {ν = ν } = {ν ν } {ν ν} F ν F ν. b) A F ν A F. A {ν n} = A {ν n} {ν n} }{{}}{{} F n c) und d) Übungsaufgabe. F n F n n Definition: X = (X n ) sei eine Folge von F-adaptierten, integrierbaren reellen Zufallsgrößen auf einem filtrierten Wahrscheinlichkeitsraum (Ω, F, F, P). a) X heißt F-Martingal, wenn für alle n N E(X n+1 F n ) = X n f.s. gilt. b) X heißt F-Submartingal, wenn für alle n N E(X n+1 F n ) X n f.s. gilt. c) X heißt F-Supermartingal, wenn X ein F-Submartingal ist. Ist F die von (X n ) erzeugte Filtration, so sagt man statt F-Martingal oft einfach Martingal (analog für Submartingal und Supermartingal). Bemerkung: a) Ist X = (X n ) ein F-(Sub-)Martingal, so gilt E(X m F n ) = ( )X n für alle m n. Insbesondere gilt EX m = ( )EX n für alle m n. b) Ist X = (X n ) ein F-(Sub-)Martingal, dann auch ein (Sub-)martingal (bezüglich der von X erzeugten Filtration). 4

5 7.11 Beispiele: a) ξ i, i N, seien unabhängige integrierbare Zufallsgrößen mit Eξ i = 0, i N. Sei F n = σ(ξ 1,..., ξ n ), X n = n ξ i. Dann ist (X n ) ein F Martingal. i=1 b) Die ξ i, i N, seien wie in Beispiel a), jedoch L 2. Dann ist X n = ( n ) 2 ξ i n var(ξ i ) ein F Martingal. i=1 i=1 (X n ) ist offensichtlich F-adaptiert. ( n ) 2 n+1 E(X n+1 F n ) = E ξ i + ξ n+1 var(ξ i ) F n i=1 n = X n + E(2ξ n+1 ξ i F n ) + E(ξn+1 F 2 n ) var(ξ n+1 ) = X n + 2 i=1 i=1 n ξ i E(ξ n+1 F n ) + E(ξn+1 F 2 n ) var(ξ n+1 ) = X n i=1 wegen E(ξ n+1 F n ) = E(ξ n+1 ) = 0 und E(ξ 2 n+1 F n ) = E(ξ 2 n+1) = var(ξ n+1 ). c) Polyas Urnenschema Zur Erinnerung an W.-Theorie I: Polyas Urnenschema ist eine Markovkette auf N N mit Übergangswahrscheinlichkeiten p((r, s), (r + 1, s)) = r r + s p((r, s), (r, s + 1)) = s r + s (die anderen sind 0). Ist (R 0, S 0 ) = (1, 1), (R 1, S 1 ), (R 2, S 2 ),... eine Markovkette mit diesen Übergangswahrscheinlichkeiten, so betrachten wir X n = R n R n + S n = (X n ) ist dann ein F-Martingal. R n n + 2, F n = σ((r 0, S 0 ), (R 1, S 1 )..., (R n, S n )). E(X n+1 F n ) = E( R n+1 F n+3 n) = Rn Rn+1 Rn + (1 ) Rn = X n+2 n+3 n+2 n+3 n. 5

6 d) Ist X eine beliebige integrierbare Zufallsgröße und F = (F n ) eine beliebige Filtrierung, so wird durch X n = E(X F n ) ein F-Martingal definiert Proposition: a) Sei X ein F-Martingal, ϕ : R R konvex und E ϕ(x n ) < für alle n N. Dann ist ϕ(x) := (ϕ(x n )) n N ein F-Submartingal. b) Sei X ein F-Submartingal, ϕ : R R konvex und nichtfallend und E ϕ(x n ) < für alle n N. Dann ist ϕ(x) ein F-Submartingal. Mit der Jensenschen Ungleichung für bedingte Erwartungen folgt in beiden Fällen für n N E(ϕ(X n+1 ) F n ) ϕ(e(x n+1 F n )). Im Fall a) ist der letzte Ausdruck gleich ϕ(x n ), im Fall b) ϕ(x n ) Stoppsatz: Sei X ein F-Submartingal, N N und S und T Stoppzeiten mit S(ω) N und T (ω) N für alle ω Ω. Dann gilt E(X T F S ) X S T f.s. mit Gleichheit, falls X sogar ein F-Martingal ist. Bemerkung: Vor allem der Fall S(ω) T (ω) für alle ω Ω ist wichtig. Auch die spezielleren Fälle S 1 sowie der Fall T N sind interessant. Ohne die Beschränktheitsbedingung ist der Satz im allgemeinen nicht richtig. So ist die symmetrische Irrfahrt auf Z mit Start in 1 als Spezialfall von 7.11 a) ein Martingal und S 1 und T = inf{n N : X n = 0} Stoppzeiten, aber E(X T F S ) = 0 und X S = X 1 = 1. (i) X S T ist F S T -messbar nach 7.9d) und daher F S -messbar nach ( 7.9b). ) Ebenso folgt, dass X T F T -messbar ist. Wegen E X T E max X i 1 i N ( N ) E X i < gilt X T L 1 (Ω, F, P) und ebenso X S T L 1 (Ω, F, P). i=1 (ii) Zu zeigen bleibt (nach Definition der bedingten Erwartung) X T dp (=) X S T dp (1) B B 6

7 für alle B F S. Es genügt dabei, die Behauptung nur für Mengen der Form B = {S = k} A mit A F S zu zeigen, da sie wegen der Linearität des Integrals dann auch für A F S folgt, indem man A = N (A {S = k}) disjunkt zerlegt. Wir fixieren nun k {1,..., N} und A F S und zeigen (1) für B = A {S = k} mit Induktion bezüglich des größten Wertes m von T, also m := max T (ω). ω Ω m = 1 : hier ist T 1 und beide Seiten von (1) sind X 1 dp. B Als Induktionsvoraussetzung nehmen wir an, dass (1) für alle T mit max T (ω) ω Ω m 1 gilt. Wir zeigen, dass (1) dann auch im Fall max T (ω) = m folgt: ω Ω 1. Fall: m k. Dann gilt B X T dp = E(X T 1 A 1 {S=k} ) = E(X T k 1 A 1 {S=k} ) = E(X S T 1 A 1 {S=k} ) = X S T dp. 2. Fall: m > k. Dann gilt zunächst B und B {T = m} = A {S = k} {T m 1} c F m 1 E(X T 1 B ) = E(X T 1 A 1 {S=k} 1 {T m 1} ) + E(X m 1 A 1 {S=k} 1 {T =m} ) (=) E(X T 1 A 1 {S=k} 1 {T m 1} ) + E(X m 1 1 A 1 {S=k} 1 {T =m} ) = E(X T (m 1) 1 A 1 {S=k} ) (=) E(X T (m 1) S 1 A 1 {S=k} ) = E(X T S 1 B ), wobei beim ersten die Submartingaleigenschaft und beim letzten die Induktionsvoraussetzung verwendet wurde. Damit ist (1) gezeigt Korollar: Sei X ein F-(Sub)martingal, ν eine Stoppzeit und Y n (ω) := X n ν(ω) (ω). Dann ist Y ein F-(Sub)martingal. Für n N folgt E(Y n+1 F n ) = E(X (n+1) ν F n ) ( ) = Y n aus 7.13, indem man dort S = n und T = (n + 1) ν setzt. 7

8 7.15 Korollar: Sei X ein F-Martingal mit beschränkten Zuwächsen, dh es existiert β R +, so dass X n+1 (ω) X n (ω) β für alle ω Ω und alle n N. Sei ν eine endliche Stoppzeit mit Eν <. Dann gilt EX ν = EX 1. ν n ν n X ν n = (X k X k 1 ) + X 1 X k X k 1 + X 1 βν + X 1. k=2 k=2 Mit dominierter Konvergenz folgt X ν n X ν in L 1 und daher EX 1 = EX ν n = EX ν Proposition: Ist X ein F-Martingal und H = (H n ) vorhersagbar und gilt für alle n sup ω Ω H n (ω) <, dann ist der Prozess (H X) n := n m=2 H m(x m X m 1 ), n N ein Martingal. Dieser Prozess heißt auch diskretes stochastisches Integral. Sehr einfach! Aufgabe: Wie lange muss man im Mittel warten, bis beim Werfen einer fairen Münze erstmalig die Sequenz WZW unmittelbar hintereinander erscheint? Man kann dies mit etwas Mühe zu Fuß ausrechnen, aber mit Martingalmethoden geht es sehr viel schneller und eleganter! Um die Spannung zu erhalten, wird dies erst in der Vorlesung gezeigt Satz (Doobs maximale Ungleichung): Sei X ein F-Submartingal und N N. Dann gilt für alle x > 0 ( ) ( ) (i) P max X n x 1x E X N 1 {max n N Xn x} (ω) 1 x EX+ N, n N ( ) (ii) P min X ( n x 1 n N x EX + N EX 1). (i) Sei ν := inf{n N : X n x} mit ν := N, falls die Menge leer ist. ν ist eine Stoppzeit mit ν(ω) N für alle ω Ω und A := {max X n x} F ν. n N Mit S := ν und T := N folgt aus 7.13 ({ }) xp max X n x X S dp X T dp EX + N. n N 8 A A

9 (ii) Sei ν := inf{n N : X n x} mit ν := N, falls die Menge leer ist. { } A := min X n x F ν. Mit S := 1 und T := ν folgt aus 7.13 n N ({ }) xp min X n x X T dp = EX T + X T dp n N A A c EX T + X N dp EX 1 + EX + N, A c wobei wir beim vorletzten Ungleichheitszeichen ebenfalls 7.13 anwendeten Definition: Sei F N eine endliche nichtleere Menge, f : N R, a < b reelle Zahlen, τ 1 = inf{t F : f(t) a} und für k = 1, 2,... sei σ k = inf{t > τ k : t F, f(t) b} und τ k+1 = inf{t > σ k : t F, f(t) a}, wobei das Infimum über eine leere Menge als definiert wird. Dann heißt U(a, b, F, f) = max{k : σ k < } Zahl der Upcrossings des Intervalls [a, b] von f in F Doob sche Upcrossingungleichung: Sei X ein F-Submartingal, N N und F = {1,..., N}. Dann gilt für a < b E(U(a, b, F, X(ω))) E((X N a) + ). b a Definiere σ k, τ k wie in Definition Dann sind alle σ k und τ k Stoppzeiten. Mit dem Stoppsatz 7.13 angewendet auf S = σ k N und T = τ k+1 N folgt = E [( U(a,b,F,X(ω)) N ( ) ( 0 E Xτk+1 N X σk N = E Xτk+1 N X σk N) U(a,b,F,X(ω)) k=2 (X σk N X τk N)+X τ(u(a,b,f,x)+1) N (X σ1 N a) a E( (b a)u(a, b, F, X)) + E((X N a) + ), wobei beim letzten 7.13 und 7.12 b) für ϕ(x) = (x a) + verwendet wurde. ) 1 {U(a,b,F,X) 1} (ω) ] 9

10 7.20 Martingalkonvergenzsatz: Sei X ein F-Submartingal mit sup n N E(X + n ) <. Dann existiert eine F - messbare integrierbare Zufallsgröße X, so dass Weiter gilt X (ω) = lim n X n (ω) fast sicher. E X lim inf n E X n. Bemerkung: Für ein F-Submartingal ist n EX n nichtfallend. Daher gilt Außerdem gilt E X n = 2EX + n EX n 2EX + n EX 1. E X n EX + n. Daher ist die Bedingung sup n N E(X + n ) < in 7.20 äquivalent zu sup n N E X n <. Beweis von 7.20: Sei a < b. Wegen (x a) + x + + a gilt c := sup n N E((X n a) + ) <. Aus 7.19 folgt daher (mit monotoner Konvergenz) sup U(a, b, {1,..., N}, X(ω)) < fast sicher. N N Weiter ist N := {ω : sup N N U(q 1, q 2, {1,..., N}, X(ω)) < für alle q 1 < q 2, q 1, q 2 Q} c eine P-Nullmenge und für alle ω / N gilt offenbar, dass X (ω) = lim n X n (ω) existiert, eventuell aber oder ist. Aus dem Lemma von Fatou folgt zusammen mit obiger Bemerkung E X lim inf n E X n <. Insbesondere ist also X integrierbar und damit fast sicher endlich. Die F - Messbarkeit lässt sich gegebenenfalls nach Abänderung auf einer Nullmenge sicherstellen. Konkret ist { lim X n (ω) wenn der Grenzwert in R existiert. X (ω) := n 0 sonst 10

11 F -messbar (vgl. frühere Übungsaufgabe). Bemerkung: Die Bedingung sup n N E(X + n ) < ist automatisch für nichtpositive Submartingale erfüllt. Daher konvergiert jedes nichtpositive Submartingal (und somit jedes nichtnegative Supermartingal) fast sicher Anwendungen: a) Irrfahrt auf N 0 mit absorbierendem Rand. Wir betrachten die Markovkette X 1, X 2,... auf N 0 mit X 1 = 1 und Übergangswahrscheinlichkeit X = (X n ) ist ein positives Martingal: p(i, i + 1) = p(i, i 1) = 1/2 für i 1 p(0, 0) = 1. E(X n+1 X 1,..., X n ) = E(X n+1 X n ) = i N 0 ip(x n, i) = X n. X n konvergiert also f.s. (nach 7.20), was wir allerdings aus WT I ohnehin schon wissen: X n 0, da die symmetrische Irrfahrt auf Z rekurrent ist. Da X ein Martingal ist, gilt EX n = EX 1 = 1. Somit gilt EX = 0 < lim n EX n = 1. b) Polyas Urnenschema (siehe 7.11 c): X = (X n ) ist ein positives Martingal. Die X n sind ferner beschränkt durch 1. Nach 7.20 konvergiert X n f.s. gegen eine Zufallsgröße X. Da die X n beschränkt sind, gilt EX = lim n EX n = EX 1 = 1/2. Im Gegensatz zu den bisher meist betrachteten Situationen ist X nicht eine Konstante. Es gilt nämlich: X ist gleichmäßig auf [0, 1] verteilt. Aus X n X f.s. folgt X n X in Wahrscheinlichkeit, also nach Kapitel 6 X n X in Verteilung. Die Verteilung von X n lässt sich leicht berechnen. R n kann die Werte 1, 2,..., n+1 annehmen. Aus W.-Th. I wissen wir, wie P(R n = k) zu berechnen ist: 11

12 P(R n = k) = p (n) ((1, 1), (k, n + 2 k)), wobei p (n) die n-stufigen Übergangswahrscheinlichkeiten sind. Um sie zu berechnen, summiert man die Produkte der Übergangswahrscheinlichkeiten über alle möglichen Zwischenschritte. Die möglichen Pfade von (1, 1) nach (k, n + 2 k) werden durch die Festlegung der k 1 Zeitpunkte beschrieben, bei denen eine rote Kugel gezogen wird. Jeder dieser Pfade hat offenbar Wahrscheinlichkeit (k 1)!(n+1 k)!. Da es (n+1)! gibt, folgt ( n k 1 P(R n = k) = 1 n + 1, d.h. ( P X n = k ) = 1 für 1 k n + 1. n + 2 n + 1 Daraus ergibt sich L(X n ) λ, wobei λ das Lebesgue-Maß auf [0, 1] ist. ) solcher Pfade c) Starkes Gesetz der großen Zahlen: Satz: Seien X 1, X 2... unabhängige reellwertige Zufallsgrößen mit endlichen zweiten Momenten und (a n ) eine monoton wachsende unbeschränkte Folge positiver reeller Zahlen. Falls var(x i )/a 2 i <, so folgt i=1 lim n a 1 n n (X i EX i ) = 0 fast sicher. i=1 Y n := n (X i EX i )/a i ist ein F-Martingal, wobei F n = σ(x 1,..., X n ). i=1 sup EYn 2 = sup n N n N n var(x i )/a 2 i <. i=1 Somit folgt sup n N E Y n 1 + sup n N EY 2 n <. Nach 7.20 konvergiert Y n fast sicher gegen eine f.s. endliche Zufallsgröße. Die Aussage des Satzes folgt dann mit dem nachfolgenden Lemma (vgl. W.-T. I). Kronecker-Lemma: a n, b n seien zwei reelle Zahlenfolgen. a n > 0 sei monoton wachsend und strebe gegen. Konvergiert n=1 b n/a n in R, so folgt lim n a 1 n n b i = 0. Der Beweis dieses Lemmas sei als Übungsaufgabe dem Leser überlassen. i=1 12

13 Offenbar kann man bei dem starken Gesetz die Unabhängigkeit der X i durch die schwächere Bedingung E(X n+1 EX n+1 X 1,..., X n ) = 0, n N ersetzen, ohne dass der Beweis zu ändern ist. Man sagt, dass (X n EX n ) eine Martingaldifferenzfolge ist, da dann S n := n i=1 (X i EX i ) ein Martingal ist. Eine Frage, die oft interessiert, ist die folgende: Unter welchen Bedingungen konvergiert X n in L 1 gegen X? Wir sahen in 7.21, a) dass dies nicht immer gilt Definition: Ein F-Submartingal, das in L 1 konvergiert, heißt regulär Satz: Sei X ein reguläres F-(Sub)martingal. Dann konvergiert X n auch fast sicher, und für den Grenzwert X gilt für alle n N X n ( ) = E(X F n ) f.s.. X sei der L 1 -Grenzwert der Folge. Aus der L 1 -Konvergenz folgt sup E X n <, n N also konvergiert nach 7.20 die Folge auch fast sicher (und zwar auch gegen X ). Sei δ > 0. Dann gilt für m > n P(E(X F n ) X n < δ) P(E(X F n ) E(X m F n ) < δ) P( E(X F n ) E(X m F n ) > δ) E E(X X m F n ) E(E( X X m F n )) δ δ = E X X m δ 0. m Also folgt E(X F n ) X n fast sicher. Ist X ein F-Martingal, dann sind X und X F-Submartingale, und somit gilt X n = E(X F n ) fast sicher. Als notwendiges und hinreichendes Kriterium für die Regularität eines Martingals wird sich die gleichförmige Integrierbarkeit von X = (X n ) herausstellen Definition: Eine Familie reeller Zufallsgrößen X t, t I (I beliebige Indexmenge) heißt gleichförmig (oder gleichmäßig oder gleichgradig) integrierbar, wenn lim sup X t dp = 0. n t I Bemerkungen: { X t n} 13

14 a) Ist X eine integrierbare ZV, dann ist {X} gleichgradig integrierbar. b) Jede endliche Menge integrierbarer ZV auf einem Wraum ist gleichgradig integrierbar. c) Sind M 1 und M 2 Mengen gleichgradig integrierbarer ZV auf einem Wraum, dann auch M 1 M 2. d) Existiert zu einer Familie M von ZV eine integrierbare Majorante, dann ist M gleichgradig integrierbar. e) Ist X integrierbar, dann ist {Y L 1 (Ω, F, P) : L(Y ) = L(X)} gleichgradig integrierbar Proposition: Sei X t, t I eine Familie von Zufallsgrößen auf (Ω, F, P). Dann sind äquivalent: (i) {X t, t I} ist gleichförmig integrierbar. (ii) sup t I E X t < und für alle ε > 0 existiert ein δ > 0, so dass für alle A F mit P(A) < δ und alle t I gilt: E X t 1 A < ε. (iii) Es existiert eine nichtnegative nichtfallende konvexe Funktion G : [0, ) [0, ) mit lim x G(x) x = und sup EG( X t ) <. t (iv) Es existiert eine nichtnegative messbare Funktion G : [0, ) [0, ) mit G(x) lim x x (i) (ii): Sei n N so gewählt, dass sup t sup t E X t sup t so dass sup t P(A) < δ : = und sup EG( X t ) <. t { X t n} X t dp <. Dann folgt E( 1 { Xt n} X t )+n <. Sei weiter ε > 0. Wähle n = n(ε) N, E( 1 { Xt n} X t ) < ε 2 ε und δ = δ(ε) =. Dann folgt für A F mit 2n E X t 1 A = E( X t 1 A { Xt n}) + E( X t 1 A { Xt <n}) < ε 2 + np(a) < ε 2 + ε 2 = ε. (i) (iii): Sei N k, k N eine wachsende Folge positiver Zahlen, so dass N 1 = 0, N k und C := sup t ke( X t 1 { Xt Nk }) <. 14

15 ( Definiere die stetige Funktion G durch G(0) = 0 und G (x) = k N k+1 x N k+1 N k ), N k x < N k+1, k N. Dann ist G konvex, nichtfallend und erfüllt lim x G(x)/x =. Weiter folgt EG( X t ) = G (y) 1 { Xt y}dydp Ω = Ω Ω 0 Nk+1 N k k( X t N k ) 1 { Xt N k }dp G (y) 1 { Xt y}dydp ke( X t 1 { Xt Nk }) C <. (iii) (iv): trivial. G(x) (iv) (i): Sei n N und M n := inf x n. Dann folgt x sup X t dp 1 sup G( X t )dp. t M n t { X t n} (ii) (i): Sei ε > 0 und n = n(ε) > 1 δ sup t I E X t, n <. Wegen E X t np{ X t n} folgt P{ X t n} < δ, also folgt aus (ii) E( 1 { Xt n} X t ) < ε. Bemerkung: a) Ein wichtiger Spezialfall ist G(x) = x p für p > 1. b) Aus sup t I E X t < folgt nicht die gleichförmige Integrierbarkeit von X t, t I! Ein Beispiel dafür ist I = N, (Ω, F, P) = ([0, 1], B [0,1], λ) und X n = n 1 [0,1/n]. Für den Beweis des folgenden Satzes wird sich das folgende Lemma als nützlich erweisen, dessen Beweis dem Leser überlassen ist Lemma: Eine Folge reeller ZV X k, k N ist gleichgradig integrierbar genau dann wenn alle X k integrierbar sind und lim n lim sup k E( X k 1 { Xk n}) = 0. Der folgende Satz zeigt (auch außerhalb der Martingaltheorie) die Nützlichkeit des Begriffs der gleichförmigen Integrierbarkeit Satz: Sei p [1, ) und X n, n N eine Folge in L p (Ω, F, P) und X eine Zufallsgröße auf (Ω, F, P). Dann sind äquivalent: (i) X n n X in L p (Ω, F, P) Ω 15

16 (ii) α) X n n X in Wahrscheinlichkeit und β) X n p, n N ist gleichförmig integrierbar. (iii) α) X n n X in Wahrscheinlichkeit, β) lim n E X n p = E X p und γ) X L p (Ω, F, P). (i) (iii): α) und γ) sind klar. β) Aus der Dreiecksungleichung für die L p -norm folgt (iii) (ii): Für n > 0 folgt: (E( X k p )) 1/p (E( X p )) 1/p X k X p E( X k p 1 { Xk p n}) E( X k p X k p (n X k p ) + ) k 0. k E( X p X p (n X p ) + ) n 0, wobei wir benutzten, dass eine gleichmäßig (in n und ω) beschränkte Folge von Zufallsgrößen, welche in Wahrscheinlichkeit konvergiert, dies auch in L 1 tut. Mit Lemma 7.26 folgt nun die Behauptung. (ii) (i): Wegen E( X p ) lim inf n E( X n p ) (Fatou!) ist M = { X p } { X n p, n N} gleichförmig ( integrierbar. Also existiert zu ε > 0 ein δ > 0, so dass E( 1 A Y ) < ε ) p 3 für alle Y M und P(A) < δ. Weiter existiert ein N N, so dass P{ Xn X > ε } < δ für alle n N. Damit gilt für n N 3 X n X p 1 { Xn X >ε/3}( X n + X ) p + 1 { Xn X ε/3} X n X p 3 ε 3 = ε Proposition: Sei p 1 und X L p (Ω, F, P). Dann ist { E(X G) p, G F Teil-σ-Algebra} gleichförmig integrierbar. { X p } ist gleichförmig integrierbar, also existiert zu ε > 0 ein δ > 0, so dass aus 16

17 A F und P(A) < δ folgt: E( 1 A X p ) < ε. Sei n > δ 1 E( X p ). Dann folgt mit Markov und Jensen P( E(X G) p n) 1 n E( E(X G) p ) 1 n E(E( X p G)) = 1 n E( X p ) < δ und somit { E(X G) p n} E(X G) p dp { E(X G) p n} E( X p G)dP = 7.29 Satz: Sei X ein F-Martingal. Die folgenden Aussagen sind äquivalent. a) X ist regulär. { E(X G) p n} X p dp < ε. b) sup n N E X n < und für den f.s. Limes X gilt X L 1 und X n = E(X F n ) f.s. für alle n N. c) Es existiert X L 1 (Ω, F, P) mit X n = E(X F n ) f.s. für alle n N. d) {X n, n N} ist gleichförmig integrierbar. a) b) dies wurde in 7.23 gezeigt. b) c) klar. c) d) dies wurde in 7.28 gezeigt. d) a) Die gleichförmige Integrierbarkeit impliziert nach 7.25 ii) sup n N E X n <, also konvergiert X n fast sicher gegen eine Zufallsgröße X (nach 7.20). Aus 7.27 folgt, dass X regulär ist Bemerkung: Ist X ein F-Submartingal, und ersetzt man in 7.27 alle = durch, dann gilt a) d) b) c). (Übungsaufgabe: man zeige c) b)!). Ist X die in 1 startende symmetrische Irrfahrt mit Absorption in Null, so erfüllt X b) mit statt = (wobei X 0), nicht aber a) (vgl. 7.21, a)) Satz: Sei p > 1 und X ein F-Martingal. Gilt sup E( X n p ) <, so ist X regulär und n N X n konvergiert in L p. 17

18 Nach 7.25 (iv) (mit G(x) = x p ) ist X n, n N gleichförmig integrierbar, also nach 7.29 regulär. Sei X der (f.s. und L 1 ) Grenzwert. Dann gilt X n = E(X F n ). Nach Fatou folgt E( X p ) sup n N E( X n p ) < und mit Jensen X n p = E(X F n ) p E( X p F n ). Nach 7.28 (und Definition 7.24) ist { X n p, n N} gleichförmig integrierbar. Aus 7.27 folgt schließlich X n X in L p. Bemerkung: 7.31 ist falsch für p = 1 (vgl. 7.21, a)). Für F-Submartingale und p > 1 ist 7.31 ebenfalls falsch. Als Beispiel mit p = 2 wähle X 1 2 1/2, P(X n+1 = 2 (n+1)/2 X n < 0) = 1/2 = P(X n+1 = 0 X n < 0) und P(X n+1 = 0 X n = 0) = 1. Es folgt EX 2 n = 2 für alle n N und E(X n+1 X n = 2 n/2 ) = 2 (n+1)/2 1/2 > 2 n/2. Daher konvergiert X n fast sicher gegen X 0, aber nicht in L 2! 7.32 Proposition: Sei (Ω, F, F, P) ein filtrierter Wahrscheinlichkeitsraum, X L 1 (Ω, F, P) und X n := E(X F n ). Dann gilt X n E(X F ) fast sicher und in L 1. (X n ) n N ist nach 7.11 d) ein Martingal, welches nach 7.29 reguläres ist, konvergiert also fast sicher und in L 1 gegen eine F -messbare integrierbare Zufallsgröße X. Weiter gilt X n = E(X F n ) = E(X F n ). Zu zeigen ist X = E(X F ). Da X F -messbar ist, bleibt nur zu zeigen, dass für alle A F X dp = XdP A ist. Sei A die Menge aller A F, für die dies gilt. A ist ein Dynkinsystem, welches M := F n enthält (da X n = E(X F n ) = E(X F n )). Da M -stabil n=1 ist und F = σ(m) folgt A = F nach 1.4. Wir bringen nun noch eine Anwendung des Martingalkonvergenzsatzes auf stationäre Markovketten Proposition: Sei X 1, X 2,... eine irreduzible, stationäre Markovkette mit Werten in E, E = P(E), wobei E abzählbar unendlich oder endlich und nichtleer ist. Sei ˆP die Verteilung der Kette auf (E N, E N ) und T : (E N, E N, ˆP) (E N, E N, ˆP) der zugehörige (maßhaltende) Shiftoperator, also T (x 1, x 2,...) = (x 2, x 3,...). Dann ist T ergodisch. A 18

19 Sei A E N invariant, d.h. T 1 (A) = A. Zu zeigen ist ˆP(A) {0, 1}. Sei π n : E N E die Projektion auf die n-te Komponente und F n := σ(π m, m n) F = F = E N. Für x E sei h(x) := E x ( 1 A )(= E( 1 A π 1 = x) = ˆP(A π 1 = x)), wobei E der Erwartungswert bezüglich ˆP ist. Nun ist E( 1 A F n ), n N ein F-Martingal, welches regulär ist und nach 7.32 für n fast sicher und in L 1 gegen 1 A konvergiert. Weiter gilt für ω E N und n N E( 1 A F n )(ω) = E( 1 A T n 1 F n )(ω) = E( 1 A T n 1 π n )(ω) = ˆP(T n+1 (A) π n = ω n ) = ˆP((π n, π n+1...) A π n = ω n ), = ˆP(A π 1 = ω n ) = h(π n (ω)), wobei wir beim zweiten und vorletzten Gleichheitszeichen die Markoveigenschaft benutzten. Da (π n ) n N rekurrent ist und h(π n ) fast sicher gegen 1 A konvergiert, folgt entweder h 0 oder h 1, also ˆP(A) {0, 1}. Wir zeigen noch eine Verallgemeinerung des Stoppsatzes 7.13 auf reguläre Submartingale. Dazu ist das folgende Lemma nützlich: 7.34 Lemma: Sei X ein reguläres F-Submartingal und T eine Stoppzeit, dann ist {X T n, n N} gleichförmig integrierbar. (nach Durrett, Probability: Theory and Examples, 1991): Nach 7.12 b) ist (X n + ) n N ein F-Submartingal. Nach 7.13 folgt EX + T n EX+ n. Nach 7.14 ist X T n, n N ein F-Submartingal, welches wegen sup n N EX + T n sup n N EX n + sup n N E X n < nach 7.20 fast sicher konvergiert und zwar gegen X T mit E X T < (wobei X (ω) := lim n X n (ω)). Nun gilt E X T n 1 { XT n >a} = E X T 1 { XT >a} 1 {T n} +E X n 1 { Xn >a} 1 {T >n} 19

20 E X T 1 { XT >a} + E X n 1 { Xn >a}, woraus wegen der gleichförmigen Integrierbarkeit der X n, n N die der X T n, n N folgt Stoppsatz: Sei X ein reguläres F-Submartingal und S und T Stoppzeiten. Dann gilt E(X T F S ) X S T mit Gleichheit, falls X ein Martingal ist (wobei X (ω) := lim n X n (ω)). Sei M, N N. Nach 7.13 gilt E(X T N F S M ) X S M T N. Die linke Seite ist als Funktion von M ein F-Martingal, wobei F M := F S M, M N. Es gilt F = F S (Übung!). Nach 7.32 konvergiert die linke Seite für M gegen E(X T N F S ). Es folgt also E(X T N F S ) X S T N f.s. Nach 7.14 ist X T N, N N ein F Submartingal, welches nach 7.34 und 7.30 gegen X T in L 1 konvergiert, woraus E E(XT N F S ) E(X T F S ) E(E( XT N X T F S )) = E X T N X T N 0 folgt. Bildet man also in der Ungleichung E(X T N F S ) X S T N beidseitig Grenzwerte N (links in L 1, rechts fast sicher), so folgt E(X T F S ) X S T. Ist X ein Martingal, so sind X und X Submartingale. Also gilt in diesem Fall Gleichheit. Oft ist die folgende Abschätzung nützlich. 20

21 7.36 Satz (Doobs L p -Ungleichung) Sei X ein F-Martingal oder nichtnegatives F-Submartingal, N N und 1 < p <. Es gelte E X k p < für alle k N. Dann gilt E( max 1 n N X n p ) ( p p 1 ) p E( X N p ). Nach 7.12 ist in jedem Fall ( X n ) n N ein F-Submartingal. Sei Es gilt 1 p V p p = E 7.17 ( ) V p = p y p 2 0 = E (U V ) p 1 p 1 woraus V p V := max 1 n N X n U := X N. ( N ) EV p E X n p < und Ω {V y} Hoelder n=1 y p 1 1 {V y} (ω)dydp(ω) F ubini = 0 U(ω)dP(ω)dy F ubini = U(ω) Ω 0 V (ω) 0 y p 1 P(V y)dy y p 2 dydp(ω) 1 p 1 U p V p 1 p/p 1 = 1 1 p U p V p 1 p, p p 1 U p und somit die Behauptung folgt Satz (Charakterisierung von Martingalen) Sei X = (X 1, X 2,...) ein F-adaptierter reellwertiger Prozess mit E X n < für alle n N. Dann sind äquivalent: (i) X ist ein F-Martingal. (ii) EX T = EX 1 für jede F-Stoppzeit T mit sup ω Ω T (ω) <. (i) (ii): folgt aus dem Stoppsatz 7.13 mit S = 1. (ii) (i): sei n N, A F n und T (ω) := n 1 A c(ω) + (n + 1) 1 A (ω). T ist eine Stoppzeit, da {T = n} = A c F n und {T = n + 1} = A F n F n+1. Weiter gilt: E(X n 1 A c) + E(X n+1 1 A ) = EX T = EX 1 = EX n = E(X n 1 A c) + E(X n 1 A ). 21

22 Also folgt E(X n+1 1 A ) = E(X n 1 A ) für alle A F n und somit E(X n+1 F n ) = X n f.s. 22

Vorlesungsskript: Martingale

Vorlesungsskript: Martingale Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................

Mehr

KAPITEL 1. Martingale

KAPITEL 1. Martingale KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst

Mehr

2 Martingale in stetiger Zeit

2 Martingale in stetiger Zeit 2 Martingale in stetiger Zeit Ziel dieses Abschnitts ist es die wichtigsten Resultate für Martingale aus diskreter Zeit in stetige Zeit zu übertragen. Wie zu erwarten ist treten in stetiger Zeit einige

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

Stochastische Prozesse

Stochastische Prozesse Albert-Ludwigs-Universität Freiburg Vorlesungsskript Stochastische Prozesse apl. Prof. Dr. Stefan Tappe Wintersemester 2017/18 Abteilung für Mathematische Stochastik Inhaltsverzeichnis 1 Grundlegende

Mehr

3 Bedingte Erwartungswerte

3 Bedingte Erwartungswerte 3 Bedingte Erwartungswerte 3.3 Existenz und Eindeutigkeit des bedingten Erwartungswertes E A 0(X) 3.6 Konvexitätsungleichung für bedingte Erwartungswerte 3.9 Konvergenzsätze von Levi, Fatou und Lebesgue

Mehr

Terminologie Stochastischer Prozesse

Terminologie Stochastischer Prozesse Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.

Mehr

Skript. Martingale. Prof. Dr. Zakhar Kabluchko. Universität Münster Institut für Mathematische Stochastik

Skript. Martingale. Prof. Dr. Zakhar Kabluchko. Universität Münster Institut für Mathematische Stochastik Skript Martingale Prof. Dr. Zakhar Kabluchko Universität Münster Institut für Mathematische Stochastik Inhaltsverzeichnis Vorwort 2 Literatur 2 1. Stochastische Prozesse 3 2. Filtrationen 3 3. Martingale

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015 Wahrscheinlichkeitstheorie 2 & 3 Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 3. Januar 215 Inhaltsverzeichnis. Bedingte Erwartungswerte 4 1. Martingale, Stoppzeiten und Filtrierungen 9 1.1.

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale

4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale 4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale 4.2 Filtrationen und kanonische Filtrationen 4.3 Supermartingale, Martingale bzw. Submartingale bzgl. der Filtrationen (A t ) t I 4.4 Gleichgradig

Mehr

5 MARTINGALE 64. k = j k=1

5 MARTINGALE 64. k = j k=1 5 MRTINGLE 64 5 Martingale 5.1 Bedingte Erwartungswerte Im Folgenden sei stets Z eine Zufallsvariable in R mit E[ Z < oder Z 0 f.s. Falls ein Ereignis mit P() > 0 ist, so erklärt man durch E[Z := 1 P()

Mehr

Abgabetermin: 5. Mai 2017, Uhr

Abgabetermin: 5. Mai 2017, Uhr Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 : 24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 2 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

8 Martingale und Stoppzeiten

8 Martingale und Stoppzeiten 8 Martingale und Stozeiten Definition Sei I eine beliebige Indexmenge und (Ω, A, P ) ein Wahrscheinlichkeitsraum. a) Eine Familie von Zufallsvariablen (X t ) t I auf (Ω, A, P ) heißt stochastischer Prozess

Mehr

Stoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016

Stoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016 Stoppzeiten und Charakteristische Funktionen Tutorium Stochastische Prozesse 15. November 2016 Inhalte des heutigen Tutoriums Im heutigen Tutorium besprechen wir: (1) Eindeutigkeit von Maßen ohne schnittstabilen

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

1 Bedingte Erwartungswerte

1 Bedingte Erwartungswerte Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,

Mehr

Zufallsvariable, Verteilung, Verteilungsfunktion

Zufallsvariable, Verteilung, Verteilungsfunktion Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie. Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze

Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie. Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie - Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze Klaus Kuchler 0. Januar 03 Zentraler Grenzwertsatz. Grundlagen,

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016 Übungen zu bedingten Erwartungswerten Tutorium Stochastische Prozesse 13. Dezember 2016 Bedingter Erwartungswert Definition Sei X eine reellwertige Zufallsvariable auf (Ω, A, P), so dass E[ X ]

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Martingale in diskreter Zeit

Martingale in diskreter Zeit Kapitel XI Martingale in diskreter Zeit Reinhard Höpfner Vorlesung Stochastik II Wintersemester 2006/07 und 2010/11 Institut für Mathematik, Johannes Gutenberg Universität Mainz 15.1.04, 19.1.07, 16.12.10

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale

8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale 8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale 8.1 Der quadratische Variationsprozess eines stetigen, lokalen Martingals 8.3 Die quadratische Variation einer reellen Brownschen

Mehr

Aufgaben zu Kapitel 0

Aufgaben zu Kapitel 0 Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.

Mehr

Wahrscheinlichkeitstheorie II

Wahrscheinlichkeitstheorie II Wahrscheinlichkeitstheorie II Vorlesung vo 24.04. Christian Wiesel V5-09...2.3 Martingale, Stoppzeiten und Filtrierungen Stochastische Prozesse und -Algebren Stoppzeiten Martingale.3a Martingale in diskreter

Mehr

Diplomarbeit. Lebenszeit-Modelle zur Analyse der Ermüdung von gradierten Materialien

Diplomarbeit. Lebenszeit-Modelle zur Analyse der Ermüdung von gradierten Materialien Universität Kassel Fachbereich Mathematik Diplomarbeit Lebenszeit-Modelle zur Analyse der Ermüdung von gradierten Materialien Eingereicht von: Alexander Stepper Betreuende Gutachterin: Zweitgutachterin:

Mehr

Stochastische Prozesse

Stochastische Prozesse Stochastische Prozesse Prof. Dr. H.R. Lerche Abteilung für Mathematische Stochastik Universität Freiburg März 2014 Inhaltsverzeichnis 1 Martingale 1 1.1 Definitionen und Eigenschaften..........................

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Stochastische Prozesse Stoffzusammenfassung

Stochastische Prozesse Stoffzusammenfassung Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 7. August 2018 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt

Mehr

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457. Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf

Mehr

Studienbegleitende Prüfung Stochastik 2

Studienbegleitende Prüfung Stochastik 2 Universität Karlsruhe (TH) Institut für Stochastik Prof. Dr. N. Bäuerle Name: Vorname: Matr.-Nr.: Studienbegleitende Prüfung Stochastik 2 27. März 2007 Diese Klausur hat bestanden, wer mindestens 20 Punkte

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. 12 Ungleichungen Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. Dann gilt: min c R E(X c)2 = Var X. Beweis: Für alle reellen Zahlen c R gilt: E(X

Mehr

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +

Mehr

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109 A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 19 A. Stochastische Prozesse und Stoppzeiten In dieser Vorlesung arbeiten wir immer auf einem Massraum (Ω, F), der gross genug ist, um alle definierten Objekte

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel IV SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen

Mehr

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2). Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Ferienkurs in Maß- und Integrationstheorie

Ferienkurs in Maß- und Integrationstheorie Zentrum Mathematik Technische Universität München Dipl. Math. Wolfgang Erb WS 9/ Übungsblatt Ferienkurs in Maß- und Integrationstheorie Aufgabe. (σ-algebren Sei eine Menge und A eine σ-algebra in. Seien

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis SS1 von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 6. Mai 21 Inhaltsverzeichnis 1 Motivation / Einführung 4 1.1 Motivation anhand

Mehr

22 Charakteristische Funktionen und Verteilungskonvergenz

22 Charakteristische Funktionen und Verteilungskonvergenz 22 Charakteristische Funktionen und Verteilungskonvergenz Charakteristische Funktionen (Fourier-Transformierte liefern ein starkes analytisches Hilfsmittel zur Untersuchung von W-Verteilungen und deren

Mehr

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20 Gleichmäßige Konvergenz für Folgen und Reihen von Funktionen 20.1 Folgen und Reihen von Funktionen 20.3 Die Supremumsnorm 20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20.7 Das Cauchy-Kriterium

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

1 Konvergenz im p ten Mittel

1 Konvergenz im p ten Mittel Konvergenz im p ten Mittel 1 1 Konvergenz im p ten Mittel In diesem Paragraphen werden zunächst in Abschnitt 1.1 die L p Räume eingeführt. Diese erweisen sich als vollständige, lineare Räume über R. In

Mehr

Universität Leipzig, SoSo 2013

Universität Leipzig, SoSo 2013 Vorlesung Wahrscheinlichkeitstheorie I Universität Leipzig, SoSo 2013 Prof. Dr. Max v. Renesse renesse@uni-leipzig.de Sprechstunde: Di 13.15-14.45, A 337 Übungen: Mo 11.15 -- 12.45 A 314 K. Zimmermann

Mehr

3 Bedingte Erwartungen und Wahrscheinlichkeiten (Version November 2011)

3 Bedingte Erwartungen und Wahrscheinlichkeiten (Version November 2011) 3 Bedingte Erwartungen und Wahrscheinlichkeiten (Version November 2011) 3.1 Definition der bedingten Erwartung und grundlegende Eigenschaften Erinnerung: Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und (

Mehr

Brownsche Bewegung: Eine Einführung

Brownsche Bewegung: Eine Einführung Brownsche Bewegung: Eine Einführung Batu Güneysu Institut für Mathematik Humboldt-Universität zu Berlin Greifswald, 18.04.2018 Batu Güneysu Brownsche Bewegung: Eine Einführung 1 / 14 Wir fixieren m N und

Mehr

Zufallsvariable in separablen Banach- und Hilbert-Räumen

Zufallsvariable in separablen Banach- und Hilbert-Räumen Zufallsvariable in separablen Banach- und Hilbert-Räumen Hans-Jörg Starkloff TU Bergakademie Freiberg Westsächsische Hochschule Zwickau Januar 2011 Hans-Jörg Starkloff Zufallsvariable in separablen Banach-

Mehr

Stochastik 2. Beispielaufgaben. Institut für Stochastik WS 2006/07 Universität Karlsruhe Prof. Dr. N. Bäuerle Blatt 0 Dipl.-Math. oec. A.

Stochastik 2. Beispielaufgaben. Institut für Stochastik WS 2006/07 Universität Karlsruhe Prof. Dr. N. Bäuerle Blatt 0 Dipl.-Math. oec. A. Institut für Stochastik WS 2006/07 Universität Karlsruhe Prof. Dr. N. Bäuerle Blatt 0 Dipl.-Math. oec. A. Mundt Übungen zur Vorlesung Stochastik 2 Beispielaufgaben Hinweis: Zu diesem Aufgaben werden in

Mehr

Lösungsvorschläge für das 5. Übungsblatt

Lösungsvorschläge für das 5. Übungsblatt Lösungsvorschläge für das 5. Übungsblatt Aufgabe 6 a) Sei = [0, ], f(x) := [e x ] für x. Hierbei ist [y] := maxk Z k y} für y. Behauptung: f ist messbar und es ist f(x) dx = 2 log 2. falls x [0, log 2),

Mehr

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Schwache Konvergenz von Wahrscheinlichkeitsmaßen Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

10 Der Satz von Radon-Nikodym

10 Der Satz von Radon-Nikodym uch im Sinne einer Vorabinformation vor der Stochastik-Vorlesung wollen wir abschließend kurz absolut stetige Maße und den Satz von Radon-Nikodym streifen. Definition 10.1. Seien (, M) ein messbarer Raum

Mehr

Hawkes Prozesse Grundlagen

Hawkes Prozesse Grundlagen Hawkes Prozesse Grundlagen Im Folgenden sei (Ω, F, F, P) eine stochastische Basis. Das heißt F = (F t ) t ist eine rechtsstetige Filtration mit F t F für alle t und P ein Wahrscheinlichkeitsmaß auf dem

Mehr

Satz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung

Satz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung Satz von Borel-Cantelli Limes inferior von Mengen Limes superior von Mengen Stetigkeit Konvergenz von Zufallsvariablen Kolmogorow-Ungleichung Tschebyschow-Ungleichung Konvergenzkriterien Starkes Gesetz

Mehr

1. Übungsblatt zu Stochastische Prozesse

1. Übungsblatt zu Stochastische Prozesse 1. Übungsblatt zu Stochastische Prozesse Aufgabe 1: Es sei (X n ) n N0 ein stochastischer Prozess mit abzählbarem Zustandsraum E. Man zeige: (X n ) n N0 ist genau dann eine Markov-Kette, wenn für alle

Mehr

sign: R R, sign(x) := 0 falls x = 0 1 falls x < 0 Diese ist im Punkt x 0 = 0 nicht stetig, denn etwa zu ε = 1 finden wir kein δ > 0

sign: R R, sign(x) := 0 falls x = 0 1 falls x < 0 Diese ist im Punkt x 0 = 0 nicht stetig, denn etwa zu ε = 1 finden wir kein δ > 0 ANALYSIS FÜR PHYSIK UND VERWANDTE FÄCHER I 81 3. Stetigkeit 3.1. Stetigkeit. Im Folgenden sei D R eine beliebige nichtleere Teilmenge. Typischerweise wird D ein allgemeines Intervall sein, siehe Abschnitt

Mehr

3 Konstruktion einer f.s. konvergente Folge

3 Konstruktion einer f.s. konvergente Folge 1 Einleitung Wir wollen uns mit stochastischen Gleichungen der Form R d = Q + C i R i (1.1 beschäftigen, wobei,q,(r i i 1,(C, C i i 1 stochastisch unabhängige nichtnegative Zufallsgrößen seien, (C, C i

Mehr

Skript zur Vorlesung Analysis 3

Skript zur Vorlesung Analysis 3 Skript zur Vorlesung Analysis 3 Wintersemester 2013/2014 Prof. Dr. Benjamin Schlein Inhaltsverzeichnis 1 Masstheorie 2 1.1 σ-algebren.................................. 6 1.2 Masse.....................................

Mehr

Zusammenfassung der Lebesgue-Integrationstheorie

Zusammenfassung der Lebesgue-Integrationstheorie Zusammenfassung der Lebesgue-Integrationstheorie Das Lebesguesche Integral verallgemeinert das Riemannsche Integral. Seine Vorteile liegen für unsere Anwendungen vor allem bei den wichtigen Konvergenzsätzen,

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

Stationäre Maße und Zeitmittel

Stationäre Maße und Zeitmittel Stationäre Maße und Zeitmittel Clara Strohm SS 2003 Seminar Wahrscheinlichkeitstheorie Wir untersuchen im folgenden das Langzeitverhalten in diesem Fall gleichmäßige Konvergenz im Césaro-Mittel diskreter,

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig, Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig, wenn für alle (s 1,..., s n ) {0, 1} n gilt, dass wobei A 0 i = Āi und A 1 i = A i. Pr[A s 1 1... Asn n ] = Pr[A

Mehr

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 5.6.2013 8. Unabhängigkeit von Zufallsgrößen, Erwartungswert und Varianz 8.1

Mehr

Topologische Grundbegriffe II. Inhaltsverzeichnis

Topologische Grundbegriffe II. Inhaltsverzeichnis Vortrag zum Seminar zur Analysis, 03.05.2010 Dennis Joswig, Florian Goy Aufbauend auf den Resultaten des Vortrages Topologische Grundbegriffe I untersuchen wir weitere topologische Eigenschaften von metrischen

Mehr

Lösungen zu Übungsblatt 9

Lösungen zu Übungsblatt 9 Analysis : Camillo de Lellis HS 007 Lösungen zu Übungsblatt 9 Lösung zu Aufgabe 1. Wir müssen einfach das Integral 16 (x + y d(x, y x +y 4 ausrechnen. Dies kann man einfach mittels Polarkoordinaten, da

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Kommutativität. De Morgansche Regeln

Kommutativität. De Morgansche Regeln 1. Formale Logik Proposition 1.1. Die logischen Elementarverknüpfungen gehorchen folgenden Äquivalenzen: (1.1) (1.2) p p p p p p Idempotenz (1.3) (1.4) p q q p p q q p Kommutativität (1.5) (1.6) (p q)

Mehr

5 Zufallsvariablen, Grundbegriffe

5 Zufallsvariablen, Grundbegriffe II. Zufallsvariablen 5 Zufallsvariablen, Grundbegriffe Def. 12 Es seien (Ω 1, E 1,P 1 ) und (Ω 2, E 2,P 2 ) Wahrscheinlichkeitsräume. Eine Abbildung X : Ω 1 Ω 2 heißt E 1 E 2 meßbar, falls für alle Ereignisse

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

1 Diskrete Wahrscheinlichkeitstheorie

1 Diskrete Wahrscheinlichkeitstheorie Prof. A. Sapozhnikov Wahrcheinlichkeittheorie I INHALTSVERZEICHNIS 1 Dikrete Wahrcheinlichkeittheorie 1.1 Laplace-Wahrcheinlichkeit. Urnenmodelle. N! Begriffe: Ziehen ohne Zurücklegen, mit Reihenfolge,

Mehr

eine reelle oder komplexe Folge ist, kann man daraus eine neue Folge {s n } n=0 konstruieren durch s n = a 0 + a a n, a k.

eine reelle oder komplexe Folge ist, kann man daraus eine neue Folge {s n } n=0 konstruieren durch s n = a 0 + a a n, a k. Analysis, Woche 7 Reihen I 7. Folgen aus Folgen Wenn a n eine reelle oder komplexe Folge ist, kann man daraus eine neue Folge s n konstruieren durch s n = a 0 + a + + a n, oder netter geschrieben s n =

Mehr

Regulär variierende Funktionen

Regulär variierende Funktionen KAPITEL 4 Regulär variierende Funktionen Unser nächstes Ziel ist es, die Max-Anziehungsbereiche der Extremwertverteilungen zu beschreiben. Dies wird im nächsten Kapitel geschehen. Wir haben bereits gesehen,

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

2.6 Der Satz von Fubini

2.6 Der Satz von Fubini 1 2.6 Der Satz von Fubini Unser Ziel ist der Beweis des folgenden Ergebnisses. 6.1. Satz von Fubini Sei f : R n+m R integrierbar. Dann gibt es eine Nullmenge N R m, so dass gilt: 1. Für alle y R m \ N

Mehr

Vorlesung Der Satz von Fubini. 6.2 Der Satz von Beppo Levi 6.1. DER SATZ VON FUBINI 33

Vorlesung Der Satz von Fubini. 6.2 Der Satz von Beppo Levi 6.1. DER SATZ VON FUBINI 33 6.1. DER SATZ VON FUBINI 33 Vorlesung 6 6.1 Der Satz von Fubini Das Lebesgue-Integralkann natürlichauchüber mehrdimensionale Gebiete definiert werden. Wir haben uns hier auf den eindimenionalen Fallbeschränkt.

Mehr