Universität Leipzig, SoSo 2013
|
|
- Sophia Ursler
- vor 6 Jahren
- Abrufe
Transkript
1 Vorlesung Wahrscheinlichkeitstheorie I Universität Leipzig, SoSo 2013 Prof. Dr. Max v. Renesse renesse@uni-leipzig.de Sprechstunde: Di , A 337 Übungen: Mo A 314 K. Zimmermann Mi A 314 T. Weihrauch
2 Literatur S.R.S. Varadhan Probability Theory, American Math. Society, 2001 R. Durret Probability: Theory and Examples, Duxbury Press, 1996 A. Klenke Wahrscheinlichkeitstheorie, Springer Verlag, 2008 H. Bauer Wahrscheinlichkeitstheorie, de Gryuter, 1990 H.-O. Georgii Stochastik, de Gruyter Verlag, 2009 Skripten H. Bauer Maß- und Integrationstheorie, de Gruyter Verlag, 1992 W. König Wahrscheinlichkeitstheorie, U Leipzig & TU Berlin 2012 M. Röckner Wahrscheinlichkeitstheorie, U Bielefeld 2012 K.-T. Sturm Wahrscheinlichkeitstheorie, U Bonn 2012 P. Pfaffelhuber Wahrscheinlichkeitstheorie, Stochastische Prozesse, Stochastische Integration und Finanzmathematik, U Freiburg, 2012
3 Kapitel 1: Grundlagen
4 1.1 Die Kolmogorov schen Axiome
5 Ein Beispiel Zufällige Irrfahrt in zwischen drei Kammern/ Zuständen. Pro Zeitschritt ein Sprung. Start in G. Übergangswahrscheinlichkeiten wie angegeben: x, y {G, B, R} : p xy [0, 1]. Aufgabe: Mathematische Beschreibung des zufälligen Verlaufs (bei unendlichem Zeithorizont)?
6 Beispiel, Forts. Menge aller Verläufe Ω = {ω = (ω 0, ω 1,... ) {G, R, B} N, ω 0 = G} Wahrscheinlichkeit für einen einzelnen Verlauf Menge aller Ereignisse 3 P(ω) = p ωi 1,ω i < 4 = 0 i=1 i=1 E = {E E Ω} Beispiel: E = {ω Ω ω 1 = B, ω 2 = G} Wahrscheinlichkeitsfunktion / Wahrscheinlichkeitsmaß P : E [0, 1] Beispiel: P({ω Ω ω 1 = B, ω 2 = G}) = = 2 6.
7 Wahrscheinlichkeitsraum (Kolmogorov 1933) Definition 1.1 Ein Wahrscheinlichkeitsraum ist ein Tripel (Ω, F, P) bestehend aus einer Menge Ω einer σ-algebra F 2 Ω und einem Maß P : F [0, 1] mit P(Ω) = 1. Bezeichnungen Ω Grundraum ω Ω Zufallsparameter F Menge der (beschreibbaren/beobachtbaren) Ereignisse E F Ereignis P Wahrscheinlichkeitsmaß. P(E) Wahrscheinlichkeit von E
8 1.2 Wiederholung: Maße und deren Konstruktion
9 Mengensysteme Definition 1.2 Es sei Ω eine Menge und P(Ω) = 2 Ω die zugehörige Potenzmenge. 1 Ein Mengensystem E 2 Ω heißt σ-algebra, falls 1) Ω E 2) A, B E A \ B E 3) A k E k N k N A k E. 2 Ein Mengensystem E 2 Ω heißt Ring falls 1) E 2) A, B E A \ B E 3) A, B E A B E Bemerkung Ein Ring E 2 Ω mit Ω E heißt Algebra 1. Definition 1.3 Ein Tupel (E, E) aus einer Menge E und einer σ-algebra E 2 E heißt messbarer Raum. 1 + ˆ=, ˆ=
10 Definition 1.4 Satz 1.1 Definition 1.5 Für E 2 Ω heißt σ(e) := die von E erzeugte σ-algebra. E S 2 Ω S σ-algebra σ(e) ist eine σ-algebra und für jede andere σ-algebra S 2 Ω mit E S gilt σ(e) S. Es sei (X, τ) ein topologischer Raum, dann heißt B(X ) = σ(τ) die Borel sche σ-algebra auf X. S
11 Maß und Inhalt Definition Eine Abbildung µ : E [0, ] auf einer σ-algebra E 2 Ω heißt Maß, falls µ( A k ) = µ(a k ) k N k N für alle Folgen {A k, k N} E mit A k A l = k l. 2 Eine Abbildung µ : E [0, ] auf einem Ring E 2 Ω heißt Inhalt, falls µ(a B) = µ(a) + µ(b) A, B E, A B =.
12 Prämaß auf einem Ring Definition 1.7 Ein Inhalt µ : E [0, ] auf einem Ring E 2 Ω heißt Prämaß, falls µ σ-additiv auf E ist, d.h. µ( A k ) = µ(a k ) k N k N falls {A k, k N} E mit A k A l = k l s.d. k N A k E.
13 Stetigkeit von (Prä-)Maßen Satz 1.2 Für einen Inhalt µ auf einem Ring E 2 Ω sind äquivalent 1 µ ist ein Prämaß 2 µ ist σ-subadditiv auf E, d.h. für A = k N A k E gilt µ(a) µ(a k ). k N 3 Für alle Folgen (A n ) n N, A n E mit A n A E gilt 2 lim µ(a n) = µ(a). n Falls µ(a) < für alle A E ist dies äquivalent zu 4 Für alle Folgen (A n ) n N, A n E mit A n A E gilt 3 lim µ(a n) = µ(a). n 2 D.h. A n A n+1 n und na n = A E 3 D.h. A n A n+1 n und na n = A E
14 Äußeres Maß Definition 1.8 Definition 1.9 Eine Abbildung µ : 2 Ω [0, ] heißt äußeres Maß, falls 1) µ( ) = 0 2) A B Ω µ(a) µ(b). 3) µ( k N A k) k N µ(a k) Es sei µ ein äußeres Maß auf 2 Ω. Eine Menge C Ω heißt µ-messbar, falls µ(a) = µ(a \ C) + µ(a C) A Ω. Satz 1.3 (Caratheodory) Es sei µ ein äußeres Maß auf 2 Ω, dann ist die Menge M = {C Ω C µ-messbar} 2 Ω eine σ-algebra und µ : M [0, ] ein Maß.
15 Fortsetzungssatz Satz 1.4 Es sei µ : E [0, ] ein Inhalt auf einem Ring E 2 Ω. Die Abbildung µ : 2 Ω [0, ] µ (C) := inf { ist ein äußeres Maß auf 2 Ω. k N µ(a k ) A k E, k N, C k Die Mengen A E sind µ -messbar, d.h. E M. Falls µ : E [0, ] ein Prämaß ist, gilt µ(a) = µ (A) A E. A k }
16 Eindeutigkeitssatz 4 Satz 1.5 Es sei F 2 Ω eine σ-algebra und E 2 Ω ein durchschnittsstabiles Erzeugendensystem von F, d.h. σ(e) = F und A B E A, B E. Bemerkung Zudem existiere eine Folge E n E, n N so dass Ω = n E n. Dann sind zwei beschränke Maße µ, ν : F [0, [ identisch genau dann, wenn ν(e) = µ(e) E E. Falls µ(ω) = folgt die Aussage unter der Zusatzannahme, dass µ σ-endlich ist: Es ex. eine Folge {E n } E mit E n Ω und µ(e n ) < n. 4 Beweis über Dynkin-Systeme: E 2 Ω heißt Dynkin-System, falls 1) Ω E 2) A E A c = Ω \ A E 3) A k E k N und A k A l = k l k N A k E. Das von einer -stabilen Menge erzeugte D.-System ist eine σ-algebra.
17 Beispiel: Lebesgue-Maß auf R Satz 1.6 Bew: Es gibt auf B(R) genau ein Maß λ mit λ(]a, b]) = b a ( Lebesgue-Maß auf R). (Eindeutigkeit) Von halboffenen Intervallen erzeugter Ring R := {I = n i=1]a i, b i ] a 1 b 1 a 2 b n, n N}. Inhalt µ : R [0, ] µ( n i=1]a i, b i ]) = n b i a i. Jede offene Menge O A lässt sich als abzählbare Vereinigung von Mengen aus R darstellen und umgekehrt, folglich gilt i=1 σ(r) = σ(τ) = B(X ). Die Eindeutigkeit einer Fortsetzung von µ auf σ(r) folgt aus dem Eindeutigkeitssatz, da R stabil unter.
18 Bew: (Forts.) (Existenz) Behauptung: µ ist Prämaß, d.h. σ-additiv auf R. Satz 1.2 = Genügt zu zeigen: µ ist σ-subadditiv auf R. Sei o.b.d.a. ]a, b] k ]a k, b k ]. Sei ɛ > 0. Wähle b k > b k, s.d. µ(]a k, b k ]) µ(]a k, b k ]) + ɛ2 k. Wähle a > a, so dass µ(]a, b]) µ(]a, b]) ɛ. [a, b] k ]a k, b k [ Kompaktheit von [a, b] = Ex. N N, s.d. ]a, b] [a, b] N k=1 ]a k, b k [ Also µ(]a, b]) N k=1 µ(]a k, b k ]) N k=1 µ([a k, b k ]) + ɛ k 2 k k µ(]a k, b k ]) + 2ɛ µ(]a, b]) k µ(]a k, b k ]) + 3ɛ ɛ > 0 Also µ(]a, b]) k µ(]a k, b k ]) wie behauptet. Bemerkung Analog für das mehrdimensionale Lebesgue-Maß λ d auf R d.
19 Beispiele, Forts. Satz 1.7 Jede rechtsstetige nicht-fallende Funktion F : R R 0 mit F (x) 0 für x definiert ein eindeutgiges (Lebesgue-Stietljes-)Maß µ auf (R, B(R)) vermöge µ(]a, b]) = F (b) F (a). Umgekehrt definiert ein Maß µ auf (R, B(R)) ein solche Funktion F gemäß F (x) := µ(], x]). Bew: Existenz und Eindeutigeit von µ analog zum Beweis für λ. Umkehrung folgt aus der Stetigkeit von µ: x n x ], x n ] ], x] F (x n ) = µ(], x n ]) µ(], x]) = F (x). Definition 1.10 F (x) := µ(], x]) heißt Verteilungsfunktion von µ.
20 Definition 1.11 Nullmengen 1 Es sei µ ein Maß auf einer σ-algebra F 2 Ω. Dann heißt N Ω eine µ-nullmenge, falls ein F F existiert mit N F und µ(f ) = 0. 2 Die σ-algebra F heißt µ-vollständig, falls F bereits alle µ-nullmengen enthält. Definition 1.12 Für eine σ-algebra F ist F := {A 2 Ω, F F : A F ist µ-nullmenge} Definition 1.13 Bemerkung die minimale µ-vollständige σ-algebra, die F enthält. F heißt die Vervollständigung von F (bzgl. µ). Eine Eigenschaft ( Prädikat ) e : Ω {0, 1} auf einem Wahrscheinlichkeitsraum (Ω, F, P) gilt P fast sicher falls N := {ω Ω e(ω) = 0} ist P Nullmenge. Abzählbare Vereinigungen von Nullmengen sind Nullmengen.
21 Lebesgue-messbare Mengen 5 Satz 1.8 Sei µ ein Inhalt auf einem Ring R 2 Ω und µ : 2 Ω : [0, ] das zugeh. äußere Maß, M := {M Ω M µ -messbar}. Dann ist (Ω, M, µ ) vollständig. Definition 1.14 Korollar 1.1 Satz 1.9 Satz 1.10 (Banach-Tarski) Korollar 1.2 L d := {A R d A λ d -messbar} (R d, L d, λ d ) ist vollständig. A R d ist λ d -messbar ɛ > 0 F R d offen, U R d abgeschlossen s.d. F A U und λ d (U \ F ) < ɛ. Für A, B R d mit nichtleerem Innern gibt es eine Folge von Mengen C k R d und Bewegungen β k von R d, k N, s.d. A = k C k und B = K β k(c k ). Die Inklusionen B(R d ) L d P(R d ) sind echt. 5 Siehe Elstrodt Maß- und Integrationstheorie, Springer Verlag
22 Wahrscheinlichkeitsräume Beispiele Bsp. 1.1 Gleichverteilung auf [0,1]. Bsp. 1.2 (Ω, F, P) = ([0, 1], B([0, 1]), λ) Dirac-Punktmaß in m R auf R (Ω, F, P) = {(R, B(R), δ m (dx)) 1 falls m A mit δ m (A) = 0 falls m A. Bsp. 1.3 Bernoulli-Verteilung auf {0, 1} zum Parameter p [0, 1] Bsp. 1.4 Bsp. 1.5 (Ω, F, P) = ({0, 1}, 2 {0,1}, (P({1}) = p, P({0}) = 1 p)) Gleichverteilung auf {1,..., N}. (Ω, F, P) = ({1,..., N}, 2 {1,...,N}, P) mit P(E) = #E N Binomialverteilung auf {0, 1,..., N} zum Parameter p [0, 1] (Ω, F, P) = ({0, 1,..., N}, 2 {1,...,N}, P) mit P(k) = ( ) N k p k (1 p) n k
23 Beispiele (Forts.) Bsp. 1.6 Poisson-Verteilung auf N 0 zum Parameter λ > 0 (Ω, F, P) = (N 0, 2 N0, π λ ) mit λ λk π λ (k) = e k!. Bsp. 1.7 Exponentialverteilung auf R 0 zum Parameter λ > 0 mit (Ω, F, P) = (R 0, B(R 0 ), µ λ ) µ λ (]a, b]) = λ b a e λx dx = e λa e λb. Bsp. 1.8 Normalverteilung auf R mit Parametern m R und v 0 mit (Ω, F, P) = (R, B(R), ν m,v ) { 1 b (x m) 2 e 2v µ m,v (]a, b]) = 2πv dx falls v > 0 a δ m ([a, b]) falls v = 0. Bemerkung R e x 2 /2 dx = 2π (siehe Übungen).
24 Beispiele (Forts.) Bsp. 1.9 Gleichverteilung auf [0, 1] [0, 1] (Ω, F, P) = ([0, 1] [0, 1], B([0, 1] [0, 1]), λ 2 ) Bsp Spezialfall Verteilung auf R d mit Dichte (Ω, F, P) = (R d, B(R d ), µ) mit µ(a) := A ϕ(x)λd (dx), A B(R d ) ϕ C(R d ; R 0 ), ϕ(x)λ d (dx) = 1. R d Mehrdimensionale Gauß-Verteilung ϕ(x) = 1 (2π) d/2 det C e 1 2 (x m),c 1 (x m) R d wobei m R d Erwartungswert C R d d symm,>0 Kovarianzmatrix
25 Beispiele (Forts.) Konstruktion eines W-Raumes zur Beschreibung der Irrfahrt zwischen drei Zuständen: Alphabet A = {R, G, B} Grundraum σ-algebra F = 2 Ω. Ω = {ω = (ω 0, ω 1,... ) {G, R, B} N, ω 0 = G} = {G} A N Zylindermenge Z Z 2 Ω N N, A 1,..., A N A, s.d. Inhalt P 0 : Z [0, 1] Z = A 1 A N A A Z Ring mit σ(z) = F. P 0 (A 1 A N A A ) := (ω 0,ω 1,...,ω N ) {G} A 1 A N N i=1 p ω i 1,ω i. Wahrscheinlichkeitsmaß P 0 ist Prämaß auf Z definiert eind. Fortsetzung P auf F.
26 1.3 Zufallsvariablen
27 Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P : F [0, 1], Trefferzeit vom Zustand B F = {E E Ω} = 2 Ω P({ω}) = T i=1 p ω i 1,ω i τ : Ω R { }, τ(ω) := inf{k {0,..., T } ω k = B} Beispiel: Wette auf frühes Treffen von B C : Ω [0, 1], C(ω) = e τ(ω).
28 Messbare Abbildungen Definition 1.15 Eine Abbildung X : E F zwischen zwei messbaren Räumen (E, E) und (F, F) heißt (E/F-)messbar, falls X 1 (A) E für alle A F. Eine F/B(R)-messbare Abbildung 6 X : Ω R auf einem W-Raum (Ω, F, P) heißt (reelle) Zufallsvariable oder (reelle) Zufallsgröße. Bemerkung A Ω messbar Indikatorfunktion 1 A ist messbar { 1 falls x A mit 1 A : Ω R, 1 A (x) = 0 falls x A. 6 R = R {± }, A B(R) : A R B(R).
29 Sprechweisen Definition 1.16 Bemerkung Definition 1.17 Von einer Abbildung X : E F in einen messbaren Raum (F, F) erzeugte σ-algebra σ(x ) := {X 1 (A) A F} X : E F E/F-messbar σ(x ) E Eine reelle ZV X heißt endlich, falls X (ω) R ω Ω. X heißt beschränkt, falls ein K > 0 existiert, so dass X (ω) K ω Ω.
30 Approximation durch Treppenfunktionen Definition 1.18 Satz 1.11 Eine Zufallsvariable X : (Ω, F) R heißt einfach, falls α 1,..., α N R, mit (A i ) paarweise disjunkt, so dass A 1,..., A N F : Ω = i=1,...n A i X (e) = N i=1 α i1 Ai (e). Jede beschränkte Zufallsvariable X : (Ω, F) R lässt sich durch eine Folge (X n ) n von einfachen Zufallsvariablen (X n ) auf Ω gleichmäßig approximieren, d.h. lim sup X (ω) X n (ω) = 0. n ω Ω Bew: Zu n N definiere X n (ω) = k Z k n 1 X 1 (] k n, k+1 n ])(ω). Bemerkung Analog: Für X 0 endliche ZV ex Folge (X n ) einfacher ZV n X n (ω) X (ω) ω Ω. Summen, Produkte etc. von einfachen ZV n sind einfache ZV n.
31 Der Erwartungswert einer Zufallsvariablen Definition 1.19 Für eine einfache Zufallsvariable X : (Ω, F, P) R heißt N α i P(A i ) =: X (ω)p(dω) i=1 Ω das Integral von X (bzgl. P) bzw. Erwartungswert. Schreibweisen Ω X (ω)p(dω) = E P(X ) = X P. Bemerkung E P (X ) hängt nicht von der genauen Darstellung von X ab. E P (λx + µy ) = λe P (X ) + µe P (Y ). E P (X ) E P ( X ) sup ω Ω X (ω)
32 Integral für beschränkte Zufallsvariablen Satz 1.12 Bew: Falls X eine beschränkte ZV auf (Ω, F, P), so ex. X n (ω)p(dω) =: X (ω)p(dω) lim n Ω für jede gleichmäßige Approximation X n X von X durch einfache ZV en, unabhängig von der genauen Wahl von (X n ). Sei X n X gleichmäßig und Y n X gleichmäßig auf Ω X n Y n 0 gleichmäßig auf Ω. Ω E(X n ) E(Y n ) = E(X n Y n ) sup X n (ω) Y n (ω) n 0. ω Analog: E(X n ) E(X m ) sup ω Ω X n (ω) X m (ω) n,m 0. (E(X n )) n reelle Cauchy-Folge mit lim E(X n ) = lim E(Y n ).
33 Integral für nichtnegative Zufallsvariablen Satz 1.13 Bsp Sei X : (Ω, F, P) R 0 messbar und eine Folge (X n ) einfacher ZV en mit X n (ω) X (ω) ω Ω. Dann ist Ω X (ω)p(dω) := sup X n (ω)p(dω) [0, ] n N Ω unabhängig von der genauen Wahl von (X n ). (Ω, F, P) = ([0, 1], B([0, 1]), λ), X, Y : [0, 1] R 0, X (ω) = 1 ω, Y (ω) = 1 ω. E(X ) = 1 0 ω 1/2 dω = 2 ω ω=1 ω=0 = 2 <. E(Y ) = 1 0 ω 1 dω = ln(ω) ω=1 ω=0 = 0 ( ) =.
34 Integral Allgemeiner Fall Definition 1.20 Bemerkung Eine ZV X : (Ω, F, P) heißt (absolut) integrierbar, falls E P (X + ) < und E P (X ) < mit X ± : Ω R 0, X ± (ω) = max(±x (ω), 0). In dem Fall definiert man das Integral von X (bzgl. P) als E P (X ) := E P (X + ) E P (X ). Äquivalente Bedingung E P ( X ) <. Gelegentlich verlangt man nur die einseitige Integrierbarkeit min(e P (X + ), E P (X )) < E P (X ) := E P (X + ) E P (X ) R eindeutig definiert.
35 Integral: Nachträge Definition 1.21 Definition 1.22 Definition 1.23 Für X ZV auf (Ω, F, P) und A F E P (X ; A) := A XdP := Ω X (ω)1 A (ω)p(dω). Zwei ZV X, Y auf (Ω, F, P) heißen äquivalent, falls X = Y fast sicher, d.h. falls {ω Ω, X (ω) Y (ω)} ist P Nullmenge. X L p (Ω, F, P), p 0, falls X eine ZV auf (Ω, F, P) mit E P ( X p ) <. X L (Ω, F, P), falls K 0, s.d. X K P-fast sicher. Bsp X (ω) = 1 ω L 1 ([0, 1], B([0, 1]), λ)) \ L 2 ([0, 1], B([0, 1]), λ) Bemerkung Analog vektorwertige ZV X = (X 1,..., X d ) : Ω R d E(X ) := (E(X 1 ),... E(X d )) R d.
36 Nachträge (Forts.): Maße mit Dichten auf R Definition 1.24 F : R R heißt absolut stetig, falls ex. m : R R messbar F (a) F (b) = a m(s) ds a, b R. b Bsp F (x) = (1 1 x ) 2 + = { x 0 falls t < 1 m(t)dt, m(t) = 2 t falls t 1. 3 Satz 1.14 Bew: Definition 1.25 Sei µ ein W-Maß auf R mit F (x) = µ(], x]) = x m(t)dt. Dann gilt f (x)µ(dx) = f (x)m(x)dx für alle messbaren f : R R. R Klar für f = 1 ]a,b]. Für allgemeine f folgt die Aussage durch Approximation mit einfachen Zufallsvariablen. Ein Maß auf µ auf R heißt absolut stetig : F µ ist abs. stetig. In dem Fall heißt m mit µ(dx) = m(x)dx Dichte vom µ bzgl. λ. R
37 Nachträge (Forts.): Ungleichungen Satz 1.15 (Cauchy-Schwarz) E(X Y ) E(X 2 ) E(Y 2 ) für alle X, Y L 2 (Ω, F, P). Bew: Mit Standardargument, da E[(λX + µy ) 2 ] 0 λ, µ R. Satz 1.16 (Markov) Bew: Satz 1.17 (Jensen) Bew: Sei X 0 und ϕ : R 0 R 0 nicht-fallend, dann P(X δ) 1 ϕ(δ) E(ϕ(X )). P(X δ) = E(1 ; X δ) = E( ϕ(δ) ϕ(δ) ; X δ) E( ϕ(x ) ϕ(δ) ; X δ) 1 E(ϕ(X )) ϕ(δ) Falls X eine reelle ZV und ϕ : R R konvex ϕ(e(x )) E(ϕ(X )). Sei m := E(X ). Konvexität von ϕ s R so, dass ϕ(x) ϕ(m) + s(x m) x R ϕ(x ) ϕ(m) + s(x m) E(ϕ(X )) ϕ(m) + s(e(x ) m) = ϕ(e(x )).
38 1.4 Konvergenz von Zufallsvariablen
39 Fast sichere und stochastische Konvergenz Definition 1.26 Bemerkung Definition 1.27 Bsp Eine Folge (X n ) n von ZV en auf (Ω, F, P) konvergiert P-stochastisch gegen die ZV X, falls ɛ > 0 P( X n X > ɛ) n 0. Andere Bezeichnung: Konvergenz im Maß/in Wahrscheinlichkeit. Eine Folge (X n ) n von ZV en auf (Ω, F, P) konvergiert P-fast-sicher gegen die ZV X, falls X n (.) n X (.) P-fast sicher, d.h. P-Nullmenge N, s.d. X n (ω) X (ω) ω Ω \ N. Es sei (Ω, F, P) = ([0, 1], B([0, 1]), λ) und (q n ) eine Abzählung von Q [0, 1]. Dann gilt für X n : [0, 1] R, X n := 1 ]qn 1 n,qn+ 1 n [ dass (X n ) 0 P-stochastisch, aber nicht P-fast sicher.
40 Satz 1.18 Definition 1.28 Falls X n X P-fast sicher, so auch P-stochastisch. Limes-Superior einer Folge von Mengen lim sup n A n := n N m n A m Bemerkung ω lim sup n A n ω liegt in unendlich vielen A n. Lemma 1.1 P(lim sup A n ) = 0 lim n P(A n ) = 0. Bew: Mit B n := m n A m gilt B n lim sup A n Stetigkeit von P = P(B m ) < δ für m = m 0 1 P(A n ) δ n m 0. Bew: (Satz 1.18) Folgt aus vorigem Lemma mit A n := { X n X > ɛ} = {ω Ω X n (ω) X (ω) > ɛ}
41 Satz 1.19 Falls X n X P-stochastisch, so ex. Teilfolge X n X P-fast sicher. Lemma 1.2 (Borel-Cantelli) Bew: Falls n µ(a n) <, so ist µ(lim sup A n ) = 0. n µ(a n) < m=n µ(a m) 0 für n. lim sup A n m n A m n. P(lim sup A n ) P( m n A m) m n P(A m) m 0, Bew: (Satz 1.19) Sei (ɛ k ) eine beliebige Nullfolge und (n k ) k so gewählt, dass P({ X nk X > ɛ k }) < ( 1 2 )k. (Borel-Cantelli mit A k = { X nk X > ɛ k }) P({ X nk X > ɛ k unendlich oft}) = 0 Bemerkung Analog für Folgen (X n ) n N : Ω E von ZV en mit Werten in einem metrischen bzw. topologischen Raum (E, d) bzw. (E, τ).
42 Integralkonvergenzsätze atz 1.20 (Dom. Konvergenz) Bsp Satz 1.21 (Lemma v. Fatou) Satz 1.22 (Monotone Konvergenz) Bemerkung Falls (X n ) Folge von ZV en auf (Ω, F, P) mit X n X P-stochastisch und Y L 1 (Ω, F, P) mit X n Y P-fast sicher n N, dann E P ( X X n ) 0 für n. Auf ([0, 1], B([0, 1]), λ) sei X n (ω) = ω n bzw. Y n (ω) = nω n, dann gilt X n 0 und Y n 0 fast sicher, aber nur E(X n ) 0. Falls X n 0 und X n X P-stochastisch, so gilt E(X ) lim inf E(X n ). Falls X n 0 und X n X fast sicher, dann gilt E(X ) = lim E(X n ). Geringfügige Verschärfung gegenüber Standardformulierung: Es wird nur die stochastische Konvergenz benötigt 7. 7 Beweise: Z.B. in [Varadhan]
43 Vitali scher Konvergenzssatz Definition 1.29 Bemerkung Satz 1.23 (Vitali) Eine Familie von ZV en (X λ ) λ Λ heißt gleichgradig integrierbar falls sup λ Λ X λ >K X λ dp K 0. X L 1 {X } gleichgr. int bar, denn Q(A) = X dp ist ein endliches Maß und A { X > K} N := { X = } mit Q(N) = X dp = 0. N Analog: Jede endliche Menge {X 1,..., X N } L 1 (Ω, F, P) ist gleichgradig int bar. Für eine Folge (X n ) von ZV en auf (Ω, F, P) gilt E P ( X n ) 0 genau dann, wenn (X n ) n gleichgradig int bar ist und X n 0 P-stochastisch.
44 Bew: ( ) Bew.: ( ) Stochastische Konvergenz: P( X n > ɛ) = Ω 1 Xn >ɛdp 1 ɛ Ω X n dp = 1 ɛ E P( X n ) 0. Gleichgradige Integrierbarkeit: Sei ɛ > 0. X n >K X n dp X n >K X n X m dp + X n >K X m dp X n >K X n X m dp E( X n X m ) E( X n ) + E( X m ) ɛ 3 für n m := N 0 (ɛ) 1 X n >K X m dp X n >K, X m L X m dp + X m >L X m dp X m >L X m dp ɛ 3 für L := L 0 (ɛ, m). X n >K, X m L X m dp L P( X n > K) L 1 K sup n E X n ɛ 3 für K K 0 (L, ɛ), n N 0. Übungsaufgabe.
45 1.5 Verteilung von Zufallsvariablen
46 Satz 1.24 Bildmaß Es sei (Ω, F, P) ein W-Raum, X : (Ω, F) (S, S) messbar. Dann induziert X ein W-Maß P X auf (S, S) gemäß P X (A) := P(X 1 (A)) A S. Definition 1.30 P X heißt Bildmaß bzw. Verteilung von (P unter) X. Bemerkung Andere Schreibweisen P X = P X 1 = X P. Fall S = R t F X (t) = P X (], t]) = P(X t) heißt Verteilungsfunktion von X. Bsp (Ω, F, P) = ([0, 1], B([0, 1]), λ)), X : ω R, X (ω) = 1 ω. Definition 1.31 F X (t) = P X (], t]) = P(X t) 1 = λ({ω [0, 1] t}) ω { } 0 f. t < 1 = λ({ω [0, 1] ω 1 = (1 1 }) f. t 1 t 2 t )+. 2 Sei µ ein W-Maß auf (E, E), dann heißt eine ZV X : Ω E µ-verteilt, falls P X = µ. Schreibweise X µ.
47 Integration bzgl. dem Bildmaß (Integral-Transformationssatz) Satz 1.25 Bew: Bemerkung Bsp Sei (Ω, F, P) ein W-Raum und X : (Ω, F) (S, S) messbar. Sei f : (S, S) (R 0, B(R)) messbar, dann gilt E P (f (X )) = f (s)p X (ds). Aussage gilt nach Def. von P X, falls f = 1 A für A S, und somit auch falls f einfach. Durch monotone Approximation f n f mit einfachen Funktionen folgt die Behauptung. Analog für beliebige P X -integrierbare Abbildungen f : S R Für eine ZV X auf (Ω, F, P) mit Verteilung µ = P X auf R gilt E P (X ) = x µ(dx). S R
48 Varianz Definition 1.32 Die Varianz einer Zufallsvariablen X auf (Ω, F, P) ist V (X ) := E [ (X E(X )) 2] [0, ] Satz 1.26 Falls X L 2 (Ω, F, P) gilt V (X ) = E(X 2 ) (E(X )) 2 Lemma 1.3 (Tschebyshev Ungl.) Bew: E[(X E(X )) 2 ] = E[X 2 2X E(X ) + (E(X )) 2 ] = E(X 2 ) 2E(X )E(X ) + (E(X )) 2 = E(X 2 ) (E(X )) 2 Sei X L 2 (Ω, F, P), dann gilt für δ > 0 P( X E(X ) δ) 1 δ 2 V (X ). Bew: Markov-Ungleichung für X E(X ) 0 und ϕ(x) = x 2. Korollar 1.3 X = E(X ) P-fast sicher V (X ) = 0. Bew: : {X E(X )} = n { X E(X ) 1 n }, mit P({ X E(X ) 1 n }) = 0 nach Tschebyshev. klar.
49 Beispiele 8 Gleichverteilung auf [0, 1]: Erwartungswert 1 2, Varianz Binomialverteilung auf [0, 1]: Erwartungswert np, Varianz np(1 p) Poissonverteilung zum Parameter λ > 0: Erwartungswert λ, Varianz λ. Normalverteilung zu den Parametern m R, v > 0: Erwartungswert m, Varianz V. Cauchy-Verteilung zum Parameter α > 0 auf R: µ α (dx) = α π (α2 + x 2 )λ(dx). Erwartungswert α, Varianz. 8 Rechnung an der Tafel, bzw. [Bauer] etc.
50 Definition 1.33 Satz 1.27 Bew: Bsp Gemeinsame Verteilung Es seien X 1,..., X d : Ω R Zufallsvariablen auf dem W-Raum (Ω, F, P), dann heißt mit X = (X 1,..., X d ) R d P X : B(R d ) [0, 1], P X (A) := P( X 1 (A)) die gemeinsame Verteilung von (X 1,..., X n ). P X ist eindeutig bestimmt durch F X : R d [0, 1], F X (t 1,, t n ) := P(X 1 t 1,, X d t d ). B(R d ) = σ(e) mit E ˆ= Ring der endlichen Vereinigungen von Mengen der Form ]s 1, t 1 ] ]s d, t d ] (vergl. Stieltjes-Maß). (Ω, F, P) = (B 1 R 2, B(B 1 ), 1 π λ2 (dx)) (Gleichverteilung auf dem Einheitsball B 1 R 2 X (ω) := ω X, Y : Ω R, x (x-koordinate) Y (ω) := ω (Abstand zum Urspung) Dann gilt für X = (X, Y ) R 2, mit α(t, s) = arccos( t s ) 0 f. t < min( 1, s) π(1 2α)s P X (], t] ], s]) = 2 +s sin α f. s [0, 1], t s π min (s 2, 1) f. t > s.
51 Definition 1.34 Bemerkung Kovarianz Die Kovarianz von zwei ZV en X und Y auf (Ω, F, P) ist Kov(X, Y ) := E[(X E(X ))(Y E(Y ))] Kov(X, X ) = V (X ) Kov(X, Y ) = Kov(X + c 1, Y + c 2 ) = E( X, Ȳ ) mit X := X E(X ), Ȳ := Y E(Y ) Kov(X, Y ) = E(XY ) E(X )E(Y ) = R 2 xyµ (X,Y ) (dxdy) R xµ X (dx) R yµ Y (dy) mit µ (X,Y ) Gemeinsame Verteilung von (X, Y ) µ X, µ y ( Rand -)Verteilung von X bzw. von Y Bsp Für X = X R d mit X ν m,c (Gauss-Verteilung in R d ) Kov(X i, X j ) = C ij. Bew: C R d d symm,>0 S Rd d : C = S S t. Transformationssatz = Behauptung durch Integration nach y := S 1 x.
52 Gleichheit von Bienamé Definition 1.35 Zwei ZV en X, Y heißen unkorrelliert, falls Kov(X, Y ) = 0. Bsp Definition 1.36 Falls X ˆ=x Koordinate und Y ˆ= Radius einer B 1 -gleichverteilten ZV X B 1 R 2 (vergl. Beispiel 1.18), so ist Kov(X, Y ) = 0. Korrelation zweier Zufallsvariablen Kov(X,Y ) ρ(x, Y ) := V (X ) V (X ) Bemerkung Cauchy-Schwarz-Ungleichung ρ(x, Y ) [ 1, 1] Lemma 1.4 (Bienamé) Für X 1,, X n paarweise unkorrelliert (d.h. Kov(X i, X j ) = 0 für i j) V ( n i=1 X i) = n i=1 V (X i). Bew: O.b.d.A. E(X i ) = 0, i = 1,..., n. V ( X i ) = E[( i X i) 2 )] = E[( i X i)( j X j)] = E[ i,j X i X j ] = i,j E(X ix j ) = i,j δ ije(x i X j ) = i V (X i).
53 Kapitel 2: Gesetze der Großen Zahlen und Unabhängigkeit
54 Schwaches Gesetz der großen Zahlen Satz 2.1 Es sei X 1, X 2,... eine Folge von paarweise unkorrellierten indentisch verteilten reellen ZV en mit X 1 L 2, dann gilt für n 1 n n i=1 X i stochastisch E(X 1 ). Bew: O.b.d.A E(X 1 ) = 0. Tschebyshev für S n = n i=1 X i und Bienamé: P( 1 1 Sn > δ) = P( Sn > nδ) n n 2 δ V (Sn) 2 = 1 V (X n 2 δ 2 i ) = 1 nδ E(X ) 0. i Bemerkung Es folgt i.a. nicht, dass 1 n S n E(X 1 ) fast sicher. Insbesondere gilt i.a. nicht, dass die Approximation 1 n S n(ω) von E(X 1 ) für n immer besser wird.
55 2.1 Unabhängigkeit
56 Unabhängige Ereignisse Definition 2.1 Bsp. 2.1 Bemerkung Eine Familie von Ereignissen (A λ ) λ Λ im W-Raum (Ω, F, P) heißt unabhängig, falls für jede endliche Teilmenge Λ Λ gilt P( λ Λ A λ ) = λ Λ P(A λ). Die Ereignisse Eine Familie von Ereignissen (A λ ) λ Λ heißen paarweise paarweise unabhängig, falls P(A λ A λ ) = P(A λ ) P(A λ ) λ λ. Von den vier Ziffernfolgen 112, 121, 211, 222 wird eine zufällig ausgewählt. Dann sind die Ereignisse A i := i-te Stelle ist 1, i = 1, 2, 3 paarweise unabhängig aber nicht unabhängig. A 1,..., A n unabhängig A c 1,..., Ac n unabhängig.
57 Satz 2.2 Borel-Cantelli: Umkehrung Seien (A n ) n N unabhängige Ereignisse in (Ω, F, P) mit n P(A n) =, dann gilt P(lim sup A n ) = 1. Bew: B n := m n A m lim sup A n. Zeige P(B n ) = 1. P(Bn c ) = P( m n A c m) = lim P( n m l A c l m) = lim P(A c l m) = lim (1 P(A m)) l n m l = lim l exp[ lim l n m l exp[ n m l n m l log(1 P(A m))] P(A m)] = 0, weil log(1 x) x und n m l P(A m) für l. Bsp. 2.2 Unendliche Wiederholung unabh. Münzwürfe mit p ]0, 1[. Korollar 2.1 (0-1-Gesetz von Borel) P( unendlich häufig Kopf ) = 1. P(lim sup A n ) {0, 1} für jede unabh. Folge {A n } F.
58 Borel-Cantelli: Umkehrung (II) Satz 2.3 (Chung) Bew: Korollar 2.2 (0-1-Gesetz von Chung) Seien (A n ) n N paarw. unabhängige Ereignisse in (Ω, F, P) mit n P(A n) =, dann gilt P(lim sup A n ) = 1. Zeige P(S = ) = 1 mit S = lim n S n, S n := n Monot. Konvergenz 1) = E(S n ) E(S) =. 2) Biename = V (S n ) = V (1 Ai ) n i=1 E(1 2 A i ) = E(S n ) 1) und 2) = V (Sn) E 2 (S n) 0. i=1 1 Ai Tschebyshev = P(S n 1 2 E(S n)) P( S n E(S n ) 1 2 E(S n)) 1 4 V (Sn) E 2 (S 1 δ, falls n N n) 0(δ). P(S 1 2 E(S n)) 1 δ, falls n N 0 (δ). E(Sn) = P(S = ) 1 δ δ > 0 P(lim sup A n ) {0, 1} für jede paarw. unabh. Folge {A n } F.
59 Unabhängige Mengensysteme Definition 2.2 Lemma 2.1 Bew: Eine Familie {E λ F λ Λ} von Ereignismengen heißt unabhängig, falls jede endliche Teilauswahl von Mengen {A i E λi, i = 1,..., N, λ i λ j für i j} unabhängig ist. Für eine unabh. Familie (E λ ) λ Λ von -stabilen Mengensystemen ist auch {σ(e λ )} λ Λ unabhängig. (E λ ) λ Λ unabh. Zugeh. Dynkin-Systeme (δ(e λ )) λ Λ unabhängig. Wegen -Stabilität von E λ ist δ(e λ ) = σ(e λ ) λ.
60 Unabhängigkeit von Zufallsvariablen Definition 2.3 Bemerkung Satz 2.4 Eine Familie von (E, E)-wertigen Zufallsvariablen (X λ ) λ Λ heißt unabhängig falls für alle N N, {λ 1,..., λ N } Λ, B 1,... B N E A 1 := {X λ1 B 1 },..., A N := {X λn B N } unabhängig. X 1,, X n unabhängig σ(x 1 ),..., σ(x n ) unabhängig. X 1,, X n ϕ 1 (X 1 ),... ϕ n (X n ) unabhängig, falls ϕ 1,... ϕ n messbar E E Für reelle ZV en X 1,..., X d sind äquivalent X 1,..., X d unabhängig t 1,..., t n R F X (t 1,..., t d ) = i=1...d F X i (t i ). µ X = d i=1 µ X i (Produktmaß auf R d ): d.h. µ X (]a 1, b 1 ]... ]a d, b d ]) = d µ Xi (]a i, b i ]). i=1 Korollar 2.3 Für X 1,..., X n unabhängig ist E( n i=1 X i) = n i=1 E(X i).
61 2.2 Starkes Gesetz der großen Zahlen
62 Starkes Gesetz Einfacher Fall Satz 2.5 Falls (X n ) n eine Folge von unabhängigen identisch verteilten ZV en auf einem W-Raum (Ω, F, P) mit E(Xi 4 ) <, so gilt mit m = E(X 1 ), dass 1 n n i=1 X n i m fast sicher. Bew: O.b.d.A m = 0. Mit S n = n i=1 X i gilt E(S 4 n ) = n i,j,k,l=1 E(X ix j X k X l ) = ne(x 4 1 ) + ( n 2)( 4 2) (E(X 2 1 )) 2 = ne(x 4 1 ) + 3n(n 1)(E(X 2 1 )) 2 C n 2. Markov Ungl. = P( 1 1 Sn δ) = P( Sn > nδ) C n 2 = n n 4 δ 4 n P( 1 Sn δ) < n 1 = P(lim sup n Sn δ) = 0. Borel-Cantelli n C δ 4 n 2 1 P(lim sup Sn = 0) P( n n k N {lim sup 1 Sn 1 }) = 0. n k
63 Satz 2.6 Bew: Satz von Etemadi (1981) Es sei (X n ) n eine Folge von ident. verteilten, paarweise unabh. ZV en auf einem W-Raum (Ω, F, P) mit E( X 1 ) <, so gilt mit m = E(X 1 ), dass 1 n n i=1 X n i m fast sicher. O.b.d.A. X i 0, andernfalls behandle X + und X separat. 1. Schritt Sei Y i = X i 1 Xi i, S n = n i=1 Y i α > 1 und k n := α n. Tshebyschev = P( S kn ES kn n N Biename = 1 k n ɛ 2 n 1 k 2 n ( = 2 ɛ 2 i N = c i N k n i c k N 0 1 k+1 Borel-Cantelli = i=1 1 k 2 n k n ɛ) 1 ɛ 2 V (Y i ) 2 ɛ 2 n ) E(Yi 2 ) 2 ɛ 2 1 i x 2 df (x) = c i 2 0 k+1 k 1 k 2 n n N k n i= ln α i N i 1 1 k+1 i 2 k i N k=0 x 2 df (x) c k V (S kn ) k 2 n E(Y 2 i ) = 2 ɛ kn i kn 2 i,n N E(Y 2 i 2 i ) =: c(ɛ, α) x 2 df (x) i N E(Y 2 i ) E(Y 2 i ) i 2 k+1 k xdf (x) = ce(x 1) <. 1 k n (S k n E(S k n )) 0 fast sicher.
64 Bew. (Forts.) 2. Schritt E(X 1) = lim n E(Y n) lim n 1 n E(S n ) = E(X 1) S kn k n E(X 1) fast sicher. P(X n Y n) = P(X > n) = n N n n = i+1 df (x) = i n i n i N df (x) n i i+1 df (x) E(X i 1) < X n Y n nur für endlich viele n fast sicher. S kn k n E(X 1) fast sicher. 3. Schritt Wegen X i 0 ist S n monoton. Für eine beliebige Teilfolge m gilt S nkm m Sm Sn km+1 m m n km m, falls km so gewählt, dass m [n k m, n km+1[ 1 α und n km+1 m α 1 E(X1) lim inf 1 α n Sn lim sup 1 Sn αe(x1) fast sicher n Wegen α > 1 beliebig folgt die Behauptung.
65 Satz von Etemadi: Umkehrung Satz 2.7 Lemma 2.2 Bew: Bew: (Satz 2.7) Falls (X n ) Folge von paarw. unabh. ident. verteilten ZV en, so 1 n dass lim n n i=1 X i =: Y ex. fast sicher, so ist X 1 L 1 (Ω) und Y E(X 1 ) fast sicher. Für eine ZV Z 0 gilt E(Z p ) = p t p 1 P(Z t)dt. 0 E(Z p ) = E(p Z 0 tp 1 dt) = p t p 1 1 t Z dtp(dω) Ω R 0 = p t p 1 1 t Z P(dω)dt = p t p 1 P(Z t)dt R 0 Ω R 0 1 n S n Y. f.s. 1 n X n = 1 n S n n 1 n n 1 S n 1 0 f.s. P(lim sup A n ) = 0 mit A n = { X n n} Chung-0/1 = n P(A n) <. P(A n ) = P( X 1 n) Lemma 2.2 = E( X 1 ) P( X 1 n) <. n N 0 1 Etemadi = Y = lim 1 n S n = E(X 1 ) fast sicher.
66 2.3 Satz von Sanov (Große Abweichungen)
67 Definition 2.4 Bemerkung Entropie Sei (S, S) ein messb. Raum. P(S) := {µ µ ist W-Maß auf (S, S)} Für µ P(S) heißt Ent µ : P(S) R { } { ln(ϕ(x)) ν(dx) falls ν(dx) = ϕ(x)µ(dx) Ent µ (ν) := S + sonst. relative Entropie (von ν) bzgl. µ. Ent µ (ν) = ln(ϕ(x))ϕ(x) µ(dx) falls ν(dx) = ϕ(x)µ(dx). S Lemma 2.3 i) Ent µ (ν) 0 mit Ent µ (ν) = 0 µ = ν. ii) Ent µ (tν 1 + (1 t)ν 2 ) tent µ (ν 1 ) + (1 t)ent µ (ν 2 ) Bew: Ent µ(ν) = η(ϕ(x)) µ(dx) mit s η(s) := s ln(s) konvex S Jensen = Ent µ(ν) = η(ϕ(x))µ(dx) η( ϕ(x)µ(dx)) = η(1) = 0. S S = Ent µ(ν) = 0 ϕ(x) = ϕ(x)µ(dx) µ-f.s ν = µ i). S η konvex = η(tϕ 1(x) + (1 t)ϕ 2(x)) tη(ϕ 1(x)) + (1 t)η(ϕ 2(x)) ii). Jensen 9 9 Jensen : Für η : R R konvex ist E P (η(x )) η(e P (X )) mit = genau dann, wenn X = E P (X ) P-fast sicher.
68 Satz von Sanov (1957) Definition 2.5 Bemerkung Satz 2.8 (Sanov) Bemerkung Für (S, S) messb. Raum und (X 1,..., X n ) =: X (n) S n heißt µ X (n) = 1 n n i=1 δ X i P(S) empirische Verteilung von (X ) = (X 1,..., X n ). Falls S endliche Menge P(S) Standard-Simplex in R S P(S) ˆ={(µ 1,..., µ S ) R n 0 µ(s) = 1} = n 1 R S s S µ ν P(S) := µ ν R S Sei S endliche Menge, µ P(S) und (X n ) eine Folge unabh. µ-verteilter ZV en. Dann gilt für offenes A P(S) 1 n ln P(µ X A) inf Ent µ(ν). (n) ν A Exponentielle Konvergenz der empirischen Verteilungen: P(µ X (n) = ν) exp( n Ent µ (ν))
69 Lemma 2.4 Für ν P n := {µ P(S) n µ(s) N s S} gilt ( 1 n+1 ) S e nentµ(ν) P(µ X (n) = ν) e nentµ(ν). Bemerkung Bew: (Lemma 2.4) P n (n + 1) (n + 1) (n + 1) ( S -Mal) = (n + 1) S. ξ n := (nµ X (n)(s)) s S R S ist (n, µ)-multinomialverteilt π n (ν µ) := P(µ X (n) = ν) = κ n (ν) s S (µ(s))nν(s) mit κ n (ν) := {x (n) S n n! µ x (n) = ν} = (nν(s 1))!...(nν(s S ))! s S (µ(s))nν(s) = exp [ n ν(s) ln(µ(s)) ] ] =: e n H(ν µ) s S κ n (ν)e nh(ν ν) = π n (ν ν) 1 κ n (ν) e nh(ν ν) Multinomialverteilung = π n ( ν ν) π n (ν ν) ν, ν P n 1 = π n ( ν ν) P n π n (ν ν) (n + 1) S π n (ν ν). ν P n κ n (ν) = e nh(ν ν) π n (ν ν) e nh(ν ν) (n + 1) S Behauptung, da H(ν ν) H(ν µ) = Ent µ (ν).
70 Bew: (Satz 2.8) A P(S) P(µ X (n) A) = π n (ν µ) Lemma 2.4 ν A P n A P n exp ( n inf Ent µ(ν) ) ν A (n + 1) S exp ( n inf Ent µ(ν) ) ν A lim n S ln(n + 1) = 0 n = lim sup n P(µ X (n) A) = Lemma 2.4 (n + 1) S 1 n ln P(µ X (n) ν A P n π n (ν µ) ν A P n e nentµ(ν) (n + 1) S exp ( n inf Ent µ (ν) ) ν A P n ν A P n e nentµ(ν) A) inf Ent µ(ν) ν A 1 lim inf n n ln P(µ X A) lim sup inf Ent (n) µ (ν) n ν A P n Ent µ : A {Ent µ (.) < } R stetig, A P(S) offen lim sup n inf Ent µ (ν) = inf Ent µ(ν) ν A P n ν A Korollar 2.4 { lim inf 1 n log P(µ X (n) O) inf O Ent µ für O P(S) offen lim sup 1 n log P(µ X (n) A) inf A Ent µ für A P(S) abg. Bemerkung Kor. 2.4 Prinzip der großen Abweichungen für (µ X (n)) n
71 Satz von Cramér Definition 2.6 Sei X ν eine reelle ZV mit Verteilung µ. λ : R [0, ], λ µ (t) := E(e tx ) = R etx µ(dx) heißt Laplace-Transformierte von X (bzw. von µ). I µ : R [0, ], I µ (x) := sup(tx log λ µ (t)) heißt t R Cramér-Transformierte von µ. Satz 2.9 (Cramér 1938) Bemerkung Sei (X n ) Folge unabh. ident. verteilter ZV en mit X 1 µ, dann gilt für S n := n i=1 X i, x > E(X 1 ) lim n 1 n log P( 1 n S n x) = I µ (x). Tausch X gegen X Analog für P( 1 n S n x) f. x < E(X 1 ). t Λ µ (t) := log λ µ (t) Log-Laplace-Transformierte. I µ (x) = sup t (tx Λ(t)) Legendre-Transformierte von Λ.
72 Entropieungleichung Satz 2.10 Für µ, ν P(S) Ent µ (ν) = sup E ν (ψ) log E µ (e ψ ). ψ:s R messb. Bew: Schreibweise E µ (ψ) := ψ, µ Falls ν = ϕµ: ψ, ν Ent µ (ν) = ψ log ϕ, ν = log( eψ ϕ ), ν Jensen = log eψ ϕ, ν = log eψ, µ. Ent µ (ν) E ν (ψ) log E µ (e ψ ) ψ. Außerdem gilt = falls ψ := log ϕ. Falls nicht ν = ϕµ für ein gewisses ϕ A S, s.d. ν(a) > 0 und µ(a) = 0. mit ψ = t1 A gilt E ν (ψ) log E µ (e ψ ) = tν(a) log E µ (1) = tν(a) t.
73 Lemma 2.5 Für U z = {µ P(S) E µ (x) > z} ist I µ (z) = inf ν Uz Ent µ (ν). Bew: Schreibweise E µ (X ) = x, µ bzw. E µ (e tx ) = e tx, µ. Entropieungleichung Sei ν U z = Ent µ (ν) t x, ν log e tx, µ tz log e tx, µ Def. von Iµ = inf ν Uz Ent µ (ν) I µ (z) Umgekehrt gilt für t = argmax t ρ z (t) := (tz log e tx, µ ) ρ z(t ) = 0 z = 1 e t x,µ xet x, µ ν(dx) := 1 e t x,µ et x µ(dx) neues W -Maß, ν U z Einsetzen = Ent µ (ν) = ρ z (t ) = I µ (z).
74 Bew: (Satz 2.9) Im Spezialfall, dass µ(s) = 1 mit S R endlich: µ X (n) P n (S) P(S). P(S) R, µ E µ (X ) = sµ(s) ist stetig. s S U z = {µ P(S) E µ (X ) > z} P(S) offen E (x) = 1 µx (n) n S n und 1 n S n > z µ X (n) U z Sanov 1 = lim n n log P(S n > z) = inf ν Uz Ent µ (ν) z < x < z : I µ (z 1 ) = lim n n log P(S n > z 1 ) lim inf n 1 lim sup n n log P(S 1 n x) lim n Lemma 2.5 = I µ (z). n log P(S n x) n log P(S n > z) = I µ (z) Beh. folgt aus Lemma 2.5, da z I µ (z) stetig.
75 Nachtrag: W-Maße auf Ω = R N Bezeichnungen Ω := R N = {ω = (ω i ) N ω i R} pr n : Ω R n, pr n (ω) = (ω 1,..., ω n ) pr m n : R m R n : (ω 1,..., ω m ) (ω 1,..., ω n ) für m n. Definition 2.7 Z = {Z Ω Z = pr 1 n (B), n N, B B(R n )}, F = σ(z) 2 Ω. Eine Folge von W-Maßen auf µ n auf (R n, B(R n )), n N, heißt konsistent, falls (pr m n ) µ m = µ n für alle m n. Bsp. 2.3 Satz 2.11 (Kolmog. Konsistenzsatz) Korollar 2.5 µ n (dx 1..., dx n ) := n i=1 µ(dx i) (n-faches Produktmaß). Eine Familie (µ n ) n von W-Maßen ist konsistent genau dann wenn ein (eindeutiges) W-Maß µ auf (R N, F) ex., so dass µ n = (pr n ) µ n N. Für ein W-Maß µ auf (R, B(R)) ex. genau ein W-Maß µ auf (Ω, F) = (R N, σ(z)) so dass X n : Ω R, X n (ω) = ω n, n N, eine unabh. Folge von µ-verteilten ZV en definiert.
76 Beweis von Satz 2.11 Lemma 2.6 Bew: Bew: (Satz 2.11) Sei η ein W-Maß auf (R n, B(R n )) und A B(R n ), so ex. zu ɛ > 0 ein K ɛ A kompakt, s.d. η(a \ K ɛ ) ɛ. Mengen A mit dieser Eigensch. bilden ein -stabiles Dynkin-System, welches die Mengen A = n ]a i, b i ] enthält. i=1 Z ist ein Ring. Definiere Inhalt auf Z: µ 0 (Z) := µ n (B) falls Z = prn 1 (B) Z, B B(R n ). Konsistenz = µ 0 wohldefiniert. Zeige: µ 0 Prämaß auf Z: Z n = prn 1 (B n )! µ 0 (Z n ) 0. Angen. δ > 0: µ 0 (Z n ) δ > 0 n N. Sei K n B n kp. mit µ n (B n \ K n ) δ 2 und C n+1 n := prn 1 K n Z. Sei D n = n i=1 C i D n = prn 1 F n für F n K n abgeschlossen. µ 0 (D n ) δ n δ i=1 δ 2 i+1 2 F n. Wähle ω (n) D n n N. Diagonalfolge = (ω (n ) ) n, ω = ( ω 1,... ) Ω s.d. (ω (n ) 1,..., ω (n ) m ) n ( ω 1,..., ω m ) m N. Fm abgeschl. = ( ω 1,..., ω m ) F m m ω D m m m D m. Wegen D n Z n mit Z n D n Widerspruch.
77 2.4 Reihen unabhängiger Zufallsvariablen
78 Terminale σ-algebra Definition 2.8 Für eine Folge von σ-algebren F n, n N ist die terminale σ-algebra gegeben durch T = n σ( m n F m ). Bsp. 2.4 Ω = {ω = (ω 0, ω 1,... ) {G, R, B} N, F = 2 Ω, E = {R, G, B}, E = 2 E, X n : Ω E, X n ((ω i ) i N ) = ω n, F n := σ(x n ) {ω Ω n=1 1 Xn(ω)=G = } T. Bsp. 2.5 Sei X n eine Folge von ZV en auf (Ω, F, P) und F n := σ(x n ), dann ist E := {ω Ω n N X n (ω) konvergiert} T.
79 Kolmogorov sches 0-1-Gesetz Satz 2.12 Bew: (Satz 2.12) Korollar 2.6 Definition 2.9 Falls (F n ) n N eine Folge von P-unabh. σ-algebren, so gilt P(E) {0, 1} für alle E T. ( ) ( ) Fn, F k unabh. m > n Lemma 2.1 = F n, σ( F k ) unabh. k m ( ) k m (F n, T ) unabh. n F l, T unabh. s.o. (T, T ) unabh. l n E unabh. von E E T d.h. P(E) = P(E E) = P(E) 2 P(E) {0, 1}. Für eine Folge (X n ) von unabh. ZV en auf (Ω, F, P) ist P({ n N X n konvergiert}) {0, 1}. Für eine Folge (X n ) heißt n N X n konvergent, falls P( X n konv. ) = 1. n N
80 Kolmogorov sche Ungleichung Lemma 2.7 Bemerkung Für X 1,, X n unabh. mit E(X i ) = 0 und sn 2 := n i=1 V (X i) P(max 1 k n k i=1 X i l) s2 n l 2. Tschebyshev-Ungl. für Maximum T n := max 1 k n k i=1 X i Bew: E k := { S 1 < l,..., S k 1 < l, S k l} {T n l} = k E k P(E K ) 1 l 2 E(S 2 k ; E k) 1 l 2 E(S 2 k + (S n S k ) 2 ; E k ) Unabhängigkeit 1 = l E(S 2 2 k + 2S k(s n S k ) + (S n S k ) 2 ; E k ) = 1 l E(S 2 2 n ; E k ). P(T n l) = k P(E k) k 1 l 2 E(S 2 n ; E k ) = 1 l 2 E(S 2 n ).
81 Kolmogorov scher Reihensatz Satz 2.13 Lemma 2.8 Bew: Bew: (Satz 2.13) Für eine Folge unabh. ZV en X 1, X 2,..., mit E(X i ) = 0 und i V (X i) < konvergiert S = i N X i fast sicher. Eine Folge von (S n ) von ZV en konvergiert fast sicher genau dann, wenn P(sup n k m S k S n > δ) 0 für m n. Siehe Übungen. Kolmogorov Ungl. = P(sup n k m S k S n δ) 1 m n,m δ 2 j=n+1 V (X ) 0. Aussage folgt mit Lemma 2.8.
82 Satz 2.14 Bew: Kolmogorov scher Reihensatz: Umkehrung Für (X n ) Folge unabh. ZV en mit E(X n ) = 0 und X n C f.s. für alle n N, folgt aus n X n konv., dass n V (X n) <. Sei σn 2 := V (X n ), S n := n i=1 X i, S 0 := 0 Für L > 0 sei F n (L) := { S 1 L,..., S n L}. X n ex. f.s. P( F n (L)) = 1 L N n n L > 0 : P(F n (L)) δ > 0 n N. E(S 2 n ; F n 1 ) = E(S 2 n 1 + 2X ns n 1 + X 2 n ; F n 1 ) = E(S 2 n 1 ; F n 1) + E(X 2 n ) P(F n 1 ) E(S 2 n 1 ; F n 1) + σ 2 nδ E(S 2 n, F n 1 ) = E(S 2 n, F n ) + E(S 2 n, F n 1 \ F n ) E(S 2 n, F n ) + (L + C) 2 P(F n \ F n 1 ) δσ 2 n E(S 2 n ; F n ) E(S 2 n 1, F n 1) + (L + C) 2 P(F n 1 \ F n ) (Teleskopsumme, Sn 2 L auf F n ) δ σn 2 L 2 + (L + C) 2 n N
83 Kolmogorov scher Drei-Reihen-Satz Satz 2.15 Bew.: : n N X n ist konvergent für (X n ) unabh. i) & ii) & iii) i) Für ein C > 0 ist n P( X n > C) <. ii) Für Y n := X n 1 Xn C konvergiert n N E(Y n) iii) Für Y n wie in ii) ist n N V (Y n) <. Ŷ n := Y n E(Y n ) K scher Reihens. = Ŷ n konvergiert f.s. Y n = (Ŷn + E(Y n )) konvergiert f.s. P(Xn Y n ) = P( X n > C) < Borel-Cantelli = X n = Y n für schließich alle n N f.s. X n konvergiert f.s.
84 Beweis (Forts.) : X n ex. X n C für schließich alle n mit W -keit 1. Borel-0/1 = P( X n > C) < i) i) & Borel-Cantelli = Y n konv. Sei Y n Y n eine unabh. Kopie von X n, d.h. Ω = Ω Ω = { ω = (ω, ω) ω, ω Ω} P(d(ω, ω)) = P(dω ) P(dω) {Ȳn, Ȳ n, n N} unabh. Ȳ n( ω) := Y n (ω ), Ȳn( ω) := Y n (ω) P( Ȳ n konv.) = P( Ȳ n konv.) = P( Y n konv.) = 1. Zn konvergiert f.s. für Z n := Ȳn Ȳ n E( Z n ) = 0 und Z n 2C f.s. Satz 2.14 = V ( Z n ) = 2 V (Y n ) < iii) iii) & K scher Reihens. = Ŷn konv. mit Ŷ n = Y n E(Y n ) E(Y n ) = (Y n Ŷ n ) konv. ii)
85 Levy sche Ungleichung Lemma 2.9 Falls X 1,..., X n unabh. ZV mit P( n k=i X i l 2 ) δ für alle i = 1,..., n, so folgt P(max 1 k n k i=1 X i l) δ 1 δ. Bew: Sei E k := { S 1 < l,..., S k 1 < l, S k l} Mit T n := max 1 k n k i=1 X i folgt {T n l} = k E k P(T n l, S n l 2 ) = n k=1 n k=1 P(E k { S n S k l 2 }) = δp(t n l) P(E k { S n l 2 }) n k=1 P(E k )P({ S n S k l 2 }) Wegen P(T n l, S n > l 2 ) P( S n > l 2 ) δ P(T n l) δp(t n l) + δ Behauptung.
86 Satz von Levy Satz 2.16 Bew: Für S n := n i=1 X i mit (X n ) unabh. gilt S n konvergiert fast sicher S n konvergiert stochastisch. klar. : S n konvergiere stochastisch P( S n S m > δ) 0 für n, m ɛ, δ > 0 N 0 : P( m i=k+1 X i > δ) ɛ m k N 0. Levy-Ungleichung = ɛ, δ > 0 N 0 : m > k N 0 P( max S l S m > 2δ) l k,...,m Aussage folgt mit Lemma 2.8. = P( max l k,...,m m i=l+1 X i > 2ɛ) ɛ 1 ɛ
87 Kapitel 3: Zentraler Grenzwertsatz
88 Schwache Konvergenz Definition 3.1 Sei (S, τ) topologischer Raum, Borel sche σ-algebra S = σ(τ). Eine Folge von W-Maßen auf (S, S) konvergiert schwach gegen das W-Maß µ, falls für alle ϕ : S R beschränkt stetig S ϕ(x)µ n(dx) S ϕ(x)µ(dx). Eine Folge (X n ) von S-wertien ZV en X n : Ω n S konvergiert schwach gegen X : Ω S, falls Vert Xn schwach Vert X. Schreibweise µ n µ bzw. X n X. Bemerkung erzeugt die schwache Topologie auf P(S). (X n X ) E[ϕ(X n )] E[ϕ(X )] ϕ C b (S). (δ sn δ s ) s n s, für n.
89 Zentraler Grenzwertsatz Satz 3.1 (ZGS) Für eine unabh. ident. vert. Folge (X n ) n von ZV en mit E(X 1 ) = m und V (X 1 ) = σ 2 gilt für S n := n i=1 X i, dass S n nm nσ n = ν 0,1. Bemerkung S n nm nσ beschreibt Fluktuationen beim GGZ 1 n S n n m.
90 Bew: (Stein, 72) O.B.d.A. m = 0, σ = 1. Zu zeigen: f C b (R): E[f ( Sn n )] f (x)ϕ(x)dx mit ϕ(x) = 1 R 2π e x 2 /2. O.b.d.A. f (x)ϕ(x)dx = 0. R h(x) := 1 x ϕ(x) f (t)ϕ(t)dt = 1 ϕ(x) f (t)ϕ(t)dt. x h (x) = f (x) φ (x) x φ 2 (x) f (t)ϕ(t)dt ϕ (x) xϕ(x) = f (x) + xh(x). Mit M = sup x R f (x) und x > 0 h(x) M ϕ(x) x ϕ(t)dt M ϕ(x) x t x ϕ(t)dt = M x Analog h(x) M x für x < 0 h(x) M x für x R 0. sup x R x h(x) M h C b (R) mit sup x R h (x) 2M.
91 Beweis von ZGS (Forts.) E[f ( Sn n )] = E[h ( Sn n )] E[ Sn n h( Sn n )] = E[h ( Sn n )] ne[x 1h( Sn n )] = E[h ( Sn )] ne[x S n + X 1 1h( )] mit S n := n n n i=2 X i = E[h ( Sn )] ne[x S n 1h( )] E[X n n 0 h ( S n + sx 1 )ds] n X 1 und Sn unabh. = E[h ( Sn )] E[X n 0 h ( S n + sx 1 )ds] n E(X 2 1 ) = 1 = E[h ( Sn n ) h ( S n n )] =: E(U n) E(V n) ( E[X1 2 1 h ( S n + sx 1 ) h ( S ) n ) ds] 0 n n = E(U n; A n,k ) E(V n; A n,k ) + E(U n; A c n,k) E(V n; A c n,k) mit A n,k = { S n/ n k}.
92 Beweis von ZGS (Forts.) U n 1 An,k (ω) = ( h ( S n(ω) n + X1(ω) n ) h ( S n(ω) n ) ) 1 Sn(ω) n k h gleichm. stetig auf [ k, k] U n 1 An,k 0 f.s. für n. Ferner U n 1 An,k U n 4M Analog V n 1 An,k 0 f.s. V n 1 An,k 4MX1 2 L1 (P) E(U n 1 A c n,k ) 4MP(A c n,k ) Tscheb. Dom. Konvergenz = E(U n ; A n,k ) 0. Dom. Konvergenz = E(V n ; A n,k ) 0. 4M k V ( S n n ) Biename = 4M n 1 2 k 2 n E(V n 1 A c n,k ) 4MP(X1 21 A c n,k ) Unabh. = 4ME(X1 2) P(Ac n,k ) s.o. 4M k 2 lim sup n E[f ( Sn n )] 8M k 2 k N Beh.
93 3.1 Schwache Konvergenz
94 Satz 3.2 Portmanteau Theorem Sei (S, τ) ein top. Raum mit S = σ(τ). Dann sind. äquivalent 1 µ n µ 2 µ(a) lim sup n µ n (A) A S abgeschlossen 3 µ(o) lim inf n µ n (O) O S offen 4 µ(g) = lim n µ n (G) G S mit µ( G) = 0. Lemma 3.1 Für A S abg. µ(a) = inf{ S φ(x)µ(dx) φ C b(s), φ 1 A }. Bew: (Satz 3.2) Schreibweise ϕ, µ = S ϕ(x)µ(dx). i) ii) : Sei ϕ C b (S), ϕ 1 A. ϕ, µ n sup ϕ, µ m sup µ m (A) m n m n n Lemma 3.1 = ϕ, µ lim sup n µ n (A) = µ(a) lim sup n µ n (A). ii) iii) : Folgt durch Übergang zu Komplementmengen. iii) iv) : µ(g) = µ( G) lim inf µ n ( G) lim inf µ n (G) lim sup µ n (G) lim sup µ n (Ḡ) µ(ḡ) = µ(g).
95 Bew: (Forts.) iv) i) : ψ C b (S), t F ψ (t) := µ({ψ t}) rechtsstetig hat nur abzählbar viele Sprünge µ({ψ t}) = µ({ψ > t}) für dx-fast alle t R. S Fubini ψ(x)µ(dx) = µ({ψ t})dt R iv) = R lim Dom. Konvergenz n µ n ({ψ t})dt = lim n R µ n({ψ t})dt. Satz 3.3 Für eine Folge (µ n ) n von W-Maßen auf (R, B(R)) gilt µ n µ gdw. F µn (x) F µ (x) für alle x R, in denen F µ (.) stetig. Bew: Satz 3.4 (Skorokhod) Folgt aus Satz 3.2 iv), da µ({x}) = F µ (x) lim F µ (y) x R, y x d.h. µ([a, b]) = µ((a, b)), falls F µ in a und b stetig. Falls X n X für eine Familie von R d -wertigen ZV en, so ex. ein W-Raum (Ω, F, P) und X, X n : Ω R d mit X X, X n X n, s.d. X n X P-fast sicher. Bew: Ohne Beweis. Ansonsten [Durrett], Kap. 8.
96 Anwendung vom ZGS Korollar 3.1 Falls (X n ) n Folge unabh. id. vert. reeller ZV en mit m = E(X 1 ) und σ 2 = V (X 1 ), so gilt für alle t R lim P n ( n i=1 X i n m nσ ) t = 1 2π t e u2 /2 du =: Φ(t). Bew: Folgt aus ZGS und Satz 3.3, da t F (t) := 1 2π t e u2 /2 du stetig. Bemerkung t Φ(t) := 1 2π t e u2 /2 du Verteilungsfunktion der Standard-Normalverteilung. Bsp. 3.1 X i unabh. Bernoulli-verteilt mit Parameter p E(X 1 ) = p, V (X 1 ) = p(1 p). ( n i=1 X i ist B(n, p) binomialverteilt. ) P[ n i=1 X i s] = P[( n i=1 X i np)/ np(1 p) (s np)/ np(1 p)] Φ[(s np)/ np(1 p)], falls n groß.
97 Charakteristische Funktionen Definition 3.2 Sei X µ eine R d -werige ZV, dann heißt ϕ X : R d C, Bemerkung ϕ X (ξ) = E(e i ξ,x ) = R d e i ξ,x µ(dx) charakteristische Funktion von X (bzw. von µ). e i ξ,x µ(dx) := cos( ξ, x )µ(dx) + i sin( ξ, x )µ(dx) C, R d R d R d mit x cos( ξ, x ), x sin( ξ, x ) C b (R d ) ϕ X (.) wohldef. Satz 3.5 Eigenschaften von ϕ X : 1 ϕ X (ξ) 1 und ϕ X (0) = 1 2 ϕ X (.) ist gleichmäßig stetig auf R d : ϕ X (ξ + η) ϕ X (ξ) e i ξ+η,x e i ξ,x µ(dx) = e i η,x Dom. Konvergenz 1 µ(dx) 0 für η 0. 3 ϕ ax +b (ξ) = e i b,ξ ϕ X (aξ), ϕ X (ξ) = ϕ X (ξ), 4 Für X und Y unabhängig ist ϕ X +Y (ξ) = ϕ X (ξ) ϕ Y (ξ). Bsp. 3.2 ϕ νm,v (t) = e itm 1 2 vt2
98 Inversionsformel Satz 3.6 Bew: Falls ϕ = ϕ µ : R C für µ W-Maß auf (R, B(R)), so gilt 1 T lim T 2π T e ita e itb it ϕ(t)dt = µ((a, b)) + µ({a})+µ({b}) 2. e iat e ibt it = b a eist ds a b. T T Fubini e iat e ibt T ϕ(t)dt = it = R T T t cos(ct) gerade = T e it(s a) e it(s b) dtµ(ds) it T R T e iat e ibt e its µ(ds)dt it sin t(s a) sin t(s b) dtµ(ds) t = R[u(T, s a) u(t, s b)] µ(ds) R mit U(T, z) = T T sin(tz) dt t
99 Korollar 3.2 Eindeutigkeitssatz) Bew: Bew. (Forts.) U(T, z) = T T T 2 sign(z) sin(tz) t dt = 2 zt 0 mit sign(z) := 1 z>0 1 z<0. 0 sin t t dt sin t t dt = sign(z)π, C > 0 : U(T, z) C T, z Dom. Konv. = 1 T e ita e itb 2π T it ϕ(t)dt [sign(s a) sign(s b)]µ(ds) 1 2 R = 1 2 [µ(r >a) µ(r <a ) (µ(r >b ) µ(r <b ))] = 1 2 [µ(]a, b]) + µ([a, b[)] = µ(]a, b[) (µ({a}) + µ({b})) Ein W-Maß µ auf (R, B(R)) ist duch ϕ µ (.) eindeutig bestimmt. Für F = F µ stetig in a,b F (b) F (a) = µ(]a, b[) a F (b). Satz 3.6 Fµ rechtsst. = F µ (x) durch ϕ µ festgelegt falls in x stet. = in x R.
100 Levý scher Stetigkeitssatz Satz 3.7 Bew: Satz 3.8 Es gilt µ n µ genau dann wenn ϕ µn (t) ϕ µ (t) für alle t R : Klar, da x e itx = cos(tx) + i sin(tx) C b (R) + i C b (R). Folgt aus Satz 3.8 unten. Sei µ n eine Folge von Borel schen W-Maßen auf R mit ϕ µn (t) : ϕ(t) für alle t für eine Folge von Borel schen W-Maßen auf R und ϕ(.) stetig in 0, so gilt ϕ = ϕ µ für ein Borel sches W-Maß µ auf R und µ n µ.
101 Lemma 3.2 Bew: (Idee) Sei (F n ) Folge von Funktionen mit F n : R [0, 1] rechsttet. nichtfallend. Dann ex. Teilfolge n und F : R [0, 1], rechtsstt. nichtfallend s.d. F n (t) F (t), falls F in t stet. (F n (q)) n N [0, 1] q Q Diagonalfolge = Ex. Teilfolge n, s.d H(q) := lim n F n (q) ex. q Q. Setze F (t) := lim Q q t H(q). Lemma 3.3 Für ϕ(.) = ϕ µ (.) und F = F µ und T > 0 0 [1 F ( 2 T ) + F ( 2 1 T )] 2[1 2T Bew: 1 T 2T T R ϕ(t)dt Fubini = R 1 T e itx dtµ(dx) = 2T T T T ϕ(t)dt] R sin(tx) µ(dx) Tx sin(tx) Tx µ(dx) µ({ x < l}) + 1 µ({ x l}) Tl 1 1 T ϕ(t)dt µ({ x l}) 1 µ({ x l}) 2T T Tl = (1 1 Tl )µ({ x l}) (1 1 )[F ( l) + 1 F (l)] Tl Beh. folgt für l := 2 T.
102 Bew: (Satz 3.8) Sei n Teilfolge und F gemäß Lemma 3.2, so dass F n (t) F, falls F stet. in t. Sei T so gewählt, dass F stet. in 2 T und in 2 T. Lemma 3.3 = 0 [1 F µn ( 2 T ) + F ( 2 T )] 2[1 2 T T T n = 0 [1 F ( 2 T ) + F ( 2 T )] 2[1 2 T T T ϕ µn (t)dt] ϕ(t)dt] φ stetig in 0 T 0 = 0 [1 F ( ) + F ( )] 2[1 φ(0)] = 0 F (+ ) F ( ) = 1 F = F µ für ein W-Maß µ. µ n µ ϕ = ϕ µ D.h. µ durch ϕ eind. bestimmt, und jede Teilfolge µ n enthält eine Teilfolge n, s.d. µ n µ. = µ n µ für die gesamte Folge µ n.
103 Satz von Lindeberg-Feller Satz 3.9 Bemerkung Es sei (X (n) ) i=1,...,mn, n N eine Doppelfolge von reellen ZV en, s.d. {X (n) 1,..., X m (n) n } unabh. für alle n N, (n) E(X i ) n und m n (n) i=1 V (X i ) n σ 2. mn i=1 Dann sind äquivalent: i) X n := mn i=1 ii) Für alle ɛ > 0 m n i=1 E[(X (n) i X (n) i X ν µ,σ 2 und sup i {1,...,n m} E(X (n) i )) 2 ; X (n) i V (X (n) i ) n 0. E(X (n) i ) > ɛ] n 0 Die Eigenschaft ii) heißt Lindeberg-Bedingung.
104 Bew. von Lindeberg-Feller: Vorbereitung Lemma 3.4 Bew: Lemma 3.5 Sei z 1,..., z n, z 1,..., z n C mit z i, z i 1, dann n i=1 z i n i=1 z i n i=1 z i z i Duch Induktion nach n (Übung). Für t R, n N 0. e it n (it) k k=0 k! min( 2 t n n!, t n+1 (n+1)! ) Bew: Induktion nach n. n = 0: e it 1 = t 0 eis ds t und e it 1 2 Beh. Ind.Schritt folgt aus e it n+1 k=0 (it) k k! = t 0 [eis n k=0 (is) k k! ]ds. Lemma 3.6 Für X ν m1,v 1, Y ν m2,v 2 unabh. ist X + Y ν m1+m 2,v 1+v 2 Bew: ϕ X +Y (t) = ϕ X (t)ϕ Y (t) = e im1t v 1 2 t 2 e im2t v 2 2 t 2 = e it(m1+m2) v 1 +v 2 2 t 2.
105 Bew. von Lindeberg-Feller: ii) i) O.b.d.A. E(X (n) i ) = 0 und σ 2 = 1 (Andernfalls argumentiere mit ˆX (n) := X (n) i E(X (n) i ) i σ.) Bezeichnungen σn,i 2 := V (X (n) i ), σn 2 := m n i=1 σ2 n,i, ϕ n,i(t) := ϕ (n) X (t). i Sei ɛ > 0 sup i {1,...,n m} Sei Z n := mn i=1 σ 2 n,i ɛ 2 + Z (n) i Mit ϕ n,i (t) := ϕ Z (n) i m n ɛ 2 + lim sup i {1,...,n m} i=1 E[(X (n) i sup n i {1,...,n m} mit Z (n) i (t). ϕ Zn (t) = m n i=1 ϕ n,i(t) = e 1 2 σ2 n E[(X (n) i ) 2 ; X (n) i > ɛ) ) 2 ; X (n) > ɛ) n ɛ 2 σ 2 n,i = 0. i ν 0,σn,i, i = 1,..., m n unabh. t2 n e 1 2 t2, d.h. Z n ν 0,1.
106 Bew. von Lindeberg-Feller: ii) i) (Forts.) m n m n ϕ n,i (t) ϕ n,i (t) i=1 m n i=1 Lemma 3.4 m n i=1 ϕ n,i (t) ϕ n,i (t) ϕ n,i (t) m n 2 t2 σn,i 2 + ϕ n,i (t) t2 σn,i 2 i=1 =: I + II i=1 Taylor & sup σn,i 2 < C = C t > 0 s.d. n,i II C mn σn,i 4 C sup σ 2 m n n,i σn,i 2 i=i,...,m n i=1 Lemma 3.5 = Mit K t := 3 t 2 min( t, 1) m n i=1 ϕ n,i (t) m n 2 t2 σ n,i K t m n m n K tɛ σn,i 2 + K t i=1 i=1 i=1 E[ X (n) i i=1 n 0. E[ X (n) i 2 min(1, Xi n )] 2 ; X (n) t > ɛ] n ɛ. Wegen ɛ > 0 beliebig lim ϕ Xn (t) e 1 2 t2 Beh.
107 Bew. von Lindeberg-Feller: i) ii) Tschebyshev = sup P( X (n) σ i > ɛ) sup i,n ɛ 2 i {1,,m n} i {1,,m n} Lemma 3.5 = sup i {1,,m n} 2 sup i {1,,m n} ϕ n,i (t) 1 sup i {1,,m n} P( X (n) i > ɛ) + ɛ t n 0 n 0. E[min(2, t X n i )] log ϕ n,i (t) definiert für log : C \ R 0 C, falls n groß. E(X (n) Lemma 3.5 i ) = 0 = ϕ n,i (t) 1 C t 2 σn,i 2. log(ϕ n,i (t)) (ϕ n,i (t) 1) = log(1 (ϕ n,i (t) 1)) (ϕ n,i (t) 1) Taylor-Entw. von z log(z) in z = 1 C (ϕ n,i (t) 1) 2 Ct 4 σn,i 4 log ϕ n,i (t) mn (ϕ n,i (t) 1) C mn t 4 σn,i 4 mn i=1 Ct 4( log ϕ n (t) = mn i=1 sup i {1,,m n} i=1 ) σn,i 2 m n σn,i 2 i=1 log ϕ n,i (t) n t2 2 mn i=1 n 0. (ϕ n,i (t) 1) n t2 i=1 nach Voraussetzung 2.
108 Bew. von Lindeberg-Feller: i) ii) (Forts.) mn Re(ϕ n,i (t) 1) = mn (Re(ϕ n,i (t)) 1) i=1 = mn i=1 i=1 (E[cos(tX (n) i )] 1) n Re( t2 2 ) = t2 2 Wegen 0 1 cos(θ) θ2 2, für ɛ > 0 lim sup mn (n) i=1e[(x i ) 2 ; X (n) i > ɛ] n = lim sup n ( σn 2 m n (n) i=1e[(x i ) 2 ; X (n) i ɛ] = lim sup 1 m n (n) i=1e[(x i ) 2 ; X (n) i ɛ] n lim sup 1 2 mn (n) n t 2 i=1e[1 cos(tx i ); X (n) i ɛ] = lim sup n lim sup n 2 t 2 mn i=1 2 t 2 mn i=1 (n) E[1 cos(tx i ); X (n) i > ɛ] (n) P( X i > ɛ) lim sup n Mit t folgt die Lindeberg-Bedingung. ) 2 ɛ 2 t 2 mn i=1 σ2 n,i = 2 ɛ 2 t 2.
1.3 Zufallsvariablen
1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrSchwache Konvergenz von Wahrscheinlichkeitsmaßen
Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrAufgaben zu Kapitel 0
Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.
MehrWahrscheinlichkeitstheorie und Maßtheorie
KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrKapitel 5: Markovketten
Kapitel 5: Markovketten Definition 5.1 Bezeichnungen Bsp. 5.1 Definition 5.2 Eine Fam. (X i ) i I von ZV en X i : Ω E auf (Ω, F, P) mit Werten im messb. Raum (E, E) heißt Stochastischer Prozess. E Zustandsraum
MehrGesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
MehrKONSTRUKTION VON MASSEN
KONSTRUKTION VON MASSEN MARCUS HEITEL 1. Einleitung Wir wollen im Folgenden das Lebesguemaß konstruieren. Dieses soll die Eigenschaft λ ( [a, b = b a für a, b R besitzen. Nun ist ein Maß aber auf einer
MehrKlausur zur Vorlesung Stochastik II
Institut für Stochastik WS 007/008 Universität Karlsruhe. 0. 008 r. B. Klar Klausur zur Vorlesung Stochastik II Muster-Lösung auer: 90 Minuten Name: Vorname: Matrikelnummer: iese Klausur hat bestanden,
MehrScheinklausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrA. Maß- und Integrationstheorie
A. Maß- und Integrationstheorie Im folgenden sind einige Ergebnisse aus der Maß- und Integrationstheorie zusammengestellt, die wir im Laufe der Vorlesung brauchen werden. Für die Beweise der Sätze sei
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrLehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler
Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik II Wahrscheinlichkeitstheorie I Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 26. November 2002
MehrBeweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.
Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf
MehrGesetz der großen Zahlen
Gesetz der großen Zahlen Marie Reichstein Technische Universität Wien 19. Jänner 2012 Übersicht Geschichte Fragestellung schwaches Gesetz der großen Zahlen starkes Gesetz der großen Zahlen Null-Eins-Gesetze
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrMetrische äußere Maße, Borel-Maße
Metrische äußere Maße, Borel-Maße Zum einen haben wir mit dem Fortsetzungssatz gesehen, dass man mit einem äußeren Maß (auf P(X) ) stets eine σ-algebra und ein Maß auf dieser bekommt. Liegt nun ein metrischer
MehrErwartungswert als Integral
Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
Mehr4 Messbare Funktionen
4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge
MehrStochastik. Skript zur Vorlesung von Prof. Dr. Michael Kohler Sommersemester 2007
Stochastik Skript zur Vorlesung von Prof. Dr. Michael Kohler Sommersemester 2007 1 1. Grundbegriffe der Maßtheorie Ziel: Konstruktion von Maßzahlen (wie z. B. Wahrscheinlichkeit / Länge / Fläche / Volumen
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrMeßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :
24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar
MehrZufallsvariable, Verteilung, Verteilungsfunktion
Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.
MehrSchwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik
Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind
Mehr1 Grundlagen der Maßtheorie
1 Grundlagen der Maßtheorie In diesem Kapitel führen wir die Mengensysteme ein, die eine systematische Betrachtung von Ereignissen und zufälligen Beobachtungen in der Wahrscheinlichkeitstheorie erlauben.
MehrKapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).
Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrFerienkurs in Maß- und Integrationstheorie
Zentrum Mathematik Technische Universität München Dipl. Math. Wolfgang Erb WS 9/ Übungsblatt Ferienkurs in Maß- und Integrationstheorie Aufgabe. (σ-algebren Sei eine Menge und A eine σ-algebra in. Seien
Mehr3 Markov-Eigenschaft der Brownschen Bewegung
Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t
MehrMaßtheorie. Skript zur Vorlesung von Prof. Dr. Michael Kohler. Sommersemester 2005 und Wintersemester 2005/2006
Maßtheorie Skript zur Vorlesung von Prof. Dr. Michael Kohler Sommersemester 2005 und Wintersemester 2005/2006 1 1 Grundbegriffe der Maßtheorie Ziel: Konstruktion von Maßzahlen (wie z. B. Länge / Fläche
MehrSeminar stabile Zufallsprozesse
Definitionen und Eigenschaften stabiler Verteilungen 2. November 2011 Inhalt 1 Definitionen Definitionen Beweis der Äquivalenz Beispiele 2 Eigenschaften 3 Charakteristische Funktion 4 Laplace Transformation
MehrKlausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 24/25 Universität Karlsruhe 7. März 25 Priv-Doz. Dr. D. Kadelka Klausur zur Vorlesung Stochastik II Dauer: 9 Minuten Name: Vorname: Matrikelnummer: Diese Klausur
MehrCharakteristische Funktionen
Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die
MehrSatz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung
Satz von Borel-Cantelli Limes inferior von Mengen Limes superior von Mengen Stetigkeit Konvergenz von Zufallsvariablen Kolmogorow-Ungleichung Tschebyschow-Ungleichung Konvergenzkriterien Starkes Gesetz
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrVorlesungsskript: Martingale
Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................
MehrMathematische Ökonometrie
Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrPrüfungsfächer: Die Prüfung erstreckt sich auf die folgenden Prüfungsfächer: Maß- und Integrationstheorie Wahrscheinlichkeitstheorie Statistik
B Zulassungsprüfung in Stochastik Zielsetzung: Durch die Zulassungsprüfung in Stochastik soll der Nachweis geführt werden, dass die Bewerber über solide Grundkenntnisse in Wahrscheinlichkeitstheorie und
MehrExistenz des Lebesgue-Borel-Maßes
A Existenz des Lebesgue-Borel-Maßes In diesem (nicht prüfungsrelevanten) Anhang tragen wir u.a. die Existenz des Lebesgue- Borel-Maßes nach. 52 Es empfiehlt sich, diesen Anhang erst nach Kapitel 5 zu lesen
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrKonvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen
Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess
MehrZusammenfassung der Lebesgue-Integrationstheorie
Zusammenfassung der Lebesgue-Integrationstheorie Das Lebesguesche Integral verallgemeinert das Riemannsche Integral. Seine Vorteile liegen für unsere Anwendungen vor allem bei den wichtigen Konvergenzsätzen,
MehrMaß- und Integrationstheorie
Maß- und Integrationstheorie Klaus Ritter Kaiserslautern, SS 2014 Literatur Insbesondere J. Elstrodt, Maß- und Integrationstheorie, Springer, Berlin, 1. Auflage 1996, 7. Auflage 2011. Vorkenntnisse Grundlagen
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
MehrÜbersicht Wahrscheinlichkeitsheorie
Übersicht Wahrscheinlichkeitsheorie Gunther Leobacher und Friedrich Pillichshammer Universität Linz, Institut für Finanzmathematik, Altenbergerstrasse 69, 4040 Linz, Austria E-mail: gunther.leobacher@jku.at,
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
MehrWahrscheinlichkeitstheorie
Wahrscheinlichkeitstheorie Skript 1 zur Vorlesung von Prof. Dr. Michael Kohler Wintersemester 2011/12 1 Dieses Skript basiert auf dem Exzerpt zur Vorlesung Wahrscheinlichkeitstheorie von Prof. Dr. Harro
MehrMusterlösung Analysis 3 - Maßtherorie
Musterlösung Analysis 3 - Maßtherorie 10. März 2011 Aufgabe 1: Zum Aufwärmen (i) Zeige, dass die Mengensysteme {, X} und P(X) σ-algebren sind. Es sind jeweils nur die Charakteristika nachzuweisen. (1)
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN
Prof. Dr. D. Castrigiano Dr. M. Prähofer Zentralübung 38. Einschränkung eines Maßes TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik Mathematik für Physiker 4 (Analysis 3) http://www.ma.tum.de/hm/ma9204
MehrVorlesung 7a. Der Zentrale Grenzwertsatz
Vorlesung 7a Der Zentrale Grenzwertsatz als Erlebnis und Das Schwache Gesetz der Großen Zahlen Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4
MehrFerienkurs zur Einführung in die Wahrscheinlichkeitstheorie
Ferienkurs zur Einführung in die Wahrscheinlichkeitstheorie Wintersemester 2010/2011 Fabian Benesch 28.02.2011 Information Das Kleingedruckte Dieser Ferienkurs ist kein Bestandteil der Vorlesung Einführung
MehrStochastik I - Formelsammlung
Stochastik I - Formelsammlung Ereignis Ergebnisraum: Ω von Julian Merkert, Wintersemester 2005/06, Prof. Bäuerle Ereignisse und Wahrscheinlichkeiten Ereignis: A Ω Elementarereignis: {ω}, ω Ω A B := AB
MehrWAHRSCHEINLICHKEITS- THEORIE II
Skript zur Vorlesung WAHRSCHEINLICHKEITS- THEORIE II Jürgen Gärtner unter Mitwirkung von S. Ribbecke, N. Paetsch und S. Sturm Version Juli 2006 Inhaltsverzeichnis 1. Maßtheoretische Grundlagen 5 1.1.
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
MehrKlausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik
Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen
MehrReelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013
Reelle Analysis Vorlesungsskript Enno Lenzmann, Universität Basel 11. Oktober 2013 3 Fortsetzung von Prämassen zu Massen Der Begriff des Prämasses ist nicht ausreichend, um eine geschmeidige Integrationstheorie
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 29 UNIVERSITÄT KARLSRUHE Blatt 6 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 27: Sei X eine R + -wertige
MehrLösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried
Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,
MehrMusterlösung Klausur,,Einführung in die W theorie
Institut für angewandte Mathematik Wintersemester 3/4 Andreas Eberle, Lisa Hartung / Patrick Müller Musterlösung Klausur,,Einführung in die W theorie. (Zufallsvariablen und ihre Verteilung) a) Was ist
MehrSerie 2 Lösungsvorschläge
D-Math Mass und Integral FS 214 Prof. Dr. D. A. Salamon Serie 2 Lösungsvorschläge 1. Seien folgende Mengen gegeben: und für a, b R R := [, ] := R {, }, (a, ] := (a, ) { }, [, b) := (, b) { }. Wir nennen
MehrWahrscheinlichkeitstheorie Wintersemester 2003/04. Peter Eichelsbacher
Wahrscheinlichkeitstheorie Wintersemester 2003/04 Peter Eichelsbacher In der Wahrscheinlichkeitstheorie werden wir versuchen, Abläufe/Experimente, die vom Zufall gesteuert werden, zu untersuchen. Gibt
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrGrundlagen der Wahrscheinlichkeitstheorie
Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)
MehrTerminologie Stochastischer Prozesse
Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.
MehrWahrscheinlichkeitstheorie und Statistik
Einführung in die Wahrscheinlichkeitstheorie und Statistik Robert Denk Sommersemester 1999 Universität Regensburg Naturwissenschaftliche Fakultät I Mathematik Inhaltsverzeichnis Einleitung...................................
MehrKapitel 12 Erwartungswert und Varianz
Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES MAß-, INTEGRATIONS-
ARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES MAß-, INTEGRATIONS- und WAHRSCHEINLICHKEITSTHEORIE im SS 2014 Übung Maß- und Integrationstheorie (SS 2014) 1 Aufgabe 1 (σ-algebra)
MehrÜbungsblatt 5 zur Vorlesung Wahrscheinlichkeitstheorie
Dr. Christoph Luchsinger Übungsblatt 5 zur Vorlesung Wahrscheinlichkeitstheorie Allgemeine Masse Herausgabe des Übungsblattes: Woche 13, Abgabe der Lösungen: Woche 14 (bis Freitag, 16.15 Uhr), Besprechung:
MehrAnalytische Methoden
KAPITEL 12 Analytische Methoden Es seien unabhängige Zufallsvariablen X 1,..., X n gegeben. Die Verteilungen dieser Zufallsvariablen seien bekannt. Wie bestimmt man dann die Verteilung der Summe X 1 +...
MehrProdukträume, Produktmaße, Unabhängigkeit
Kapitel IV Produkträume, Produktmaße, Unabhängigkeit Reinhard Höpfner Vorlesung Stochastik I Sommersemester 2003, 2006, 2010 Institut für Mathematik, Johannes Gutenberg Universität Mainz 08.07.03, 20.06.06,
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
Mehrist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1
24 14 Metrische Räume 14.1 R n als euklidischer Vektorraum Die Menge R n = {(x 1,..., x n ) x i R} versehen mit der Addition und der skalaren Multiplikation x + y = (x 1 + y 1,..., x n + y n ) λx = (λx
MehrMaximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung Eigenschaften von stochastischen Ordnungen Kleine Generatoren
Universität Hamburg Fachbereich Mathematik Schwerpunkt Mathematische Statistik und Stochastische Prozesse Bundesstr. 55 D-20146 Hamburg Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung
MehrStatistik für Informatiker, SS Verteilungen mit Dichte
1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches
MehrDer Satz von Lusin. Markus Schuster Juni 2012 Universita t Ulm
Der Satz von Lusin Markus Schuster 29-30 Juni 2012 Universita t Ulm Maßtheorie Seminar 2012 Seite 2 Der Satz von Lusin Markus Schuster 29-30 Juni 2012 Inhaltsverzeichnis Motivation Definitionen Der Satz
MehrAnalysis III - Bachelorversion
Analysis III - Bachelorversion Die Mitarbeiter von http://mitschriebwiki.nomeata.de/ 28. September 217 Inhaltsverzeichnis Inhaltsverzeichnis 2 I. Vorwort 5 I.1. Über dieses Skriptum..................................
MehrMaß & Integral de Gruyter Lehrbuch, Berlin 2015 ISBN:
Maß & Integral de Gruyter Lehrbuch, Berlin 205 ISBN: 978 3 03484 9 Lösungshandbuch René L. Schilling & Franziska Kühn Dresden, Januar 205 Diese Version: Februar 206 R.L. Schilling: Maß & Integral Dank.
MehrAktuelle Themen aus der Stochastik Wintersemester 2017/2018 Abschnitt 3: Metrische und polnische Räume
Aktuelle Themen aus der Stochastik Wintersemester 2017/2018 Abschnitt 3: Metrische und polnische Räume Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober/November 2017
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
Mehr