2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III Teil Der Wienerraum

Größe: px
Ab Seite anzeigen:

Download "2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III Teil Der Wienerraum"

Transkript

1 8 Wahrscheinlichkeitstheorie III Teil 3 Brownsche Bewegung Wir haben die Brownsche Bewegung bereits als Grenzwert reskalierter Irrfahrten in der VL WTH II kennengelernt siehe dazu Abschnitt 5.. In diesem Kapitel wollen wir in aller Kürze grundlegende Eigenschaften der Brownschen Bewegung zusammenfassen..1 Der Wienerraum Gegeben sei im folgenden eine stetige Brownsche Bewegung B t t 0 im Sinne der Definition 1.3, wobei die zugehörige Filtration zunächst einmal keine Rolle spielt. Den zugrundeliegenden Wahrscheinlichkeitsraum bezeichnen wir mit Ω,A,P. Der Zustandsraum einer stetigen Brownschen Bewegung ist dann der reelle Vektorraum C[0, aller stetigen Funktionen f : [0, R. Für t [0, bezeichne π t : C[0, R,f ft, die Auswertung der Funktion f in t. Wenn wir f als Vektor in R [0, auffassen, so ist π t f also die Projektion des Vektors f auf die t-te Koordinate. Wir betrachten nun auf C[0, als σ-algebra F die kleinste σ-algebra, bzgl. der alle Projektionen π t messbar sind, d.h. F := σ{π t t 0}. Bzgl. dieser σ-algebra wird die Abbildung Φ : Ω C[0,,ω t B t ω, A/F messbar. Definition.1. Es sei B t t 0 eine stetige Brownsche Bewegung, definiert auf einem Wahrscheinlichkeitsraum Ω,A,P. Dann heißt das Bildmaß W := P Φ 1 von P unter der Transformation Φ auf C[0,, F Wienermaß, C[0,, F, W heißt klasssischer Wienerraum, und C[0,,F,π t t 0,W kanonisches Modell der Brownschen Bewegung. Wir geben im folgenden für die σ-algebra F eine alternative Charakterisierung. Dazu beachte, dass die folgende Abbildung df,g := n=1 1 max ft gt 1, f,g C[0, n t [0,n] eine Metrik auf C[0, definiert. Bezüglich dieser Metrik ist C[0, ein vollständiger separabler metrischer Raum. Wie üblich bezeichne BC[0, die zugehörige Borelsche σ-algebra. Dann gilt das folgende Lemma. Lemma.. F = BC[0,. Beweis. Für alle t 0 ist f ft, C[0, R stetig, also π t Borel-messbar, und damit F BC[0,.

2 9 Umgekehrt zeigen wir zunächst, dass F alle offenen Kugeln B ε f 0 := {f C[0, df,f 0 < ε},f 0 C[0,,ε > 0, bezüglich der Metrik d enthält. Dies folgt jedoch unmittelbar aus { } 1 B ε f 0 = f max ft f 0t 1 ε 1. n t Q [0,n] m m=1 n=1 }{{} F Da C[0, separabler metrischer Raum, kann jede offene Menge U C[0, als abzählbare Vereinigung offener Kugeln geschrieben werden. Es folgt, dass U F. Da das System aller offenen Mengen die Borelsche σ-algebra erzeugt, ergibt sich hieraus die Inklusion BC[0, F.. Existenz des Wienermaßes Ziel dieses Abschnittes ist die Konstruktion des Wienermaßes und damit die Konstruktion einer stetigen Brownschen Bewegung. Wir werden drei alternative Konstruktionen vorstellen, von denen eine bereits in Kapitel 5 der VL WTH II ausführlich dargestellt wurde. 1 Wiener-Lévy Konstruktion Brownschen Bewegung als zufällige Überlagerung deterministischer Pfade Es seien Y n, n 1, unabhängig, zentriert, N,0,1. Weiter sei ϕ n, n 1, eine Orthonormalbasis des reellwertigen Hilbertraumes L [0,, d.h., ϕ n sind quadratintegrierbare Funktionen auf [0, mit ϕ n ϕ m dx = δ nm und jede Funktion h L [0, lässt sich darstellen als Reihe Dann definiert h = h n ϕ n mit h n = n=1 B t ω := Y n ω n=1 eine stetige Brownsche Bewegung siehe [KS91]. t hϕ n dx,n 1. 0 ϕ n dx Invarianzprinzip von Donsker Brownsche Bewegung als Grenzwert reskalierter Irrfahrten siehe WTH II, Kapitel 5 Es seien Y n, n 1, iid, mit EX k = 0 und Var X k = 1, und die zugehörige Irrfahrt. Weiter sei S n := X X n,n 1, S 0 := 0 B n t := 1 n S nt +nt nt X nt +1,t 0

3 30 die lineare Interpolation der mit n in der Zeit und 1 n im Raum reskalierten Irrfahrt. Dann gilt das Invarianzprinzip von Donsker lim P n Bn 1 = W schwach, d.h., die Verteilung der reskalierten Irrfahrt konvergiert schwach gegen die Verteilung einer stetigen Brownschen Bewegung. Wir haben diesen Satz im Spezialfall des Zeitintervalls [0,1] als Theorem 5.1 in der VL WTH II bewiesen. 3 Konstruktion über den Konsistenzsatz bzw. Fortsetzungssatz von Kolmogorov Ausgangspunkt dieser Konstruktion des Wienermaßes sind die endlichdimensionalen Randverteilungen einer Brownschen Bewegung. Dazu erinnern wir zunänchst an das folgende Lemma 5.6 aus Kapitel 5. der VL WTH II. Lemma.3. Es sei m N und 0 = t 0 < t 1 < t <... < t m und B = B t1,...,b tm ein Zufallsvektor. Weiter sei B t0 := 0. Dann sind äquivalent: i B ist normalverteilt mit Erwartungswertvektor 0 und Kovarianzmatrix mint i,t j 1 i,j m. ii Die Inkremente B t1 B t0,b t B t1,...,b tm B tm 1 sind unabhängig normalverteilt mit Erwartungswert 0 und Varianz t i t i 1 für 1 i m. Mit anderen Worten: Ist B t t 0 eine stetige Brownsche Bewegung, so ist für jede endliche Teilmenge J = {t 1,t,...t m } [0, der Vektor B = B t1,...,b tm normalverteilt mit Mittel 0 und Kovarianzmatrix Q J := mint i,t j 1 i,j m. Es sei D 0 die Familie aller endlichen Teilmengen von [0,. Dann gilt: Satz.4. Die Familie {N0,Q J J D 0 } ist konsistent, d.h. für J 1 J und gilt: π J J 1 : R J R J 1,x j j J x j j J1 π J J 1 N0,Q J = N0,Q J1. Beweis. Es reicht, die Behauptung zu zeigen für J = {t 1,...,t m } und J 1 = J \{t i0 } für ein i 0. Es sei B = B t1,...,b tm ein Zufallsvektor mit Verteilung N0,Q J. Nach Lemma.3 sind X j := B tj B tj 1, j = 1,...,m, mit B t0 := 0, unabhängig N0,t j t j 1 -verteilt und es gilt B = X

4 31 Es sei nun ˇB = [B t1,...,b ti0 1,B t i0 +1,...,B t m ] T. Dann gilt X X. i ˇB =. X i0 +X i0 +1 = X i ˇX mit ˇX 1,..., ˇX m unabhängig, X m { N0,t i t i 1 -verteilt für i i 0 N0,t i0 +1 t i0 1-verteilt für i = i Also hat ˇB = B ti ti J 1 = π J J 1 B die Verteilung N0,Q J1. Aus dem Konsistenzsatz von Kolmogorov siehe Kapitel, Theorem. in [KS91] folgt nun: Korollar.5. Es existiert genau ein Wahrscheinlichkeitsmaß W auf R [0,,BR [0, mit i ω0 = 0 W-f.s. ii Für 0 t 0 < t 1 <... < t n sind die Inkremente unabhängig N0,t i t i 1 -verteilt. ωt 1 ωt 0,...,ωt n ωt n 1 Der Prozess B t : R [0, R,ω B t ω = ωt besitzt noch keine stetige Pfade. Der folgende Satz zeigt jedoch, dass man B t t 0 geeignet modifizieren kann. Theorem.6. Kolmogorov-Chentsov Es sei T > 0 und X t t [0,T] stochastischer Prozess auf Ω,A,P mit α,β > 0 mit E sup X t X s α < s,t [0,T] t s 1+β Dann gibt es für alle γ 0, β α eine Modifikation X t t [0,T] von X t t [0,T] und eine strikt positive Zufallsvariable h > 0 mit Beweis. O.B.d.A. sei T = 1. Für ε > 0 gilt P X t X s sup <. s,t [0,T] t s γ 0< t s <hω X t X s ε M ε α t s 1+β

5 3 mit Also P max Xk+1 0 k<n X n k n γn n 1 k=0 P E X t X s α M = sup s,t [0,T] t s 1+β. Xk+1 X n k n n 1 γn M αγn 1 n 1+β = M αγ βn. Da αγ < β, ist n=0 αγ βn <, also nach Borel-Cantelli { } P ω max Xk+1 0 k<n ω X n k nω γn für -viele n = 0. }{{} =:N Für alle ω Ω\N gibt es ein nω N mit k=0 max Xk+1 0 k<n ω X n k nω < γn n nω. Es sei D = { k n k = 0,..., n,n 0} und hω = nω. Für s,t D mit t s < hω zeigt man nun X t ω X s ω C t s γ für eine Konstante C siehe Kapitel, Theorem.8 in [KS91]. Damit ist t X t ω gleichmäßig stetig auf D und besitzt somit eine stetige Fortsetzung t X t ω auf [0,1]. Für ω N setzen wir X t ω = 0 t. Damit folgt X t = X t P-f.s. auf D und somit PX t = X t = 1 t, denn zu t [0,1] gibt es eine Folge s n D mit s n t und wegen X sn ω = X sn Ω für alle ω Ω\N, X sn ω X t ω für alle ω und X sn X t P-stochastisch. Korollar.7. Es existiert eine Modifikation B t t 0 von B t t 0, so dass B t t 0 eine stetige Brownsche Bewegung ist. Beweis. Für s < t ist B t B s N0,t s-verteilt, also E B t B s α 1 = x α exp x dx πt s R t s = t s α 1 x α exp x dx. π Damit sind die Annahmen für Theorem.6 erfüllt für alle α > und β = α 1. Also existiert für alle n N eine stetige Modifikation Bt n t [0,n] von B t t [0,n]. Offenbar gilt Bt n = Bt m P-f.s. auf [0,n] für n m, und damit gibt es eine Nullmenge N mit ist stetig für ω Ω\N. B t ω := Bt n+1 ω, t [n,n+1[ Bemerkung.8. Wir haben insbesondere gezeigt, dass die Pfade der Bronwschen Bewegung lokal Hölderstetig sind mit Hölderexponent γ < 1 optimal bis auf logarithmische Terme. R

6 33.3 Martingale der Brownschen Bewegung und Anwendungen des Stoppsatzes Im ganzen Abschnitt sei F = F t t 0 eine rechtsstetige Filtration und B t t 0 eine F-Brownsche Bewegung auf einem zugrundeliegenden Wahrscheinlichkeitsraum Ω,F,P. Zum Beispiel können wir eine stetige Brownsche Bewegung mit F t = s>t F0 s, t 0, betrachten, wobei F 0 t = σ{b s s [0,t]} die von B erzeugte Filtration ist. Für a < 0 < b sei T a,b = inf{t B t ω / [a,b]} die erste Austrittszeit aus dem Intervall [a,b]. Dann ist T a,b eine F-Stoppzeit, denn T a,b ist gleich der ersten Eintrittszeit T G in die offene Menge G = R\[a,b], diese ist nach Satz 1.0 eine schwache Stoppzeit, und nach Bemerkung 1.13 sind für rechtsstetige Filtrationen schwache Stoppzeiten auch Stoppzeiten. Analog zum Fall symmetrischer Irrfahrten gilt nun: Satz.9. PB Ta,b = a = b b+ a und ET a,b = a b. Beweis. Setze T := T a,b. Da B t t 0 F-Martingal ist siehe Lemma 1.33 folgt aus dem Stoppsatz 0 = EB T n n EB T = apb T = a+bpb T = b. Hierbei haben wir benutzt, dass T < P-f.s. Beweis später. Die Anwendung des Lebesgueschen Konvergenzsatzes ist gerechtfertigt, da B T n a b. Hieraus ergibt sich dann schließlich PB T = a = b. b+ a Ganz analog beweist man die zweite Gleichheit durch Anwendung des Stoppsatzes auf das Martingal Bt t t 0. Diesmal folgt aus dem Stoppsatz für alle n N 0 = EBT n T n und im Grenzübergang n lim n E B T n = E B T = a P B T = a+b P B T = b. Mithilfe der monotonen Integration gilt andererseits lim n ET n = ET und damit ET = a b PB T = a+b = a b. Korollar.10. Es sei Dann gilt: T b < P-f.s., aber ET b =. Beweis. Für a < 0 gilt Für a folgt Andererseits gilt wegen T b T a,b T b := inf{t 0 B t > b} Passierzeit zu b. PT b < PT b = T a,b = PB Ta,b = b = a b+ a. a b+ a 1, also PT b < = 1. ET b ET a,b = a b a.

7 34 Satz.11. Es sei µ b die Verteilung von T b. Dann gilt für die Laplacetransformierte Ee λt b = e b λ, λ 0. Hieraus folgt insbesondere µ b dt = { b πt 3 e b t ;t > 0 0 ;t 0 Beweis. Diesmal betrachten wir für α R das exponentielle Martingal G α t = expαb t 1 α t. Anwendung des Stoppsatzes ergibt 1 Stoppsatz = lim EG α T n b n Lebesgue = EG α T b = e αb Ee 1 α T b wobei die Anwendung des Lebesgueschen Konvergenzsatzes gerechtfertigt ist wegen G α T b n eαb für alle n. Setzt man schließlich α = λ, so erhält man die erste Behauptung. Der Zusatz ist eine Übung..4 Pfadeigenschaften der Brownschen Bewegung Im ganzen Abschnitt sei B t t 0 stetige F-Brownsche Bewegung auf Ω,F,P Satz.1. Die folgenden Prozesse sind wieder stetige Brownsche Bewegungen: i B t := B t, t > 0. Symmetrie ii B t := cb t, t 0, wobei c R\{0} Reskalierung in Raum und Zeit c { iii B tb1 ;t > 0 Zeitumkehr t := t 0 ;t = 0 Beweis. i Offensichtlich. ii B t ist wieder stetig. Für 0 = t 0 < t 1 <... < t n sind die Inkremente B t i c Bt i 1 c i = 1,...,n unabhängig, N0, t i c t i 1 c -verteilt, und damit cb t i c cbt i 1 c i = 1,...,n unabhängig, N0,t i t i 1 -verteilt. iii Für 0 < t 1 <... < t n ist der Vektor B = [B 1 1 tn,...,b 1 t 1 ] T normalverteilt mit Mittel 0 und Kovarianzmatrix Cov B = t i 1 t j 1 i,j n. Daher ist der Vektor B = [t n B 1,...,t 1 B 1 ] T normalverteilt mit Mittel 0 und Kovarianzmatrix tn t 1 Cov B = t i t j 1 1 = t i t j t i t 1 i,j n. j 1 i,j n

8 35 Damit stimmt die Kovarianzmatriz der endlichdimensionalen Verteilungen von B mit der Kovarianzmatrix der endlichdimensionalen Verteilungen einer Brownschen Bewegung überein. Es bleibt nur noch die Stetigkeit zu zeigen. Die Stetigkeit in t > 0 ist klar, in t = 0 folgt sie aus dem folgenden Gesetz der großen Zahlen. Satz.13. starkes Gesetz der großen Zahlen Es sei B t t 0 stetige Brownsche Bewegung. Dann gilt B t lim = 0 P-f.s. t t also Wachstum eines typischen Brownschen Pfades für t schwächer als linear. Beweis. B t t 0 ist ein stetiges Submartingal. Eine Anwendung der Maximalungleichung ergibt für ε > 0 B t P sup ε P sup B t ε n t [ n, n+1 ] t t [ n, n+1 ] 1 ε ne B n+1 1 ε n EB n+11 }{{} Folglich ist die Reihe P n=0 summierbar für alle ε > 0 und damit = sup t [ n, n+1 ] ε n. B t t ε < B t lim = 0 P-f.s. nach Borel-Cantelli. t t = n+1 Nicht-Differenzierbarkeit der Brownschen Pfade Wir haben bereits in Kapitel 1 gesehen, dass eine stetige Brownsche Bewegung B = B t t 0 die stetige quadratische Variation B t = t besitzt. Insbesondere gilt nach Theorem 1.61 lim n t i τn t i t B ti+1 B ti = t lokal gleichmäßig in Wahrscheinlichkeit und damit auch P-f.s. entlang einer weiteren Teilfolge. Insbesondere ist also ein typischer Brownscher Pfad von unbeschränkter Variation, da die quadratische Variation von stetiger Funktionen mit beschränkter Variation verschwindet. Dies deutet darauf hin, dass ein typischer Brownscher Pfad nirgends differenzierbar ist. Dies ist in der Tat der Fall, wie folgender Satz zeigt: Satz.14. Paley-Wiener, Zygmund Ein typischer Pfad der Brownschen Bewegung ist nirgends differenzierbar.

9 36 Beweis. Idee: Ist B t differenzierbar in t ]0,1[, so bleibt der Differentialquotient in einer Umgebung Ut von t beschränkt, etwa durch eine Konstante C. Wähle nun n so groß, dass [ i, ] i+3 n n Ut. Dann gilt für k = i+1,i+,i+3 Also Xk n Xk 1 Xk n n C k n X t + X t Xk 1 n t + k 1 n t 7C n N := {ω Ω: X t ω irgendwo differenzierbar} Ñ := n 3 i+3 { Xk Xk 1 l n n n }. l=1 m=1 n m i=0 k=i+1 }{{} =:A n,l Aufgrund der Unabhängigkeit der Inkremente gilt PA n,l n P Y l n mit Y = n Xk Xk 1 N0, 1-verteilt. Insbesondere also n n 3 7C l PA n,l n = 7C 3 l3 n n daher haben wir oben 3 gewählt. Es folgt Ñ P A n,l = 0 P = 0. n m 3 Ohne Beweis geben wir schließlich noch zwei Sätze an: Satz.15. Satz vom iterierten Logarithmus lim sup t 0 B t tloglog 1 t = +1,liminf t 0 B t tloglog 1 t = 1 P-f.s. Bemerkung.16. Durch Zeitumkehr folgt hinaus lim sup t B t tloglogt = +1,liminf t B t tloglogt = 1 P-f.s. Satz.17. Levy Es sei Dann gilt W h ω := sup B t+h ω B t ω t [0,1 h] h h }{{} Stetigkeitsmodul lim sup h 0 W h hlog = 1 P-f.s. 1 h

10 37.5 Die Brownsche Bewegung als Markovprozess Wir wollen in diesem Abschnitt die Brownsche Bewegung als Markovprozess kennenlernen. Die allgemeine Theorie zeitstetiger Markovprozesse werden wir in Kapitel 6 dieser VL noch genau studieren. An dieser Stelle wollen wir den Begriff nur soweit entwickeln, wie er zum weiteren Verständnis der Brownschen Bewegung hilfreich ist. Zur Erinnerung: Im Rahmen zeitdiskreter stochastischer Prozesse X t haben wir die Markoveigenschaft kennengelernt als folgende Eigenschaft P X t+s A F 0 s = P Xt+s A X s wobei F 0 t = σ{x s s [0,t]} die von X t erzeugte Filtration ist. Eine für unsere Zwecke geeignetere Formulierung wird in der folgenden Definition gegeben. Im folgenden sei X t t 0 R d -wertiger stochastischer Prozess, F t -adapiert. Definition.18. Eine Familie von R d -wertigen stochastischen Prozessen X t t 0,P x x R d auf Ω,F heißt Markovprozess, falls gilt: i x P x Γ ist BR d -messbar Γ F ii P x X 0 = x = 1 x R d iii Filtration F t, so dass X t t 0 adaptiert an F t und P x X t+s A F s = P Xs X t A P x -f.s. 0 s,t,a BR d,x R d.1 Wir bezeichnen.1 als Markoveigenschaft bzgl. der Filtration F t. Definition.19. Es sei d 1 und F = F t t 0 eine Filtration. Ein R d -wertiger stochastischer Prozess heißt d-dimensionale F-Brownsche Bewegung mit Start in x falls gilt: i B 0 = x P-f.s. ii Für 0 s < t ist das Inkrement B t B s unabhängig von F s und N0,t s I-verteilt. iii B besitzt stetige Pfade. Bemerkung.0. Ist B t eine d-dimensionale F-Brownsche Bewegung mit Start in x. Dann sind die Komponenten B 1 t,...,b d t unabhängige F-Brownsche Bewegung mit Start in x 1,...,x d. Konstruktion: B 1 t,...,b d t unabhängige F-Brownsche Bewegungen mit Start in 0. Dann ist x+b 1 t,...,b d t, eine d-dimensionale F-Brownsche Bewegung mit Start in x Definition.1. Es sei d 1 und F = F t t 0 eine Filtration. Eine d-dimensionale F-Brownsche Familie ist eine Familie B t t 0,P x x R d auf Ω,F mit folgenden Eigenschaften: i x P x Γ ist BR d -messbar Γ F ii Für x ist B t t 0 auf Ω,F,P x d-dimensionale F-Brownsche Bewegung mit Start in x.

11 38 Konstruktion im kanonischen Modell C[0,, F, W klassischer Wienerraum P x := W d T 1 x, wobei Translation um x, schließlich Ω = C[0, ;R d = C[0, d F d = BC[0, ;R d! = BC[0, d W d = d i=1w T x : C[0, ;R d C[0, ;R d f t x+ft Produktraum F = F t t 0, F t = s>tf 0 s, F 0 t := σ{π s s [0,t]} mit π t kanonische Projektion Dann ist π t t 0,P x x R d d-dimensionale F-Brownsche Familie. Satz.. Es sei M = B t t 0,P x x R d d-dimensionale F-Brownsche Familie auf Ω,F. Dann ist M ein Markovprozess. Beweis. Die ersten beiden Eigenschaften i und ii aus Definition.18 sind klar. Es bleibt, die Markoveigenschaft.1 bzgl. der Filtration F zu zeigen. Diese folgt direkt aus der Tatsache, dass für s 0 der stochastische Prozess B s t := B t+s B s,t 0, wieder eine d-dimensionale Brownsche Bewegung mit Start in 0 bezüglich der Filtration := F t+s, t 0, und unabhängig von F s. Damit ist F s t B t+s = B s +B s t,t 0, d-dimensionale Brownsche Bewegung mit Start in B s. Es folgt P x B t+s A F s = P x B s +B s t A F s = P Bs B s t A = P Bs B t A. Gilt die Markoveigenschaft auch für Stoppzeiten, so spricht man von der starken Markov-Eigenschaft. Definition.3. Es sei M = X t t 0,P x x R d auf Ω,F Markovprozess bzgl. rechtsstetiger Filtration F t t 0. Dann sagen wir, dass M die starke Markov Eigenschaft erfüllt, falls für jede endliche F t -Stopzeit S gilt: P x X t+s A F S = P XS X t A P x -f.s.. Satz.4. Es sei M = B t t 0,P x x R d d-dimensionale F-Brownsche Familie auf Ω,F. Dann erfüllt M die starke Markov Eigenschaft.

12 39 Der Beweis des Satzes ist mit Hilfe des folgenden Lemmas ganz analog zum Beweis der einfachen Markoveigenschaft einer F-Brownschen Familie in Satz.. Lemma.5. Es sei S eine endliche F t t 0 -Stoppzeit. Dann gilt B S+t B S ist unabhängig von F S für alle t > 0. Beweis. Approximiere S durch S n := k=1 k n1 { k 1 n S< k n } S Dann ist F S F Sn und für Γ F S, f C b R, folgt EfB S+t B S 1 Γ = lim EfB k n n +t B k = lim n k=1 k=1 = EfB t E1 Γ n1 { k 1 }{{} F k n n S< k n } Γ EfB k n +t B k ne1 { k 1 n S< k n } Γ Satz Gesetz von Blumenthal Es sei X t t 0,P x x R d starker Markovprozess bzgl. rechtsstetiger Filtrierung F t t 0. Es sei F 0 t = σ{x s s [0,t]}. Dann ist P 0 1 auf F 0+ := t>0 F0 t F 0!. Beweis. Für alle endlichen Stoppzeiten S gilt Durch Iteration folgt hieraus für P x X S+t A F S = P XS X t A P x -f.s. 0 t 1 < t <... < t n und A 1,...,A n BR d P x X S+t1 A 1,...,X S+tn A F S = P XS X t1 A 1,...,X tn A n P x -f.s. Anwendung auf die det. Stoppzeit S = 0 ergibt insbesondere, dass P x X t1 A 1,...,X tn A n F 0+ eine F 0 0-messbare Version besitzt. Wir betrachten nun das Mengensystem A := {Γ t 0F 0 t E x Γ F 0+ hat F 0 0-messbare Version} A ist eine σ-algebra, die alle Zylindermengen Γ der Form Γ = {X t1 A 1,...,X tn } enthält. Folglich ist A = t 0 F0 t. Es sei nun Γ F 0+. Dann folgt E x 1 Γ F 0+ = FX 0 für eine BR d -messbare Funktion F. Da P x X 0 = x = 1 folgt und damit also Fx = 0 1. P x Γ = E x E x 1 Γ F 0+ = E x FX 0 = Fx Fx = P x Γ = E x 1 Γ = E x 1 Γ E x 1 Γ F 0+ = E x 1 Γ FX 0 = E x 1 Γ Fx = Fx,

13 40 Beispiel.7. Es sei B t d-dimensionale Brownsche Bewegung. Betrachte für D R d die erste Trefferzeit von D c S D c = inf{t > 0 B t D c }. Dann gilt {S D c = 0} F 0 0+, also P x S D c = 0 = 0 1. Ein Randpunkt x D heißt regulär, falls P x S D c = 0 = 1, andernfalls irregulär.

2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III. 2.1 Der Wienerraum. Teil 2 - korrigierte Fassung

2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III. 2.1 Der Wienerraum. Teil 2 - korrigierte Fassung 27 Wahrscheinlichkeitstheorie III Teil 2 - korrigierte Fassung 2 Brownsche Bewegung Wir haben die Brownsche Bewegung bereits als Grenzwert reskalierter Irrfahrten in der VL WTH II kennengelernt (siehe

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2). Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Simulation stochastischer Prozesse Peter Frentrup Humboldt-Universität zu Berlin 27. November 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 27. November 2017

Mehr

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109 A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 19 A. Stochastische Prozesse und Stoppzeiten In dieser Vorlesung arbeiten wir immer auf einem Massraum (Ω, F), der gross genug ist, um alle definierten Objekte

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Vorlesungsskript: Martingale

Vorlesungsskript: Martingale Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................

Mehr

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm Brownsche Bewegung Satz von Donsker Bernd Barth Universität Ulm 31.05.2010 Page 2 Brownsche Bewegung 31.05.2010 Inhalt Einführung Straffheit Konvergenz Konstruktion einer zufälligen Funktion Brownsche

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr

Analysis III, WS 2011/2012 Montag $Id: masse.tex,v /10/31 15:48:07 hk Exp $

Analysis III, WS 2011/2012 Montag $Id: masse.tex,v /10/31 15:48:07 hk Exp $ $Id: masse.tex,v 1.8 2011/10/31 15:48:07 hk Exp $ 2 Maßräume 2.2 Meßbare Abbildungen Der nächste Grundbegriff sind die meßbaren Abbildungen. Erinnern Sie sich daran das wir eigentlich einen Integralbegriff

Mehr

Martingale und Brownsche Bewegung

Martingale und Brownsche Bewegung Martingale und Brownsche Bewegung Martin G. Riedler Institute for Stochastics, Johannes Kepler University 44 Linz, Austria martin.riedler@jku.at 2 Die vorliegenden Unterlagen sind ein Skriptum zur Vorlesung

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Terminologie Stochastischer Prozesse

Terminologie Stochastischer Prozesse Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 9 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 40: Es sei (X t ) t 0 ein

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

1. Übungsblatt zu Stochastische Prozesse

1. Übungsblatt zu Stochastische Prozesse 1. Übungsblatt zu Stochastische Prozesse Aufgabe 1: Es sei (X n ) n N0 ein stochastischer Prozess mit abzählbarem Zustandsraum E. Man zeige: (X n ) n N0 ist genau dann eine Markov-Kette, wenn für alle

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

1 Stochastische Prozesse in stetiger Zeit

1 Stochastische Prozesse in stetiger Zeit 1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.

Mehr

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 : 24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar

Mehr

ist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1

ist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1 24 14 Metrische Räume 14.1 R n als euklidischer Vektorraum Die Menge R n = {(x 1,..., x n ) x i R} versehen mit der Addition und der skalaren Multiplikation x + y = (x 1 + y 1,..., x n + y n ) λx = (λx

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis SS1 von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 6. Mai 21 Inhaltsverzeichnis 1 Motivation / Einführung 4 1.1 Motivation anhand

Mehr

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016 Übungen zu bedingten Erwartungswerten Tutorium Stochastische Prozesse 13. Dezember 2016 Bedingter Erwartungswert Definition Sei X eine reellwertige Zufallsvariable auf (Ω, A, P), so dass E[ X ]

Mehr

Einiges über die Brown sche Bewegung

Einiges über die Brown sche Bewegung Einiges über die Brown sche Bewegung Gunther Leobacher und Friedrich Pillichshammer Inhaltsverzeichnis Definition und Existenz einer Brown schen Bewegung Einige elementare Eigenschaften der Brown schen

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Kapitel 1. Holomorphe Funktionen

Kapitel 1. Holomorphe Funktionen Kapitel 1 Holomorphe Funktionen Zur Erinnerung: I IR sei ein offenes Intervall, und sei z 0 I. Eine Funktion f : I IR heißt differenzierbar in z 0, falls der Limes fz fz 0 lim =: f z 0 z z 0 z z 0 existiert.

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

Meßbare Funktionen. Die angemessenen Abbildungen zwischen Meßräumen sind die meßbaren Funktionen.

Meßbare Funktionen. Die angemessenen Abbildungen zwischen Meßräumen sind die meßbaren Funktionen. Meßbare Funktionen Die angemessenen Abbildungen zwischen Meßräumen sind die meßbaren Funktionen. Definition. Seien (X, Ω 1 ) und (Y, Ω 2 ) Meßräume. Eine Abbildung f : X Y heißt Ω 1 -Ω 2 -meßbar oder kurz

Mehr

Zufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011

Zufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011 Zufällige stabile Prozesse und stabile stochastische Integrale Stochastikseminar, Dezember 2011 2 Stabile Prozesse Dezember 2011 Stabile stochastische Prozesse - Definition Stabile Integrale α-stabile

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung Eigenschaften von stochastischen Ordnungen Kleine Generatoren

Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung Eigenschaften von stochastischen Ordnungen Kleine Generatoren Universität Hamburg Fachbereich Mathematik Schwerpunkt Mathematische Statistik und Stochastische Prozesse Bundesstr. 55 D-20146 Hamburg Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung

Mehr

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,

Mehr

ε δ Definition der Stetigkeit.

ε δ Definition der Stetigkeit. ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x

Mehr

7 Der Satz von Girsanov

7 Der Satz von Girsanov 7 Der Satz von Girsanov Der Satz von Girsanov wird uns eine neue Perspektive auf die Rolle des Drifts liefern. Die Prozesse Brownsche Bewegung B t, Brownsche Bewegung mit Drift X t = B t + µt haben wir

Mehr

Zusammenfassung Analysis 2

Zusammenfassung Analysis 2 Zusammenfassung Analysis 2 1.2 Metrische Räume Die Grundlage metrischer Räume bildet der Begriff des Abstandes (Metrik). Definition 1.1 Ein metrischer Raum ist ein Paar (X, d), bestehend aus einer Menge

Mehr

Analysis I. Guofang Wang Universität Freiburg

Analysis I. Guofang Wang Universität Freiburg Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum

Mehr

FUNKTIONALANALYSIS. Carsten Schütt WS 2006/7

FUNKTIONALANALYSIS. Carsten Schütt WS 2006/7 1. Eine Teilmenge K eines topologischen Raumes heißt folgenkompakt, wenn jede Folge in K eine Teilfolge enthält, die in K konvergiert. Die Menge K heißt abzählbar kompakt, wenn jede unendliche Teilmenge

Mehr

Charakteristische Funktionen

Charakteristische Funktionen Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die

Mehr

Zufallsvariable, Verteilung, Verteilungsfunktion

Zufallsvariable, Verteilung, Verteilungsfunktion Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.

Mehr

Lösungen der Übungsaufgaben von Kapitel 3

Lösungen der Übungsaufgaben von Kapitel 3 Analysis I Ein Lernbuch für den sanften Wechsel von der Schule zur Uni 1 Lösungen der Übungsaufgaben von Kapitel 3 zu 3.1 3.1.1 Bestimmen Sie den Abschluss, den offenen Kern und den Rand folgender Teilmengen

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

Asymptotische Stochastik (SS 2010)

Asymptotische Stochastik (SS 2010) Institut für Stochastik PD. Dr. Dieter Kadelka Daniel Gentner Asymptotische Stochastik (SS 2010) Lösungen zu Übungsblatt 4 Aufgabe 1 (lokaler Grenzwertsatz von de Moivre und Laplace und eine Verallgemeinerung)

Mehr

30 Die Gammafunktion und die Stirlingsche Formel

30 Die Gammafunktion und die Stirlingsche Formel 3 Die Gammafunktion und die Stirlingsche Formel 35 Charakterisierung der Gammafunktion 36 Darstellung der Gammafunktion 38 Beziehung zwischen der Gammafunktion und der Zetafunktion 3 Stirlingsche Formel

Mehr

Stochastische Analysis

Stochastische Analysis Stochastische Analysis Vorlesung SS 22 Jürgen Dippon Mathematisches Institut A Universität Stuttgart Homepage der Vorlesung: www.mathematik.uni-stuttgart.de/matha/lst3/dippon/sa Version vom 17. Juni 23

Mehr

Definition 3.1. Sei A X. Unter einer offenen Überdeckung von A versteht man eine Familie (U i ) i I offener Mengen U i X mit U i

Definition 3.1. Sei A X. Unter einer offenen Überdeckung von A versteht man eine Familie (U i ) i I offener Mengen U i X mit U i 3 Kompaktheit In der Analysis I zeigt man, dass stetige Funktionen f : [a, b] R auf abgeschlossenen, beschränkten Intervallen [a, b] gleichmäßig stetig und beschränkt sind und dass sie ihr Supremum und

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

Aufgaben zu Kapitel 0

Aufgaben zu Kapitel 0 Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.

Mehr

Zeitstetige Markov-Prozesse: Einführung und Beispiele

Zeitstetige Markov-Prozesse: Einführung und Beispiele Zeitstetige Markov-Prozesse: Einführung und Beispiele Simone Wielart 08.12.10 Inhalt Q-Matrizen und ihre Exponentiale Inhalt Q-Matrizen und ihre Exponentiale Zeitstetige stochastische Prozesse Inhalt Q-Matrizen

Mehr

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler

Lehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik II Wahrscheinlichkeitstheorie I Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 26. November 2002

Mehr

4 Fehlerabschätzungen und Konvergenz der FEM

4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

5 Stetigkeit und Differenzierbarkeit

5 Stetigkeit und Differenzierbarkeit 5 Stetigkeit und Differenzierbarkeit 5.1 Stetigkeit und Grenzwerte von Funktionen f(x 0 ) x 0 Graph einer stetigen Funktion. Analysis I TUHH, Winter 2006/2007 Armin Iske 127 Häufungspunkt und Abschluss.

Mehr

2 Stationarität. Strikte Stationarität

2 Stationarität. Strikte Stationarität 2 Stationarität. Strikte Stationarität Die in 1 benutzten Begriffe sind noch zu präzisieren : Definition 2.1. a) Ein stochastischer Prozess {X t } t T heißt strikt stationär, falls für je endlich viele

Mehr

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion

Mehr

Schwartz-Raum (Teil 1)

Schwartz-Raum (Teil 1) Schwartz-Raum (Teil 1) Federico Remonda, Robin Krom 10. Januar 2008 Zusammenfassung Der Schwartz-Raum ist ein Funktionenraum, der besondere Regularitätseigenschaften besitzt, die uns bei der Fouriertransformation

Mehr

Extremalpunkte und der Satz von Krein-Milman. 1 Lokalkonvexe topologische Vektorräume

Extremalpunkte und der Satz von Krein-Milman. 1 Lokalkonvexe topologische Vektorräume Extremalpunkte und der Satz von Krein-Milman Seminar zu ausgewählten Kapiteln der Banachraumtheorie Vortrag von Michael Hoffmann 1 Lokalkonvexe topologische Vektorräume Im folgenden betrachten wir stets

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013 Reelle Analysis Vorlesungsskript Enno Lenzmann, Universität Basel 11. Oktober 2013 3 Fortsetzung von Prämassen zu Massen Der Begriff des Prämasses ist nicht ausreichend, um eine geschmeidige Integrationstheorie

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Implizite Funktionen, der Umkehrsatz und Extrema unter Nebenbedingungen

Implizite Funktionen, der Umkehrsatz und Extrema unter Nebenbedingungen Kapitel XII Implizite Funktionen, der Umkehrsatz und Extrema unter Nebenbedingungen 53 Implizite Funktionen und allgemeine partielle Differenzierbarkeit 54 Der Umkehrsatz 55 Lokale Extrema unter Nebenbedingungen,

Mehr

Stochastische Prozesse Gliederung zur Vorlesung im Sommersemester 2006

Stochastische Prozesse Gliederung zur Vorlesung im Sommersemester 2006 Stochastische Prozesse Gliederung zur Vorlesung im Sommersemester 26 Markus Reiß Universität Heidelberg reiss@statlab.uni-heidelberg.de VORLÄUFIGE FASSUNG: 28. Juli 26 Inhaltsverzeichnis 1 Der Poissonprozess

Mehr

5 Die Picardschen Sätze

5 Die Picardschen Sätze 03 5 Die Picardschen Sätze Für eine zweimal stetig differenzierbare reell- oder komplexwertige Funktion f auf einem Gebiet G C ist der Laplace-Operator definiert durch Behauptung: = 4 Beweis: Daraus folgt:

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

Metrische äußere Maße, Borel-Maße

Metrische äußere Maße, Borel-Maße Metrische äußere Maße, Borel-Maße Zum einen haben wir mit dem Fortsetzungssatz gesehen, dass man mit einem äußeren Maß (auf P(X) ) stets eine σ-algebra und ein Maß auf dieser bekommt. Liegt nun ein metrischer

Mehr

Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik

Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik Univ. Leipzig Mathematisches Institut Vertretung Professur Stochastische Prozesse Max v. Renesse email: mrenesse@math.tu-berlin.de Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik

Mehr

Das Lebesgue-Maß im R p

Das Lebesgue-Maß im R p Das Lebesgue-Maß im R p Wir werden nun im R p ein metrisches äußeres Maß definieren, welches schließlich zum Lebesgue-Maß führen wird. Als erstes definieren wir das Volumen von Intervallen des R p. Seien

Mehr

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral

Mehr

1 Konvergenz im p ten Mittel

1 Konvergenz im p ten Mittel Konvergenz im p ten Mittel 1 1 Konvergenz im p ten Mittel In diesem Paragraphen werden zunächst in Abschnitt 1.1 die L p Räume eingeführt. Diese erweisen sich als vollständige, lineare Räume über R. In

Mehr

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015

Wahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015 Wahrscheinlichkeitstheorie 2 & 3 Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 3. Januar 215 Inhaltsverzeichnis. Bedingte Erwartungswerte 4 1. Martingale, Stoppzeiten und Filtrierungen 9 1.1.

Mehr

d(x, z) = z x = y x + z y y x + z y = d(x, y) + d(y, z). d(x, y) = 0, falls x = y.

d(x, z) = z x = y x + z y y x + z y = d(x, y) + d(y, z). d(x, y) = 0, falls x = y. Metrische Räume K bezeichnet entweder den Körper R oder den Körper C. Genauer bedeutet dies: K wird in denjenigen Situationen verwendet, in denen die Ersetzung von K sowohl durch R als auch durch C einen

Mehr

1 Bedingte Erwartungswerte

1 Bedingte Erwartungswerte Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Musterlösung Klausur,,Einführung in die W theorie

Musterlösung Klausur,,Einführung in die W theorie Institut für angewandte Mathematik Wintersemester 3/4 Andreas Eberle, Lisa Hartung / Patrick Müller Musterlösung Klausur,,Einführung in die W theorie. (Zufallsvariablen und ihre Verteilung) a) Was ist

Mehr

Regulär variierende Funktionen

Regulär variierende Funktionen KAPITEL 4 Regulär variierende Funktionen Unser nächstes Ziel ist es, die Max-Anziehungsbereiche der Extremwertverteilungen zu beschreiben. Dies wird im nächsten Kapitel geschehen. Wir haben bereits gesehen,

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr