2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III Teil Der Wienerraum
|
|
- Dieter Lange
- vor 7 Jahren
- Abrufe
Transkript
1 8 Wahrscheinlichkeitstheorie III Teil 3 Brownsche Bewegung Wir haben die Brownsche Bewegung bereits als Grenzwert reskalierter Irrfahrten in der VL WTH II kennengelernt siehe dazu Abschnitt 5.. In diesem Kapitel wollen wir in aller Kürze grundlegende Eigenschaften der Brownschen Bewegung zusammenfassen..1 Der Wienerraum Gegeben sei im folgenden eine stetige Brownsche Bewegung B t t 0 im Sinne der Definition 1.3, wobei die zugehörige Filtration zunächst einmal keine Rolle spielt. Den zugrundeliegenden Wahrscheinlichkeitsraum bezeichnen wir mit Ω,A,P. Der Zustandsraum einer stetigen Brownschen Bewegung ist dann der reelle Vektorraum C[0, aller stetigen Funktionen f : [0, R. Für t [0, bezeichne π t : C[0, R,f ft, die Auswertung der Funktion f in t. Wenn wir f als Vektor in R [0, auffassen, so ist π t f also die Projektion des Vektors f auf die t-te Koordinate. Wir betrachten nun auf C[0, als σ-algebra F die kleinste σ-algebra, bzgl. der alle Projektionen π t messbar sind, d.h. F := σ{π t t 0}. Bzgl. dieser σ-algebra wird die Abbildung Φ : Ω C[0,,ω t B t ω, A/F messbar. Definition.1. Es sei B t t 0 eine stetige Brownsche Bewegung, definiert auf einem Wahrscheinlichkeitsraum Ω,A,P. Dann heißt das Bildmaß W := P Φ 1 von P unter der Transformation Φ auf C[0,, F Wienermaß, C[0,, F, W heißt klasssischer Wienerraum, und C[0,,F,π t t 0,W kanonisches Modell der Brownschen Bewegung. Wir geben im folgenden für die σ-algebra F eine alternative Charakterisierung. Dazu beachte, dass die folgende Abbildung df,g := n=1 1 max ft gt 1, f,g C[0, n t [0,n] eine Metrik auf C[0, definiert. Bezüglich dieser Metrik ist C[0, ein vollständiger separabler metrischer Raum. Wie üblich bezeichne BC[0, die zugehörige Borelsche σ-algebra. Dann gilt das folgende Lemma. Lemma.. F = BC[0,. Beweis. Für alle t 0 ist f ft, C[0, R stetig, also π t Borel-messbar, und damit F BC[0,.
2 9 Umgekehrt zeigen wir zunächst, dass F alle offenen Kugeln B ε f 0 := {f C[0, df,f 0 < ε},f 0 C[0,,ε > 0, bezüglich der Metrik d enthält. Dies folgt jedoch unmittelbar aus { } 1 B ε f 0 = f max ft f 0t 1 ε 1. n t Q [0,n] m m=1 n=1 }{{} F Da C[0, separabler metrischer Raum, kann jede offene Menge U C[0, als abzählbare Vereinigung offener Kugeln geschrieben werden. Es folgt, dass U F. Da das System aller offenen Mengen die Borelsche σ-algebra erzeugt, ergibt sich hieraus die Inklusion BC[0, F.. Existenz des Wienermaßes Ziel dieses Abschnittes ist die Konstruktion des Wienermaßes und damit die Konstruktion einer stetigen Brownschen Bewegung. Wir werden drei alternative Konstruktionen vorstellen, von denen eine bereits in Kapitel 5 der VL WTH II ausführlich dargestellt wurde. 1 Wiener-Lévy Konstruktion Brownschen Bewegung als zufällige Überlagerung deterministischer Pfade Es seien Y n, n 1, unabhängig, zentriert, N,0,1. Weiter sei ϕ n, n 1, eine Orthonormalbasis des reellwertigen Hilbertraumes L [0,, d.h., ϕ n sind quadratintegrierbare Funktionen auf [0, mit ϕ n ϕ m dx = δ nm und jede Funktion h L [0, lässt sich darstellen als Reihe Dann definiert h = h n ϕ n mit h n = n=1 B t ω := Y n ω n=1 eine stetige Brownsche Bewegung siehe [KS91]. t hϕ n dx,n 1. 0 ϕ n dx Invarianzprinzip von Donsker Brownsche Bewegung als Grenzwert reskalierter Irrfahrten siehe WTH II, Kapitel 5 Es seien Y n, n 1, iid, mit EX k = 0 und Var X k = 1, und die zugehörige Irrfahrt. Weiter sei S n := X X n,n 1, S 0 := 0 B n t := 1 n S nt +nt nt X nt +1,t 0
3 30 die lineare Interpolation der mit n in der Zeit und 1 n im Raum reskalierten Irrfahrt. Dann gilt das Invarianzprinzip von Donsker lim P n Bn 1 = W schwach, d.h., die Verteilung der reskalierten Irrfahrt konvergiert schwach gegen die Verteilung einer stetigen Brownschen Bewegung. Wir haben diesen Satz im Spezialfall des Zeitintervalls [0,1] als Theorem 5.1 in der VL WTH II bewiesen. 3 Konstruktion über den Konsistenzsatz bzw. Fortsetzungssatz von Kolmogorov Ausgangspunkt dieser Konstruktion des Wienermaßes sind die endlichdimensionalen Randverteilungen einer Brownschen Bewegung. Dazu erinnern wir zunänchst an das folgende Lemma 5.6 aus Kapitel 5. der VL WTH II. Lemma.3. Es sei m N und 0 = t 0 < t 1 < t <... < t m und B = B t1,...,b tm ein Zufallsvektor. Weiter sei B t0 := 0. Dann sind äquivalent: i B ist normalverteilt mit Erwartungswertvektor 0 und Kovarianzmatrix mint i,t j 1 i,j m. ii Die Inkremente B t1 B t0,b t B t1,...,b tm B tm 1 sind unabhängig normalverteilt mit Erwartungswert 0 und Varianz t i t i 1 für 1 i m. Mit anderen Worten: Ist B t t 0 eine stetige Brownsche Bewegung, so ist für jede endliche Teilmenge J = {t 1,t,...t m } [0, der Vektor B = B t1,...,b tm normalverteilt mit Mittel 0 und Kovarianzmatrix Q J := mint i,t j 1 i,j m. Es sei D 0 die Familie aller endlichen Teilmengen von [0,. Dann gilt: Satz.4. Die Familie {N0,Q J J D 0 } ist konsistent, d.h. für J 1 J und gilt: π J J 1 : R J R J 1,x j j J x j j J1 π J J 1 N0,Q J = N0,Q J1. Beweis. Es reicht, die Behauptung zu zeigen für J = {t 1,...,t m } und J 1 = J \{t i0 } für ein i 0. Es sei B = B t1,...,b tm ein Zufallsvektor mit Verteilung N0,Q J. Nach Lemma.3 sind X j := B tj B tj 1, j = 1,...,m, mit B t0 := 0, unabhängig N0,t j t j 1 -verteilt und es gilt B = X
4 31 Es sei nun ˇB = [B t1,...,b ti0 1,B t i0 +1,...,B t m ] T. Dann gilt X X. i ˇB =. X i0 +X i0 +1 = X i ˇX mit ˇX 1,..., ˇX m unabhängig, X m { N0,t i t i 1 -verteilt für i i 0 N0,t i0 +1 t i0 1-verteilt für i = i Also hat ˇB = B ti ti J 1 = π J J 1 B die Verteilung N0,Q J1. Aus dem Konsistenzsatz von Kolmogorov siehe Kapitel, Theorem. in [KS91] folgt nun: Korollar.5. Es existiert genau ein Wahrscheinlichkeitsmaß W auf R [0,,BR [0, mit i ω0 = 0 W-f.s. ii Für 0 t 0 < t 1 <... < t n sind die Inkremente unabhängig N0,t i t i 1 -verteilt. ωt 1 ωt 0,...,ωt n ωt n 1 Der Prozess B t : R [0, R,ω B t ω = ωt besitzt noch keine stetige Pfade. Der folgende Satz zeigt jedoch, dass man B t t 0 geeignet modifizieren kann. Theorem.6. Kolmogorov-Chentsov Es sei T > 0 und X t t [0,T] stochastischer Prozess auf Ω,A,P mit α,β > 0 mit E sup X t X s α < s,t [0,T] t s 1+β Dann gibt es für alle γ 0, β α eine Modifikation X t t [0,T] von X t t [0,T] und eine strikt positive Zufallsvariable h > 0 mit Beweis. O.B.d.A. sei T = 1. Für ε > 0 gilt P X t X s sup <. s,t [0,T] t s γ 0< t s <hω X t X s ε M ε α t s 1+β
5 3 mit Also P max Xk+1 0 k<n X n k n γn n 1 k=0 P E X t X s α M = sup s,t [0,T] t s 1+β. Xk+1 X n k n n 1 γn M αγn 1 n 1+β = M αγ βn. Da αγ < β, ist n=0 αγ βn <, also nach Borel-Cantelli { } P ω max Xk+1 0 k<n ω X n k nω γn für -viele n = 0. }{{} =:N Für alle ω Ω\N gibt es ein nω N mit k=0 max Xk+1 0 k<n ω X n k nω < γn n nω. Es sei D = { k n k = 0,..., n,n 0} und hω = nω. Für s,t D mit t s < hω zeigt man nun X t ω X s ω C t s γ für eine Konstante C siehe Kapitel, Theorem.8 in [KS91]. Damit ist t X t ω gleichmäßig stetig auf D und besitzt somit eine stetige Fortsetzung t X t ω auf [0,1]. Für ω N setzen wir X t ω = 0 t. Damit folgt X t = X t P-f.s. auf D und somit PX t = X t = 1 t, denn zu t [0,1] gibt es eine Folge s n D mit s n t und wegen X sn ω = X sn Ω für alle ω Ω\N, X sn ω X t ω für alle ω und X sn X t P-stochastisch. Korollar.7. Es existiert eine Modifikation B t t 0 von B t t 0, so dass B t t 0 eine stetige Brownsche Bewegung ist. Beweis. Für s < t ist B t B s N0,t s-verteilt, also E B t B s α 1 = x α exp x dx πt s R t s = t s α 1 x α exp x dx. π Damit sind die Annahmen für Theorem.6 erfüllt für alle α > und β = α 1. Also existiert für alle n N eine stetige Modifikation Bt n t [0,n] von B t t [0,n]. Offenbar gilt Bt n = Bt m P-f.s. auf [0,n] für n m, und damit gibt es eine Nullmenge N mit ist stetig für ω Ω\N. B t ω := Bt n+1 ω, t [n,n+1[ Bemerkung.8. Wir haben insbesondere gezeigt, dass die Pfade der Bronwschen Bewegung lokal Hölderstetig sind mit Hölderexponent γ < 1 optimal bis auf logarithmische Terme. R
6 33.3 Martingale der Brownschen Bewegung und Anwendungen des Stoppsatzes Im ganzen Abschnitt sei F = F t t 0 eine rechtsstetige Filtration und B t t 0 eine F-Brownsche Bewegung auf einem zugrundeliegenden Wahrscheinlichkeitsraum Ω,F,P. Zum Beispiel können wir eine stetige Brownsche Bewegung mit F t = s>t F0 s, t 0, betrachten, wobei F 0 t = σ{b s s [0,t]} die von B erzeugte Filtration ist. Für a < 0 < b sei T a,b = inf{t B t ω / [a,b]} die erste Austrittszeit aus dem Intervall [a,b]. Dann ist T a,b eine F-Stoppzeit, denn T a,b ist gleich der ersten Eintrittszeit T G in die offene Menge G = R\[a,b], diese ist nach Satz 1.0 eine schwache Stoppzeit, und nach Bemerkung 1.13 sind für rechtsstetige Filtrationen schwache Stoppzeiten auch Stoppzeiten. Analog zum Fall symmetrischer Irrfahrten gilt nun: Satz.9. PB Ta,b = a = b b+ a und ET a,b = a b. Beweis. Setze T := T a,b. Da B t t 0 F-Martingal ist siehe Lemma 1.33 folgt aus dem Stoppsatz 0 = EB T n n EB T = apb T = a+bpb T = b. Hierbei haben wir benutzt, dass T < P-f.s. Beweis später. Die Anwendung des Lebesgueschen Konvergenzsatzes ist gerechtfertigt, da B T n a b. Hieraus ergibt sich dann schließlich PB T = a = b. b+ a Ganz analog beweist man die zweite Gleichheit durch Anwendung des Stoppsatzes auf das Martingal Bt t t 0. Diesmal folgt aus dem Stoppsatz für alle n N 0 = EBT n T n und im Grenzübergang n lim n E B T n = E B T = a P B T = a+b P B T = b. Mithilfe der monotonen Integration gilt andererseits lim n ET n = ET und damit ET = a b PB T = a+b = a b. Korollar.10. Es sei Dann gilt: T b < P-f.s., aber ET b =. Beweis. Für a < 0 gilt Für a folgt Andererseits gilt wegen T b T a,b T b := inf{t 0 B t > b} Passierzeit zu b. PT b < PT b = T a,b = PB Ta,b = b = a b+ a. a b+ a 1, also PT b < = 1. ET b ET a,b = a b a.
7 34 Satz.11. Es sei µ b die Verteilung von T b. Dann gilt für die Laplacetransformierte Ee λt b = e b λ, λ 0. Hieraus folgt insbesondere µ b dt = { b πt 3 e b t ;t > 0 0 ;t 0 Beweis. Diesmal betrachten wir für α R das exponentielle Martingal G α t = expαb t 1 α t. Anwendung des Stoppsatzes ergibt 1 Stoppsatz = lim EG α T n b n Lebesgue = EG α T b = e αb Ee 1 α T b wobei die Anwendung des Lebesgueschen Konvergenzsatzes gerechtfertigt ist wegen G α T b n eαb für alle n. Setzt man schließlich α = λ, so erhält man die erste Behauptung. Der Zusatz ist eine Übung..4 Pfadeigenschaften der Brownschen Bewegung Im ganzen Abschnitt sei B t t 0 stetige F-Brownsche Bewegung auf Ω,F,P Satz.1. Die folgenden Prozesse sind wieder stetige Brownsche Bewegungen: i B t := B t, t > 0. Symmetrie ii B t := cb t, t 0, wobei c R\{0} Reskalierung in Raum und Zeit c { iii B tb1 ;t > 0 Zeitumkehr t := t 0 ;t = 0 Beweis. i Offensichtlich. ii B t ist wieder stetig. Für 0 = t 0 < t 1 <... < t n sind die Inkremente B t i c Bt i 1 c i = 1,...,n unabhängig, N0, t i c t i 1 c -verteilt, und damit cb t i c cbt i 1 c i = 1,...,n unabhängig, N0,t i t i 1 -verteilt. iii Für 0 < t 1 <... < t n ist der Vektor B = [B 1 1 tn,...,b 1 t 1 ] T normalverteilt mit Mittel 0 und Kovarianzmatrix Cov B = t i 1 t j 1 i,j n. Daher ist der Vektor B = [t n B 1,...,t 1 B 1 ] T normalverteilt mit Mittel 0 und Kovarianzmatrix tn t 1 Cov B = t i t j 1 1 = t i t j t i t 1 i,j n. j 1 i,j n
8 35 Damit stimmt die Kovarianzmatriz der endlichdimensionalen Verteilungen von B mit der Kovarianzmatrix der endlichdimensionalen Verteilungen einer Brownschen Bewegung überein. Es bleibt nur noch die Stetigkeit zu zeigen. Die Stetigkeit in t > 0 ist klar, in t = 0 folgt sie aus dem folgenden Gesetz der großen Zahlen. Satz.13. starkes Gesetz der großen Zahlen Es sei B t t 0 stetige Brownsche Bewegung. Dann gilt B t lim = 0 P-f.s. t t also Wachstum eines typischen Brownschen Pfades für t schwächer als linear. Beweis. B t t 0 ist ein stetiges Submartingal. Eine Anwendung der Maximalungleichung ergibt für ε > 0 B t P sup ε P sup B t ε n t [ n, n+1 ] t t [ n, n+1 ] 1 ε ne B n+1 1 ε n EB n+11 }{{} Folglich ist die Reihe P n=0 summierbar für alle ε > 0 und damit = sup t [ n, n+1 ] ε n. B t t ε < B t lim = 0 P-f.s. nach Borel-Cantelli. t t = n+1 Nicht-Differenzierbarkeit der Brownschen Pfade Wir haben bereits in Kapitel 1 gesehen, dass eine stetige Brownsche Bewegung B = B t t 0 die stetige quadratische Variation B t = t besitzt. Insbesondere gilt nach Theorem 1.61 lim n t i τn t i t B ti+1 B ti = t lokal gleichmäßig in Wahrscheinlichkeit und damit auch P-f.s. entlang einer weiteren Teilfolge. Insbesondere ist also ein typischer Brownscher Pfad von unbeschränkter Variation, da die quadratische Variation von stetiger Funktionen mit beschränkter Variation verschwindet. Dies deutet darauf hin, dass ein typischer Brownscher Pfad nirgends differenzierbar ist. Dies ist in der Tat der Fall, wie folgender Satz zeigt: Satz.14. Paley-Wiener, Zygmund Ein typischer Pfad der Brownschen Bewegung ist nirgends differenzierbar.
9 36 Beweis. Idee: Ist B t differenzierbar in t ]0,1[, so bleibt der Differentialquotient in einer Umgebung Ut von t beschränkt, etwa durch eine Konstante C. Wähle nun n so groß, dass [ i, ] i+3 n n Ut. Dann gilt für k = i+1,i+,i+3 Also Xk n Xk 1 Xk n n C k n X t + X t Xk 1 n t + k 1 n t 7C n N := {ω Ω: X t ω irgendwo differenzierbar} Ñ := n 3 i+3 { Xk Xk 1 l n n n }. l=1 m=1 n m i=0 k=i+1 }{{} =:A n,l Aufgrund der Unabhängigkeit der Inkremente gilt PA n,l n P Y l n mit Y = n Xk Xk 1 N0, 1-verteilt. Insbesondere also n n 3 7C l PA n,l n = 7C 3 l3 n n daher haben wir oben 3 gewählt. Es folgt Ñ P A n,l = 0 P = 0. n m 3 Ohne Beweis geben wir schließlich noch zwei Sätze an: Satz.15. Satz vom iterierten Logarithmus lim sup t 0 B t tloglog 1 t = +1,liminf t 0 B t tloglog 1 t = 1 P-f.s. Bemerkung.16. Durch Zeitumkehr folgt hinaus lim sup t B t tloglogt = +1,liminf t B t tloglogt = 1 P-f.s. Satz.17. Levy Es sei Dann gilt W h ω := sup B t+h ω B t ω t [0,1 h] h h }{{} Stetigkeitsmodul lim sup h 0 W h hlog = 1 P-f.s. 1 h
10 37.5 Die Brownsche Bewegung als Markovprozess Wir wollen in diesem Abschnitt die Brownsche Bewegung als Markovprozess kennenlernen. Die allgemeine Theorie zeitstetiger Markovprozesse werden wir in Kapitel 6 dieser VL noch genau studieren. An dieser Stelle wollen wir den Begriff nur soweit entwickeln, wie er zum weiteren Verständnis der Brownschen Bewegung hilfreich ist. Zur Erinnerung: Im Rahmen zeitdiskreter stochastischer Prozesse X t haben wir die Markoveigenschaft kennengelernt als folgende Eigenschaft P X t+s A F 0 s = P Xt+s A X s wobei F 0 t = σ{x s s [0,t]} die von X t erzeugte Filtration ist. Eine für unsere Zwecke geeignetere Formulierung wird in der folgenden Definition gegeben. Im folgenden sei X t t 0 R d -wertiger stochastischer Prozess, F t -adapiert. Definition.18. Eine Familie von R d -wertigen stochastischen Prozessen X t t 0,P x x R d auf Ω,F heißt Markovprozess, falls gilt: i x P x Γ ist BR d -messbar Γ F ii P x X 0 = x = 1 x R d iii Filtration F t, so dass X t t 0 adaptiert an F t und P x X t+s A F s = P Xs X t A P x -f.s. 0 s,t,a BR d,x R d.1 Wir bezeichnen.1 als Markoveigenschaft bzgl. der Filtration F t. Definition.19. Es sei d 1 und F = F t t 0 eine Filtration. Ein R d -wertiger stochastischer Prozess heißt d-dimensionale F-Brownsche Bewegung mit Start in x falls gilt: i B 0 = x P-f.s. ii Für 0 s < t ist das Inkrement B t B s unabhängig von F s und N0,t s I-verteilt. iii B besitzt stetige Pfade. Bemerkung.0. Ist B t eine d-dimensionale F-Brownsche Bewegung mit Start in x. Dann sind die Komponenten B 1 t,...,b d t unabhängige F-Brownsche Bewegung mit Start in x 1,...,x d. Konstruktion: B 1 t,...,b d t unabhängige F-Brownsche Bewegungen mit Start in 0. Dann ist x+b 1 t,...,b d t, eine d-dimensionale F-Brownsche Bewegung mit Start in x Definition.1. Es sei d 1 und F = F t t 0 eine Filtration. Eine d-dimensionale F-Brownsche Familie ist eine Familie B t t 0,P x x R d auf Ω,F mit folgenden Eigenschaften: i x P x Γ ist BR d -messbar Γ F ii Für x ist B t t 0 auf Ω,F,P x d-dimensionale F-Brownsche Bewegung mit Start in x.
11 38 Konstruktion im kanonischen Modell C[0,, F, W klassischer Wienerraum P x := W d T 1 x, wobei Translation um x, schließlich Ω = C[0, ;R d = C[0, d F d = BC[0, ;R d! = BC[0, d W d = d i=1w T x : C[0, ;R d C[0, ;R d f t x+ft Produktraum F = F t t 0, F t = s>tf 0 s, F 0 t := σ{π s s [0,t]} mit π t kanonische Projektion Dann ist π t t 0,P x x R d d-dimensionale F-Brownsche Familie. Satz.. Es sei M = B t t 0,P x x R d d-dimensionale F-Brownsche Familie auf Ω,F. Dann ist M ein Markovprozess. Beweis. Die ersten beiden Eigenschaften i und ii aus Definition.18 sind klar. Es bleibt, die Markoveigenschaft.1 bzgl. der Filtration F zu zeigen. Diese folgt direkt aus der Tatsache, dass für s 0 der stochastische Prozess B s t := B t+s B s,t 0, wieder eine d-dimensionale Brownsche Bewegung mit Start in 0 bezüglich der Filtration := F t+s, t 0, und unabhängig von F s. Damit ist F s t B t+s = B s +B s t,t 0, d-dimensionale Brownsche Bewegung mit Start in B s. Es folgt P x B t+s A F s = P x B s +B s t A F s = P Bs B s t A = P Bs B t A. Gilt die Markoveigenschaft auch für Stoppzeiten, so spricht man von der starken Markov-Eigenschaft. Definition.3. Es sei M = X t t 0,P x x R d auf Ω,F Markovprozess bzgl. rechtsstetiger Filtration F t t 0. Dann sagen wir, dass M die starke Markov Eigenschaft erfüllt, falls für jede endliche F t -Stopzeit S gilt: P x X t+s A F S = P XS X t A P x -f.s.. Satz.4. Es sei M = B t t 0,P x x R d d-dimensionale F-Brownsche Familie auf Ω,F. Dann erfüllt M die starke Markov Eigenschaft.
12 39 Der Beweis des Satzes ist mit Hilfe des folgenden Lemmas ganz analog zum Beweis der einfachen Markoveigenschaft einer F-Brownschen Familie in Satz.. Lemma.5. Es sei S eine endliche F t t 0 -Stoppzeit. Dann gilt B S+t B S ist unabhängig von F S für alle t > 0. Beweis. Approximiere S durch S n := k=1 k n1 { k 1 n S< k n } S Dann ist F S F Sn und für Γ F S, f C b R, folgt EfB S+t B S 1 Γ = lim EfB k n n +t B k = lim n k=1 k=1 = EfB t E1 Γ n1 { k 1 }{{} F k n n S< k n } Γ EfB k n +t B k ne1 { k 1 n S< k n } Γ Satz Gesetz von Blumenthal Es sei X t t 0,P x x R d starker Markovprozess bzgl. rechtsstetiger Filtrierung F t t 0. Es sei F 0 t = σ{x s s [0,t]}. Dann ist P 0 1 auf F 0+ := t>0 F0 t F 0!. Beweis. Für alle endlichen Stoppzeiten S gilt Durch Iteration folgt hieraus für P x X S+t A F S = P XS X t A P x -f.s. 0 t 1 < t <... < t n und A 1,...,A n BR d P x X S+t1 A 1,...,X S+tn A F S = P XS X t1 A 1,...,X tn A n P x -f.s. Anwendung auf die det. Stoppzeit S = 0 ergibt insbesondere, dass P x X t1 A 1,...,X tn A n F 0+ eine F 0 0-messbare Version besitzt. Wir betrachten nun das Mengensystem A := {Γ t 0F 0 t E x Γ F 0+ hat F 0 0-messbare Version} A ist eine σ-algebra, die alle Zylindermengen Γ der Form Γ = {X t1 A 1,...,X tn } enthält. Folglich ist A = t 0 F0 t. Es sei nun Γ F 0+. Dann folgt E x 1 Γ F 0+ = FX 0 für eine BR d -messbare Funktion F. Da P x X 0 = x = 1 folgt und damit also Fx = 0 1. P x Γ = E x E x 1 Γ F 0+ = E x FX 0 = Fx Fx = P x Γ = E x 1 Γ = E x 1 Γ E x 1 Γ F 0+ = E x 1 Γ FX 0 = E x 1 Γ Fx = Fx,
13 40 Beispiel.7. Es sei B t d-dimensionale Brownsche Bewegung. Betrachte für D R d die erste Trefferzeit von D c S D c = inf{t > 0 B t D c }. Dann gilt {S D c = 0} F 0 0+, also P x S D c = 0 = 0 1. Ein Randpunkt x D heißt regulär, falls P x S D c = 0 = 1, andernfalls irregulär.
2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III. 2.1 Der Wienerraum. Teil 2 - korrigierte Fassung
27 Wahrscheinlichkeitstheorie III Teil 2 - korrigierte Fassung 2 Brownsche Bewegung Wir haben die Brownsche Bewegung bereits als Grenzwert reskalierter Irrfahrten in der VL WTH II kennengelernt (siehe
Mehr3 Markov-Eigenschaft der Brownschen Bewegung
Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t
MehrKapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).
Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche
Mehr7. Die Brownsche Bewegung
7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrSchwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik
Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind
MehrKapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten
Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem
MehrStochastik-Praktikum
Stochastik-Praktikum Simulation stochastischer Prozesse Peter Frentrup Humboldt-Universität zu Berlin 27. November 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 27. November 2017
MehrA. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109
A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 19 A. Stochastische Prozesse und Stoppzeiten In dieser Vorlesung arbeiten wir immer auf einem Massraum (Ω, F), der gross genug ist, um alle definierten Objekte
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrVorlesungsskript: Martingale
Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................
MehrBrownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm
Brownsche Bewegung Satz von Donsker Bernd Barth Universität Ulm 31.05.2010 Page 2 Brownsche Bewegung 31.05.2010 Inhalt Einführung Straffheit Konvergenz Konstruktion einer zufälligen Funktion Brownsche
Mehr1.3 Zufallsvariablen
1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P
MehrScheinklausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrBrownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung
Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
MehrBrownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung
Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
MehrKapitel 6 Martingale
Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrKonvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen
Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess
MehrAnalysis III, WS 2011/2012 Montag $Id: masse.tex,v /10/31 15:48:07 hk Exp $
$Id: masse.tex,v 1.8 2011/10/31 15:48:07 hk Exp $ 2 Maßräume 2.2 Meßbare Abbildungen Der nächste Grundbegriff sind die meßbaren Abbildungen. Erinnern Sie sich daran das wir eigentlich einen Integralbegriff
MehrMartingale und Brownsche Bewegung
Martingale und Brownsche Bewegung Martin G. Riedler Institute for Stochastics, Johannes Kepler University 44 Linz, Austria martin.riedler@jku.at 2 Die vorliegenden Unterlagen sind ein Skriptum zur Vorlesung
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrTerminologie Stochastischer Prozesse
Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 9 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 40: Es sei (X t ) t 0 ein
MehrGesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
Mehr1. Übungsblatt zu Stochastische Prozesse
1. Übungsblatt zu Stochastische Prozesse Aufgabe 1: Es sei (X n ) n N0 ein stochastischer Prozess mit abzählbarem Zustandsraum E. Man zeige: (X n ) n N0 ist genau dann eine Markov-Kette, wenn für alle
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
Mehr1 Stochastische Prozesse in stetiger Zeit
1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.
MehrBrownsche Bewegung. M. Gruber. 19. März Zusammenfassung
Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrMeßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :
24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar
Mehrist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1
24 14 Metrische Räume 14.1 R n als euklidischer Vektorraum Die Menge R n = {(x 1,..., x n ) x i R} versehen mit der Addition und der skalaren Multiplikation x + y = (x 1 + y 1,..., x n + y n ) λx = (λx
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrKlausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik
Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen
MehrStochastische Analysis
Stochastische Analysis SS1 von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 6. Mai 21 Inhaltsverzeichnis 1 Motivation / Einführung 4 1.1 Motivation anhand
MehrÜbungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016
Übungen zu bedingten Erwartungswerten Tutorium Stochastische Prozesse 13. Dezember 2016 Bedingter Erwartungswert Definition Sei X eine reellwertige Zufallsvariable auf (Ω, A, P), so dass E[ X ]
MehrEiniges über die Brown sche Bewegung
Einiges über die Brown sche Bewegung Gunther Leobacher und Friedrich Pillichshammer Inhaltsverzeichnis Definition und Existenz einer Brown schen Bewegung Einige elementare Eigenschaften der Brown schen
Mehr4 Messbare Funktionen
4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und
MehrKapitel 1. Holomorphe Funktionen
Kapitel 1 Holomorphe Funktionen Zur Erinnerung: I IR sei ein offenes Intervall, und sei z 0 I. Eine Funktion f : I IR heißt differenzierbar in z 0, falls der Limes fz fz 0 lim =: f z 0 z z 0 z z 0 existiert.
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrKapitel 6. Irrfahrten und Bernoullischemata
Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten
MehrMeßbare Funktionen. Die angemessenen Abbildungen zwischen Meßräumen sind die meßbaren Funktionen.
Meßbare Funktionen Die angemessenen Abbildungen zwischen Meßräumen sind die meßbaren Funktionen. Definition. Seien (X, Ω 1 ) und (Y, Ω 2 ) Meßräume. Eine Abbildung f : X Y heißt Ω 1 -Ω 2 -meßbar oder kurz
MehrZufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011
Zufällige stabile Prozesse und stabile stochastische Integrale Stochastikseminar, Dezember 2011 2 Stabile Prozesse Dezember 2011 Stabile stochastische Prozesse - Definition Stabile Integrale α-stabile
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
MehrMaximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung Eigenschaften von stochastischen Ordnungen Kleine Generatoren
Universität Hamburg Fachbereich Mathematik Schwerpunkt Mathematische Statistik und Stochastische Prozesse Bundesstr. 55 D-20146 Hamburg Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung
MehrLösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried
Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,
Mehrε δ Definition der Stetigkeit.
ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x
Mehr7 Der Satz von Girsanov
7 Der Satz von Girsanov Der Satz von Girsanov wird uns eine neue Perspektive auf die Rolle des Drifts liefern. Die Prozesse Brownsche Bewegung B t, Brownsche Bewegung mit Drift X t = B t + µt haben wir
MehrZusammenfassung Analysis 2
Zusammenfassung Analysis 2 1.2 Metrische Räume Die Grundlage metrischer Räume bildet der Begriff des Abstandes (Metrik). Definition 1.1 Ein metrischer Raum ist ein Paar (X, d), bestehend aus einer Menge
MehrAnalysis I. Guofang Wang Universität Freiburg
Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum
MehrFUNKTIONALANALYSIS. Carsten Schütt WS 2006/7
1. Eine Teilmenge K eines topologischen Raumes heißt folgenkompakt, wenn jede Folge in K eine Teilfolge enthält, die in K konvergiert. Die Menge K heißt abzählbar kompakt, wenn jede unendliche Teilmenge
MehrCharakteristische Funktionen
Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die
MehrZufallsvariable, Verteilung, Verteilungsfunktion
Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.
MehrLösungen der Übungsaufgaben von Kapitel 3
Analysis I Ein Lernbuch für den sanften Wechsel von der Schule zur Uni 1 Lösungen der Übungsaufgaben von Kapitel 3 zu 3.1 3.1.1 Bestimmen Sie den Abschluss, den offenen Kern und den Rand folgender Teilmengen
Mehrx, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrEndliche Markov-Ketten - eine Übersicht
Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
MehrAsymptotische Stochastik (SS 2010)
Institut für Stochastik PD. Dr. Dieter Kadelka Daniel Gentner Asymptotische Stochastik (SS 2010) Lösungen zu Übungsblatt 4 Aufgabe 1 (lokaler Grenzwertsatz von de Moivre und Laplace und eine Verallgemeinerung)
Mehr30 Die Gammafunktion und die Stirlingsche Formel
3 Die Gammafunktion und die Stirlingsche Formel 35 Charakterisierung der Gammafunktion 36 Darstellung der Gammafunktion 38 Beziehung zwischen der Gammafunktion und der Zetafunktion 3 Stirlingsche Formel
MehrStochastische Analysis
Stochastische Analysis Vorlesung SS 22 Jürgen Dippon Mathematisches Institut A Universität Stuttgart Homepage der Vorlesung: www.mathematik.uni-stuttgart.de/matha/lst3/dippon/sa Version vom 17. Juni 23
MehrDefinition 3.1. Sei A X. Unter einer offenen Überdeckung von A versteht man eine Familie (U i ) i I offener Mengen U i X mit U i
3 Kompaktheit In der Analysis I zeigt man, dass stetige Funktionen f : [a, b] R auf abgeschlossenen, beschränkten Intervallen [a, b] gleichmäßig stetig und beschränkt sind und dass sie ihr Supremum und
MehrErwartungswert als Integral
Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral
MehrAufgaben zu Kapitel 0
Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.
MehrZeitstetige Markov-Prozesse: Einführung und Beispiele
Zeitstetige Markov-Prozesse: Einführung und Beispiele Simone Wielart 08.12.10 Inhalt Q-Matrizen und ihre Exponentiale Inhalt Q-Matrizen und ihre Exponentiale Zeitstetige stochastische Prozesse Inhalt Q-Matrizen
MehrLehrstuhl IV Stochastik & Analysis. Stochastik II. Wahrscheinlichkeitstheorie I. Skriptum nach einer Vorlesung von Hans-Peter Scheffler
Fachschaft Mathematik Uni Dortmund Lehrstuhl IV Stochastik & Analysis Stochastik II Wahrscheinlichkeitstheorie I Skriptum nach einer Vorlesung von Hans-Peter Scheffler Letzte Änderung: 26. November 2002
Mehr4 Fehlerabschätzungen und Konvergenz der FEM
4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
Mehr5 Stetigkeit und Differenzierbarkeit
5 Stetigkeit und Differenzierbarkeit 5.1 Stetigkeit und Grenzwerte von Funktionen f(x 0 ) x 0 Graph einer stetigen Funktion. Analysis I TUHH, Winter 2006/2007 Armin Iske 127 Häufungspunkt und Abschluss.
Mehr2 Stationarität. Strikte Stationarität
2 Stationarität. Strikte Stationarität Die in 1 benutzten Begriffe sind noch zu präzisieren : Definition 2.1. a) Ein stochastischer Prozess {X t } t T heißt strikt stationär, falls für je endlich viele
MehrKapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen
Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion
MehrSchwartz-Raum (Teil 1)
Schwartz-Raum (Teil 1) Federico Remonda, Robin Krom 10. Januar 2008 Zusammenfassung Der Schwartz-Raum ist ein Funktionenraum, der besondere Regularitätseigenschaften besitzt, die uns bei der Fouriertransformation
MehrExtremalpunkte und der Satz von Krein-Milman. 1 Lokalkonvexe topologische Vektorräume
Extremalpunkte und der Satz von Krein-Milman Seminar zu ausgewählten Kapiteln der Banachraumtheorie Vortrag von Michael Hoffmann 1 Lokalkonvexe topologische Vektorräume Im folgenden betrachten wir stets
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrReelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013
Reelle Analysis Vorlesungsskript Enno Lenzmann, Universität Basel 11. Oktober 2013 3 Fortsetzung von Prämassen zu Massen Der Begriff des Prämasses ist nicht ausreichend, um eine geschmeidige Integrationstheorie
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrImplizite Funktionen, der Umkehrsatz und Extrema unter Nebenbedingungen
Kapitel XII Implizite Funktionen, der Umkehrsatz und Extrema unter Nebenbedingungen 53 Implizite Funktionen und allgemeine partielle Differenzierbarkeit 54 Der Umkehrsatz 55 Lokale Extrema unter Nebenbedingungen,
MehrStochastische Prozesse Gliederung zur Vorlesung im Sommersemester 2006
Stochastische Prozesse Gliederung zur Vorlesung im Sommersemester 26 Markus Reiß Universität Heidelberg reiss@statlab.uni-heidelberg.de VORLÄUFIGE FASSUNG: 28. Juli 26 Inhaltsverzeichnis 1 Der Poissonprozess
Mehr5 Die Picardschen Sätze
03 5 Die Picardschen Sätze Für eine zweimal stetig differenzierbare reell- oder komplexwertige Funktion f auf einem Gebiet G C ist der Laplace-Operator definiert durch Behauptung: = 4 Beweis: Daraus folgt:
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
MehrMetrische äußere Maße, Borel-Maße
Metrische äußere Maße, Borel-Maße Zum einen haben wir mit dem Fortsetzungssatz gesehen, dass man mit einem äußeren Maß (auf P(X) ) stets eine σ-algebra und ein Maß auf dieser bekommt. Liegt nun ein metrischer
MehrVorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik
Univ. Leipzig Mathematisches Institut Vertretung Professur Stochastische Prozesse Max v. Renesse email: mrenesse@math.tu-berlin.de Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik
MehrDas Lebesgue-Maß im R p
Das Lebesgue-Maß im R p Wir werden nun im R p ein metrisches äußeres Maß definieren, welches schließlich zum Lebesgue-Maß führen wird. Als erstes definieren wir das Volumen von Intervallen des R p. Seien
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
Mehr1 Konvergenz im p ten Mittel
Konvergenz im p ten Mittel 1 1 Konvergenz im p ten Mittel In diesem Paragraphen werden zunächst in Abschnitt 1.1 die L p Räume eingeführt. Diese erweisen sich als vollständige, lineare Räume über R. In
MehrWahrscheinlichkeitstheorie 2 & 3. Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 30. Januar 2015
Wahrscheinlichkeitstheorie 2 & 3 Prof. Dr. Barbara Gentz mitgeschrieben von Arthur Sinulis 3. Januar 215 Inhaltsverzeichnis. Bedingte Erwartungswerte 4 1. Martingale, Stoppzeiten und Filtrierungen 9 1.1.
Mehrd(x, z) = z x = y x + z y y x + z y = d(x, y) + d(y, z). d(x, y) = 0, falls x = y.
Metrische Räume K bezeichnet entweder den Körper R oder den Körper C. Genauer bedeutet dies: K wird in denjenigen Situationen verwendet, in denen die Ersetzung von K sowohl durch R als auch durch C einen
Mehr1 Bedingte Erwartungswerte
Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,
MehrWahrscheinlichkeitstheorie und Maßtheorie
KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrMusterlösung Klausur,,Einführung in die W theorie
Institut für angewandte Mathematik Wintersemester 3/4 Andreas Eberle, Lisa Hartung / Patrick Müller Musterlösung Klausur,,Einführung in die W theorie. (Zufallsvariablen und ihre Verteilung) a) Was ist
MehrRegulär variierende Funktionen
KAPITEL 4 Regulär variierende Funktionen Unser nächstes Ziel ist es, die Max-Anziehungsbereiche der Extremwertverteilungen zu beschreiben. Dies wird im nächsten Kapitel geschehen. Wir haben bereits gesehen,
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
Mehr