Die Brownsche Bewegung
|
|
|
- David Bauer
- vor 9 Jahren
- Abrufe
Transkript
1 stellt einen grundlegenden Baustein der Wahrscheinlichkeitstheorie dar. Vordergründig ist sie ein mathematisches Modell der physikalischen Brownschen Bewegung, hat sich jedoch von dieser Motivation inzwischen vollständig gelöst und besitzt nun eine eigenständige Bedeutung. Wie der Poissonprozess lässt sie sich verteilungsfrei charakterisieren; bis auf triviale Modifikation ist die Brownsche Bewegung der einzige Lévy-Prozess mit stetigen Pfaden Grund hierfür ist der Zentrale Grenzwertsatz von Lindeberg-Feller. Sie ist ein Limesobjekt, das etwa entsteht, wenn man eine einfache, symmetrische Irrfahrt S reskaliert. Präzise - man geht von S zur zufälligen Funktion X n mit Definitionsbereich [0, 1] über, indem man setzt 7.1 X n k/n := 1 Sk für 0 k n, k ganz; X n. ist affin dazwischen. n Hierbei ist n N ein Maßstabsparameter, der nach unendlich strebt. Definition 7.1. Brownsche Bewegung Ein stochastischer Prozess B t t [0,1] über einem W tsraum Ω,, P heißt standardisierte Brownsche Bewegung stbb, wenn er den nachstehenden Bedingungen genügt; die Verteilung auf BC[0,1] heißt Wienermaß. i B 0 = 0; ii B t t [0,1] besitzt stetige Pfade; iii für t 0 < t 1 <... < t k in [0,1] sind die Zuwächse B ti B ti 1, 1 i k, unabhängig; iv B t B s N0,t s für alle 0 s t 1. Bemerkung 7.2. ngenommen, eine stbb existiere, dann bestimmt die gemeinsame Verteilung der Zuwächse wegen B 0 = 0 die gemeinsame Verteilung der B t0,...,b tk, k N. Nach Proposition 6.19 ist die Verteilung von B t t [0,1] auf BC[0,1] damit festgelegt insofern hat das Wort Wienermaß einen eindeutigen Sinn. Man erhält unmittelbar i B t0,...,b tk, k N, sind gemeinsam normalverteilt; ii EB t = 0 und für s t cov B s,b t = cov Bs,B t B s + B s = s = mins,t. 53
2 Ungekehrt hat ein stochastischer Prozess mit stetigen Pfaden und i, ii natürlich die in der Definition 7.1 angegebenen Eigenschaften i,iii und iv; d.h. man hat eine äquivalente Charakterisierung der Brownschen Bewegung als zentrierten Gaußprozess mit stetigen Pfaden und Kovarianzstruktur ii. Ein Gaußprozess ist ein stochastischer Prozess, dessen endlichdimensionalen Verteilungen sämtlich gaußisch sind In Vorbereitung auf den Existenzbeweis folgende Proposition 7.3. Sei X n n N eine Folge von Zufallsvariablen von Ω,, P in einen polnischen Raum E, d, d sei vollständig. Gibt es zwei strikt positive summierbare Folgen ε n n N und η n n N, so dass gilt P dx n,x n+1 > η n εn für alle n N, dann existiert eine Zufallsvariable X : Ω, E,d mit X = lim n X n f.s. BEWEIS. Wegen der Vollständigleit von E,d ist nur zu zeigen, dass X n f.s. eine Cauchy- Folge darstellt; dies folgt, sofern { P sup k,x l k,l mdx 1 } { P sup k,x l j k,l mdx 1 } = 0. j j=1 m=1 Letzteres ist der Fall, wenn gilt: η,ε > 0 m : j=1 m=1 P sup dx k,x l η k,l m ε. Sei nun m derart, dass n m ε n < ε und n m η n < η. Wegen sup k,l m dx k,x l n m dx n,x n+1 folgt die Behauptung. Satz 7.4. Standardisierte Brownsche Bewegungen existieren. BEWEIS. Wir konstruieren eine Folge zufälliger Polygonzüge B k., die jeweils auf dem Gitter G k := { i/2 k 0 i 2 k} durch Zufallsvariable definiert und dazwischen linear interpoliert sind; außerdem an den Gitterpunkten den Bedingungen der Definition 7.1 genügen. Das Konstruktionsprinzip ist wie folgt: und B 0 0 = 0, B 0 1 N0,1; B k+1 2i 2 k+1 := B k i 2 k ; B k+1 2i k+1 := B k i 2 k + 1 { B k i k B k i } 2 k + Z i,k+1, mit Z i,k iid N0,2 k+1. ngenommen, die Bedingungen i, iii und iv damit auch i und ii gelten für B k an den Gitterpunkten G k. Für die Zuwächse von B k+1 gilt 54
3 dann B k+1 2i k+1 B k+1 2i 2 k+1 = 1 { B k i k B k i } 2 k + Z i,k+1 N0,2 k+1 und B k+1 2i k+1 B k+1 2i k+1 = 1 { B k i k B k i } 2 k Z i,k+1 N0,2 k+1. Darüberhinaus sind die beiden Zuwächse unkorreliert und da normalverteilt auch unabhängig. Es ist offensichtlich, dass damit die Bedingungen i, ii und iv auch an allen Gitterpunkten von B k+1 erfüllt sind. Für den Supremumsabstand gilt nun db k,b k+1 = max i Z i,k+1 und damit P db k,b k+1 η k 2 k+1 P Z i,k+1 η k = 2 k+2 1 Φ η k 2 k/2+1 =: ε k, wobei Φ die Verteilungsfunktion der Standardnormalverteilung bezeichne. Setzt man ferner η k := α k mit 2 1/2 < α < 1, so kann man mit der Ungleichung 1 Φu 1 2 exp u2 /2 leicht nachrechnen, dass k η k < und k ε k < gelten. Es folgt nach Proposition 7.3 die f.s.-konvergenz von B k. gegen ein B. in C[0,1], BC[0,1]. Es bleibt noch zu zeigen, dass auch B. die Eigenschaften iii und iv hat. Es ist unmittelbar klar für alle binären Punkte t = i/2 k, 0 i 2 k, i,k N, weil B an diesen Stellen gleich B k für hinreichend großes k ist. Für andere Punkte t [0,1] wählt man eine Folge binärer Punkte t k, welche gegen t konvergiert; die Zufallsvariable Bt ist f.s.- Limes von Bt k. Die Verteilung von Bt k konvergiert dann schwach gegen die Verteilung von Bt, auch wenn man mehrere Teilpunkte simultan approximiert, und iii und iv bleiben im Grenzwert erhalten. Bemerkung 7.5. Eine standardisierte Brownsche Bewegung auf der positiven reellen chse ist eine Zufallsvariable mit Werten in C[0,, die i, iii und iv aus Definition 7.3 sinngemäß für alle t i [0, erfüllt oder äquivalent i und ii. Hierbei sei C[0, versehen mit der Topologie der gleichmäßigen Konvergenz auf Kompakta wie im Beweis von Proposition 6.19 zeigt man B [0, C[0, = BC[0,. Eine stbb auf [0, erhält man beispielsweise, indem man die Pfade von einer Folge unabhängiger stbb s B n n N auf C[0,1] stetig aneinanderhängt: k 1 B t := B n 1 + B k t k 1 für k 1 t k. n=1 Es ist einfach einzusehen, dass das so definierte B eine stbb auf C[0, ist. Sofern nichts anderes gesagt ist, werden wir von jetzt an als standardisierte Brownsche Bewegung immer den Prozess mit [0, als Zeitparameter verstehen. 55
4 Proposition 7.6. Invarianzeigenschaften des Wienermaßes Sei B eine stbb in C[0,. Dann gilt i B ist eine Brownsche Bewegung Umkehrung des Ortes; ii c 1/2 Bc. ist eine Brownsche Bewegung Reskalierung von Ort und Zeit; iii Der stochastische Prozess Z, punktweise gegeben durch Z t := tb 1/t für t > 0 und Z 0 = 0, ist nach bänderung der Pfade auf eine P-Nullmenge eine standardisierte Brownsche Bewegung eine spezielle Inversion der Zeit. BEWEIS. Da alle Prozesse gaußisch und zentriert sind, ist es für die Verteilungseigenschaft ausreichend die gewünschte Kovarianzstruktur zu verifizieren, was offensichtlich ist; darüberhinaus für iii, dass Z f.s. rechtsseitig stetig in 0 ist. Sei nun t n ein Folge aus 0, mit t n 0, d.h. m n := [1/t n ]. Es gilt Z tn = t n B 1/tn = 1 1/t n m n i=1 Bi B i /t n B1/tn B mn. Wegen m n /1/t n 1 und der Unabhängigkeit der Zuwächse der stbb konvergiert der erste usdruck nach dem starken Gesetz der großen Zahlen gegen 0; ferner folgt mithilfe der später folgenden Proposition 7.21, dass P Bu B n > n ε = P sup u [n,n+1] sup B u > n ε u [0,1] 7.21 = 2PB 1 > n ε 1 2 exp n2ε /2. für jedes ε > 0. Die Suprema sind messbar, da man sie wegen der Stetigkeit von B auf [n,n + 1] Q bzw. [0,1] Q einschränken kann. Mit dem Lemma von Borel-Cantelli folgt 1 daraus, dass sup u [n,n+1] n Bu B n 0 f.s. und damit Ztn 0 f.s. man kann die usnahmemenge unabhängig von der Folge t n wählen. Bemerkung 7.7. Die Invarianz unter den bbildungen in ii nennt man auch die Selbstähnlichkeit der stbb: ein auf ein Teilintervall restringiertes Stück der stbb hat, nach geeigneter Skalierung von Orts- und Zeitkoordinate, die gleiche Verteilung wie die stbb im ganzen Intervall. Man beachte, dass es sich um eine stochastische Selbstähnlichkeit handelt, die sich auf das Verteilungsgesetz bezieht, nicht um eine pfadweise Selbstähnlichkkeit, wie man sie bei gewissen Cantorfunktionen antrifft. us der Brownschen Bewegung können weitere Prozesse aufgebaut werden. Einer der wichtigsten im Hinblick auf die Theorie empirischer Prozesse ist die Definition 7.8. Brownsche Brücke Sei B t t [0,1] eine stbb. Dann heißt der stetige Prozess B 0 mit B 0 t := B t tb 1 Brownsche Brücke. Äquivalent: Eine Brownsche Brücke ist ein zentrierter Gaußprozess mit 56
5 stetigen Pfaden und Kovarianzstruktur cov B s,b t = s1 t, 0 s t 1. Proposition 7.9. Sei B eine stbb. Setzt man L t := tb 1, dann gilt B t = L t + B 0 t, und L und B 0 sind stochastisch unabhängig. BEWEIS. Der erste Teil ist klar. Für die Unabhängigkeit muss man die Unabhängigkeit aller endlichdimensionalen Projektionen zeigen. Wegen cov L s,b 0 t = se B1 B t tb 1 = st t = 0 folgt im vorliegenden gaußschen Fall die Unabhängigkeit. Bemerkung Die ussage von Prop. 7.9 impliziert, dass man für jedes reelle a die Brownsche Bewegung unter der Bedingung {B 1 = a} rekonstruieren kann: Unter dieser Bedingung gilt B t = at + Bt 0, d.h. man erhält eine Brownsche Bewegung, indem man zu dem linearen Prozess t a t eine Brownsche Brücke B 0 addiert. Die Verteilung µ a von t at+bt 0 hängt in der schwachen Topologie der Maße in BC[0,1] stetig von a ab und ist eine Version der bedingten Verteilung von P B B1=a. In diesem Sinne ist µ 0, die Verteilung von B 0, die bedingte Verteilung von B gegeben B 1 = 0. Diese Deutung von µ 0 legt die zutreffende Vermutung nahe, dass eine Brownsche Brücke im Verteilungslimes 7.1 einer reskalierten Irrfahrt unter der Bedingung S n = 0 entsteht. Wir kommen hierauf in Kapitel 9 zurück. Pfadeigenschaften der Brownschen Bewegung Im folgenden wird das Variationsverhalten der Pfade einer stbb auf einem Intervall [a, b] untersucht. Hierzu sei T = {a = t 0 <... < t n = b} eine Partition und V T,p;B := k B ti B ti 1 p i=1 die Variation von B zum Exponenten p bzgl. T. Seien ferner s i = t i t i 1 und s T := max i=1,...,k s i. Satz i Fast alle Pfade der BB sind in jedem Intervall [a,b] von unbeschränkter Variation, d.h. supv T,1;B = f.s. T 57
6 ii Für allgemeines p > 0 gilt für p < 2 P lim V T,p;B = b a für p = 2 s T 0 0 für p > 2. Erläuterung: Der stochastische Grenzwert P lim s T 0 V T,p;B = V V < f.s. entlang von Partitionen T mit s T 0 bedeutet hier ε,η > 0 δ > 0 : P V T,p;B V η ε für alle T mit s T δ. nalog im Falle V = : ε,k > 0 δ > 0 : P V T,p;B K ε für alle T mit s T δ. Insbesondere folgt daraus V T n,p;b V entlang einer Partitionenfolge mit s T n 0. Man beachte, dass in obiger Definition nur der Limes entlang deterministischer Partitionen betrachtet wird; die Frage, welche vom Pfad abhängigen Partitionen man zulassen kann, ohne die ussage von Satz 7.11 zu verletzen, wird hier nicht diskutiert. BEWEIS. Wir zeigen zunächst ii für p = 2. Sei T eine feste Partition. Dann gilt EV T,2;B = i s i = b a und VarV T,2;B = Var Bti B ti 1 2 = 2 2b as T. Damit folgt die ussage mithilfe der Chebyshev-Ungleichung. Für p > 2 gilt mit M T := max i { Bti B ti 1 } V T,p;B Bti B ti 1 2 M T p 2. Die Stetigkeit der Pfade impliziert M T 0 f.s. für s T 0. Der erste Term konvergiert stochastisch gegen b a, der zweite f.s. gegen 0, womit die ussage bewiesen ist. Für p < 2 gilt analog 7.2 V T,p;B Bti B ti 1 2 M T p 2, woraus ebenfalls die ussage folgt. i Sei T n eine Folge von Partitionen mit s T n 0. Dann gilt B B ti,n t 2 P i 1,n b a. Damit existiert eine Teilfolge T nk mit Bti,nk B t 2 i 1,nk b a f.s. Wegen 7.2 folgt V T nk,1;b f.s. und mit sup T V T,1;B V T nk,1;b damit die Behauptung. i s 2 i 58
7 Bemerkung ussage i des obigen Satzes impliziert: f.s. jeder Pfad ist in keinem Intervall [a,b], a < b Q, Lipschitz-stetig. f.s. jeder Pfad ist in keinem Intervall [a,b], a < b Q, monoton, und damit: f.s. liegt die Menge der lokalen Maxima von B dicht in [0,1]. weist also ein ziemlich pathologisches Pfadverhalten auf. Markov-Eigenschaft Gewöhnliche Markov-Eigenschaft Sei B eine stbb auf [0, und sei F t die kanonische Filtration, d.h. F t = σb s ;s t, F := σf t ;t 0. Zu festem s > 0 betrachten wir den Prozess t B s+t, ein Prozess mit Start an dem zufälligen Ort B s. Sei P a die Verteilung einer BB mit Start in a. Was ist die bedingte Verteilung von B s+t t [0, gegeben F s? Satz Für jede beschränkte messbare Funktion h auf C[0, ist E hb s+ Fs = hxdp Bs x f.s. Satz 7.13 sagt insbesondere, dass E. F s B s -messbar ist: das Bedingen auf die Vergangenheit bis s ist äquivalent zum Bedingen auf die Gegenwart s. BEWEIS. Seien 0 t 1 < t 2 <... < t k und λ 1,λ 2,...,λ k R. Dann erhält man exp 7.3 λ 1 x t λ k x tk dp a x = exp λ 1 x t1 + a λ k x tk + a dp 0 x = exp a k λ i i=1 ndererseits gilt mit B t := B s+t B s E exp λ 1 B s+t λ k B s+tk Fs = E exp = exp B s 7.3 = { k i=1 exp λ 1 x t λ k x tk dp 0 x. λ i B s } exp λ 1 Bt λ k Btk Fs k λ i E exp λ 1 Bt λ k Btk Unabhängigkeit i=1 exp λ 1 x t λ k x tk dp B s x, womit die Behauptung folgt. 59
8 Starke Markov-Eigenschaft Definition Sei F t t 0 eine Filtration. Eine Zufallsvariable mit Werten in [0, ] heißt Stopzeit bezüglich F t t 0, wenn {τ < t} F t für alle t gilt. Ferner definiert man die σ-lgebra der Stopzeit F τ+ := { F : {τ < t} F t für alle t 0 }. F liegt also in F τ+, wenn bis zur Zeit τ beobachtbar ist, ob das Ereignis eingetreten ist oder nicht. Es ist unmittelbar einsichtig, dass eine Stopzeit τ bzgl. F τ+ messbar ist. Bemerkung In der Definition der Stopzeit haben wir offensichtlich eine Wahl getroffen zwischen {τ t} und {τ < t}. In diskreter Zeit ist das ein großer Unterschied; für eine rechtsstetige Filtration, d.h. wenn gilt F t = F t + := s>t F s für alle t 0, sind die Definitionen in stetiger Zeit äquivalent. Die kanonische Filtration ist im allg. nicht rechtsstetig das später folgende 0-1-Gesetz von Blumenthal zeigt aber gerade, dass sich im Falle F t = σb s ;s t die σ-lgebren F t und F t + lediglich um Nullmengen unterscheiden. Es stellt sich die Frage, ob eine analoge ussage zu Satz 7.13 auch für Stopzeiten gilt; diese wird beantwortet durch Satz Sei F t t 0 die kanonische Filtration und τ eine F t t 0 -Stopzeit. i Sei h eine beschränkte messbare Funktion. Dann gilt E hb τ+. Fτ+ = hxdp Bτ x f.s. auf {τ < }. ii uf {τ < } ist B, punktweise definiert durch Bt := B t+τ B τ eine von F τ+ unabhängige stbb. BEWEIS. i Zu zeigen ist 7.4 hb τ+. dp = hxdp Bτ xdp für alle F τ+ und {τ < }. Hierzu diskretisieren wir die Stopzeit τ zu τ n := min { j/2 n j/2 n > τ } und zeigen, dass 7.4 richtig ist für τ n anstelle von τ aber unverändert mit F τ+. Sei j,n := {τ n = j/2 n }. Dann ist die disjunkte Vereinigung aller j,n,j,n N, außerdem gilt j,n F j/2 n wegen j,n = {τ < j/2 n } \ {τ < j 1/2 n }. Die gewöhnliche Markov-Eigenschaft impliziert hb τn+.dp = hxdp Bτn xdp, j,n j,n 60
9 und Summation über j liefert 7.4 für τ n : 7.5 hb τn+.dp = hxdp Bτn xdp. Im Grenzwert n gilt τ n ց τ und damit B τn+t B τ+t Stetigkeit auf {τ < }. Sei h : C[0, R eine beliebige stetige Funktion von der Form hx = ψx t1,...,x tk, t 1,...,t k [0,, ψ stetig. Dann konvergiert die linke Seite in 7.5 hb τn+.dp hb τ+. dp. Da die bbildung u hxdp u x = hx + udp 0 x stetig und beschränkt ist, konvergiert folglich das rechte Integral in 7.5 nach dem Satz von der dominierten Konvergenz: hxdp Bτn xdp hxdp Bτ x, womit i bewiesen ist. ii Wir zeigen: E 1 {Bτ+. B τ } F τ+ = P B auf {τ < } f.s. Die Unabhängigkeit von F τ+ folgt unmittelbar, da die rechte Seite nicht mehr vom Zufall abhängt. Sei also h : C[0, R mit hx := 1{x. x0 }. us i folgt E 1 {Bτ+. B τ } F τ+ = E hb τ+. Fτ+ = hxdp Bτ x f.s. = P Bτ x. x0 7.6 = P 0 x. x0 = P 0 x., wobei 7.6 gilt, da der transformierte Pfad t xt x0 stets in 0 startet und diese W t somit unabhängig vom Startpunkt ist. Korollar Blumenthals 0-1-Gesetz Für F 0+ := s>0 F s gilt P = 0 oder P = 1. BEWEIS. Für die konstante Stopzeit τ. = 0 gilt offenbar F τ+ = s>0 F s. Mithilfe der starken Markov-Eigenschaft erhalten wir P = P F 0+ dp = P B 0 dp = PdP = P 2. Blumenthals 0-1-Gesetz liefert weitere Pfadeigenschaften: 61
10 Korollar Sei B eine stbb. Dann gilt: B t t 0 oszilliert f.s. für t ց 0. für jedes t 0 ist B in t f.s. nicht Hölder-1/2-stetig. BEWEIS. Der erste Punkt ist schnell einzusehen: Denn := { n N t 1/n Bt > 0 } liegt in F 0+, hat also Maß 0, weil P = 1 aus Symmetriegründen unmöglich ist. Für den zweiten Punkt müssen wir verifizieren, dass für jedes K > 0 gilt P K = 1 ist mit K := { inf { t > 0 : B t K t } = 0 } es reicht, den Punkt t = 0 zu betrachten, da B s+. B s für jedes s > 0 wieder seine stbb ist. Dafür setzt man K s := { inf { t > 0 : B t K t } < s }, womit K = s>0 K s F 0+. Wegen der Selbstähnlichkeit der stbb Prop. 7.6 ii ist P K = inf s>0 P K s PB 1 K > 0 und deshalb P K = 1. Bemerkung Vorsicht bei der Reihenfolge der Quantoren beim zweiten Punkt: Wir haben nicht gezeigt, dass B f.s. in keinem t 0 Hölder-1/2-stetig ist, was übrigens auch nicht korrekt wäre. Proposition Spiegelungsprinzip Sei B eine Brownsche Bewegung und τ eine Stopzeit. Dann hat B dieselbe Verteilung wie der reflektierte Prozess B, gegeben durch B t := B mint,τ B t B mint,τ. BEWEIS. Da offensichtlich Gleichheit im Falle τ = gilt, mögen wir τ < annehmen. Man definiert B τ t := B mint,τ und B t := B τ+t B τ. Nach Satz 7.16 ist B eine von τ,b τ unabhängige stbb. Nach Proposition 7.6 i ist B verteilt wie B, womit die Verteilungen der Tripel τ,b τ,b und τ,b τ, B identisch sind. Es bleibt nur noch zu bemerken, dass B t = B τ t + B t τ +, Bt = B τ t B t τ +, t 0. Man sagt, der Prozess B geht aus B durch Spiegelung an der Stopzeit τ hervor. Eine schnelle Konsequenz ist Proposition Zu a R sei τ a := min t {B t = a} der erste Zeitpunkt, an welchem die Brownsche Bewegung B den Wert a annimmt τ a ist eine Stopzeit. Dann gilt P τ a t = P B t a t > 0,a > 0. BEWEIS. nach dem Spiegelungsprinzip Wegen B τa = a ist unter der Bedingung {τ a t} der Prozess B, gegeben durch B s := B τa+s a, wieder eine stbb starke Markov- Eigenschaft, insbesondere ist er spiegelsymmetrisch. Man erhält mit PB 1 = a = 0 Pτ a t = Pτ a t,b t > a + Pτ a t,b t < a = 2Pτ a t,b t > a, und wegen { τ a t,b t > a } = { B t > a } folgt die Behauptung. 62
11 Verteilungsfreie Charakterisierung der Brownschen Bewegung Definition Lévy-Prozess Ein stochastischer Prozess X t t 0 mit càdlàg -Pfaden heißt Lévy-Prozess, wenn er nachstehenden Forderungen genügt: L1 X 0 = 0; L2 für 0 t 0 < t 1 <... < t k sind die Zuwächse X ti X ti 1 unabhängig; L3 Es existiert eine Familie µu u 0 von W-Maßen auf BR, so dass X t X s µt s, s < t. càdlàg = rechtsseitig stetig mit existierenden linksseitigen Limites bkürzung für continue à droite, limite à gauche Bemerkung Das einfachste Beispiel eines solchen Prozesses ist neben der stbb der Poissonprozess Kapitel 5. In diesem Fall ist µu die Poissonverteilung zum Parameter λ u mit einer positiven Konstante λ > 0 Intensität. llgemein kann man die Familie in L3 nicht beliebig vorschreiben; damit die Verteilungen von je endlich vielen X t eine projektive Familie im Sinne des Satzes von Kolmogorov bilden, muss µ eine Faltungshalbgruppe sein, d.h. µu µs = µu + s für alle u,s 0. Es ist bekannt und leicht nachzurechnen, dass dies der Fall ist für die oben erwähnte Poissonfamilie und die Familie N0,c der zentrierten Gaußverteilungen. c 0 Proposition Wenn ein Lévy-Prozess X stetige Pfade hat, existieren sämtliche Momente von X u,u 0. BEWEIS. Man definiert die Zufallsvariable T := inf{t : X t > 1}. Da X bei t = 0 stetig ist, kann man PT < s 1/2 erreichen, sofern man s klein genug wählt. Da X stetig ist, hat man X T = 1 in {T < s}; aufgrund der starken Markov-Eigenschaft der Beweis von Satz 7.16 funktioniert offenbar auch für stetige Lévy-Prozesse ist unter der Bedingung {T < s} die in [0, definierte zufällige Funktion t X T+t 1 ebenso verteilt wie t X t. Es folgt allgemein P sup t s X t 2 = P sup t s s 0 P sup t s X t 2 T = s dp T s 1 m X t m für jedes m N. 2 D.h. sup t s X t wird durch eine geometrische Variable zum Parameter 1/2 majorisiert. Dasselbe rgument gilt bei passender Wahl von s auch für X anstelle von X. lle Momente ,
12 von Xs := sup t s X t und erst recht von X t für t < s sind damit endlich. Für beliebiges u ist X u die Summe von n iid Zufallsvariablen, die wie X u/n verteilt sind; diese haben für u/n < s endliche Momente, daher auch die Summe. Satz Jeder Lévy-Prozess X mit stetigen Pfaden ist von der Form X t = at + cb t, wobei a,c zwei Konstanten sind mit c 0 und B eine stbb ist. Bemerkung Der Satz sagt, dass bis auf triviale Modifikation die Brownsche Bewegung der einzige stetige Lévy-Prozess ist. Man nennt a Driftparameter und c Diffusionskonstante. BEWEIS. Nach Proposition 7.24 hat X ein erstes und zweites Moment. Wenn die Varianz von X 1 null ist, ist die ussage des Satzes trivialerweise richtig mit a = EX 1 und c = 0. Wenn nicht, können wir annehmen, dass nach Subtraktion von tex 1 und Division durch eine Konstante gilt EX t = 0 und EX 2 t = t für alle t 0. Es ist zu zeigen, dass für ein festes u > 0 X u N0,u, der Einfachheit halber wählen wir u = 1. SCHRITT 1 Wir starten mit einer Modellrechnung in einem Intervall. Seien ε,δ > 0 gegeben. Wegen der Stetigkeit der Pfade existiert ein n N mit P sup X k/n+s X k/n > ε für ein 0 k < n 0 s 1/n insbesondere: P sup X s X 0 > ε 0 s 1/n δ; δ. Betrachten wir X im Intervall [0,t] mit 1/t Z. Sei T := min min{0 s t : X s = ε},t. Dann gilt EXt 2 = E X T 2 + 2X t X T X T + X t X T mit = EX 2 T + E X t X T 2 E X t X T 2 = E Xt X T 21{T<t} PT < t t δt. Denn wegen der wegen der starken Markov-Eigenschaft die, wie schon im vorigen Beweis angemerkt, offenbar auch für jeden stetigen Lévy-Prozess gilt ist X, gegeben durch X s := X T+s X T, ein von F T+ unabhängiger Prozess mit denselben Pfad- und Verteilungseigenschaften wie X. Insbesondere ist E X s = 0, auch wenn man die Stelle s zufällig aber von X unabhängig wählt es folgt E X t T F T+ = 0 f.s., womit E X T X t X T = E X T E Xt T F T+ = 0, 64
13 was 7.9 zeigt. Wegen X t T = X t X T und EX t = 0 folgt weiter EX T = 0. Insgesamt ergibt sich also sich also: 7.10 a t = EX 2 t EX 2 T t1 δ; b EX T = 0. us der Stetigkeit der Pfade folgt außerdem 7.11 X T ε. SCHRITT 2 Seien jetzt ε j j N und δ j j N zwei beliebige Nullfolgen; man wähle n j so groß, dass 7.7 für ε j und δ j erfüllt ist. Für jedes n = n j teilen wir das Einheitsintervall [0,1] in n gleiche Teile. Sei k,n := X Tk X k/n mit T k = min inf{s > k/n : X s X k/n = ε}, k + 1/n. Für jedes n sind diese Größen offenbar unabhängig; nach 7.7 hat man 7.12 P k,n X k+1/n X k/n für ein 0 k < n δ; die Summation von 7.10a über die n Teilintervalle gibt, zusammen mit 7.10b: n = E n 1 2 X k+1/n X k/n E k,n 2 1 δ; E k,n = 0. k=0 k=0 us 7.13 liest man ab, dass das Dreiecksschema k,n j, 0 k < n j, den Voraussetzungen des Zentralen Grenzwertsatzes von Lindeberg-Feller zur Grenzverteilung N0, 1 genügt die Lindebergbedingung ist trivial wegen k,n j ε j, was auf 7.11 beruht. Wegen 7.12 ist jede Grenzverteilung von k k,n j auch Grenzverteilung von n j 1 Xk+1/n X k/n = X1, k=0 womit notwendig X 1 N0,1. Bemerkung lternativ lässt sich das Resultat von Satz 7.25 auch mithilfe der sog. Lévy-Khintchine-Formel beweisen; letztere stellt die unendlich teilbaren W-Maße als eventuell kontinuierliche Faltungs-Mischung von Dirac-, Normal- und Poissonverteilungen dar. Dabei heißt ein W-Maß P auf R unendlich teilbar, wenn für jedes n N iid Zufallsvariablen X 1,...,X n existieren mit n i=1 X i P. 65
14 66
3 Markov-Eigenschaft der Brownschen Bewegung
Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t
Stochastik-Praktikum
Stochastik-Praktikum Simulation stochastischer Prozesse Peter Frentrup Humboldt-Universität zu Berlin 27. November 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 27. November 2017
Der Poissonprozess. Kapitel 5
spielt in der stochastischen Modellierung eine fundamentale Rolle Grund ist seine verteilungsfreie Charakterisierung durch wenige qualitative Eigenschaften, die in zahlreichen Anwendungsbeispielen plausibel
7. Die Brownsche Bewegung
7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen
13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
Asymptotische Stochastik (SS 2010)
Institut für Stochastik PD. Dr. Dieter Kadelka Daniel Gentner Asymptotische Stochastik (SS 2010) Lösungen zu Übungsblatt 4 Aufgabe 1 (lokaler Grenzwertsatz von de Moivre und Laplace und eine Verallgemeinerung)
7. Die Brownsche Bewegung
7. DIE BROWNSCHE BEWEGUNG 2 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen
2 Martingale in stetiger Zeit
2 Martingale in stetiger Zeit Ziel dieses Abschnitts ist es die wichtigsten Resultate für Martingale aus diskreter Zeit in stetige Zeit zu übertragen. Wie zu erwarten ist treten in stetiger Zeit einige
1.3 Zufallsvariablen
1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P
Stochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
Brownsche Bewegung: Eine Einführung
Brownsche Bewegung: Eine Einführung Batu Güneysu Institut für Mathematik Humboldt-Universität zu Berlin Greifswald, 18.04.2018 Batu Güneysu Brownsche Bewegung: Eine Einführung 1 / 14 Wir fixieren m N und
Gesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung
Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
Hawkes Prozesse Grundlagen
Hawkes Prozesse Grundlagen Im Folgenden sei (Ω, F, F, P) eine stochastische Basis. Das heißt F = (F t ) t ist eine rechtsstetige Filtration mit F t F für alle t und P ein Wahrscheinlichkeitsmaß auf dem
Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung
Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
Satz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung
Satz von Borel-Cantelli Limes inferior von Mengen Limes superior von Mengen Stetigkeit Konvergenz von Zufallsvariablen Kolmogorow-Ungleichung Tschebyschow-Ungleichung Konvergenzkriterien Starkes Gesetz
Stochastische Prozesse Stoffzusammenfassung
Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 7. August 2018 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt
Wahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Kapitel 6 Martingale
Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse
Schwache Konvergenz von Wahrscheinlichkeitsmaßen
Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind
2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse
2 Halbgruppen von Übergangswahrscheinlichkeiten Markov-Prozesse Im Folgenden sei (X, B) ein (polnischer) Messraum und T = [0, ) oder T = N 0 Definition 21 Eine Familie (P t ) t T von (X, B) mit Übergangswahrscheinlichkeiten
Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie. Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze
Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie - Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze Klaus Kuchler 0. Januar 03 Zentraler Grenzwertsatz. Grundlagen,
4 Messbare Funktionen
4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und
Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen
Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess
Scheinklausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:
Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung
Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische
Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :
24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar
1 Konvergenz im p ten Mittel
Konvergenz im p ten Mittel 1 1 Konvergenz im p ten Mittel In diesem Paragraphen werden zunächst in Abschnitt 1.1 die L p Räume eingeführt. Diese erweisen sich als vollständige, lineare Räume über R. In
Erwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
2 Brownsche Bewegung. Wahrscheinlichkeitstheorie III Teil Der Wienerraum
8 Wahrscheinlichkeitstheorie III Teil 3 Brownsche Bewegung Wir haben die Brownsche Bewegung bereits als Grenzwert reskalierter Irrfahrten in der VL WTH II kennengelernt siehe dazu Abschnitt 5.. In diesem
Mathematische Ökonometrie
Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany [email protected] Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch
8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale
8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale 8.1 Der quadratische Variationsprozess eines stetigen, lokalen Martingals 8.3 Die quadratische Variation einer reellen Brownschen
3 Bedingte Erwartungswerte
3 Bedingte Erwartungswerte 3.3 Existenz und Eindeutigkeit des bedingten Erwartungswertes E A 0(X) 3.6 Konvexitätsungleichung für bedingte Erwartungswerte 3.9 Konvergenzsätze von Levi, Fatou und Lebesgue
22 Charakteristische Funktionen und Verteilungskonvergenz
22 Charakteristische Funktionen und Verteilungskonvergenz Charakteristische Funktionen (Fourier-Transformierte liefern ein starkes analytisches Hilfsmittel zur Untersuchung von W-Verteilungen und deren
Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik
Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind
Stochastische Integration Stochastische Differentialgleichungen Stochastische Partielle Differentialgleichungen. Dominic Breit
Dominic Breit 14.12.213 Outline 1 Stochastische Integration 2 3 Brwonsche Bewegung (1) Eine Brownsche Bewegung W = (W t ) t [,T ] über einem Wahrscheinlichkeitsraum (Ω, F, P) ist ein zeitstetiger stochastischer
20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen
20 Gleichmäßige Konvergenz für Folgen und Reihen von Funktionen 20.1 Folgen und Reihen von Funktionen 20.3 Die Supremumsnorm 20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20.7 Das Cauchy-Kriterium
Stoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016
Stoppzeiten und Charakteristische Funktionen Tutorium Stochastische Prozesse 15. November 2016 Inhalte des heutigen Tutoriums Im heutigen Tutorium besprechen wir: (1) Eindeutigkeit von Maßen ohne schnittstabilen
Definition 3.1. Sei A X. Unter einer offenen Überdeckung von A versteht man eine Familie (U i ) i I offener Mengen U i X mit U i
3 Kompaktheit In der Analysis I zeigt man, dass stetige Funktionen f : [a, b] R auf abgeschlossenen, beschränkten Intervallen [a, b] gleichmäßig stetig und beschränkt sind und dass sie ihr Supremum und
Finanzmathematik I Lösungvorschläge für Übungsblatt 1
Finanzmathematik I Lösungvorschläge für Übungsblatt 1 J. Widenmann ufgabe 1: Zu zeigen ist, dass Q die Definition Ü.1.1.2 erfüllt. Zunächst bemerken wir, dass Q wegen der nnahme f 0 Werte in R + annimmt.
2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
sign: R R, sign(x) := 0 falls x = 0 1 falls x < 0 Diese ist im Punkt x 0 = 0 nicht stetig, denn etwa zu ε = 1 finden wir kein δ > 0
ANALYSIS FÜR PHYSIK UND VERWANDTE FÄCHER I 81 3. Stetigkeit 3.1. Stetigkeit. Im Folgenden sei D R eine beliebige nichtleere Teilmenge. Typischerweise wird D ein allgemeines Intervall sein, siehe Abschnitt
Reelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
Die Spektralzerlegung Cramér-Darstellung und Satz von Bochner
Die Spektralzerlegung Cramér-Darstellung und Satz von Bochner Ein wichtiges Charakteristicum eines quadratintegrablen stationären Prozesses X ist seine Kovarianzfunktion c(.), gegeben durch c(m) = EX t
Kapitel III. Stetige Funktionen. 14 Stetigkeit und Rechenregeln für stetige Funktionen. 15 Hauptsätze über stetige Funktionen
Kapitel III Stetige Funktionen 14 Stetigkeit und Rechenregeln für stetige Funktionen 15 Hauptsätze über stetige Funktionen 16 Konvergenz von Funktionen 17 Logarithmus und allgemeine Potenz C 1 14 Stetigkeit
Klausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 003/004 Universität Karlsruhe 05. 04. 004 Prof. Dr. G. Last Klausur zur Vorlesung Stochastik II Dauer: 90 Minuten Name: Vorname: Matrikelnummer: Diese Klausur hat
2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
Einführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
Stochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 9 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 40: Es sei (X t ) t 0 ein
Höhere Mathematik I für die Fachrichtung Informatik. Lösungsvorschläge zum 4. Übungsblatt
KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heiko Hoffmann WS 0/4 Höhere Mathematik I für die Fachrichtung Informatik Lösungsvorschläge zum 4. Übungsblatt Aufgabe
Kapitel 5 KONVERGENZ
Kapitel 5 KONVERGENZ Fassung vom 21. April 2002 Claude Portenier ANALYSIS 75 5.1 Metrische Räume 5.1 Metrische Räume DEFINITION 1 Sei X eine Menge. Eine Abbildung d : X X! R + heißt Metrik oder Distanz
30 Die Gammafunktion und die Stirlingsche Formel
3 Die Gammafunktion und die Stirlingsche Formel 35 Charakterisierung der Gammafunktion 36 Darstellung der Gammafunktion 38 Beziehung zwischen der Gammafunktion und der Zetafunktion 3 Stirlingsche Formel
Mathematik für Physiker, Informatiker und Ingenieure
Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel IV SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG [email protected] http://www2.mathematik.uni-wuerzburg.de
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
Grundlagen der Verteilungskonvergenz zufälliger Funktionen (vorläufige Version)
KAPITEL 7 Grundlagen der Verteilungskonvergenz zufälliger Funktionen (vorläufige Version) In diesem Kapitel tragen wir die wichtigsten Grundlagen über die Verteilungskonvergenz zufälliger Funktionen zusammen,
Beispiel. Gegeben sei die Folge (a n ) n N mit. a n := n 2 + 5n + 1 n. Es gilt. (n 2 + 5n + 1) n 2 = n2 + 5n + 1 n) n2 + 5n n, woraus folgt
Beispiel. Gegeben sei die Folge (a n ) n N mit a n := n 2 + 5n + 1 n Es gilt ( ( ) (n 2 + 5n + 1) n 2 = n2 + 5n + 1 n) n2 + 5n + 1 + n, woraus folgt a n = (n2 + 5n + 1) n 2 n2 + 5n + 1 + n = 5n + 1 n2
Analysis I. Guofang Wang Universität Freiburg
Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum
Stetige Funktionen. Definition. Seien (X, d) und (Y, D) metrische Räume und f : X Y eine Abbildung. i) f heißt stetig in x 0 (x 0 D(f)), wenn
Stetige Funktionen Eine zentrale Rolle in der Analysis spielen Abbildungen f : X Y, wobei X und Y strukturierte Mengen sind (wie z.b. Vektorräume oder metrische Räume). Dabei sind i.a. nicht beliebige
8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
18 Höhere Ableitungen und Taylorformel
8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a
piiq oder p 8, aq, p 8, as, pa, `8q, ra, `8q mit einer reellen Zahl a; piiiq oder p 8, `8q R. [6 Punkte] Achtung: Denken Sie auch an den Fall I!
Analysis I Wintersemester 2015/16 9. Übungsblatt, Lösungsbeispiele Jun. Prof. Dr. Christian Reiher, Pascal Gollin Alexander Block, Hendrik Niehaus, Jakob Kneip, Jakob Schnitzer Aufgabe 5 Es sei I Ď R eine
3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte
Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +
Stochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN
8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN (vi) Konvergenz von Folgen ist in topologischen Räumen folgendermaßen definiert: Ist (a n ) M eine Folge, so heißt sie konvergent gegen a M, wenn es
Charakteristische Funktionen
Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die
Häufungspunkte und Satz von Bolzano und Weierstraß.
Häufungspunkte und Satz von Bolzano und Weierstraß. Definition: Sei (a nk ) k N eine konvergente Teilfolge der Folge (a n ) n N.Dannwirdder Grenzwert der Teilfolge (a nk ) k N als Häufungspunkt der Folge
Schwache Konvergenz. Kapitel 8
Im Hinblick auf die funktionalen Grenzwertsätze wird in diesem Kapitel die Theorie der schwachen Konvergenz endlicher Maße auf separablen metrischen, vorallem polnischen Räumen entwickelt. In dieser Situation
Ferienkurs Analysis 1, SoSe Unendliche Reihen. Florian Beye August 15, 2008
Ferienkurs Analysis 1, SoSe 2008 Unendliche Reihen Florian Beye August 15, 2008 1 Reihen und deren Konvergenz Definition 1.1. Eine reelle bzw. komplexe Reihe ist eine unendliche Summe über die Glieder
10 Kriterien für absolute Konvergenz von Reihen
10 Kriterien für absolute Konvergenz von Reihen 10.1 Majoranten- und Minorantenkriterium 10.3 Wurzelkriterium 10.4 Quotientenkriterium 10.9 Riemannscher Umordnungssatz 10.10 Äquivalenzen zur absoluten
Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried
Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,
10 Der Satz von Radon-Nikodym
uch im Sinne einer Vorabinformation vor der Stochastik-Vorlesung wollen wir abschließend kurz absolut stetige Maße und den Satz von Radon-Nikodym streifen. Definition 10.1. Seien (, M) ein messbarer Raum
MAA = MAB + B AA = B CA + CAA BA A Nun sehen wir mit Proposition 10.7 aus dem Skript, dass A M AB gelten muss.
1. Konvexität in der absoluten Ebene In einem Dreieck in der Euklidischen Ebene hat die Strecke zwischen zwei Seitenmittelpunkten die halbe Länge der dritten Seite. In der absoluten Ebene hat man eine
Lösungen zur Übungsserie 9
Analysis 1 Herbstsemester 2018 Prof. Peter Jossen Montag,? November Lösungen zur Übungsserie 9 Aufgaben 1,2,3,5,6,8,9,11 Aufgabe 1. Sei a R. Berechnen Sie die folgenden Grenzwerte, falls sie existieren.
(alternierendes Vorzeichen) a n := ( 1)n n + 1 a n := 3n 2 7n a n := n(n 1)(n 2), n 3
ANALYSIS FÜR PHYSIK UND VERWANDTE FÄCHER I 43 2. Folgen und Reihen Folgen und Reihen werden in jedem Analysislehrbuch besprochen, siehe etwa [H, Kapitel III], [K, Kapitel 5], [J2, Kapitel 23] oder [M,
Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm
Brownsche Bewegung Satz von Donsker Bernd Barth Universität Ulm 31.05.2010 Page 2 Brownsche Bewegung 31.05.2010 Inhalt Einführung Straffheit Konvergenz Konstruktion einer zufälligen Funktion Brownsche
Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten
Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem
2. Integration. {x : f(x) <a+ 1 n }
9 2.1. Definition. 2. Integration in Maß ist eine nichtnegative, abzählbar additive Mengenfunktion. in Maßraum ist ein Tripel (X,,µ) bestehend aus einem messbaren Raum X mit der -lgebra und einem auf definierten
1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
2 Stationarität. Strikte Stationarität
2 Stationarität. Strikte Stationarität Die in 1 benutzten Begriffe sind noch zu präzisieren : Definition 2.1. a) Ein stochastischer Prozess {X t } t T heißt strikt stationär, falls für je endlich viele
Abgabetermin: 5. Mai 2017, Uhr
Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung
,...) ist eine Folge, deren Glieder der Null beliebig nahe kommen. (iii) Die Folge a n = ( 1) n + 1 n oder (a n) = (0, 3 2, 2 3, 5 4, 4 5
3 Folgen 3.1 Definition und Beispiele Eine Abbildung a : Æ Ê heißt (reelle) Zahlenfolge. Statt a(n) schreiben wir kürzer a n und bezeichnen die ganze Folge mit (a n ) n Æ oder einfach (a n ), was aber
OLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
Konvergenz im quadratischen Mittel - Hilberträume
CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften
GRUNDLAGEN MATHEMATIK
Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik GRUNDLAGEN MATHEMATIK 2. Folgen Prof. Dr. Gunar Matthies Wintersemester 2015/16 G. Matthies Grundlagen Mathematik
DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr
Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen
Klausur,,Einführung in die W theorie
Institut für angewandte Mathematik Wintersemester 017/18 Andreas Eberle, Maximilian Fels Klausur,,Einführung in die W theorie Bitte diese Felder in Druckschrift ausfüllen Name: Matrikelnr.: Vorname: Studiengang:
1. Übungsblatt. Markus Reiß Kursusvorlesung Stochastische Prozesse Sommersemester 2006
Sommersemester 26 1. Übungsblatt 1. Zeige: Ist X Poisson(s)- und Y Poisson(t)-verteilt und sind X und Y unabhängig, so ist X + Y Poisson(t + s)-verteilt (t, s > ). Das heißt, es gilt die Eigenschaft einer
Gegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
Vorlesungsskript: Martingale
Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................
