Einiges über die Brown sche Bewegung

Größe: px
Ab Seite anzeigen:

Download "Einiges über die Brown sche Bewegung"

Transkript

1 Einiges über die Brown sche Bewegung Gunther Leobacher und Friedrich Pillichshammer Inhaltsverzeichnis Definition und Existenz einer Brown schen Bewegung Einige elementare Eigenschaften der Brown schen Bewegung 8 3 Die Verteilung des Maximums der Brown schen Bewegung 4 Die Nullstellen der Brown schen Bewegung 3 5 Eine Pfadeigenschaft der Brown schen Bewegung 6 6 Brown sche Bewegungmit Drift 8 Definition und Existenz einer Brown schen Bewegung Einer der einfachsten nicht-trivialen Zeit-stetigen stochastischen Prozesse ist die sog. Brown sche Bewegung welche oft auch Wiener Prozess genannt wird. Dieser Prozess ist benannt nach dem schottischen Botaniker Robert Brown, welcher bei der Beobachtung von kleinen in Flüssigkeit schwimmenden Partikeln eine erratische Zickzack-Bewegung feststellte. Die Brown sche Bewegung spielt eine zentrale Rolle in der Theorie der stochastischen Prozesse und sie tritt in verschiedensten Anwendungen auf wie zb. der Beschreibung von Finanzmärkten Aktienkurse. Vor allem aber stellt sie einen wichtigen Bauteil für die Konstruktion anderer stochastischer Prozesse dar. Wir betrachten hier nur die eindimensionale Brown sche Bewegung. Man kann sich die Brown sche Bewegung vorstellen als Zeit-stetige Approximation einer symmetrischen Irrfahrt auf Z, wobei die Schrittgröße normiert verkleinert wird und die Zeitsprünge gegen gehen. Definition Einen stochastischen Prozess B Bt t nennt man standard-brown - sche Bewegung wenn er folgende Eigenschaften erfüllt:. B,. B hat unabhängige Anstiege, dh. für u < v s < t sind Bv Bu und Bt Bs unabhängige Zufallsvariablen, 3. für s < t ist Bt Bs N, t s,

2 Abbildung : Verschiedene Irrfahrten, auf R mit m N, σm-verteilten unabhängigen Sprüngen. σ m ist dabei so gewählt, dass die Summe aller Sprünge Varianz hat, also m σm. Die Bilder zeigen Graphen für m 6, 64, 56, B ist stetig mit Wahrscheinlichkeit, dh. PB C[,. Wir werden das Wort standard meist weglassen. Es gibt allerdings leicht verallgemeinerte Begriffe, welche auch den Namen Brown sche Bewegung tragen, etwa die Brown sche Bewegung mit Startpunkt a R bzw. zufälligem Startpunkt X. Weiters werden wir später auch ein Brown sche Bewegung mit Drift betrachten. Wir werden nun zeigen, dass eine Brown sche Bewegung existiert. Satz Wiener Eine Brown sche Bewegung existiert. Wir benötigen einige Vorbereitungen. Definition Seien X,...,X n Zufallsvariable auf der gleichen Ereignismenge Ω mit gemeinsamer Verteilungsfunktion F X,...,X n. Die gemeinsame charakteristische Funktion von X,...,X n ist definiert als ψ X,...,X n u,..., u n : E e iu X + +u nx n e iu x + +u nx n df X,...,X n x,...,x n. Lemma Die Zufallsvariable X,..., X n sind genau dann unabhängig, wenn ψ X,...,X n u,...,u n ψ X u ψ Xn u n.

3 Beweis. Einfache Übung. Lemma Es gilt x e u / du e x / x. Beweis. Mit Produktintegration folgt Also gilt x e x / x / du / u e u u e u x x + u e u / du x x e u / du. e u / du. Lemma 3 Seien X, X zwei Zufallsvariable mit gemeinsamer Dichtefunktion fx DetπD e x µd x µ wobei x x, x R, µ µ, µ und D eine reelle, symmetrische, positiv definite -Matrix ist. Dann sind X, X genau dann unabhängig, wenn CovX, X. Beweis. Da D positiv definit ist, muss σ D ρσ σ ρσ σ σ. sein mit σ, σ R und ρ < Übung. O.B.d.A. gilt σ, σ,. Wir schreiben nun f als fx, x πσ σ ρ e Mittels Integration erhält man nun ρ x µ σ «ρx µ x µ + x µ σ σ σ. EX i µ i und V X i σi für i {, } und CovX, X ρσ σ. Falls CovX, X, dann ist also ρ und somit gilt fx, x e x µ σ e x µ σ. πσ πσ Also sind X und X unabhängig. Die Umkehrung ist bekannterweise auch richtig. Wir kommen nun zum Beweis von Satz. 3

4 Beweis. Wir konstruieren zuerst eine Brown sche Bewegung auf dem Intervall [, ]. Für N,,,... sei D N die Menge der ganzzahligen Vielfachen von N in [, ], dh. { } k D N : k {,.. N.,N } und weiters D : D N. N N Wir sagen Bt t DN ist eine Brown sche Bewegung mit Index D N, falls B und für alle t < t <... < t n in D N die Zuwächse Bt Bt,..., Bt n Bt n unabhängige, normal-verteilte Zufallsvariable mit Erwartungswert und Varianzen t t,...,t n t n sind. Für jedes t D seien Y t unabhängige Zufallsvariable mit Y t N,. Wir werden nun wie folgt vorgehen: Wir konstruieren induktiv für jedes N N eine Brown sche Bewegung mit Index D N. Daraus erhalten wir eine Brown sche Bewegung mit Index D welche wir stetig für t [, ] erweitern. Am Ende zeigen wir, dass man dadurch eine Brown sche Bewegung auf [, ] erhält. Für t D {, } sei { falls t, Bt Y sonst. Dann ist Bt t D eine Brown sche Bewegung mit Index D. Angenommen Bt t DN ist eine Brown sche Bewegung mit Index D N. Sei t D N \ D N, dh. t ist von der Form t k + N. Seien r : t N und s : t + N sodass also r, s D N. Wir definieren nun die Zufallsvariable Dann gilt Zt : Bt Br Br + Bs N+/Y t und Bt : + Zt. Br + Bs + Zt Br Bs Br + Zt und Br + Bs Bs Br Bs Bt Bs Zt Zt. Also sind Bt Br und Bs Bt normal-verteilte Zufallsvariable und und EBt Br EBs Bt EBt Br 4 EBs Br + EBs BrZt + EZt V Bs Br + EBs BrEZt + V Zt 4 s r 4 + N+ N t r. 4

5 B N k+ N B N k N Z N k+ N B N k+ N k k+ k+ D N N D N N \ D N N D N Abbildung : Der Prozess B N t t [,. Analog zeigt man Damit folgt nun EBs Bt N s t. Weiters ist Bt Br N, t r und Bs Bt N, s t. E Bt BrBs Bt E 4 Bs Br Zt V Bs Br V Zt 4 s r 4. N+ Mit Hilfe von Lemma 3 folgt nun, dass Bt Br und Bs Bt unabhängig sind. Weiters sind die beiden Zuwächse sicher von allen Zuwächsen über Intervalle außerhalb von r, s unabhängig, da sie ja aus Bs Br und Y t konstruiert wurden. Somit ist Bt t DN eine Brown sche Bewegung mit Index D N. Für jedes N N sei nun B N t t jener stetige Prozess, den man durch lineare Interpolation aus Bt t DN erhält. Weiters sei siehe Abbildung, Z N t : B N t B N t. Für t D N ist natürlich Z N t. Für t D N \ D N ist Z N t Bt Bt N + Bt + N Zt Y t. N+ 5

6 Sei nun siehe Abbildung M N : sup Z N t sup B N t B N Y t t sup. t t t D N \D N Da D N \ D N genau N Elemente enthält gilt P M N > x/ P sup Y t > x N t D N \D N N PY > x N π N+ N P Y > x x e t N e x dt π x, wobei wir Lemma verwendet haben. Wir wählen nun x N und erhalten N P M N > N e N+ N N π N c e mit einer Konstanten c >. Also gilt N P M N > N c N < N e N und mit Hilfe des ersten Borel-Cantelli Lemmas folgt nun N P M N > unendlich oft. N Also gibt es ein größtes N abhängig von ω mit M N > N. Für große N gilt nun mit N Wahrscheinlichkeit, dass N M N N und somit folgt mit Wahrscheinlichkeit, dass M N <. sup t N Die Folge {{B N t : t } : N } C[, ] ist mit Wahrscheinlichkeit eine Cauchy-Folge, da für n < m gilt B n t B m t Mn+ + + M m für n, m mit Wahrscheinlichkeit. Da C[, ] ein vollständiger, metrischer Raum ist existiert nun lim N B N in C[, ] mit Wahrscheinlichkeit. Wir definieren also { limn B B : N falls der Grenzwert existiert, sonst auf einer Menge mit Wahrscheinlichkeit. Wir zeigen noch, dass B eine Brown sche Bewegung auf [, ] ist. 6

7 . Es ist B.. Die Pfade von B sind mit Wahrscheinlichkeit stetig, da B der gleichmäßige Grenzwert stetiger Funktionen ist. 3. Für t > s ist fast sicher und Für n folgt Bt Bs lim n B n B n t n n t n n s B n n n s B n n N, tn sn. n n n Bt Bs N, t s, da aus Konvergenz fast sicher die Konvergenz in Verteilung folgt. 4. B hat unabhängige Anstiege, da dies für B N gilt und diese Eigenschaft beim Grenzübergang erhalten bleibt. Das sieht man zb. unter Verwendung von charakteristischen Funktionen. Sei u < v < s < t. Dann gilt mit Hilfe von Lemma, E e iθbt Bs e iθ Bv Bu lim E e iθ B N t B Ns e iθ B N v B N u N lim E e iθ B N t B N s N E E e iθ Bt Bs E e iθ Bv Bu. e iθ B N v B N u Nach Lemma sind Bt Bs und Bv Bu unabhängig. Wie erhält man nun eine Brown sche Bewegung auf [,? Seien dazu B, B, B 3,... unabhängige Brown sche Bewegungen auf [, ]. Für t [n, n + definieren wir nun n Bt : B k + B n+ t n. Dann ist B eine Brown sche Bewegung auf [,, denn es gilt:. B. k. Sei s < t, wobei s [m, m + und t [n, n + mit m, n N und m n. Für m < n gilt n m Bt Bs B k + B n+ t n B k + B m+ s m k n km+ n km+ k B k + B n+ t n B m+ s m B k + B n+ t n + B m+ B m+ s m. 7

8 Da B k N,, B n+ t n N, t n und B m+ B m+ s m N, s + m und wegen der Unabhängigkeit der entsprechenden Zufallsvariablen folgt nun Bt Bs N, n m + t n + s + m N, t s. Falls n m, dann gilt die Aussage trivialerweise auch. 3. Sei u < v s < t und seien u [l, l +, v [k, k +, s [m, m + und t [n, n + mit l, k, m, n N und l k m n. Seien zunächst l < k und m < n. Dann ist Bv Bu k il+ B i + B k+ v k + B l+ B l+ u l und n Bt Bs B i + B n+ t n + B m+ B m+ s m. im+ Falls k < m, dann sieht man sofort, dass Bv Bu unabhängig von Bt Bs ist. Sei also k m. Es ist B k+ v k unabhängig von B k+ B k+ s k da v s und somit v k s k. Also ist Bv Bu unabhängig von Bt Bs. Falls l k m n, dann ist trivialerweise Bv Bu unabhängig von Bt Bs. Betrachte den Fall l < k m n. Dann ist Bt Bs B k+ t k B k+ s k unabhängig von B k+ v k und somit von Bv Bu. Die restlichen Fälle kann man sich analog überlegen. 4. Nach Konstruktion ist Bt genau dann stetig auf [,, wenn B k t für alle k N auf [, ] stetig ist. Also gilt PB C[, P [B k C[, ]] k P [B k C[, ]] k PB k C[, ]. k Damit ist Satz vollständig bewiesen. Einige elementare Eigenschaften der Brown schen Bewegung Wir werden hier einige einfache Eigenschaften der Brown schen Bewegung zusammenfassen. 8

9 Eigenschaft Sei Bt t eine Brown sche Bewegung und sei s > fest gewählt. Dann ist der Prozess B s t t definiert durch B s t Bt + s Bs, t wieder eine Brown schen Bewegung. Diese Eigenschaft nennt man Differentialeigenschaft der Brown schen Bewegung. Beweis. Es gilt:. B s Bs Bs.. Zu zeigen, dass B s unabhängige Anstiege hat, ist eine einfache Übung. 3. Für t < t gilt B s t B s t Bt + s Bt + s N, t t. 4. Falls Bt stetig ist, dann auch Bs+t und somit auch B s t Bt+s Bs. Eigenschaft Sei Bt t eine Brown sche Bewegung. Dann ist auch Bt t eine Brown sche Bewegung. Diese Eigenschaft nennt man Symmetrie der Brown schen Bewegung. Beweis. Der Beweis dieser Eigenschaft ist eine einfache Übung. Eigenschaft 3 Sei Bt t eine Brown sche Bewegung und sei c >. Dann ist auch cbt/c t eine Brown sche Bewegung. Diese Eigenschaft nennt man Skalierungseigenschaft der Brown schen Bewegung. Beweis. Es gilt:. cb/c cb.. Für s < t gilt cbt/c cbs/c cbt/c Bs/c N, s t. }{{} N,t s/c 3. Für u < v s < t gilt u/c < v/c s/c < t/c und somit sind Bv/c Bu/c und Bt/c Bs/c unabhängig. Diese Unabhängigkeit bleibt erhalten, wenn man mit c multipliziert. 4. Falls Bt auf [, stetig ist, dann ist auch cbt/c auf [, stetig. 9

10 Eigenschaft 4 Sei Bt t eine Brown sche Bewegung. Sei s < t und sei A BR die Borelsche σ-algebra auf R. Dann gilt PBt A Bs x PBt Bs A x Bs x PBt Bs A x, da Bt Bs und Bs Bs B unabhängig sind. Wegen Bt Bs N, t s gilt also PBt A Bs x πt s πt s e y t s dy A x A e y x t s dy : pa, x, t s. Die Brown sche Bewegung ist also ein Markov Prozess mit stationären Übergangswahrscheinlichkeiten. Eigenschaft 5 Sei < s < t. Dann sind Bs und Bt abhängig. Wir berechnen nun die Korrelation der beiden Zufallsvariablen. Es gilt CovBs, Bt EBs EBsBt EBt EBsBt EBsBs + Bt Bs EBs + EBs BBt Bs V Bs + EBs BEBt Bs s. Die Brown sche Bewegung ist also ein Gauß scher Prozess mit Kovarianzfunktion min{s, t}. Weiters ist KorrBs, Bt s s,. s t t Eigenschaft 6 Sei Bt t eine Brown sche Bewegung und sei a >. Sei T a : inf{t : Bt a} T a ist eine Zufallsvariable!. Wir definieren nun den Prozess B a t t durch siehe Abbildung 3, { Bt falls t Ta, B a t a Bt falls t > T a. Dann ist ohne Beweis B a t t eine Brown sche Bewegung. Diese Eigenschaft nennt man Reflexionseigenschaft der Brown schen Bewegung. Bemerkung: Man kann zeigen, dass PT a <. Eigenschaft 7 Sei Bt t eine Brown sche Bewegung und sei a >. Sei T a wie oben definiert. Dann ist Bt t, definiert durch Bt : BT a +t BT a, eine Brown - sche Bewegung welche unabhängig ist vom Pfad von B bis zum Zeitpunkt T a. Diese Eigenschaft folgt aus der sog. strong independent increments property der Brown - schen Bewegung ohne Beweis. Streng genommen muss man sich och überlegen, was die Bedeutung der bedingten Wahrscheinlichkeit hier ist: für PA > ist PB A PB A/PA. Aber PBs x.

11 .6.4. a T a Abbildung 3: Reflexion der Brown schen Bewegung. 3 Die Verteilung des Maximums der Brown schen Bewegung Für t sei Mt : max s t Bs. Dann ist Mt eine Zufallsvariable. Da eine stetige Funktion auf einem kompakten Intervall ein Maximum annimmt, existiert Mt mit Wahrscheinlichkeit. Wir werden nun die Dichte- und Verteilungsfunktion und den Erwartungswert von Mt bestimmen. Dazu benötigen wir zunächst ein Hilfsresultat. Proposition Sei Bt t eine Brown sche Bewegung. Für a > und y gilt dann PBt a y, Mt a PBt a + y. Beweis. Zunächst ist klarerweise Mt a genau dann, wenn Weiters gilt Darum, und da B B a gilt nun T a inf{s : Bs a} t. T a T a : inf{s : B as a}. PBt a y, Mt a PBt a y, T a t PB a t a y, T a t Pa Bt a y, T a t PBt a + y, T a t PBt a + y,

12 da für y aus Bt a + y folgt, dass T a t. Nun erhalten wir folgendes Resultat. Korollar Für a ist PMt a PBt a Beweis. Mit Proposition für y gilt πt a e x t dx. PMt a PMt a, Bt a + PMt a, Bt > a PBt a + PMt a, Bt > a PBt a e x t dx. πt a Nun erhalten wir folgenden Satz. Satz Sei a. Die Verteilungsfunktion von Mt lautet a PMt a t dx. Die Dichtefunktion von Mt ist gegeben durch x πt e Beweis. Aus Korollar folgt f Mt x x πt e t. PMt a PMt a πt πt a πt Durch ableiten erhält man die Dichtefunktion. Korollar Es gilt Beweis. Es gilt EMt πt a EMt e x t dx e x t dx e x t dx. xe x t dx t πt t π. πt a e x t dx x e x t t dx t π.

13 Wir bestimmen noch Dichte- und Verteilungsfunktion und Erwartungswert der Zufallsvariable T a. Korollar 3 Für t ist und für x > gilt PT a t f Ta x e x t dx πt a a π e a x x 3. Beweis. Es gilt PT a t PMt a und die Formel für die Verteilungsfunktion folgt aus Satz. Durch Differentiation der Verteilungsfunktion erhält man die Dichtefunktion, f Ta t d dt PT a t d e x t dx. dt πt Es ist πt a e x t dx π a/ t e u du π a/ t a e u a du N t wobei Nx die Verteilungsfunktion einer N, verteilten Zufallsvariable ist. Da at N e a t π folgt die Behauptung. Es gilt also ET a a πt e a t dt. 4 Die Nullstellen der Brown schen Bewegung Sei < t < t. Wie groß ist die Wahrscheinlichkeit, dass ein brownscher Pfad eine Nullstelle im Intervall t, t hat? Zur Beantwortung dieser Frage benötigen wir zwei Hilfsresultate. Lemma 4 Sei X N,. Für a gilt dann P X a π und f X a wobei f X die Dichtefunktion von X ist. 3 a a π e e x dx

14 Beweis. Es ist P X a P a X a π a a e x dx π a e x dx. Die Dichtefunktion erhält man durch Differentiation der Verteilungsfunktion nach a. Lemma 5 Seien X und X unabhängige, N, -verteilte Zufallsvariable. Dann ist die Zufallsvariable X X Cauchy-verteilt mit Parameter a und b. Dh. für x R gilt bzw. f X x X π + x F X x X + π arctanx. Beweis. Sei Y : X / X und D Y a : PY a. Dann gilt Es ist D Y a PY > a PX > a X Also gilt unter Verwendung von Lemma 4 PX > av Nav. PX > avf X v dv. Weiters gilt F Y x f Y a d da D Y a x d da π π Navf X v dv N avvf X v dv e av v π f Y a da π e v a + v dv e v a + dv π x v π e dv a +. a + da + π arctanx. Nun zur eigentlichen Fragestellung. Satz 3 Für < t < t gilt PBt für ein t t, t π arccos t. t 4

15 Beweis. Sei n, t, a die Dichtefunktion einer N, t-verteilten Zufallsvariable. Mit der Markoveigenschaft der Brown schen Bewegung gilt PBt f. e. t t, t PBt f. e. t t, t Bt af Bt a da PBt t f. e. t t, t t Bt t an, t, a da PBt f. e. t, t t B an, t, a da. Sei nun mt : min s t Bs. Dann gilt PBt f. e. t t, t Korollar + Pmt t B a n, t }{{}, a da PMt t B a PMt t > B an, t, a da PMt t B an, t, a da PMt t a B n, t, a da PBt t a }{{} PBt t a+pbt t a n, t, a da PBt t an, t, a da + PBt t an, t, a da. }{{} R PBt t an,t,a da Da Bt Bt gilt PBt t a PBt t a und somit folgt PBt f. e. t t, t PBt t a n, t, a da PBt Bt a n, t, a da PBt Bt a Bt an, t, a da PBt Bt Bt, da Bt Bt und Bt unabhängig sind. Es ist Bt Bt N, t t, also Bt Bt X t t mit X N, und Bt N, t, also Bt X t mit X N,. Damit gilt mit Hilfe von 5

16 β t t α π t t Abbildung 4: Beweis für arccos t t π arctan t t t. Lemma 5, PBt f. e. t t, t PX t t X t X P X t t t π arctan t t t π π arctan t. t t Betrachte nun Abbildung 4. Es ist sin α t /t, cos β t /t und cos α t t /t. Also ist tan α t /t t und wir erhalten arccos t t β π α π arctan t. t t Damit folgt dann die Behauptung. 5 Eine Pfadeigenschaft der Brown schen Bewegung Per Definition ist fast jeder Pfad einer standard Brown schen Bewegung stetig auf [,. In diesem Kapitel beschäftigen wir uns mit der Frage nach der Differenzierbarkeit eines Brownschen Pfades. Es gilt Satz 4 Fast alle Pfade einer Brown schen Bewegung Bt t sind nirgends differenzierbar auf [,, da P t : lim sup Bt + h Bt h h +. Bevor wir obigen Satz beweisen, zeigen wir ein einfaches Lemma, welches aber bereits einen Hinweis auf obiges Resultat gibt. Dieses Lemma werden wir später im Beweis von Satz 4 benötigen. 6

17 Lemma 6 Sei M >. Für alle t [, und n N gilt dann Bt + n P Bt M M. n n Beweis. Da Bt t eine Brown sche Bewegung ist, folgt Bt + Bt N, und n n somit ist nbt + Bt N,, also standard normalverteilt. Damit folgt n Bt + n P Bt M P nbt + Bt M n n n n M/ n π Für alle x R ist e x und somit gilt Bt + n P Bt M M/ n e x dx π π M n. M/ n e x dx. Da /π < folgt die Behauptung. Beweis von Satz 4. Wegen der Differentialeigenschaft einer Brown schen Bewegung reicht es aus zu zeigen, dass P t [, : lim sup Bt + h Bt h h +. Sei M [, und { A M : ω : t [, mit lim sup h Bt + h Bt h } M. Wir zeigen nun P A M für alle M [,. Daraus folgt dann die Behauptung. Falls ω A M, dann existiert ein t [, und ein n N, sodass für alle n n gilt Bs Bt M t s falls t s. Für n N definieren wir nun die Menge n A n : Dann gilt natürlich { ω : t [, mit Bs Bt M t s falls t s n A n A n+ n N und A M A n. n }. Also folgt P A M P n A n lim n PA n, 7

18 dh. wir haben PA n für große n N zu betrachten. Für ω A n gibt es ein t [, mit der Eigenschaft Bs Bt M t s j falls t s. Sei nun i sup { j : t} i, dh. t < i+. Da t < kann man n so n n n n groß wählen, dass i n 3. Dann gilt B i n Bi+ n Analog zeigt man auch B i n M Bt + Bt Bi+ + M M. n n n n Sei nun B i+ n Bi+ n 3M n und B i+ n Bi+3 n 5M n. Y i,n : max { B i n Bi+ n, Bi+ n Bi+, Bi+ n n Bi+3 }. n Damit gilt für hinreichend große n N, {ω : t [, mit Y i,n 5Mn } für das zu t gehörige i Also ist A n n 3 i Mit Lemma 6 folgt nun { ω : Y i,n 5M n } : B n. lim PA n lim PB n. n n PB n n 3 i P { ω : Y i,n 5M n n 3 } i 5M n 3 5M3 n. Somit ist lim n PB n und auch P A M. Das Resultat folgt. 6 Brown sche Bewegungmit Drift In vielen Anwendungen benötigt man eine etwas verallgemeinerte Definition der Brown - schen Bewegung. Definition 3 Sei Bt t eine Brown sche Bewegung und sei µ R. Der Prozess B µ t t mit B µ t : Bt + µt heißt Brown sche Bewegung mit Drift µ. Im Folgenden sei immer µ < angenommen. Für a R gilt dann Bt PB µ t a PBt a µt P a µ t t t A/ t µ t π 8 e x dx,

19 . Bt Bt + µt t Abbildung 5: Brown sche Bewegung mit Drift. falls t, da µ <. Also ist lim B µt t mit Wahrscheinlichkeit. Insbesondere gilt mit Wahrscheinlichkeit, dass M µ : sup B µ t <, t< dh. fast jeder Pfad geht nach unten. Wir bestimmen nun die Wahrscheinlichkeitsverteilung von M µ. Gesucht ist also PM µ a für a R. Seien dazu zunächst a, b. Wir bestimmen PM µ < a + b. Um a + b zu erreichen, muss man zunächst einmal a in endlicher Zeit T a erreichen siehe Abbildung 5. Hier beginnt man eine neue Brown sche Bewegung mit Drift welche unabhängig ist von dem, was vor dem Zeitpunkt T a geschieht. Mit dieser Brown schen Bewegung mit Drift muss man dann zu b kommen. Also gilt PM µ > a + b PM µ > apm µ > b. Für einen exakten Beweis dieser Tatsache würden wir die sog. strong independent increments property der Brown schen Bewegung benötigen siehe Eigenschaft 7. Sei nun fa : PM µ > a, dann gilt also fa + b fafb. Da f nicht die Nullfunktion ist folgt, dass f. Die Lösung dieser Funktionalgleichung sind Exponentialfunktionen der Form fa e ca mit c >, dh. PM µ > a e ca. 9

20 Wir müssen nur noch die Konstante c > bestimmen. Es gilt e ca PM µ > a PB µ t a für ein t PBt + µt a für ein t. Da µ < folgt, dass B µ erst nach B den Wert a erreicht. Der Prozess B erreicht a zum ersten mal zum Zeitpunkt T a. Damit ist obige Wahrscheinlichkeit gleich PBT a + t + µt a + t a für ein t PBT a + t + µt a + t BT a für ein t PBT a + t BT a + µt µt a für ein t PB µ t µt a für ein t, da BT a + t BT a eine Brown sche Bewegung ist, und somit unabhängig ist vom Pfad von B bis zu T a siehe Eigenschaft 7. Also gilt nun e ca PB µ t µt a für ein t PM µ µt a PM µ µy T a yf Ta y dy, wobei f Ta die Dichtefunktion der Zufallsvariable T a ist. Aus Korollar 3 wissen wir bereits, dass für y gilt f Ta y a e a y y 3. π Damit und da PM µ µy T a y PM µ µy e cµy folgt nun e ca e cµy a e a y y 3 dy e a c µ. π Somit ist c c µ bzw. c µ. Es gilt also folgender Satz. Satz 5 Für eine Brown sche Bewegung B µ t t mit negativer Drift µ ist das Supremum M µ mit Wahrscheinlichkeit endlich und exponential verteilt, dh. für x gilt PM µ > x e µx.

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm Brownsche Bewegung Satz von Donsker Bernd Barth Universität Ulm 31.05.2010 Page 2 Brownsche Bewegung 31.05.2010 Inhalt Einführung Straffheit Konvergenz Konstruktion einer zufälligen Funktion Brownsche

Mehr

Asymptotische Stochastik (SS 2010)

Asymptotische Stochastik (SS 2010) Institut für Stochastik PD. Dr. Dieter Kadelka Daniel Gentner Asymptotische Stochastik (SS 2010) Lösungen zu Übungsblatt 4 Aufgabe 1 (lokaler Grenzwertsatz von de Moivre und Laplace und eine Verallgemeinerung)

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 9 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 40: Es sei (X t ) t 0 ein

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Simulation stochastischer Prozesse Peter Frentrup Humboldt-Universität zu Berlin 27. November 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 27. November 2017

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2). Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5 4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit

Mehr

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei

Mehr

Seminar stabile Zufallsprozesse

Seminar stabile Zufallsprozesse Definitionen und Eigenschaften stabiler Verteilungen 2. November 2011 Inhalt 1 Definitionen Definitionen Beweis der Äquivalenz Beispiele 2 Eigenschaften 3 Charakteristische Funktion 4 Laplace Transformation

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Einführung in die Stochastik 6. Übungsblatt

Einführung in die Stochastik 6. Übungsblatt Einführung in die Stochastik 6. Übungsblatt Fachbereich Mathematik SS M. Kohler 3. Mai A. Fromkorth D. Furer Gruppen und Hausübung Aufgabe (a) Die Wahrscheinlichkeit, dass eine S Bahn Verspätung hat, betrage.3.

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Aufgaben zu Kapitel 0

Aufgaben zu Kapitel 0 Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.

Mehr

ist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1

ist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1 24 14 Metrische Räume 14.1 R n als euklidischer Vektorraum Die Menge R n = {(x 1,..., x n ) x i R} versehen mit der Addition und der skalaren Multiplikation x + y = (x 1 + y 1,..., x n + y n ) λx = (λx

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

7 Der Satz von Girsanov

7 Der Satz von Girsanov 7 Der Satz von Girsanov Der Satz von Girsanov wird uns eine neue Perspektive auf die Rolle des Drifts liefern. Die Prozesse Brownsche Bewegung B t, Brownsche Bewegung mit Drift X t = B t + µt haben wir

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Seminar Gewöhnliche Differentialgleichungen

Seminar Gewöhnliche Differentialgleichungen Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden

Mehr

ε δ Definition der Stetigkeit.

ε δ Definition der Stetigkeit. ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109 A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 19 A. Stochastische Prozesse und Stoppzeiten In dieser Vorlesung arbeiten wir immer auf einem Massraum (Ω, F), der gross genug ist, um alle definierten Objekte

Mehr

Funktionsgrenzwerte, Stetigkeit

Funktionsgrenzwerte, Stetigkeit Funktionsgrenzwerte, Stetigkeit Häufig tauchen in der Mathematik Ausdrücke der Form lim f(x) auf. x x0 Derartigen Ausdrücken wollen wir jetzt eine präzise Bedeutung zuweisen. Definition. b = lim f(x) wenn

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,

Mehr

Stetige Standardverteilungen

Stetige Standardverteilungen Universität Basel Wirtschaftswissenschaftliches Zentrum Stetige Standardverteilungen Dr. Thomas Zehrt Inhalt: 1. Die stetige Gleichverteilung 2. Die Normalverteilung (a) Einstimmung (b) Standardisierung

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

f(x 0 ) = lim f(b k ) 0 0 ) = 0

f(x 0 ) = lim f(b k ) 0 0 ) = 0 5.10 Zwischenwertsatz. Es sei [a, b] ein Intervall, a < b und f : [a, b] R stetig. Ist f(a) < 0 und f(b) > 0, so existiert ein x 0 ]a, b[ mit f(x 0 ) = 0. Wichtig: Intervall, reellwertig, stetig Beweis.

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen

20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20 Gleichmäßige Konvergenz für Folgen und Reihen von Funktionen 20.1 Folgen und Reihen von Funktionen 20.3 Die Supremumsnorm 20.4 Gleichmäßige Konvergenz von Folgen und Reihen von Funktionen 20.7 Das Cauchy-Kriterium

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

Weihnachtsaufgaben. a) Welche Urnenmodelle gibt es? Stelle zu jedem Modell ein konkretes Beispiel auf, welches durch dieses Modell beschrieben wird.

Weihnachtsaufgaben. a) Welche Urnenmodelle gibt es? Stelle zu jedem Modell ein konkretes Beispiel auf, welches durch dieses Modell beschrieben wird. Weihnachtsaufgaben Diese Aufgaben dienen dazu die in der Vorlesung und den Übungen eingeführten Begriffe zu verstehen und zu vertiefen, die Bearbeitung ist freiwillig Das Blatt wurde von den Übungsleitern

Mehr

e x e x x e x + e x (falls die Grenzwerte existieren), e x e x 1 e 2x = lim x 1

e x e x x e x + e x (falls die Grenzwerte existieren), e x e x 1 e 2x = lim x 1 Aufgabe a Hier kann man die Regel von de l Hospital zweimal anwenden (jeweils und die Ableitung des Nenners ist für hinreichend große x ungleich. Dies führt auf e x e x e x + e x e x + e x e x e x e x

Mehr

Unabhängigkeit von Zufallsvariablen

Unabhängigkeit von Zufallsvariablen Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Lösungen der Übungsaufgaben von Kapitel 3

Lösungen der Übungsaufgaben von Kapitel 3 Analysis I Ein Lernbuch für den sanften Wechsel von der Schule zur Uni 1 Lösungen der Übungsaufgaben von Kapitel 3 zu 3.1 3.1.1 Bestimmen Sie den Abschluss, den offenen Kern und den Rand folgender Teilmengen

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

Die Gamma-Funktion, das Produkt von Wallis und die Stirling sche Formel. dt = lim. = lim = Weiters erhalten wir durch partielle Integration, dass

Die Gamma-Funktion, das Produkt von Wallis und die Stirling sche Formel. dt = lim. = lim = Weiters erhalten wir durch partielle Integration, dass Die Gamma-Funktion, das Produkt von Wallis und die Stirling sche Formel Zuerst wollen wir die Gamma-Funktion definieren, die eine Verallgemeinerung von n! ist. Dazu benötigen wir einige Resultate. Lemma.

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

Zufallsvariable, Verteilung, Verteilungsfunktion

Zufallsvariable, Verteilung, Verteilungsfunktion Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.

Mehr

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

10 Transformation von Zufallsvariablen

10 Transformation von Zufallsvariablen 10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :

Mehr

Charakteristische Funktionen

Charakteristische Funktionen Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

15.5 Stetige Zufallsvariablen

15.5 Stetige Zufallsvariablen 5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Stetige Funktionen. Definition. Seien (X, d) und (Y, D) metrische Räume und f : X Y eine Abbildung. i) f heißt stetig in x 0 (x 0 D(f)), wenn

Stetige Funktionen. Definition. Seien (X, d) und (Y, D) metrische Räume und f : X Y eine Abbildung. i) f heißt stetig in x 0 (x 0 D(f)), wenn Stetige Funktionen Eine zentrale Rolle in der Analysis spielen Abbildungen f : X Y, wobei X und Y strukturierte Mengen sind (wie z.b. Vektorräume oder metrische Räume). Dabei sind i.a. nicht beliebige

Mehr

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Mehr

Lösungsvorschläge zu Blatt 1 1) ZV X := Produkt der Augenzahlen bei einem Wurf mit 2 Würfeln. des Produktes Wurfergebnis P (X = k) 1 (1, 1) 1/36

Lösungsvorschläge zu Blatt 1 1) ZV X := Produkt der Augenzahlen bei einem Wurf mit 2 Würfeln. des Produktes Wurfergebnis P (X = k) 1 (1, 1) 1/36 Lösungsvorschläge zu Blatt ) ZV X := Produkt der Augenzahlen bei einem Wurf mit Würfeln Mögl. Werte k des Produktes Wurfergebnis P X = k), ) /6, ),, ) /6, ),, ) /6, ),, ),, ) /6 5, 5), 5, ) /6 6, 6),,

Mehr

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 29 UNIVERSITÄT KARLSRUHE Blatt 6 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 27: Sei X eine R + -wertige

Mehr

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist: Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr