Bronwsche Bewegungen. Martin Brehm. 12. Juni 2007

Größe: px
Ab Seite anzeigen:

Download "Bronwsche Bewegungen. Martin Brehm. 12. Juni 2007"

Transkript

1 Bronwsche Bewegungen Martin Brehm 12. Juni 2007

2 Gliederung: 1. Geschichtliches 2. Denition 3. Eigenschaften der Brownschen Bewegung 3.1. Eigenschaften der Pfade 3.2. Überall nicht dierenzierbar 3.3. Allgemein 3.4. Variation 4. Beispiele mit Brownschen Bewegungen 4.1. Brownsche Brücke 4.2. Brownsche Bewegung mit Drift 4.3. geometrische Brownsche Bewegung 4.4. Weiÿes Rauschen 5. Quellenverzeichnis 2

3 Zu Beginn eine kleine Erinnerung an den Zentralen Grenzwertsatz: Sei X n, n N eine Folge unabhängiger identisch verteilter Zufallsvariablen. Wobei Erwartungswert µ und Standardabweichung σ existieren und endlich sind. Dann gilt ({ 1 P n n i=1 X i µ σ t )} n N Φ(t) := 1 2π t exp ( x2 2 ) dx 1 Geschichtliches Namensgeber ist der schottische Botaniker Robert Brown (* , ). Er stellte 1827 bei Untersuchungen von Pollenkörnern fest, dass diese sich in einer Flüssigkeit in einem unregelmäÿigen Zick-Zack bewegen. (Er vermutete daraufhin sogar, dass eine bisher unbekannte Form von Lebewesen dafür verantwortlich wäre). Allerdings wurde von ihm keine weitere Forschung auf diesem Gebiet betrieben. Stattdessen machte er wichtige Entdeckungen in der Botanik, u.a. benannte er den Nucleulus. Erst Albert Einstein (* , ) und Marian von Smoluchowski (* , ) befassten sich ungefähr zeitgleich mit diesem Thema dieser Brownschen Bewegungen und Einstein erkannte 1905, dass es sich hierbei um eine Folge der unregelmäÿigen Stöÿen der sich ständig bewegenden Moleküle handelt. (d.h. die sichtbaren Partikel werden ununterbrochen von viel kleineren und daher unsichtbaren Teilchen der Umgebung herumgeschubst. Da diese Stöÿe zufällig geschehen und in unterschiedlicher Intensität kommt es zu diesen Zick-Zack-Bewegungen. Aufsatz: Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen) anmerkung: Die Ursache dieser Bewegungen ist also eine Abfolge von zahlreichen, unabhängigen, zufälligen Ereignissen. Wenn wir jetzt an den 3

4 Zentralen Grenzwertsatz denken, ist der Weg nicht mehr weit zur Normalverteilung (siehe weiter). Als erstes kam die Mathematikerin Louis Bachelier (* , ) auf die Idee, dass diese Bewegungen ebenfalls auf die Untersuchung von Aktienkursen zu übertragen sind. Zur endgültigen Reife für die Stochastik brachte diese Betrachtungen dann Norbert Wiener (* , ). 2 Denition von Brownschen Bewegungen Denition: Ein stochastischer Prozess B = {B t, t [0, )} heiÿt (standard) Brownsche Bewegung oder Wiener Prozess, falls die folgenden Bedingungen erfüllt sind: Er startet bei Null: B 0 = 0 Er hat stationäre und stochastisch unabhängige Zuwächse, B t B s, 0 s < t R + stochastisch unabhängig Für alle t > 0, ist B t normalverteilt mit N (0, t) Die einzelnen Pfade (als Pfad gilt die gesamte Abbildung t B t ) sind stetig (keine Sprünge) Bei der Brownschen Bewegung B = (B t1,, B tn ) handelt es sich um einen Spezialfall eines Gauÿ-Prozesses, da diese durch eine n-dimensionale Normalverteilung beschrieben wird. Wir können so einen Gauÿ-Prozess genauer durch die Erwartungsfunktion µ B (t) und die Covarianzfunktion c B (t, s) beschreiben. Durch die Deniton der einzelnen B t als N (0, t)-verteilt folgt µ B (t) = 0, t > 0. 4

5 Abbildung 1: Standard Brownsche Bewegung Wenn wir das Wissen verwenden, dass für die Varianz V ar(b t ) = t gilt und die Zuwächse unabhängig sind, folgt: c B (t, s) = Cov(B t, B s ) = E(B t B s ) E(B t ) E(B s ) = E(B t B s ) = = E[[(B t B s ) + B }{{} s ]B s ] = E[(B t B s )B s ] }{{} + E(Bs) 2 = +0 E ist linear ( ) = E(B t B s )E(B s ) + s = 0 + s = s, 0 s < t. mit ( ) s = V ar(b s ) = E(B 2 s) E(B s ) 2 = E(B 2 s) 0 Da die Zuwächse sationär sind, folgt das die Zufallsvariablen B t B s und B t s B 0 = B t s die gleiche Verteilung haben nämlich N (0, t s). Anschaulich: Je gröÿer die Dierenz zwischen t und s, desto gröÿer die Varianz. Dies verdeutlicht auch folgende Graphik. 5

6 Abbildung 2: Mit dem Intervall wächst die Varianz Allerdings darf man aus der oben gewonnenen Erkenntnis nicht folgernb t B s = B t s. So geschrieben würde das bedeuten, dass für jeden zufälligen Pfad die Werte gleich sind. Wir schreiben also: B t B s d = Bt s Und es gilt dadurch im Allgemeinen nicht: B t (ω) B s (ω) = B t s (ω) 3 Eigenschaften einer Brownschen Bewegung 3.1 Eigenschaften der Pfade Stetigkeit. Eine ganz wichtige Eigenschaft ist die Stetigkeit, die ja schon durch die Denition festgehalten ist. 6

7 Hölder-Stetigkeit. Die Pfade sind sogar Hölder-stetig zum Exponenten α (Verallgemeinerung der Lipschitz-Stetigkeit) für jedes α < 1/2. Mit anderen Worten, für alle T > 0, 0 < α < 1/2 und fast alle ω existiert eine Konstante C, so dass für alle t, s < T B t (ω) B s (ω) C t s α. Der Beweis dieser Aussage ist nicht ganz einfach. Ich verweise auf [9] Seite 25. Wenn man dabei den Stetigkeitssatz von Kolmogorow-Chentsow verwendet, kann man auf die von der Denition gegebene Stetigkeit verzichten und somit wäre diese an sich überüssig. 3.2 Überall nicht dierenzierbar Zu diesem Thema zuerst folgende Bilder: Was fällt uns nun an diesen Bildern auf? Die Graphen sind alle äuÿerst gleichartig. Ziemlich zackig. Doch müsste man nicht meinen, wenn man ganz nahe an einen Graphen heranzoomt wird er schlieÿlich glatt. Wenn wir uns zum Vergleich den Graphen der Sinus-Funktion vorstellen, so erkennt man von Weiten betrachtet ein unheimlich rasches Auf und Ab. Doch aus der Nähe ist es eine einzige glatte Linie. Hier ist das allerdings nicht der Fall. Die Fortgeschrittenen erinnert dieser Sachverhalt vielleicht an die Fraktale Geometrie. Der entscheidende Begri hierbei lautet: Selbstähnlichkeit. Wir wollen diesen Begri nun auf die stochastischen Prozesse übertragen und führen folgende Denition ein: Denition: Ein stochastischer Prozess {X t, t [0, )} heiÿt H- selbstähnlich für ein H > 0, falls Folgendes erfüllt ist: ( K H X t1,, K H X tn ) d= (XKt1,, X Ktn ) für jedes K > 0 und jeder Wahl von t i 0, i = 1,, n und n 1. 7

8 Abbildung 3: DAX-Verlauf über verschiedene Zeitperioden Was sagt uns das nun? Das ist nun eben genau die mathematische Beschreibung für die Selbstähnlichkeit der Brownschen Bewegungen. Die einzelnen Pfade haben über kurze oder lange Periode immer ein ähnliches( d =) Aussehen. Wir wollen zeigen, dass die Brownsche Bewegung 0,5-selbstähnlich ist. Lemma: ( K 1 2 Bt1,, K 1 2 Btn ) d= (BKt1,, B Ktn ) Beweis: Wir führen folgende Bezeichnungen zur schnelleren Unterscheidung ein: X t = (K 12B t1,, K 12B ) tn und Y t = (B Kt1,, B Ktn ). Es handelt sich hier auf beiden Seiten um einen Gauÿ-Prozess. Dieser ist eindeutig festgelegt durch µ X (t) und c X (t i, t j ). Die Funktion für den Erwartungswert gilt µ X (t) = µ Y (t) = 0. 8

9 Für die Covarianzfunktion gilt (vergleiche Kapitel 2): c X (t i, t j ) = Cov(K 1 2B ti, K 1 2B tj ) = E(K 1 2B ti K 1 2B tj ) = K E(B ti B tj ) = K t j, t j < t i. Genau wie in Kapitel zwei berechnet folgt für Y : c Y (t i, t j ) = Cov(B Kti, B Ktj ) = K t j, t j < t i.. Die Selbstähnlichkeit der Brownschen Bewegung bringt einen groÿen Vorteil mit sich. Wenn wir den Pfad auf [0, K] betrachten wollen, genügt es schon [0, 1] zu untersuchen und dann dieses Zeitintervall durch den Faktor K zu strecken. [0, 1]: (B t1,, B tn ) [0, K]: (B Kt1,, B Ktn ) = (K d 12B t1,, K 12B ) tn Mit Hilfe der Selbstähnlichkeit kann man zeigen, dass die Brownsche Bewegung zwar überall stetig, aber nirgends dierenzierbar ist. Dass solche Funktionen überhaupt existieren, ist ja nicht mal ein triviales Problem. Es wurde im 19. Jahrhundert von Karl Weierstraÿ (* , ) zufriedenstellend behandelt. Er fand folgende Funktion, die stetig aber nicht dierenzierbar ist. f(x) = b n cos (a n πx) n=0 Man hielt dies für eine mathematische Spielerei und maÿ dem keinen praktischen Nutzen zu. Allerdings sehen wir anhand der Brownschen Bewegungen, dass solche Funktionen eine Vielzahl von Anwendungen in verschiedensten Gebieten nden. 9

10 Für den Beweis der Nicht-Dierenzierbarkeit verweise ich auf (siehe [8] Seite 188). Das Problem wird bereits schnell ersichtlich, wenn man erkennt, dass für folgenden Dierenzenquotientenkein Grenzwert existiert. ( ) Bt0 + t B lim t 0 V ar t0 t lim V ar t 0 ( Bt0 + t B t0 t ) = lim t 0 V ar ( B t ) t 1 = lim t 0 t V ar (B 2 t ) 1 = lim t 0 t t = Allgemein Gebietliche Homogenität. Für jedes x R ist der Prozess x + B t wieder eine Brownsche Bewegung mit Startpunkt bei x. Symmetrie. B t ist eine Brownsche Bewegung. Skalierung. Aus dieser Eigenschaft des Gauÿ-Prozesses kann man auch die sogenannte Skalierungseigenschaft der Brownschen Bewegung folgern. Ist B eine Brownsche Bewegung und K 0 dann ist auch (KB K2 t) t 0 eine Brownsche Bewegung. (ohne Beweis) Starkes Gesetz der groÿen Zahlen. Noch mal ganz kurz zur Erinnerung: 1 n (X i E(X i )) n N 0 P f.s. n Es folgt: i=1 10

11 lim t B t t = 0 f.s. Martingaleigenschaft. Der Erwartungswert einer Beobachtung ist gleich dem Wert der vorhergehenden Beobachtung. Wir betrachten die Brownsche Bewegung als Summe von unabhängigen Zufallsvariablen (den Zuwächsen) und hierüber wird die Martingaleigenschaft sehr anschaulich klar. Seien Y 1,, Y n unabhängige Zufallsvariablen mit E(Y t ) = 0 für jedes t = 1,, n. Setze F t := σ(y 1,, Y n ) und X t := auch für r > s E(Y r F s ) = 0. Also ist für t > s E(X t F s ) = E(X s F s ) + E(X t X s F s ) = X s + t E(Y r F s ) r=s+1 = X s Ausführlicher Beweis der Martingaleigenschaft für Brownsche Bewegung vergleiche [3] Seite 60 oder auch [8] ab Seite 77. t s=1 Y s. Es gilt Markoveigenschaft Die Qualität der Prognosen über die zukünftige Entwicklung ändert sich nicht, wenn man statt der gesamten Vorgeschichte nur einen begrenzten Teil davon kennt. P (B t = x F s ) = P (B t = x B s ) wobei s, t I mit s t und x R. Die Brownsche Bewegung ist besitzt diese Markoveigenschaft (Beweis vergleiche [6] Seite 441). Oft wird die Brownsche Bewegung auch über Markov-Prozesse - als eine spezielle (stetige) Form davon - deniert. 3.4 Variation In der Integrationstheorie (besonders in der Riemann-Stieltjesschen-Theorie) und in vielen anderen Gebieten der 11

12 Analysis spielen Funktionen von beschränkter Variation eine entscheidende Rolle. Denition: Wir denieren V (B(ω)) = sup τ n Bti (ω) B ti 1 (ω) i=1 als die totale Variation von B. Wobei hier das Supremum über alle möglichen Zerlegungen τ gebildet wird, mit τ n : 0 = t 0 < < t n = K in [0, K]. Oensichtlich eng mit dieser Variation hängt folgender Begri zusammen. Doch existiert hier ein entscheindender Unterschied, den wir gleich sehen werden. Denition: Die quadratischen Variation einer Funktion B über das Intervall [0, K] ist deniert als Q n = n 1 lim τ n 0 k=0 für τ n : 0 = t 0 < < t n = K in [0, K]. (B ti Bt i 1 ) 2 Wir brauchen den Begri der quadratischen Variation unbedingt für die Integration von Brownschen Bewegungen. Es gilt nämlich für Q n über dem Intervall [a, b] n 1 lim n k=0 (B ti Bt i 1 ) 2 = b a Also ein endlicher Wert für endliches a, b. Bei der herkömmlichen Variation tauchen im Gegensatz dazu Probleme auf. 12

13 Satz: Für fast alle Pfade einer Brownschen Bewegung gilt: n V (B(ω)) = sup Bti (ω) B ti 1 (ω) = f.s. τ i=1 wobei hier das Supremum über alle möglichen Zerlegungen τ gebildet wird, mit τ n : 0 = t 0 < < t n = K in [0, K]. Beweis: Der Einfachheit halber wählen wir K = 1. Wir nehmen an V (B(ω)) < für ein gegebenes ω. Sei (τ n ) eine Folge von Zerlegungen τ n : 0 = t 0 < < t n = 1, so dass gilt τ n 0. Man erinnere sich an: i B = B ti B ti 1. Es gilt weiterhin folgende Ungleichungskette: Q n (ω) = n i=1 ( i B(ω)) 2 max ib(ω) n ( i B(ω)) i=1,,n i=1 max ib(ω) V (B(ω)) i=1,,n Wir wisen aus 3.1. dass die Pfade der Brownschen Bewegung stetig sind. Somit können wir annehmen, dass B t (ω) eine stetige Funktion von t ist. Auf dem kompakten Intervall [0, 1] ist diese Funktion somit sogar gleichmäÿig stetig. In Kombination mit τ n 0 folgt max i=1,,n ib(ω) 0. Somit wäre die rechte Seite obiger Ungleichung konvergent gegen 0. Und somit würde auch gelten: Q n (ω) 0 Allerdings gilt für ein Q n über einem Intervall [0, 1] wie oben erwähnt, P Q n 1. Aus dieser Konvergenz in Wahrscheinlichkeit folgt die Konvergenz fast-sicher für eine geeignente Teilfolge. Also zusammen Q nk (ω) f.s. 1 für passendes (n k ). Somit muss gelten P ({ω : V (B(ω)) = }) = 1 13

14 Einen alternativen Beweis, der nicht mit einem Widerspruch und ohne die quadratische Variation funktioniert, vergleiche [6] Seite 467. Anmerkung: Diese Unbeschränktheit der Variation und die Nicht-Dierenzierbarkeit sind die Hauptgründe dafür, dass bei Brownschen Bewegungen die klassischen Integrationsmethoden versagen und die stochastische Integration eingeführt wird. 4 Beispiele mit Brownschen Bewegungen 4.1 Brownsche Brücke Eine Brownsche Brücke ist auf einen endlichen Zeithorizont beschränkt und es sind zwei Werte zu bestimmten Zeitpunkten bekannt. Wir können uns eine Brownsche Brücke zum Beispiel so vorstellen: X t = B t tb 1, 0 t 1. Hier gilt oensichtlich: Abbildung 4: Einige Brownsche Brücken 14

15 X 0 = B 0 0B 1 = 0 und X 1 = B 1 1B 1 = 0. Dieser Sachverhalt ist meist typisch für eine Brownsche Brücke, dass Startwert und Endwert übereinstimmen, woher sich auch die Bezeichnung ableitet. Bei der Brownschen Brücke handelt es sich wieder um einen Gauÿ-Prozess, der durch Folgendes noch genauer beschrieben wird: µ X (t) = 0 und c X (s, t) = min (s, t) st, s, t [0, 1]. Wir rechnen die Covarianzfunktion folgendermaÿen nach: c X (s, t) = Cov (X s, X t ) = Cov (B s sb 1, B t tb 1 ) = = Cov(B s, B t ) Cov(B s, tb 1 ) [Cov(sB 1, B t ) Cov(sB 1, tb 1 )] = = Cov (B s, B t ) scov (B 1, B t ) tcov (B s, B 1 ) + stcov (B 1, B 1 ) ( ) = min(s, t) s min(1, t) t min(s, 1) + st V ar(b 1 ) = = min (s, t) st st + st = min (s, t) st ( ) : Cov(B t, B s ) = min(t, s) weiter : s, t [0, 1] min(s, 1) = s Brownsche Brücken bilden eine wichtige Basis für die Theorie der Anpassungsgüte (siehe Begrie). 4.2 Brownsche Bewegung mit Drift Betrachten wir doch einmal folgenden Prozess: X t = µt + σb t, t 0, 15

16 Abbildung 5: Brownsche Bewegung mit Drift für die Konstanten σ > 0 und µ R. Es handelt sich hierbei wieder um einen Gauÿ-Prozess, da jede lineare Transformation eines normalverteilten Vektors wieder normal verteilt ist. Und letztendlich ausreichend beschrieben wird die Verteilung wieder durch Folgendes: µ X (t) = µt und c X (t, s) = σ 2 min (t, s), s, t 0 Dieser Erwartungswert µ X (t) = µt ist die Hauptursache für die charakteristische Form der einzelnen Wege. Nachrechnen des Erwartungs- und der Covarianzfunktion: µ X (t) = E(X t ) = E(µt + σb t ) = = E(µt) + E(σB t ) = E(µt) = µt 16

17 c X (t, s) = Cov(X t, X s ) = Cov(µt + σb t, µs + σb s ) = = E [(µt + σb t ) (µs + σb s )] E(X t )E(X s ) = = }{{} E [(µ 2 ts + σµtb s + σµsb }{{} t +σ 2 B }{{} t B s )] µt µs = linear =0 =0 = E(µ 2 ts) + E(σ 2 B t B s ) µ 2 ts = E(σ 2 B t B s ) = = σ 2 E(B t B s ) ( ) = σ 2 min(s, t) ( ) : Vergleiche das Berechnen von Cov(B s, B t ) am Ende von Kapitel Geometrische Brownsche Bewegung Im Jahre 1900 entdeckte Louise Bachelier, dass die Preise für riskante Anlagen (Aktienkurse, Wechselkurse, Börsenkurse, etc.) gut durch Brownsche Bewegungen beschrieben werden können. Allerdings wenn wir die Brownsche Bewegung wie bisher als einen Gauÿ-Prozess ansehen, können dabei auch negative Werte herauskommen, was für die eine Eigenschaft des Preises nicht sonderlich wünschenswert ist. Im Jahre 1973 fanden dann Black, Scholes und Merton ein passenderes Model. Eine Geometrische Brownsche Bewegung dieser Form: X t = e µt+σb t, t 0, Hier handelt es sich nun nicht mehr um einen Gauÿ-Prozess. Nur im Exponenten steht, wie wir gerade gesehen haben, noch eine normalverteilte Funktion, die wir im Folgenden durch λz ersetzen, wenn wir jetzt den Erwartungswert dieser Zufallsvariable berechnen wollen: E ( e λz) = 1 (2π) 1/2 = e λ2 /2 1 (2π) 1/2 = e λ2 /2 e λz e z2 /2 dz e (z λ)2 /2 dz 17

18 Abbildung 6: Veränderung des Sigmas Beim letzten Schritt haben wir verwendet, dass (2π) 1/2 e (z λ)2 /2 die Dichte einer N (λ, 1) verteilten Zufallsvariable ist. Und wir wissen durch die Denition einer Dichte h(x), dass: h(x)dx = 1 Durch die Selbstähnlichkeit der Brownschen Abbildung folgt dann: µ X (t) = e µt E ( ) e t) σb = e µt E (e σt1/2 B 1 = e ( µ+0.5σ 2 )t Für s t, B t B s und B s sind unabhängig und B t B s d = Bt s. Somit lässt sich die Covarianzfunktion folgendermaÿen berechnen: 18

19 c X (t, s) = E (X t X s ) E (X t ) E (X s ) = e µ(t+s) E ( e σ(b t+b s ) ) e ( µ+0.5σ 2 )(t+s) = e µ(t+s) E ( e ) σ[(b t B s )+2B s ] e ( µ+0.5σ 2 )(t+s) = e µ(t+s) E ( e ) σ(b t B s ) E ( ) e 2σB s e (µ+0.5σ 2 )(t+s) = e ( ( ) µ+0.5σ 2 )(t+s) e σ2s 1 Daraus folgt für die Varianz einer geometrischen Brownschen Bewegung: σx 2 (t) = e ( ( ) 2µ+σ 2 )t e σ2s Weiÿes Rauschen Das Weiÿe Rauschen führt uns jetzt zwar wieder vom Thema Aktienkurse weg, sieht man hieran noch einmal wie weiträumig der Begri der Brownschen Bewegung getragen wird. Dieses Rauschen und Abwandlungen davon ndet man wieder in der Akkustik, den Ingenieurwissenschaften, Chemie, Bildbearbeitung, etc. Man versuchtein solches Weiÿes Rauschen durch Folgenden Prozess zu beschreiben: X t = B t+h B t h, t 0, wobei h > 0 eine feste Konstante ist. Für diesen Prozess gilt: µ X (t) = 0 und c X (t, s) = h 2 [(s + h) min(s + h, t)], s t. Man beachte, dass c X (t, s) = 0 falls t s h, somit sind X t und X s unabhängig, aber falls t s < h, c X (t, s) = h 2 [h (t s)]. Auch hier gilt natürlich wieder, dass wir durch Grenzübergang von h gegen 0 keineswegs die Ableitung von X t erhalten. Da auch hier wie oben bereits gezeigt die Varianz σ 2 X (t) = h 1 wächst über alle Grenzen für ein kleines h. 19

20 5 Quellenverzeichnis Abbildung 7: Weiÿes Rauschen mit h = 2 1 Borodin, A.N. und Salminen, P.: Handbook of Brownian Motion. Birkhäuser, Basel Falk M.: Stochastik I. Skript 3 Heyer H.: Einführung in die Theorie Markoscher Prozesse. Bibliographisches Institut, Zürich Hida, T.: Brownian Motion. Springer, Berlin Karatzas und Shreve: Brownian Motion and Stochastic Calculus. Springer, New York Klenke, A.: Wahrscheinlichkeitstheorie. Springer Berlin, Lehmann, E.L.: Brownian Motion and Diusion. Holden-Day, San Francisco Mikosch T.: Elementary Stochastic Calculus. World Scientic Publishing, Singapur Revuz, D. und Yor, M.: Continuous Martingales and Brownian motion. Springer, Berlin

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische

Mehr

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Asymptotische Stochastik (SS 2010)

Asymptotische Stochastik (SS 2010) Institut für Stochastik PD. Dr. Dieter Kadelka Daniel Gentner Asymptotische Stochastik (SS 2010) Lösungen zu Übungsblatt 4 Aufgabe 1 (lokaler Grenzwertsatz von de Moivre und Laplace und eine Verallgemeinerung)

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Simulation stochastischer Prozesse Peter Frentrup Humboldt-Universität zu Berlin 27. November 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 27. November 2017

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Erfolgsgeschichte eines stochastischen Prozesses: Die Brown sche Bewegung

Erfolgsgeschichte eines stochastischen Prozesses: Die Brown sche Bewegung Erfolgsgeschichte eines stochastischen Prozesses: Die Brown sche Bewegung Wolfgang König Weierstraß-Institut Berlin und Technische Universität Berlin W. König Tag der Mathematik 8. Mai 2010 p.1/10 Robert

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 9 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 40: Es sei (X t ) t 0 ein

Mehr

Weitere Interessante Funktionen

Weitere Interessante Funktionen Weitere Interessante Funktionen Pascal Wagner Ausarbeitung zum Vortrag im PS Überraschungen und Gegenbeispiele in der Analysis (Sommersemester 009, Leitung PD Dr. Gudrun Thäter) Zusammenfassung: In dieser

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 24/25 Universität Karlsruhe 7. März 25 Priv-Doz. Dr. D. Kadelka Klausur zur Vorlesung Stochastik II Dauer: 9 Minuten Name: Vorname: Matrikelnummer: Diese Klausur

Mehr

2 Stationarität. Strikte Stationarität

2 Stationarität. Strikte Stationarität 2 Stationarität. Strikte Stationarität Die in 1 benutzten Begriffe sind noch zu präzisieren : Definition 2.1. a) Ein stochastischer Prozess {X t } t T heißt strikt stationär, falls für je endlich viele

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009 Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Brownsche Bewegung Seminar - Weiche Materie

Brownsche Bewegung Seminar - Weiche Materie Brownsche Bewegung Seminar - Weiche Materie Simon Schnyder 11. Februar 2008 Übersicht Abbildung: 3 Realisationen des Weges eines Brownschen Teilchens mit gl. Startort Struktur des Vortrags Brownsches Teilchen

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Topologie metrischer Räume

Topologie metrischer Räume Technische Universität München Christoph Niehoff Ferienkurs Analysis für Physiker Vorlesung Montag SS 11 In diesem Teil des Ferienkurses beschäftigen wir uns mit drei Themengebieten. Zuerst wird die Topologie

Mehr

Unterricht 13: Wiederholung.

Unterricht 13: Wiederholung. , 1 I Unterricht 13: Wiederholung. Erinnerungen: Die kleinen Übungen nden diese Woche statt. Zur Prüfung müssen Sie Lichtbildausweis (Personalausweis oder Reisepass) Studierendenausweis mitbringen. I.1

Mehr

Cauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit

Cauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit Vortrag zum Seminar zur Analysis, 10.05.2010 Michael Engeländer, Jonathan Fell Dieser Vortrag stellt als erstes einige Sätze zu Cauchy-Folgen auf allgemeinen metrischen Räumen vor. Speziell wird auch das

Mehr

Einiges über die Brown sche Bewegung

Einiges über die Brown sche Bewegung Einiges über die Brown sche Bewegung Gunther Leobacher und Friedrich Pillichshammer Inhaltsverzeichnis Definition und Existenz einer Brown schen Bewegung Einige elementare Eigenschaften der Brown schen

Mehr

Charakteristische Funktionen

Charakteristische Funktionen Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die

Mehr

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm Brownsche Bewegung Satz von Donsker Bernd Barth Universität Ulm 31.05.2010 Page 2 Brownsche Bewegung 31.05.2010 Inhalt Einführung Straffheit Konvergenz Konstruktion einer zufälligen Funktion Brownsche

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109 A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 19 A. Stochastische Prozesse und Stoppzeiten In dieser Vorlesung arbeiten wir immer auf einem Massraum (Ω, F), der gross genug ist, um alle definierten Objekte

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr

Diffusionsprozesse und lineare stochastische DGL

Diffusionsprozesse und lineare stochastische DGL Diffusionsprozesse und lineare stochastische DGL Michele Bieber TU Dortmund - Fakultät Statistik 15. Mai 2012 Inhaltsverzeichnis 1 Einleitung 2 Diffusionsprozesse Stochastische DGL eines Diffusionsprozesses

Mehr

Wichtige Klassen reeller Funktionen

Wichtige Klassen reeller Funktionen 0 Wichtige Klassen reeller Funktionen Monotone Funktionen sind i.a. unstetig, aber man kann etwas über das Grenzwertverhalten aussagen, wenn man nur einseitige Grenzwerte betrachtet. Definition 0. : Sei

Mehr

Einige parametrische Familien für stochastische Prozesse

Einige parametrische Familien für stochastische Prozesse Einige parametrische Familien für stochastische Prozesse Seminar: Grundlagen der und Statistik von dynamischen Systemen 26. November 2014 Inhaltsverzeichnis 1 Einleitung 2 3 4 5 Einleitung Ziel des Vortrages:

Mehr

Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich

Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich Erwartungswert Naiv stellt man sich unter dem Erwartungswert einer Zufallsvariablen X Folgendes vor. Man führt das Experiment n-mal durch und bestimmt den Mittelwert (arithmetisches Mittel) der dabei für

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge

Mehr

Mathematische Ökonometrie

Mathematische Ökonometrie Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch

Mehr

Weihnachtsaufgaben. a) Welche Urnenmodelle gibt es? Stelle zu jedem Modell ein konkretes Beispiel auf, welches durch dieses Modell beschrieben wird.

Weihnachtsaufgaben. a) Welche Urnenmodelle gibt es? Stelle zu jedem Modell ein konkretes Beispiel auf, welches durch dieses Modell beschrieben wird. Weihnachtsaufgaben Diese Aufgaben dienen dazu die in der Vorlesung und den Übungen eingeführten Begriffe zu verstehen und zu vertiefen, die Bearbeitung ist freiwillig Das Blatt wurde von den Übungsleitern

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

Definition 3.1. Sei A X. Unter einer offenen Überdeckung von A versteht man eine Familie (U i ) i I offener Mengen U i X mit U i

Definition 3.1. Sei A X. Unter einer offenen Überdeckung von A versteht man eine Familie (U i ) i I offener Mengen U i X mit U i 3 Kompaktheit In der Analysis I zeigt man, dass stetige Funktionen f : [a, b] R auf abgeschlossenen, beschränkten Intervallen [a, b] gleichmäßig stetig und beschränkt sind und dass sie ihr Supremum und

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

12 Erwartungswerte. Erwartungswerte 111. Überblick

12 Erwartungswerte. Erwartungswerte 111. Überblick Erwartungswerte 111 12 Erwartungswerte Zur Motivation der Begrisbildung wird zunächst der Erwartungswert im diskreten Fall als Reihenwert eingeführt. Der allgemeine, auf dem Integral basierende Erwartungswert

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler 6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Technische Universität München. Aufgaben Mittwoch SS 2012

Technische Universität München. Aufgaben Mittwoch SS 2012 Technische Universität München Andreas Wörfel Ferienkurs Analysis 2 für Physiker Aufgaben Mittwoch SS 2012 Aufgabe 1 Äquivalente Aussagen für Stetigkeit( ) Beweisen Sie folgenden Satz: Seien X und Y metrische

Mehr

3. Folgen und Reihen. 3.1 Folgen und Grenzwerte. Denition 3.1 (Folge) Kapitelgliederung

3. Folgen und Reihen. 3.1 Folgen und Grenzwerte. Denition 3.1 (Folge) Kapitelgliederung Kapitelgliederung 3. Folgen und Reihen 3.1 Folgen und Grenzwerte 3.2 Rechenregeln für konvergente Folgen 3.3 Monotone Folgen und Teilfolgen 3.4 Ein Algorithmus zur Wurzelberechnung 3.5 Reihen 3.6 Absolut

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr

2.6 Der Satz von Fubini

2.6 Der Satz von Fubini 1 2.6 Der Satz von Fubini Unser Ziel ist der Beweis des folgenden Ergebnisses. 6.1. Satz von Fubini Sei f : R n+m R integrierbar. Dann gibt es eine Nullmenge N R m, so dass gilt: 1. Für alle y R m \ N

Mehr

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2). Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche

Mehr

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ), 2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

Die Topologie von R, C und R n

Die Topologie von R, C und R n Die Topologie von R, C und R n Für R haben wir bereits eine Reihe von Strukturen kennengelernt: eine algebraische Struktur (Körper), eine Ordnungsstruktur und eine metrische Struktur (Absolutbetrag, Abstand).

Mehr

Die n-dimensionale Normalverteilung

Die n-dimensionale Normalverteilung U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

TU DORTMUND Sommersemester 2018

TU DORTMUND Sommersemester 2018 Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade

Mehr

Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik

Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik Univ. Leipzig Mathematisches Institut Vertretung Professur Stochastische Prozesse Max v. Renesse email: mrenesse@math.tu-berlin.de Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19 Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

Einführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie

Einführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie Einführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie Jung Kyu Canci Universität Basel HS2015 1 / 15 Literatur Kapitel 6 Statistik in Cartoons : Kapitel 8 Krengel : 6 und 14 Storrer

Mehr

7 Der Satz von Girsanov

7 Der Satz von Girsanov 7 Der Satz von Girsanov Der Satz von Girsanov wird uns eine neue Perspektive auf die Rolle des Drifts liefern. Die Prozesse Brownsche Bewegung B t, Brownsche Bewegung mit Drift X t = B t + µt haben wir

Mehr

Seminar Gewöhnliche Differentialgleichungen

Seminar Gewöhnliche Differentialgleichungen Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten

Mehr

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Dr. Gerhard Mülich Christian Maaß 6.Mai 8 Im letzten Vortrag haben wir gesehen, dass das

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

22 KAPITEL 1. GRUNDLAGEN. Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion

22 KAPITEL 1. GRUNDLAGEN. Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion KAPITEL 1. GRUNDLAGEN Um zu zeigen, dass diese Folge nicht konvergent ist, betrachten wir den punktweisen Limes und erhalten die Funktion 1 für 0 x < 1 g 0 (x) = 1 1 für < x 1. Natürlich gibt dies von

Mehr

5 Binomial- und Poissonverteilung

5 Binomial- und Poissonverteilung 45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

1 Stochastische Konvergenz 2

1 Stochastische Konvergenz 2 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Grundbegriffe der Stochastik II

Grundbegriffe der Stochastik II Grundbegriffe der Stochastik II Henrik Gebauer 6. Oktober 9 Zusammenfassung Dieser Vortrag dient der Wiederholung zentraler Begriffe der kontinuierlichen Stochastik. Wahrscheinlichkeitsverteilungen Sei

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung

Mehr

D-MATH Funktionalanalysis II FS 2014 Prof. M. Struwe. Lösung 2

D-MATH Funktionalanalysis II FS 2014 Prof. M. Struwe. Lösung 2 D-MATH Funktionalanalysis FS 214 Prof. M. Struwe Lösung 2 1. a) Wir unterscheiden zwei Fälle. Fall 1: 1 < p < : Seien u L p () und (u k ) W 1,p () eine beschränkte Folge, so dass u k u in L p () für k.

Mehr

Konvergenz im quadratischen Mittel und Parsevalsche Gleichung

Konvergenz im quadratischen Mittel und Parsevalsche Gleichung Konvergenz im quadratischen Mittel und Parsevalsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Prof Dr Picard, gehalten von Helena Malinowski In vorhergehenden Vorträgen und dazugehörigen

Mehr

12. Trennungssätze für konvexe Mengen 83

12. Trennungssätze für konvexe Mengen 83 12. Trennungssätze für konvexe Mengen 83 C_1 C_2 a Abbildung 12.4. Trennung konvexer Mengen durch eine Hyperebene mit Normalenvektor a Dann ist int(c) nicht leer (warum?) und [als Minkowski-Summe von C

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Das Black-Scholes Modell

Das Black-Scholes Modell Vathani Arumugathas Das Black-Scholes Modell 1 Das Black-Scholes Modell Vathani Arumugathas Seminar zu Finanzmarktmodellen in der Lebensversicherung, Universität zu Köln 10. Juni 016 Inhaltsverzeichnis

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

Lösungen Klausur. k k (n + 1) n. für alle n N. Lösung: IA: Für n = 1 ist 1. k k + (n + 1) n+1. k k = k=1. k=1 kk = 1 1 = 1 2 = 2 1.

Lösungen Klausur. k k (n + 1) n. für alle n N. Lösung: IA: Für n = 1 ist 1. k k + (n + 1) n+1. k k = k=1. k=1 kk = 1 1 = 1 2 = 2 1. Lösungen Klausur Aufgabe (3 Punkte) Zeigen Sie, dass n k k (n + ) n k für alle n N. IA: Für n ist k kk 2 2. IV: Es gilt n k kk (n + ) n für ein n N. IS: Wir haben n+ k k k n k k + (n + ) n+ k IV (n + )

Mehr

1.4 Stichproben aus einer Normalverteilung

1.4 Stichproben aus einer Normalverteilung 1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte

Mehr

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe

Mehr

LS Informatik 4 & Funktionen. Buchholz / Rudolph: MafI 2 88

LS Informatik 4 & Funktionen. Buchholz / Rudolph: MafI 2 88 4. Funktionen Buchholz / Rudolph: MafI 2 88 Kapitelgliederung 4.1 Grundlegende Denitionen 4.2 Polynome und rationale Funktionen 4.3 Beschränkte und monotone Funktionen 4.4 Grenzwerte von Funktionen 4.5

Mehr