Asymptotische Stochastik (SS 2010)

Ähnliche Dokumente
Stochastische Prozesse

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

0, t 0,5

3 Markov-Eigenschaft der Brownschen Bewegung

1.3 Zufallsvariablen

Stochastische Prozesse

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

Stetige Standardverteilungen

Wirtschaftsmathematik

8 Verteilungsfunktionen und Dichten

Gegenbeispiele in der Wahrscheinlichkeitstheorie

2 Zufallsvariable, Verteilungen, Erwartungswert

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

Wahrscheinlichkeitstheorie und Statistik vom

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Stochastik. 1. Wahrscheinlichkeitsräume

Statistik für Informatiker, SS Verteilungen mit Dichte

5 Stetigkeit und Differenzierbarkeit

Spezielle stetige Verteilungen

Unabhängige Zufallsvariablen

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

70 Wichtige kontinuierliche Verteilungen

Scheinklausur zur Vorlesung Stochastik II

30 Die Gammafunktion und die Stirlingsche Formel

Klausur zur Vorlesung Stochastik II

Musterlösung Analysis 3 - Maßtherorie

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung

Einführung in die Stochastik 6. Übungsblatt

Biostatistik, Winter 2011/12

7.5 Erwartungswert, Varianz

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom

Implizite Funktionen, der Umkehrsatz und Extrema unter Nebenbedingungen

Varianz und Kovarianz

2 Zufallsvariable und Verteilungsfunktionen

Seminar Gewöhnliche Differentialgleichungen

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

Zusammenfassung Analysis 2

2 Stationarität. Strikte Stationarität

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Lösungen der Übungsaufgaben von Kapitel 3

MAA = MAB + B AA = B CA + CAA BA A Nun sehen wir mit Proposition 10.7 aus dem Skript, dass A M AB gelten muss.

Stochastik I. Vorlesungsmitschrift

Charakteristische Funktionen

Wichtige Definitionen und Aussagen

Technische Universität München. Aufgaben Mittwoch SS 2012

4 Messbare Funktionen

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Copula Funktionen. Eine Einführung. Nils Friewald

9 Die Normalverteilung

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Mathematische Ökonometrie

11 Logarithmus und allgemeine Potenzen

Stochastik-Praktikum

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

Erwartungswert und Varianz von Zufallsvariablen

Kapitel 8: Zufallsvektoren

Reelle Zufallsvariablen

10 Transformation von Zufallsvariablen

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Zufallsvariable, Verteilung, Verteilungsfunktion

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI

Stetige Funktionen. Definition. Seien (X, d) und (Y, D) metrische Räume und f : X Y eine Abbildung. i) f heißt stetig in x 0 (x 0 D(f)), wenn

Prüfungsvorbereitungskurs Höhere Mathematik 3

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Wahrscheinlichkeitsrechnung und Statistik

7. Die Brownsche Bewegung

1 Stochastische Konvergenz 2

13 Grenzwertsätze Das Gesetz der großen Zahlen

5. Spezielle stetige Verteilungen

15 Hauptsätze über stetige Funktionen

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Forschungsstatistik I

Einführung in Quantitative Methoden

Kapitel III. Stetige Funktionen. 14 Stetigkeit und Rechenregeln für stetige Funktionen. 15 Hauptsätze über stetige Funktionen

Universität Ulm Abgabe: Mittwoch,

6. Übungsblatt zur Einführung in die Stochastik

Multivariate Verteilungen

Lösungen Klausur. k k (n + 1) n. für alle n N. Lösung: IA: Für n = 1 ist 1. k k + (n + 1) n+1. k k = k=1. k=1 kk = 1 1 = 1 2 = 2 1.

Fit for Abi & Study Stochastik

Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

13 Grenzwertsätze Das Gesetz der großen Zahlen

Seminar stabile Zufallsprozesse

1.3 Wiederholung der Konvergenzkonzepte

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Referenten: Gina Spieler, Beatrice Bressau, Laura Uhlmann Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn

Eigenschaften kompakter Operatoren

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Prüfungsvorbereitungskurs Höhere Mathematik 3

23 Konvexe Funktionen und Ungleichungen

Transkript:

Institut für Stochastik PD. Dr. Dieter Kadelka Daniel Gentner Asymptotische Stochastik (SS 2010) Lösungen zu Übungsblatt 4 Aufgabe 1 (lokaler Grenzwertsatz von de Moivre und Laplace und eine Verallgemeinerung) Der lokale GWS von de Moivre und Laplace kann wie folgt formuliert werden: Sei 0 < p < 1 fest und Y n Bin(n, p), insbesondere EY n = np, Var(Y n ) = np(1 p). Ferner sei φ µ,σ 2 die Lebesgue-Dichte von N (µ, σ 2 ). Zeigen Sie, dass für alle C > 0 gilt, dass P(Y n = k) φ np,np(1 p) (k) 1 = 0. k: k np C np(1 p) (D.h. die Zähldichte der Binomialverteilung und die (stetige) Dichte der Normalverteilung sind asymptotisch gleich, und zwar gleichmäÿig in k auf kompakten (d.h. hier endlichen) Mengen.) Man beweise die folgende, allgemeinere Aussage: Seien X n, n N, Zufallsvariable mit Werten in T n := N 0 + b n, wobei > 0. Die Zähldichte t f n (t) := P(X n = t), t T n habe die Eigenschaft ( ) k f n( (k + 1) + b n ) f n ( k + b n ) für k N 0 (mit 0/0 := 0). Gilt X n (1) d N (0, 1), so gilt für alle 0 < c < f n (t)/ 1 φ(t) = 0. t T n : t c Lösung: Sei F n die Verteilungsfunktion von X n. Es gilt F n (x) = t T n : t x f n(t), x R. Sei Φ die Verteilungsfunktion von N (0, 1). (i) Aus dem Satz von Polya (Blatt 1, Aufgabe 2) folgt wegen der Stetigkeit von Φ und hieraus auch (2) x<y F n (x) Φ(x) = 0 x R P(x < X n y) (Φ(y) Φ(x)) = 0. Da alle F n konstant auf Intervallen der Länge sind, folgt hieraus auch (3) (ii) (1) ist äquivalent zu (4) Denn f n(t)/ 1 φ(t) = 1 φ(t) t T n : t c f n(t) = 0. f n (t) φ(t) und 2.5 1 φ(t) = 0. 1 φ(t) φ(c) < für t c.

(iii) Die Zähldichten f n sind unimodal, d.h. sie besitzen eine Maximimumstelle t n T n, sind links von t n monoton steigend und rechts von t m monoton fallend (nicht notwendig strikt). Dies ist eine Konsequenz von ( ). Es gibt ein k n N 0 mit f n( (k+1)+b n ) f n ( k+b n 1 für k < k ) n und f n( (k+1)+b n ) f n ( k+b n < 1 für k k ) n. Denn es ist nicht möglich, dass f n( (k+1)+b n ) f n ( k+b n 1 für ) alle k N 0 gilt. k n = 0 ist allerdings nicht ausgeschlossen. t n := k n + b n ist dann der gesuchte Wert. (iv) Sei φ n (t) := f n( k+b n ) für k + b n t (k + 1) + b n und φ n (t) = 0 für t < b n. Die φ n sind dann Dichten von Verteilungen P n mit Verteilungsfunktionen G n (eine Art Histogrammbildung). Da die f n unimodal sind, sind auch die Dichten φ n unimodal. Nach Konstruktion ist t n ein Modalwert von φ n. Ist Y n eine Zufallsvariable mit Verteilungsfunktion G n und X n := k + b n für k + b n Y n (k + 1) + b n, so gilt X n X n nach Konstruktion und Y n X n. Wegen Satz 3.23 folgt aus X n d N (0, 1) auch Y n d N (0, 1). Aus (1) wird (5) x<y (G n (y) G n (x)) (Φ(y) Φ(x)) = 0. Hinreichend für (4) ist jetzt der Nachweis von (6) φ n (t) φ(t) = 0. t R (v) Sind die Dichten φ n unimodal (ohne dass ( ) gefordert wird), so gilt (7) 3α := inf inf (φ n(t) φ(t)) 0. t R Denn sei α < 0. Dann gibt es nach Übergang zu einer Teilfolge von (X n ) n N eine notwendig beschränkte Folge (t n ) n N in R mit (φ n (t n ) φ(t n )) = 3α. Nach Übergang zu einer weiteren Teilfolge kann angenommen werden, dass t := t n existiert und wegen der Stetigkeit von φ dann (8) (φ n(t n ) φ(t )) = 3α < 0. Da φ stetig ist, gibt es ein ϵ > 0 mit φ(t) φ(t ) + α für alle t [t ϵ, t + ϵ]. Da die φ n unimodal sind, gilt φ n (t) φ n (t n ) für alle t t n oder alle t t n. Sei etwa φ n (t) φ n (t n ) für alle t t n. Für genügend groÿes n gilt t n t ϵ/2 und G n (t ϵ/2) G n (t ϵ) = t ϵ/2 t ϵ t ϵ/2 t ϵ φ n (t) dt φ n (t n ) ϵ 2 (φ(t ) + 2α) ϵ 2 (φ(t) + α) dt = Φ(t ϵ/2) Φ(t ϵ) + α ϵ 2 im Widerspruch zu (5). Analog geht man vor, wenn φ n (t) φ n (t n ) für alle t t n. (vi) Sind die Dichten φ n unimodal und ist t n R für n N ein (beliebiger) Modalwert von φ n, so gilt t n = 0.

Andernfalls kann nach Übergang zu einer Teilfolge erreicht werden, dass ein δ > 0 existiert mit t n δ für alle n N, etwach Übergang zu einer weiteren Teilfolge t n δ > 0 für alle n N. Es folgt, dass φ n auf (, δ]. Wegen ϵ φ(ϵ) Φ(ϵ) Φ(0) = (G n (ϵ) G n (0)) = ϵ 0 φ n (t) dt ϵ inf für alle 0 < ϵ δ/2 gilt notwendig inf φ n (δ/2) φ(0), also auch inf Hieraus folgt direkt der Widerspruch δ/2 φ(δ/2) δ δ/2 inf φ n (t) φ(0). t: δ/2 t δ φ n(δ/2) φ(t) dt = G(δ) G(δ/2) = (G n (δ) G n (δ/2)) δ/2 φ(0). (vii) Sind die Dichten φ n unimodal, so gilt für alle δ > 0 (9) 3α := t R: t δ (φ n (t) φ(t)) 0. Wegen (vi) kann angenommen werden, dass φ n auf (, δ 2 ] und φ n auf [ δ 2, ). Denn gilt dies nicht, so existiert wie in (v) nach Übergang zu einer Teilfolge von (X n ) n N ein endliches α > 0 und eine beschränkte Folge (t n ) n N in {t R: t δ}, so dass t := t n existiert und (10) (φ n(t n ) φ(t )) 3α > 0 gilt. ( φ n (t n ) = kann vorerst nicht ausgeschlossen werden.) Sei etwa t δ und v [ 3δ, 4 t ) beliebig mit φ(v) < φ(t ) + α. Für genügend groÿes n gilt dann t n > v und φ n (t n ) φ(t ) + 2α > φ(v) + α. Da φ auf [ δ, ) gilt φ 2 n(v) > φ(v) + α. Da φ stetig ist, gibt es ein δ u < v mit φ(u) < φ(v) + α/2, also auch φ 2 n(t) φ n (v) > φ(v) + α > φ(t) + α/2 für alle u t v. Wie früher steht dies im Widerspruch zu (G n (v) G n (u)) = Φ(v) Φ(u). f (viii) Einfache Gegenbeispiele zeigen, dass ohne weitere Voraussetzungen n (t n ) = möglich ist. (1) kann dann nicht gelten. Kombiniert man (v) und (vii), so folgt aus X d n N (0, 1) für unimodale Zähldichten f n von X n (11) t T n : t δ f n (t) φ(t) = 0 für alle δ > 0 und zusätzlich inf inf t T n f n (t) φ(t) 0. Ersetzt man X n durch X n t n, so gilt wegen Satz 3.23 und (vi) wieder X n t n d N (0, 1) und an der Bedingung ( ) ändert sich nichts. Wir können daher der Einfachheit halber

t n = 0 voraussetzen und es reicht wegen min{f n ( δ), f n (δ)} f n (t) f n (0) für δ t δ in T n f n (0) ( ) = φ(0) f zu zeigen, wobei inf n(0) φ(0) schon bekannt ist. Dies folgt z.b. aus ( ). Denn aus log(f n ( (k + 1) + b n )) log(f n ( k + b n )) folgt, dass k log(f n ( k + b n )) konkav ist und log(φ(x)) = 1 log(2π) 2 x2 /2 (Skizze!). Aufgabe 2 (Einfache eindimensionale Irrfahrt) Seien X 1, X 2,... Bin(1, 1 2 ) und S n := die eindimensionale Irrfahrt. Sei T n das gröÿte 0 i n mit S i = 0 und V n die Anzahl der 1 i T n mit S i 1 0 und S i 0. Wir setzen die Gültigkeit der Gleichungen n i=1 X i (12) P(S 1 > 0,..., S n 1 > 0, S n = j) = j n P(S n = j), j > 0, n N. und (13) P(V 2m = 2i S 2m = 0) = 1, i {0, 1,..., m}, m N, m + 1 voraus. Leiten Sie ab, dass für 0 2i 2k < n, j > 0 gilt, dass 1 j P(T n = 2k, V n = 2i, S n = j) = P(S 2k = 0) k + 1 n 2k P(S n 2k = j). Lösung: Bedingen nach {S 2k = 0} liefert zunächst P(T n = 2k, V n = 2i, S n = j) = P(S 2k = 0)P(T n = 2k, V 2k = 2i, S n = j S 2k = 0). Gegeben {S 2k = 0} sind (S 1,..., S 2k ) und (S 2k+1,..., S n ) unabhängig! V 2k hängt gegeben {S 2k = 0} nur von der ersten Folge ab, die beiden anderen Zufallsvariablen hingegen nur von der zweiten. Wir erhalten P(T n = 2k, V n = 2i, S n = j) = P(S 2k = 0)P(T n = 2k, V 2k = 2i, S n = j S 2k = 0) Mit (1) und (2) folgt nun die Behauptung. = P(S 2k = 0)P(V 2k = 2i S 2k = 0)P(T n = 2k, S n = j S 2k = 0) = P(S 2k = 0)P(V 2k = 2i S 2k = 0)P(S 2k+1 > 0,..., S n > 0, S n = j S 2k = 0) Aufgabe 3 (Transformationen von Brownscher Brücke und Brownscher Bewegung) Sei B eine Brownsche Bewegung auf [0, ) und B 0 eine Brownsche Brücke auf [0, 1] (von 0 nach 0). Zeigen Sie: eine Brownsche Bewegung. (Skalierungseigen- (a) Für c > 0 ist der skalierte Prozess cb t c schaft) 2

(b) Der zeitinvertierte Prozess X 0 = 0, X t := tb 1, t > 0 ist eine Brownsche Bewegung. t (Zeitinversionseigenschaft der Brownschen Bewegung) (c) Der Prozess B(1 t) 0 ist wieder eine Brownsche Brücke. (Zeitinversionseigenschaft der Brownschen Brücke) (d) tb (1 t)/t ist eine Brownsche Brücke (Trafo von BB zu Brücke) (e) (1 + t)b 0 t/(1+t) ist eine Brownsche Bewegung auf [0, ) (Trafo von Brücke zu BB) Lösung: Es ist klar, dass alle in den Aufgabenteilen genannten Prozesse Gaussprozesse sind. Ein Gaussprozess auf E ist bekanntlich bereits durch Angabe der Funktionen M X : E R, e EX e und C X : E E R, (e, e ) Cov(X e, X e ) eindeutig festgelegt. Hier ist E = [0, ). Ist B Brownsche Bewegung, so folgt und für s < t M B (t) = EB t = 0, t [0, ) Cov(B s, B t ) = E(B s B t ) = E(B s (B t B s + B s )) = E(B s (B t B s )) + E(B 2 s) = s, also C B (s, t) = min(s, t). Nach Denition gilt für eine Brownsche Brücke B 0 M B 0(t) = 0, 0 t 1, C B 0(s, t) = s(1 t), 0 s t 1. Damit genügt es, in allen Teilen zu zeigen, dass die Funktionen M und C jeweils denen einer Brownschen Bewegung bzw. Brownschen Brücke entsprechen. (a) Für X := cb t c 2 ist oenbar M X 0 und C X (s, t) = Cov(X s, X t ) = E(cB s/c 2cB t/c 2) = c 2 min(s/c 2, t/c 2 ) = min(s, t). X ist also Brownsche Bewegung. (b) Für X gilt EX 0 = 0 und für t > 0 und für s, t > 0 EX t = teb 1 t Cov(X s, X t ) = E(X s X t ) = ste(b 1 s = t 0 = 0, B 1 ) = t st max(s, t) = min(s, t). Für s = 0 oder t = 0 folgt diese Beziehung trivialerweise. Beachten Sie, dass damit insbesondere die Stetigkeit der Pfade von X in 0 folgt - eine keineswegs triviale Aussage über die Asymptotik der Brownschen Bewegung für t!

(c) Es gilt für X t = B 0 (1 t), dass E X 0 und da für 0 s t 1 gilt, dass 0 1 t 1 s 1 ist, folgt nach Denition der Brownschen Brücke C X (s, t) = E(B 0 (1 s)b 0 (1 t)) = (1 t)(1 (1 s)) = s(1 t). Damit ist X wieder Brownsche Brücke. (d) Für X t := tb (1 t)/t ist oenbar E X 0 und für 0 s t 1 gilt C X (s, t) = E(sB (1 s)/s tb (1 t)/t ) = st min((1 s)/s, (1 t)/t). Da x (1 x)/x auf [0, 1] monoton fällt, folgt weiter C X (s, t) = st(1 t)/t = s(1 t). (e) Für X t := (1 + t)b 0 t/(1+t) ist oenbar E X 0 und für 0 s t < nach Denition der Brownschen Brücke (es ist zu beachten, dass stets s/(1 + s) t/(1 + t) [0, 1]) C X (s, t) = E((1 + s)b 0 s/(1+s)(1 + t)b 0 t/(1+t)) = (1 + s)(1 + t)s/(1 + s)(1 t/(1 + t)) = s(1 + t t) = s. Damit ist X eine Brownsche Bewegung. Aufgabe 4 (Linearkombinationen von Gaussprozessen und Brownschen Bewegungen) (a) Seien X und Y unabhängige Gaussprozesse auf einem metrischen Raum E. Zeigen Sie, dass für a, b R ax + by wieder ein Gaussprozess ist. (b) Seien W und W unabhängige Brownsche Bewegungen. Für welche (a, b) R 2 ist wieder eine Brownsche Bewegung? aw + b W Lösung: (a) In dieser Vorlesung besitzen Gaussprozesse nach Denition stetige Pfade - es ist klar, dass sich diese Eigenschaft auf Linearkombinationen vererbt. Es bleibt zu zeigen, dass die endlich-dimensionalen Verteilungen von ax + by (mehrdimensionale) Normalverteilungen sind. Dies ist der Fall, denn für n N, (t 1,..., t n ) E n gibt es µ X, µ Y R n, A X, A Y R n2 so, dass (X t1,..., X tn ) N (µ X, A X ) (Y t1,..., Y tn ) N (µ Y, A Y ). Nach dem Additionasgesetz für unabhängige (!) normalverteilte Zufallsvektoren (siehe SII, 18.13) folgt dann aber a(x t1,..., X tn ) + b(y t1,..., Y tn ) N (aµ X + bµ Y, a 2 A X + b 2 A Y ).

(b) Nach Teil (a) ist aw +b W ein Gaussprozess. Ein Gaussprozess auf E ist bekanntlich bereits durch Angabe der Funktionen M X : E R, e EX e und C X : E E R, (e, e ) Cov(X e, X e ) eindeutig festgelegt. Hier ist E = [0, ) und M aw +b W (t) 0, t [0, ) und C aw +b W (s, t) = Cov(aW s + b W s, aw t + b W t ) = Cov(aW s, aw t ) + Cov(aW s, b W t ) + Cov(b W s, aw t ) + Cov(b W s, b W t ) = a 2 min(s, t) + 0 + 0 + b 2 min(s, t) = (a 2 + b 2 ) min(s, t). Damit ist aw + b W genau dann eine Brownsche Bewegung, wenn a 2 + b 2 = 1.