Institut für Stochastik PD. Dr. Dieter Kadelka Daniel Gentner Asymptotische Stochastik (SS 2010) Lösungen zu Übungsblatt 4 Aufgabe 1 (lokaler Grenzwertsatz von de Moivre und Laplace und eine Verallgemeinerung) Der lokale GWS von de Moivre und Laplace kann wie folgt formuliert werden: Sei 0 < p < 1 fest und Y n Bin(n, p), insbesondere EY n = np, Var(Y n ) = np(1 p). Ferner sei φ µ,σ 2 die Lebesgue-Dichte von N (µ, σ 2 ). Zeigen Sie, dass für alle C > 0 gilt, dass P(Y n = k) φ np,np(1 p) (k) 1 = 0. k: k np C np(1 p) (D.h. die Zähldichte der Binomialverteilung und die (stetige) Dichte der Normalverteilung sind asymptotisch gleich, und zwar gleichmäÿig in k auf kompakten (d.h. hier endlichen) Mengen.) Man beweise die folgende, allgemeinere Aussage: Seien X n, n N, Zufallsvariable mit Werten in T n := N 0 + b n, wobei > 0. Die Zähldichte t f n (t) := P(X n = t), t T n habe die Eigenschaft ( ) k f n( (k + 1) + b n ) f n ( k + b n ) für k N 0 (mit 0/0 := 0). Gilt X n (1) d N (0, 1), so gilt für alle 0 < c < f n (t)/ 1 φ(t) = 0. t T n : t c Lösung: Sei F n die Verteilungsfunktion von X n. Es gilt F n (x) = t T n : t x f n(t), x R. Sei Φ die Verteilungsfunktion von N (0, 1). (i) Aus dem Satz von Polya (Blatt 1, Aufgabe 2) folgt wegen der Stetigkeit von Φ und hieraus auch (2) x<y F n (x) Φ(x) = 0 x R P(x < X n y) (Φ(y) Φ(x)) = 0. Da alle F n konstant auf Intervallen der Länge sind, folgt hieraus auch (3) (ii) (1) ist äquivalent zu (4) Denn f n(t)/ 1 φ(t) = 1 φ(t) t T n : t c f n(t) = 0. f n (t) φ(t) und 2.5 1 φ(t) = 0. 1 φ(t) φ(c) < für t c.
(iii) Die Zähldichten f n sind unimodal, d.h. sie besitzen eine Maximimumstelle t n T n, sind links von t n monoton steigend und rechts von t m monoton fallend (nicht notwendig strikt). Dies ist eine Konsequenz von ( ). Es gibt ein k n N 0 mit f n( (k+1)+b n ) f n ( k+b n 1 für k < k ) n und f n( (k+1)+b n ) f n ( k+b n < 1 für k k ) n. Denn es ist nicht möglich, dass f n( (k+1)+b n ) f n ( k+b n 1 für ) alle k N 0 gilt. k n = 0 ist allerdings nicht ausgeschlossen. t n := k n + b n ist dann der gesuchte Wert. (iv) Sei φ n (t) := f n( k+b n ) für k + b n t (k + 1) + b n und φ n (t) = 0 für t < b n. Die φ n sind dann Dichten von Verteilungen P n mit Verteilungsfunktionen G n (eine Art Histogrammbildung). Da die f n unimodal sind, sind auch die Dichten φ n unimodal. Nach Konstruktion ist t n ein Modalwert von φ n. Ist Y n eine Zufallsvariable mit Verteilungsfunktion G n und X n := k + b n für k + b n Y n (k + 1) + b n, so gilt X n X n nach Konstruktion und Y n X n. Wegen Satz 3.23 folgt aus X n d N (0, 1) auch Y n d N (0, 1). Aus (1) wird (5) x<y (G n (y) G n (x)) (Φ(y) Φ(x)) = 0. Hinreichend für (4) ist jetzt der Nachweis von (6) φ n (t) φ(t) = 0. t R (v) Sind die Dichten φ n unimodal (ohne dass ( ) gefordert wird), so gilt (7) 3α := inf inf (φ n(t) φ(t)) 0. t R Denn sei α < 0. Dann gibt es nach Übergang zu einer Teilfolge von (X n ) n N eine notwendig beschränkte Folge (t n ) n N in R mit (φ n (t n ) φ(t n )) = 3α. Nach Übergang zu einer weiteren Teilfolge kann angenommen werden, dass t := t n existiert und wegen der Stetigkeit von φ dann (8) (φ n(t n ) φ(t )) = 3α < 0. Da φ stetig ist, gibt es ein ϵ > 0 mit φ(t) φ(t ) + α für alle t [t ϵ, t + ϵ]. Da die φ n unimodal sind, gilt φ n (t) φ n (t n ) für alle t t n oder alle t t n. Sei etwa φ n (t) φ n (t n ) für alle t t n. Für genügend groÿes n gilt t n t ϵ/2 und G n (t ϵ/2) G n (t ϵ) = t ϵ/2 t ϵ t ϵ/2 t ϵ φ n (t) dt φ n (t n ) ϵ 2 (φ(t ) + 2α) ϵ 2 (φ(t) + α) dt = Φ(t ϵ/2) Φ(t ϵ) + α ϵ 2 im Widerspruch zu (5). Analog geht man vor, wenn φ n (t) φ n (t n ) für alle t t n. (vi) Sind die Dichten φ n unimodal und ist t n R für n N ein (beliebiger) Modalwert von φ n, so gilt t n = 0.
Andernfalls kann nach Übergang zu einer Teilfolge erreicht werden, dass ein δ > 0 existiert mit t n δ für alle n N, etwach Übergang zu einer weiteren Teilfolge t n δ > 0 für alle n N. Es folgt, dass φ n auf (, δ]. Wegen ϵ φ(ϵ) Φ(ϵ) Φ(0) = (G n (ϵ) G n (0)) = ϵ 0 φ n (t) dt ϵ inf für alle 0 < ϵ δ/2 gilt notwendig inf φ n (δ/2) φ(0), also auch inf Hieraus folgt direkt der Widerspruch δ/2 φ(δ/2) δ δ/2 inf φ n (t) φ(0). t: δ/2 t δ φ n(δ/2) φ(t) dt = G(δ) G(δ/2) = (G n (δ) G n (δ/2)) δ/2 φ(0). (vii) Sind die Dichten φ n unimodal, so gilt für alle δ > 0 (9) 3α := t R: t δ (φ n (t) φ(t)) 0. Wegen (vi) kann angenommen werden, dass φ n auf (, δ 2 ] und φ n auf [ δ 2, ). Denn gilt dies nicht, so existiert wie in (v) nach Übergang zu einer Teilfolge von (X n ) n N ein endliches α > 0 und eine beschränkte Folge (t n ) n N in {t R: t δ}, so dass t := t n existiert und (10) (φ n(t n ) φ(t )) 3α > 0 gilt. ( φ n (t n ) = kann vorerst nicht ausgeschlossen werden.) Sei etwa t δ und v [ 3δ, 4 t ) beliebig mit φ(v) < φ(t ) + α. Für genügend groÿes n gilt dann t n > v und φ n (t n ) φ(t ) + 2α > φ(v) + α. Da φ auf [ δ, ) gilt φ 2 n(v) > φ(v) + α. Da φ stetig ist, gibt es ein δ u < v mit φ(u) < φ(v) + α/2, also auch φ 2 n(t) φ n (v) > φ(v) + α > φ(t) + α/2 für alle u t v. Wie früher steht dies im Widerspruch zu (G n (v) G n (u)) = Φ(v) Φ(u). f (viii) Einfache Gegenbeispiele zeigen, dass ohne weitere Voraussetzungen n (t n ) = möglich ist. (1) kann dann nicht gelten. Kombiniert man (v) und (vii), so folgt aus X d n N (0, 1) für unimodale Zähldichten f n von X n (11) t T n : t δ f n (t) φ(t) = 0 für alle δ > 0 und zusätzlich inf inf t T n f n (t) φ(t) 0. Ersetzt man X n durch X n t n, so gilt wegen Satz 3.23 und (vi) wieder X n t n d N (0, 1) und an der Bedingung ( ) ändert sich nichts. Wir können daher der Einfachheit halber
t n = 0 voraussetzen und es reicht wegen min{f n ( δ), f n (δ)} f n (t) f n (0) für δ t δ in T n f n (0) ( ) = φ(0) f zu zeigen, wobei inf n(0) φ(0) schon bekannt ist. Dies folgt z.b. aus ( ). Denn aus log(f n ( (k + 1) + b n )) log(f n ( k + b n )) folgt, dass k log(f n ( k + b n )) konkav ist und log(φ(x)) = 1 log(2π) 2 x2 /2 (Skizze!). Aufgabe 2 (Einfache eindimensionale Irrfahrt) Seien X 1, X 2,... Bin(1, 1 2 ) und S n := die eindimensionale Irrfahrt. Sei T n das gröÿte 0 i n mit S i = 0 und V n die Anzahl der 1 i T n mit S i 1 0 und S i 0. Wir setzen die Gültigkeit der Gleichungen n i=1 X i (12) P(S 1 > 0,..., S n 1 > 0, S n = j) = j n P(S n = j), j > 0, n N. und (13) P(V 2m = 2i S 2m = 0) = 1, i {0, 1,..., m}, m N, m + 1 voraus. Leiten Sie ab, dass für 0 2i 2k < n, j > 0 gilt, dass 1 j P(T n = 2k, V n = 2i, S n = j) = P(S 2k = 0) k + 1 n 2k P(S n 2k = j). Lösung: Bedingen nach {S 2k = 0} liefert zunächst P(T n = 2k, V n = 2i, S n = j) = P(S 2k = 0)P(T n = 2k, V 2k = 2i, S n = j S 2k = 0). Gegeben {S 2k = 0} sind (S 1,..., S 2k ) und (S 2k+1,..., S n ) unabhängig! V 2k hängt gegeben {S 2k = 0} nur von der ersten Folge ab, die beiden anderen Zufallsvariablen hingegen nur von der zweiten. Wir erhalten P(T n = 2k, V n = 2i, S n = j) = P(S 2k = 0)P(T n = 2k, V 2k = 2i, S n = j S 2k = 0) Mit (1) und (2) folgt nun die Behauptung. = P(S 2k = 0)P(V 2k = 2i S 2k = 0)P(T n = 2k, S n = j S 2k = 0) = P(S 2k = 0)P(V 2k = 2i S 2k = 0)P(S 2k+1 > 0,..., S n > 0, S n = j S 2k = 0) Aufgabe 3 (Transformationen von Brownscher Brücke und Brownscher Bewegung) Sei B eine Brownsche Bewegung auf [0, ) und B 0 eine Brownsche Brücke auf [0, 1] (von 0 nach 0). Zeigen Sie: eine Brownsche Bewegung. (Skalierungseigen- (a) Für c > 0 ist der skalierte Prozess cb t c schaft) 2
(b) Der zeitinvertierte Prozess X 0 = 0, X t := tb 1, t > 0 ist eine Brownsche Bewegung. t (Zeitinversionseigenschaft der Brownschen Bewegung) (c) Der Prozess B(1 t) 0 ist wieder eine Brownsche Brücke. (Zeitinversionseigenschaft der Brownschen Brücke) (d) tb (1 t)/t ist eine Brownsche Brücke (Trafo von BB zu Brücke) (e) (1 + t)b 0 t/(1+t) ist eine Brownsche Bewegung auf [0, ) (Trafo von Brücke zu BB) Lösung: Es ist klar, dass alle in den Aufgabenteilen genannten Prozesse Gaussprozesse sind. Ein Gaussprozess auf E ist bekanntlich bereits durch Angabe der Funktionen M X : E R, e EX e und C X : E E R, (e, e ) Cov(X e, X e ) eindeutig festgelegt. Hier ist E = [0, ). Ist B Brownsche Bewegung, so folgt und für s < t M B (t) = EB t = 0, t [0, ) Cov(B s, B t ) = E(B s B t ) = E(B s (B t B s + B s )) = E(B s (B t B s )) + E(B 2 s) = s, also C B (s, t) = min(s, t). Nach Denition gilt für eine Brownsche Brücke B 0 M B 0(t) = 0, 0 t 1, C B 0(s, t) = s(1 t), 0 s t 1. Damit genügt es, in allen Teilen zu zeigen, dass die Funktionen M und C jeweils denen einer Brownschen Bewegung bzw. Brownschen Brücke entsprechen. (a) Für X := cb t c 2 ist oenbar M X 0 und C X (s, t) = Cov(X s, X t ) = E(cB s/c 2cB t/c 2) = c 2 min(s/c 2, t/c 2 ) = min(s, t). X ist also Brownsche Bewegung. (b) Für X gilt EX 0 = 0 und für t > 0 und für s, t > 0 EX t = teb 1 t Cov(X s, X t ) = E(X s X t ) = ste(b 1 s = t 0 = 0, B 1 ) = t st max(s, t) = min(s, t). Für s = 0 oder t = 0 folgt diese Beziehung trivialerweise. Beachten Sie, dass damit insbesondere die Stetigkeit der Pfade von X in 0 folgt - eine keineswegs triviale Aussage über die Asymptotik der Brownschen Bewegung für t!
(c) Es gilt für X t = B 0 (1 t), dass E X 0 und da für 0 s t 1 gilt, dass 0 1 t 1 s 1 ist, folgt nach Denition der Brownschen Brücke C X (s, t) = E(B 0 (1 s)b 0 (1 t)) = (1 t)(1 (1 s)) = s(1 t). Damit ist X wieder Brownsche Brücke. (d) Für X t := tb (1 t)/t ist oenbar E X 0 und für 0 s t 1 gilt C X (s, t) = E(sB (1 s)/s tb (1 t)/t ) = st min((1 s)/s, (1 t)/t). Da x (1 x)/x auf [0, 1] monoton fällt, folgt weiter C X (s, t) = st(1 t)/t = s(1 t). (e) Für X t := (1 + t)b 0 t/(1+t) ist oenbar E X 0 und für 0 s t < nach Denition der Brownschen Brücke (es ist zu beachten, dass stets s/(1 + s) t/(1 + t) [0, 1]) C X (s, t) = E((1 + s)b 0 s/(1+s)(1 + t)b 0 t/(1+t)) = (1 + s)(1 + t)s/(1 + s)(1 t/(1 + t)) = s(1 + t t) = s. Damit ist X eine Brownsche Bewegung. Aufgabe 4 (Linearkombinationen von Gaussprozessen und Brownschen Bewegungen) (a) Seien X und Y unabhängige Gaussprozesse auf einem metrischen Raum E. Zeigen Sie, dass für a, b R ax + by wieder ein Gaussprozess ist. (b) Seien W und W unabhängige Brownsche Bewegungen. Für welche (a, b) R 2 ist wieder eine Brownsche Bewegung? aw + b W Lösung: (a) In dieser Vorlesung besitzen Gaussprozesse nach Denition stetige Pfade - es ist klar, dass sich diese Eigenschaft auf Linearkombinationen vererbt. Es bleibt zu zeigen, dass die endlich-dimensionalen Verteilungen von ax + by (mehrdimensionale) Normalverteilungen sind. Dies ist der Fall, denn für n N, (t 1,..., t n ) E n gibt es µ X, µ Y R n, A X, A Y R n2 so, dass (X t1,..., X tn ) N (µ X, A X ) (Y t1,..., Y tn ) N (µ Y, A Y ). Nach dem Additionasgesetz für unabhängige (!) normalverteilte Zufallsvektoren (siehe SII, 18.13) folgt dann aber a(x t1,..., X tn ) + b(y t1,..., Y tn ) N (aµ X + bµ Y, a 2 A X + b 2 A Y ).
(b) Nach Teil (a) ist aw +b W ein Gaussprozess. Ein Gaussprozess auf E ist bekanntlich bereits durch Angabe der Funktionen M X : E R, e EX e und C X : E E R, (e, e ) Cov(X e, X e ) eindeutig festgelegt. Hier ist E = [0, ) und M aw +b W (t) 0, t [0, ) und C aw +b W (s, t) = Cov(aW s + b W s, aw t + b W t ) = Cov(aW s, aw t ) + Cov(aW s, b W t ) + Cov(b W s, aw t ) + Cov(b W s, b W t ) = a 2 min(s, t) + 0 + 0 + b 2 min(s, t) = (a 2 + b 2 ) min(s, t). Damit ist aw + b W genau dann eine Brownsche Bewegung, wenn a 2 + b 2 = 1.