Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten Folgen (S 0, S 1,..., S n ) mit S k = n X k haben die Eigenschaften P (X k = 1) = P (X k = +1) = 1, k = 1, 2,..., n. 2 Die Folge (S k, k = 0, 1,..., n) kann man auffassen als die Orte eines Teilchens, das sich in jeder Zeiteinheit mit gleicher Wahrscheinlichkeit um eine Einheit nach oben oder nach unten bewegt. Dabei erfolgt der Schritt in der k-ten Zeiteinheit unabhängig vom Verhalten der Folge (S l, l k), also vom Verhalten bis zur k-ten Zeiteinheit. Insofern spricht man auch von einer (symmetrischen) Irrfahrt. In diesem Kapitel werden wir den Begriff der Irrfahrt auf den nichtsymmetrischen Fall ausdehnen und einige ihrer weiteren Eigenschaften herleiten. Mit Irrfahrten eng verwandt sind die Bernoullischemata. Beide Objekte, also Irrfahrten und Bernoullischemata, beruhen auf unabhängigen identisch verteilten Zufallsgrößen mit jeweils zwei möglichen Werten und sind im Grunde äquivalente Formen ein und desselben Modells. Dass man dennoch beide Formen getrennt behandelt, hängt mit Anwendungsaspekten zusammen. 121
122 Uwe Küchler 6.1 Irrfahrten Wir haben bereits die symmetrische Irrfahrt (S k, k n) kennen gelernt, die sich aus einem Laplace-Experiment (n-maliges Werfen einer regulären Münze) ergibt: (Ω, A, P ) mit Ω = { 1, +1} n, A = P(Ω), X l (ω) = x l, ω = (x 1, x 2,, x n ) Ω, l = 1,, n, S k (ω) = k X l (ω) und l=1 P ({ω}) = 2 n, ω Ω. Offenbar gilt P (X 1 = x 1, X 2 = x 2,, X n = x n ) = 2 n (x 1, x 2,, x n ) { 1, 1} n und somit für jedes k mit 1 k n P (X k = x k ) = x 1,,x k 1,x k+1,x n { 1,1} P (X 1 = x 1,, X n = x n ) = 1 2. Daraus folgt für alle (x 1, x 2,, x n ) { 1, 1} n die Gleichung P (X 1 = x 1, X 2 = x 2,, X n = x n ) = n P (X k = x k ). Das heißt aber gerade, dass die Zufallsgrößen X 1, X 2,..., X n voneinander unabhängig sind und alle die gleiche Verteilung besitzen ( m.a.w., identisch verteilt sind). Ist die Münze, mit der geworfen wird, nicht mehr regulär, sondern erscheint das Wappen mit der Wahrscheinlichkeit p (p (0, 1)) und die Zahl mit der Wahrscheinlichkeit q := 1 p oben, so bleiben die Würfe noch voneinander unabhängig und ihre Ausgänge besitzen alle dieselbe Wahrscheinlichkeitsverteilung, die nunmehr lautet:
Irrfahrten und Bernoullischemata 123 P (X k = 1) = p, P (X k = 1) = 1 p, k = 1, 2,, n, mit anderen Worten, es gilt P (X k = i) = p 1+i 2 (1 p) 1 i 2, i { 1, +1}, 1 k n. (1) Die Ausgänge ω = (x 1, x 2,, x n ) Ω der Wurfserie haben jedoch, falls p q gilt, nicht mehr die gleiche Wahrscheinlichkeit: P ({ω}) = n P (X k = x k ) = p n+sn 2 (1 p) n sn 2 (2) mit s n = x 1 + + x n. Durch P (A) = ω A P ({ω}), A A ist auf A = P(Ω) eine Verteilung P definiert. Bezüglich P sind wegen (1) und (2) die Zufallsgrößen X 1, X 2,, X n unabhängig und identisch (gemäß (1)) verteilt. Im Folgenden gehen wir davon aus, dass (X k, k 1) eine unendliche Folge voneinander unabhängiger identisch verteilter Zufallsgrößen über einem geeigneten Wahrscheinlichkeitsraum (Ω, A, P ) mit der Verteilung (1) ist. Definition: Die Folge (S n, n 0) mit S 0 := s 0, S n = n X k, n 1, s 0 Z, heißt eine Irrfahrt mit dem Parameter p und mit Start in s 0. Ist s 0 = 0, so nennt man (S n, n 0) einfach eine Irrfahrt mit dem Parameter p. Im Fall p = q = 1 spricht man von einer symmetrischen Irrfahrt auf Z. Dabei bezeichnet Z die Menge aller ganzen 2 Zahlen. Im Folgenden verwenden wir die Bezeichnung
124 Uwe Küchler A n := σ(x 1, X 2,, X n ), n 1, d.h., A n ist die kleinste σ-algebra von Teilmengen von Ω, bezüglich der alle X 1, X 2,, X n messbar sind. Es gilt A n A, da alle X k bezüglich A messbar sind, und A n besteht hier aus allen Teilmengen A von Ω der Form A = {ω Ω (X 1 (ω),, X n (ω)) B}, wobei B irgend eine Teilmenge von { 1, +1} n ist. Wegen der bijektiven Beziehung zwischen (X 1, X 2,, X n ) und (S 1, S 2,, S n ) haben wir auch A n = σ(s 1, S 2,, S n ), n 1. Eine fast offensichtliche Eigenschaft jeder Irrfahrt (S n, n 0) mit Parameter p ist die folgende: Aussage: Wählt man eine feste Zeit n 0 1 und bildet S n := S n+n0 S n0 (n 0), so ist ( S n, n 0) wieder eine Irrfahrt mit demselben Parameter p. Außerdem ist ( S n, n 0) unabhängig von A n0. Beweis: Die Zufallsgrößen X k := X n0 +k, k 1 sind voneinander unabhängig und haben alle die gleiche Verteilung: P ( X k = x k ) = p 1+x k 2 (1 p) 1 x k 2, x k {+1, 1}. Weiterhin ist P ( X 1 = x 1,, X n = x n ) = P (X n0 +1 = x 1,, X n0 +n = x n ) = P (X 1 = x 1,, X n = x n ) = p n+sn 2 (1 p) n sn 2 mit n s n = x k.
Irrfahrten und Bernoullischemata 125 Wegen S n = S n0 +n S n0 = n X k, n 0 ist folglich ( S n ) eine Irrfahrt mit dem Parameter p. Ist A A n0, so gibt es ein B { 1, +1} n 0 mit A = {(X 1,, X n0 ) B}. Da alle (X k, k 1) voneinander unabhängig sind, sind es auch die beiden Folgen (X 1, X 2,, X n0 ) und (X n0 +1, X n0 +2, ) und somit auch A und ( S n, n 1). Damit ist die Aussage bewiesen. Nach jedem Zeitpunkt n 0 beginnt also eine Irrfahrt praktisch von Neuem, sie hat kein Gedächtnis. Wir können mit der oben eingeführten Irrfahrt die Vorstellung verbinden, dass sich ein Teilchen, bei s 0 startend, in jedem Zeittakt auf zufällige Weise um eine Einheit nach oben oder nach unten bewegt, und zwar mit Wahrscheinlichkeit p bzw. q = 1 p, unabhängig von seinem bisherigen Verhalten. Seine Lage im Zeitpunkt n ist S n, also insbesondere eine Zufallsgröße. Die Verteilung von S n Es sei (S n, n 0) eine Irrfahrt mit dem Parameter p. Interpretieren wir wieder S n als Lage eines Teilchens zur Zeit n, so befindet sich das Teilchen zu geraden Zeitpunkten n in einem geradzahligen Punkt S n, zu ungeraden Zeitpunkten n in einem ungeradzahligen Punkt S n. Aussage: Für die Wahrscheinlichkeitsverteilung von S n gilt: a) P (S 0 = 0) = 1 b) n = 2m, m 1, P (S 2m = 2k) = ( 2m k+m) p m+k (1 p) m k, m k m P (S 2m = l) = 0 sonst. c) n = 2m + 1, m 0
126 Uwe Küchler P (S 2m+1 = 2k + 1) = ( 2m+1 k+m+1) p k+m+1 (1 p) m k, m 1 k m P (S 2m+1 = l) = 0 sonst. Beweis: b) P (S 2m = 2k) = P ({ω Ω S 2m (ω) = 2k}) = ω Ω:S 2m (ω)=2k P ({ω}). S 2m (ω) = 2k ist genau dann der Fall, wenn in ω = (x 1, x 2,, x 2m ) genau (m + k)-mal die +1 auftritt. Jedes solche ω hat wegen (2) die gleiche Wahrscheinlichkeit p m+k (1 p) m k und es gibt ( 2m m+k) Folgen ω dieser Art. c) Der Beweis erfolgt analog zu b). Die Zufallsgröße 1 2 (S n + n) ist somit binomialverteilt mit den Parametern n und p (sowohl für gerades wie für ungerades n). Zeit des ersten Erreichens des Zustandes m In diesem Abschnitt werden die Zeiten V m studiert, zu denen die Irrfahrt zum ersten Mal den Zustand m(m 1) erreicht. Nach der (vom Zufall abhängenden) Zeit V m verhält sich die Irrfahrt, als starte sie bei m von Neuem, unabhängig von ihrem vergangenen Verhalten und mit dem gleichen Parameter p (vorausgesetzt, sie erreicht m überhaupt jemals). Für p = 1 2 ist der Erwartungswert EV m für jedes m 1 unendlich groß. Interpretiert man die Irrfahrt (S n, n 0) mit S 0 = 0, so wie wir das bereits in Abschnitt 2.5 getan haben, als Guthaben eines Spielers, so ist es u. a. von Interesse, wann dieses Guthaben zum ersten Mal positiv wird bzw. zum ersten Mal den Betrag m erreicht. Das sind gerade die eben erwähnten zufälligen Zeiten V 1 bzw. V m. Definition: Es sei m 1. Die Zufallsgröße
Irrfahrten und Bernoullischemata 127 V m (ω) := min{k 1 S k (ω) = m} mit min :=, ω Ω heißt die Zeit des ersten Erreichens des Punktes m durch die Irrfahrt (S n, n 0). Zeiten des ersten Erreichens sind Beispiele sogenannter zufälliger Zeiten und spielen sowohl in der Theorie zufälliger Prozesse als auch für praktische Anwendungen eine wichtige Rolle. Der Fall V m (ω) = tritt genau dann ein, wenn S n (ω) < m für alle n 1 gilt. Weiterhin gilt offenbar S Vm(ω)(ω) = m, falls ω {V m < }. V m ist eine Zufallsgröße, deren Wert davon abhängt, welche Werte die Zufallsgrößen X 1, X 2,, X n, annehmen. So gilt z.b. V 1 (ω) = 3, falls X 1 (ω) = 1, X 2 (ω) = +1, X 3 (ω) = +1 vorliegt. Um Aussagen über die Wahrscheinlichkeitsverteilungen von V 1, V 2, zu erhalten, führen wir die Zufallsgrößen V m auf (S n, n 1) bzw. (X k, k 1) zurück, deren Wahrscheinlichkeitsverteilungen wir bereits kennen. Lemma: Es gilt für k 0, r > k {V 1 = 2k + 1} = {S 1 0, S 2 0,, S 2k = 0, S 2k+1 = 1} (4) {V 1 = 2k + 1, V 2 = 2r} = {S 1 0, S 2 0,, S 2k 1 0, S 2k = 0, S 2k+1 = 1, S 2k+2 1, S 2r 2 1, S 2r 1 = 1, S 2r = 2} und allgemein, (5) {V 1 = k 1, V 2 = k 2,, V m = k m } = {S 1 0, S 2 0,, S k1 1 = 0, S k1 = 1, S k1 +1 1,, S km 1 = m 1, S km = m}, 1 k 1 < k 2 < < k m, m 1. Beweis: Der Beweis ergibt sich unmittelbar aus der Definition der V 1, V 2,, V m.
128 Uwe Küchler Bemerkung: Die rechte Seite von (4) ist so zu verstehen, dass S l 0 für alle l 2k 1 gelten soll. Für den Fall k = 0 ist diese Bedingung nicht relevant und entfällt ohne weiteren Hinweis. Genauso verstehen wir im Weiteren analoge Ausdrücke, z.b. in (5). Mit der folgenden Aussage zeigen wir, dass die Irrfahrt, unter der Bedingung, dass sie den Punkt Eins jemals erreicht, nach der Zeit V 1 wieder von Neuem als Irrfahrt mit dem gleichen Parameter beginnt. Zur Formulierung der Aussage führen wir folgende Bezeichnungen ein: Für alle ω {V 1 < } setzen wir X n(ω) := X n+v1 (ω)(ω), n 1, und lassen X n undefiniert auf {V 1 = }. Dann ist X n für P -fast alle ω definiert, wobei P die bedingte Wahrscheinlichkeitsverteilung P ( V 1 < ) bezeichnet. (Beachte P (V 1 < ) P (X 1 = 1) = p > 0 und P (.) = P (.), falls P (V 1 < ) = 1.) Es sei Sn = n Xk und S 0 = 0. Auf Grund der Definition gilt für alle n 0 S n = S n+v1 S V1 = S n+v1 1, P fast sicher. Aussage: Die Folge (S n, n 0) ist bezüglich der Verteilung P, also bez. P unter der Bedingung V 1 <, eine Irrfahrt mit dem Parameter p. Beweis: P (V 1 <, X 1 = x 1,, X n = x n ) = P (V 1 = 2k + 1, X1 = x 1,, Xn = x n ) = P (V 1 = 2k + 1, X 2k+2 = x 1,, X 2k+1+n = x n ) = P (S 1 0, S 2 0,, S 2k = 0, S 2k+1 = 1, X 2k+2 = x 1,, X 2k+1+n = x n ).
Irrfahrten und Bernoullischemata 129 Jetzt nutzen wir die Unabhängigkeit von (S 1, S 2,, S 2k+1 ) und (X 2k+2,, X 2k+1+n ) aus sowie die Tatsache, dass (X 2k+2,, X 2k+1+n ) die gleiche Verteilung wie (X 1,, X n ) besitzt und erhalten die Summe P (V 1 = 2k + 1)P (X 1 = x 1,, X n = x n ) = P (V 1 < ) P (X 1 = x 1,, X n = x n ) = P (V 1 < ) p n+sn 2 (1 p) n sn 2. Somit gilt P (X 1 = x 1,..., X n = x n ) = p n+sn 2 (1 p) n sn 2. (6) Das Lemma besagt, nach der zufälligen Zeit V 1 (sofern diese endlich ist) verhält sich die Irrfahrt (S n, n 0), als startete sie von Neuem mit demselben Parameter p, dieses Mal vom Zustand Eins. Wir bemerken noch eine Eigenschaft, die wir später benutzen werden. Es sei V1 (ω) = min{k 1 Sk (ω) = 1}, min =. Dann gilt V 1 = V 2 V 1 auf {V 1 < }. (7) Im Fall V 1 (ω) < haben wir nämlich V 1 (ω) + V 1 (ω) = min{k > 1 S k (ω) = 1} + V 1(ω) = min{k + V 1 (ω) > V 1 (ω) S k+v1 (ω)(ω) S V1 (ω)(ω) = 1} = min{m > V 1 (ω) S m (ω) = 2} = min{m 1 S m (ω) = 2} = V 2 (ω).
130 Uwe Küchler Wir haben oben gesehen, dass die Irrfahrt ( S n, n 0) mit S n = S n+n0 S n0 unabhängig von (X 1,, X n0 ), also von A n0 = σ(x 1,, X n0 ) ist. Ein analoger Sachverhalt gilt auch für (Sn, n 0). Allerdings ist er etwas komplizierter in der Formulierung, da jetzt die Zeit V 1 eine Zufallsgröße ist. Wir führen folgendes Ereignissystem aus A ein: A V1 := {A A A {V 1 = 2k + 1} A 2k+1, k 0}. Lemma: A V1 ist eine Teil-σ-Algebra von A. Beweis: und Ω gehören zu A V1, die übrigen Eigenschaften einer σ-algebra folgen unter Zuhilfenahme der Tatsache, dass alle A 2k+1, k 0, σ-algebren sind. Man beachte, dass {V 1 = 2k + 1} A 2k+1, k 0, gilt. Man überzeugt sich leicht davon, dass V 1 bezüglich A V1 messbar ist. Nun können wir die angekündigte Eigenschaft der Irrfahrt (S n, n 0) formulieren. Aussage: Die Folge (Sn, n 1) ist bezüglich P, also bezüglich P unter der Bedingung V 1 <, eine Irrfahrt mit dem Parameter p, die unabhängig von A V1 ist. Beweis: Es sei A A V1. Nach Voraussetzung gibt es für jedes k 0 eine Teilmenge B k von { 1, 1} 2k+1 mit A {V 1 = 2k + 1} = {(X 1,, X 2k+1 ) B k }. Folglich gilt für alle x = (x 1, x 2,, x n ) { 1, +1} n : P (A {X 1 = x 1,, X n = x n } {V 1 < }) = P (A {V 1 = 2k + 1} {X1 = x 1,, Xn = x n }) = P ((X 1,, X 2k+1 ) B k, X 2k+2 = x 1,, X 2k+n+1 = x n ) = P ((X 1,, X 2k+1 ) B k ) P (X 1 = x 1,, X n = x n ) =
Irrfahrten und Bernoullischemata 131 P ({V 1 = 2k + 1} A)P (X 1 = x 1,, X n = x n ) = P (A {V 1 < })P (X 1 = x 1,..., X n = x n ). Teilen wir Anfangs- und Endterm dieser Gleichung durch P (V 1 < ) und berücksichtigen wir die Formel (6) dieses Abschnitts, so erhalten wir P (A {X 1 = x 1,, X n = x n }) = P (A) P (X 1 = x 1,, X n = x n ). Folgerung: Bezüglich P, also bezüglich P unter der Bedingung {V 1 < }, sind V 1 und V 2 V 1 unabhängige Zufallsgrößen mit P (V 2 V 1 = 2k + 1) = P (V 1 = 2k + 1) = P (V 1 = 2k + 1), k 0. Die Wahrscheinlichkeitsverteilung der zufälligen Zeit V 1 Wir bestimmen die Wahrscheinlichkeiten P (V 1 = 2k + 1) mithilfe der erzeugenden Funktion g 1 von V 1 : g 1 (s) := Es V 1 = s 2k+1 P (V 1 = 2k + 1), s 1. Es gilt P (V 1 = 1) = p, und für k 1 haben wir P (V 1 = 2k + 1) = P (X 1 = 1, S 2 0,..., S 2k = 0, S 2k+1 = 1) = P (X 1 = 1, S 2 X 1 1,..., S 2k X 1 = 1, S 2k+1 X 1 = 2) =
132 Uwe Küchler P (X 1 = 1)P (S 1 1, S 2 1,..., S 2k 1 = 1, S 2k = 2) = (1 p)p (V 2 = 2k). Somit ist mit der Bezeichnung q = 1 p g 1 (s) = ps + qs s 2k P (V 2 = 2k) = ps + qses V 2, s 1. (8) Es gilt wegen s V 2(ω) = 0, falls V 2 (ω) = und s < 1, Es V 2 = E[1 {V1 < }s V 2 ] = E[1 {V1 < }s V 2 V 1 s V 1 ] = E [s V 2 V 1 s V 1 ]P (V 1 < ) = E s V 1 E s V1 P (V 1 < ) = Es V1 Es V 1 = [Es V 1 ] 2 = g 2 1(s). (9) Weiterhin wurden die Unabhängigkeit von V 1 und V 1 = V 2 V 1 bezüglich P, die Definition E [Z] = E[Z 1 {V1 < }] / P (V 1 < ) und die Gleichung E s V 1 = Es V 1 benutzt. Wegen (8) und (9) genügt g 1 ( ) der Gleichung g 2 1(s) 1 qs g 1(s) + p q = 0, s < 1. Als Lösung ergibt sich auf Grund der Beschränktheit von g 1 ( ) auf ( 1, 1): g 1 (s) = 1 2qs [1 (1 4pqs2 ) 1 2 ], s < 1. Anhand dieser erzeugenden Funktion berechnen wir die Einzelwahrscheinlichkeiten P (V 1 = 2k + 1), P (V 1 < ), d.h. die Wahrscheinlichkeit, Eins jemals zu erreichen und EV 1.
Irrfahrten und Bernoullischemata 133 Zunächst gilt P (V 1 < ) = also P (V 1 = 2k + 1) = lim s 1 g 1 (s), P (V 1 < ) = 1 (1 4pq) 1 2 2q = 1 (p2 2pq + q 2 ) 1 2 2q = 1 p q 2q = { 1 falls p 1 2 p q falls p < 1 2. Für die Einzelwahrscheinlichlichkeiten der Verteilung von V 1 ergibt sich durch Entwicklung der erzeugenden Funktion g 1 ( ) in eine Potenzreihe P (V 1 = 2k 1) = (2pq)k 2qk! (2k 3)!!, k 1 mit m!! = 1 3 5... m für ungerades m (Übung). Wegen EV 1 = lim s 1 EV 1 = d q ds 1(s) erhalten wir { 1 p q, falls p > q, falls p q. Insbesondere gelten für die symmetrische Irrfahrt (p = q) die Gleichungen P (V 1 < ) = 1 und EV 1 =. 6.2 Bernoullischemata Es seien (Ω, A, P ) ein Wahrscheinlichkeitsraum, n 1 und p (0, 1).
134 Uwe Küchler Definition: Jede Folge X = (X 1, X 2,..., X n ) von Zufallsgrößen über (Ω, A, P ) mit 1. X 1, X 2,..., X n sind voneinander unabhängig, 2. P (X k = 1) = p, P (X k = 0) = 1 p =: q, k = 1,..., n heißt ein Bernoullischema mit den Parametern n und p. Wir bezeichnen es mit BS n (p). Ist X = (X k, k 1) eine unendliche Folge von Zufallsgrößen mit den Eigenschaften 1. und 2. für alle n 2, so heißt (X k, k 1) ein unendliches Bernoullischema mit dem Parameter p. Wir verwenden dafür die Kurzschreibweise BS (p). Eigenschaft 2. kann man auch in der Form P (X k = i) = p i (1 p) 1 i, i {0, 1}, k = 1,..., n (1) schreiben. Für jedes Bernoullischema BS n (p) oder BS (p) ist X = (X 1,..., X n ) ein zufälliger Vektor mit den möglichen Werten x = (i 1, i 2,..., i n ), i k {0, 1}, k = 1,..., n. Wir definieren E = {0, 1} n. Der zufällige Vektor X bildet Ω in E ab. Er ist folglich diskret verteilt, und es gilt nach Definition für jedes x = (i,..., i n ) E : P (X = x) = P (X 1 = i 1,..., X n = i n ) = n P (X k = i k ) = p n i k (1 p) n n i k. (2) Bemerkung: Das Bernoullischema BS n (p) entspricht einem n-stufigen zufälligem Experiment, dessen Einzelexperimente voneinander unabhängig sind und jeweils nur zwei mögliche Versuchsausgänge haben (wir bezeichnen sie mit 0
Irrfahrten und Bernoullischemata 135 bzw. 1), die in jedem Teilexperiment mit der Wahrscheinlichkeit q bzw. p auftreten. Die Zufallsgröße X k gibt in diesem Zusammenhang das Ergebnis des k-ten Teilexperimentes an. Dabei wird das Ereignis {X k = 1} häufig als Erfolg im k-ten Experiment bzw. das Ereignis {X k = 0} als Misserfolg im k-ten Experiment gedeutet. Mit dem Bernoullischema sind mehrere konkrete Zufallsgrößen und ihre Wahrscheinlichkeitsverteilungen verbunden, von denen wir im Folgenden einige studieren werden. l=1 Es sei X = (X 1,..., X n ) ein BS n (p). Die Zufallsgröße S k, definiert durch k S k (ω) = X l (ω), ist gleich der Anzahl der Erfolge in den ersten k Teilexperimenten des Bernoullischemas. Aussage: Die Zufallsgröße S n ist binomialverteilt mit den Parametern n und p, d.h. es gilt P (S n = k) = ( n n) p k (1 p) n k, k = 0, 1,..., n. Beweis: P (S n = k) = P (X 1 +... + X n = k) = P X ({x E : n i j = k}) = j=1 x=(i 1,...,in): ij =k n p i j (1 p) 1 i j = j=1 x=(i 1,...,in): ij =k p k (1 p) n k = ( n k) p k (1 p) n k, da alle x E mit n i j = k dieselbe Wahrscheinlichkeit p k (1 p) n k besitzen j=1 (siehe (2)) und es ( n k) solcher x E gibt. Für die folgenden Zufallsgrößen nehmen wir ein unendliches Bernoullischema BS (p) als gegeben an. Die Zufallsgrößen
136 Uwe Küchler T 1 (ω) := min{k > 0 X k (ω) = 1}, T m (ω) := min{k > T m 1 (ω) X k (ω) = 1}, m 2 geben die Zeitpunkte an, zu denen der erste bzw. der m-te Erfolg im BS (p) eintritt. Dabei setzt man min := und T 0 (ω) := 0. Mit diesen Bezeichnungen ist T m+1 T m die Anzahl der Versuche nach dem m-ten bis zum (m + 1)-ten Erfolg, T m m die Anzahl der Misserfolge bis zum m-ten Erfolg, m 1. T m+1 T m 1 ist die Anzahl der Misserfolge zwischen dem m-ten und dem (m + 1)-ten Erfolg. Aussage: Es gilt: a) T 1 1 ist geometrisch verteilt mit dem Parameter p. b) (T k+1 T k 1), k 0, sind voneinander unabhängig und identisch verteilt wie T 1 1. c) T m m besitzt eine negative Binomialverteilung mit den Parametern m und p. d) Die Folge (X Tm+k, k 1) bildet ein unendliches Bernoullischema mit dem Parameter p und ist unabhängig von A Tm. (Man beachte, dass auf Grund von c) P (T m < ) = 1 gilt.) Beweis: a) P (T 1 1 = k) = P (T 1 = k + 1) = P (X 1 = 0, X 2 = 0,..., X k = 0, X k+1 = 1) = (1 p) k p, k 0 b) Es sei m irgendeine natürliche Zahl mit m 2. Das Ereignis
Irrfahrten und Bernoullischemata 137 m {T k T k 1 1 = t n } mit t k N 0 = {0, 1, 2,..., }, k = 1,..., m trifft genau dann ein, wenn zwischen dem (k 1)-ten und dem k-ten Erfolg genau t k Misserfolge stattfinden, k = 1,..., m. Es ist folglich gleich dem Ereignis (mit der Bezeichnung s l = t 1 + t 2 +... + t l + l, 1 l m) m {X sl = 1} l=1 s m j=1 j s l, l=1,...,m {X j = 0}. Seine Wahrscheinlichkeit ist auf Grund der Voraussetzungen an die Zufallsgrößen X k, k 1, gleich dem Wert (1 p) t 1 p(1 p) t 2 p... (1 p) tm p = (1 p) t 1+t 2 +...+t m p m. Daraus ergibt sich für jedes k mit 1 k m P (T k T k 1 1 = t k ) = (1 p) t k p und somit ( m ) P {T k t k 1 1 = t k } = m P (T k t k 1 1 = t k ) für alle t k N 0, k = 1,..., m. Das heißt, die (T k T k 1 1), k 1 sind voneinander unabhängig und alle geometrisch mit dem Parameter p verteilt. c) Das Ereignis {T m m = k} tritt genau dann ein, wenn in {X 1 = i 1,..., X m+k = i m+k } unter den i j genau m mal eine Eins, sonst Nullen auftreten und i m+k = 1 gilt. Dafür gibt es ( ) m+k 1 m 1 gleichwahrscheinliche Fälle mit jeweils der Wahrscheinlichkeit p m (1 p) k. Also ist P (T m m = k) = ( ) m+k 1 k (1 p) k p m = ( ) m (p 1) k p m. d) Es sei A A T1. Dann gilt A {T 1 = k} A k = σ(x 1, X 2,..., X k ), k 1, k
138 Uwe Küchler und folglich gibt es für jedes k 1 ein B k {0, 1} k mit A {T 1 = k} = {(X 1,..., X k ) B k }. Daraus ergibt sich für alle r 1, i l {0, 1}, l = 1,..., r P (A {T 1 = k}, X T1 +1 = i 1,..., X T1 +r = i r ) = P ((X 1,..., X k ) B k, X k+1 = i 1,..., X k+r = i r ). Wegen der Unabhängigkeit der beiden Folgen (X 1,..., X k ) und (X k+1,..., X k+r ) ist dieser Wert gleich P ((X 1,..., X k ) B k ) P (X k+1 = i 1,..., X k+r = i r ) = P (A {T 1 = k}) P (X 1 = i 1,..., X r = i r ). Summation über k 1 ergibt wegen P (T 1 < ) = 1 P (A {X T1 +1 = i 1,..., X T1+r = i r }) = P (A)P (X 1 = i 1,..., X r = i r ) = P (A)p Damit ist die Aussage bewiesen. r i k (1 p) r r i k. Bernoullischemata und Irrfahrten hängen eng zusammen. Ist (X n, n 1) ein Bernoullischema mit dem Parameter p, so ist ( S n, n 1) mit S n = n S n = n (2X k 1), n 1, eine Irrfahrt mit dem Parameter p. Ist umgekehrt Y k eine Irrfahrt mit dem Parameter p, so bildet (X n, n 1) mit X n = 1 2 (Y n + 1), n 1, ein Bernoullischema mit dem Parameter p.
Irrfahrten und Bernoullischemata 139 Alle Aussagen über Irrfahrten lassen sich also als Aussagen über Bernoullischemata formulieren und umgekehrt.