Kapitel 6. Irrfahrten und Bernoullischemata

Ähnliche Dokumente
Kapitel 2. Zufällige Versuche und zufällige Ereignisse. 2.1 Zufällige Versuche

Unabhängigkeit KAPITEL 4

4 Diskrete Wahrscheinlichkeitsverteilungen

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Stochastik I. Vorlesungsmitschrift

Gesetze der großen Zahlen

Satz 16 (Multiplikationssatz)

Bedingte Wahrscheinlichkeiten und Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

Diskrete Verteilungen

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

Ü b u n g s b l a t t 10


Zufallsvariablen [random variable]

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Hausaufgabe 7 Abgabe am oder am in der Übung

3. Kombinatorik und Wahrscheinlichkeit

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik

Stochastik und Statistik für Ingenieure Vorlesung 4

Stochastische Unabhängigkeit. 01. Dezember 2014

6 Stochastische Unabhängigkeit

Kapitel 6 Martingale

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Teil II. Wahrscheinlichkeitsrechnung

7.2 Moment und Varianz

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 2

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

P (X = 2) = 1/36, P (X = 3) = 2/36,...

Wahrscheinlichkeitsrechnung und Statistik

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

3.3 Bedingte Wahrscheinlichkeit

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

16.3 Rekurrente und transiente Zustände

5 Teilmengen von R und von R n

Stochastik für die Naturwissenschaften

2.2 Ereignisse und deren Wahrscheinlichkeit

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Stochastik. 1. Wahrscheinlichkeitsräume

Grundbegriffe der Wahrscheinlichkeitsrechnung

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)

Varianz und Kovarianz

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Erwartungswert, Varianz und Standardabweichung einer Zufallsgröße. Was ist eine Zufallsgröße und was genau deren Verteilung?

Beispiel Zusammengesetzte Zufallsvariablen

Wiederholung: lineare Abbildungen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

DIE SPRACHE DER WAHRSCHEINLICHKEITEN

Unabhängige Zufallsvariablen

Übungen zur Wahrscheinlichkeitstheorie und Statistik

Es werden 120 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 120 Schülern besitzen 99 ein Handy.

1. Grundlagen der Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung

Diskrete Verteilungen und Zufallsgrößen

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Würfelspiele und Zufall

TU Darmstadt FB Mathematik, AG 9 WS 2004/2005 Jakob Creutzig (1 + ρ)

Klassifikation von Signifikanztests

9 Konvergenz und absolute Konvergenz von Reihen

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

7.5 Erwartungswert, Varianz

Einführung in die Wahrscheinlichkeitsrechnung

Ferienkurs Analysis 1, SoSe Unendliche Reihen. Florian Beye August 15, 2008

Definition 4.1 Die Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung ist gegeben durch

Wahrscheinlichkeitstheorie und Statistik vom

Satz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung

Weierstraß-Institut für Angewandte Analysis und Stochastik Murphys Gesetz, tippende Affen und Unendlichkeit in der Wahrscheinlichkeitstheorie

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs Stochastik am von 10:00 bis 11:00 Uhr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung

σ-algebren, Definition des Maßraums

Lineare Algebra und analytische Geometrie I

Mathematik 1 für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler) Musterprüfung mit Lösungen

Zusammenfassung Stochastik

Klausur zur Vorlesung,,Algorithmische Mathematik II

5. Übungsblatt zur Einführung in die Stochastik

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem

3 Markov-Eigenschaft der Brownschen Bewegung

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

Grundlagen der Arithmetik und Zahlentheorie

Übungsaufgaben Lösungen

3.2 Unabhängigkeitsstrukturen

Grundbegriffe der Wahrscheinlichkeitstheorie

Ist P(T) = p die Trefferwahrscheinlichkeit eines Bernoulli-Experiments,

Ergebnis Ergebnisraum Ω. Ereignis. Elementarereignis

Diskrete Strukturen WiSe 2012/13 in Trier

7. Die Brownsche Bewegung

5. Äquivalenzrelationen

Transkript:

Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten Folgen (S 0, S 1,..., S n ) mit S k = n X k haben die Eigenschaften P (X k = 1) = P (X k = +1) = 1, k = 1, 2,..., n. 2 Die Folge (S k, k = 0, 1,..., n) kann man auffassen als die Orte eines Teilchens, das sich in jeder Zeiteinheit mit gleicher Wahrscheinlichkeit um eine Einheit nach oben oder nach unten bewegt. Dabei erfolgt der Schritt in der k-ten Zeiteinheit unabhängig vom Verhalten der Folge (S l, l k), also vom Verhalten bis zur k-ten Zeiteinheit. Insofern spricht man auch von einer (symmetrischen) Irrfahrt. In diesem Kapitel werden wir den Begriff der Irrfahrt auf den nichtsymmetrischen Fall ausdehnen und einige ihrer weiteren Eigenschaften herleiten. Mit Irrfahrten eng verwandt sind die Bernoullischemata. Beide Objekte, also Irrfahrten und Bernoullischemata, beruhen auf unabhängigen identisch verteilten Zufallsgrößen mit jeweils zwei möglichen Werten und sind im Grunde äquivalente Formen ein und desselben Modells. Dass man dennoch beide Formen getrennt behandelt, hängt mit Anwendungsaspekten zusammen. 121

122 Uwe Küchler 6.1 Irrfahrten Wir haben bereits die symmetrische Irrfahrt (S k, k n) kennen gelernt, die sich aus einem Laplace-Experiment (n-maliges Werfen einer regulären Münze) ergibt: (Ω, A, P ) mit Ω = { 1, +1} n, A = P(Ω), X l (ω) = x l, ω = (x 1, x 2,, x n ) Ω, l = 1,, n, S k (ω) = k X l (ω) und l=1 P ({ω}) = 2 n, ω Ω. Offenbar gilt P (X 1 = x 1, X 2 = x 2,, X n = x n ) = 2 n (x 1, x 2,, x n ) { 1, 1} n und somit für jedes k mit 1 k n P (X k = x k ) = x 1,,x k 1,x k+1,x n { 1,1} P (X 1 = x 1,, X n = x n ) = 1 2. Daraus folgt für alle (x 1, x 2,, x n ) { 1, 1} n die Gleichung P (X 1 = x 1, X 2 = x 2,, X n = x n ) = n P (X k = x k ). Das heißt aber gerade, dass die Zufallsgrößen X 1, X 2,..., X n voneinander unabhängig sind und alle die gleiche Verteilung besitzen ( m.a.w., identisch verteilt sind). Ist die Münze, mit der geworfen wird, nicht mehr regulär, sondern erscheint das Wappen mit der Wahrscheinlichkeit p (p (0, 1)) und die Zahl mit der Wahrscheinlichkeit q := 1 p oben, so bleiben die Würfe noch voneinander unabhängig und ihre Ausgänge besitzen alle dieselbe Wahrscheinlichkeitsverteilung, die nunmehr lautet:

Irrfahrten und Bernoullischemata 123 P (X k = 1) = p, P (X k = 1) = 1 p, k = 1, 2,, n, mit anderen Worten, es gilt P (X k = i) = p 1+i 2 (1 p) 1 i 2, i { 1, +1}, 1 k n. (1) Die Ausgänge ω = (x 1, x 2,, x n ) Ω der Wurfserie haben jedoch, falls p q gilt, nicht mehr die gleiche Wahrscheinlichkeit: P ({ω}) = n P (X k = x k ) = p n+sn 2 (1 p) n sn 2 (2) mit s n = x 1 + + x n. Durch P (A) = ω A P ({ω}), A A ist auf A = P(Ω) eine Verteilung P definiert. Bezüglich P sind wegen (1) und (2) die Zufallsgrößen X 1, X 2,, X n unabhängig und identisch (gemäß (1)) verteilt. Im Folgenden gehen wir davon aus, dass (X k, k 1) eine unendliche Folge voneinander unabhängiger identisch verteilter Zufallsgrößen über einem geeigneten Wahrscheinlichkeitsraum (Ω, A, P ) mit der Verteilung (1) ist. Definition: Die Folge (S n, n 0) mit S 0 := s 0, S n = n X k, n 1, s 0 Z, heißt eine Irrfahrt mit dem Parameter p und mit Start in s 0. Ist s 0 = 0, so nennt man (S n, n 0) einfach eine Irrfahrt mit dem Parameter p. Im Fall p = q = 1 spricht man von einer symmetrischen Irrfahrt auf Z. Dabei bezeichnet Z die Menge aller ganzen 2 Zahlen. Im Folgenden verwenden wir die Bezeichnung

124 Uwe Küchler A n := σ(x 1, X 2,, X n ), n 1, d.h., A n ist die kleinste σ-algebra von Teilmengen von Ω, bezüglich der alle X 1, X 2,, X n messbar sind. Es gilt A n A, da alle X k bezüglich A messbar sind, und A n besteht hier aus allen Teilmengen A von Ω der Form A = {ω Ω (X 1 (ω),, X n (ω)) B}, wobei B irgend eine Teilmenge von { 1, +1} n ist. Wegen der bijektiven Beziehung zwischen (X 1, X 2,, X n ) und (S 1, S 2,, S n ) haben wir auch A n = σ(s 1, S 2,, S n ), n 1. Eine fast offensichtliche Eigenschaft jeder Irrfahrt (S n, n 0) mit Parameter p ist die folgende: Aussage: Wählt man eine feste Zeit n 0 1 und bildet S n := S n+n0 S n0 (n 0), so ist ( S n, n 0) wieder eine Irrfahrt mit demselben Parameter p. Außerdem ist ( S n, n 0) unabhängig von A n0. Beweis: Die Zufallsgrößen X k := X n0 +k, k 1 sind voneinander unabhängig und haben alle die gleiche Verteilung: P ( X k = x k ) = p 1+x k 2 (1 p) 1 x k 2, x k {+1, 1}. Weiterhin ist P ( X 1 = x 1,, X n = x n ) = P (X n0 +1 = x 1,, X n0 +n = x n ) = P (X 1 = x 1,, X n = x n ) = p n+sn 2 (1 p) n sn 2 mit n s n = x k.

Irrfahrten und Bernoullischemata 125 Wegen S n = S n0 +n S n0 = n X k, n 0 ist folglich ( S n ) eine Irrfahrt mit dem Parameter p. Ist A A n0, so gibt es ein B { 1, +1} n 0 mit A = {(X 1,, X n0 ) B}. Da alle (X k, k 1) voneinander unabhängig sind, sind es auch die beiden Folgen (X 1, X 2,, X n0 ) und (X n0 +1, X n0 +2, ) und somit auch A und ( S n, n 1). Damit ist die Aussage bewiesen. Nach jedem Zeitpunkt n 0 beginnt also eine Irrfahrt praktisch von Neuem, sie hat kein Gedächtnis. Wir können mit der oben eingeführten Irrfahrt die Vorstellung verbinden, dass sich ein Teilchen, bei s 0 startend, in jedem Zeittakt auf zufällige Weise um eine Einheit nach oben oder nach unten bewegt, und zwar mit Wahrscheinlichkeit p bzw. q = 1 p, unabhängig von seinem bisherigen Verhalten. Seine Lage im Zeitpunkt n ist S n, also insbesondere eine Zufallsgröße. Die Verteilung von S n Es sei (S n, n 0) eine Irrfahrt mit dem Parameter p. Interpretieren wir wieder S n als Lage eines Teilchens zur Zeit n, so befindet sich das Teilchen zu geraden Zeitpunkten n in einem geradzahligen Punkt S n, zu ungeraden Zeitpunkten n in einem ungeradzahligen Punkt S n. Aussage: Für die Wahrscheinlichkeitsverteilung von S n gilt: a) P (S 0 = 0) = 1 b) n = 2m, m 1, P (S 2m = 2k) = ( 2m k+m) p m+k (1 p) m k, m k m P (S 2m = l) = 0 sonst. c) n = 2m + 1, m 0

126 Uwe Küchler P (S 2m+1 = 2k + 1) = ( 2m+1 k+m+1) p k+m+1 (1 p) m k, m 1 k m P (S 2m+1 = l) = 0 sonst. Beweis: b) P (S 2m = 2k) = P ({ω Ω S 2m (ω) = 2k}) = ω Ω:S 2m (ω)=2k P ({ω}). S 2m (ω) = 2k ist genau dann der Fall, wenn in ω = (x 1, x 2,, x 2m ) genau (m + k)-mal die +1 auftritt. Jedes solche ω hat wegen (2) die gleiche Wahrscheinlichkeit p m+k (1 p) m k und es gibt ( 2m m+k) Folgen ω dieser Art. c) Der Beweis erfolgt analog zu b). Die Zufallsgröße 1 2 (S n + n) ist somit binomialverteilt mit den Parametern n und p (sowohl für gerades wie für ungerades n). Zeit des ersten Erreichens des Zustandes m In diesem Abschnitt werden die Zeiten V m studiert, zu denen die Irrfahrt zum ersten Mal den Zustand m(m 1) erreicht. Nach der (vom Zufall abhängenden) Zeit V m verhält sich die Irrfahrt, als starte sie bei m von Neuem, unabhängig von ihrem vergangenen Verhalten und mit dem gleichen Parameter p (vorausgesetzt, sie erreicht m überhaupt jemals). Für p = 1 2 ist der Erwartungswert EV m für jedes m 1 unendlich groß. Interpretiert man die Irrfahrt (S n, n 0) mit S 0 = 0, so wie wir das bereits in Abschnitt 2.5 getan haben, als Guthaben eines Spielers, so ist es u. a. von Interesse, wann dieses Guthaben zum ersten Mal positiv wird bzw. zum ersten Mal den Betrag m erreicht. Das sind gerade die eben erwähnten zufälligen Zeiten V 1 bzw. V m. Definition: Es sei m 1. Die Zufallsgröße

Irrfahrten und Bernoullischemata 127 V m (ω) := min{k 1 S k (ω) = m} mit min :=, ω Ω heißt die Zeit des ersten Erreichens des Punktes m durch die Irrfahrt (S n, n 0). Zeiten des ersten Erreichens sind Beispiele sogenannter zufälliger Zeiten und spielen sowohl in der Theorie zufälliger Prozesse als auch für praktische Anwendungen eine wichtige Rolle. Der Fall V m (ω) = tritt genau dann ein, wenn S n (ω) < m für alle n 1 gilt. Weiterhin gilt offenbar S Vm(ω)(ω) = m, falls ω {V m < }. V m ist eine Zufallsgröße, deren Wert davon abhängt, welche Werte die Zufallsgrößen X 1, X 2,, X n, annehmen. So gilt z.b. V 1 (ω) = 3, falls X 1 (ω) = 1, X 2 (ω) = +1, X 3 (ω) = +1 vorliegt. Um Aussagen über die Wahrscheinlichkeitsverteilungen von V 1, V 2, zu erhalten, führen wir die Zufallsgrößen V m auf (S n, n 1) bzw. (X k, k 1) zurück, deren Wahrscheinlichkeitsverteilungen wir bereits kennen. Lemma: Es gilt für k 0, r > k {V 1 = 2k + 1} = {S 1 0, S 2 0,, S 2k = 0, S 2k+1 = 1} (4) {V 1 = 2k + 1, V 2 = 2r} = {S 1 0, S 2 0,, S 2k 1 0, S 2k = 0, S 2k+1 = 1, S 2k+2 1, S 2r 2 1, S 2r 1 = 1, S 2r = 2} und allgemein, (5) {V 1 = k 1, V 2 = k 2,, V m = k m } = {S 1 0, S 2 0,, S k1 1 = 0, S k1 = 1, S k1 +1 1,, S km 1 = m 1, S km = m}, 1 k 1 < k 2 < < k m, m 1. Beweis: Der Beweis ergibt sich unmittelbar aus der Definition der V 1, V 2,, V m.

128 Uwe Küchler Bemerkung: Die rechte Seite von (4) ist so zu verstehen, dass S l 0 für alle l 2k 1 gelten soll. Für den Fall k = 0 ist diese Bedingung nicht relevant und entfällt ohne weiteren Hinweis. Genauso verstehen wir im Weiteren analoge Ausdrücke, z.b. in (5). Mit der folgenden Aussage zeigen wir, dass die Irrfahrt, unter der Bedingung, dass sie den Punkt Eins jemals erreicht, nach der Zeit V 1 wieder von Neuem als Irrfahrt mit dem gleichen Parameter beginnt. Zur Formulierung der Aussage führen wir folgende Bezeichnungen ein: Für alle ω {V 1 < } setzen wir X n(ω) := X n+v1 (ω)(ω), n 1, und lassen X n undefiniert auf {V 1 = }. Dann ist X n für P -fast alle ω definiert, wobei P die bedingte Wahrscheinlichkeitsverteilung P ( V 1 < ) bezeichnet. (Beachte P (V 1 < ) P (X 1 = 1) = p > 0 und P (.) = P (.), falls P (V 1 < ) = 1.) Es sei Sn = n Xk und S 0 = 0. Auf Grund der Definition gilt für alle n 0 S n = S n+v1 S V1 = S n+v1 1, P fast sicher. Aussage: Die Folge (S n, n 0) ist bezüglich der Verteilung P, also bez. P unter der Bedingung V 1 <, eine Irrfahrt mit dem Parameter p. Beweis: P (V 1 <, X 1 = x 1,, X n = x n ) = P (V 1 = 2k + 1, X1 = x 1,, Xn = x n ) = P (V 1 = 2k + 1, X 2k+2 = x 1,, X 2k+1+n = x n ) = P (S 1 0, S 2 0,, S 2k = 0, S 2k+1 = 1, X 2k+2 = x 1,, X 2k+1+n = x n ).

Irrfahrten und Bernoullischemata 129 Jetzt nutzen wir die Unabhängigkeit von (S 1, S 2,, S 2k+1 ) und (X 2k+2,, X 2k+1+n ) aus sowie die Tatsache, dass (X 2k+2,, X 2k+1+n ) die gleiche Verteilung wie (X 1,, X n ) besitzt und erhalten die Summe P (V 1 = 2k + 1)P (X 1 = x 1,, X n = x n ) = P (V 1 < ) P (X 1 = x 1,, X n = x n ) = P (V 1 < ) p n+sn 2 (1 p) n sn 2. Somit gilt P (X 1 = x 1,..., X n = x n ) = p n+sn 2 (1 p) n sn 2. (6) Das Lemma besagt, nach der zufälligen Zeit V 1 (sofern diese endlich ist) verhält sich die Irrfahrt (S n, n 0), als startete sie von Neuem mit demselben Parameter p, dieses Mal vom Zustand Eins. Wir bemerken noch eine Eigenschaft, die wir später benutzen werden. Es sei V1 (ω) = min{k 1 Sk (ω) = 1}, min =. Dann gilt V 1 = V 2 V 1 auf {V 1 < }. (7) Im Fall V 1 (ω) < haben wir nämlich V 1 (ω) + V 1 (ω) = min{k > 1 S k (ω) = 1} + V 1(ω) = min{k + V 1 (ω) > V 1 (ω) S k+v1 (ω)(ω) S V1 (ω)(ω) = 1} = min{m > V 1 (ω) S m (ω) = 2} = min{m 1 S m (ω) = 2} = V 2 (ω).

130 Uwe Küchler Wir haben oben gesehen, dass die Irrfahrt ( S n, n 0) mit S n = S n+n0 S n0 unabhängig von (X 1,, X n0 ), also von A n0 = σ(x 1,, X n0 ) ist. Ein analoger Sachverhalt gilt auch für (Sn, n 0). Allerdings ist er etwas komplizierter in der Formulierung, da jetzt die Zeit V 1 eine Zufallsgröße ist. Wir führen folgendes Ereignissystem aus A ein: A V1 := {A A A {V 1 = 2k + 1} A 2k+1, k 0}. Lemma: A V1 ist eine Teil-σ-Algebra von A. Beweis: und Ω gehören zu A V1, die übrigen Eigenschaften einer σ-algebra folgen unter Zuhilfenahme der Tatsache, dass alle A 2k+1, k 0, σ-algebren sind. Man beachte, dass {V 1 = 2k + 1} A 2k+1, k 0, gilt. Man überzeugt sich leicht davon, dass V 1 bezüglich A V1 messbar ist. Nun können wir die angekündigte Eigenschaft der Irrfahrt (S n, n 0) formulieren. Aussage: Die Folge (Sn, n 1) ist bezüglich P, also bezüglich P unter der Bedingung V 1 <, eine Irrfahrt mit dem Parameter p, die unabhängig von A V1 ist. Beweis: Es sei A A V1. Nach Voraussetzung gibt es für jedes k 0 eine Teilmenge B k von { 1, 1} 2k+1 mit A {V 1 = 2k + 1} = {(X 1,, X 2k+1 ) B k }. Folglich gilt für alle x = (x 1, x 2,, x n ) { 1, +1} n : P (A {X 1 = x 1,, X n = x n } {V 1 < }) = P (A {V 1 = 2k + 1} {X1 = x 1,, Xn = x n }) = P ((X 1,, X 2k+1 ) B k, X 2k+2 = x 1,, X 2k+n+1 = x n ) = P ((X 1,, X 2k+1 ) B k ) P (X 1 = x 1,, X n = x n ) =

Irrfahrten und Bernoullischemata 131 P ({V 1 = 2k + 1} A)P (X 1 = x 1,, X n = x n ) = P (A {V 1 < })P (X 1 = x 1,..., X n = x n ). Teilen wir Anfangs- und Endterm dieser Gleichung durch P (V 1 < ) und berücksichtigen wir die Formel (6) dieses Abschnitts, so erhalten wir P (A {X 1 = x 1,, X n = x n }) = P (A) P (X 1 = x 1,, X n = x n ). Folgerung: Bezüglich P, also bezüglich P unter der Bedingung {V 1 < }, sind V 1 und V 2 V 1 unabhängige Zufallsgrößen mit P (V 2 V 1 = 2k + 1) = P (V 1 = 2k + 1) = P (V 1 = 2k + 1), k 0. Die Wahrscheinlichkeitsverteilung der zufälligen Zeit V 1 Wir bestimmen die Wahrscheinlichkeiten P (V 1 = 2k + 1) mithilfe der erzeugenden Funktion g 1 von V 1 : g 1 (s) := Es V 1 = s 2k+1 P (V 1 = 2k + 1), s 1. Es gilt P (V 1 = 1) = p, und für k 1 haben wir P (V 1 = 2k + 1) = P (X 1 = 1, S 2 0,..., S 2k = 0, S 2k+1 = 1) = P (X 1 = 1, S 2 X 1 1,..., S 2k X 1 = 1, S 2k+1 X 1 = 2) =

132 Uwe Küchler P (X 1 = 1)P (S 1 1, S 2 1,..., S 2k 1 = 1, S 2k = 2) = (1 p)p (V 2 = 2k). Somit ist mit der Bezeichnung q = 1 p g 1 (s) = ps + qs s 2k P (V 2 = 2k) = ps + qses V 2, s 1. (8) Es gilt wegen s V 2(ω) = 0, falls V 2 (ω) = und s < 1, Es V 2 = E[1 {V1 < }s V 2 ] = E[1 {V1 < }s V 2 V 1 s V 1 ] = E [s V 2 V 1 s V 1 ]P (V 1 < ) = E s V 1 E s V1 P (V 1 < ) = Es V1 Es V 1 = [Es V 1 ] 2 = g 2 1(s). (9) Weiterhin wurden die Unabhängigkeit von V 1 und V 1 = V 2 V 1 bezüglich P, die Definition E [Z] = E[Z 1 {V1 < }] / P (V 1 < ) und die Gleichung E s V 1 = Es V 1 benutzt. Wegen (8) und (9) genügt g 1 ( ) der Gleichung g 2 1(s) 1 qs g 1(s) + p q = 0, s < 1. Als Lösung ergibt sich auf Grund der Beschränktheit von g 1 ( ) auf ( 1, 1): g 1 (s) = 1 2qs [1 (1 4pqs2 ) 1 2 ], s < 1. Anhand dieser erzeugenden Funktion berechnen wir die Einzelwahrscheinlichkeiten P (V 1 = 2k + 1), P (V 1 < ), d.h. die Wahrscheinlichkeit, Eins jemals zu erreichen und EV 1.

Irrfahrten und Bernoullischemata 133 Zunächst gilt P (V 1 < ) = also P (V 1 = 2k + 1) = lim s 1 g 1 (s), P (V 1 < ) = 1 (1 4pq) 1 2 2q = 1 (p2 2pq + q 2 ) 1 2 2q = 1 p q 2q = { 1 falls p 1 2 p q falls p < 1 2. Für die Einzelwahrscheinlichlichkeiten der Verteilung von V 1 ergibt sich durch Entwicklung der erzeugenden Funktion g 1 ( ) in eine Potenzreihe P (V 1 = 2k 1) = (2pq)k 2qk! (2k 3)!!, k 1 mit m!! = 1 3 5... m für ungerades m (Übung). Wegen EV 1 = lim s 1 EV 1 = d q ds 1(s) erhalten wir { 1 p q, falls p > q, falls p q. Insbesondere gelten für die symmetrische Irrfahrt (p = q) die Gleichungen P (V 1 < ) = 1 und EV 1 =. 6.2 Bernoullischemata Es seien (Ω, A, P ) ein Wahrscheinlichkeitsraum, n 1 und p (0, 1).

134 Uwe Küchler Definition: Jede Folge X = (X 1, X 2,..., X n ) von Zufallsgrößen über (Ω, A, P ) mit 1. X 1, X 2,..., X n sind voneinander unabhängig, 2. P (X k = 1) = p, P (X k = 0) = 1 p =: q, k = 1,..., n heißt ein Bernoullischema mit den Parametern n und p. Wir bezeichnen es mit BS n (p). Ist X = (X k, k 1) eine unendliche Folge von Zufallsgrößen mit den Eigenschaften 1. und 2. für alle n 2, so heißt (X k, k 1) ein unendliches Bernoullischema mit dem Parameter p. Wir verwenden dafür die Kurzschreibweise BS (p). Eigenschaft 2. kann man auch in der Form P (X k = i) = p i (1 p) 1 i, i {0, 1}, k = 1,..., n (1) schreiben. Für jedes Bernoullischema BS n (p) oder BS (p) ist X = (X 1,..., X n ) ein zufälliger Vektor mit den möglichen Werten x = (i 1, i 2,..., i n ), i k {0, 1}, k = 1,..., n. Wir definieren E = {0, 1} n. Der zufällige Vektor X bildet Ω in E ab. Er ist folglich diskret verteilt, und es gilt nach Definition für jedes x = (i,..., i n ) E : P (X = x) = P (X 1 = i 1,..., X n = i n ) = n P (X k = i k ) = p n i k (1 p) n n i k. (2) Bemerkung: Das Bernoullischema BS n (p) entspricht einem n-stufigen zufälligem Experiment, dessen Einzelexperimente voneinander unabhängig sind und jeweils nur zwei mögliche Versuchsausgänge haben (wir bezeichnen sie mit 0

Irrfahrten und Bernoullischemata 135 bzw. 1), die in jedem Teilexperiment mit der Wahrscheinlichkeit q bzw. p auftreten. Die Zufallsgröße X k gibt in diesem Zusammenhang das Ergebnis des k-ten Teilexperimentes an. Dabei wird das Ereignis {X k = 1} häufig als Erfolg im k-ten Experiment bzw. das Ereignis {X k = 0} als Misserfolg im k-ten Experiment gedeutet. Mit dem Bernoullischema sind mehrere konkrete Zufallsgrößen und ihre Wahrscheinlichkeitsverteilungen verbunden, von denen wir im Folgenden einige studieren werden. l=1 Es sei X = (X 1,..., X n ) ein BS n (p). Die Zufallsgröße S k, definiert durch k S k (ω) = X l (ω), ist gleich der Anzahl der Erfolge in den ersten k Teilexperimenten des Bernoullischemas. Aussage: Die Zufallsgröße S n ist binomialverteilt mit den Parametern n und p, d.h. es gilt P (S n = k) = ( n n) p k (1 p) n k, k = 0, 1,..., n. Beweis: P (S n = k) = P (X 1 +... + X n = k) = P X ({x E : n i j = k}) = j=1 x=(i 1,...,in): ij =k n p i j (1 p) 1 i j = j=1 x=(i 1,...,in): ij =k p k (1 p) n k = ( n k) p k (1 p) n k, da alle x E mit n i j = k dieselbe Wahrscheinlichkeit p k (1 p) n k besitzen j=1 (siehe (2)) und es ( n k) solcher x E gibt. Für die folgenden Zufallsgrößen nehmen wir ein unendliches Bernoullischema BS (p) als gegeben an. Die Zufallsgrößen

136 Uwe Küchler T 1 (ω) := min{k > 0 X k (ω) = 1}, T m (ω) := min{k > T m 1 (ω) X k (ω) = 1}, m 2 geben die Zeitpunkte an, zu denen der erste bzw. der m-te Erfolg im BS (p) eintritt. Dabei setzt man min := und T 0 (ω) := 0. Mit diesen Bezeichnungen ist T m+1 T m die Anzahl der Versuche nach dem m-ten bis zum (m + 1)-ten Erfolg, T m m die Anzahl der Misserfolge bis zum m-ten Erfolg, m 1. T m+1 T m 1 ist die Anzahl der Misserfolge zwischen dem m-ten und dem (m + 1)-ten Erfolg. Aussage: Es gilt: a) T 1 1 ist geometrisch verteilt mit dem Parameter p. b) (T k+1 T k 1), k 0, sind voneinander unabhängig und identisch verteilt wie T 1 1. c) T m m besitzt eine negative Binomialverteilung mit den Parametern m und p. d) Die Folge (X Tm+k, k 1) bildet ein unendliches Bernoullischema mit dem Parameter p und ist unabhängig von A Tm. (Man beachte, dass auf Grund von c) P (T m < ) = 1 gilt.) Beweis: a) P (T 1 1 = k) = P (T 1 = k + 1) = P (X 1 = 0, X 2 = 0,..., X k = 0, X k+1 = 1) = (1 p) k p, k 0 b) Es sei m irgendeine natürliche Zahl mit m 2. Das Ereignis

Irrfahrten und Bernoullischemata 137 m {T k T k 1 1 = t n } mit t k N 0 = {0, 1, 2,..., }, k = 1,..., m trifft genau dann ein, wenn zwischen dem (k 1)-ten und dem k-ten Erfolg genau t k Misserfolge stattfinden, k = 1,..., m. Es ist folglich gleich dem Ereignis (mit der Bezeichnung s l = t 1 + t 2 +... + t l + l, 1 l m) m {X sl = 1} l=1 s m j=1 j s l, l=1,...,m {X j = 0}. Seine Wahrscheinlichkeit ist auf Grund der Voraussetzungen an die Zufallsgrößen X k, k 1, gleich dem Wert (1 p) t 1 p(1 p) t 2 p... (1 p) tm p = (1 p) t 1+t 2 +...+t m p m. Daraus ergibt sich für jedes k mit 1 k m P (T k T k 1 1 = t k ) = (1 p) t k p und somit ( m ) P {T k t k 1 1 = t k } = m P (T k t k 1 1 = t k ) für alle t k N 0, k = 1,..., m. Das heißt, die (T k T k 1 1), k 1 sind voneinander unabhängig und alle geometrisch mit dem Parameter p verteilt. c) Das Ereignis {T m m = k} tritt genau dann ein, wenn in {X 1 = i 1,..., X m+k = i m+k } unter den i j genau m mal eine Eins, sonst Nullen auftreten und i m+k = 1 gilt. Dafür gibt es ( ) m+k 1 m 1 gleichwahrscheinliche Fälle mit jeweils der Wahrscheinlichkeit p m (1 p) k. Also ist P (T m m = k) = ( ) m+k 1 k (1 p) k p m = ( ) m (p 1) k p m. d) Es sei A A T1. Dann gilt A {T 1 = k} A k = σ(x 1, X 2,..., X k ), k 1, k

138 Uwe Küchler und folglich gibt es für jedes k 1 ein B k {0, 1} k mit A {T 1 = k} = {(X 1,..., X k ) B k }. Daraus ergibt sich für alle r 1, i l {0, 1}, l = 1,..., r P (A {T 1 = k}, X T1 +1 = i 1,..., X T1 +r = i r ) = P ((X 1,..., X k ) B k, X k+1 = i 1,..., X k+r = i r ). Wegen der Unabhängigkeit der beiden Folgen (X 1,..., X k ) und (X k+1,..., X k+r ) ist dieser Wert gleich P ((X 1,..., X k ) B k ) P (X k+1 = i 1,..., X k+r = i r ) = P (A {T 1 = k}) P (X 1 = i 1,..., X r = i r ). Summation über k 1 ergibt wegen P (T 1 < ) = 1 P (A {X T1 +1 = i 1,..., X T1+r = i r }) = P (A)P (X 1 = i 1,..., X r = i r ) = P (A)p Damit ist die Aussage bewiesen. r i k (1 p) r r i k. Bernoullischemata und Irrfahrten hängen eng zusammen. Ist (X n, n 1) ein Bernoullischema mit dem Parameter p, so ist ( S n, n 1) mit S n = n S n = n (2X k 1), n 1, eine Irrfahrt mit dem Parameter p. Ist umgekehrt Y k eine Irrfahrt mit dem Parameter p, so bildet (X n, n 1) mit X n = 1 2 (Y n + 1), n 1, ein Bernoullischema mit dem Parameter p.

Irrfahrten und Bernoullischemata 139 Alle Aussagen über Irrfahrten lassen sich also als Aussagen über Bernoullischemata formulieren und umgekehrt.