Kapitel 6. Irrfahrten und Bernoullischemata

Größe: px
Ab Seite anzeigen:

Download "Kapitel 6. Irrfahrten und Bernoullischemata"

Transkript

1 Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten Folgen (S 0, S 1,..., S n ) mit S k = n X k haben die Eigenschaften P (X k = 1) = P (X k = +1) = 1, k = 1, 2,..., n. 2 Die Folge (S k, k = 0, 1,..., n) kann man auffassen als die Orte eines Teilchens, das sich in jeder Zeiteinheit mit gleicher Wahrscheinlichkeit um eine Einheit nach oben oder nach unten bewegt. Dabei erfolgt der Schritt in der k-ten Zeiteinheit unabhängig vom Verhalten der Folge (S l, l k), also vom Verhalten bis zur k-ten Zeiteinheit. Insofern spricht man auch von einer (symmetrischen) Irrfahrt. In diesem Kapitel werden wir den Begriff der Irrfahrt auf den nichtsymmetrischen Fall ausdehnen und einige ihrer weiteren Eigenschaften herleiten. Mit Irrfahrten eng verwandt sind die Bernoullischemata. Beide Objekte, also Irrfahrten und Bernoullischemata, beruhen auf unabhängigen identisch verteilten Zufallsgrößen mit jeweils zwei möglichen Werten und sind im Grunde äquivalente Formen ein und desselben Modells. Dass man dennoch beide Formen getrennt behandelt, hängt mit Anwendungsaspekten zusammen. 121

2 122 Uwe Küchler 6.1 Irrfahrten Wir haben bereits die symmetrische Irrfahrt (S k, k n) kennen gelernt, die sich aus einem Laplace-Experiment (n-maliges Werfen einer regulären Münze) ergibt: (Ω, A, P ) mit Ω = { 1, +1} n, A = P(Ω), X l (ω) = x l, ω = (x 1, x 2,, x n ) Ω, l = 1,, n, S k (ω) = k X l (ω) und l=1 P ({ω}) = 2 n, ω Ω. Offenbar gilt P (X 1 = x 1, X 2 = x 2,, X n = x n ) = 2 n (x 1, x 2,, x n ) { 1, 1} n und somit für jedes k mit 1 k n P (X k = x k ) = x 1,,x k 1,x k+1,x n { 1,1} P (X 1 = x 1,, X n = x n ) = 1 2. Daraus folgt für alle (x 1, x 2,, x n ) { 1, 1} n die Gleichung P (X 1 = x 1, X 2 = x 2,, X n = x n ) = n P (X k = x k ). Das heißt aber gerade, dass die Zufallsgrößen X 1, X 2,..., X n voneinander unabhängig sind und alle die gleiche Verteilung besitzen ( m.a.w., identisch verteilt sind). Ist die Münze, mit der geworfen wird, nicht mehr regulär, sondern erscheint das Wappen mit der Wahrscheinlichkeit p (p (0, 1)) und die Zahl mit der Wahrscheinlichkeit q := 1 p oben, so bleiben die Würfe noch voneinander unabhängig und ihre Ausgänge besitzen alle dieselbe Wahrscheinlichkeitsverteilung, die nunmehr lautet:

3 Irrfahrten und Bernoullischemata 123 P (X k = 1) = p, P (X k = 1) = 1 p, k = 1, 2,, n, mit anderen Worten, es gilt P (X k = i) = p 1+i 2 (1 p) 1 i 2, i { 1, +1}, 1 k n. (1) Die Ausgänge ω = (x 1, x 2,, x n ) Ω der Wurfserie haben jedoch, falls p q gilt, nicht mehr die gleiche Wahrscheinlichkeit: P ({ω}) = n P (X k = x k ) = p n+sn 2 (1 p) n sn 2 (2) mit s n = x x n. Durch P (A) = ω A P ({ω}), A A ist auf A = P(Ω) eine Verteilung P definiert. Bezüglich P sind wegen (1) und (2) die Zufallsgrößen X 1, X 2,, X n unabhängig und identisch (gemäß (1)) verteilt. Im Folgenden gehen wir davon aus, dass (X k, k 1) eine unendliche Folge voneinander unabhängiger identisch verteilter Zufallsgrößen über einem geeigneten Wahrscheinlichkeitsraum (Ω, A, P ) mit der Verteilung (1) ist. Definition: Die Folge (S n, n 0) mit S 0 := s 0, S n = n X k, n 1, s 0 Z, heißt eine Irrfahrt mit dem Parameter p und mit Start in s 0. Ist s 0 = 0, so nennt man (S n, n 0) einfach eine Irrfahrt mit dem Parameter p. Im Fall p = q = 1 spricht man von einer symmetrischen Irrfahrt auf Z. Dabei bezeichnet Z die Menge aller ganzen 2 Zahlen. Im Folgenden verwenden wir die Bezeichnung

4 124 Uwe Küchler A n := σ(x 1, X 2,, X n ), n 1, d.h., A n ist die kleinste σ-algebra von Teilmengen von Ω, bezüglich der alle X 1, X 2,, X n messbar sind. Es gilt A n A, da alle X k bezüglich A messbar sind, und A n besteht hier aus allen Teilmengen A von Ω der Form A = {ω Ω (X 1 (ω),, X n (ω)) B}, wobei B irgend eine Teilmenge von { 1, +1} n ist. Wegen der bijektiven Beziehung zwischen (X 1, X 2,, X n ) und (S 1, S 2,, S n ) haben wir auch A n = σ(s 1, S 2,, S n ), n 1. Eine fast offensichtliche Eigenschaft jeder Irrfahrt (S n, n 0) mit Parameter p ist die folgende: Aussage: Wählt man eine feste Zeit n 0 1 und bildet S n := S n+n0 S n0 (n 0), so ist ( S n, n 0) wieder eine Irrfahrt mit demselben Parameter p. Außerdem ist ( S n, n 0) unabhängig von A n0. Beweis: Die Zufallsgrößen X k := X n0 +k, k 1 sind voneinander unabhängig und haben alle die gleiche Verteilung: P ( X k = x k ) = p 1+x k 2 (1 p) 1 x k 2, x k {+1, 1}. Weiterhin ist P ( X 1 = x 1,, X n = x n ) = P (X n0 +1 = x 1,, X n0 +n = x n ) = P (X 1 = x 1,, X n = x n ) = p n+sn 2 (1 p) n sn 2 mit n s n = x k.

5 Irrfahrten und Bernoullischemata 125 Wegen S n = S n0 +n S n0 = n X k, n 0 ist folglich ( S n ) eine Irrfahrt mit dem Parameter p. Ist A A n0, so gibt es ein B { 1, +1} n 0 mit A = {(X 1,, X n0 ) B}. Da alle (X k, k 1) voneinander unabhängig sind, sind es auch die beiden Folgen (X 1, X 2,, X n0 ) und (X n0 +1, X n0 +2, ) und somit auch A und ( S n, n 1). Damit ist die Aussage bewiesen. Nach jedem Zeitpunkt n 0 beginnt also eine Irrfahrt praktisch von Neuem, sie hat kein Gedächtnis. Wir können mit der oben eingeführten Irrfahrt die Vorstellung verbinden, dass sich ein Teilchen, bei s 0 startend, in jedem Zeittakt auf zufällige Weise um eine Einheit nach oben oder nach unten bewegt, und zwar mit Wahrscheinlichkeit p bzw. q = 1 p, unabhängig von seinem bisherigen Verhalten. Seine Lage im Zeitpunkt n ist S n, also insbesondere eine Zufallsgröße. Die Verteilung von S n Es sei (S n, n 0) eine Irrfahrt mit dem Parameter p. Interpretieren wir wieder S n als Lage eines Teilchens zur Zeit n, so befindet sich das Teilchen zu geraden Zeitpunkten n in einem geradzahligen Punkt S n, zu ungeraden Zeitpunkten n in einem ungeradzahligen Punkt S n. Aussage: Für die Wahrscheinlichkeitsverteilung von S n gilt: a) P (S 0 = 0) = 1 b) n = 2m, m 1, P (S 2m = 2k) = ( 2m k+m) p m+k (1 p) m k, m k m P (S 2m = l) = 0 sonst. c) n = 2m + 1, m 0

6 126 Uwe Küchler P (S 2m+1 = 2k + 1) = ( 2m+1 k+m+1) p k+m+1 (1 p) m k, m 1 k m P (S 2m+1 = l) = 0 sonst. Beweis: b) P (S 2m = 2k) = P ({ω Ω S 2m (ω) = 2k}) = ω Ω:S 2m (ω)=2k P ({ω}). S 2m (ω) = 2k ist genau dann der Fall, wenn in ω = (x 1, x 2,, x 2m ) genau (m + k)-mal die +1 auftritt. Jedes solche ω hat wegen (2) die gleiche Wahrscheinlichkeit p m+k (1 p) m k und es gibt ( 2m m+k) Folgen ω dieser Art. c) Der Beweis erfolgt analog zu b). Die Zufallsgröße 1 2 (S n + n) ist somit binomialverteilt mit den Parametern n und p (sowohl für gerades wie für ungerades n). Zeit des ersten Erreichens des Zustandes m In diesem Abschnitt werden die Zeiten V m studiert, zu denen die Irrfahrt zum ersten Mal den Zustand m(m 1) erreicht. Nach der (vom Zufall abhängenden) Zeit V m verhält sich die Irrfahrt, als starte sie bei m von Neuem, unabhängig von ihrem vergangenen Verhalten und mit dem gleichen Parameter p (vorausgesetzt, sie erreicht m überhaupt jemals). Für p = 1 2 ist der Erwartungswert EV m für jedes m 1 unendlich groß. Interpretiert man die Irrfahrt (S n, n 0) mit S 0 = 0, so wie wir das bereits in Abschnitt 2.5 getan haben, als Guthaben eines Spielers, so ist es u. a. von Interesse, wann dieses Guthaben zum ersten Mal positiv wird bzw. zum ersten Mal den Betrag m erreicht. Das sind gerade die eben erwähnten zufälligen Zeiten V 1 bzw. V m. Definition: Es sei m 1. Die Zufallsgröße

7 Irrfahrten und Bernoullischemata 127 V m (ω) := min{k 1 S k (ω) = m} mit min :=, ω Ω heißt die Zeit des ersten Erreichens des Punktes m durch die Irrfahrt (S n, n 0). Zeiten des ersten Erreichens sind Beispiele sogenannter zufälliger Zeiten und spielen sowohl in der Theorie zufälliger Prozesse als auch für praktische Anwendungen eine wichtige Rolle. Der Fall V m (ω) = tritt genau dann ein, wenn S n (ω) < m für alle n 1 gilt. Weiterhin gilt offenbar S Vm(ω)(ω) = m, falls ω {V m < }. V m ist eine Zufallsgröße, deren Wert davon abhängt, welche Werte die Zufallsgrößen X 1, X 2,, X n, annehmen. So gilt z.b. V 1 (ω) = 3, falls X 1 (ω) = 1, X 2 (ω) = +1, X 3 (ω) = +1 vorliegt. Um Aussagen über die Wahrscheinlichkeitsverteilungen von V 1, V 2, zu erhalten, führen wir die Zufallsgrößen V m auf (S n, n 1) bzw. (X k, k 1) zurück, deren Wahrscheinlichkeitsverteilungen wir bereits kennen. Lemma: Es gilt für k 0, r > k {V 1 = 2k + 1} = {S 1 0, S 2 0,, S 2k = 0, S 2k+1 = 1} (4) {V 1 = 2k + 1, V 2 = 2r} = {S 1 0, S 2 0,, S 2k 1 0, S 2k = 0, S 2k+1 = 1, S 2k+2 1, S 2r 2 1, S 2r 1 = 1, S 2r = 2} und allgemein, (5) {V 1 = k 1, V 2 = k 2,, V m = k m } = {S 1 0, S 2 0,, S k1 1 = 0, S k1 = 1, S k1 +1 1,, S km 1 = m 1, S km = m}, 1 k 1 < k 2 < < k m, m 1. Beweis: Der Beweis ergibt sich unmittelbar aus der Definition der V 1, V 2,, V m.

8 128 Uwe Küchler Bemerkung: Die rechte Seite von (4) ist so zu verstehen, dass S l 0 für alle l 2k 1 gelten soll. Für den Fall k = 0 ist diese Bedingung nicht relevant und entfällt ohne weiteren Hinweis. Genauso verstehen wir im Weiteren analoge Ausdrücke, z.b. in (5). Mit der folgenden Aussage zeigen wir, dass die Irrfahrt, unter der Bedingung, dass sie den Punkt Eins jemals erreicht, nach der Zeit V 1 wieder von Neuem als Irrfahrt mit dem gleichen Parameter beginnt. Zur Formulierung der Aussage führen wir folgende Bezeichnungen ein: Für alle ω {V 1 < } setzen wir X n(ω) := X n+v1 (ω)(ω), n 1, und lassen X n undefiniert auf {V 1 = }. Dann ist X n für P -fast alle ω definiert, wobei P die bedingte Wahrscheinlichkeitsverteilung P ( V 1 < ) bezeichnet. (Beachte P (V 1 < ) P (X 1 = 1) = p > 0 und P (.) = P (.), falls P (V 1 < ) = 1.) Es sei Sn = n Xk und S 0 = 0. Auf Grund der Definition gilt für alle n 0 S n = S n+v1 S V1 = S n+v1 1, P fast sicher. Aussage: Die Folge (S n, n 0) ist bezüglich der Verteilung P, also bez. P unter der Bedingung V 1 <, eine Irrfahrt mit dem Parameter p. Beweis: P (V 1 <, X 1 = x 1,, X n = x n ) = P (V 1 = 2k + 1, X1 = x 1,, Xn = x n ) = P (V 1 = 2k + 1, X 2k+2 = x 1,, X 2k+1+n = x n ) = P (S 1 0, S 2 0,, S 2k = 0, S 2k+1 = 1, X 2k+2 = x 1,, X 2k+1+n = x n ).

9 Irrfahrten und Bernoullischemata 129 Jetzt nutzen wir die Unabhängigkeit von (S 1, S 2,, S 2k+1 ) und (X 2k+2,, X 2k+1+n ) aus sowie die Tatsache, dass (X 2k+2,, X 2k+1+n ) die gleiche Verteilung wie (X 1,, X n ) besitzt und erhalten die Summe P (V 1 = 2k + 1)P (X 1 = x 1,, X n = x n ) = P (V 1 < ) P (X 1 = x 1,, X n = x n ) = P (V 1 < ) p n+sn 2 (1 p) n sn 2. Somit gilt P (X 1 = x 1,..., X n = x n ) = p n+sn 2 (1 p) n sn 2. (6) Das Lemma besagt, nach der zufälligen Zeit V 1 (sofern diese endlich ist) verhält sich die Irrfahrt (S n, n 0), als startete sie von Neuem mit demselben Parameter p, dieses Mal vom Zustand Eins. Wir bemerken noch eine Eigenschaft, die wir später benutzen werden. Es sei V1 (ω) = min{k 1 Sk (ω) = 1}, min =. Dann gilt V 1 = V 2 V 1 auf {V 1 < }. (7) Im Fall V 1 (ω) < haben wir nämlich V 1 (ω) + V 1 (ω) = min{k > 1 S k (ω) = 1} + V 1(ω) = min{k + V 1 (ω) > V 1 (ω) S k+v1 (ω)(ω) S V1 (ω)(ω) = 1} = min{m > V 1 (ω) S m (ω) = 2} = min{m 1 S m (ω) = 2} = V 2 (ω).

10 130 Uwe Küchler Wir haben oben gesehen, dass die Irrfahrt ( S n, n 0) mit S n = S n+n0 S n0 unabhängig von (X 1,, X n0 ), also von A n0 = σ(x 1,, X n0 ) ist. Ein analoger Sachverhalt gilt auch für (Sn, n 0). Allerdings ist er etwas komplizierter in der Formulierung, da jetzt die Zeit V 1 eine Zufallsgröße ist. Wir führen folgendes Ereignissystem aus A ein: A V1 := {A A A {V 1 = 2k + 1} A 2k+1, k 0}. Lemma: A V1 ist eine Teil-σ-Algebra von A. Beweis: und Ω gehören zu A V1, die übrigen Eigenschaften einer σ-algebra folgen unter Zuhilfenahme der Tatsache, dass alle A 2k+1, k 0, σ-algebren sind. Man beachte, dass {V 1 = 2k + 1} A 2k+1, k 0, gilt. Man überzeugt sich leicht davon, dass V 1 bezüglich A V1 messbar ist. Nun können wir die angekündigte Eigenschaft der Irrfahrt (S n, n 0) formulieren. Aussage: Die Folge (Sn, n 1) ist bezüglich P, also bezüglich P unter der Bedingung V 1 <, eine Irrfahrt mit dem Parameter p, die unabhängig von A V1 ist. Beweis: Es sei A A V1. Nach Voraussetzung gibt es für jedes k 0 eine Teilmenge B k von { 1, 1} 2k+1 mit A {V 1 = 2k + 1} = {(X 1,, X 2k+1 ) B k }. Folglich gilt für alle x = (x 1, x 2,, x n ) { 1, +1} n : P (A {X 1 = x 1,, X n = x n } {V 1 < }) = P (A {V 1 = 2k + 1} {X1 = x 1,, Xn = x n }) = P ((X 1,, X 2k+1 ) B k, X 2k+2 = x 1,, X 2k+n+1 = x n ) = P ((X 1,, X 2k+1 ) B k ) P (X 1 = x 1,, X n = x n ) =

11 Irrfahrten und Bernoullischemata 131 P ({V 1 = 2k + 1} A)P (X 1 = x 1,, X n = x n ) = P (A {V 1 < })P (X 1 = x 1,..., X n = x n ). Teilen wir Anfangs- und Endterm dieser Gleichung durch P (V 1 < ) und berücksichtigen wir die Formel (6) dieses Abschnitts, so erhalten wir P (A {X 1 = x 1,, X n = x n }) = P (A) P (X 1 = x 1,, X n = x n ). Folgerung: Bezüglich P, also bezüglich P unter der Bedingung {V 1 < }, sind V 1 und V 2 V 1 unabhängige Zufallsgrößen mit P (V 2 V 1 = 2k + 1) = P (V 1 = 2k + 1) = P (V 1 = 2k + 1), k 0. Die Wahrscheinlichkeitsverteilung der zufälligen Zeit V 1 Wir bestimmen die Wahrscheinlichkeiten P (V 1 = 2k + 1) mithilfe der erzeugenden Funktion g 1 von V 1 : g 1 (s) := Es V 1 = s 2k+1 P (V 1 = 2k + 1), s 1. Es gilt P (V 1 = 1) = p, und für k 1 haben wir P (V 1 = 2k + 1) = P (X 1 = 1, S 2 0,..., S 2k = 0, S 2k+1 = 1) = P (X 1 = 1, S 2 X 1 1,..., S 2k X 1 = 1, S 2k+1 X 1 = 2) =

12 132 Uwe Küchler P (X 1 = 1)P (S 1 1, S 2 1,..., S 2k 1 = 1, S 2k = 2) = (1 p)p (V 2 = 2k). Somit ist mit der Bezeichnung q = 1 p g 1 (s) = ps + qs s 2k P (V 2 = 2k) = ps + qses V 2, s 1. (8) Es gilt wegen s V 2(ω) = 0, falls V 2 (ω) = und s < 1, Es V 2 = E[1 {V1 < }s V 2 ] = E[1 {V1 < }s V 2 V 1 s V 1 ] = E [s V 2 V 1 s V 1 ]P (V 1 < ) = E s V 1 E s V1 P (V 1 < ) = Es V1 Es V 1 = [Es V 1 ] 2 = g 2 1(s). (9) Weiterhin wurden die Unabhängigkeit von V 1 und V 1 = V 2 V 1 bezüglich P, die Definition E [Z] = E[Z 1 {V1 < }] / P (V 1 < ) und die Gleichung E s V 1 = Es V 1 benutzt. Wegen (8) und (9) genügt g 1 ( ) der Gleichung g 2 1(s) 1 qs g 1(s) + p q = 0, s < 1. Als Lösung ergibt sich auf Grund der Beschränktheit von g 1 ( ) auf ( 1, 1): g 1 (s) = 1 2qs [1 (1 4pqs2 ) 1 2 ], s < 1. Anhand dieser erzeugenden Funktion berechnen wir die Einzelwahrscheinlichkeiten P (V 1 = 2k + 1), P (V 1 < ), d.h. die Wahrscheinlichkeit, Eins jemals zu erreichen und EV 1.

13 Irrfahrten und Bernoullischemata 133 Zunächst gilt P (V 1 < ) = also P (V 1 = 2k + 1) = lim s 1 g 1 (s), P (V 1 < ) = 1 (1 4pq) 1 2 2q = 1 (p2 2pq + q 2 ) 1 2 2q = 1 p q 2q = { 1 falls p 1 2 p q falls p < 1 2. Für die Einzelwahrscheinlichlichkeiten der Verteilung von V 1 ergibt sich durch Entwicklung der erzeugenden Funktion g 1 ( ) in eine Potenzreihe P (V 1 = 2k 1) = (2pq)k 2qk! (2k 3)!!, k 1 mit m!! = m für ungerades m (Übung). Wegen EV 1 = lim s 1 EV 1 = d q ds 1(s) erhalten wir { 1 p q, falls p > q, falls p q. Insbesondere gelten für die symmetrische Irrfahrt (p = q) die Gleichungen P (V 1 < ) = 1 und EV 1 =. 6.2 Bernoullischemata Es seien (Ω, A, P ) ein Wahrscheinlichkeitsraum, n 1 und p (0, 1).

14 134 Uwe Küchler Definition: Jede Folge X = (X 1, X 2,..., X n ) von Zufallsgrößen über (Ω, A, P ) mit 1. X 1, X 2,..., X n sind voneinander unabhängig, 2. P (X k = 1) = p, P (X k = 0) = 1 p =: q, k = 1,..., n heißt ein Bernoullischema mit den Parametern n und p. Wir bezeichnen es mit BS n (p). Ist X = (X k, k 1) eine unendliche Folge von Zufallsgrößen mit den Eigenschaften 1. und 2. für alle n 2, so heißt (X k, k 1) ein unendliches Bernoullischema mit dem Parameter p. Wir verwenden dafür die Kurzschreibweise BS (p). Eigenschaft 2. kann man auch in der Form P (X k = i) = p i (1 p) 1 i, i {0, 1}, k = 1,..., n (1) schreiben. Für jedes Bernoullischema BS n (p) oder BS (p) ist X = (X 1,..., X n ) ein zufälliger Vektor mit den möglichen Werten x = (i 1, i 2,..., i n ), i k {0, 1}, k = 1,..., n. Wir definieren E = {0, 1} n. Der zufällige Vektor X bildet Ω in E ab. Er ist folglich diskret verteilt, und es gilt nach Definition für jedes x = (i,..., i n ) E : P (X = x) = P (X 1 = i 1,..., X n = i n ) = n P (X k = i k ) = p n i k (1 p) n n i k. (2) Bemerkung: Das Bernoullischema BS n (p) entspricht einem n-stufigen zufälligem Experiment, dessen Einzelexperimente voneinander unabhängig sind und jeweils nur zwei mögliche Versuchsausgänge haben (wir bezeichnen sie mit 0

15 Irrfahrten und Bernoullischemata 135 bzw. 1), die in jedem Teilexperiment mit der Wahrscheinlichkeit q bzw. p auftreten. Die Zufallsgröße X k gibt in diesem Zusammenhang das Ergebnis des k-ten Teilexperimentes an. Dabei wird das Ereignis {X k = 1} häufig als Erfolg im k-ten Experiment bzw. das Ereignis {X k = 0} als Misserfolg im k-ten Experiment gedeutet. Mit dem Bernoullischema sind mehrere konkrete Zufallsgrößen und ihre Wahrscheinlichkeitsverteilungen verbunden, von denen wir im Folgenden einige studieren werden. l=1 Es sei X = (X 1,..., X n ) ein BS n (p). Die Zufallsgröße S k, definiert durch k S k (ω) = X l (ω), ist gleich der Anzahl der Erfolge in den ersten k Teilexperimenten des Bernoullischemas. Aussage: Die Zufallsgröße S n ist binomialverteilt mit den Parametern n und p, d.h. es gilt P (S n = k) = ( n n) p k (1 p) n k, k = 0, 1,..., n. Beweis: P (S n = k) = P (X X n = k) = P X ({x E : n i j = k}) = j=1 x=(i 1,...,in): ij =k n p i j (1 p) 1 i j = j=1 x=(i 1,...,in): ij =k p k (1 p) n k = ( n k) p k (1 p) n k, da alle x E mit n i j = k dieselbe Wahrscheinlichkeit p k (1 p) n k besitzen j=1 (siehe (2)) und es ( n k) solcher x E gibt. Für die folgenden Zufallsgrößen nehmen wir ein unendliches Bernoullischema BS (p) als gegeben an. Die Zufallsgrößen

16 136 Uwe Küchler T 1 (ω) := min{k > 0 X k (ω) = 1}, T m (ω) := min{k > T m 1 (ω) X k (ω) = 1}, m 2 geben die Zeitpunkte an, zu denen der erste bzw. der m-te Erfolg im BS (p) eintritt. Dabei setzt man min := und T 0 (ω) := 0. Mit diesen Bezeichnungen ist T m+1 T m die Anzahl der Versuche nach dem m-ten bis zum (m + 1)-ten Erfolg, T m m die Anzahl der Misserfolge bis zum m-ten Erfolg, m 1. T m+1 T m 1 ist die Anzahl der Misserfolge zwischen dem m-ten und dem (m + 1)-ten Erfolg. Aussage: Es gilt: a) T 1 1 ist geometrisch verteilt mit dem Parameter p. b) (T k+1 T k 1), k 0, sind voneinander unabhängig und identisch verteilt wie T 1 1. c) T m m besitzt eine negative Binomialverteilung mit den Parametern m und p. d) Die Folge (X Tm+k, k 1) bildet ein unendliches Bernoullischema mit dem Parameter p und ist unabhängig von A Tm. (Man beachte, dass auf Grund von c) P (T m < ) = 1 gilt.) Beweis: a) P (T 1 1 = k) = P (T 1 = k + 1) = P (X 1 = 0, X 2 = 0,..., X k = 0, X k+1 = 1) = (1 p) k p, k 0 b) Es sei m irgendeine natürliche Zahl mit m 2. Das Ereignis

17 Irrfahrten und Bernoullischemata 137 m {T k T k 1 1 = t n } mit t k N 0 = {0, 1, 2,..., }, k = 1,..., m trifft genau dann ein, wenn zwischen dem (k 1)-ten und dem k-ten Erfolg genau t k Misserfolge stattfinden, k = 1,..., m. Es ist folglich gleich dem Ereignis (mit der Bezeichnung s l = t 1 + t t l + l, 1 l m) m {X sl = 1} l=1 s m j=1 j s l, l=1,...,m {X j = 0}. Seine Wahrscheinlichkeit ist auf Grund der Voraussetzungen an die Zufallsgrößen X k, k 1, gleich dem Wert (1 p) t 1 p(1 p) t 2 p... (1 p) tm p = (1 p) t 1+t t m p m. Daraus ergibt sich für jedes k mit 1 k m P (T k T k 1 1 = t k ) = (1 p) t k p und somit ( m ) P {T k t k 1 1 = t k } = m P (T k t k 1 1 = t k ) für alle t k N 0, k = 1,..., m. Das heißt, die (T k T k 1 1), k 1 sind voneinander unabhängig und alle geometrisch mit dem Parameter p verteilt. c) Das Ereignis {T m m = k} tritt genau dann ein, wenn in {X 1 = i 1,..., X m+k = i m+k } unter den i j genau m mal eine Eins, sonst Nullen auftreten und i m+k = 1 gilt. Dafür gibt es ( ) m+k 1 m 1 gleichwahrscheinliche Fälle mit jeweils der Wahrscheinlichkeit p m (1 p) k. Also ist P (T m m = k) = ( ) m+k 1 k (1 p) k p m = ( ) m (p 1) k p m. d) Es sei A A T1. Dann gilt A {T 1 = k} A k = σ(x 1, X 2,..., X k ), k 1, k

18 138 Uwe Küchler und folglich gibt es für jedes k 1 ein B k {0, 1} k mit A {T 1 = k} = {(X 1,..., X k ) B k }. Daraus ergibt sich für alle r 1, i l {0, 1}, l = 1,..., r P (A {T 1 = k}, X T1 +1 = i 1,..., X T1 +r = i r ) = P ((X 1,..., X k ) B k, X k+1 = i 1,..., X k+r = i r ). Wegen der Unabhängigkeit der beiden Folgen (X 1,..., X k ) und (X k+1,..., X k+r ) ist dieser Wert gleich P ((X 1,..., X k ) B k ) P (X k+1 = i 1,..., X k+r = i r ) = P (A {T 1 = k}) P (X 1 = i 1,..., X r = i r ). Summation über k 1 ergibt wegen P (T 1 < ) = 1 P (A {X T1 +1 = i 1,..., X T1+r = i r }) = P (A)P (X 1 = i 1,..., X r = i r ) = P (A)p Damit ist die Aussage bewiesen. r i k (1 p) r r i k. Bernoullischemata und Irrfahrten hängen eng zusammen. Ist (X n, n 1) ein Bernoullischema mit dem Parameter p, so ist ( S n, n 1) mit S n = n S n = n (2X k 1), n 1, eine Irrfahrt mit dem Parameter p. Ist umgekehrt Y k eine Irrfahrt mit dem Parameter p, so bildet (X n, n 1) mit X n = 1 2 (Y n + 1), n 1, ein Bernoullischema mit dem Parameter p.

19 Irrfahrten und Bernoullischemata 139 Alle Aussagen über Irrfahrten lassen sich also als Aussagen über Bernoullischemata formulieren und umgekehrt.

Kapitel 2. Zufällige Versuche und zufällige Ereignisse. 2.1 Zufällige Versuche

Kapitel 2. Zufällige Versuche und zufällige Ereignisse. 2.1 Zufällige Versuche Kapitel 2 Zufällige Versuche und zufällige Ereignisse In diesem Kapitel führen wir zunächst anschaulich die grundlegenden Begriffe des zufälligen Versuchs und des zufälligen Ereignisses ein und stellen

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

Bedingte Wahrscheinlichkeiten und Unabhängigkeit

Bedingte Wahrscheinlichkeiten und Unabhängigkeit Kapitel 5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Mitunter erhält man über das Ergebnis eines zufälligen Versuches Vorinformationen. Dann entsteht die Frage, wie sich für den Betrachter, den man

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω 2 3 8 N Wir definieren

Mehr

Diskrete Verteilungen

Diskrete Verteilungen KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Ü b u n g s b l a t t 10

Ü b u n g s b l a t t 10 Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel. 6. 2007 Ü b u n g s b l a t t 0 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben

Mehr

Basiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Hausaufgabe 7 Abgabe am oder am in der Übung

Hausaufgabe 7 Abgabe am oder am in der Übung Stochasti, Sommersemester 04 Hausaufgabe 7 Abgabe am 6.5. oder am.5. in der Übung Prof. Dr. I. Veselić Dr. M. Tautenhahn, Dr. C. Schumacher Aufgabe. Sei a (0, /). Die Wahrscheinlicheit p, dass eine Familie

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Satz 18 (Satz von der totalen Wahrscheinlichkeit) Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte

Mehr

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. 2 Zufallsvariable 2.1 Einführung Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. Eine Zufallsvariable X ordnet jedem elementaren Versuchsausgang

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Statistik Dr. Thomas Zehrt Ausblick Motivation Wir werfen einen Würfel 000-mal und wir möchten die Wahrscheinlichkeit P bestimmen, dass zwischen

Mehr

Stochastik und Statistik für Ingenieure Vorlesung 4

Stochastik und Statistik für Ingenieure Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl

Mehr

Stochastische Unabhängigkeit. 01. Dezember 2014

Stochastische Unabhängigkeit. 01. Dezember 2014 Stochastische Unabhängigkeit 0. Dezember 204 Der Begriff der Unabhängigkeit Großbritannien, im November 999. Die Anwältin Sally Clark wird wegen Mordes an ihren Kindern angeklagt. Clark geriet unter Verdacht

Mehr

6 Stochastische Unabhängigkeit

6 Stochastische Unabhängigkeit Stochastische Unabhängigkeit 61 6 Stochastische Unabhängigkeit Der Begri der stochastischen Unabhängigkeit ist für die Stochastik von zentraler Bedeutung. Obwohl der dem Begri zugrundeliegende Sachverhalt

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Teil II. Wahrscheinlichkeitsrechnung

Teil II. Wahrscheinlichkeitsrechnung Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 2

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 2 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/14 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie svorschläge

Mehr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 3. Vorlesung - 21.10.2016 Bedingte Wahrscheinlichkeit In einer Urne sind 2 grüne und 3 blaue Kugeln. 2 Kugeln werden ohne Zürücklegen gezogen. Welches ist die Wahrscheinlichkeit, dass : a) man eine grüne

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

3.3 Bedingte Wahrscheinlichkeit

3.3 Bedingte Wahrscheinlichkeit 28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte

Mehr

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012 Weihnachtszettel zur Vorlesung Stochastik I Wintersemester 0/0 Aufgabe. Der Weihnachtsmann hat vergessen die Weihnachtsgeschenke mit Namen zu beschriften und muss sie daher zufällig verteilen. Dabei enthält

Mehr

16.3 Rekurrente und transiente Zustände

16.3 Rekurrente und transiente Zustände 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht

Mehr

5 Teilmengen von R und von R n

5 Teilmengen von R und von R n 5 Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,...,x n ) : x i R} = R }... {{ R }. n mal Für x R ist x der Abstand zum Nullpunkt. Die entsprechende Verallgemeinerung

Mehr

Stochastik für die Naturwissenschaften

Stochastik für die Naturwissenschaften Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 4. Zufallsgrösse X Literatur Kapitel 4 * Storrer: Kapitel (37.2)-(37.8), (38.2)-(38.3), (38.5), (40.2)-(40.5) * Stahel: Kapitel 4, 5 und 6 (ohne

Mehr

2.2 Ereignisse und deren Wahrscheinlichkeit

2.2 Ereignisse und deren Wahrscheinlichkeit 2.2 Ereignisse und deren Wahrscheinlichkeit Literatur: [Papula Bd., Kap. II.2 und II.], [Benning, Kap. ], [Bronstein et al., Kap. 1.2.1] Def 1 [Benning] Ein Zufallsexperiment ist ein beliebig oft wiederholbarer,

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 1 Vorbemerkungen

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben) Musterlösung zum. Aufgabenblatt zur Vorlesung MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur Gruben. Wahrscheinlichkeiten I ( Punkte Die Seiten von zwei Würfeln sind mit den folgenden Zahlen

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen. Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.

Mehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus

Mehr

Erwartungswert, Varianz und Standardabweichung einer Zufallsgröße. Was ist eine Zufallsgröße und was genau deren Verteilung?

Erwartungswert, Varianz und Standardabweichung einer Zufallsgröße. Was ist eine Zufallsgröße und was genau deren Verteilung? Erwartungswert, Varianz und Standardabweichung einer Zufallsgröße Von Florian Modler In diesem Artikel möchte ich einen kleinen weiteren Exkurs zu meiner Serie Vier Wahrscheinlichkeitsverteilungen geben

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

Wiederholung: lineare Abbildungen

Wiederholung: lineare Abbildungen Wiederholung: lineare Abbildungen Def Es seien (V,+, ) und (U, +, ) zwei Vektorräume Eine Abbildung f : V U heißt linear, falls für alle Vektoren v 1, v 2 V und für jedes λ R gilt: (a) f (v 1 + v 2 ) =

Mehr

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,

Mehr

DIE SPRACHE DER WAHRSCHEINLICHKEITEN

DIE SPRACHE DER WAHRSCHEINLICHKEITEN KAPITEL 1 DIE SPRACHE DER WAHRSCHEINLICHKEITEN Es ist die Aufgabe der ersten drei Kapitel, eine vollständige Beschreibung des grundlegenden Tripels (Ω, A, P) und seiner Eigenschaften zu geben, das heutzutage

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Übungen zur Wahrscheinlichkeitstheorie und Statistik

Übungen zur Wahrscheinlichkeitstheorie und Statistik Übungen zur Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank Blatt 0 vom 16. April 2012 Aufgabe 1 (Wahrscheinlichkeitsräume). Welche der folgenden Aussagen sind wahr? Begründen Sie jeweils

Mehr

Es werden 120 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 120 Schülern besitzen 99 ein Handy.

Es werden 120 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 120 Schülern besitzen 99 ein Handy. R. Brinkmann http://brinkmann-du.de Seite 08..2009 Von der relativen Häufigkeit zur Wahrscheinlichkeit Es werden 20 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 20 Schülern

Mehr

1. Grundlagen der Wahrscheinlichkeitsrechnung

1. Grundlagen der Wahrscheinlichkeitsrechnung 1. Grundlagen der Wahrscheinlichkeitsrechnung Ereignisse und Wahrscheinlichkeiten Zufälliger Versuch: Vorgang, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang innerhalb einer

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Grundstudium Mathematik Wahrscheinlichkeitsrechnung Bearbeitet von Dominique Foata, Aime Fuchs 1. Auflage 1999. Taschenbuch. xv, 383 S. Paperback ISBN 978 3 7643 6169 3 Format (B x L): 17 x 24,4 cm Gewicht:

Mehr

Diskrete Verteilungen und Zufallsgrößen

Diskrete Verteilungen und Zufallsgrößen Kapitel 4 Diskrete Verteilungen und Zufallsgrößen Wahrscheinlichkeitsverteilungen und Zufallsgrößen haben wir in dem sehr allgemeinen Rahmen von Wahrscheinlichkeitsräumen (Ω, A, P ) eingeführt. In dieser

Mehr

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische

Mehr

Würfelspiele und Zufall

Würfelspiele und Zufall Würfelspiele und Zufall Patrik L. Ferrari 29. August 2010 1 Random horse die Irrfahrt des Pferdchens Betrachte ein Schachbrett mit einem Pferd (Springer), welches sich nach den üblichen Springer-Regeln

Mehr

TU Darmstadt FB Mathematik, AG 9 WS 2004/2005 Jakob Creutzig (1 + ρ)

TU Darmstadt FB Mathematik, AG 9 WS 2004/2005 Jakob Creutzig (1 + ρ) TU Darmstadt FB Mathematik, AG 9 WS 2004/2005 Jakob Creutzig 9..04 Lösungsvorschläge zum 3. Aufgabenblatt der Vorlesung,,Einführung in die Finanzmathematik Gruppenübungen Aufgabe : Es sei Ω = {, +} n,

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen

Mehr

9 Konvergenz und absolute Konvergenz von Reihen

9 Konvergenz und absolute Konvergenz von Reihen 9 Konvergenz und absolute Konvergenz von Reihen 9.2 Konvergenz von Reihen 9.5 Monotoniekriterium für Reihen 9.6 Konvergenzkriterium von Cauchy für Reihen 9.9 Rechenregeln für konvergente Reihen 9.10 Absolute

Mehr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Unabhängigkeit von Ereignissen A, B unabhängig:

Mehr

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Ferienkurs Analysis 1, SoSe Unendliche Reihen. Florian Beye August 15, 2008

Ferienkurs Analysis 1, SoSe Unendliche Reihen. Florian Beye August 15, 2008 Ferienkurs Analysis 1, SoSe 2008 Unendliche Reihen Florian Beye August 15, 2008 1 Reihen und deren Konvergenz Definition 1.1. Eine reelle bzw. komplexe Reihe ist eine unendliche Summe über die Glieder

Mehr

Definition 4.1 Die Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung ist gegeben durch

Definition 4.1 Die Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung ist gegeben durch Kapitel 4 Diskrete Verteilungen 4.1 Bernoulli-Verteilung Definition 4.1 Die Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung ist gegeben durch È Üµ ½ für Ü ¼ für Ü ½ ¼ sonst Die Bernoulli-Verteilung

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Satz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung

Satz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung Satz von Borel-Cantelli Limes inferior von Mengen Limes superior von Mengen Stetigkeit Konvergenz von Zufallsvariablen Kolmogorow-Ungleichung Tschebyschow-Ungleichung Konvergenzkriterien Starkes Gesetz

Mehr

Weierstraß-Institut für Angewandte Analysis und Stochastik Murphys Gesetz, tippende Affen und Unendlichkeit in der Wahrscheinlichkeitstheorie

Weierstraß-Institut für Angewandte Analysis und Stochastik Murphys Gesetz, tippende Affen und Unendlichkeit in der Wahrscheinlichkeitstheorie Weierstraß-Institut für Angewandte Analysis und Stochastik Murphys Gesetz, tippende Affen und Unendlichkeit in der Wahrscheinlichkeitstheorie Wolfgang König (WIAS und TU Berlin) Mohrenstraße 39 10117 Berlin

Mehr

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs Stochastik am von 10:00 bis 11:00 Uhr

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs Stochastik am von 10:00 bis 11:00 Uhr Klausur (Modulprüfung) zum Lehrerweiterbildungskurs Stochastik am 5..201 von 10:00 bis 11:00 Uhr Bearbeiten Sie zwei der drei folgenden Aufgaben! Sätze aus der Vorlesung und den Übungen dürfen Sie ohne

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom Übungsaufgaben 9. Übung SS 16: Woche vom 5. 6. 10. 6. 2016 Stochastik III: Totale Wkt., S.v.Bayes, Diskrete ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung Mathematik: LehrerInnenteam Arbeitsblatt 7-7. Semester ARBEITSBLATT Erwartungswert, Varianz und Standardabweichung Die Begriffe Varianz und Standardabweichung sind uns bereits aus der Statistik bekannt

Mehr

σ-algebren, Definition des Maßraums

σ-algebren, Definition des Maßraums σ-algebren, Definition des Maßraums Ziel der Maßtheorie ist es, Teilmengen einer Grundmenge X auf sinnvolle Weise einen Inhalt zuzuordnen. Diese Zuordnung soll so beschaffen sein, dass dabei die intuitiven

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof Dr H Brenner Osnabrück WS 205/206 Lineare Algebra und analytische Geometrie I Vorlesung 9 Basiswechsel Wir wissen bereits, dass in einem endlichdimensionalen Vektorraum je zwei Basen die gleiche Länge

Mehr

Mathematik 1 für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler) Musterprüfung mit Lösungen

Mathematik 1 für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler) Musterprüfung mit Lösungen Mathematik für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler Musterprüfung mit Lösungen. Sei T N. (a Unter welchen beiden Voraussetzungen an T garantiert das Induktionsaxiom (nach

Mehr

Zusammenfassung Stochastik

Zusammenfassung Stochastik Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl

Mehr

Klausur zur Vorlesung,,Algorithmische Mathematik II

Klausur zur Vorlesung,,Algorithmische Mathematik II Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese

Mehr

5. Übungsblatt zur Einführung in die Stochastik

5. Übungsblatt zur Einführung in die Stochastik Fachbereich Mathematik Prof. Dr. Michael Kohler Dipl.-Math. Andreas Fromkorth Dipl.-Inf. Jens Mehnert SS 09 25.5.2009 5. Übungsblatt zur Einführung in die Stochastik Aufgabe 18 Drei Spieler bekommen jeweils

Mehr

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Wahrscheinlichkeitsrechnung Theorie Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem,

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

Grundlagen der Arithmetik und Zahlentheorie

Grundlagen der Arithmetik und Zahlentheorie Grundlagen der Arithmetik und Zahlentheorie 1.0 Teilbarkeit In diesem Abschnitt werden wir einerseits die ganzen Zahlen an sich studieren und dabei besonders wichtige Zahlen, die Primzahlen, entsprechend

Mehr

Übungsaufgaben Lösungen

Übungsaufgaben Lösungen Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij

Mehr

3.2 Unabhängigkeitsstrukturen

3.2 Unabhängigkeitsstrukturen 80 3.2 Unabhängigkeitsstrukturen Unser Ziel ist der Nachweis, daß in Vektorräumen, also in Moduln über Körpern, Basen existieren und zwei endliche Basen gegebenenfalls von derselben Ordnung sind. (Basen

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie

Grundbegriffe der Wahrscheinlichkeitstheorie KAPITEL 1 Grundbegriffe der Wahrscheinlichkeitstheorie 1. Zufallsexperimente, Ausgänge, Grundmenge In der Stochastik betrachten wir Zufallsexperimente. Die Ausgänge eines Zufallsexperiments fassen wir

Mehr

Ist P(T) = p die Trefferwahrscheinlichkeit eines Bernoulli-Experiments,

Ist P(T) = p die Trefferwahrscheinlichkeit eines Bernoulli-Experiments, . Binomialverteilung ==================================================================.1 Bernoulli-Experimente und Bernoullikette -----------------------------------------------------------------------------------------------------------------

Mehr

Ergebnis Ergebnisraum Ω. Ereignis. Elementarereignis

Ergebnis Ergebnisraum Ω. Ereignis. Elementarereignis Stochastik Die Stochastik besteht aus zwei Teilgebieten, der Statistik und der Wahrscheinlichkeitsrechnung. Die Statistik beschreibt die Vergangenheit und verwendet Informationen, die (in realen Versuchen)

Mehr

Diskrete Strukturen WiSe 2012/13 in Trier

Diskrete Strukturen WiSe 2012/13 in Trier Diskrete Strukturen WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 11. Januar 2013 1 Diskrete Strukturen Gesamtübersicht Organisatorisches und Einführung Mengenlehre Relationen

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

5. Äquivalenzrelationen

5. Äquivalenzrelationen 5. Äquivalenzrelationen 35 5. Äquivalenzrelationen Wenn man eine große und komplizierte Menge (bzw. Gruppe) untersuchen will, so kann es sinnvoll sein, zunächst kleinere, einfachere Mengen (bzw. Gruppen)

Mehr