Kapitel 6. Irrfahrten und Bernoullischemata
|
|
- Julia Winkler
- vor 6 Jahren
- Abrufe
Transkript
1 Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten Folgen (S 0, S 1,..., S n ) mit S k = n X k haben die Eigenschaften P (X k = 1) = P (X k = +1) = 1, k = 1, 2,..., n. 2 Die Folge (S k, k = 0, 1,..., n) kann man auffassen als die Orte eines Teilchens, das sich in jeder Zeiteinheit mit gleicher Wahrscheinlichkeit um eine Einheit nach oben oder nach unten bewegt. Dabei erfolgt der Schritt in der k-ten Zeiteinheit unabhängig vom Verhalten der Folge (S l, l k), also vom Verhalten bis zur k-ten Zeiteinheit. Insofern spricht man auch von einer (symmetrischen) Irrfahrt. In diesem Kapitel werden wir den Begriff der Irrfahrt auf den nichtsymmetrischen Fall ausdehnen und einige ihrer weiteren Eigenschaften herleiten. Mit Irrfahrten eng verwandt sind die Bernoullischemata. Beide Objekte, also Irrfahrten und Bernoullischemata, beruhen auf unabhängigen identisch verteilten Zufallsgrößen mit jeweils zwei möglichen Werten und sind im Grunde äquivalente Formen ein und desselben Modells. Dass man dennoch beide Formen getrennt behandelt, hängt mit Anwendungsaspekten zusammen. 121
2 122 Uwe Küchler 6.1 Irrfahrten Wir haben bereits die symmetrische Irrfahrt (S k, k n) kennen gelernt, die sich aus einem Laplace-Experiment (n-maliges Werfen einer regulären Münze) ergibt: (Ω, A, P ) mit Ω = { 1, +1} n, A = P(Ω), X l (ω) = x l, ω = (x 1, x 2,, x n ) Ω, l = 1,, n, S k (ω) = k X l (ω) und l=1 P ({ω}) = 2 n, ω Ω. Offenbar gilt P (X 1 = x 1, X 2 = x 2,, X n = x n ) = 2 n (x 1, x 2,, x n ) { 1, 1} n und somit für jedes k mit 1 k n P (X k = x k ) = x 1,,x k 1,x k+1,x n { 1,1} P (X 1 = x 1,, X n = x n ) = 1 2. Daraus folgt für alle (x 1, x 2,, x n ) { 1, 1} n die Gleichung P (X 1 = x 1, X 2 = x 2,, X n = x n ) = n P (X k = x k ). Das heißt aber gerade, dass die Zufallsgrößen X 1, X 2,..., X n voneinander unabhängig sind und alle die gleiche Verteilung besitzen ( m.a.w., identisch verteilt sind). Ist die Münze, mit der geworfen wird, nicht mehr regulär, sondern erscheint das Wappen mit der Wahrscheinlichkeit p (p (0, 1)) und die Zahl mit der Wahrscheinlichkeit q := 1 p oben, so bleiben die Würfe noch voneinander unabhängig und ihre Ausgänge besitzen alle dieselbe Wahrscheinlichkeitsverteilung, die nunmehr lautet:
3 Irrfahrten und Bernoullischemata 123 P (X k = 1) = p, P (X k = 1) = 1 p, k = 1, 2,, n, mit anderen Worten, es gilt P (X k = i) = p 1+i 2 (1 p) 1 i 2, i { 1, +1}, 1 k n. (1) Die Ausgänge ω = (x 1, x 2,, x n ) Ω der Wurfserie haben jedoch, falls p q gilt, nicht mehr die gleiche Wahrscheinlichkeit: P ({ω}) = n P (X k = x k ) = p n+sn 2 (1 p) n sn 2 (2) mit s n = x x n. Durch P (A) = ω A P ({ω}), A A ist auf A = P(Ω) eine Verteilung P definiert. Bezüglich P sind wegen (1) und (2) die Zufallsgrößen X 1, X 2,, X n unabhängig und identisch (gemäß (1)) verteilt. Im Folgenden gehen wir davon aus, dass (X k, k 1) eine unendliche Folge voneinander unabhängiger identisch verteilter Zufallsgrößen über einem geeigneten Wahrscheinlichkeitsraum (Ω, A, P ) mit der Verteilung (1) ist. Definition: Die Folge (S n, n 0) mit S 0 := s 0, S n = n X k, n 1, s 0 Z, heißt eine Irrfahrt mit dem Parameter p und mit Start in s 0. Ist s 0 = 0, so nennt man (S n, n 0) einfach eine Irrfahrt mit dem Parameter p. Im Fall p = q = 1 spricht man von einer symmetrischen Irrfahrt auf Z. Dabei bezeichnet Z die Menge aller ganzen 2 Zahlen. Im Folgenden verwenden wir die Bezeichnung
4 124 Uwe Küchler A n := σ(x 1, X 2,, X n ), n 1, d.h., A n ist die kleinste σ-algebra von Teilmengen von Ω, bezüglich der alle X 1, X 2,, X n messbar sind. Es gilt A n A, da alle X k bezüglich A messbar sind, und A n besteht hier aus allen Teilmengen A von Ω der Form A = {ω Ω (X 1 (ω),, X n (ω)) B}, wobei B irgend eine Teilmenge von { 1, +1} n ist. Wegen der bijektiven Beziehung zwischen (X 1, X 2,, X n ) und (S 1, S 2,, S n ) haben wir auch A n = σ(s 1, S 2,, S n ), n 1. Eine fast offensichtliche Eigenschaft jeder Irrfahrt (S n, n 0) mit Parameter p ist die folgende: Aussage: Wählt man eine feste Zeit n 0 1 und bildet S n := S n+n0 S n0 (n 0), so ist ( S n, n 0) wieder eine Irrfahrt mit demselben Parameter p. Außerdem ist ( S n, n 0) unabhängig von A n0. Beweis: Die Zufallsgrößen X k := X n0 +k, k 1 sind voneinander unabhängig und haben alle die gleiche Verteilung: P ( X k = x k ) = p 1+x k 2 (1 p) 1 x k 2, x k {+1, 1}. Weiterhin ist P ( X 1 = x 1,, X n = x n ) = P (X n0 +1 = x 1,, X n0 +n = x n ) = P (X 1 = x 1,, X n = x n ) = p n+sn 2 (1 p) n sn 2 mit n s n = x k.
5 Irrfahrten und Bernoullischemata 125 Wegen S n = S n0 +n S n0 = n X k, n 0 ist folglich ( S n ) eine Irrfahrt mit dem Parameter p. Ist A A n0, so gibt es ein B { 1, +1} n 0 mit A = {(X 1,, X n0 ) B}. Da alle (X k, k 1) voneinander unabhängig sind, sind es auch die beiden Folgen (X 1, X 2,, X n0 ) und (X n0 +1, X n0 +2, ) und somit auch A und ( S n, n 1). Damit ist die Aussage bewiesen. Nach jedem Zeitpunkt n 0 beginnt also eine Irrfahrt praktisch von Neuem, sie hat kein Gedächtnis. Wir können mit der oben eingeführten Irrfahrt die Vorstellung verbinden, dass sich ein Teilchen, bei s 0 startend, in jedem Zeittakt auf zufällige Weise um eine Einheit nach oben oder nach unten bewegt, und zwar mit Wahrscheinlichkeit p bzw. q = 1 p, unabhängig von seinem bisherigen Verhalten. Seine Lage im Zeitpunkt n ist S n, also insbesondere eine Zufallsgröße. Die Verteilung von S n Es sei (S n, n 0) eine Irrfahrt mit dem Parameter p. Interpretieren wir wieder S n als Lage eines Teilchens zur Zeit n, so befindet sich das Teilchen zu geraden Zeitpunkten n in einem geradzahligen Punkt S n, zu ungeraden Zeitpunkten n in einem ungeradzahligen Punkt S n. Aussage: Für die Wahrscheinlichkeitsverteilung von S n gilt: a) P (S 0 = 0) = 1 b) n = 2m, m 1, P (S 2m = 2k) = ( 2m k+m) p m+k (1 p) m k, m k m P (S 2m = l) = 0 sonst. c) n = 2m + 1, m 0
6 126 Uwe Küchler P (S 2m+1 = 2k + 1) = ( 2m+1 k+m+1) p k+m+1 (1 p) m k, m 1 k m P (S 2m+1 = l) = 0 sonst. Beweis: b) P (S 2m = 2k) = P ({ω Ω S 2m (ω) = 2k}) = ω Ω:S 2m (ω)=2k P ({ω}). S 2m (ω) = 2k ist genau dann der Fall, wenn in ω = (x 1, x 2,, x 2m ) genau (m + k)-mal die +1 auftritt. Jedes solche ω hat wegen (2) die gleiche Wahrscheinlichkeit p m+k (1 p) m k und es gibt ( 2m m+k) Folgen ω dieser Art. c) Der Beweis erfolgt analog zu b). Die Zufallsgröße 1 2 (S n + n) ist somit binomialverteilt mit den Parametern n und p (sowohl für gerades wie für ungerades n). Zeit des ersten Erreichens des Zustandes m In diesem Abschnitt werden die Zeiten V m studiert, zu denen die Irrfahrt zum ersten Mal den Zustand m(m 1) erreicht. Nach der (vom Zufall abhängenden) Zeit V m verhält sich die Irrfahrt, als starte sie bei m von Neuem, unabhängig von ihrem vergangenen Verhalten und mit dem gleichen Parameter p (vorausgesetzt, sie erreicht m überhaupt jemals). Für p = 1 2 ist der Erwartungswert EV m für jedes m 1 unendlich groß. Interpretiert man die Irrfahrt (S n, n 0) mit S 0 = 0, so wie wir das bereits in Abschnitt 2.5 getan haben, als Guthaben eines Spielers, so ist es u. a. von Interesse, wann dieses Guthaben zum ersten Mal positiv wird bzw. zum ersten Mal den Betrag m erreicht. Das sind gerade die eben erwähnten zufälligen Zeiten V 1 bzw. V m. Definition: Es sei m 1. Die Zufallsgröße
7 Irrfahrten und Bernoullischemata 127 V m (ω) := min{k 1 S k (ω) = m} mit min :=, ω Ω heißt die Zeit des ersten Erreichens des Punktes m durch die Irrfahrt (S n, n 0). Zeiten des ersten Erreichens sind Beispiele sogenannter zufälliger Zeiten und spielen sowohl in der Theorie zufälliger Prozesse als auch für praktische Anwendungen eine wichtige Rolle. Der Fall V m (ω) = tritt genau dann ein, wenn S n (ω) < m für alle n 1 gilt. Weiterhin gilt offenbar S Vm(ω)(ω) = m, falls ω {V m < }. V m ist eine Zufallsgröße, deren Wert davon abhängt, welche Werte die Zufallsgrößen X 1, X 2,, X n, annehmen. So gilt z.b. V 1 (ω) = 3, falls X 1 (ω) = 1, X 2 (ω) = +1, X 3 (ω) = +1 vorliegt. Um Aussagen über die Wahrscheinlichkeitsverteilungen von V 1, V 2, zu erhalten, führen wir die Zufallsgrößen V m auf (S n, n 1) bzw. (X k, k 1) zurück, deren Wahrscheinlichkeitsverteilungen wir bereits kennen. Lemma: Es gilt für k 0, r > k {V 1 = 2k + 1} = {S 1 0, S 2 0,, S 2k = 0, S 2k+1 = 1} (4) {V 1 = 2k + 1, V 2 = 2r} = {S 1 0, S 2 0,, S 2k 1 0, S 2k = 0, S 2k+1 = 1, S 2k+2 1, S 2r 2 1, S 2r 1 = 1, S 2r = 2} und allgemein, (5) {V 1 = k 1, V 2 = k 2,, V m = k m } = {S 1 0, S 2 0,, S k1 1 = 0, S k1 = 1, S k1 +1 1,, S km 1 = m 1, S km = m}, 1 k 1 < k 2 < < k m, m 1. Beweis: Der Beweis ergibt sich unmittelbar aus der Definition der V 1, V 2,, V m.
8 128 Uwe Küchler Bemerkung: Die rechte Seite von (4) ist so zu verstehen, dass S l 0 für alle l 2k 1 gelten soll. Für den Fall k = 0 ist diese Bedingung nicht relevant und entfällt ohne weiteren Hinweis. Genauso verstehen wir im Weiteren analoge Ausdrücke, z.b. in (5). Mit der folgenden Aussage zeigen wir, dass die Irrfahrt, unter der Bedingung, dass sie den Punkt Eins jemals erreicht, nach der Zeit V 1 wieder von Neuem als Irrfahrt mit dem gleichen Parameter beginnt. Zur Formulierung der Aussage führen wir folgende Bezeichnungen ein: Für alle ω {V 1 < } setzen wir X n(ω) := X n+v1 (ω)(ω), n 1, und lassen X n undefiniert auf {V 1 = }. Dann ist X n für P -fast alle ω definiert, wobei P die bedingte Wahrscheinlichkeitsverteilung P ( V 1 < ) bezeichnet. (Beachte P (V 1 < ) P (X 1 = 1) = p > 0 und P (.) = P (.), falls P (V 1 < ) = 1.) Es sei Sn = n Xk und S 0 = 0. Auf Grund der Definition gilt für alle n 0 S n = S n+v1 S V1 = S n+v1 1, P fast sicher. Aussage: Die Folge (S n, n 0) ist bezüglich der Verteilung P, also bez. P unter der Bedingung V 1 <, eine Irrfahrt mit dem Parameter p. Beweis: P (V 1 <, X 1 = x 1,, X n = x n ) = P (V 1 = 2k + 1, X1 = x 1,, Xn = x n ) = P (V 1 = 2k + 1, X 2k+2 = x 1,, X 2k+1+n = x n ) = P (S 1 0, S 2 0,, S 2k = 0, S 2k+1 = 1, X 2k+2 = x 1,, X 2k+1+n = x n ).
9 Irrfahrten und Bernoullischemata 129 Jetzt nutzen wir die Unabhängigkeit von (S 1, S 2,, S 2k+1 ) und (X 2k+2,, X 2k+1+n ) aus sowie die Tatsache, dass (X 2k+2,, X 2k+1+n ) die gleiche Verteilung wie (X 1,, X n ) besitzt und erhalten die Summe P (V 1 = 2k + 1)P (X 1 = x 1,, X n = x n ) = P (V 1 < ) P (X 1 = x 1,, X n = x n ) = P (V 1 < ) p n+sn 2 (1 p) n sn 2. Somit gilt P (X 1 = x 1,..., X n = x n ) = p n+sn 2 (1 p) n sn 2. (6) Das Lemma besagt, nach der zufälligen Zeit V 1 (sofern diese endlich ist) verhält sich die Irrfahrt (S n, n 0), als startete sie von Neuem mit demselben Parameter p, dieses Mal vom Zustand Eins. Wir bemerken noch eine Eigenschaft, die wir später benutzen werden. Es sei V1 (ω) = min{k 1 Sk (ω) = 1}, min =. Dann gilt V 1 = V 2 V 1 auf {V 1 < }. (7) Im Fall V 1 (ω) < haben wir nämlich V 1 (ω) + V 1 (ω) = min{k > 1 S k (ω) = 1} + V 1(ω) = min{k + V 1 (ω) > V 1 (ω) S k+v1 (ω)(ω) S V1 (ω)(ω) = 1} = min{m > V 1 (ω) S m (ω) = 2} = min{m 1 S m (ω) = 2} = V 2 (ω).
10 130 Uwe Küchler Wir haben oben gesehen, dass die Irrfahrt ( S n, n 0) mit S n = S n+n0 S n0 unabhängig von (X 1,, X n0 ), also von A n0 = σ(x 1,, X n0 ) ist. Ein analoger Sachverhalt gilt auch für (Sn, n 0). Allerdings ist er etwas komplizierter in der Formulierung, da jetzt die Zeit V 1 eine Zufallsgröße ist. Wir führen folgendes Ereignissystem aus A ein: A V1 := {A A A {V 1 = 2k + 1} A 2k+1, k 0}. Lemma: A V1 ist eine Teil-σ-Algebra von A. Beweis: und Ω gehören zu A V1, die übrigen Eigenschaften einer σ-algebra folgen unter Zuhilfenahme der Tatsache, dass alle A 2k+1, k 0, σ-algebren sind. Man beachte, dass {V 1 = 2k + 1} A 2k+1, k 0, gilt. Man überzeugt sich leicht davon, dass V 1 bezüglich A V1 messbar ist. Nun können wir die angekündigte Eigenschaft der Irrfahrt (S n, n 0) formulieren. Aussage: Die Folge (Sn, n 1) ist bezüglich P, also bezüglich P unter der Bedingung V 1 <, eine Irrfahrt mit dem Parameter p, die unabhängig von A V1 ist. Beweis: Es sei A A V1. Nach Voraussetzung gibt es für jedes k 0 eine Teilmenge B k von { 1, 1} 2k+1 mit A {V 1 = 2k + 1} = {(X 1,, X 2k+1 ) B k }. Folglich gilt für alle x = (x 1, x 2,, x n ) { 1, +1} n : P (A {X 1 = x 1,, X n = x n } {V 1 < }) = P (A {V 1 = 2k + 1} {X1 = x 1,, Xn = x n }) = P ((X 1,, X 2k+1 ) B k, X 2k+2 = x 1,, X 2k+n+1 = x n ) = P ((X 1,, X 2k+1 ) B k ) P (X 1 = x 1,, X n = x n ) =
11 Irrfahrten und Bernoullischemata 131 P ({V 1 = 2k + 1} A)P (X 1 = x 1,, X n = x n ) = P (A {V 1 < })P (X 1 = x 1,..., X n = x n ). Teilen wir Anfangs- und Endterm dieser Gleichung durch P (V 1 < ) und berücksichtigen wir die Formel (6) dieses Abschnitts, so erhalten wir P (A {X 1 = x 1,, X n = x n }) = P (A) P (X 1 = x 1,, X n = x n ). Folgerung: Bezüglich P, also bezüglich P unter der Bedingung {V 1 < }, sind V 1 und V 2 V 1 unabhängige Zufallsgrößen mit P (V 2 V 1 = 2k + 1) = P (V 1 = 2k + 1) = P (V 1 = 2k + 1), k 0. Die Wahrscheinlichkeitsverteilung der zufälligen Zeit V 1 Wir bestimmen die Wahrscheinlichkeiten P (V 1 = 2k + 1) mithilfe der erzeugenden Funktion g 1 von V 1 : g 1 (s) := Es V 1 = s 2k+1 P (V 1 = 2k + 1), s 1. Es gilt P (V 1 = 1) = p, und für k 1 haben wir P (V 1 = 2k + 1) = P (X 1 = 1, S 2 0,..., S 2k = 0, S 2k+1 = 1) = P (X 1 = 1, S 2 X 1 1,..., S 2k X 1 = 1, S 2k+1 X 1 = 2) =
12 132 Uwe Küchler P (X 1 = 1)P (S 1 1, S 2 1,..., S 2k 1 = 1, S 2k = 2) = (1 p)p (V 2 = 2k). Somit ist mit der Bezeichnung q = 1 p g 1 (s) = ps + qs s 2k P (V 2 = 2k) = ps + qses V 2, s 1. (8) Es gilt wegen s V 2(ω) = 0, falls V 2 (ω) = und s < 1, Es V 2 = E[1 {V1 < }s V 2 ] = E[1 {V1 < }s V 2 V 1 s V 1 ] = E [s V 2 V 1 s V 1 ]P (V 1 < ) = E s V 1 E s V1 P (V 1 < ) = Es V1 Es V 1 = [Es V 1 ] 2 = g 2 1(s). (9) Weiterhin wurden die Unabhängigkeit von V 1 und V 1 = V 2 V 1 bezüglich P, die Definition E [Z] = E[Z 1 {V1 < }] / P (V 1 < ) und die Gleichung E s V 1 = Es V 1 benutzt. Wegen (8) und (9) genügt g 1 ( ) der Gleichung g 2 1(s) 1 qs g 1(s) + p q = 0, s < 1. Als Lösung ergibt sich auf Grund der Beschränktheit von g 1 ( ) auf ( 1, 1): g 1 (s) = 1 2qs [1 (1 4pqs2 ) 1 2 ], s < 1. Anhand dieser erzeugenden Funktion berechnen wir die Einzelwahrscheinlichkeiten P (V 1 = 2k + 1), P (V 1 < ), d.h. die Wahrscheinlichkeit, Eins jemals zu erreichen und EV 1.
13 Irrfahrten und Bernoullischemata 133 Zunächst gilt P (V 1 < ) = also P (V 1 = 2k + 1) = lim s 1 g 1 (s), P (V 1 < ) = 1 (1 4pq) 1 2 2q = 1 (p2 2pq + q 2 ) 1 2 2q = 1 p q 2q = { 1 falls p 1 2 p q falls p < 1 2. Für die Einzelwahrscheinlichlichkeiten der Verteilung von V 1 ergibt sich durch Entwicklung der erzeugenden Funktion g 1 ( ) in eine Potenzreihe P (V 1 = 2k 1) = (2pq)k 2qk! (2k 3)!!, k 1 mit m!! = m für ungerades m (Übung). Wegen EV 1 = lim s 1 EV 1 = d q ds 1(s) erhalten wir { 1 p q, falls p > q, falls p q. Insbesondere gelten für die symmetrische Irrfahrt (p = q) die Gleichungen P (V 1 < ) = 1 und EV 1 =. 6.2 Bernoullischemata Es seien (Ω, A, P ) ein Wahrscheinlichkeitsraum, n 1 und p (0, 1).
14 134 Uwe Küchler Definition: Jede Folge X = (X 1, X 2,..., X n ) von Zufallsgrößen über (Ω, A, P ) mit 1. X 1, X 2,..., X n sind voneinander unabhängig, 2. P (X k = 1) = p, P (X k = 0) = 1 p =: q, k = 1,..., n heißt ein Bernoullischema mit den Parametern n und p. Wir bezeichnen es mit BS n (p). Ist X = (X k, k 1) eine unendliche Folge von Zufallsgrößen mit den Eigenschaften 1. und 2. für alle n 2, so heißt (X k, k 1) ein unendliches Bernoullischema mit dem Parameter p. Wir verwenden dafür die Kurzschreibweise BS (p). Eigenschaft 2. kann man auch in der Form P (X k = i) = p i (1 p) 1 i, i {0, 1}, k = 1,..., n (1) schreiben. Für jedes Bernoullischema BS n (p) oder BS (p) ist X = (X 1,..., X n ) ein zufälliger Vektor mit den möglichen Werten x = (i 1, i 2,..., i n ), i k {0, 1}, k = 1,..., n. Wir definieren E = {0, 1} n. Der zufällige Vektor X bildet Ω in E ab. Er ist folglich diskret verteilt, und es gilt nach Definition für jedes x = (i,..., i n ) E : P (X = x) = P (X 1 = i 1,..., X n = i n ) = n P (X k = i k ) = p n i k (1 p) n n i k. (2) Bemerkung: Das Bernoullischema BS n (p) entspricht einem n-stufigen zufälligem Experiment, dessen Einzelexperimente voneinander unabhängig sind und jeweils nur zwei mögliche Versuchsausgänge haben (wir bezeichnen sie mit 0
15 Irrfahrten und Bernoullischemata 135 bzw. 1), die in jedem Teilexperiment mit der Wahrscheinlichkeit q bzw. p auftreten. Die Zufallsgröße X k gibt in diesem Zusammenhang das Ergebnis des k-ten Teilexperimentes an. Dabei wird das Ereignis {X k = 1} häufig als Erfolg im k-ten Experiment bzw. das Ereignis {X k = 0} als Misserfolg im k-ten Experiment gedeutet. Mit dem Bernoullischema sind mehrere konkrete Zufallsgrößen und ihre Wahrscheinlichkeitsverteilungen verbunden, von denen wir im Folgenden einige studieren werden. l=1 Es sei X = (X 1,..., X n ) ein BS n (p). Die Zufallsgröße S k, definiert durch k S k (ω) = X l (ω), ist gleich der Anzahl der Erfolge in den ersten k Teilexperimenten des Bernoullischemas. Aussage: Die Zufallsgröße S n ist binomialverteilt mit den Parametern n und p, d.h. es gilt P (S n = k) = ( n n) p k (1 p) n k, k = 0, 1,..., n. Beweis: P (S n = k) = P (X X n = k) = P X ({x E : n i j = k}) = j=1 x=(i 1,...,in): ij =k n p i j (1 p) 1 i j = j=1 x=(i 1,...,in): ij =k p k (1 p) n k = ( n k) p k (1 p) n k, da alle x E mit n i j = k dieselbe Wahrscheinlichkeit p k (1 p) n k besitzen j=1 (siehe (2)) und es ( n k) solcher x E gibt. Für die folgenden Zufallsgrößen nehmen wir ein unendliches Bernoullischema BS (p) als gegeben an. Die Zufallsgrößen
16 136 Uwe Küchler T 1 (ω) := min{k > 0 X k (ω) = 1}, T m (ω) := min{k > T m 1 (ω) X k (ω) = 1}, m 2 geben die Zeitpunkte an, zu denen der erste bzw. der m-te Erfolg im BS (p) eintritt. Dabei setzt man min := und T 0 (ω) := 0. Mit diesen Bezeichnungen ist T m+1 T m die Anzahl der Versuche nach dem m-ten bis zum (m + 1)-ten Erfolg, T m m die Anzahl der Misserfolge bis zum m-ten Erfolg, m 1. T m+1 T m 1 ist die Anzahl der Misserfolge zwischen dem m-ten und dem (m + 1)-ten Erfolg. Aussage: Es gilt: a) T 1 1 ist geometrisch verteilt mit dem Parameter p. b) (T k+1 T k 1), k 0, sind voneinander unabhängig und identisch verteilt wie T 1 1. c) T m m besitzt eine negative Binomialverteilung mit den Parametern m und p. d) Die Folge (X Tm+k, k 1) bildet ein unendliches Bernoullischema mit dem Parameter p und ist unabhängig von A Tm. (Man beachte, dass auf Grund von c) P (T m < ) = 1 gilt.) Beweis: a) P (T 1 1 = k) = P (T 1 = k + 1) = P (X 1 = 0, X 2 = 0,..., X k = 0, X k+1 = 1) = (1 p) k p, k 0 b) Es sei m irgendeine natürliche Zahl mit m 2. Das Ereignis
17 Irrfahrten und Bernoullischemata 137 m {T k T k 1 1 = t n } mit t k N 0 = {0, 1, 2,..., }, k = 1,..., m trifft genau dann ein, wenn zwischen dem (k 1)-ten und dem k-ten Erfolg genau t k Misserfolge stattfinden, k = 1,..., m. Es ist folglich gleich dem Ereignis (mit der Bezeichnung s l = t 1 + t t l + l, 1 l m) m {X sl = 1} l=1 s m j=1 j s l, l=1,...,m {X j = 0}. Seine Wahrscheinlichkeit ist auf Grund der Voraussetzungen an die Zufallsgrößen X k, k 1, gleich dem Wert (1 p) t 1 p(1 p) t 2 p... (1 p) tm p = (1 p) t 1+t t m p m. Daraus ergibt sich für jedes k mit 1 k m P (T k T k 1 1 = t k ) = (1 p) t k p und somit ( m ) P {T k t k 1 1 = t k } = m P (T k t k 1 1 = t k ) für alle t k N 0, k = 1,..., m. Das heißt, die (T k T k 1 1), k 1 sind voneinander unabhängig und alle geometrisch mit dem Parameter p verteilt. c) Das Ereignis {T m m = k} tritt genau dann ein, wenn in {X 1 = i 1,..., X m+k = i m+k } unter den i j genau m mal eine Eins, sonst Nullen auftreten und i m+k = 1 gilt. Dafür gibt es ( ) m+k 1 m 1 gleichwahrscheinliche Fälle mit jeweils der Wahrscheinlichkeit p m (1 p) k. Also ist P (T m m = k) = ( ) m+k 1 k (1 p) k p m = ( ) m (p 1) k p m. d) Es sei A A T1. Dann gilt A {T 1 = k} A k = σ(x 1, X 2,..., X k ), k 1, k
18 138 Uwe Küchler und folglich gibt es für jedes k 1 ein B k {0, 1} k mit A {T 1 = k} = {(X 1,..., X k ) B k }. Daraus ergibt sich für alle r 1, i l {0, 1}, l = 1,..., r P (A {T 1 = k}, X T1 +1 = i 1,..., X T1 +r = i r ) = P ((X 1,..., X k ) B k, X k+1 = i 1,..., X k+r = i r ). Wegen der Unabhängigkeit der beiden Folgen (X 1,..., X k ) und (X k+1,..., X k+r ) ist dieser Wert gleich P ((X 1,..., X k ) B k ) P (X k+1 = i 1,..., X k+r = i r ) = P (A {T 1 = k}) P (X 1 = i 1,..., X r = i r ). Summation über k 1 ergibt wegen P (T 1 < ) = 1 P (A {X T1 +1 = i 1,..., X T1+r = i r }) = P (A)P (X 1 = i 1,..., X r = i r ) = P (A)p Damit ist die Aussage bewiesen. r i k (1 p) r r i k. Bernoullischemata und Irrfahrten hängen eng zusammen. Ist (X n, n 1) ein Bernoullischema mit dem Parameter p, so ist ( S n, n 1) mit S n = n S n = n (2X k 1), n 1, eine Irrfahrt mit dem Parameter p. Ist umgekehrt Y k eine Irrfahrt mit dem Parameter p, so bildet (X n, n 1) mit X n = 1 2 (Y n + 1), n 1, ein Bernoullischema mit dem Parameter p.
19 Irrfahrten und Bernoullischemata 139 Alle Aussagen über Irrfahrten lassen sich also als Aussagen über Bernoullischemata formulieren und umgekehrt.
Kapitel 2. Zufällige Versuche und zufällige Ereignisse. 2.1 Zufällige Versuche
Kapitel 2 Zufällige Versuche und zufällige Ereignisse In diesem Kapitel führen wir zunächst anschaulich die grundlegenden Begriffe des zufälligen Versuchs und des zufälligen Ereignisses ein und stellen
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
Mehr4 Diskrete Wahrscheinlichkeitsverteilungen
4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder
MehrBeweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass
Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrGesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
MehrSatz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
MehrBedingte Wahrscheinlichkeiten und Unabhängigkeit
Kapitel 5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Mitunter erhält man über das Ergebnis eines zufälligen Versuches Vorinformationen. Dann entsteht die Frage, wie sich für den Betrachter, den man
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω 2 3 8 N Wir definieren
MehrDiskrete Verteilungen
KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrÜ b u n g s b l a t t 10
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel. 6. 2007 Ü b u n g s b l a t t 0 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrBasiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrHausaufgabe 7 Abgabe am oder am in der Übung
Stochasti, Sommersemester 04 Hausaufgabe 7 Abgabe am 6.5. oder am.5. in der Übung Prof. Dr. I. Veselić Dr. M. Tautenhahn, Dr. C. Schumacher Aufgabe. Sei a (0, /). Die Wahrscheinlicheit p, dass eine Familie
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrAllgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)
Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
MehrSatz 18 (Satz von der totalen Wahrscheinlichkeit)
Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte
MehrAnliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.
2 Zufallsvariable 2.1 Einführung Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. Eine Zufallsvariable X ordnet jedem elementaren Versuchsausgang
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrMotivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Statistik Dr. Thomas Zehrt Ausblick Motivation Wir werfen einen Würfel 000-mal und wir möchten die Wahrscheinlichkeit P bestimmen, dass zwischen
MehrStochastik und Statistik für Ingenieure Vorlesung 4
Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl
MehrStochastische Unabhängigkeit. 01. Dezember 2014
Stochastische Unabhängigkeit 0. Dezember 204 Der Begriff der Unabhängigkeit Großbritannien, im November 999. Die Anwältin Sally Clark wird wegen Mordes an ihren Kindern angeklagt. Clark geriet unter Verdacht
Mehr6 Stochastische Unabhängigkeit
Stochastische Unabhängigkeit 61 6 Stochastische Unabhängigkeit Der Begri der stochastischen Unabhängigkeit ist für die Stochastik von zentraler Bedeutung. Obwohl der dem Begri zugrundeliegende Sachverhalt
MehrKapitel 6 Martingale
Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse
MehrEinführung in die Theorie der Markov-Ketten. Jens Schomaker
Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch
MehrTeil II. Wahrscheinlichkeitsrechnung
Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrKapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente
Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 2
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/14 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie svorschläge
MehrLösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6
1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
MehrWahrscheinlichkeitsrechnung und Statistik
3. Vorlesung - 21.10.2016 Bedingte Wahrscheinlichkeit In einer Urne sind 2 grüne und 3 blaue Kugeln. 2 Kugeln werden ohne Zürücklegen gezogen. Welches ist die Wahrscheinlichkeit, dass : a) man eine grüne
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
Mehr3.3 Bedingte Wahrscheinlichkeit
28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit
Mehr1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte
MehrWeihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012
Weihnachtszettel zur Vorlesung Stochastik I Wintersemester 0/0 Aufgabe. Der Weihnachtsmann hat vergessen die Weihnachtsgeschenke mit Namen zu beschriften und muss sie daher zufällig verteilen. Dabei enthält
Mehr16.3 Rekurrente und transiente Zustände
16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht
Mehr5 Teilmengen von R und von R n
5 Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,...,x n ) : x i R} = R }... {{ R }. n mal Für x R ist x der Abstand zum Nullpunkt. Die entsprechende Verallgemeinerung
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 4. Zufallsgrösse X Literatur Kapitel 4 * Storrer: Kapitel (37.2)-(37.8), (38.2)-(38.3), (38.5), (40.2)-(40.5) * Stahel: Kapitel 4, 5 und 6 (ohne
Mehr2.2 Ereignisse und deren Wahrscheinlichkeit
2.2 Ereignisse und deren Wahrscheinlichkeit Literatur: [Papula Bd., Kap. II.2 und II.], [Benning, Kap. ], [Bronstein et al., Kap. 1.2.1] Def 1 [Benning] Ein Zufallsexperiment ist ein beliebig oft wiederholbarer,
Mehr1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 1 Vorbemerkungen
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrMafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)
Musterlösung zum. Aufgabenblatt zur Vorlesung MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur Gruben. Wahrscheinlichkeiten I ( Punkte Die Seiten von zwei Würfeln sind mit den folgenden Zahlen
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrDieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.
Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.
MehrProgramm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung
Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus
MehrErwartungswert, Varianz und Standardabweichung einer Zufallsgröße. Was ist eine Zufallsgröße und was genau deren Verteilung?
Erwartungswert, Varianz und Standardabweichung einer Zufallsgröße Von Florian Modler In diesem Artikel möchte ich einen kleinen weiteren Exkurs zu meiner Serie Vier Wahrscheinlichkeitsverteilungen geben
MehrBeispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen
4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.
MehrWiederholung: lineare Abbildungen
Wiederholung: lineare Abbildungen Def Es seien (V,+, ) und (U, +, ) zwei Vektorräume Eine Abbildung f : V U heißt linear, falls für alle Vektoren v 1, v 2 V und für jedes λ R gilt: (a) f (v 1 + v 2 ) =
MehrKapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen
Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,
MehrDIE SPRACHE DER WAHRSCHEINLICHKEITEN
KAPITEL 1 DIE SPRACHE DER WAHRSCHEINLICHKEITEN Es ist die Aufgabe der ersten drei Kapitel, eine vollständige Beschreibung des grundlegenden Tripels (Ω, A, P) und seiner Eigenschaften zu geben, das heutzutage
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrÜbungen zur Wahrscheinlichkeitstheorie und Statistik
Übungen zur Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank Blatt 0 vom 16. April 2012 Aufgabe 1 (Wahrscheinlichkeitsräume). Welche der folgenden Aussagen sind wahr? Begründen Sie jeweils
MehrEs werden 120 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 120 Schülern besitzen 99 ein Handy.
R. Brinkmann http://brinkmann-du.de Seite 08..2009 Von der relativen Häufigkeit zur Wahrscheinlichkeit Es werden 20 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 20 Schülern
Mehr1. Grundlagen der Wahrscheinlichkeitsrechnung
1. Grundlagen der Wahrscheinlichkeitsrechnung Ereignisse und Wahrscheinlichkeiten Zufälliger Versuch: Vorgang, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang innerhalb einer
MehrWahrscheinlichkeitsrechnung
Grundstudium Mathematik Wahrscheinlichkeitsrechnung Bearbeitet von Dominique Foata, Aime Fuchs 1. Auflage 1999. Taschenbuch. xv, 383 S. Paperback ISBN 978 3 7643 6169 3 Format (B x L): 17 x 24,4 cm Gewicht:
MehrDiskrete Verteilungen und Zufallsgrößen
Kapitel 4 Diskrete Verteilungen und Zufallsgrößen Wahrscheinlichkeitsverteilungen und Zufallsgrößen haben wir in dem sehr allgemeinen Rahmen von Wahrscheinlichkeitsräumen (Ω, A, P ) eingeführt. In dieser
MehrBrownsche Bewegung. M. Gruber. 19. März Zusammenfassung
Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische
MehrWürfelspiele und Zufall
Würfelspiele und Zufall Patrik L. Ferrari 29. August 2010 1 Random horse die Irrfahrt des Pferdchens Betrachte ein Schachbrett mit einem Pferd (Springer), welches sich nach den üblichen Springer-Regeln
MehrTU Darmstadt FB Mathematik, AG 9 WS 2004/2005 Jakob Creutzig (1 + ρ)
TU Darmstadt FB Mathematik, AG 9 WS 2004/2005 Jakob Creutzig 9..04 Lösungsvorschläge zum 3. Aufgabenblatt der Vorlesung,,Einführung in die Finanzmathematik Gruppenübungen Aufgabe : Es sei Ω = {, +} n,
MehrKlassifikation von Signifikanztests
Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen
Mehr9 Konvergenz und absolute Konvergenz von Reihen
9 Konvergenz und absolute Konvergenz von Reihen 9.2 Konvergenz von Reihen 9.5 Monotoniekriterium für Reihen 9.6 Konvergenzkriterium von Cauchy für Reihen 9.9 Rechenregeln für konvergente Reihen 9.10 Absolute
MehrBrownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung
Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Unabhängigkeit von Ereignissen A, B unabhängig:
MehrZufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen
Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrEinführung in die Wahrscheinlichkeitsrechnung
Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze
MehrFerienkurs Analysis 1, SoSe Unendliche Reihen. Florian Beye August 15, 2008
Ferienkurs Analysis 1, SoSe 2008 Unendliche Reihen Florian Beye August 15, 2008 1 Reihen und deren Konvergenz Definition 1.1. Eine reelle bzw. komplexe Reihe ist eine unendliche Summe über die Glieder
MehrDefinition 4.1 Die Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung ist gegeben durch
Kapitel 4 Diskrete Verteilungen 4.1 Bernoulli-Verteilung Definition 4.1 Die Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung ist gegeben durch È Üµ ½ für Ü ¼ für Ü ½ ¼ sonst Die Bernoulli-Verteilung
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
MehrSatz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung
Satz von Borel-Cantelli Limes inferior von Mengen Limes superior von Mengen Stetigkeit Konvergenz von Zufallsvariablen Kolmogorow-Ungleichung Tschebyschow-Ungleichung Konvergenzkriterien Starkes Gesetz
MehrWeierstraß-Institut für Angewandte Analysis und Stochastik Murphys Gesetz, tippende Affen und Unendlichkeit in der Wahrscheinlichkeitstheorie
Weierstraß-Institut für Angewandte Analysis und Stochastik Murphys Gesetz, tippende Affen und Unendlichkeit in der Wahrscheinlichkeitstheorie Wolfgang König (WIAS und TU Berlin) Mohrenstraße 39 10117 Berlin
MehrKlausur (Modulprüfung) zum Lehrerweiterbildungskurs Stochastik am von 10:00 bis 11:00 Uhr
Klausur (Modulprüfung) zum Lehrerweiterbildungskurs Stochastik am 5..201 von 10:00 bis 11:00 Uhr Bearbeiten Sie zwei der drei folgenden Aufgaben! Sätze aus der Vorlesung und den Übungen dürfen Sie ohne
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom
Übungsaufgaben 9. Übung SS 16: Woche vom 5. 6. 10. 6. 2016 Stochastik III: Totale Wkt., S.v.Bayes, Diskrete ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
MehrMathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung
Mathematik: LehrerInnenteam Arbeitsblatt 7-7. Semester ARBEITSBLATT Erwartungswert, Varianz und Standardabweichung Die Begriffe Varianz und Standardabweichung sind uns bereits aus der Statistik bekannt
Mehrσ-algebren, Definition des Maßraums
σ-algebren, Definition des Maßraums Ziel der Maßtheorie ist es, Teilmengen einer Grundmenge X auf sinnvolle Weise einen Inhalt zuzuordnen. Diese Zuordnung soll so beschaffen sein, dass dabei die intuitiven
MehrLineare Algebra und analytische Geometrie I
Prof Dr H Brenner Osnabrück WS 205/206 Lineare Algebra und analytische Geometrie I Vorlesung 9 Basiswechsel Wir wissen bereits, dass in einem endlichdimensionalen Vektorraum je zwei Basen die gleiche Länge
MehrMathematik 1 für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler) Musterprüfung mit Lösungen
Mathematik für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler Musterprüfung mit Lösungen. Sei T N. (a Unter welchen beiden Voraussetzungen an T garantiert das Induktionsaxiom (nach
MehrZusammenfassung Stochastik
Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl
MehrKlausur zur Vorlesung,,Algorithmische Mathematik II
Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese
Mehr5. Übungsblatt zur Einführung in die Stochastik
Fachbereich Mathematik Prof. Dr. Michael Kohler Dipl.-Math. Andreas Fromkorth Dipl.-Inf. Jens Mehnert SS 09 25.5.2009 5. Übungsblatt zur Einführung in die Stochastik Aufgabe 18 Drei Spieler bekommen jeweils
MehrZiegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem
Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Wahrscheinlichkeitsrechnung Theorie Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem,
Mehr3 Markov-Eigenschaft der Brownschen Bewegung
Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t
Mehr$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $
Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit
MehrGrundlagen der Arithmetik und Zahlentheorie
Grundlagen der Arithmetik und Zahlentheorie 1.0 Teilbarkeit In diesem Abschnitt werden wir einerseits die ganzen Zahlen an sich studieren und dabei besonders wichtige Zahlen, die Primzahlen, entsprechend
MehrÜbungsaufgaben Lösungen
Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij
Mehr3.2 Unabhängigkeitsstrukturen
80 3.2 Unabhängigkeitsstrukturen Unser Ziel ist der Nachweis, daß in Vektorräumen, also in Moduln über Körpern, Basen existieren und zwei endliche Basen gegebenenfalls von derselben Ordnung sind. (Basen
MehrGrundbegriffe der Wahrscheinlichkeitstheorie
KAPITEL 1 Grundbegriffe der Wahrscheinlichkeitstheorie 1. Zufallsexperimente, Ausgänge, Grundmenge In der Stochastik betrachten wir Zufallsexperimente. Die Ausgänge eines Zufallsexperiments fassen wir
MehrIst P(T) = p die Trefferwahrscheinlichkeit eines Bernoulli-Experiments,
. Binomialverteilung ==================================================================.1 Bernoulli-Experimente und Bernoullikette -----------------------------------------------------------------------------------------------------------------
MehrErgebnis Ergebnisraum Ω. Ereignis. Elementarereignis
Stochastik Die Stochastik besteht aus zwei Teilgebieten, der Statistik und der Wahrscheinlichkeitsrechnung. Die Statistik beschreibt die Vergangenheit und verwendet Informationen, die (in realen Versuchen)
MehrDiskrete Strukturen WiSe 2012/13 in Trier
Diskrete Strukturen WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 11. Januar 2013 1 Diskrete Strukturen Gesamtübersicht Organisatorisches und Einführung Mengenlehre Relationen
Mehr7. Die Brownsche Bewegung
7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen
Mehr5. Äquivalenzrelationen
5. Äquivalenzrelationen 35 5. Äquivalenzrelationen Wenn man eine große und komplizierte Menge (bzw. Gruppe) untersuchen will, so kann es sinnvoll sein, zunächst kleinere, einfachere Mengen (bzw. Gruppen)
Mehr