BEDINGTE WAHRSCHEINLICHKEITEN. UNABHÄNGIGKEIT. In diesem Kapitel geht es zunächst um das Studium der bedingten Wahrscheinlichkeitsverteilungen,

Ähnliche Dokumente
Unabhängigkeit KAPITEL 4

Wahrscheinlichkeitsrechnung

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen

Stochastik I. Vorlesungsmitschrift

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Mustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10

Kapitel 5 Stochastische Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Wahrscheinlichkeitsrechnung und Statistik

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Wahrscheinlichkeitsrechnung und Statistik

DIE SPRACHE DER WAHRSCHEINLICHKEITEN

4 Diskrete Wahrscheinlichkeitsverteilungen

Stochastik Wiederholung von Teil 1

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Statistik

= 7! = 6! = 0, 00612,

Einführung in die Wahrscheinlichkeitsrechnung

Kapitel II - Wahrscheinlichkeitsraum

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie

Kapitel II - Wahrscheinlichkeitsraum

Statistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie

Grundbegriffe der Wahrscheinlichkeitsrechnung

Kapitel 6. Irrfahrten und Bernoullischemata

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 1

Kapitel N. Wahrscheinlichkeitsrechnung

2 Zufallsvariable und Verteilungsfunktionen

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

KAPITEL 5. Erwartungswert

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 3

Allgemeine diskrete Wahrscheinlichkeitsräume II

Allgemeine diskrete Wahrscheinlichkeitsräume I

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

2.2 Ereignisse und deren Wahrscheinlichkeit

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

3. Kombinatorik und Wahrscheinlichkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

Satz 16 (Multiplikationssatz)

Prüfungsvorbereitungskurs Höhere Mathematik 3

13 Grenzwertsätze Das Gesetz der großen Zahlen

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Diskrete Strukturen I

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

TU DORTMUND Sommersemester 2018

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 2

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Teil II. Wahrscheinlichkeitsrechnung

Teil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse

KAPITEL 5 ZUFALLSVARIABLE

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

Sprechstunde zur Klausurvorbereitung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen. Bsp (3-maliges Werfen einer Münze) Menge der Elementarereignisse:

Zusammenfassung Stochastik

KAPITEL 3 DISKRETE ZUFALLSVARIABLEN UND VERTEILUNGEN

Prüfungsvorbereitungskurs Höhere Mathematik 3

Inhaltsverzeichnis (Ausschnitt)

Kapitel XI - Die n-fache unabhängige Wiederholung eines Experiments

Klausur,,Algorithmische Mathematik II

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Satz 16 (Multiplikationssatz)

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

3.3 Bedingte Wahrscheinlichkeit

2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher

1. Grundlagen der Wahrscheinlichkeitsrechnung

4 Messbare Funktionen

15. September 2010 Prof. Dr. W. Bley. Universität Kassel Klausur SS 2010 Diskrete Strukturen I (Informatik) Name:... Matr.-Nr.:... Viel Erfolg!

1 Grundbegriffe der Wahrscheinlichkeitsrechnung

3.4 Anwendung bedingter Wahrscheinlichkeiten

Sammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien

Diskrete Strukturen. Sebastian Thomas RWTH Aachen 1. Februar 2017 Vorlesung 21

Übungen Abgabetermin: Freitag, , 10 Uhr

Diskrete Strukturen WiSe 2012/13 in Trier

Grundbegriffe der Wahrscheinlichkeitsrechnung

Kapitel 2. Zufällige Versuche und zufällige Ereignisse. 2.1 Zufällige Versuche

Transkript:

KAPITEL 6 BEDINGTE WAHRSCHEINLICHKEITEN. UNABHÄNGIGKEIT In diesem Kapitel geht es zunächst um das Studium der bedingten Wahrscheinlichkeitsverteilungen, relativ zu einem Ereignis A. Diese elementare Situation wird in allen einführenden Werken zur Wahrscheinlichkeitsrechnung untersucht. Weiter wird in diesem Kapitel der Begriff der Unabhängigkeit behandelt, und zwar nicht nur für Ereignisse, sondern auch für Familien von Ereignissen. Dabei wird auch der wichtige Begriff einer Folge von paarweise unabhängigen Zufallsvariablen eingeführt. 1. Bedingte Wahrscheinlichkeiten. Nehmen wir einmal an, die Seiten mit gerader Augenzahl eines sechsseitigen Würfels seien weiss gefärbt, die mit ungerader Augenzahl hingegen schwarz. Nun wird der Würfel geworfen; von weitem kann man erkennen, dass eine weisse Seite oben liegt; wie gross ist dann die Wahrscheinlichkeit, dass man eine sechs erzielt hat? Jeder wird auf diese Frage mit 1/3 und nicht mit 1/6 antworten. In der Tat wird durch die Beobachtung des Auftretens einer weissen Seite die Gewichtung der Ereignisse verändert. Man kann sich nicht mehr auf die Gleichverteilung P auf der Menge Ω = {1, 2,...,6} beziehen, sondern man wird jeder der Zahlen 2, 4, 6 das Gewicht 1/3 geben, dagegen jeder der Zahlen 1, 3, 5 das Gewicht 0. Um die neue Information A es ist eine gerade Zahl aufgetreten, zuberücksichtigen, wird man also eine neue Gewichtung einführen, die mit P{. A} bezeichnet wird. Sie wird definiert durch { 1/3, falls i =2, 4, 6; P{{i} A} = 0, sonst. Wegen P(A) = 1/2 gilt also P{{i} A} = P({i} A), P(A) für alle i = 1, 2,...,6. Dieses Spielbeispiel motiviert die nachfolgende Definition einer bedingten Wahrscheinlichkeit.

66 KAPITEL 6: BEDINGTE WAHRSCHEINLICHKEITEN. Für dieses ganze Kapitel sei nun ein Wahrscheinlichkeitsraum (Ω, A, P) vorgegeben, und die Buchstaben A,B,C,...(mit oder ohne Indices) bezeichnen Ereignisse (d.h. Elemente der σ-algebra A). Theorem und Definition 1.1. Es sei A ein Ereignis mit der Wahrscheinlichkeit P(A) > 0. Dann ist die durch P(B A) (1.1) P(B A) =, P(A) definierte Abbildung P(. A), diefür alle B aus A definiert ist, eine Wahrscheinlichkeitsverteilung auf (Ω, A). Man bezeichnet sie als die bedingte Wahrscheinlichkeitsverteilung relativ zu A, oder kurz: die A-bedingte Wahrscheinlichkeitsverteilung. P(Ω A) Beweis. Zunächst einmal gilt P(Ω A) = = 1. Ist andererseits P(A) (B n ) eine Folge von paarweise disjunkten Ereignissen, so gilt dies auch für die Folge (A B n ). Daher hat man P( n B n A) = P(A n B n) P(A) n = P(A B n) = P(A) n = P( n A B n) P(A) P(A B n ) P(A) = n P(B n A), und somit ist P( A) tatsächlich eine Wahrscheinlichkeitsverteilung. Zu beachten ist, dass die bedingte Wahrscheinlichkeit relativ zu A von A getragen wird; anders gesagt, es gelten die Beziehungen A B = P(B A) = 0 und B A P(B A) =1. Satz 1.2 (Formel für doppelte Bedingungen). Es seien A 1 und A 2 Ereignisse derart, dass die Wahrscheinlichkeit P(A 1 A 2 ) strikt positiv ist. Dann gilt für jedes Ereignis A 3 P(A 1 A 2 A 3 )=P(A 3 A 1 A 2 )P(A 2 A 1 )P(A 1 ). Beweis. Diese Identität folgt unmittelbar aus der Definition der bedingten Wahrscheinlichkeiten. Tatsächlich ist ja P(A 1 ) > 0, da A 1 A 2 eine strikt positive Wahrscheinlichkeit hat. Daher kann man schreiben: P(A 1 A 2 A 3 )=P(A 3 A 1 A 2 )P(A 1 A 2 )=P(A 3 A 1 A 2 )P(A 2 A 1 )P(A 1 ). Die obige Formel lässt sich unmittelbar auf den Fall von mehr als zwei Ereignissen übertragen. Ist n 2 und ist A 1,A 2,...,A n eine Folge von n Ereignissen, wobei P(A 1 A 2...A n 1 ) > 0 ist, so gilt die Gleichung (1.2) P(A 1 A 2...A n ) =P(A n A 1...A n 1 )P(A n 1 A 1...A n 2 ) P(A 2 A 1 )P(A 1 ).

2. VOLLSTÄNDIGE SYSTEME VON EREIGNISSEN 67 2. Vollständige Systeme von Ereignissen. Man bezeichnet eine Folge (A n ) von Ereignissen als vollständiges System, wenn gilt: (i) i j A i A j = (die Ereignisse A n sind paarweise unverträglich); (ii) P( n A n)= n P(A n) = 1 (fast sicher tritt eines der Ereignisse A n ein). Speziell ist also jede aus Elementen von A bestehende abzählbare Partition von Ω ein vollständiges System. In dieser Definition wird nur verlangt, dass die Wahrscheinlichkeit des komplementären Ereignisses zu n A n zu Null wird es muss deswegen aber nicht unmöglich sein. Theorem 2.1 (Formel von Bayes). Es sei (A n ) ein vollständiges System von Ereignissen, die alle eine positive Wahrscheinlichkeit haben. Dann gilt für jedes Ereignis B P(B) = n P(B A n )P(A n ). Gilt ausserdem noch P(B) > 0, so hat man für jedes k die Gleichheit P(A k B) = P(B A k)p(a k ) n P(B A n)p(a n ). Beweis. Setzt man Ω = n A n, so gelten für jedes Ereignis B die Beziehungen BΩ = n BA n und P(BΩ c ) = 0. Daher ist P(B) = P(BΩ )+P(BΩ c )=P( n BA n)= n P(BA n)= n P(B A n)p(a n ). Schliesslich kann man P(A k B) = P(BA k) P(B) = P(B A k)p(a k ) n P(B A n)p(a n ) schreiben, falls P(B) > 0ist. Beispiel (das Problem der Falschspielers). Ein Spieler spielt Kopf oder Zahl, wettet auf Zahl und erhält Zahl. Wie gross ist die Wahrscheinlichkeit, dass er ein Falschspieler ist? Kann man diese Frage überhaupt beantworten? Es bezeichne Ω die Menge aller Stichproben und es seien z, k, e, f jeweils die Ereignisse man erhält Zahl, man erhält Kopf, der Spieler ist ehrlich, der Spieler spielt falsch.umdiemenge{z, k, e, f} mit einer Wahrscheinlichkeit zu bewerten, kann man zunächst davon ausgehen, dass P(z e) =P(k e) =1/2gilt. Ebenso kann man vereinbaren, dass P(z f) gleich 1 ist (der Falschspieler kann Zahl erzielen, falls er will). Somit wäre also P(k f) = 0. Schliesslich setzt man P(f) =x (0 x 1) an. Aus der Formel von Bayes folgt dann P(f z) = P(z f)p(f) P(z f)p(f)+p(z l)p(l) = x x +(1/2)(1 x) = 2x x +1.

68 KAPITEL 6: BEDINGTE WAHRSCHEINLICHKEITEN. Man kann also eine numerische Antwort auf die gestellte Frage nur dann geben, wenn man den Anteil x der Falschspieler in der Bevölkerung kennt. Man erhält also eine mehr oder weniger tröstliche Auskunft, je nachdem, wie man die Ehrlichkeit seiner Mitmenschen einschätzt! Beispiel. Ein Individuum wird zufällig aus einer Population von Menschen ausgewählt, von der man weiss, dass 10 4 der Personen an Aids leiden. Man führt einen Aids-Test aus. Wenn dieser Test ein positives Resultat zeigt, wie gross ist dann die Wahrscheinlichkeit, dass das Individuum tatsächlich an Aids erkrankt ist? Wir betrachten die Ereignisse A 1 : das Individuum ist an Aids erkrankt, und A 2 : das Individuum ist nicht an Aids erkrankt, sowie B : der Aids-Test liefert ein positives Resultat. Aus den Daten des Problems liefern uns P(A 1 ) = 10 4, und somit P(A 2 ) = 0, 9999. Nun muss man noch P(B A 1 ) und P(B A 2 ) kennen, d.h. die Wahrscheinlichkeit dafür, ein positives Testergebnis zu erhalten, je nachdem, ob das Individuum an Aids erkrankt ist oder nicht. Diese Wahrscheinlichkeiten kann man durch vorher durchgeführte Experimente bestimmen. Nehmen wir beispielsweise an, dass P(B A 1 )=0, 99 und P(B A 2 )=0, 001 (die Tests sind nicht fehlerfrei). Damit findet man also P(A 1 B) = 10 4 0, 99 10 4 0, 99 + 0, 9999 0, 001 0, 09. Man wird überrascht sein, wie klein diese Wahrscheinlichkeit ist! Dies liegt an der grossen Zahl diagnostischer Fehler, die von dem riesigen Anteil nicht erkrankter Personen herrühren; es ist ja P(A 2 ) >> P(A 1 ). Man sieht: das Aufdecken von Krankheiten ist teuer! 3. Systeme von bedingten Wahrscheinlichkeiten. Esgibtviele Situationen, bei denen experimentelle Beobachtungen zu einem System von bedingten Wahrscheinlichkeiten führen, die auf (Mengen von) Folgen von Stichproben definiert sind. Man ist dann daran interessiert, daraus eine Wahrscheinlichkeitsverteilung auf dem Raum aller Folgen herzuleiten. Hier wird zunächst ein solches Resultat für endliche Folgen behandelt. In den Aufgaben 1 9 von Kapitel 10 wird dieses Resultat auf die Situation unendlicher Folgen erweitert. Wir geben uns eine ganze Zahl n 2 und eine endliche oder abzählbare Menge S vor. Wir betrachten nun als Basismenge Ω = S n und für jedes i = 1, 2,...,n definieren wir die Projektion X i :Ω S als diejenige Abbildung, die jedem Element ω = (x 1,x 2,...,x n ) von Ω seine i-te Koordinate x i zuordnet, also X i (ω) =x i.

3. SYSTEME VON BEDINGTEN WAHRSCHEINLICHKEITEN 69 In vielen Fällen wird (x 1,x 2,...,x n ) eine Folge von Werten sein, die ein zufallsgesteuertes System im Laufe der Zeit (hier diskret betrachtet) annimmt. Die Zufallsvariable X i gibt dann Auskunft über den Zustand des Systems zum Zeitpunkt i. Für das folgende Theorem denken wir uns eine Wahrscheinlichkeitsverteilung p 1 auf S gegeben, sowie eine Folge q 2,...,q n von Funktionen mit nichtnegativen reellen Werten, die jeweils auf S 2,...,S n definiert sind, wobei für jedes i =2,...,n und jede Folge (x 1,...,x i 1 )vons i 1 die Gleichheit (3.1) q i (x 1,...,x i 1,x)=1. x S gelten soll. Theorem 3.1. Sind eine Wahrscheinlichkeitsverteilung p 1 auf S und eine Familie von Funktionen (q i ) gegeben, die den Bedingungen (3.1) genügen, so gibt es genau ein Wahrscheinlichkeitsmass P auf (Ω, P(Ω)), das folgende Eigenschaften hat: (i) P{X 1 = x 1 } = p 1 (x 1 ) für alle x 1 S; (ii) P{X i+1 = x i+1 X 1 = x 1,...,X i = x i } = q i+1 (x 1,...,x i,x i+1 ) für alle i =1,...,n 1 und jedes (x 1,...,x i,x i+1 ) S i+1,für das mit P{X 1 = x 1,...,X i = x i } > 0 gilt. Es gilt also für jedes (x 1,...,x n ) S n (3.2) P{X 1 = x 1,...,X n = x n } = q n (x 1,...,x n ) q 2 (x 1,x 2 )p 1 (x 1 ). Beweis. Wir zeigen zunächst, dass eine solche Wahrscheinlichkeitsverteilung P, wenn sie denn existiert, den Bedingungen (3.2) genügen muss. Sei nämlich ω =(x 1,...,x n ) ein Element von Ω. Falls p 1 (x 1 )=0ist,so gilt P{X 1 = x 1 } =0,wasP{X 1 = x 1,...,X n = x n } = 0 nach sich zieht und der Forderung (3.2) genügt. Ist allerdings p 1 (x 1 ) > 0, so bezeichnen wir mit x n+1 ein festes Element von S und setzen, der Bequemlichkeit halber, q n+1 (x 1,...,x n,x n+1 ) = 0. Nun kann man den kleinsten Index i +1 mit 2 i +1 n + 1 und q i+1 (x 1,...,x i+1 ) = 0 definieren. Dann gilt nacheinander P{X 1 = x 1,X 2 = x 2 } =P{X 2 = x 2 X 1 = x 1 }P{X 1 = x 1 } = q 2 (x 1,x 2 )p 1 (x 1 ) > 0, = P{X 1 = x 1,...,X i = x i } =P{X i = x i X 1 = x 1,...,X i 1 = x i 1 } = q i (x 1,...,x i ) P{X 1 = x 1,...,X i 1 = x i 1 } P{X 1 = x 1,...,X i 1 = x i 1 } > 0.

70 KAPITEL 6: BEDINGTE WAHRSCHEINLICHKEITEN. Folglich ist (3.3) P{X 1 = x 1,...,X i = x i } = q i (x 1,...,x i ) q 2 (x 1,x 2 )p 1 (x 1 ). Ist i +1=n + 1, so ist (3.2) gezeigt. Im Falle i +1 n erhält man P{X 1 = x 1,...,X i+1 = x i+1 } =P{X i+1 = x i+1 X 1 = x 1,...,X i = x i }P{X 1 = x 1,...,X i = x i } = q i+1 (x 1,...,x i+1 )P{X 1 = x 1,...,X i = x i } =0 und somit P{X 1 = x 1,...,X n = x n } =0. Wiederum ist (3.2) nachgewiesen. Nun werden wir noch zeigen, dass durch die Relation (3.2) tatsächlich eine Wahrscheinlichkeitsverteilung auf (Ω, P(Ω)) definiert wird und diese den Bedingungen (i) und (ii) genügt. Wir stellen erst einmal fest, dass das Ereignis {X 1 = x 1,...,X n = x n } nichts anderes ist, als die einelementige Teilmenge {(x 1,...,x n )} von Ω, die mittels der Formel (3.2) ein Gewicht erhält. Sei nun i fest gewählt mit 1 i n. Indem man nun die beiden Seiten der Formel (3.2) nacheinander bezüglich x n,..., x i+1 summiert und die Eigenschaft (3.1) ausnützt, erhält mandie Formel (3.3). Damitistspeziell die Eigenschaft (i) nachgewiesen. Im Falle P{X 1 = x 1,...,X i = x i } > 0 impliziert die Formel (3.3) unmittelbar die Eigenschaft (ii) auf Grund der Definition der bedingten Wahrscheinlichkeit. 4. Unabhängige Ereignisse. Es seien A und B zwei Ereignisse mit positiver Wahrscheinlichkeit. Im allgemeinen wird P(A B) = P(AB)/P(B) verschieden von P(A) sein. Falls P(A B) =P(A) ist, so sagt man, A sei unabhängig von B. Man stellt sofort fest, dass, wenn A unabhängig von B ist, umgekehrt auch B unabhängig von A ist. Man wird deshalb gerne eine Formulierung wählen, in der diese Symmetrie zum Ausdruck kommt, also etwa durch die Aussage A und B sind gegenseitig unabhängig. Die allgemeine Definition lautet: Definition. Zwei Ereignisse A und B heissen unabhängig (bezüglich einer Wahrscheinlichkeitsverteilung P), wenn gilt. P(AB) =P(A)P(B) Satz 4.1. Es seien A, B, C (mit oder ohne Indices) Ereignisse. (i) Wenn A und B unabhängig sind, so sind auch A und B c unabhängig. (ii) Wenn A und B sowie A und C unabhängig sind und ausserdem C B gilt,sosindaucha und C \ B unabhängig.

4. UNABHÄNGIGE EREIGNISSE 71 (iii) Jedes Ereignis ist unabhängig von jedem Ereignis, das die Wahrscheinlichkeit 0 hat und ebenso unabhängig von jedem Ereignis, das die Wahrscheinlichkeit 1 hat. (iv) Ist (A n ) eine Folge von paarweise disjunkten Ereignissen und ist A unabhängig von A n für jedes n, so ist A auch unabhängig von der disjunkten Vereinigung n A n. Beweis. Zum Beweis von (i), schreibt man einfach P(AB c )=P(A \ AB) =P(A) P(AB) =P(A) P(A)P(B)=P(A)(1 P(B)) = P(A)P(B c ). Eigenschaft (ii) ergibt sich aus P(A(C \ B)) = P(AC \ AB) =P(AC) P(AB) =P(A)P(C) P(A)P(B) =P(A)(P(C) P(B)) = P(A)P(C \ B). Um schliesslich (iii) zu zeigen, seien B und C Ereignisse mit P(B) =0 und P(C) = 1. Für jedes Ereignis A folgt aus der Inklusion AB B die Gleichung 0 P(AB) P(B) = 0, und daher 0 = P(AB) = P(A)P(B). Um zu zeigen, dass A unabhängig von C ist, bemerkt man zunächst, dass A und C c unabhängig sind, da C c die Wahrscheinlichkeit 0 hat. Damit sind wegen Aussage (ii) aber auch A und C unabhängig. Der Nachweis der Eigenschaft (iv) macht nur Gebrauch von der σ-additivität von Wahrscheinlichkeiten. Tatsächlich gilt P(A n A n) = P( n AA n) = n P(AA n)= n P(A)P(A n)=p(a)p( n A n). Bemerkung. Es bezeichne jetzt D A die Klasse aller derjenigen Ereignisse, die von einem vorgegebenen Ereignis A unabhängig sind. Die gerade nachgewiesenen Eigenschaften kann man also auch dadurch ausdrücken, dass man sagt: D A ist eine Familie von Ereignissen, die Ω enthält und die unter Komplementierung, unter echter Differenz und unter abzählbaren disjunkten Vereinigungen abgeschlossen ist. Anders gesagt, D A ist ein Dynkin-System (cf.kap.2, 3). Im allgemeinen ist D A allerdings nicht unter der Bildung von Durchschnitten abgeschlossen, ist also i.a. keine Algebra. (cf. nachfolgende Bemerkung 1.) Weitere Bemerkungen (i) In Satz 4.1 ist die erste Eigenschaft eine Folgerung aus der zweiten und dritten Eigenschaft (man wähle C = Ω). (ii) Zwei unverträgliche Ereignisse können nicht unabhängig sein, es sei denn, dass mindestens eines von ihnen die Wahrscheinlichkeit 0 hat. (iii) Die einzigen Ereignisse, die von sich selbst unabhängig sind, sind die Ereignisse mit den Wahrscheinlichkeiten 0 und 1. Man kann den Begriff der Unabhängigkeit zweier Ereignisse auch erweitern auf die Situation einer Folge von Ereignissen. Neben der paarweisen Unabhängigkeit definiert man auch den Begriff der gegenseitigen Unabhängigkeit.

72 KAPITEL 6: BEDINGTE WAHRSCHEINLICHKEITEN. Definition. Ist(A n ) eine endliche oder unendliche Folge von Ereignissen, so sagt man, dass die Ereignisse A 1, A 2,... gegenseitig unabhängig oder als Gesamtheit unabhängig sind, wenn folgende Bedingung P(A i1 A i2...a ik )=P(A i1 )P(A i2 ) P(A ik ) für jede endliche Folge A i1, A i2,..., A ik von verschiedenen Ereignissen gilt. Man beachte, wenn die Folge (A n ) endlich ist und aus m (m 2) verschiedenen Ereignissen besteht, so ist die Zahl der Bedingungen gleich ( ) ( ) ( ) m m m + + + =2 m m 1. 2 3 m Bemerkung 1. Das folgende Beispiel zeigt, dass m Ereignisse paarweise unabhängig sein können, ohne gegenseitig unabhängig zu sein. Man wirft zwei Würfel und bezeichnet mit A das Ereignis der erste Würfel zeigt eine gerade Zahl, mitb das Ereignis der zweite Würfel zeigt eine ungerade Zahl, und mit C das Ereignis beide Würfel zeigen Zahlen gleicher Parität. Es ist P(A) =P(B) =P(C) =1/2, ferner P(AB) =P(BC) =P(CA)= 1/4, aber P(ABC) = 0 P(A)P(B)P(C). Dieses Beispiel zeigt deutlich, dass ein Ereignis A jeweils von Ereignissen B und C unabhängig sein kann, ohne jedoch vom Durchschnitt B C unabhängig zu sein. Bemerkung 2. Wir betrachten nun ein Beispiel aus der Arithmetik, um den Unterschied zwischen gegenseitiger Unabhängigkeit und paarweiser Unabhängigkeit zu verdeutlichen. Eine Urne enthalte N Kugeln, die von 1 bis N durchnummeriert seien. Ein Experiment bestehe darin, eine Kugel zufällig zu ziehen und deren Nummer zu notieren. Als Wahrscheinlichkeitsraum haben wir das Tripel (Ω, P(Ω), P), wobei Ω = {1,...,N} und P die Gleichverteilung auf Ω ist. 1) Für jeden Teiler a von N bezeichne E a das Ereignis die gezogene Kugel hat eine durch a teilbare Nummer ; klarerweise gilt P(E a )=1/a. 2) Es seien nun a und b zwei Teiler von N; mit[a, b] wird ihr kleinstes gemeinsames Vielfaches bezeichnet. Auch der ist ein Teiler von N und aus der Beziehung E a E b = E [a,b] folgt P(E a E b )=1/[a, b]. Man folgert daraus, dass die beiden Eigenschaften a) [a, b] =ab, d.h.a und b sind relativ prim; b) P(E a E b )=P(E a )P(E b ), d.h. E a und E b sind unabhängig; äquivalent sind. 3) Es sei nun n eine ganze Zahl 2 und a 1,...,a n seien die Teiler von N; mit[a 1,...,a n ] wird deren kleinstes gemeinsames Vielfaches bezeichnet; auch dieses ist ein Teiler von N. AusE a1 E an = E [a1,...,a n ] folgt P(E a1 E an )=1/[a 1,...,a n ] und man erhält daraus, dass die beiden folgenden Aussagen äquivalent sind:

5. UNABHÄNGIGKEIT VON FAMILIEN VON EREIGNISSEN 73 a) [a 1,...,a n ]=a 1 a n ; b) P(E a1 E an )=P(E a1 )...P(E an ). Nun weiss man aber, dass die Eigenschaft a) genau dann gilt, wenn die Zahlen paarweise teilerfremd zueinander sind. Für jede Teilmenge J {1,...,n} ist deshalb P( j J E a j ) = j J P (a j). Die Eigenschaft b) ist also in der Tat äquivalent zu der Unabhängigkeit der Ereignisse E a1,...,e an als Gesamtheit. 4) Betrachten wir nun die Zahl N = 12, sowie mit n = 3 die Teiler a 1 =2,a 2 =3,a 3 = 4. Man sieht, dass E 2 und E 3 unabhängig sind, ebenso E 3 und E 4, hingegen sind E 2 und E 4 nicht unabhängig. Die Unabhängigkeit ist also als Relation nicht transitiv. 5. Unabhängigkeit von Familien von Ereignissen. DerBegriff der Unabhängigkeit lässt sich folgendermassen auf Familien von Ereignissen übertragen. Es sei eine endliche oder unendliche Folge (C n ) von Familien von Ereignissen gegeben. Definition. Man sagt, dass C 1 und C 2 unabhängig sind, wenn für beliebige A 1 C 1 und A 2 C 2, die Ereignisse A 1 und A 2 unabhängig sind. Analog bezeichnet man die Folge (C n ) als eine Folge von Familien gegenseitig unabhängiger oder als Gesamtheit unabhängiger Ereignisse, wenn für jede Teilfolge C i1,..., C ik der Folge (C n ) und jede Folge A i1 C i1,..., A ik C ik von Ereignissen gilt P(A i1...a ik )=P(A i1 )...P(A ik ). Der folgende Satz zeigt, dass es für den Nachweis der Unabhängigkeit zweier Familien genügt, die definierende Eigenschaft für hinreichend stabile Teilfamilien zu zeigen. Dabei spielt der Begriff eines Dynkin-Systems eine wesentliche Rolle. Satz 5.1. Es seien C 1 und C 2 zwei Familien von Ereignissen. Es wird vorausgesetzt, dass sie unabhängig sind, sowie abgeschlossen unter endlichen Durchschnitten. Dann sind auch die von C 1 und C 2 erzeugten σ-algebren σ(c 1 ) und σ(c 2 ) unabhängig. Beweis. Es bezeichne E 1 die Familie aller Ereignisse, die von jedem Ereignis der Familie C 2 unabhängig sind. Weiter oben wurde festgehalten, dass die Familie D A aller Ereignisse, die von einem gegebenen Ereignis A unabhängig sind, ein Dynkin-System bildet. Nun ist E 1 nichts anderes als der Durchschnitt D A (A C 2 ), somit ist auch die Familie E 1 ein Dynkin- System. Da dieses C 1 enthält, enthält es auch das erzeugte Dynkin-System D(C 1 ). Somit sind D(C 1 ) und C 2 zwei Familien von unabhängigen Ereignissen. Ganz analog zeigt man, dass die Familie E 2 aller derjenigen Ereignisse, die von D(C 1 ) unabhängig sind, wiederum ein Dynkin-System ist. Dieses

74 KAPITEL 6: BEDINGTE WAHRSCHEINLICHKEITEN. enthält C 2 und somit auch D(C 2 ). Folglich sind die Familien D(C 1 ) und D(C 2 ) unabhängig. Schliesslich sind die Familien C 1 und C 2 abgeschlossen unter endlichen Durchschnitten, damit sind aber die erzeugten Dynkin-Systeme identisch mit den jeweils erzeugten σ-algebren. Somit sind σ(c 1 ) = D(C 1 ) und σ(c 2 )=D(C 2 ) unabhängig. Da eine Algebra unter endlichen Durchschnitten abgeschlossen ist, kann man aus Satz 5.1 eine Folgerung ziehen, die wegen ihrer Bedeutung als eigener Satz formuliert werden soll. Satz 5.2. Sind A 1 und A 2 zwei unabhängige Algebren von Ereignissen, so sind auch die von ihnen erzeugten σ-algebren σ(a 1 ) und σ(a 2 ) unabhängig. 6. Unabhängige Zufallsvariable. Wir sind dem Begriff der von einer Zufallsvariablen erzeugten σ-algebra bereits begegnet. Ist X eine auf einem Wahrscheinlichkeitsraum (Ω, A, P) definierte n-dimensionale Zufallsvariable, so ist die von X erzeugte σ-algebra σ(x) nichts anderes als die σ-algebra X 1 (B n ). Das Konzept der Unabhängigkeit lässt sich somit folgendermassen auf Zufallsvariable übertragen. Definition. Zwei (reelle oder n-dimensionale) Zufallsvariable X und Y, die auf demselben Wahrscheinlichkeitsraum (Ω, A, P) definiert sind, heissen unabhängig, wenn die von ihnen erzeugten σ-algebren σ(x) und σ(y ) unabhängig sind. Etwas genauer beschrieben: sind X und Y n- bzw. m-dimensionale Zufallsvariable, die beide auf dem Wahrscheinlichkeitsraum (Ω, A, P) definiert sind, so sind sie unabhängig, wennfür jedes A B n und jedes B B m die Gleichheit P{X A, Y B} =P{X A}P{Y B} gilt. Ein Begriff, dem man in der Wahrscheinlichkeitstheorie immer wieder begegnet, ist der einer Folge von gegenseitig oder als Gesamtheit unabhängigen Zufallsvariablen. Dessen formale Definition lautet folgendermassen: Definition. Ist(X n ) eine auf einem Wahrscheinlichkeitsraum (Ω, A, P) definierte Folge von Zufallsvariablen, so bezeichnet man sie als eine Folge von unabhängigen Zufallsvariablen (und spricht auch von als Gesamtheit unabhängigen Zufallsvariablen, um jede Zweideutigkeit zu vermeiden), wenn die Folge der erzeugten σ-algebren (σ(x n )) eine als Gesamtheit unabhängige Folge ist.

6. UNABHÄNGIGE ZUFALLSVARIABLE 75 Eine praktisch brauchbare Version dieser Definition sieht so aus: (X n )ist eine Folge von unabhängigen Zufallsvariablen,wennfür jede endliche Teilfolge X i1,..., X ik und jede endliche Folge B 1,..., B k von Borel-Mengen die Gleichheit P{X i1 B 1,...,X ik B k } =P{X i1 B 1 }...P{X ik B k } gilt. Im folgenden Satz wird ausgesagt, dass man sich zum Nachweis der Unabhängigkeit von zwei reellen Zufallsvariablen X und Y auf die Untersuchung von Teilfamilien von Mengen, insbesondere auf Halbgeraden, beschränken kann. Die Wahrscheinlichkeiten P{X A} für A =],x] sind dann gleich P{X x}, d.h. gleich F(x), wobei F die Verteilungsfunktion von X bezeichnet. Es genügt also, nachzuweisen, dass die gemeinsame Verteilungsfunktion des Paares gerade das Produkt der Verteilungsfunktionen von X und Y ist. Satz 6.1. Es sei n 2 und X 1,..., X n sei eine Folge von n reellen Zufallsvariablen, alle definiert auf dem Wahrscheinlichkeitsraum (Ω, A, P). Die Folge X 1,..., X n ist genau dann (als Gesamtheit) unabhängig, wenn die Verteilungsfunktion des Vektors X =(X 1,...,X n ) gleich dem Produkt der Verteilungsfunktionen F 1 von X 1,..., F n von X n ist, d.h. wenn für jede Folge (x 1,...,x n ) aus R n gilt: F(x 1,...,x n )=F 1 (x 1 )...F n (x n ). Beweis. Es sollte genügen, dies im Falle n = 2 zu beweisen. Sind also X 1 und X 2 unabhängig, so gilt P{X 1 B 1,X 2 B 2 } =P{X 1 B 2 }P{X 2 B 2 } für jedes Paar B 1, B 2 von Borel-Mengen. Nimmt man B 1 =],x 1 ] und B 2 =],x 2 ], so erhält man gerade (6.1) F(x 1,x 2 )=F 1 (x 1 )F 2 (x 2 ). Bezeichnet umgekehrt C i die Familie der Ereignisse {X i x i } (i =1, 2), so ist jede dieser Familien abgeschlossen unter endlichen Durchschnitten. Gleichung (6.1) zeigt, dass C 1 und C 2 unabhängig sind. Das gilt dann auch für die erzeugten σ-algebren, die aber nichts anderes sind als die σ-algebren σ(x 1 ) und σ(x 2 ). Also sind die Zufallsvariablen X 1 und X 2 unabhängig. Der abschliessende Satz erweist sich besonders dann als nützlich, wenn man Transformationen von Zufallsvariablen betrachtet und sich davon überzeugen will, dass die transformierten Variablen immer noch unabhängig sind.

76 KAPITEL 6: BEDINGTE WAHRSCHEINLICHKEITEN. Satz 6.2. Es sei n 2 und X 1,..., X n sei eine Folge von n (als Gesamtheit) unabhängigen Zufallsvariablen, die m-dimensional und alle auf dem gleichen Wahrscheinlichkeitsraum (Ω, A, P) definiert sind. Weiter seien messbare Funktionen f i :(R m, B m ) (R p, B p )(i =1,...,n) gegeben. Dann sind f 1 X 1,..., f n X n als Gesamtheit unabhängige p-dimensionale Zufallsvariable. Beweis. Es ist nur nachzurechnen, dass P{f 1 X 1 B 1,...,f n X n B n } =P{X 1 f1 1 (B 1),...,X n fn 1 (B n )} =P{X 1 f 1 1 (B 1)}...P{X n fn 1 (B n)} =P{f 1 X 1 B 1 }...P{f n X n B n }. ERGÄNZUNGEN UND ÜBUNGEN 1. Es seien A, B zwei Ereignisse. Man zeige, dass aus der Unabhängigkeit vona und B auch die Unabhängigkeit der erzeugten σ-algebren T(A) und T(B) folgt. 2. a) Es seien C 1 und C 2 zwei unabhängige Familien von Ereignissen. Dann sind auch die von ihnen erzeugten monotonen Klassen M(C 1 ) und M(C 2 ) unabhängig. b) Es seien A 1 und A 2 zwei unabhängige Algebren von Ereignissen. Dann sind auch die von ihnen erzeugten σ-algebren unabhängig. 3. Beim Werfen eines perfekten Würfels betrachte man die beiden Ereignisse: A : die erzielte Augenzahl ist durch 2 teilbar ; B : die erzielte Augenzahl ist durch 3 teilbar. Man zeige, dass die Ereignisse A und B unabhängig sind. 4. a) Es seien A und B zwei unabhängige Ereignisse und es gelte zudem noch, dass das Ereignis A das Ereignis B impliziert. Man zeige, dass dann P(B) =1oderP(A) = 0 gilt. b) Man zeige: ist A von sich selbst unabhängig, so gilt P(A) =0oder1. c) Man zeige, dass ein Ereignis A mit P(A) = 0 oder 1 von jedem Ereignis unabhängig ist.

ERGÄNZUNGEN UND ÜBUNGEN 77 d) (J.-P. Dion) Die Unabhängigkeit, als Relation betrachtet, ist nicht transitiv: es genügt, zwei unabhängige Ereignisse A, B mit 0 < P(A) < 1 zu betrachten. Dann ist A unabbhängig von B und B unabhängig von A, aber A ist nicht unabhängig von A selbst. 5. Nehmen wir an, es sei A unabhängig von B C und von B C, weiterhin B unabhängig von C A und schliesslich C unabhängig von A B. Ausserdem seien die Wahrscheinlichkeiten P(A), P(B), P(C) positiv. Dann sind A, B, C gegenseitig unabhängig. 6. Man zeige, dass folgende Situation auftreten kann: A ist unabhängig von B C und von B C, aber weder von B, nochvonc. 7. Es seien A, B, C derart, dass A und B unabhängig relativ zu C und C c sind und A und C unabhängig voneinander sind. Man zeige, dass dann A und B unabhängig sind. Man zeige in gleicher Weise: ist (X, Y, Z) ein Tripel von Zufallsvariablen, wobei X und Y unabhängig relativ zu Z sind und X und Z unabhängig sind, dann sind auch X und Y unabhängig. 8. In den beiden folgenden Beispielen sollte man, bevor man sich an die Berechnung der gefragten bedingten Wahrscheinlichkeiten macht, ein Tripel konstruieren, welches das Experiment beschreibt. a) Ein Familienvater behauptet, zwei Kinder zu haben. Man berechne die Wahrscheinlichkeit, dass es sich um zwei Jungen handelt, wenn man zudem weiss α) mindestens eines der Kinder ist ein Junge; β) das ältere der Kinder ist ein Junge. b) Man wähle zufällig ein Kind aus einer Familie mit zwei Kindern. Aus der Kenntnis, dass das gewählte Kind ein Junge ist, ermittle man die Wahrscheinlichkeit, dass beide Kinder dieser Familie Jungen sind. 9. Man finde eine notwendige und hinreichende Bedingung dafür, dass eine Zufallsvariable X von sich selbst unabhängig ist. 10. Es seien X 1, X 2 zwei unabhängige Zufallsvariable mit der gemeinsamen Verteilung 1 2 (ε 1 + ε +1 ). Sind die drei Zufallsvariablen X 1, X 2, X 3 = X 1 X 2 gegenseitig unabhängig? Sind sie paarweise unabhängig? 11. Es sei (X 1,...,X n ) eine Familie von n gegenseitig unabhängigen Zufallsvariablen, mit den jeweiligen Verteilungsfunktionen F 1,...,F n.man bestimme die Verteilungsfunktionen von Y = max(x 1,...,X n ) und von Z =min(x 1,...,X n ).

78 KAPITEL 6: BEDINGTE WAHRSCHEINLICHKEITEN. 12. Es bezeichne P r (k) (r 1) die Wahrscheinlichkeit, dass in eine Telefonzentrale k Anrufe innerhalb von r Minuten eintreffen. Man unterstelle, dass die Anzahlen der in zwei disjunkten Zeitintervallen eintreffenden Anrufe durch zwei voneinander unabhängige Zufallsvariable geregelt werden. a) Man berechne in Abhängigkeit von P 1 (k) (k 0) die Wahrscheinlichkeit, dass in der Zentrale s Anrufe in zwei Minuten eintreffen. a ak b) Für P 1 (k)=e k! (a>0; k N), berechne man P r(k) für alle r 1. 13. Ziehungen mit und ohne Zurücklegen. Eine Urne enthalte r + s Kugeln, von denen r weiss und s schwarz (r, s 1) seien. Man führt hintereinander n Ziehungen aus (n 1), wobei nach jeder Ziehung die gezogene Kugel in die Urne zurückgelegt wird (bzw. nicht zurückgelegt wird). Man bezeichne mit A k (k =1,...,n) das Ereignis man erhält bei der k-ten Ziehung eine weisse Kugel und betrachte die Zufallsvariablen X k = I Ak (k =1,...,n) und S n = X 1 + + X n (die Anzahl der im Verlauf von n Ziehungen erhaltenen weissen Kugeln). Ziehung mit Zurücklegen; binomiales Modell. Man wählt als Ω die Menge aller Elemente ω = A ε 1 1 Aε n n,wobeia ε = A, falls ε = 1 und A ε = A c, falls ε = 0, und die Wahrscheinlichkeitsverteilung P auf Ω sei durch P({ω}) =P(A ε 1 1 )...P(Aε n n ), wobei P(A 1 )= =P(A n )=p gegeben. Dann gilt: a) Die Zufallsvariablen X 1,..., X n sind gegenseitig unabhängig, sie haben identische Verteilungen, und die Verteilung von X k ist gegeben durch P{X k =1} = p, P{X k =0} =1 p, k =1,...,n. b) Die Verteilung von S n ist gegeben durch P{S n = i} = ( ) n p i (1 p) n i 0 i n. i Die Variable S n genügt also einer Binomialverteilung, daher der Name des Modells. Ziehung ohne Zurücklegen; hypergeometrisches Modell. In diesem Fall erschöpft sich das Verfahren, denn die Urne ist nach r + s Ziehungen leer. Es genügt also, die Situation für 1 n r + s zu betrachten. Betrachten wir das (r + s)-tupel (X 1,...,X r+s ). Dazu nehmen wir als Grundmenge Ω die Menge aller Elemente ω = A ε 1 1 Aε r+s r+s,wobei(ε 1,...,ε r+s ) eine Folge ist, die genau r-mal das Symbol 1 und s-mal das Symbol 0 enthält. Da die

ERGÄNZUNGEN UND ÜBUNGEN 79 weissen Kugeln untereinander ununterscheidbar sind (ebenso die schwarzen), gilt card Ω = ( ) r+s r. Also nehmen wir für P die Gleichverteilung auf Ω. Dann gelten die folgenden Aussagen. a) Die Zufallsvariablen X 1,..., X r+s sind nicht gegenseitig unabhängig (so gilt beispielsweise X 1 + + X r+s = r), aber sie sind identisch verteilt, wobei die Verteilung von X k durch P{X k =1} = r r + s = p, P{X k =0} =1 p, k =1,...,r+ s gegeben ist. b) Es sei 1 n r + s. Die Verteilung von S n = X 1 + + X n ist gegeben durch ( r s ) i)( n i P{S n = i} = ( r+s ) falls max(0,n s) i min(n, r); n 0, sonst. Die Zufallsvariable S n genügt also der hypergeometrischen Verteilung, daher auch der Name des Modells. 14. Nochmals zu Aufgabe 13, mit den dort verwendeten Bezeichnungen. Man berechne P{X k =1 S n = i}, zunächst für den Fall der Ziehungen mit Zurücklegen, dann für Ziehungen ohne Zurücklegen. 15. Verallgemeinerung der Aufgabe 13 (multinomiales Modell). Eine Urne enthalte nun r 1 Kugeln der Farbe C 1,..., r k Kugeln der Farbe C k, wobei die Farben C 1,..., C k verschieden seien. Man macht das gleiche Experiment wie in Aufgabe 13 (n Ziehungen, jeweils mit Zurücklegen). Es sei r 1 + + r k = m und p i = r i /m (1 i k). Mit A ij wird das Ereignis bei der j-ten Ziehung wird eine Kugel der Farbe C i gezogen (1 i k, 1 j n) bezeichnet. Schliesslich betrachte man die Zufallsvariablen X ij = I Aij (1 i k, 1 j n); X i = n j=1 X ij (1 i k). Die Zufallsvariable X i gibt die Anzahl der Kugel von der Farbe C i an, die im Verlauf der n Ziehungen gezogen werden Man zeige, dass man also ein Tripel (Ω, P(Ω), P) mit folgenden Eigenschaften konstruieren kann: a) Die Zufallsvariablen X i1,1,..., X in,n sind gegenseitig unabhängig für jede Folge (i 1,...,i n ) {1,...,k} n. Ausserdem gilt P{X ij =1} = p i (1 i k, 1 j n).

80 KAPITEL 6: BEDINGTE WAHRSCHEINLICHKEITEN. b) Die Verteilung des k-dimensionalen Zufallsvektors X =(X 1,...,X k ) ist durch ( ) n P{X 1 = n 1,...,X k = n k } = p n 1 1 n 1,...,n...pn k k k gegeben. Das ist der Fall einer Multinomialverteilung. 16. Drei Personen A, B, C werden zufällig auf einer Geraden aufgestellt. Man betrachte die beiden Ereignisse: E : B befindet sich rechts von A ; F : C befindet sich rechts von A. Sind diese beiden Ereignisse E und F unabhängig, wenn man auf der Grundmenge die Gleichverteilung annimmt? 17. Es sei Ω die Menge der acht verschiedenen möglichen Beobachtungen, die man machen kann, wenn eine Münze dreimal hintereinander geworfen wird. Man betrachte die beiden Ereignisse: A : beim ersten Wurf tritt Zahl auf ; B : Zahl tritt mindestens zweimal auf. a) Sind die Ereignisse A und B unabhängig, falls man auf Ω die Gleichverteilung annimmt? b) Gibt es eine Wahrscheinlichkeitsverteilung P auf Ω derart, dass A und B unabhängig bezüglich P sind? 18. (E. Kosmanek). Es sei (Ω, A, P) ein Wahrscheinlichkeitsraum, A, B seien zwei Ereignisse aus A. Dann gilt P(A B) P(A)P(B) 1 4. Man kann diese Ungleichung auf verschiedene Arten beweisen, die sich auf die Schwarzsche Ungleichung zurückführen lassen. Einen direkten Beweis kann man geben, indem man die Atome A B, A B c, A c B und A c B c betrachtet. Bezeichnen α, β, γ und δ ihre jeweiligen Wahrscheinlichkeiten, so gilt α + β + γ + δ =1.Für e(a, B) =P(A B) P(A)P(B) gilt dann e(a, B) =α (α + β)(α + γ) =α(1 α β γ) βγ = αδ βγ, und somit e(a, B) αδ 1 4 (weil α, δ 0, α + δ 1) sowie e(a, B) βγ 1 4 (weil β, γ 0, β + γ 1). Man beobachtet, dass die Gleichheit αδ βγ = 0 eine notwendige und hinreichende Bedingung dafür ist, dass die Ereignisse A und B unabhängig sind. 19. Man verfügt über einen perfekten Würfel. Man denke sich ein Experiment aus, das aus zwölf disjunkten und gleichwahrscheinlichen Ereignissen besteht.

http://www.springer.com/978-3-7643-6169-3