Stochastische Unabhängigkeit. 01. Dezember 2014

Ähnliche Dokumente
Unabhängigkeit KAPITEL 4

Wahrscheinlichkeitsrechnung und Statistik

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Grundbegriffe der Wahrscheinlichkeitsrechnung

3. Kombinatorik und Wahrscheinlichkeit

4 Diskrete Wahrscheinlichkeitsverteilungen

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)

Satz 16 (Multiplikationssatz)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Einführung in die Wahrscheinlichkeitsrechnung

Diskrete Strukturen WiSe 2012/13 in Trier

Übungsaufgaben, Statistik 1

Kapitel 2 Wahrscheinlichkeitsrechnung

2.2 Ereignisse und deren Wahrscheinlichkeit

3.3 Bedingte Wahrscheinlichkeit

Übungen zur Wahrscheinlichkeitstheorie und Statistik

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 8. Übung SS 16: Woche vom

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Zufallsvariablen [random variable]

P (X = 2) = 1/36, P (X = 3) = 2/36,...

Wahrscheinlichkeiten

Erwartungswert, Varianz und Standardabweichung einer Zufallsgröße. Was ist eine Zufallsgröße und was genau deren Verteilung?

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

1. Grundlagen der Wahrscheinlichkeitsrechnung

Diskrete Verteilungen

Kapitel 5. Stochastik

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Kapitel 9 WAHRSCHEINLICHKEITS-RÄUME

Mathematik für Biologen

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

15 Wahrscheinlichkeitsrechnung und Statistik

Elementare Wahrscheinlichkeitsrechnung

Wählt man aus n Mengen mit z 1 bzw. z 2,..., bzw. z n Elementen nacheinander aus jeder Menge jeweils ein Element aus,

Stochastik Klasse 10 Zufallszahlen

Population und Stichprobe: Wahrscheinlichkeitstheorie

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

Wahrscheinlichkeitsrechnung

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

Mathematische und statistische Methoden II

Gründe für die Behandlung von stochastischen Problemen (nach KÜTTING)

Bedingte Wahrscheinlichkeiten und Unabhängigkeit

Elemente der Stochastik (SoSe 2016) 10. Übungsblatt

Wahrscheinlichkeitsrechnung und Quantentheorie

2 Zufallsvariable, Verteilungen, Erwartungswert

Grundwissen Stochastik Grundkurs 23. Januar 2008

Es wird aus einer Urne mit N Kugeln gezogen, die mit den Zahlen 1,..., N durchnummiert sind. (N n)! n! = N! (N n)!n! =

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

Grundbegriffe der Wahrscheinlichkeitstheorie

Laplace und Gleichverteilung

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Willkommen zur Vorlesung Statistik (Master)

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Gemeinsame Wahrscheinlichkeitsverteilungen

Lernzusammenfassung für die Klausur. Inhaltsverzeichnis. Stochastik im SS 2001 bei Professor Sturm

Abschlussprüfung 1998 zum Erwerb der Fachhochschulreife an Berufsoberschulen

Wahrscheinlichkeitstheorie und Statistik vom

Überblick. Linguistische Anwendungen: æ Spracherkennung æ Textretrival æ probabilistische Grammatiken: z.b. Disambiguierung. Problem: woher Daten?

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet

Technische Universität München

11 Unabhängige Ereignisse

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Aufgabe 3 Was ist der Erwartungswert der größten gezogenen Zahl M beim Zahlenlotto 6 aus 49 (ohne Zusatzzahl)?

Ergebnis Ergebnisraum Ω. Ereignis. Elementarereignis

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

Für die Wahrscheinlichkeit P A (B) des Eintretens von B unter der Bedingung, dass das Ereignis A eingetreten ist, ist dann gegeben durch P(A B) P(A)

Übungsrunde 4, Gruppe 2 LVA , Übungsrunde 4, Gruppe 2, Markus Nemetz, TU Wien, 10/2006

Grundwissen. 8. Jahrgangsstufe. Mathematik

1 Inhaltsverzeichnis. 1 Einführung...1

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Ü b u n g s b l a t t 15

1 Axiomatische Definition von Wahrscheinlichkeit

Mathematik IV (Stochastik) für Informatiker

Grundwissen. 8. Jahrgangsstufe. Mathematik

P A P( A B) Definition Wahrscheinlichkeit

Auf dem Schulfest bietet Peter als Spielleiter das Glücksspiel "GlücksPasch" an.

TU Darmstadt FB Mathematik, AG 9 WS 2004/2005 Jakob Creutzig (1 + ρ)

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Wahrscheinlichkeitsrechnung für die Mittelstufe

Dr. Jürgen Senger INDUKTIVE STATISTIK. Wahrscheinlichkeitstheorie, Schätz- und Testverfahren. 1. Zweimaliges Ziehen aus einer Urne (ohne Zurücklegen)

9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe

Wahrscheinlichkeitsrechnung

Aufgabe 2.1. Ergebnis, Ergebnismenge, Ereignis

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Bernoullikette und Binomialverteilung. Binomialverteilung

Übungen zur Mathematik für Pharmazeuten

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung

Statistik I für Betriebswirte Vorlesung 2

Einführung in die Computerlinguistik Statistische Grundlagen

Statistik I für Betriebswirte Vorlesung 5

Transkript:

Stochastische Unabhängigkeit 0. Dezember 204

Der Begriff der Unabhängigkeit Großbritannien, im November 999. Die Anwältin Sally Clark wird wegen Mordes an ihren Kindern angeklagt. Clark geriet unter Verdacht nachdem ihre beiden Söhne (*996, *997) innerhalb kurzer Zeit nach deren Geburt verstarben. Lagen hier zwei Fälle von plötzlichem Kindstod vor oder hatte die Mutter ihre Söhne umgebracht? Im Prozess wird der renommierte Kinderarzt Roy Meadow hinzugezogen. Dieser stützt seine Aussage auf eine statistische Untersuchung, welche besagt, dass die Wahrscheinlichkeit eines Krippentods in einer Familie mit dem gesellschaftlichen Status der Clarks etwa zu 8543 sei. Daraus schließt Meadow, dass die Wahrscheinlichkeit, dass zwei solche Todesfälle in derselben Familie auftreten, dem Quadrat dieser Zahl entspreche: zu 73 Millionen. Aufgrund dieser statistischen Analyse wird Sally Clark wegen Mordes an ihren beiden Kindern schuldig befunden. Wann beeinflussen sich zwei Ereignisse bzw. zwei Zufallsvariablen, wann nicht? Sind zwei Ereignisse abhängig voneinander, dann wird die Wahrscheinlichkeit für ein bestimmtes Ereignis durch das Eintreten eines vorherigen Ereignisses beeinflusst.. Def. Bedingte Wahrscheinlichkeiten Sei (Ω, A, P ) Wahrscheinlichkeitsraum. Sei B A mit P (B) > 0, heißt P (A B) = P B (A) := P (A B) P (B) für jedes A A die bedingte Wahrscheinlichkeit von A gegeben B. Durch Umstellen der obigen Formel erhält man das allgemeine Multiplikationstheorem P (A B) = P (A B) P (B). Nimmt man an, dass das vorherige Ereignis (hier B) keinen Einfluss auf das darauffolgende Ereignis (hier A) hat, dann gilt: P (A B) = P (A). Daraus ergibt sich folgende Definition:.2 Def. Unabhängigkeit Sei (Ω, A, P ) Wahrscheinlichkeitsraum. Zwei Ereignisse A, B A heißen (stochastisch) unabhängig genau dann, wenn gilt: P (A B) = P (A) P (B). 2

Folgerung: Stochastische Unabhängigkeit ist ein symmetrischer Begriff. Das heißt, wenn A von B unabhängig ist, dann gilt auch B ist von A unabhängig. Dies gilt genauso für Ā und B, A und B sowie Ā und B. Ob bei einem Zufallsexperiment Abhängigkeit oder Unabhängigkeit vorliegt, kann häufig auch aus der Struktur des Zufallsexperiments abgeleitet werden. Betrachtet man den aufeinanderfolgenden Wurf einer fairen Münze, so ist klar, dass das Ergebnis des vorangehenden Wurfes das darauf folgende Ergebnis nicht beeinflusst. Die Wahrscheinlichkeit Kopf oder Zahl zu erhalten ist stets jeweils 2. Auch Meadow ging davon aus, dass wiederholte Fälle plötzlichen Kindstods innerhalb einer Familie statistisch unabhängig voneinander sind. Das heißt, dass der Tod des einen Kindes nichts mit dem Tod des anderen Kindes zu tun hat. Jedoch ignorierte er in diesem Kontext Hintergrundbedingungen wie z.b. die Existenz von genetisch vererbten Risikofaktoren. So ist es ein Fehler, den Tod der beiden Kinder als unabhängig zu betrachten und somit hätte Meadows die Wahrscheinlichkeit nicht quadrieren dürfen. 2 Unabhängigkeit bei diskreten Wahrscheinlichkeits- Maßen Betrachte das Laplace sche Zufallsexperiment Werfen eines Würfels. Für das Zufallsexperiment erhält man den Ergebnisraum Ω = {, 2, 3, 4, 5, 6}, Ω = 6. Nach der Definition der Gleichverteilung ergibt sich für jedes dieser Ereignisse die Wahrscheinlichkeit von 6. Wird das Zufallsexperiment auf Zweimaliges Würfeln mit einem Würfel erweitert, vergrößert sich der Ergebnisraum Ω = {(i, j)}, i, j =,..., 6, Ω =. Die Wahrscheinlichkeit für jedes Ereignis verkleinert sich dementsprechend auf, bleibt jedoch gleichverteilt. Im Folgenden soll gezeigt werden, wenn die Zufallsvariablen x und y unabhängig voneinander und jeweils gleichverteilt sind, ist auch die Zufallsvariable (x, y) gleichverteilt. Sei x nach einem diskreten W-Maß P mit Masse in den Punkten a i, i N verteilt, analog y mit W-Maß P 2, Punkte b j, i N. Dann nimmt (x, y) Werte in der Menge {(a j, b j ) : i, j N} an. Nach Voraussetzung sind x und y unabhängig, somit nimmt (x, y) den Wert (a i, b j ) mit der Wahrscheinlichkeit P {(a i, b j )} = P {a i }P 2 {b j } an. P ist ein W-Maß, da P {(a j, b j )} = P {a i } P 2 {b j } =. 3

Weiterhin gilt P (A B) = P {(a j, b j )} A B (a j, b j ) = = P {a i }P 2 {b j } A (a i ) B (b j ) P {a i } A (a i ) P 2 {b j } B (b j ) = P (A)P 2 (B). Sind P und P 2 Gleichverteilungen über endlich vielen Werten {a,..., a n } und {b,..., b n2 }, dann gilt: P {a i } = n und P 2 {B} = n 2, also P ({a i, b i }) = n n 2, das heißt, P ist auch eine Gleichverteilung. Beachte: Das Umgehen des Unabhängigkeitsbegriffs ist nur bei gleichverteilten Zufallsvariablen möglich. 3 Unabhängigkeit mehrerer Ereignisse 3. Def. Unabhängigkeit von n Ereignissen Die n Ereignisse A, A 2,..., A n eines endlichen Wahrscheinlichkeitsraumes (Ω, A, P ) heißen genau dann stochastisch unabhängig, wenn für jede Auswahl von k Ereignissen A i, A i2,..., A ik aus der Menge {A, A 2,..., A n } der gegebenen n Ereignisse die Gleichung P (A i A i2... A ik ) = P (A i ) P (A i2 )... P (A ik ) erfüllt ist. Hierbei ist k jede natürliche Zahl mit < k n. Seien drei Ereignisse A, A 2 und A 3 gegeben. Gemäß der Definition müssen folgende vier Gleichungen bei stochastischer Unabhängigkeit erfüllt sein: P (A A 2 ) = P (A ) P (A 2 ), P (A A 3 ) = P (A ) P (A 3 ), P (A 2 A 3 ) = P (A 2 ) P (A 3 ), P (A A 2 A 3 ) = P (A ) P (A 2 ) P (A 3 ). Zwar impliziert die stochastische Unabhängigkeit von n Ereignissen die stochastische Unabhängigkeit jedes Ereignispaares, jedoch gilt dies nicht umgekehrt! 4

Von der paarweisen stochastischen Unabhängigkeit von n Ereignissen lässt sich nicht auf die stochastische Unabhängigkeit der n Ereignisse schließen. Das soll im Folgenden das Beispiel des gefärbten Tetraeders veranschaulichen: Ein Tetraeder habe eine rote, eine blaue, eine grüne und eine Seite mit allen drei Farben. Seien die Ereignisse A/B/C, dass das Tetraeder auf eine Fläche mit roter/blauer/grüner Farbe fällt. So erhält man mit der Laplace schen-wahrscheinlichkeitsrechnung P (A) = P (B) = P (C) = 2 und P (A B) = P (A C) = P (B C) = 4. Die Ereignisse A, B und C sind demnach paarweise stochastisch unabhängig. Außerdem gilt P (A B C) = 4. Jedoch gilt nicht P (A B C) = P (A) P (B) P (C), denn P (A) P (B) P (C) = 2 2 2 = 8 4. Das heißt, die Ereignisse A, B und C sind abhängig. 4 Funktionen unabhängiger Zufallsvariabler 4. Def. Diskrete Zufallsvariablen Sei (Ω, (Ω), P ) ein Wahrscheinlichkeitsraum mit abzählbarer Ergebnismenge Ω. Dann heißt jede Funktion X : Ω R mit ω X(ω) eine diskrete Zufallsvariable auf Ω. 4.2 Def. Unabhängigkeit von Zufallsvariablen Sei (Ω, A, P, ) Wahrscheinlichkeitsraum. Seien X, Y R Zufallsvariablen. Diese sind genau dann unabhängig, wenn für alle A A sowie alle B A gilt P (X A, Y B) = P (X A) P (Y B). Bemerkung: Liegt ein diskretes Wahrscheinlichkeitsmaß vor, ist die vorangegangene Gleichung äquivalent zu P (X = x, Y = y) = P (X = x) P (Y = y). Als Beispiel zur Unabhängigkeit von Zufallsvariablen betrachte das Zufallsexperiment Zweifaches Würfeln. Sei dazu (Ω, (Ω), P ) der zum Zufallsexperiment definierte Wahrscheinlichkeitsraum mit der Ergebnismenge Ω = {(i, j) i, j {,..., 6}}. Die diskreten Zufallsvariablen seien definiert als 5

X((i, j)) = i ist Augenzahl. Würfel, Y ((i, j)) = j ist Augenzahl 2. Würfel, Z((i, j)) = i + j ist Summe der Augenzahlen. Sind X und Y bzw. Y und Z unabhängig voneinander? Für X und Y gilt: P (X A, Y B) = P ({(i, j) {,..., 6}} 2 : X(i, j) A, Y (i, j) B}) = P ({(i, j) {,..., 6} 2 : i A, j B}) = P (A B) = A B = A B P (X A) = P ({(i, j) {, 6} 2 : i A}) = P (A {,...6}) = A {,..., 6} = A 6 Analog gilt: P (Y B) = B 6. Das heißt, P (X A, Y B) = P (X A) P (Y B) ist erfüllt und damit sind X und Y unabhängig voneinander. Für den zweiten Fall nehme an, dass die Augenzahl des. Würfels 6 ist und die Summe der Augenzahlen. Dann kann leicht errechnet werden (siehe Bsp. Kap. 2), dass P (X {6}, Z {, 2}) P (X {6}) P (Z {, 2}) 2 6 3 = 72. Daraus folgt, dass X und Z abhängig voneinander sind. Merke: Funktionen unabhängiger Zufallsvariabler sind wieder unabhängig. Es gilt zu zeigen, dass die verbundene Verteilung der beiden Variablen (f(x), g(y)) ein Produktmaß ist, wenn die verbundene Verteilung von (x, y) eines war. Sei P die verbundene Verteilung von (x, y), dann wird P (f, g) durch P (f, g)(c) = P {(x, y) (X Y ) : (f(x), g(y)) C} definiert. P (f, g) ist dabei das von P und der Abbildung (x, y) (f(x), g(y)) induzierte Wahrscheinlichkeitsmaß. 6

Da {(x,y) (X Y ) : (f(x), g(y)) (A B)} = ({x X : f(x) A} {y Y : g(y) B} = (f A) (g B), erhalten wir für C = (A B): Ist P ein Produktmaß, dann gilt also: P (f, g)(a B) = P ((f A) (g B)) P ((f A) (g B)) = P (f A) P (g B) = P f(a) P g(b), P (f, g)(a B) = P f(a) P g(b) Da P f und P g Wahrscheinlichkeitsmaße sind, ist das Multiplikationstheorem aus.2 erfüllt. Daher lässt sich schließen, dass die induzierte Verteilung ein unabhängiges Produkt ist. References [] J. Pfanzagl: Elementare Wahrscheinlichkeitsrechnung, Walter de Gruyter, 99, ISBN 978-3033849. [2] J. Behnke, N. Behnke: Grundlagen der Statistischen Datenanalyse - Eine Einführung für Politikwissenschaftler, Verlag für Sozialwissenschaften, 2006, ISBN 978-3534576. [3] C. Comez, L. Schneps: Wahrscheinlich Mord - Mathematik im Zeugenstand, Carl Hanser Verlag, 203, ISBN 978-34464756. [4] H. Kütting, M.J. Sauer: Elementare Stochastik - Mathematische Grundlagen und didaktische Konzepte, Spektrum Akademischer Verlag, 2008, 2.Auflage, ISBN 978-382748548. 7