Übungsrunde 4, Gruppe 2 LVA , Übungsrunde 4, Gruppe 2, Markus Nemetz, TU Wien, 10/2006

Ähnliche Dokumente
2 STOCHASTISCHE GRUNDBEGRIFFE

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte

KAPITEL 5. Erwartungswert

Unabhängigkeit KAPITEL 4

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen

Statistik I für Betriebswirte Vorlesung 2

Satz von der totalen Wahrscheinlichkeit

= 7! = 6! = 0, 00612,

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Statistik I für Betriebswirte Vorlesung 2

Zusammenfassung Stochastik

Kapitel N. Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

1. Grundlagen der Wahrscheinlichkeitsrechnung

Statistik I für Betriebswirte Vorlesung 2

7. Kapitel: Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten

htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.

Teil II. Wahrscheinlichkeitsrechnung

Teil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse

Allgemeine diskrete Wahrscheinlichkeitsräume II

Allgemeine diskrete Wahrscheinlichkeitsräume I

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Übungsblätter zu Methoden der Empirischen Sozialforschung III: Inferenzstatistik. Lösungsblatt zu Nr. 1

2.2 Ereignisse und deren Wahrscheinlichkeit

Satz 16 (Multiplikationssatz)

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Bedingte Wahrscheinlichkeiten

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?

Mathematik für Biologen

Statistik für Ingenieure Vorlesung 2

,,Schäferhunde sind gefährlich! Denn,,Jeder dritte Biss geht auf das Konto dieser Rasse.

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen

Kombinatorik & Stochastik Übung im Sommersemester 2018

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007

Grundbegriffe. Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?

Vorlesung Statistik, H&A Mathe, Master M

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 2

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Population und Stichprobe: Wahrscheinlichkeitstheorie

3. Grundbegriffe der Wahrscheinlichkeitstheorie

1 Elementare Wahrscheinlichkeitstheorie

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Kombinatorik. 1. Beispiel: Wie viele fünfstellige Zahlen lassen sich aus den fünf Ziffern in M = {1;2;3;4;5} erstellen?

Kapitel 5 Stochastische Unabhängigkeit

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie

Wie hoch ist das Risiko, dass ein System, das aus mehreren Komponenten besteht, ausfällt?

Wahrscheinlichkeitsrechnung und Statistik

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem

Wahrscheinlichkeitsrechnung

Abitur 2013 Mathematik Stochastik III

Statistik I für Humanund Sozialwissenschaften

a) (A B) tritt ein = A tritt ein oder B tritt ein. = Mindestens eines der Ereignisse A, B tritt ein.

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Wahrscheinlichkeitstheorie

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Wichtige Definitionen und Aussagen

Stochastik für Ingenieure

Wahrscheinlichkeitstheorie

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Für die Wahrscheinlichkeit P A (B) des Eintretens von B unter der Bedingung, dass das Ereignis A eingetreten ist, ist dann gegeben durch P(A B) P(A)

Vorlesung Statistik, WING, ASW Wahrscheinlichkeit in Laplace Versuchen. Kombinatorische Formeln. Bedingte Wahrscheinlichkeit

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Biostatistik, Sommer 2017

2. Rechnen mit Wahrscheinlichkeiten

Vorlesung Statistik WING ASW Melanie Kaspar, Prof. Dr. B. Grabowski 1

Lösungsskizzen zur Präsenzübung 07

Mathe-Camp 2017 Stochastik: Geometrische Wahrscheinlichkeiten

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Dr. Jürgen Senger INDUKTIVE STATISTIK. Wahrscheinlichkeitstheorie, Schätz- und Testverfahren. 1. Zweimaliges Ziehen aus einer Urne (ohne Zurücklegen)

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,

Wahrscheinlichkeitstheorie und Statistik

Abitur 2011 G8 Abitur Mathematik Stochastik IV

Übungen zur Wahrscheinlichkeitstheorie und Statistik

4. Die Laplacesche Gleichverteilung

Stochastik Grundlagen

1 Grundlagen Wahrscheinlichkeitsrechung

Mathematische und statistische Methoden II

UE Statistik 1, SS 2015, letztes Update am 5. März Übungsbeispiele

Wirtschaftsstatistik I [E1]

Lösungen Wahrscheinlichkeitstheorie

Einführung in die Computerlinguistik

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 1

Mathematik W27. Mag. Rainer Sickinger LMM. v 1 Mag. Rainer Sickinger Mathematik W27 1 / 51

Wahrscheinlichkeiten

Statistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie

Transkript:

Übungsrunde 4, Gruppe 2 LVA 107.369, Übungsrunde 4, Gruppe 2, 07.11. Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 10/2006 1 17 1.1 Angabe Ein Parallelsystem funktioniert, wenn wenigstens eine seiner Komponenten funktioniert. Betrachten Sie ein Parallelsystem aus n Komponenten, die unabhängig voneinander mit Wahrscheinlichkeit p arbeiten. Berechnen Sie die Wahrscheinlichkeit mit der Komponente 1 funktioniert, wenn man weiß, daß das System funktioniert. 1.2 Theoretische Grundlagen: Bedingte Wahrscheinlichkeit Man führt ein statistisches Experiment n-mal durch - interessant sind oft die relativen Häufigkeiten, die durch den Eintritt eines bestimmten Ergebnisses A eintreten. Diese bedingten relativen Häufigkeiten h n (B A) für B ɛ (Wahrscheinlichkeitsraum (M, ɛ, W)) sind gegeben durch: h n (B A) = H n(b A) H n (A) Wenn man Zähler und Nenner durch n dividiert, erhält man: h n (B A) = h n(b A) h n (A) Im Sinne der Häufigkeitsinterpretation der Wahrscheinlichkeiten definiert man daher bedingte Wahrscheinlichkeiten in Wahrscheinlichkeitsräumen (M, ɛ, W) für ein Ereignis A ɛ mit W(A) > 0 durch W(B A) := W(B A) W(A) fuer jedes B ɛ 1.3 Lösung des Beispiels Die Wahrscheinlichkeit, dass das Gesamtsystem funktioniert, ergibt sich aus der Division günstige Fälle durch mögliche Fälle. Jedes Teil kann zwei Zustände haben (0 oder 1), daher ergibt sich für die Wahrscheinlichkeit, dass das Gesamtsystem funktioniert (Subtraktion mit 1 im Nenner, da erste Komponente bereits als funktionierend markiert ist): F = 2n 1 2 n 1 1

Wenn nun alle Komponenten mit derselben Wahrscheinlichkeit funktionieren (p), ergibt sich zunächst für das Geamtsystem: F = F 1 F 2 F n P(F) = 1 (1 p) n p Die Lösung von der Übung lautet A 1,...,A n sind Komponenten 1,...,n: P(A B = P(A 1 B) P(B) P(A 1 ) = P(A 2 B) P(B) = (1 P) n P(B) = 1 (1 P) n = P(A 1) P(B) = P 1 (1 P) n Sollte nun die Wahrscheinlichkeit für die zusätzliche Komponente A 2 gefragt sein, so ändert sich die Berechnung wie folgt: P(A 1 A 2 ) B) P(B) = P(A 1 A 2 ) P(B) = P 2 1 (1 P) n 2 18 2.1 Angabe Jemand fliegt von Los Angeles nach Wien mit Zwischenlandungen in New York, London und Frankfurt. Bei jeder Zwischenlandung wird die Maschine gewechselt, wobei an jedem Flughafen (einschließlich LA) das Gepäck mit gleichbleibender Wahrscheinlichkeit q (0 < q < 1) in ein falsches Flugzeug verladen wird. In Wien fehlt das Gepäck; mit welcher Wahrscheinlichkeit ist der Fehler in LA, NY, L, F passiert? Wo ist die Wahrscheinlichkeit am größten? Rechnen Sie allgemein und für q = 0.05. 2.2 Theoretische Grundlagen: Bedingte Wahrscheinlichkeit Siehe Beispiel 17! 2.3 Lösung des Beispiels Betrachten LA: LA = q = 0.05 Betrachten New York: (1 LA) q = 0.0475 Betrachten London: (1 LA) (1 NY ) q = 0.04525375 Betrachten Frankfurt: (1 LA) (1 NY ) (1 L) q = 0.04525375 2

Diese Summe aller möglichen Ereigniswahrscheinlichkeiten beträgt 0.185940503. Die Einzelereigniswahrscheinlichkeiten drücken wir nun in % aus (günstige durch mögliche Fälle und erhalten. mit 100 multiplizieren): LA: 26.89% NY: 25.55% L: 24.33% F: 23.23% Ingsgesamt gibt es eine 26, 89%ige Chance, dass das Gepäck in LA liegen bleibt oder falsch verladen wurde - dort ist es am grössten. Allgemeiner wurde das in der Übung formuliert: 3 21 3.1 Angabe q W(LA W) = 1 (1 q) 4 = 0.2689 W(N Y W) = W(L W) = W(F W) = q (1 q) 1 (1 q) 4 = 0.2555 q (1 q)2 1 (1 q) 4 = 0.2433 q (1 q)3 1 (1 q) 4 = 0.2323 Fünf Studenten und zehn Studentinnen werden willkürlich in fünf Arbeitsgruppen zu je drei Personen aufgeteilt. Mit welcher Wahrscheinlichkeit gibt es in jeder Arbeitsgruppe einen Studenten? 3.2 Theoretische Grundlagen: Multiplikationstheorem Multiplikationstheorem: Sind zwei Ereignisse A,B unabhängig voneinander, so ist die Wahrscheinlichkeit für das gemeinsame Auftreten - P(A B) - gleich dem Produkt der Einzelwahrscheinlichkeiten. 3.3 Lösung des Beispiels Zunächst skizzieren wir den Sachverhalt für die erste Gruppe: 3

Auswahl Wahrscheinlichkeit 5/14 10/15 5 10 5/15 5 9 4 10 9/14 10/14 4 9 5 8 4 9 9/13 5/13 9/13 4 8 4 8 4 8 10/15 5/14 9/13 10/15 9/14 5/13 5/15 10/14 9/13 Wir können das Baummodell vereinfachen, wie wir sehen, denn doe Reihenfolge der Zuteilung unerheblich. Die Wahrscheinlichkeit, dass die erste gebildete Gruppe einen Studenten enthält errechnet sich wie folgt; 10 9 5 15 14 13 3 = 450 2730 Dann wird die zweite Gruppe gebildet: Analog die dritte Gruppe: Die vierte Gruppe: 8 7 4 12 11 10 3 = 224 1320 6 5 3 9 8 7 3 = 90 504 4 3 2 6 5 4 3 = 24 120 Schlussendlich die fünfte Gruppe (muss 1 ergeben): 2 1 1 3 2 1 3 = 1 Die Multiplikation der einzelnen Wahrscheinlichkeiten ist 0.081, also 8.1%. 4 25 4.1 Angabe Einer von zwei Behältern, bestehend aus je 10 Kugeln, enthält eine besondere Kugel (äußerlich von den anderen nicht unterscheidbar). Wenn man insgesamt 20 Ziehungen mit Zurücklegen frei hat, und sich die besondere Kugel mit Wahrscheinlichkeit 2/3 im ersten Behälter befindet, wie sollte man die Ziehungen aufteilen, um die Kugel mit maximaler Wahrscheinlichkeit zu ziehen? Wie groß ist die maximale Wahrscheinlichkeit? 4

4.2 Theoretische Grundlagen: Satz von der vollständigen Wahrscheinlichkeit Die Wahrscheinlichkeit für Oder-Ereignisse, also das alternative Eintreten von zwei oder mehr Ereignissen erhält man durch den Satz von der totalen (vollständigen) Wahrscheinlichkeit: Setzt sich das Ereignis A zusammen aus den sich gegenseitig ausschließenden Ereignissen A B 1 und A B 2,so gilt der Satz von der totalen (vollständigen) Wahrscheinlichkeit: P(A) = P(A B 1 ) P(B 1 ) + P(A B 2 ) P(B 2 ) Für die Verallgemeinerung des Satzes benötigen wir die Definition der vollständigen Ereignisdisjunktion. Sie liegt vor, wenn wir den gesamten Ergebnisraum eines Zufallsexperiments in sich gegenseitig ausschließende Ereignisse zerlegen. Jedes Elementarereignis ist in genau einem Ereignis der Zerlegung enthalten. Die mathematisch korrekte Definition sieht wie folgt aus: Sei Ω die Ergebnismenge. Die Ereignisse B 1, B 2,...,B n bilden eine totale (vollständige) Ereignisdisjunktion, wenn gilt: 1. B i B j = 0 i j 2. P(B i ) > 0 i 3. n i=1 B i = Ω Beispiele für solche Zerlegungen sind die Einteilung nach Feldern gleicher Farbe beim Roulette oder einer Dartscheibe. Mit einer solchen Zerlegung gewinnen wir eine neue Darstellung für ein beliebiges Ereignis A aus der gleichen Ergebnismenge: Sei B 1,...,B n eine vollständige Ereignisdisjunktion. Aus der Vollständigkeit der Zerlegung folgt, dass jedes Elementarereignis aus A in einem der B i enthalten ist. Es gilt also: n A = (A B i ) i=1 Um die Wahrscheinlichkeit P(A) zu erhalten, können wir die Wahrscheinlichkeiten der an der Vereinigung beteiligten Und-Ereignisse aufaddieren. Weil die B i paarweise disjunkt sind, zählen wir dabei kein Ereignis mehrfach: n P(A) = P(A B i ) i=1 Die Anwendung des Multiplikationssatzes auf jeden der Summanden liefert schließlich den Satz von der totalen (vollständigen) Wahrscheinlichkeit: n P(A) = P(A B i ) P(B i ) i=1 5

4.3 Lösung des Beispiels Wir gehen zunächst davon aus, wir zögen aus jedem Behältr 10 Mal. Zunächst nimmt man hypothetisch an, die Kugel sei im ersten Behälter. Dann ist die Wahrscheinlichkeit, die Kugel dort zu finden (Komplement bilden!): W 1 = 1 ( 9 10 )10 Die zweite Hypothese: Die Kugel im zweiten Behälter. Daraus folgt die Wahrscheinlichkeit: W 2 = 1 ( 9 10 )10 Insgesamt beträgt die Wahrscheinlichkeit maximal nach dem Satz von der vollständigen Wahrscheinlichkeit: W = 2 3 W 1 + 1 3 W 2 = 1 ( 9 10 )10 = 65.13% Die günstigste Wahrscheinlichkeit würde sich bei etwa 13 Ziehungen aus dem ersten und etwa 7 Ziehungen aus dem zweiten Behälter ergeben. Dies errechnet sich allgemein wie folgt: Bezeichnet man mit p die Wahrscheinlichkeit, dass die markierte Kugel aus dem ersten Behälter ist und machen wir insgesamt n Ziehungen mit Zurücklegen (m aus dem ersten Behälter, n m aus dem zweiten), so gilt: W(A) = (1 ( 9 10 )m p + (1 ( 9 10 )n m (1 p) Für konkrete Werte von n und p lässt sich das optimale m durch Probieren finden, oder durch die Überlegung (da x /dx = a x lna): dw(a) dm = p( 9 10 )m ln( 9 10 ) + (1 p)( 9 10 )m n ln( 9 10 ) Setzt man die Ableitung gleich Null (Extremwert!), so ergibt sich: ( 9 10 )2m n = 1 p p m = n 2 + ln((1 p)/p) 2 ln(9/10) Das optimale m ist dann 13.23, daher gilt: Die günstigste Wahrscheinlichkeit würde sich bei etwa 13 Ziehungen aus dem ersten und etwa 7 Ziehungen aus dem zweiten Behälter ergeben. Das ist kein Zufall (lt. Prof. Gurker), das Verhältniss muss etwas 2 : 1 betragen 5 28 5.1 Angabe Eine typische Anwendung der Bayes schen Formel liegt in der Beurteilung diagnostischer Tests. Angenommen, ein Test zeige bei Vorliegen einer bestimmten Erkrankung K mit 6

98% Wahrscheinlichkeit ein positives Ergebnis T + (diese W. heißt auch die Sensitivität des Tests), und mit einer Wahrscheinlichkeit von 99.5% bei nicht erkrankten Personen ein negatives Ergebnis T (diese W. heißt auch die Spezifität des Tests); 0.1% der Gesamtpopulation seien an K erkrankt (dieser Anteil ist die a-priori Wahrscheinlichkeit oder die Prävalenz von K). Bestimmen Sie mit Hilfe der Bayes schen Formel die (a-posteriori) Wahrscheinlichkeiten W(K T +) und W(K c T ). Geben Sie eine anschauliche Erklärung für den (unerwartet?) kleinen Wert von W(K T +). 5.2 Theoretische Grundlagen: Bayes schen Formel Wir betrachten die Zerlegung des Ereignisraumes in n Ereignisse B 1,...,B n. Dann gilt folgender Satz (die Bayes sche Formel): P(B k A) = P(A B k) P(B k ) n i=1 P(A B i) P(B i ) 5.3 Lösung des Beispiels Wir bezeichnen K als das Ereignis eine Person leidet an einer entsprechenden Krankheit, T + = A das Ereignis die Krankheit wird diagnostiziert und T = Ā das Ereignis, die Krankheit wird nicht diagnostiziert (bei nicht erkrankten Menschen). Die Wahrscheinlichkeiten im Einzelnen: 1. P(K) = 0.001 2. P( K) = 0.999 3. P(A K) = 0.98 4. P(Ā K) = 0.02 5. P(Ā K) = 0.995 6. P(A K) = 0.005 Für die Gesuchten Wahrscheinlichkeiten erhalten wir: Für T+ = A: P(A K) P(K) P(K A) = P(A K) P(K) + P(A K) P( K) = 0.98 0.001 0.98 0.001 + 0.005 0.999 = 0.1640 7

Für T = Ā P( K Ā) = P(Ā K) P( AK) P(Ā K) P( K) = + P(Ā K) P( K) 0.995 0.999 0.995 0.999 + 0.02 0.001 1 6 30 Durch die geringe Anzahl von Personen, die tatsächlich krank sind, wirkt sich der scheinbar kleine Anteil von Gesunden mit falschem Testergebnis so stark aus, das ein positives Testergebnis bei einer zufällig ausgewählten Person mit großer Wahrscheinlichkeit fehlerhaft ist. Ein negativ ausgefallener Test stimmt dagegen fast immer. Ähnliche Zahlen kommen in der Realität durchaus vor. Oft sind Tests dann nur innerhalb von Risikogruppen oder in Gegenden mit größerer Verbreitung der Krankheit aussagekräftig. Eine andere Erklärung: Nur 16% der Erkrankten stammen aus den positiven Tests, da ja die überwiegende Masse Negativ getestet wurde, es bei den Negativ-Tests vom absoluten Prozentanteil (99,5%) zu weniger Fehlern, aber relativ gesehen zu vielen Fehlern kommt (1 minus 16%) Das heißt im Endeffekt, bei den Negativ-Tests ist die große Masse (84%) an Kranken dabei. 6.1 Angabe Angenommen, alle 365 Tage eines Jahres kommen mit gleicher Wahrscheinlichkeit als Geburtstage in Frage. Betrachten Sie 3 Personen und für i < j die Ereignisse B ij = Person i ist am selben Tag wie Person j geboren. Diskutieren Sie die stochastische Unabhängigkeit dieser Ereignisse. 6.2 Theoretische Grundlagen: Stochastische Unabhängigkeit - Definition und Satz Zwei zufällige Ereignisse statistisch unabhängig bezeichnet, falls gilt P(A B) = P(A) P(B) Wenn in einem Zufallsexperiment mehrere Versuche nacheinander durchgeführt werden, dann wird sehr häufig von statistisch unabhängigen Versuchen ausgegangen. In der Experimentieranordnung soll also kein Gedächtnis enthalten sein. Diese Annahmen können leicht bei Karten- oder Würfelbeispielen anschaulich nachvollzogen und validiert werden. Diese Eigenschaft der statistischen Unabhängigkeit ist für wahrscheinlichkeitstheoretische Analysen außerordentlich wichtig. Zentrale mathematische Sätze bzw. Behauptungen innerhalb der Wahrscheinlichkeitstheorie basieren auf der Annahme der statistischen 8

Unabhängigkeit. Allerdings ist diese Annahme kein Dogma für sämtliche Versuchsanordnungen in praktisch auftretenden Zufallsexperimenten. Für das Konzept der bedingten Wahrscheinlichkeit wirkt sich die Annahme für zwei statistisch unabhängiger Ereignisse A und B wie folgt aus: P(A B) = P(A) und P(B A) = P(B) Da das zufällige Ereignis jeweils statistisch unabhängig von der Bedingung ist, wirkt sich auch die Bedingung nicht auf die Wahrscheinlichkeit des zufälligen Ereignisses aus. Die obige Definition der statistischen Unabhängigkeit bezieht sich lediglich auf zwei zufällige Ereignisse. Diese Definition kann auf n beliebige zufällige Ereignisse erweitert werden. Mehrere (n) zufällige Ereignisse sind nur dann statistisch unabhängig, wenn die beiden folgenden Eigenschaften fur beliebige Paare erfüllt sind: alle betrachteten zufalligen Ereignisse sind zunächst paarweise unabhängig, P(A i A j ) = P(A j ) P(A j ) i j darüber hinaus erfüllen samtliche Kombinationen der betrachteten zufälligen Ereignisse die obige Eigenschaft der statistischen Unabhängigkeit: 6.3 Lösung des Beispiels P( i {1,...,n} A i ) = Grundsätzlich müssen wir einmal die Wahrscheinlichkeit berechnen, dass zwei Personen (aus einer Gruppe von zwei Personen) am selben Tag Geburtstag haben: ( 1 365 )2 365 = 1 365 Die Ereignisse P(B 1 B 2 ), P(B 1 B 3 ) und P(B 2 B 3 ) sind paarweise unabhängig, und es gilt exemplarisch: n i=1 A i P(B 1 B 2 ) = P(B 1 ) P(B 2 ) Es können jedoch nicht alle drei Ereignisse gleichzeitig auftreten, d.h. es muss gelten: P(B 1 B 2 B 3 ) = P(B 1 ) P(B 2 ) P(B 3 ), aber das trifft wegen 1 1 nicht zu. Zwar 365 2 365 3 sind die Ereignisse paarweise unabhängig, aber da die Bedingung P( i {1,...,n} B i ) = nicht erfüllt sind, sind sie nicht als statistisch unabhängig zu bezeichnen. (Wir betrachten immer zwei Geburtstage als ein Ereignis. Und die Tatsache, dass Geburtstage bei der n i=1 B i 9

Bedingung i < j mehrmals in Vergleichen vorkommen können, führt dazu, dass sie nicht unabhängig sind) Eine weitere Überlegung: Zwei Ereignisse sind genau dann unabhängig, wenn gilt W(A) = W(A B) = W(A B) W(B 13 (B 12 B 23 )) = 1 (Wenn 1 und 2 am gleichen Tag Geburtstag haben und 2 und 3 auch, dann offensichtlich auch 1 und 3) Jedoch: W(B 13 (B 12 B 23 )) 1 (wenn entweder 1 und 2 oder 2 und 3 an unterschiedlichen Tagen Geburtstag haben, dann können 1 und 3 trotzdem am gleichen Tag haben - oder auch nicht, daher 1. Damit ist bewiesen, dass keine statistische Unabhängigkeit vorliegt. Prof. Gurker sagte uns, dass keine vollständige Unabhängigkeit vorliegt, wohl aber eine paarweise. 7 37 7.1 Angabe Ein Wahrscheinlichkeitsraum (M, ε, W) sei gegeben durch M = {c : 0 < c < 10} und für C ε sei W(C) = 1 C 10 dx. Zeigen Sie, daß X(c) = c2 eine stochastische Größe ist und bestimmen Sie W {X x} für x R. 7.2 Theoretische Grundlagen: Stochastische Grössen Stochastische Grössen variieren nuw. sind nichtdeterministisch (z.b. Lebensdauern, Einkommen einer Firma im nächsten Janr...). Sie sind oft X-Funktionen von Ausgängen von statistischen Experimenten. Wenn man zum Beispiel den Temperaturverlauf in 24 Stunden betrachtet, kann man folgende stochastische Grössen definieren: SG X(ω) = maximale Temperatur (eindimensionale stochastische Grösse) zweidimensionaler stochastischer Vektor: ( ) max X(ω) = 0 t 24 y(t) min 0 t 24 y(t) Definition: Eine Abbildung X : M R m von einem Wahrscheinlichkeitsraum (M, ɛ, W) für das Urbild x 1 (B) := {ω M : X(ω) B} ɛ jedes Rechteck B = (a 1, b 1 ], dots, (a m, b m ], das in ɛ liegt, nennt man eine m-dimensionale stochastische Grösse. 10

7.3 Lösung des Beispiels (wird nachgereicht) 11