Wahrscheinlichkeitsrechnung

Größe: px
Ab Seite anzeigen:

Download "Wahrscheinlichkeitsrechnung"

Transkript

1 Prof. Dr. Michael Eisermann Höhere Mathematik 3 (vertieft) Kapitel S Wahrscheinlichkeitsrechnung Statistical thinking will one day be as necessary for efficient citizenship as the ability to read or write. H.G. Wells ( ) Les questions les plus importantes de la vie ne sont en effet, pour la plupart, que des problèmes de probabilité. Pierre-Simon de Laplace (749 87) WiSe 07/8 Stand Inhalt dieses Kapitels Diskrete Wahrscheinlichkeitsräume Zufall und Wahrscheinlichkeit: Grundbegriffe Rechnen mit Ereignissen: Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeit und Unabhängigkeit Bedingte Wahrscheinlichkeiten, Formel von Bayes Stochastische Unabhängigkeit von Ereignissen 3 Das Gesetz der großen Zahlen Zufallsvariablen, Erwartung und Varianz Die Ungleichungen von Chebychev Unabhängigkeit und Gesetz der großen Zahlen 4 Fazit: Wahrscheinlichkeitsrechnung Aufgaben und Anwendungsbeispiele Sex: Was nützen dem Pfau seine Federn? Tischkicker: Das Runde muss ins Eckige. Google: zufällige Irrfahrt im Internet Google: zufällige Irrfahrt im Internet S000

2 Ziele der Wahrscheinlichkeitsrechnung S00 Unser Ziel sind rationale Entscheidungen unter Unsicherheit. Experimente unter Einfluss von Zufällen Prozesse mit unsicherem Ausgang Wir suchen hierzu begründete quantitative Aussagen. Ungenauigkeit von Messungen, Konfidenzintervalle. Ausfallwahrscheinlichkeit, Lebensdauer von Bauteilen Bewertung von Risiken (Unfälle, Schutz, Versicherung) Glücksspiele (Lotto, Roulette, Poker, Aktienbörse, Klausur) That s life: Fast alles im Leben ist ein Wahrscheinlichkeitsexperiment! Ingenieure müssen Risiken abschätzen, minimieren, verkaufen bzw. Chancen berechnen, maximieren, kaufen. Dazu dient die Stochastik! Literatur: E. Kreyszig: Advanced Engineering Mathematics. Wiley 999 U. Krengel: Einführung in die Wahrscheinlichkeitstheorie. Vieweg 99 W. Feller: Probability Theory and Applications. Wiley Ziele der Wahrscheinlichkeitsrechnung S00 Überblick Die Wahrscheinlichkeitsrechnung beginnt im 7. Jh. mit Rechnungen zu Glücksspielen. S47 Heutzutage wird sie überall eingesetzt, von der Wettervorhersage bis zur Industrieproduktion und klinischen Tests neuer Medikamente. In ihrer Bedeutung für den Alltag kommt sie wohl gleich nach Grundrechenarten und Dreisatz. Ich möchte wetten, Wahrscheinlichkeitsrechnung wird von Otto Normalbürger viele hundertmal häufiger benötigt und benutzt als die vielbeschworene Mitternachtsformel! Das hängt natürlich davon ab, was man im Alltag oder Beruf so tut... Viele Vorgänge haben unsicheren Ausgang; stochastische Argumente sind daher unausweichlich. Leider erstaunlich häufig werden aber selbst einfache Fragen falsch behandelt manchmal mit katastrophalen Folgen. Damit es Ihnen nicht so, sondern besser ergeht, sollen Sie hier mit (einer homöopathischen Dosis) Wahrscheinlichkeitsrechnung geimpft werden. Zu Experten werden Sie dadurch noch nicht, aber die Grundregeln müssen Sie kennen und fehlerfrei anwenden können. Statt Wahrscheinlichkeitsrechnung spricht man gleichbedeutend von Wahrscheinlichkeitstheorie: Auf Grundlage eines geeigneten Modells (eines Wahrscheinlichkeitsraums wie unten erklärt) erlaubt sie die Berechnung der Wahrscheinlichkeiten zu den betrachteten Ereignissen. Ihr Gegenstück ist die Statistik, also die Analyse empirischer Daten (Messwerte, Beobachtungen). Diese versucht, aus bereits vorliegenden Daten relevante Informationen zu extrahieren, insbesondere um ein geeignetes Modell zu finden, zu testen oder zu kalibrieren. Wahrscheinlichkeitstheorie und Statistik ergänzen sich demnach. Beide fasst man unter dem Oberbegriff Stochastik zusammen, von altgriechisch στοχάζομαι [stochazomai] zielen, vermuten, erraten, auch στοχαστικός [stochastikos] scharfsinnig.

3 Typische Anwendung: Ausfallwahrscheinlichkeit S003 Überblick Aufgabe: Drei unabhängige Bauteile haben Ausfallwkten 0.3, 0.4, 0.5. (0) Mit welcher Wkt fällt mindestens ein Teil aus? () Genau 0,,, 3? () Wenn nur genau ein Teil ausfällt, mit welcher Wkt ist es A, B, C? (3) Konstruieren Sie als Modell hierfür explizit einen WRaum (Ω, P). Techniken: Rechenregeln für WRäume, bedingte Wkt, Bayes. Lösung ab Seite S47: Die Wkten sind 0., 0.44, 0.9, Aus der Presse: In Reaktorjahren sind 4 Unfälle der höchsten Stufe aufgetreten. Demnach tritt bei 43 europäischen Reaktoren in 30 Jahren ein solcher Unfall mit Wahrscheinlichkeit von über 00% auf. Aufgabe: Was ist hieran falsch? Welche Rechnung wäre richtig? Techniken: Ausfallwkt (exakt), Poissonverteilung (gute Näherung). Lösung ab Seite T3: Die Wkt ist mit 70% erschreckend hoch. Typische Anwendung: Chancen beim Glücksspiel S004 Überblick Die Wahrscheinlichkeitsrechnung hat viele praktische Anwendungen, ihre Ursprünge liegen im Würfelspiel. Eines der ersten Probleme war die gerechte Teilung bei vorzeitigem Spielabbruch. Zwei gleich starke Teams spielen Tischkicker bis 0. Aufgabe: Wie stehen die Chancen bei 8 : 9? bei 4 : 7? Lösung ab Seite S443: (a) 5 : 75 (leicht) bzw. (b) 4.5 : 85.5 (knifflig) Um Sie vom Ernst solcher Fragestellungen zu überzeugen, folgendes Szenario: Sie spielen um viel Geld, im Film üblicherweise den Wert eines Autos, doch das Spiel wird jäh unterbrochen, sagen wir durch eine Razzia. Im Polizeigewahrsam können Sie das Spiel nicht beenden, daher einigen Sie sich mit dem gegnerischen Team, den Einsatz gerecht aufzuteilen, proportional zu den Gewinnchancen beim letzten Stand 4 : 7. Diese gilt es zu berechnen! Sie haben ja Zeit...

4 Typische Anwendung: Gesetze der großen Zahlen S005 Überblick Nach den grundlegenden Modellen betrachten wir große Datenreihen: Aufgabe: Sie wiederholen 400 mal unabhängig ein Experiment mit Trefferwkt 0%. Mit welcher Wkt erhalten Sie 60 bis 90 Treffer? Techniken: Erwartung und Varianz, Binomialverteilung (exakt), lokaler Grenzwertsatz (gute Näherung), Chebychev (Abschätzung). Lösung ab Seite U40: Die Wkt beträgt recht genau 90%. Aufgabe: Sie würfeln 00 mal mit einem fairen/gezinkten Würfel. Mit welcher Wkt erhalten Sie eine Augensumme S 390? Angenommen S 390, mit welcher Wkt ist der Würfel gezinkt? Techniken: Chebychev (grob), zentraler Grenzwertsatz (fein). Lösung ab Seite V337: Die Wkt beträgt % für den fairen Würfel. Gewählte Themen und benötigte Techniken S006 Überblick Diese Aufgaben nenne ich stellvertretend für unsere vier Kapitel über Wahrscheinlichkeitsrechnung. Meine Auswahl der Themen (in Breite und Tiefe) ist naturgemäß ein Kompromiss: Für den einen ist es schon zuviel, für die andere noch lange nicht genug. Ihr Bedarf hängt ganz davon ab, worin Sie sich spezialisieren! Ich will und kann nur einen Einstieg bieten, damit Sie diese wichtigen Techniken je nach Bedarf vertiefen können. Wenn Sie das alles schon aus der Schule kennen und beherrschen, dann können Sie die folgenden Kapitel als Wiederholung durcharbeiten. Vermutlich ist aber für die meisten noch viel Neues (und Schönes) dabei. Welche Grundlagen und Rechentechniken benötigen wir? Die Anfänge der Wahrscheinlichkeitsrechnung, wie hier dargelegt, erfordern vor allem begriffliche Präzision (Ereignisse und WMaße), sind aber technisch leicht (Reihen, Kombinatorik). Kontinuierliche Verteilungen, wie die Normalverteilung, erfordern zudem Integration. Überall nützlich sind Grenzwerte und Näherungen, wie Stirling Formel oder Taylor Entwicklung. Den zentralen Grenzwertsatz schließlich können wir mit der Fourier Transformation schmerzfrei nachrechnen.

5 Statistik der ersten 50 Lottoziehungen S0 Erläuterung Ziehungen vom bis 09..0, Sa+Mi, mit Zusatzzahl. 800 beobachtete Häufigkeit gezogene Lottozahl Modell / vereinfachende Annahme: Die Ziehungen unterliegen nur dem Zufall und alle Zahlen,..., 49 sind dabei gleich wahrscheinlich. Statistik der ersten 50 Lottoziehungen Ziehungen vom bis 09..0, Sa+Mi, mit Zusatzzahl. 760 S0 Erläuterung beobachtete Häufigkeit gezogene Lottozahl Ein Modell ist eine Annahme und sollte kritisch überprüft werden. Titanic (6.0.0): Experten warnen: Lottozahlen oft reiner Zufall!

6 Statistik: empirische Häufigkeiten beim Würfeln S Das empirische Gesetz der großen Zahlen ist folgende Erfahrungstatsache: Bei sehr häufiger unabhängiger Wiederholung nähern sich die relativen Häufigkeiten einem Grenzwert an. Stochastik: Modell eines fairen Würfels S04 0. Wahrscheinlichkeit / Augenzahl Diese Wahrscheinlichkeiten bilden das stochastische Modell. Es handelt sich um eine Abstraktion, also theoretische Werte. Hiervon zu unterscheiden sind die empirischen relativen Häufigkeiten: Diese werden bei n maliger Durchführungen des Experiments beobachtet. Nur für n nähern sie sich den Wahrscheinlichkeiten an. Satz S3J präzisiert und quantifiziert diese Aussage als Gesetz der großen Zahlen.

7 Stochastisches Modell eines fairen Würfels S05 Mögliche Ergebnisse sind die Zahlen,, 3, 4, 5, 6. Annahme: Alle Ergebnisse sind gleich wahrscheinlich. Das bedeutet anschaulich: Wenn man sehr oft würfelt, dann treten die Ergebnisse,, 3, 4, 5, 6 gleich häufig auf, jedes also in /6 aller Fälle. Das ist zunächst eine Erfahrung, sodann eine empirische Beobachtung. Für das theoretische Modell hingegen ist es die grundlegende Annahme. Abstraktion des Experiments zu einem mathematischen Modell: Ergebnismenge Ω = {,, 3, 4, 5, 6} Elementarwahrscheinlichkeiten p : Ω [0, ] p() = p() = p(3) = p(4) = p(5) = p(6) = 6. Dieses Modell besteht nicht aus empirischen Daten, sondern ist eine axiomatische Festlegung! Wir fixieren damit präzise unsere Annahmen und leiten alle weiteren Rechnungen hieraus ab. In diesem Falle ist die Gleichverteilung plausibel aufgrund der Symmetrie des Würfels. Wie kann man das interpretieren? oder messen? Was bedeutet Wahrscheinlichkeit q [0, ]? Vereinfacht gesagt: Bei häufiger Wiederholung tritt das Ergebnis im Anteil q aller Fälle ein. Wkt von Ergebnissen und Ereignissen S06 Aufgabe: Sie würfeln mit einem fairen Würfel. Wie wahrscheinlich ist das Ereignis A: gerade Zahl? B: mindestens 5? A B: beides? Lösung: Das Ereignis A = {, 4, 6} hat die Wahrscheinlichkeit P(A) = P({, 4, 6}) = p() + p(4) + p(6) = =. Das Ereignis B = {5, 6} hat die Wahrscheinlichkeit P(B) = P({5, 6}) = p(5) + p(6) = = 3. Die Schnittmenge A B = {6} hat die Wahrscheinlichkeit P(A B) = P({6}) = 6 = P(A) P(B) = 3. Die Ereignisse A und B sind hier stochastisch unabhängig. Das Ereignis gerade Zahl entspricht der Teilmenge A = {, 4, 6}. Das Ereignis A tritt genau dann ein, wenn ein Ergebnis ω A eintritt. Interpretation der Wkt: Das Ereignis A tritt in der Hälfte aller Fälle ein. Das Ereignis mindestens eine 5 entspricht der Teilmenge B = {5, 6}. Interpretation der Wkt: Das Ereignis B tritt in einem Drittel aller Fälle ein. Diese Rechnungen beruhen auf dem Modell eines fairen Würfels. Ein gezinkter Würfel hat im Allgemeinen andere Wahrscheinlichkeiten, wie im nachfolgenden Beispiel erklärt. Vor der Rechnung muss man sich also auf ein stochastisches Modell festlegen!

8 Stochastisches Modell eines gezinkten Würfels S07 Man kann Würfel durch ungleiche Masse manipulieren (Bleieinlage). Präzisionswürfel sind daher transparent, um Betrug zu erschweren. Präzisionswürfel aus Kunststoff Handgesägte Würfel aus Holz Gleiche Wkten! Ungleiche Wkten? Angenommen, die Wahrscheinlichkeiten sind nicht gleich, sondern: p() = 0.5, p() = p(3) = p(4) = p(5) = 0.6, p(6) = 0. Dies ist ein anderes stochastisches Modell als die zuvor betrachtete Gleichverteilung! Es besagt anschaulich: Wenn man sehr oft würfelt, tritt die Augenzahl etwa in 5% aller Fälle auf,, 3, 4, 5 jeweils etwa in 6% aller Fälle, und 6 in etwa in % aller Fälle. Wkt von Ergebnissen und Ereignissen S08 Aufgabe: Sie würfeln mit diesem gezinkten Würfel. Wie wahrscheinlich ist das Ereignis A: gerade Zahl? B: mindestens 5? A B: beides? Lösung: Das Ereignis A = {, 4, 6} hat die Wahrscheinlichkeit P(A) = P({, 4, 6}) = p() + p(4) + p(6) = = Das Ereignis B = {5, 6} hat die Wahrscheinlichkeit P(B) = P({5, 6}) = p(5) + p(6) = = Die Schnittmenge A B = {6} hat die Wahrscheinlichkeit P({6}) = 0. P(A) P(B) = Die Ereignisse A und B sind hier stochastisch abhängig. Interpretation: Das Ereignis A tritt in 53% aller Fälle ein, B tritt in 37% aller Fälle ein. Die Wahrscheinlichkeiten sind hier anders als beim fairen Würfel. Es handelt sich um zwei verschiedene Modelle, die unterschiedliche Vorhersagen machen. Welches Modell in einem konkreten Fall das richtige oder das realistischere ist, bleibt hierbei zunächst noch offen. Wir werden später verschiedene Modelle testen, um jeweils das bessere auszuwählen.

9 Wie beschreibt man Zufallsereignisse? S09 Erläuterung Ziel: Geeignete Sprache zur Beschreibung von Zufallsereignissen. Möglichst einfache und unmissverständliche Notation Flexibel und leicht anwendbar in konkreten Rechnungen Hierfür bietet sich die Sprache der Mengenlehre an! Alle Ergebnisse fassen wir zur Ergebnismenge Ω zusammen. Jedes Element ω Ω nennen wir ein Ergebnis. Jede Teilmenge A Ω nennen wir ein Ereignis. Das Ereignis A tritt genau dann ein, wenn ein Ergebnis ω A eintritt. Beispiel Würfeln: Ω = {,, 3, 4, 5, 6} besteht aus sechs Ergebnissen. Das Ereignis gerade Zahl entspricht der Teilmenge A = {, 4, 6}. Das Ereignis mindestens 5 entspricht der Teilmenge B = {5, 6}. Ergebnis und Ereignis klingen ähnlich, bedeuten aber verschiedenes: Unterscheiden Sie beides sorgfältig! Dann weiß jeder, was gemeint ist. Grundmenge und Komplemente S0 Erinnerung Wir bezeichnen mit Ω unsere Gesamtmenge, mit die leere Menge. Wir schreiben A B, wenn jedes Element von A auch in B liegt. Ω A B Ω A A Die Teilmenge aller Elemente mit einer Eigenschaft P schreiben wir { ω Ω P (ω) }. Beispiel: Für Ω = {,,..., 6} gilt { ω Ω ω gerade } = {, 4, 6}. Das Komplement von A in Ω ist Ω ohne A oder nicht A : Ω A := A = { ω Ω ω / A }. Es besteht aus allen Elementen von Ω, die nicht in A liegen. Gebräuchliche Schreibweisen: Ω A = Ω A = A = A c = A =...

10 Schnitt und Vereinigung S Erinnerung Ω Ω A A B B A B Die Schnittmenge A und B ist A B = { ω Ω ω A und ω B }. Sie besteht aus den Elementen, die sowohl in A als auch in B liegen. Die Vereinigung A oder B ist A B = { ω Ω ω A oder ω B }. Sie besteht aus den Elementen, die in A oder B liegen (oder in beiden). Zwei Mengen A, B heißen disjunkt, wenn A B = gilt. In diesem Fall schreiben wir für die disjunkte Vereinigung: A B := A B mit A B =. Schnitt und Vereinigung S Erinnerung Die Vereinigung einer endlichen Familie von Mengen: n A k = A 0 A A A n k=0 Die Schnittmenge einer endlichen Familie von Mengen: n A k = A 0 A A A n k=0 Schnittmenge einer (abzählbar) unendlichen Familie: A k = A 0 A A = { ω Ω ω A k für alle k N } k=0 Vereinigung einer (abzählbar) unendlichen Familie: A k = A 0 A A = { ω Ω ω A k für mind. ein k N } k=0

11 Restmenge und symmetrische Differenz S3 Erinnerung Ω B A Ω B A A A B Die Restmenge B ohne A ist B A := { ω B ω / A }. Sie besteht aus allen Elementen, die zwar in B nicht aber in A liegen. Die symmetrische Differenz entweder A oder B ist A B := (A B) (A B) = (A B) (B A). Sie besteht aus allen Elementen, die entweder in A oder in B liegen, aber nicht in beiden zugleich! Man nennt dies exklusives Oder. Rechenregeln für Vereinigung und Schnitt S4 Erinnerung Satz SA (Rechenregeln für Vereinigung und Schnitt ) Folgende nützliche Rechenregeln gelten für alle A, B, C Ω: Neutralität, Absorbtion, Idempotenz, Komplemente: A = A, A Ω = Ω, A A = A, A A = Ω A Ω = A, A =, A A = A, A A = Kommutativität: A B = B A, A B = B A Assoziativität: A (B C) = (A B) C, A (B C) = (A B) C Distributivität: A (B C) = (A B) (A C), A (B C) = (A B) (A C)

12 Rechenregeln für Komplement und Restmenge S5 Erinnerung Satz SB (Regeln von DeMorgan für Komplemente) Das Komplement einer Menge A in Ω ist definiert durch Ω A := A = { ω Ω ω / A }. Es gilt Ω = und = Ω sowie A = A. Für die Restmenge gilt B A = B A. Für je zwei Mengen A, B Ω gilt A B = A B, A B = A B. Allgemein: Für alle A, B, C Ω gilt C (A B) = (C A) (C B), C (A B) = (C A) (C B). Einfache Beispiele zu DeMorgan S6 Erinnerung Wie zuvor sei Ω = {,, 3, 4, 5, 6} sowie A = {, 4, 6} und B = {5, 6}. Das Komplement der Vereinigung ist der Schnitt der Komplemente: A B = {, 4, 5, 6} = {, 3} A B = {, 3, 5} {,, 3, 4} = {, 3} Das Komplement des Schnittes ist die Vereinigung der Komplemente: A B = {6} = {,, 3, 4, 5} A B = {, 3, 5} {,, 3, 4} = {,, 3, 4, 5} Man sieht insbesondere A B A B und A B A B. Diese Rechenregeln sind sehr einfach, sehr häufig und sehr nützlich. Sie schützen vor ärgerlichen Rechenfehlern und Trugschlüssen!

13 Rechnen mit Ereignissen S7 Alle Ergebnisse fassen wir zur Ergebnismenge Ω zusammen. Jedes Element ω Ω heißt Ergebnis. Jede Teilmenge A Ω heißt Ereignis. Menge Bedeutung als Zufallsereignis Ω Das sichere Ereignis: Ω tritt immer ein, P(Ω) =. Das unmögliche Ereignis: tritt nie ein, P( ) = 0. A Ω Das Ereignis A tritt ein bei jedem Ergebnis ω A. Ω A Das Ereignis A = Ω A tritt ein, wenn A nicht eintritt. A B Wenn A eintritt, dann auch B. B A Das Ereignis B tritt ein, aber nicht A. A B A B A B Die Ereignisse A und B treten beide ein. Das Ereignis A oder B tritt ein (oder auch beide). Entweder A oder B tritt ein (aber nicht beide). A B Das Ereignis A oder B tritt ein, wobei A B =. Bequeme Notation und präzises Rechnen mit Zufallsereignissen. Anwendungsbeispiel S8 Sie würfeln mit unserem gezinkten Würfel, p : {,, 3, 4, 5, 6} R mit p() = 0.5, p() = p(3) = p(4) = p(5) = 0.6, p(6) = 0. Aufgabe: Mit welcher Wahrscheinlichkeit ergibt unser gezinkter Würfel entweder eine gerade Zahl oder mindestens 5? (aber nicht beides!) Lösung: Gerade Zahl entspricht der Teilmenge A = {, 4, 6}. Das Ereignis mindestens 5 entspricht der Teilmenge B = {5, 6}. Entweder A oder B entspricht der symmetrischen Differenz: A B = (A B) (A B) = {, 4, 5, 6} {6} = {, 4, 5}. Die Wkt berechnen wir durch Aufsummieren der Elementarwkten: P(A B) = p() + p(4) + p(5) = = 0.48 Interpretation: Dieses Ereignis tritt in 48% aller Fälle ein. Bequeme Notation und präzises Rechnen mit Zufallsereignissen.

14 Wahrscheinlichkeit von Ergebnissen S9 Definition SC (diskrete Wahrscheinlichkeitsverteilung) Eine diskrete Wahrscheinlichkeitsverteilung ist eine Abbildung p : Ω [0, ] mit p(ω) =. ω Ω Für jedes Ereignis A Ω summieren sich die Elementarwkten: P : P(Ω) [0, ] mit P(A) := p(ω). ω A Ein solches Paar (Ω, P) heißt diskreter Wahrscheinlichkeitsraum. Jedem Ergebnis ω Ω wird die Elementarwahrscheinlichkeit p(ω) [0, ] zugeordnet. Beispiele: Für den fairen Würfel gilt p() = p() = p(3) = p(4) = p(5) = p(6) = /6, für unseren gezinkten p() = 0.5, p() = p(3) = p(4) = p(5) = 0.6, p(6) = 0.. Weitere typische Beispiele: Wir betrachten später die Verteilungen p : N [0, ] mit Elementarwkten p(k) = ( n k) t k ( t) k oder p(k) = e λ λ k /k! oder p(k) = q k ( q). Es handelt sich hierbei jeweils um die Binomialverteilung B(n, t) mit n N und t [0, ], die Poisson Verteilung P (λ) mit λ 0, und die geometrische Verteilung G(q) mit q [0, ]. Diese erfüllen p(k) 0 und ω Ω p(ω) =, wie gefordert. Versuchen Sie es als Übung! Wahrscheinlichkeit von Ereignissen Es gilt die Normierung P(Ω) = sowie P( ) = 0. Außerdem gilt P(A B) = P(A) + P(B) P(A B). Bei disjunkter Vereinigung addieren sich die Wahrscheinlichkeiten: P(A B) = P(A) + P(B) Per Induktion folgt aus paarweiser die endliche Additivität: P(A A A n ) = P(A ) + P(A ) + + P(A n ) S0 Erläuterung Bei diskreten Wahrscheinlichkeiten gilt sogar allgemeine Additivität: ( ) P A i = P(A i ). i I i I Hier bedeutet i A i = i A i mit A i A j = für i j. Die Indexmenge I ist beliebig. Für kontinuierliche Wahrscheinlichkeitsräume werden wir später Integrale statt Summen betrachten und uns (aus unumgänglichen technischen Gründen) auf abzählbare Vereinigungen beschränken müssen und können. Einstweilen ist alles noch diskret und somit besonders einfach.

15 Diskrete Wahrscheinlichkeitsräume S Erläuterung Auch die Zuordnung A P(A) wollen wir als Abbildung auffassen. Wir fassen alle Ereignisse A Ω zur Ereignismenge zusammen. Zur gegebenen Ergebnismenge Ω ist dies hier die Potenzmenge P(Ω) := { A A Ω }. Definition SD (diskreter Wahrscheinlichkeitsraum) Ein diskretes WMaß ist eine Abbildung P : P(Ω) [0, ] für die gilt: Normierung: Es gilt P(Ω) = für die Gesamtmenge Ω. Additivität: Es gilt P(A) = ω A P({ω}) für jedes A Ω. Ein diskreter Wahrscheinlichkeitsraum (Ω, P) besteht aus einer (nicht-leeren) Menge Ω von möglichen Ergebnissen und einem diskreten WMaß P : P(Ω) [0, ] wie oben erklärt. Diese einfache Definition fasst unsere bisherigen Überlegungen zusammen. Sie ist ausreichend flexibel für viele Anwendungen und legt einen präzisen und bequemen Sprachgebrauch fest. Bei diskreten WRäumen ist P bestimmt durch die Elementarwkten p(ω) := P({ω}) für ω Ω. Neben diskreten werden wir später auch kontinuierliche WMaße kennenlernen. Eigenschaften von Wahrscheinlichkeitsmaßen 0 Unmögliches Ereignis: Sicheres Ereignis: Komplement: 3 Monotonie: 4 Restmenge: 5 Vereinigung: 6 Disjunke Vereinigung: P( ) = 0 P(Ω) = P(Ω A) = P(A) A B = P(A) P(B) P(B A) = P(B) P(B A) P(A B) = P(A) + P(B) P(A B) P(A B) = P(A) + P(B) wegen A B = S Erläuterung

16 Endliche WRäume und Gleichverteilung S3 Definition SE (endlicher WRaum und Gleichverteilung) Ein Wahrscheinlichkeitsraum (Ω, P) heißt endlich, wenn die Ergebnismenge Ω endlich ist, und Laplacesch, wenn zudem alle Ergebnisse ω Ω gleich wahrscheinlich sind: P({ω}) = Ω Für dieses Laplace Wahrscheinlichkeitsmaß auf Ω gilt daher P(A) = A Ω = Anzahl der Ergebnisse in A Anzahl aller Ergebnisse in Ω = günstige Ergebnisse mögliche Ergebnisse. Dies nennen wir auch die endliche Gleichverteilung auf Ω. Beispiel: Der Wurf eines fairen Würfels ist ein Laplace Experiment auf Ω = {,,..., 6}, der Wurf unseres gezinkten Würfels hingegen nicht. Roulette ist ein Laplace Experiment auf Ω = {0,,,..., 36}. Hingegen sind {rot, schwarz, zero} nicht gleichwahrscheinlich. Zweimaliger Wurf eines fairen Würfels S4 Aufgabe: Sie würfeln zweimal. Beschreiben Sie dies als WRaum. Lösung: Als Ergebnismenge Ω betrachten wir hierzu (, ), (, ), (, 3), (, 4), (, 5), (, 6), (, ), (, ), (, 3), (, 4), (, 5), (, 6), (3, ), (3, ), (3, 3), (3, 4), (3, 5), (3, 6), Ω = (4, ), (4, ), (4, 3), (4, 4), (4, 5), (4, 6), (5, ), (5, ), (5, 3), (5, 4), (5, 5), (5, 6), (6, ), (6, ), (6, 3), (6, 4), (6, 5), (6, 6) Wir nehmen an, beide Würfe seien gleichverteilt und unabhängig. Es handelt sich demnach bei (Ω, P) um ein Laplace Experiment! Aufgabe: Welche Wkt hat die Augensumme, 3, 4,...,? Lösung: Wir untersuchen das Ereignis A k = Die Augensumme ist k. A = {(, )}, P(A ) = A / Ω = /36 A 3 = {(, ), (, )}, P(A 3 ) = A 3 / Ω = /36 A 4 = {(, 3), (, ), (3, )}, P(A 4 ) = A 4 / Ω = 3/36 A 5 = {(, 4), (, 3), (3, ), (4, )}, P(A 5 ) = A 5 / Ω = 4/36

17 Zweimaliger Wurf eines fairen Würfels S5 Alle Ergebnisse (i, j) {,, 3, 4, 5, 6} sind gleichwahrscheinlich, die zugehörigen Augensummen i + j hingegen nicht! 6/36 5/ Wahrscheinlichkeit 4/36 3/36 / / Augensumme bei zwei unabhängigen Würfen Dreimaliger Wurf eines fairen Würfels Bei dreimaligem Würfeln sind alle Ergebnisse (i, j, k) {,, 3, 4, 5, 6} 3 gleichwahrscheinlich, die Augensummen i + j + k hingegen nicht! S6 Wahrscheinlichkeit Augensumme bei drei unabhängigen Würfen

18 Viermaliger Wurf eines fairen Würfels S7 Erläuterung Die hier entstehende Glockenkurve wird uns noch beschäftigen: Sie illustriert den zentralen Grenzwertsatz VA, kurz ZGS. 0.0 Wahrscheinlichkeit Augensumme bei vier unabhängigen Würfen Zehnmaliger Wurf eines fairen Würfels S8 Hier entsteht (in brauchbarer Näherung) die gaußsche Glockenkurve! Gilt das immer? Können Sie das effizient nutzen? Ja! Das ist unser Ziel Wahrscheinlichkeit Augensumme bei zehn unabhängigen Würfen

19 Kombinatorik der Augensumme beim Würfeln S9 Übung Aufgabe: Auf wie viele Weisen kann man die Augensumme s erhalten bei einmaligem Würfeln? zweimaligem Würfeln? dreimaligem Würfeln? Lösung: () Bei einmaligem Würfeln ist alles klar: Augensumme s = Möglichkeiten n s = Die Wkt ist jeweils P(S = s) = /6. Hier haben wir Gleichverteilung. Bei zweimaligem Würfeln rechnen wir wie zuvor erklärt: Die Summe der Augenzahlen entspricht der Faltung der Verteilung () mit sich selbst. Augensumme s = Möglichkeiten n s = Die Wkt ist jeweils P(S = s) = n s /6, also keine Gleichverteilung mehr! Die Wkt ist am größten für die Augensumme 7, und zwar mit Wkt /6. Kombinatorik der Augensumme beim Würfeln S30 Übung Bei dreimaligem Würfeln müssen wir die Rechnung gut organisieren. Beispiel: Auf wie viele Weisen kann die Augensumme 0 entstehen? Je nach erstem Wurf 0 = + 9 = + 8 = = = = 6 + 4, also = 7 Möglichkeiten (siehe vorige Tabelle). Die Wkt ist daher P(S = 0) = 7/6 3 = /8 = 0.5. Nach diesem Schema berechnen wir die folgende Tabelle: Die Summe der Augenzahlen entspricht der Faltung der Verteilungen () und (). (Hier kann eine Tabellenkalkulation helfen, zum Beispiel LibreOffice.) Augensumme s = Möglichkeiten n s = Die Wkt ist jeweils P(S = s) = n s /6 3, wie oben graphisch dargestellt. Wie zu erwarten ist die Wkt am größten für die mittleren Augensummen 0 und, und zwar jeweils mit Wkt /8. Jetzt können Sie s ausrechnen!

20 Kombinatorik der Summe beim fairen Münzwurf S3 Übung Würfelexperimente sind schön anschaulich, die Rechnungen sind nicht ganz banal und illustrieren bereits viele wichtige Phänomene. Der Münzwurf ist wesentlich leichter und als Modell noch wichtiger: Aufgabe: Sie werfen n mal eine faire Münze: 0 = Kopf, = Zahl. Die Summe der Treffer bezeichnen wir mit S n {0,,..., n}. () Berechnen Sie die Wkt P(S n = k) für alle 0 k n. () Skizzieren Sie die Verteilung der Zufallsvariablen S, S, S 3, S 4,... Lösung: () Für unabhängig wiederholte faire Münzwürfe finden wir: ( )( ) n n P(S n = k) = k Die Binomialverteilung ( n k) t k ( t) n k ist ein wichtiges Modell. Wir werden sie in den nächsten Kapiteln ausführlich untersuchen. Kombinatorik der Summe beim fairen Münzwurf S3 Übung 0.5 n = 0 n = 40 n = 60 Wahrscheinlichkeit Trefferzahl k

21 Bedingte Wahrscheinlichkeit S0 Häufig steht man vor der Aufgabe, nach Eintritt eines Ereignisses auf die Wahrscheinlichkeit eines anderen Ereignisses zu schließen. Aufgabe: Angenommen, beim Würfeln wurde nicht die 6 gewürfelt. Wie groß ist dann noch die Wahrscheinlichkeit einer geraden Zahl? Lösung: Wir setzen voraus, das Ereignis B = {,, 3, 4, 5} tritt ein. Zum Ereignis A = {, 4, 6} suchen wir die bedingte Wkt P B (A). Ergebnis ω = ursprüngliche Wkt P({ω}) = bedingte Wkt P B ({ω}) = Die gesuchte Wkt ist demnach P B (A) = /5 + /5 = /5 = 40%. Interpretation: Sie würfeln sehr häufig und werten nur die Fälle, die Bedingung B erfüllen. In 5 dieser Fälle erhalten wir eine gerade Zahl. In den restlichen 3 5 dieser Fälle erhalten wir eine ungerade Zahl. Bedingte Wahrscheinlichkeit Wie zuvor erklärt, beginnen wir mit einem stochastischen Modell, also einem Wahrscheinlichkeitsraume (Ω, P) gemäß Definition SC. Definition SA (bedingte Wahrscheinlichkeit) Sei (Ω, P) ein Wahrscheinlichkeitsraum und B Ω ein Ereignis mit Wahrscheinlichkeit P(B) > 0. Für jedes Ereignis A Ω definieren wir die Wahrscheinlichkeit von A unter der Bedingung B durch S0 P(A B) := P B (A) := P(A B). P(B) Beispiel: In der vorigen Aufgabe finden wir P ( A B ) = P(A B) P(B) = P({, 4}) P({,, 3, 4, 5}) = /6 5/6 = 5 = 40%. Bequeme Notation und präzises Rechnen mit Zufallsereignissen. Die Rechnung ist meist leicht, die Interpretation erfordert Übung. Die Definition SA stellt eindeutig klar, was gemeint ist.

22 Rechenregeln für bedingte Wahrscheinlichkeiten S03 Erläuterung Aufgabe: Ist P B : P(Ω) [0, ] ein Wahrscheinlichkeitsmaß? Lösung: Ja, denn P B erfüllt die beiden definierenden Eigenschaften: Normierung: Es gilt P B (Ω) = P(Ω B) P(B) = P(B) P(B) =. Additivität: Für A, A Ω mit A A = gilt P B (A A ) = P((A A ) B) P(B) = P((A B) (A B)) P(B) = P(A B) + P(A B) P(B) = P(A B) P(B) + P(A B) P(B) = P B (A ) + P B (A ). Entsprechendes gilt für (abzählbare) disjunkte Vereinigungen. Aus diesen beiden Eigenschaften folgen alle weiteren Rechenregeln. Baummodell und Pfadfinderregeln S04 B Wkt P(B) A Wkt P(A B) A Wkt P(A B) P(A B) = P(A B) P(B) P(A B) = P(A B) P(B) B Wkt P(B) A Wkt P(A B) A Wkt P(A B) P(A B) = P(A B) P(B) P(A B) = P(A B) P(B) Produkteregel: Die Wkt jedes Blattes ist das Produkt der bedinten Wkten entlang des Pfades. Summenregel: Die Wkt eines Ereignisses A ist die Summe der Wkten aller Pfade, die zu A führen. Implizite Voraussetzung: Diese Zerlegung muss ganz A überdecken und disjunkt sein!

23 Die Formel der totalen Wahrscheinlichkeit S05 Sei Ω = B B B l eine Zerlegung in disjunkte Ereignisse. Das heißt, es gilt Ω = B B B l mit B i B j = für i j. Dies zerlegt jedes Ereignis A Ω in disjunkte Teilmengen A k = A B k : B A B A A B 3 A B B B 3 A = (A B ) (A B ) (A B l ) Hieraus folgt die Formel der totalen Wahrscheinlichkeit: P(A) = l k= P(A B k) = l k= P(A B k) P(B k ) Diese Formel entspricht dem Baumdiagramm für Ω = B B B l. Sie gilt auch noch für P(B k ) = 0, wobei wir P(A B k )P(B k ) = 0 setzen. Strategie: Zerlegung des Problems in kleine, einfachere Teilprobleme! Beispiel zur totalen Wahrscheinlichkeit S06 Aufgabe: Aus einer Urne mit zwei roten und drei schwarzen Kugeln ziehen wir nacheinander zufällig zwei Kugeln ohne Zurücklegen. Mit welcher Wkt haben beide die gleiche Farbe? Lösung: Sei G = {Beide Kugeln haben die gleiche Farbe} sowie R = {Erste Kugel ist rot} und S = {Erste Kugel ist schwarz}. Dies ist eine Zerlegung, denn R S = und R S = Ω. Wir wissen: P(R) = 5, P(S) = 3 5, P(G R) = 4, P(G S) = 4 Hieraus berechnen wir mühelos die totale Wahrscheinlichkeit: P(G) = P(G R) P(R) + P(G S) P(S) = = Bedingte Wkten strukturieren und vereinfachen die Rechnung! = 5

24 Die Formel von Bayes: Es lebe der Dreisatz! S07 Für alle Ereignisse A, B Ω mit P(A), P(B) > 0 gilt: P(A B) P(B) P(B A) P(A) Def = Def = P(A B) P(B) P(B) = P(A B) P(A B) P(A) P(A) = P(A B) Durch Umstellen gewinnen wir hieraus die Formel von Bayes: P(B A) = P(A B) P(B) P(A) Dies erlaubt das Umkehren von Bedingung und Schlussfolgerung nicht im kausalen Sinne, aber immerhin im stochastischen Sinne. Typische Anwendung: Wir kennen die Wkten P(A) und P(B), die Bestimmung von P(A B) ist leicht, aber gesucht ist P(B A). Um durch P(A) zu dividieren, müssen wir P(A) > 0 voraussetzen. Die Formel gilt auch für P(B) = 0, wenn man P(A B) P(B) = 0 setzt. Anschaulich in obiger Graphik zu A = (A B ) (A B l ). Die Formel von Bayes: Zusammenfassung Soweit ist alles klar und einfach, die Formel von Bayes ist sehr leicht. In vielen Anwendungen entfaltet sie eine enorme Durchschlagskraft. Satz SB (Bayes 763) Sei (Ω, P) ein Wahrscheinlichkeitsraum und Ω = B B B l eine Zerlegung, also Ω = B B B l mit B i B j = für i j. Für alle A Ω gilt dann die Formel der totalen Wahrscheinlichkeit: P(A) = l k= P(A B k) = l k= P(A B k) P(B k ) Im Falle P(A) > 0 gilt zudem die Formel von Bayes: S08 P(B i A) = P(A B i) P(B i ) P(A) = P(A B i ) P(B i ) l k= P(A B k) P(B k ) Alles gilt wörtlich genauso für abzählbare Zerlegungen, also l =. Bequeme Notation und präzises Rechnen mit Zufallsereignissen. Die Rechnung ist meist leicht, die Interpretation erfordert Übung.

25 Anwendung: ein Urnenmodell S09 X Y Urne X: 4 rote und 6 schwarze; Urne Y : 4 rote und schwarze Kugel. Wir wählen zufällig eine Urne X, Y und ziehen daraus eine Kugel. Aufgabe: () Welche Wkt hat das Ereignis R = {rote Kugel}? () Es wurde eine rote Kugel gezogen. Mit welcher Wkt aus Urne X? Lösung: Dank Bayes ist die Rechnung leicht: P(R) = P(R X) P(X) + P(R Y ) P(Y ) = P(X R) = P(R X) P(X) P(R) = = 3 5 = = 3 Die Rechnung ist hier leicht, die Interpretation erfordert Übung. Anwendung: Bestehen von Prüfungen Zu einer Prüfung treten drei Typen von Teilnehmern an: 0% sind gut vorbereitet und haben Erfolgswkt 00% (Typ A), 50% sind etwas vorbereitet und haben Erfolgswkt 60% (Typ B), 40% sind schlecht vorbereitet und haben Erfolgswkt 5% (Typ C). Aufgabe: () Wie groß ist der Anteil der erfolgreichen Teilnehmer E? () Wie groß ist darunter jeweils der Anteil der Typen A, B, C? Lösung: Die Gesamtmenge wird disjunkt zerlegt in Ω = A B C. () Nach der Formel für die totale Wahrscheinlichkeit gilt: P(E) = P(E A) P(A) + P(E B) P(B) + P(E C) P(C) = = 0.5 () Nach Bayes berechnen wir hieraus folgende Verteilung: P(A E) = P(E A) P(A) / P(E) = 0. P(B E) = P(E B) P(B) / P(E) = 0.6 P(C E) = P(E C) P(C) / P(E) = 0. S0 Übung

26 Anwendung: Test für eine seltene Krankheit S Eine bestimmte Krankheit tritt bei % aller Personen (zufällig) auf. Nimmt man frühzeitig ein (teures) Medikament, so ist die Genesung schneller. Ein Testverfahren für diese Krankheit liefert ein positives Ergebnis bei 98% aller kranken, aber auch bei 5% aller gesunden Personen. Aufgabe: () Welche Wkt haben positive Tests? () Wie groß ist die Wkt, dass eine Person mit positivem Testergebnis krank ist? gesund ist? Lösung: Für das Ereignis K = {krank} wissen wir P(K) = 0.0. Für P = {positiver Test} gilt P(P K) = 0.98 und P(P K) = () Hieraus folgt zunächst die totale Wahrscheinlichkeit P(P ) = P(P K) P(K) + P(P K) P(K) = = % () Die gesuchte Wahrscheinlichkeit P(K P ) erhalten wir mit Bayes: P(K P ) = P(P K) P(K) P(P ) = % Komplementär P(K P ) 83%. In diesem Beispiel ist eine positiv getestete Person mit größerer Wahrscheinlichkeit gesund als krank! Anwendung: Test für eine seltene Krankheit S Erläuterung Wissen macht Ah! Unwissen macht Aua! Unkenntnis führt zu Fehleinschätzung und schlimmer noch zu Fehlentscheidungen. Es muss eine Entscheidung getroffen werden. Was würden Sie entscheiden bzw. empfehlen? Ist unser Ergebnis plausibel? Naiv würde man davon ausgehen, dass obiger Test recht zuverlässig ist und dem Testergebnis vertrauen. Das Problem hierbei ist, dass die Krankheit eher selten ist. Die weitaus meisten der getesteten Personen sind gesund. Hier hat der Test eine recht hohe Fehlerwahrscheinlichkeit von 5% falsch positiv zu testen. Das kommz insgesamt häufig vor. Diese qualitative Vorüberlegung erklärt das Problem einigermaßen anschaulich. Unsere Rechnung bestätig dies und liefert zudem eine quantitative Aussage. Obwohl die Krankheit mit % recht selten ist, werden etwa 6% aller Personen positiv getestet; das liegt daran, dass von den 99% gesunden 5% falsch positiv getestet werden (Fehler. Art). Dies erklärt ganz allgemein, dass Tests für seltene Krankheiten nur sehr geringe Fehlerwahrscheinlichkeiten haben dürfen. Ein positiver Test ist daher nur ein erstes (schwaches) Indiz, dass die Krankheit vorliegen könnte: Die Wahrscheinlichkeit, krank zu sein, steigt von % vor dem Test auf 7% nach einem positiven Test. Entsprechend sinkt die Wahrscheinlichkeit, gesund zu sein, von 99% vor dem Test auf 83% nach einem positiven Test. Meist wird man versuchen, den Verdacht durch weitere, unabhängige (und wenn möglich genauere) Untersuchungen zu erhärten oder auszuräumen. Dank der Formel von Bayes sind solche Rechnungen meist leicht und doch oft überraschend. Üben Sie sich mit diesem Werkzeug!

27 Das Ziegenproblem S3 Übung Bei der Spielshow Let s make a deal wählt der Kandidat zwischen drei Türen: Hinter einer ist ein Auto, hinter den beiden anderen sind Ziegen. 3 Der Kandidat wählt eine Tür. Der Showmaster weiß, was hinter den Türen ist, und öffnet eine der beiden anderen Türen, immer mit Ziege. Er bietet dem Kandidaten nun die Möglichkeit zu wechseln. Aufgabe: Ist es vorteilhaft, die Tür zu wechseln? Lösung: Unglaublich aber wahr: Ja! Das Ziegenproblem: anschauliche Erklärung S4 Übung () Anschauliche Darstellung der Wahrscheinlichkeiten: Der Kandidat wählt Tür, diese hat Gewinnwkt /3, die beiden anderen zusammen /3. Das bleibt auch so, nachdem der Moderator eine Ziegentür öffnet. /3 /3 3 /3 /3 /3 /3 0 Bildquelle: wikipedia.org () Experimenteller Vergleich bei 3000 Spielshows: Die Strategie nie wechseln erzielt etwa 000 Treffer (ein Drittel). Die Strategie immer wechseln erzielt die verbleibenden 000 Treffer. Entgegen dem naiven ersten Eindruck ist es tatsächlich die bessere Strategie, die anfangs gewählte Tür im zweiten Schritt zu wechseln!

28 Das Ziegenproblem: Anwendung von Bayes S5 Übung Aufgabe: Lösen Sie das Ziegenproblem mit der Formel von Bayes. Lösung: Wir betrachten die Ereignisse: A, A, A 3 = Das Auto steht hinter Tür,, 3 Annahme der Gleichverteilung: P(A ) = P(A ) = P(A 3 ) = /3 Der Kandidat wählt Tür. Wie kann der Moderator reagieren? M, M, M 3 = Der Moderator öffnet Tür,, 3 Annahme der Gleichverteilung auch bei der Türöffnung: P(M A ) = /, P(M A ) = 0, P(M A 3 ) =, P(M 3 A ) = /, P(M 3 A ) =, P(M 3 A 3 ) = 0. Beide Annahmen kann der Kandidat erzwingen, indem er die drei Türen für seinen Gebrauch zufällig nummeriert, also symmetrisiert. Der Moderator öffnet demnach Tür oder Tür 3 jeweils mit Wkt /: P(M 3 ) = P(M 3 A )P(A ) + P(M 3 A )P(A ) + P(M 3 A 3 )P(A 3 ) = =. Das Ziegenproblem: Anwendung von Bayes S6 Übung Angenommen der Moderator öffnet Tür 3. Was sollte der Kandidat tun? Die Formel von Bayes ergibt für die Gewinnwkt der Türen und : P(A M 3 ) = P(M 3 A ) P(A ) P(M 3 ) P(A M 3 ) = P(M 3 A ) P(A ) P(M 3 ) = 3 = 3 = 3 = 3 Das entspricht der anschaulichen Erklärung, wie oben skizziert. Es ist also tatsächlich vorteilhaft zu wechseln! Die Rechnung in allen anderen Fällen verläuft aus Symmetriegründen genauso. Ein häufiger Einwand gegen diese Rechnung ist folgender: Was wäre, wenn der Moderator die beiden Türen ungleich öffnet? Sei allgemein P(M A ) = α [0, ] und P(M 3 A ) = α. Wir haben oben vereinfachend α = / angenommen. Die allgemeine Rechnung verläuft so: Zunächst folgt P(M ) = ( + α)/3 und P(M 3 ) = ( α)/3. Die obige Rechnung ergibt nun P (A M 3 ) = ( α)/( α) und P (A M 3 ) = /( α). Es ist auch hier immer noch vorteilhaft zu wechseln! Der Sonderfall α = 0 bedeutet: Hat der Moderator die Wahl, Tür oder 3 zu öffnen, dann nimmt er immer Tür 3. Hier gilt Gleichstand P (A M 3 ) = P (A M 3 ) = /. In allen verbleibenden Fällen muss der Moderator Tür öffnen, und hier gilt P (A M ) = 0 gegen P (A 3 M ) =. Über alle Fälle summiert bleibt die Schlussfolgerung bestehen!

29 Stochastisch unabhängige Ereignisse S7 Wir betrachten weiterhin einen WRaum (Ω, P) gemäß SC. Zwei Ereignisse A und B sind stochastisch unabhängig, wenn die Wahrscheinlichkeit von A nicht von B abhängt: P(A B) = P(A) Das setzt P(B) > 0 voraus und bedeutet ausgeschrieben: P(A B) P(B) = P(A), also P(A B) = P(A) P(B). Dies machen wir nun zur Definition: Definition SC (stochastisch unabhängige Ereignisse) Sei (Ω, P) ein Wahrscheinlichkeitsraum und A, B Ω zwei Ereignisse. Wir nennen A und B (stochastisch) unabhängig bezüglich P, wenn P(A B) = P(A) P(B). In Worten: Die Wkt des Schnitts A B ist das Produkt der Wkten. Andernfalls heißen die Ereignisse A und B (stochastisch) abhängig. Stochastisch unabhängige Ereignisse S8 Aufgabe: Sie würfeln einmal mit einem fairen Würfel. Dies ist ein Laplace Experiment auf Ω = {,, 3, 4, 5, 6}. A := {gerade Zahl} = {, 4, 6} B := {nicht die 6} = {,, 3, 4, 5} Sind A und B stochastisch unabhängig? Lösung: Wir finden zunächst A B = {, 4}. Es gilt P(A) = und P(B) = 5 6, aber P(A B) = Die Ereignisse A und B sind demnach stochastisch abhängig. Anschaulich scheint das klar, man muss es nur ausrechnen. Quantitativer Vergleich: P(A) = aber P(A B) = 5. Das Eintreten von Ereignis B verändert die Wkt von A. Quantitativer Vergleich: P(B) = 5 6 aber P(B A) = 3. Das Eintreten von Ereignis A verändert die Wkt von B.

30 Stochastisch unabhängige Ereignisse S9 Aufgabe: Sie würfeln zweimal mit einem fairen Würfel. Dies ist ein Laplace Experiment auf Ω = {,, 3, 4, 5, 6}. A := {Die erste Augenzahl ist gerade} B := {Die Augensumme ist gerade} Sind A und B stochastisch unabhängig? Lösung: Wir haben A B = {Beide Augenzahlen sind gerade}. Somit finden wir P(A) = und P(B) = sowie P(A B) = 4 =. Die Ereignisse A und B sind demnach stochastisch unabhängig. Anschaulich ist das vielleicht etwas überraschend. Quantitativer Vergleich: P(A) = und P(A B) =. Quantitativer Vergleich: P(B) = und P(B A) =. Die Ereignisse A und B scheinen sich zu beeinflussen, doch sie sind stochastisch unabhängig! Es geht bei der stochastischen Unabhängigkeit nicht um Kausalität, sondern allein um die Multiplikativität der Wahrscheinlichkeiten. Die Ereignisse A und B mögen noch so raffiniert miteinander verknüpft sein, doch es zählt allein die Gleichung P(A B) = P(A) P(B). Stochastisch unabhängige Ereignisse Aufgabe: Sie würfeln zweimal mit einem fairen Würfel. Sei X die erste Augenzahl, Y die zweite, S = X + Y ihre Summe. () Sind die Ereignisse X = 3 und S = 7 stochastisch unabhängig? () Sind die Ereignisse X = 3 und S = 6 stochastisch unabhängig? (3) Berechnen und interpretieren Sie die bedingten Wkten. Lösung: () Wir wissen P(X = 3) = 6 und P(S = 7) = 6 sowie P( X = 3 und S = 7 ) = P({(3, 4)}) = 36 = unabhängig. () Wir wissen P(X = 3) = 5 6 und P(S = 6) = 36 sowie P(X = 3 und S = 6) = P({(3, 3)}) = 36 = abhängig. (3) Es gilt P(S = 7 X = 3) = 6 = P(S = 7) und P(X = 3 S = 7) = 6 = P(X = 3). Es gilt P(S = 6 X = 3) = 6 P(S = 6) und P(X = 3 S = 6) = 5 P(X = 3). Nochmal zur Betonung: Es geht bei der stochastischen Unabhängigkeit nicht um Kausalität! Die Ereignisse mögen noch so raffiniert miteinander verwoben sein, für die stochastische Unabhängigkeit zählt allein die Multiplikativität der Wahrscheinlichkeiten. So einfach ist das. S0 Übung

31 Unabhängigkeit von Ereignissen S Aufgabe: Sind folgende Ereignisse A, B stochastisch unabhängig? Wkt B B gesamt A A gesamt Lösung: Ja! Aus P(A), P(B) und Multiplikativität folgt die Tabelle. Aufgabe: Sind folgende Ereignisse X, Y stochastisch unabhängig? Wkt Y Y gesamt X X gesamt Lösung: Nein! Multiplikativität gilt nicht, X, Y sind abhängig. Unabhängigkeit von Ereignissen S Erläuterung Lemma SD (Komplemente) Sind (A, B) unabhängig, dann auch (A, B) und (A, B) sowie (A, B). Außerdem ist jedes Ereignis A von unabhängig, ebenso von Ω. Aufgabe: Rechnen Sie dies sorgfältig nach! Lösung: P(A B) = P(A (A B)) = P(A) P(A B) = P(A) P(A) P(B) = P(A)( P(B)) = P(A) P(B) Jedes Ereignis A ist von stochastisch unabhängig: P(A ) = P( ) = 0 = P(A) P( ) Jedes Ereignis A ist von Ω stochastisch unabhängig: P(A Ω) = P(A) = P(A) P(Ω) Zusammengefasst: Jedes der Ereignisse, A, A, Ω ist stochastisch unabhängig von jedem der Ereignisse, B, B, Ω. Das nützt gelegentlich.

32 Unabhängigkeit von Ereignissen S3 Aufgabe: Wie können Sie die Tabelle füllen? bei Unabhängigkeit? Wkt B B ges. A 0.36 A ges. 0.5 Wkt B B ges. A A ges Wkt B B ges. A A ges Ohne die Voraussetzung der Unabhängigkeit sind die rot markierten Einträge nicht eindeutig: Man kann einen beliebiges Feld aussuchen und frei festlegen im offensichtlichen Intervall! Bei Unabhängigkeit hingegen gibt es jeweils nur eine Lösung! (hier grün) Raffinierteres Beispiel: Gleiches gilt bei der nächsten Frage, es gibt aber zwei Lösungen (quadratische Gleichung). Wkt B B ges. A 0. A 0.3 ges. Wkt B B ges. A A ges Wkt B B ges. A A ges Unabhängigkeit von Ereignissen S4 Übung Aufgabe: Drei Absender schreiben je einen Brief an einen von zwei Empfängern. Die Wahlen sind zufällig, gleichverteilt und unabhängig. () Berechnen Sie P(A ), P(A ), P(A A ) für die Ereignisse A i = {Der Empfänger i erhält mindestens einen Brief}. () Sind A, A stochastisch unabhängig? (3) Was gilt für n Absender? Lösung: Es gibt 3 = 8 gleichwahrscheinliche Zuordnungen: (,, ) (,, ) (,, ) (,, ) (,, ) (,, ) (,, ) (,, ) () Demnach finden wir P(A ) = P(A ) = 7/8 und P(A A ) = 6/8. () Wegen 7/8 7/8 6/8 sind A, A stochastisch abhängig. (3) Allgemein P(A ) = P(A ) = n und P(A A ) = n. Unabhängigkeit gilt hierbei nie, aber die Abhängigkeit nimmt ab: Für n gilt P(A ) P(A )/P(A A ). Das ist plausibel!

33 Unabhängigkeit mehrerer Ereignisse S5 Zwei Ereignisse A, B sind unabhängig, wenn gilt: P(A B) = P(A) P(B) Drei Ereignisse A, B, C sind unabhängig, wenn gilt: P(A B) = P(A) P(B) P(A C) = P(A) P(C) P(B C) = P(B) P(C) P(A B C) = P(A) P(B) P(C) Die Tripelbedingung folgt nicht aus den drei Paarbedingungen! Sie kennen dieses Problem von linearer Unabhängigkeit von Vektoren. Definition SE (stochastische Unabhängigkeit) Sei (Ω, P) ein Wahrscheinlichkeitsraum. Eine Familie von Ereignissen A, A,..., A n Ω heißt (stochastisch) unabhängig, wenn folgende Produktformel für jede Auswahl i < i < < i l n gilt: P(A i A i A il ) = P(A i ) P(A i ) P(A il ) Unabhängigkeit mehrerer Ereignisse S6 Sie werfen zweimal eine faire Münze: 0 = Kopf, = Zahl. Aufgabe: Sind folgende Ereignisse (A, B, C) unabhängig? A = {Zahl beim ersten Wurf} = {(, 0), (, )} B = {Zahl beim zweiten Wurf} = {(0, ), (, )} C = {gleiches Ergebnis bei beiden Würfen} = {(0, 0), (, )} Welche dieser drei Paare sind unabhängig? Ist das Tripel unabhängig? Lösung: Der Ergebnisraum ist Ω = {0, } mit Gleichverteilung. Wir berechnen die erforderlichen Wahrscheinlichkeiten: P(A) = P(B) = P(C) =, P(A B) = P(A C) = P(B C) = 4, P(A B C) = 4 und P(A) P(B) P(C) = 8. Jedes der Paare (A, B) und (A, C) und (B, C) ist unabhängig. Das Tripel (A, B, C) ist nicht unabhängig! Lesen Sie die Definition! Sie kennen dieses Problem von linearer Unabhängigkeit von Vektoren.

34 Unabhängigkeit mehrerer Ereignisse S7 Übung Aufgabe: In einer Urne befinden sich die Lose,,,. Sei A i das Ereignis an i ter Stelle. Sind A, A unabhängig? und A, A 3? und A, A 3? Sind A, A, A 3 unabhängig? Lösung: Wir finden P(A ) = P(A ) = P(A 3 ) = / und P(A A ) = P(A A 3 ) = P(A A 3 ) = /4: Die Ereignisse A, A, A 3 sind paarweise unabhängig. Es gibt kein Los, daher gilt P(A A A 3 ) = 0: Das Tripel (A, A, A 3 ) ist insgesamt nicht unabhängig. Aufgabe: Sie würfeln zweimal mit einem fairen Würfel. Berechnen Sie die Wkten von A = {erster gerade} und B = {zweiter ungerade} und C = {Summe gleich 7} und ihrer Schnitte. Sind A, B, C unabhängig? Lösung: Wir finden P(A) = P(B) = / und P(C) = /6 sowie P(A B) = /4 und P(A C) = P(B C) = P(A B C) = /: Die Familie (A, B, C) ist paarweise unabhängig, aber nicht unabhängig. Unabhängigkeit mehrerer Ereignisse S8 Übung Aufgabe: Wir würfeln zweimal mit einem fairen Würfel. Berechnen Sie die Wkten von A = {erster gerade} und B = {zweiter oder 5} und C = {Summe gleich 7} und ihrer Schnitte. Sind A, B, C unabhängig? Lösung: Wir finden P(A) = / und P(B) = /3 und P(C) = /6 sowie P(A B) = /6 und P(A C) = / und P(B C) = /8 und P(A B C) = /36. Die Familie (A, B, C) ist also unabhängig. Aufgabe: Seien (A, B, C) drei unabhängige Ereignisse A, B, C Ω. Sind dann auch die folgenden Tripel von Ereignissen unabhängig? () (A, C, B), () (B, A, C), (3) (A, B, C), (4) (A, B, C) Lösung: Ja! Alle Bedingungen in der Definition der Unabhängigkeit sind invariant unter Vertauschung (,). Wir rechnen (3) exemplarisch nach: P(A B C) = P((A B) (A B C)) = P(A B) P(A B C) = P(A) P(B) P(A) P(B) P(C) = P(A) P(B) ( P(C)) = P(A) P(B) P(C)

35 Die Siebformel S9 Übung Aufgabe: () Erklären Sie graphisch und rechnerisch die Siebformel: P(A B C) = + P(A) + P(B) + P(C) P(A B) P(A C) P(B C) + P(A B C) () Was erhalten Sie im Spezialfall, wenn A, B, C unabhängig sind? (3) Formulieren und erklären Sie diese Formel für P(A B C D). (4) Formulieren Sie die allgemeine Siebformel: Aus A = n i= A i folgt n i= (I A I Ai ) = 0 und somit I A = =I {,...,n} ( ) I I AI. Lösung: (a) Die Summe P(A) + P(B) + P(C) zählt manche Elemente doppelt oder gar dreifach. Nach Korrektur P(A B) P(A C) P(B C) zählen die Elemente in A B C gar nicht mehr. Nach Korrektur +P(A B C) stimmt alles. B C A Die Siebformel S30 Übung (b) Wir nutzen P(A B) = P(A) + P(B) P(A B) und finden: P(A B C) = P(A B) + P(C) P((A B) C) = P(A) + P(B) P(A B) + P(C) P((A C) (B C)) = P(A) + P(B) + P(C) P(A B) P(A C) P(B C) + P(A B C) () Sind A, B, C unabhängig, so finden wir hier die vertraute Formel P(A B C) = [ P(A)][ P(B)][ P(C)]. (4) Für A,..., A n Ω und A = n i= A i gilt n i= (I A I Ai ) = 0, denn für jedes x A ist mind. ein Faktor Null. Für jede Indexmenge I {,..., n} sei A I := i I A i die zugehörige Schnittmenge. Wir erhalten folgende Siebformel, auch Inklusions-Exklusions-Prinzip: I A = =I {,...,n} ( ) I I AI, ( n ) P A i = i= =I {,...,n} ( ) I P(A I ).

36 Siebformel vs Produktformel S3 Übung Aufgabe: (nach Lewis Carroll) Projekte im Research & Development leiden erfahrungsgemäß zu 70% an irrealen Zielen, 75% an schlechter Kommunikation, 80% an Missmanagement, 85% an Zeitmangel. Wie viele Projekte leiden sowohl an irrealen Zielen, an schlechter Kommunikation, an Missmanagement als auch an Zeitmangel? () höchstens? () mindestens? (3) wenn diese unabhängig sind? Zeichnen Sie Mengen I, K, M, Z Ω, die diese Werte realisieren! M Z Z M Z M Z M Z M Z M Z K K K K K M Z M Z M Z M Z M Z I K I K I K I K K M Z M Z M Z M Z M Z I K I K I K I K I K M Z M Z M Z M Z M Z I K I K I K I K I K M Z M Z M Z M Z M Z I I I I K Z Z Z Z M Z I K I K I K I K I M Z M Z M M M I K I K I K I K I K Siebformel vs Produktformel S3 Übung Lösung: () Höchstens 70% leiden an allen vier; das ist offensichtlich. () Mindestens 0% leiden an allen vier; das rechnen wir geduldig aus: P(I) = 0.7 P(I K) = P(I) + P(K) P(I K) = 0.45 P(I K M) = P(I K) + P(M) P((I K) M) = 0.5 P(I K M Z) = P(I K M) + P(Z) P((I K M) Z) = 0. Die oben skizzierten Graphiken zeigen, dass diese Werte tatsächlich angenommen werden können. Unsere Schranken sind also optimal. (3) Bei Unabhängigkeit von I, K, M, Z gilt die einfache Produktformel: P(I K M Z) = P(I) P(K) P(M) P(Z) = Die untere Schranke 0% und die obere Schranke 70% gelten immer, die Produktformel gilt nur im Spezialfall stochastischer Unabhängigkeit.

37 Diskrete Zufallsvariablen S30 Beispiel: Bei n maligem Würfeln nutzen wir Ω = {,,..., 6} n mit Gleichverteilung P und S n : Ω R : (ω,..., ω n ) ω + + ω n. Definition S3A (Zufallsvariable, zunächst diskret) Sei (Ω, P) ein WRaum. Eine reelle Zufallsvariable ist eine Abbildung X : Ω R : ω X(ω). Das heißt: X ordnet jedem Ergebnis ω Ω eine Zahl X(ω) R zu. Somit transportiert X das WMaß P auf Ω zum Bildmaß P X auf R: P X ({a}) = P(X = a) := P ( X ({a}) ) = P ( { ω Ω X(ω) = a } ) P X (A) = P(X A) := P ( X (A) ) = P ( { ω Ω X(ω) A } ) für jedes Element a R und jede Teilmenge A R, etwa A = [a, b]. Satz S3B (Auch das Bildmaß ist ein Wahrscheinlichkeitsmaß.) Sei (Ω, P) ein (diskreter) WRaum und X : Ω R eine Zufallsvariable. Dann ist P X auf R ein (diskretes) Wahrscheinlichkeitsmaß (SD). Diskrete Zufallsvariablen S30 Erläuterung Wir setzen den WRaum (Ω, P) hier vorerst als diskret voraus (SD). Später ist (Ω, A, P) ein allgemeiner WRaum; wir fordern dann von X zudem Messbarkeit, also X ([a, b]) A für jedes Intervall [a, b] R. Aufgabe: () Interpretieren Sie die Abbildung X : Ω R stochastisch. () Warum ist P X auf R ein diskretes WMaß? Was ist hier zu prüfen? Lösung: () Die Zufallsvariable X ordnet jedem Ergebnis ω Ω eine reelle Zahl X(ω) = a R zu, etwa den Gewinn oder eine Auszahlung. Oft beobachtet man nicht direkt das Ergebnis ω, sondern die abgeleitete Zufallsgröße X(ω) = a. Die Menge X ({a}) := { ω Ω X(ω) = a } fasst alle Ergebnisse ω Ω zusammen, die zum Wert X(ω) = a führen. () Wir wenden Definition SD an. (a) P X (R) = P ( X (R) ) = P(Ω) =. (b) Ebenso prüfen wir die Additivität: Für jede Teilmenge A R gilt Def P X (A) = P ( X (A) ) Def = P ( { ω Ω X(ω) A } ) Dis = P ( ) { ω Ω X(ω) = a } Def ( = P a A a A X ({a}) Add = P( X ({a}) ) Def = P X({a}) a A a A )

38 Erwartungswert einer diskreten Zufallsvariablen S303 Definition S3C (Erwartungswert, zunächst diskret) Die absolute Erwartung der Zufallsvariable X : (Ω, P) R ist E ( X ) := X(ω) P ( {ω} ) [0, ]. ω Ω Ist dieser Wert endlich, so nennen wir X absolut summierbar. Man sagt hierzu anschaulich der Erwartungswert von X existiert; dies gilt immer, wenn Ω endlich oder X beschränkt ist. Wir schreiben: L (Ω, P) = L (Ω, P; R) := { X : Ω R E( X ) < } Für jede Zufallsvariable X L (Ω, P) ist der Erwartungswert definiert: E(X) := X(ω) P( {ω} ) = a P(X = a) ω Ω a R Satz S3D (Die Erwartung ist linear.) Für jeden WRaum (Ω, P) ist die Menge L (Ω, P) ein R Vektorraum und die Erwartung E : L (Ω, P) R : X E(X) eine R lineare Abbildung. Erwartungswert einer diskreten Zufallsvariablen S304 Erläuterung Wir setzen den WRaum (Ω, P) hier vorerst als diskret voraus (SD). Im diskreten Fall genügen Reihen, im allgemeinen Fall Integrale. Für Reihen und Integrale haben Sie alle nötigen Werkzeuge. Aufgabe: () Der Erwartungswert E(X) kann wie angegeben auf zwei Arten berechnet werden: Beide Summen ergeben denselben Wert! () Beweisen Sie den Satz S3D durch sorgfältiges Nachrechnen. Lösung: () Dank absoluter Summierbarkeit (??) dürfen wir umordnen: X(ω) P ( {ω} ) ( Um = X(ω) P ( {ω} ))?? ω Ω Lin = a R a ( a R ω X ({a}) P( {ω})) = a R ω X ({a}) a P(X = a) () Es gilt E( λ X ) = λ E( X ) und E( X + Y ) E( X ) + E( Y ), für alle Zufallsvariablen X, Y : (Ω, P) R und λ R, daher ist L (Ω, P) ein R Vektorraum. Für X, Y L (Ω, P) gilt zudem E(λ X) = λ E(X) und E(X + Y ) = E(X) + E(Y ) dank Linearität (konvergenter!) Reihen. Die Abbildung E : L (Ω, P) R ist also R linear, wie gewünscht.

39 Zufallsvariable, Verteilung und Erwartung S305 Aufgabe: Bei zweimaligem Würfeln betrachten wir die Ergebnismenge Ω = {,,..., 6} mit der Gleichverteilung P und den Zufallsvariablen X, Y : Ω R : X(ω, ω ) = ω, Y (ω, ω ) = ω. Berechnen Sie Verteilung und Erwartung der Zufallsvariablen X, Y, sowie X Y und X Y, schließlich max(x, Y ) und min(x, Y ). Lösung: Wir beginnen mit der Zufallsvariable X(ω, ω ) = ω : ω X ω Der Erwartungswert ist hier E(X) = 3.5, wie man leicht nachrechnet. Erwartungswert bedeutet nicht häufigster Wert, sondern Schwerpunkt! Zufallsvariable, Verteilung und Erwartung Die ZVariable Y ist verschieden von X, aber identisch verteilt: ω Y ω Wir sehen in den ausführlichen Tabellen links die beiden ZVariablen X Y. Die Graphik rechts zeigt die Verteilungen, hier gilt P X = P Y. Dies zeigt eindrücklich: Das Bildmaß ist ein stark vergröbertes Abbild! Die letzte Formel von Definition S3C sagt: Der Erwartungswert E(X) hängt nur von der Verteilung P X ab: Aus P X = P Y folgt E(X) = E(Y ). Diese Situation ist typisch für Anwendungen, in denen eine Messung / ein Experiment n mal unabhängig wiederholt wird: Die ZVariablen X,..., X n sind unabhängig und identisch verteilt. Dazu später mehr! S306

40 Zufallsvariable, Verteilung und Erwartung S307 Für X Y gilt E(X Y ) = E(X) E(Y ) = 0 dank Linearität. ω ω X Y ω ω X Y /36 Zufallsvariable, Verteilung und Erwartung S308 Für die Zufallsvariablen max(x, Y ) und min(x, Y ) finden wir: ω ω max(x, Y ) /36 ω ω min(x, Y ) /36

41 Varianz von Zufallsvariablen S309 Definition S3E (Varianz und höhere Momente) Sei (Ω, P) ein WRaum und X : Ω R eine Zufallsvariable. Sei E( X ) <, so dass der Erwartungswert µ = E(X) existiert. Die Varianz der ZVariable X ist die mittlere quadratische Abweichung: σ (X) = V(X) := E [ (X µ) ] = E(X ) E(X) 0 Die Streuung oder Standardabweichung von X ist die Quadratwurzel σ(x) := V(X) 0. Das (absolute, zentrierte) n te Moment von X ist gegeben durch ρ n (X) = E [ X µ n]. Anschaulich ist der Erwartungswert µ der Schwerpunkt der Verteilung. Die Varianz E[(X µ) ] entspricht demnach dem Trägheitsmoment. Varianz und höhere Momente messen, wie weit die Werte um µ streuen: Große Abweichungen wiegen schwerer, quadratisch oder sogar hoch n. Varianz von Zufallsvariablen S30 Aufgabe: Berechnen Sie das././3. Moment für X = I A B(, t). Lösung: Hier ist X : Ω {0, } eine Zufallsvariable mit Verteilung P(X=) = P(A) = t und P(X=0) = P(Ω A) = t =: t. Ihre Erwartung und././3. Momente berechnen wir nach Definition: µ = E(X) = 0 P(X=0) + P(X=) = t E ( X µ ) = 0 µ P(X=0) + µ P(X=) = t ( t) + ( t) t = t( t) E ( X µ ) = 0 µ P(X=0) + µ P(X=) = t ( t) + ( t) t = t( t) E ( X µ 3) = 0 µ 3 P(X=0) + µ 3 P(X=) = t 3 ( t) + ( t) 3 t = t t(t + t ) Zum Vergleich: Auch E(X ) E(X) = t t liefert die Varianz.

42 Warnende Beispiele S3 Erläuterung Aufgabe: Seien X, Y : Ω Z Zufallsvariablen mit Verteilung P [ X=( ) k] = a k und P [ Y = k ] = b k für k =,, 3,... () Sind dies tatsächlich WVerteilungen? Für welche a bzw. b? () Existiert der Erwartungswert E(X) bzw. E(Y )? Lösung: () Ja: Es gilt p(k) 0 und k= p(k) =, wobei wir die Konstanten a = und b = 6/π setzen müssen. () Nein, die zum Erwartungswert benötigte Reihe konvergiert nicht: x k P(X=x k ) = k= k P(Y =k) = k= ( ) k k = + + ±... k= k k= a k = 6 ( π ) Einen Erwartungswert können wir hier also nicht definieren! Warnende Beispiele S3 Erläuterung Aufgabe: Sei Z : Ω N eine Zufallsvariable mit der Verteilung P [ Z=k ] = c k α für k =,, 3,... () Für welche α, c R ist dies tatsächlich eine WVerteilung? () Für welche α R existiert der Erwartungswert µ = E(X)? zudem endliche Varianz σ = V(X) = E( X µ )? und endliches n tes Moment ρ n = E( X µ n )? Lösung: () Es muss c ]0, [ gelten und c = k= /kα. Die Reihe k= /kα konvergiert jedoch nur für α >. Für α ist dies keine Wahrscheinlichkeitsverteilung! () Die Reihe µ = k= k/kα konvergiert nur für α >. Für < α existiert der Erwartungswert nicht! Die Reihe σ = k= (k µ) /k α konvergiert nur für α > 3. Für < α 3 ist die Varianz unendlich! Die Reihe ρ n = k= k µ n /k α konvergiert nur für α > n +. Für < α n ist das n te Moment unendlich!

43 Erwartung und Varianz von Zufallsvariablen S33 Erläuterung Aufgabe: () Sei µ = E(X). Zeigen Sie die nützliche Formel σ = V(X) = E [ (X µ) ]! = E(X ) E(X) () Wie verhalten sich Erwartung und Varianz bei Verschiebung zu Y = X + c mit c R und Skalierung zu Z = ax mit a R? (3) Was gilt demnach für Y = X µ und Z = (X µ)/σ? Nachrechnen: () Wir fordern E( X ) < und setzen µ = E(X). Dank Linearität der Erwartung gilt dann 0 E [( X µ ) ] = E [ X Xµ + µ ] = E [ X ] E [ X ] µ + µ = E(X ) µ + µ = E(X ) E(X) Die Varianz V(X) = E [ (X µ) ] = E(X ) E(X) kann man also mit jeder der beiden Formeln ausrechnen. Beide sind nützlich. Dies ist eine besondere Eigenschaft des zweiten Moments. Für alle anderen Momente E[ X µ n ] mit n gilt dies nicht! Erwartung und Varianz von Zufallsvariablen S34 Erläuterung () Dank der Normierung P(Ω) = und der Linearität der Erwartung gilt immer E(Y ) = E(X + c) = E(X) + E(c) = E(X) + c, sowie E(Z) = E(aX) = ae(x). Bei Verschiebung und Skalierung gilt: ρ n (X + c) = E [ X + c E(X + c) n] = E [ X + c E(X) c n] = E [ X E(X) n] = ρ n (X) ρ n (ax) = E [ ax E(aX) n] = E [ ax ae(x) n] = a n E [ X E(X) n] = a n ρ n (X) (3) Speziell für Y = X µ gilt somit E(Y ) = 0 und V(Y ) = V(X) = σ. Speziell für Z = (X µ)/σ gilt somit E(Z) = 0 und V(Z) =. Wir nennen Y = X µ die Zentrierung und Z = (X µ)/σ die Normierung von X. Dies lässt sich umkehren zu X = µ + Zσ. Für die Zufallsvariable X ist die natürliche Betrachtung die (µ, σ) Skala mit Ursprung in µ und Längeneinheit σ > 0.

44 Erwartung und Varianz von Zufallsvariablen S35 Übung Aufgabe: Bei zweimaligem Würfeln betrachten wir die Ergebnismenge Ω = {,,..., 6} mit der Gleichverteilung P und den Zufallsvariablen X, Y : Ω R : X(ω, ω ) = ω, Y (ω, ω ) = ω. Berechnen Sie Erwartung und Varianz der Zufallsvariablen X, Y, sowie X Y, X Y, schließlich max(x, Y ) und min(x, Y ). Lösung: Die Verteilungen dieser ZVariablen wurden oben ausgeführt. Wir nutzen direkt die Definition S3C. Für die Zufallsvariable X finden wir: E(X) = = 6 = 7 = 3.5 E(X ) = = 9 6 V(X) = E(X ) E(X) = = 8 47 = 35 σ(x) = 35/ Die ZVariable Y ist verschieden von X, aber identisch verteilt: Erwartung, Varianz und Streuung sind demnach dieselben Erwartung und Varianz von Zufallsvariablen S36 Übung Dank Linearität S3D gilt E(X Y ) = E(X) E(Y ) = 0. Also: V(X Y ) = E [ (X Y ) ] = = 0 36 = 35 6 σ(x Y ) = 35/6.453 Das Ergebnis erhalten wir bequemer dank Unabhängigkeit (S3H) der beiden ZVariablen X, Y mittels Additivität der Varianzen (S3I): V(X Y ) = V(X) + V( Y ) = V(X) + V(Y ) = = 35 6 Für die Zufallsvariable X Y finden wir entsprechend: E( X Y ) = = = 35 8 V( X Y ) = E [ X Y ] E [ X Y ] = 35 6 ( 35 8 ) = σ( X Y ) = 665/ Die Rechnungen für max(x, Y ) und min(x, Y ) verlaufen genauso: Wir wenden die Definition S3C direkt auf die Verteilungen an.

45 Die Ungleichungen von Chebychev S37 Erläuterung Sei X : Ω R eine Zufallsvariable mit Erwartung µ = E(X). Anschaulich gilt: Die Werte schwanken zufällig um µ, und große Abweichungen vom Erwartungswert sind eher unwahrscheinlich. Wie unwahrscheinlich? Wir fragen also nach P( X µ c). Die Ungleichung von Chebychev gibt eine bequeme Abschätzung! Die Streuung σ misst hierzu die typische Breite der Verteilung. Wir müssen hierzu über die Verteilung von X nichts weiter wissen als nur ihren Erwartungswert µ = E(X) und ihre Varianz σ = V(X)! Dies sind daher die beiden wichtigsten Kenngrößen. Selbst wenn man mehr weiß oder mehr herausfinden könnte, die Chebychev Abschätzungen sind unschlagbar einfach und oft sehr nützlich als erste Überschlagsrechnung. Anschließend werden wir den zentralen Grenzwertsatz VA kennen und nutzen lernen. Wenn der ZGS anwendbar ist, dann ermöglicht er präzisere Schätzungen. In diesen Fällen ist Chebychev vergleichsweise grob und kann in Punkto Genauigkeit meist nicht konkurrieren. Die Ungleichungen von Chebychev Satz S3F (Chebychev 867) Sei X : (Ω, P) R eine Zufallsvariable mit Erwartung µ = E(X) und Varianz σ = E ( (X µ) ) bzw. n tem Moment ρ n = E ( X µ n). Für alle c, k, h > 0 gelten universelle worst case Abschätzungen: ( ) () P X µ c ( ) () P X µ kσ ( ) (3) P X µ + kσ ( ) (4) P µ kσ < X < µ + kσ ( ) (5) P µ hσ < X < µ + kσ σ ρn bzw. c c n, k, + k, k, 4(hk ) (h + k). Die Wkt großer Abweichungen fällt mindestens quadratisch, mit /k. Kennt man nur µ und σ bzw. ρ n, dann sind diese Ungleichungen optimal. S38

46 Die beidseitige Chebychev Abschätzung S39 Erläuterung Die beidseitige Chebychev Ungleichung (,) besagt: P ( X µ c ) σ c Aufgabe: Man überprüfe sie für folgende Verteilung. Ist sie scharf? p/ Wkt p p/ c 0 +c Lösung: Es gilt µ = 0 und σ = c p. Die Ungleichung ist scharf: p = P ( X µ c ) σ c = p Die Abschätzung ist meist grob, dafür aber universell einsetzbar. Das Beispiel zeigt, dass sie sich allgemein nicht verbessern lässt. Die einseitige Chebychev Abschätzung S30 Erläuterung Die einseitige Chebychev Ungleichung (3) für a < µ < b besagt: P ( X a ) + ( a µ σ ) und P ( X b ) + ( b µ σ ) Aufgabe: Man überprüfe sie für folgende Verteilung. Sind sie scharf? q = 4/5 Wkt p = /5 a = / b = Lösung: Hier gilt µ = 0 und σ =. Die Ungleichungen sind scharf: q = P ( X a ) + a = 4 5 bzw. p = P ( X b ) + b = 5. Die Abschätzung ist meist grob, dafür aber universell einsetzbar. Das Beispiel zeigt, dass sie sich allgemein nicht verbessern lässt.

47 Typische Abschätzungen dank Chebychev S3 Aufgabe: Was sagt Chebychev für folgende typische Abschätzungen? P ( X µ σ) / = 00% P ( X µ σ) /4 = 5% P ( X µ 3σ) /9 % P ( X µ 4σ) /6 6% P ( X µ + σ) / = 50% P ( X µ + σ) /5 = 0% P ( X µ + 3σ) /0 = 0% P ( X µ + 4σ) /7 6% Große Abweichungen vom Erwartungswert sind unwahrscheinlich. Diese Abschätzungen sind grob, dafür aber universell einsetzbar. Die erste Abschätzung ist trivialerweise immer richtig aber nie hilfreich. Mindestens 3/4 der Wkt liegt in der σ Umgebung [µ σ, µ + σ]. Mindestens 8/9 der Wkt liegt in der 3σ Umgebung [µ 3σ, µ + 3σ]. Für Normalverteilungen gilt die genauere Regel U36. Beweis der beidseitigen Chebychev Abschätzung Nachrechnen: Die Zufallsvariable X zentrieren wir zu Z := X µ. Das n te Moment ist ρ n = E( Z n ); für n = ist dies die Varianz. Wir vergleichen Z mit der einfachen, zweiwertigen Zufallsvariablen { c falls Z(ω) c, Y = c I { Z c}, also Y (ω) = 0 falls Z(ω) < c. Es gilt Z Y 0. Dank Monotonie der Erwartung folgt ρ n = E( Z n ) E(Y n ) = c n P ( X µ c ). Hieraus folgt (). Speziell für n = und c = kσ erhalten wir (). Für (3) zeigen wir als Hilfsmittel zunächst die Markov Ungleichung: Lemma S3G (Markov Ungleichung) Sei Y : (Ω, P) [0, ] eine nicht-negative Zufallsvariable. Für alle b > 0 gilt dann die Abschätzung P(Y b) E(Y )/b. Beweis: Es gilt Y b I {Y b}, also E(Y ) b P(Y b). S3 Erläuterung

48 Beweis der einseitigen Chebychev Abschätzung S33 Erläuterung Wir beweisen damit nun die einseitige Chebychev Ungleichung (3). Wie zuvor zentrieren wir die Zufallsvariable X zu Z := X µ. Für alle t, b R mit t + b > 0 gilt dann: P [ Z b ] = P [ Z + t b + t ] P [ (Z + t) (b + t) ] E[ (Z + t) ] (b + t) = σ + t (b + t) Die erste Ungleichung ist klar, die zweite ist die Markov Ungleichung. Die letzte Gleichung gilt wegen E(Z) = 0 und somit E((Z + t) ) = E(Z ) + E(Z)t + t = σ + t. Für b = σk und t = σ/k erhalten wir die gewünschte Ungleichung (3): σ + t (b + t) = σ + σ /k (σk + σ/k) = k + (k + ) = k + Beweis der asymmetrischen Abschätzung S34 Erläuterung Ungleichung (4) folgt direkt aus (); sie betont hier die Analogie zur asymmetrischen Ungleichung (5). Für a < µ < b ist diese äquivalent zu: P [ a < X < b ] 4[ (b µ)(µ a) σ ] (b a), P [ X m c ] σ + (m µ) c. Zur Umformulierung setzt man m = (a + b)/ und c = (b a)/. Für m = µ ergibt sich die symmetrische Chebychev Ungleichung. Die letzte Ungleichung folgt dank Markov Ungleichung S3G: P [ X m c ] = P [ X m c ] E[ X m ] c = σ + (m µ) c Auch diese Abschätzung lässt sich nicht verbessern. Obiges Beispiel: Zu 0 < t < sei b = ( t)/t und a = /b = t/( t) sowie P(X=a) = t und P(X=b) = t. Es gilt E(X) = a( t) + bt = 0 und V(X) = a ( t) + b t =. In diesem Beispiel sind die obigen Ungleichungen scharf.

49 Unabhängigkeit von Zufallsvariablen S35 Zwei Zufallsvariablen X, X sind unabhängig, wenn das Ergebnis von X nicht die Wkten von X beeinflusst. Dies präzisieren wir wie folgt: Definition S3H (Unabhängigkeit von Zufallsvariablen) Eine Familie X = (X,..., X n ) von Zufallsvariablen X k : Ω R heißt (stochastisch) unabhängig, wenn für alle Intervalle I,..., I n R gilt P( X I,..., X n I n ) = P(X I ) P(X n I n ). Ausführlich heißt das: Im WRaum (Ω, P) ist die Familie (A,..., A n ) der Ereignisse A k = X k (I k) = { ω Ω X k (ω) I k } unabhängig. Die gemeinsame Verteilung von X,..., X n ist die Produktverteilung. Formal entspricht das dem Produktmaß P (X,...,X n ) = P X P Xn : Diese Formulierungen gelten ebenso für kontinuierliche Verteilungen. Die Produktformel gilt für alle messbaren Teilmengen I,..., I n R. Für diskrete Zufallsvariablen ist Unabhängigkeit äquivalent zu P( X = a,..., X n = a n ) = P(X = a ) P(X n = a ). Unabhängigkeit von Zufallsvariablen S36 Erläuterung Aufgabe: Bei zweimaligem Würfeln betrachten wir die Ergebnismenge Ω = {,,..., 6} mit der Gleichverteilung P und den Zufallsvariablen X, Y : Ω R : X(ω, ω ) = ω, Y (ω, ω ) = ω. () Sind X und Y stochastisch unabhängig? () Sind X + Y und X Y stochastisch unabhängig? (3) Sind min(x, Y ) und max(x, Y ) stochastisch unabhängig? Lösung: () Ja, denn P( X=a, Y =b ) = P(X=a) P(Y =b). () Nein, die Multiplikativität gilt hier nicht: Zum Beispiel gilt P( X+Y =3, X Y =0 ) = 0 aber P( X+Y =3 ) = /36 und P( X Y =0 ) = 6/36. (3) Nein, die Multiplikativität gilt hier nicht: Zum Beispiel gilt P( min(x, Y )=, max(x, Y )=6 ) = /36 aber P( min(x, Y )= ) = 7/36 und P( max(x, Y )=6 ) = 7/36. Zum Nachweis der Unabhängigkeit muss man alle Produkte prüfen. Zum Nachweis der Abhängigkeit hingegen genügt ein Gegenbeispiel.

50 Unabhängigkeit von Zufallsvariablen S37 Erläuterung Aufgabe: Seien X,..., X n : (Ω, P) R diskrete Zufallsvariablen. Zeigen Sie die Äquivalenz der beiden Unabhängigskeitsbedingungen: () P( X I,..., X n I n ) = P(X I ) P(X n I n ) für alle Intervalle I,..., I n R und () P( X = a,..., X n = a n ) = P(X = a ) P(X n = a ) für alle Punkte a,..., a k R. Bedingung () ist vielseitiger und bequemer anzuwenden. Zudem ist dies die richtige Definition auch für kontinuierlich verteilte Zufallsvariablen. Daher erheben wir Eigenschaft () zur Definition S3H. Bedingung () nützt nur für diskrete Zufallsvariablen, ist dann aber leichter zu prüfen. Genau hierfür nutzen wir die Äquivalenz () (). Erste Beispiele kennen wir aus der vorigen Aufgabe. Unabhängigkeit von Zufallsvariablen S38 Erläuterung Lösung: Die Implikation () () ist offensichtlich: Es genügt die einpunktigen Intervalle I k = {a k } zu betrachten. Wir zeigen die Umkehrung () () : Hierzu sei X = (X,..., X n ) sowie a = (a,..., a n ) und I = I I n. Wir finden: P( X I,..., X n I n ) = a I P(X = a) =... P( X = a,..., X n = a n ) a I a n I n =... P(X = a ) P(X n = a ) a I a n I n [ ] [ ] = P(X = a ) P(X n = a ) a I a n I n = P(X I ) P(X n I n )

51 Unabhängigkeit von Indikatorfunktionen S39 Aufgabe: () Wann sind zu zwei Ereignissen A, B Ω die Indikatorfunktionen X = I A und Y = I B unabhängig? () Wann gilt Multiplikativität E(I A I B ) = E(I A ) E(I B )? Lösung: () Sei A Ω ein Ereignis und I A seine Indikatorfunktion, { falls ω A, I A : Ω R : ω I A (ω) = 0 falls ω / A. Unabhängigkeit von I A und I B bedeutet vier äquivalente Bedingungen: P(I A =, I B =) = P(A B) P(I A =, I B =0) = P(A B) P(I A =0, I B =) = P(A B) P(I A =0, I B =0) = P(A B)! = P(I A =) P(I B =) = P(A) P(B)! = P(I A =) P(I B =0) = P(A) P(B)! = P(I A =0) P(I B =) = P(A) P(B)! = P(I A =0) P(I B =0) = P(A) P(B) Dies ist äquivalent zur Unabhängigkeit der Ereignisse A und B! S7 Unabhängigkeit von Indikatorfunktionen S330 () Die Indikatorfunktion I A nimmt nur die beiden Werte 0 und an: P(I A =) = P(A) und P(I A =0) = P(A) Demnach ist ihr Erwartungswert Für das Produkt von I A und I B gilt E(I A ) = P(A). I A I B = I A B. Wir vergleichen schließlich, wie in der Aufgabenstellung gefragt, den Erwartungswert des Produkts mit dem Produkt der Erwartungswerte: E(I A I B ) E(I A ) E(I B ) = E(I A B ) = P(A B), = P(A) P(B). Gleichheit links ist demnach äquivalent zu Gleichheit rechts: Die Zufallsvariablen I A, I B : Ω R sind genau dann unabhängig (S3H), wenn die betrachteten Ereignisse A, B Ω unabhängig sind (SC). Nur dann ist die Erwartung multiplikativ, E(I A I B ) = E(I A ) E(I B ).

52 Erwartung und Varianz S33 Aufgabe: (0) Gilt Additivität der Erwartung, E(X + Y ) = E(X) + E(Y )? () Gilt Multiplikativität der Erwartung, E(X Y ) = E(X) E(Y )? () Gilt Additivität der Varianzen, V(X + Y ) = V(X) + V(Y )? Lösung: (0) Ja! Die Erwartung E : L (Ω, P) R ist linear. (S3D) () Nein! Gegenbeispiel X : Ω {±} mit P(X = ±) = /. Hier gilt E(X X) = E() = 0 = E(X) E(X). Die Erwartung ist immer additiv aber i.a. nicht multiplikativ! Allgemein: Die Varianz ist V(X) = E(X ) E(X) 0 und i.a. > 0. Alternativ: E(I A I B ) = E(I A ) E(I B ) gilt nur für unabhängige A, B. () Nein! Gegenbeispiel X : Ω R mit V(X) > 0. Hier gilt V(X + X) = V(X) = 4V(X) V(X) + V(X). Die Varianzen addieren sich im Allgemeinen nicht! Sie können sich verstärken wie bei X + X = X oder auslöschen wie bei X + ( X) = 0. Additivität gilt glücklicherweise bei unabhängigen Zufallsvariablen! Erwartung und Varianz unabhängiger ZVariablen Satz S3I (Fubini für unabhängige Zufallsvariablen) () Erwartungen unabhängiger Zufallsvariablen X, Y multiplizieren sich: E(X Y ) = E(X) E(Y ) () Varianzen unabhängiger Zufallsvariablen X, Y addieren sich: V(X + Y ) = V(X) + V(Y ) Aufgabe: Rechnen Sie dies nach! Lösung: () Dank Unabhängigkeit: E ( X Y ) Def = ab P(X=a, Y =b) Fub = ab P(X=a)P(Y =b) Un (a,b) R a R b R [ ] [ ] Lin Def = a P(X=a) b P(Y =b) = E(X) E(Y ) a R b R () Nach Zentrierung können wir E(X) = E(Y ) = 0 annehmen. Dann: Def V(X + Y ) = E [ (X + Y ) ] Bin = E ( X + XY + Y ) () = E(X ) + E(X)E(Y ) + E(Y ) Zen = V(X) + V(Y ) S33

53 Erwartung und Varianz unabhängiger ZVariablen S333 Aufgabe: () Einzelner Münzwurf: Berechnen Sie Erwartung und Varianz eines 0 Experiments X k : Ω {0, } mit P(X k =) = t k. () Mehrere Münzwürfe: Bestimmen Sie Erwartung und Varianz der Trefferzahl S = X + + X n. Welche Zusatzinformation brauchen Sie? (3) Was erhalten Sie speziell für t = = t n = t? Das ist der wichtige Spezialfall von unabhängigen, identisch verteilten 0 Experimenten. Die Summe ist dann binomialverteilt, S B(n, t), siehe Satz T3B. Lösung: () Wir erhalten E(X k ) = t k und V(X k ) = t k ( t k ). () Dank Linearität der Erwartung (S3D) gilt hier Additivität: E(S) = E(X + + X n ) = E(X ) + + E(X n ) = t + + t n Sind die Zufallsvariablen X,..., X n zudem unabhängig, so addieren sich bei der Summe S = X + + X n auch ihre Varianzen (S3I): V(S) = V(X ) + + V(X n ) = t ( t ) + + t n ( t n ) (3) Wir erhalten hier E(S) = nt und V(S) = nt( t). Erwartung und Varianz unabhängiger ZVariablen S334 Erläuterung Unabhängig wiederholte Experimente sind eine zentrale Methode der Natur- und Ingenieurwissenschaften. Das stochastische Modell (zur Planung) und die statistische Auswertung (nach Durchführung) gehören daher zum allgegenwärtigen Handwerkszeug. () Der Münzwurf ist das einfachste Zufallsexperiment: Es gibt nur zwei Ergebnisse: Kopf (0) oder Zahl (). Wir nehmen hier nicht zwangsweise an, dass die Münze fair ist, also P(X k =0) = P(X k =) = / erfüllt. Die Wkt P(X k =) = t k [0, ] ist in unserem Modell frei wählbar. () Wenn wir n Münzen werfen, so addieren sich die Erwartungen und dank Unabhängigkeit auch die Varianzen. Die Summe unabhängiger zweiwertiger Zufallsvariablen ist ein weiteres einfaches Modell. (3) Die n fache Wiederholung eines Münzwurfs ist ein wichtiges Modell: Zur Vereinfachung nehmen wir an, das Experiment wird unabhängig wiederholt und alle Wkten sind gleich (Binomialverteilung T3B).

54 Anwendungsbeispiel: Überbuchung S335 Aufgabe: Für eine Klausur sind n = 30 Teilnehmer angemeldet. Jeder davon tritt nur mit Wahrscheinlichkeit t = 0.8 tatsächlich an. Wir nehmen stochastische Unabhängigkeit an, keine Grippewelle o.ä. Mit welcher Wkt reichen 300 Plätze? (Chebychev, später LGS, exakt) Lösung: Wir wissen µ = nt = 56, σ = nt( t) = 5., σ 7.. Chebychev: Die Wkt für mehr als 300 Teilnehmer ist beschränkt durch P ( T 30 ) = P ( T ) +k.5% mit k = Die Schätzung 3% ist deutlich zu hoch, dafür aber bequem zu berechnen. Wir wissen über T noch viel mehr als nur µ und σ: Wir kennen die gesamte Verteilung. Die Binomialverteilung B(n, t) erlaubt dank lokalem Grenzwertsatz U3A eine wesentlich genauere Abschätzung: LGS U3A: Normalverteilung als Näherung, Tabelle: k ϕ(t) dt < 0 5, Approximationsfehler: δ < /(6σ) < 0.03, insgesamt Wkt <.3%. Exakt T3B: Die Teilnehmerzahl T ist binomialverteilt, genauer T B(n, t). Durch Aufsummieren (mit Computerhilfe) erhalten wir P ( T 30 ) Es gibt 30 > 0 96 mögliche Ausgänge dieses Experiments. Das kann man offensichtlich nicht naiv aufsummieren, selbst der schnellste Computer nicht. Die exakte Rechnung organisieren wir daher wesentlich effizienter mit den Abzählmethoden des folgenden Kapitels. Anwendungsbeispiel: Überbuchung Aufgabe: Angenommen, im obigen Beispiel gilt n = 30 und t = 0.9. Mit welcher Wkt reichen 300 Plätze? (Chebychev, LGS, exakt) Lösung: Wir wissen µ = nt = 88, σ = nt( t) = 8.8, σ 5.4. Chebychev: Die Wkt für mehr als 300 Teilnehmer ist beschränkt durch P ( T 30 ) = P ( T 88 3 ) +k 5% mit k = Diese Größenordnung ist alarmierend: Wir sollten einen größeren Hörsaal buchen oder genauer hinschauen! Die Binomialverteilung erlaubt eine wesentlich genauere Abschätzung: LGS U3A: Normalverteilung als Näherung, Tabelle: ϕ(t) dt < 0.0, k Approximationsfehler: δ /(6σ) < 0.04, insgesamt Wkt < 5%. Exakt T3B: Die Teilnehmerzahl T ist binomialverteilt, genauer T B(n, t). Durch Aufsummieren (mit Computerhilfe) erhalten wir P ( T 30 ) Die Ungleichung von Chebychev ist vor allem in Situationen nützlich, in denen wir über die Verteilung wenig wissen (z.b. nur µ und σ) aber die Wahrscheinlichkeit großer Abweichungen abschätzen wollen. In obigen Beispielen kennen wir die Verteilung sogar genau. Der lokale Grenzwertsatz U3A und die Tabelle der Normalverteilung liefern hier präzisere Abschätzungen. Solche Risikoabschätzungen und Optimierungen haben enorme wirtschaftliche Bedeutung. Genau dieses Szenario analysieren Fluggesellschaften bei der Überbuchung ihrer Flüge. S336 Übung

55 Das Gesetz der großen Zahlen S337 Anwendung: Jede Messung X ist zufälligen Fehlern unterworfen, Messwerte schwanken um den Erwartungswert µ mit Streuung σ > 0. Beispiel: Sie führen n = 400 unabhängige Messungen X,..., X 400 durch und erhalten Messwerte x,..., x 400. Sie schätzen µ durch den Stichprobenmittelwert: ˆx := n Messung x k = 57.5 n (Beispiel) Die Streuung von X schätzen Sie (dank der Stichprobe) auf σ 0. Wie genau ist ˆx? Wo liegt vermutlich der wahre Erwartungswert µ? I = [57, 58], I = [56.5, 58.5], I 3 = [56, 59], I k = [57.5 ± 0.5k] Aufgabe: Welches Intervall I k überdeckt den Erwartungswert µ mit Sicherheit α k 95% bzw. α k 99%? (Chebychev, später genauer ZGS) Der Erwartungswert µ ist eine Konstante. Leider ist sie uns unbekannt. Das Ziel der Messung ist, diese Konstante µ möglichst genau zu bestimmen. Als Schätzung für den Wert µ dient uns ˆx. Wie die Messwerte x,..., x n ist auch ˆx zufälligen Schwankungen unterworfen. Wenn Sie eine neue unabhängige Stichprobe durchführen, erhalten Sie einen neuen Mittelwert ˆx, und mit ihm verschieben sich obige Intervalle. Wir wollen sichergehen und verlangen, dass in 95% aller Stichproben unser Intervall den wahren Wert µ überdecken soll. Welchem Intervall vertrauen wir? Das Gesetz der großen Zahlen Lösung: Die Einzelmessung entspricht einer ZVariable X : Ω R mit Erwartung µ = E(X), Varianz σ = V(X) und Streuung σ(x) ]0, [. Aus unabhängigen Wiederholungen X, X,..., X n bilden wir den ( ) Mittelwert ˆX := X + X + + X n. n Dank Linearität gilt E( ˆX) = E(X) = µ und dank Unabhängigkeit zudem V( ˆX) = n V(X + + X n ) = n [ V(X ) + + V(X n ) ] = n V(X). k= Also σ( ˆX) = σ(x)/ n. Im Beispiel gilt σ( ˆX) = 0/ 400 = 0.5. Für unsere Intervalle gelten die Chebychev Abschätzungen: α / = 0, α / 75%, α 3 /3 > 88%, α 5 /5 96%, α 0 /0 99%, α k /k. Diese genial-einfache Methode optimieren wir in Kapitel U und V: Unser Ziel sind schärfere Abschätzungen, also genauere Intervalle! S338

56 Das Gesetz der großen Zahlen S339 Erläuterung Zu Klarheit, Verständnis und Richtigkeit hilft eine präzise Notation: Vor der Messung sind X, X,..., X n : Ω R Zufallsvariablen. Wir kennen die Messergebnisse noch nicht, noch sind für X j alle Werte möglich mit ihren jeweiligen Wahrscheinlichkeiten P(X j I); daher ist es sinnvoll, von Erwartung E(X j ) und Varianz V(X j ) zu sprechen. Daraus berechnen wir die Zufallsvariable ˆX und schließlich das Intervall I k = [ ˆX ± kσ]. Mit ˆX schwankt auch Ik. Wir wollen unser Verfahren so einrichten, dass I k mit großer Wkt den gesuchten Wert µ überdeckt. Nach der Messung liegen die Ergebnisse x, x,..., x n R vor. Wir kennen die Messergebnisse nun, dies sind keine Zufallsvariablen mehr, sondern fest vorgegebene reelle Zahlen. Es hat daher überhaupt keinen Sinn, von Erwartung E(x k ) oder Varianz V(x k ) zu sprechen. Auch das Intervall I k = [ˆx ± kσ] ist jetzt fixiert. Entweder es überdeckt µ oder eben nicht. Es daher hat keinen Sinn, hier nach Wkt zu fragen. Nach der Messung ist vor der Messung! Wir wollen sicherstellen, dass unser Intervall I k auch zukünftigen, unabhängig wiederholten Messungen standhält. Genau hierzu lohnt die Mühe und Sorgfalt! Das Gesetz der großen Zahlen S340 Dieses Argument und die Rechnung sind allgemein anwendbar. Da sie häufig gebraucht werden, halten wir diese Regel als Satz fest: Satz S3J (Gesetz der großen Zahlen) Der empirische Mittelwert ˆX nähert sich dem Erwartungswert µ: () Seine Streuung σ( ˆX) = σ(x)/ n 0 fällt wie / n für n. () Abweichungen um ε > 0 werden beliebig unwahrscheinlich gemäß ( ) P ˆX µ σ ε n ε 0. Deshalb wiederholen wir Messungen unabhängig, um die Messgenauigkeit zu verbessern! Das Gesetz der großen Zahlen erklärt insbesondere, wie man Wahrscheinlichkeiten messen kann: Die Indikatorfunktion X = I A zählt das Eintreten des Ereignisses A. (Beim Würfeln sei zum Beispiel X = falls eine 6 gewürfelt wird und X = 0 sonst.) Der Mittelwert ˆX ist dann die relative Häufigkeit nach n Versuchen und konvergiert gegen µ = E(X) = P(A). Für praktische Anwendungen wollen Sie n nicht zu groß wählen: Wiederholte Messungen sind teuer. Chebychev S3F ist zwar einfach aber noch recht grob. Sie wollen daher bessere Schranken für die Abweichung P( ˆX µ ε). Diese liefert der ZGS! (Satz VA)

57 Das Gesetz der großen Zahlen S Das empirische Gesetz der großen Zahlen ist folgende Erfahrungstatsache: Bei sehr häufiger unabhängiger Wiederholung nähern sich die relativen Häufigkeiten einem Grenzwert an. Sie können nun genauer ausrechnen, wie schnell und wie sicher dies geschieht! Das Gesetz der großen Zahlen Aufgabe: Sie würfeln n = 3600 mal mit einem fairen Würfel. Sei S die Häufigkeit der Augenzahl 6. Wie groß sind Erwartung und Streuung? Welche zusätzlichen Annahmen fordern Sie hierzu sinnvollerweise? Wie wahrscheinlich ist S [500, 700]? S [550, 650]? S [580, 60]? Lösung: Wir nutzen die Zufallsvariablen X, X,..., X n : Ω {0, }, wobei X k = bedeutet Augenzahl 6 im k ten Wurf. Damit gilt: Trefferwkt P(X k =) = t = /6, Erwartung E(X k ) = t = /6, Varianz V(X k ) = t( t) = 5/36. Die Summe S = X + X + + X n : Ω R zählt die Häufigkeit: Erwartung E(S) = nt = 600, Varianz V(S) = nt( t) = 500, Streuung σ(s) = V(S).36. Satz S3I: Für die Additivität der Varianzen fordern wir Unabhängigkeit! S34

58 Das Gesetz der großen Zahlen S343 Wir nutzen die (worst case) Abschätzungen von Chebychev (Satz S3F): ( ) () P X µ c σ c ( ) () P X µ kσ k, ( ) (4) P µ kσ < X < µ + kσ k, In unserem Fall gilt µ = 600 und σ.36, und wir erhalten: ( ) P S ( ) P S [500, 700] ( ) P S ( ) P S [550, 650] ( ) P S ( ).3 P S [580, 60] 0.3 Die ersten beiden Abschätzungen sind hilfreich, die dritte ist nutzlos. Später rechnen wir genauer mit dem lokalen Grenzwertsatz U3A (LGS). Das Gesetz der großen Zahlen Die Ungleichungen von Chebychev sind zwar grob, aber sie erlauben uns immerhin eine erste Abschätzung, zudem schnell und bequem. Zunächst klingen 3600 Versuche nach viel, doch es genügt nicht: Die Ergebnisse streuen noch stark, die Messung ist recht ungenau! Aufgabe: Bei 3600 Versuchen erhalten Sie S [µ ± 0.67µ] mit Wkt 95%. Wie oft müssen Sie würfeln, damit S [µ ± 0.0µ] mit Wkt 95% gilt? Lösung: Wir rechnen wie oben, mit unbekannter Versuchszahl n: ( ) σ nt( t) t! P S µ 0.0µ = = (0.0µ) (0.0nt) nt Wegen ( t)/t = 5 muss demnach n gelten. Plausibel: Doppelte Genauigkeit erfordert vierfache Versuchszahl, zehnfache Genauigkeit erfordert hundertfache Versuchszahl, 7fache Genauigkeit erfordert 89fache Versuchszahl. Genauigkeit hat ihren Preis. Das ist Fluch und Segen der großen Zahlen. S344

59 Stochastisches Modell und Kalibrierung S345 Präzisionswürfel aus Kunststoff Handgesägte Würfel aus Holz Gleiche Wkten! Ungleiche Wkten? Bei perfekter Symmetrie sind alle Seiten gleichwahrscheinlich: p() = p() = p(3) = p(4) = p(5) = p(6) = 6 Bei handgesägten Würfeln sind die Wahrscheinlichkeiten nicht gleich: p() = 0.5, p() = p(3) = p(4) = p(5) = 0.6, p(6) = 0. Wie findet man diese Wkten? Man muss sie messen! Aber wie genau? Das Gesetz der großen Zahlen S346 Aufgabe: Sie wollen die Wkt P(A) = t eines Ereignisses A messen: () Bis auf einen Fehler von ε = 0.0. Sie verlangen 98%ige Sicherheit. () Bis auf einen Fehler von ε = 0.0. Sie verlangen 96%ige Sicherheit. (3) Bis auf einen Fehler von ε = Sie verlangen 93%ige Sicherheit. Wie oft müssen Sie die Messung / das Experiment wiederholen? Nutzen Sie hier zunächst den Satz von Chebychev S3F, später genauer den lokalen Grenzwertsatz U3A (LGS). Wir setzen unser Experiment als beliebig wiederholbar voraus. Das ist für praktische Anwendungen eine starke Annahme; machmal ist schon eine erste Wiederholung zu kostspielig oder gar unmöglich. Dann muss man Wkten auf andere Weise schätzen, und sei s nur grob. Selbst wenn das Experiment im Prinzip beliebig wiederholbar ist, so sind Wiederholungen doch meist aufwändig und kostspielig. Begrenzte Ressourcen erlauben Ihnen nur begrenzte Genauigkeit. Für dieses Problem soll Sie dieser Aufgabentyp sensibilisieren.

60 Das Gesetz der großen Zahlen S347 Lösung: Das einfache Experiment hat Erwartung E(I A ) = P(A) = t und Varianz V(I A ) = t( t) /4. Wir nutzen besser n unabhängige Wiederholungen X, X,..., X n : Ω {0, } und bilden den Mittelwert ˆX = n (X + + X n ) = relative Häufigkeit des Ereignisses A. Er hat die Erwartung E( ˆX) = t und dank Unabhängigkeit die Varianz V( ˆX) = V(X)/n /4n 0, also die Streuung σ = / n 0. Damit schätzen wir die Anzahl der Wiederholungen für (): Irrtumswkt: P ( ˆX t kσ ) /k! 0.0 k 8 Ungenauigkeit: 8σ 4/ n! ε = 0.0 n Nach dieser Abschätzung genügt ein 8σ Intervall um den Messwert. Somit genügen n Messungen. Genauigkeit hat ihren Preis! Dank LGS genügt bereits k =.33, somit nur n = Messungen. Das Gesetz der großen Zahlen S348 Wir schätzen die Anzahl der Wiederholungen für (): Irrtumswkt: P ( ˆX t kσ ) /k! 0.04 k 5 Ungenauigkeit: 5σ 5/ n! ε = 0.0 n 5 65 Nach dieser Abschätzung genügt ein 5σ Intervall um den Messwert. Somit genügen n 5 65 Messungen. Genauigkeit hat ihren Preis! Dank LGS genügt bereits k =.06, somit nur n = 653 Messungen. Wir schätzen die Anzahl der Wiederholungen für (3): Irrtumswkt: P ( ˆX t kσ ) /k! 0.07 k 4 Ungenauigkeit: 4σ / n! ε = 0.05 n 600 Nach dieser Abschätzung genügt ein 4σ Intervall um den Messwert. Somit genügen n 600 Messungen. Genauigkeit hat ihren Preis! Dank LGS genügt bereits k =.8, somit nur n = 33 Messungen.

61 Diskrete Wahrscheinlichkeitsräume S40 Fazit Ein diskreter Wahrscheinlichkeitsraum (Ω, P) besteht aus einer Menge Ω von möglichen Ergebnissen und einer normierten und additiven Abbildung P : P(Ω) [0, ]. Letzteres bedeutet P(Ω) = und P(A) = ω A P({ω}) für alle A Ω. Alle Ergebnisse fassen wir zur Ergebnismenge Ω zusammen. Jedes Element ω Ω heißt Ergebnis. Jede Teilmenge A Ω heißt Ereignis. Das Ereignis A tritt genau dann ein, wenn ein Ergebnis ω A eintritt. Die Wahrscheinlichkeit hierfür ist das Wahrscheinlichkeitsmaß P(A). Spezialfall: Ein Wahrscheinlichkeitsraum (Ω, P) heißt endlich, wenn die Ergebnismenge Ω endlich ist. Er heißt Laplacesch, wenn zudem alle Ergebnisse ω Ω gleich wahrscheinlich sind. Für das Laplace Wahrscheinlichkeitsmaß auf Ω gilt daher P(A) = A Ω = Anzahl der Ergebnisse in A Anzahl aller Ergebnisse in Ω = günstige Ergebnisse mögliche Ergebnisse. Für Laplace Experimente berechnet man die Wkten durch Abzählen der Ergebnisse. Hierbei helfen kombinatorische Abzählformeln. Rechnen mit Ereignissen Die Sprache der Mengen erlaubt uns, mit Ereignissen zu rechnen: Klare eindeutige Formulierung ermöglicht die effiziente Rechnung. Menge Bedeutung als Zufallsereignis Ω Das sichere Ereignis: Ω tritt immer ein, P(Ω) =. Das unmögliche Ereignis: tritt nie ein, P(Ω) = 0. A Ω Das Ereignis A tritt ein bei jedem Ergebnis ω A. Ω A Das Ereignis A = Ω A tritt ein, wenn A nicht eintritt. A B Wenn A eintritt, dann auch B. B A Das Ereignis B tritt ein, aber nicht A. A B A B A B Die Ereignisse A und B treten beide ein. Das Ereignis A oder B tritt ein (oder auch beide). Entweder A oder B tritt ein (aber nicht beide). A B Das Ereignis A oder B tritt ein, wobei A B =. Bequeme Notation und präzises Rechnen mit Zufallsereignissen. S40 Fazit

62 Bedingte Wahrscheinlichkeit S403 Fazit Sei (Ω, P) ein Wahrscheinlichkeitsraum und B Ω ein Ereignis mit Wahrscheinlichkeit P(B) > 0. Für jedes Ereignis A Ω definieren wir die Wahrscheinlichkeit von A unter der Bedingung B durch P(A B) := P B (A) := P(A B). P(B) Sei Ω = B B B l eine Zerlegung in disjunkte Ereignisse. Für A Ω gilt dann die Formel der totalen Wahrscheinlichkeit: P(A) = l k= P(A B k) = l k= P(A B k) P(B k ) Im Falle P(A) > 0 gilt zudem die Formel von Bayes (Satz SB): P(B i A) = P(A B i) P(B i ) P(A) = P(A B i ) P(B i ) l k= P(A B k) P(B k ) Bequeme Notation und präzises Rechnen mit Zufallsereignissen. Die Rechnung ist meist leicht, die Interpretation erfordert Übung. Stochastische Unabhängigkeit S404 Fazit Eine Familie von Ereignissen A, A,..., A n Ω heißt (stochastisch) unabhängig, wenn alle Schnittmengen die Produktregel erfüllen: P(A i A i A il ) = P(A i ) P(A i ) P(A il ) für jede Auswahl i < i < < i l n: Die Wkt jedes Schnitts ist das Produkt der Wahrscheinlichkeiten. Für unabhängige Ereignisse lassen sich damit die Wkten aller erzeugten Ereignisse berechnen. Das heißt, zwei Ereignisse A, B Ω sind unabhängig, wenn gilt: P(A B) = P(A) P(B). Drei Ereignisse A, B, C Ω sind unabhängig, wenn gilt: P(A B) = P(A) P(B), P(A C) = P(A) P(C), P(B C) = P(B) P(C), P(A B C) = P(A) P(B) P(C). Die Tripelbedingung folgt nicht aus den drei Paarbedingungen!

63 Verständnisfragen S405 Erinnerung Versuchen Sie, folgende Fragen frei aber genau zu beantworten, etwa so, wie Sie sie einem Kommilitonen / Kollegen erklären wollen. Was ist ein diskreter Wahrscheinlichkeitsraum? Wann nennen wir ihn endlich? Laplacesch? Was ist die endliche Gleichverteilung auf Ω? Welche allgemeinen Rechenregeln gelten für Ereignisse und Wkten? Welche Wkten haben die Augensummen bei zweimal Würfeln? dreimal? Wie berechnet man dies geschickt? Wie nutzt man hierzu die Faltung? Wie definiert man die bedingte Wahrscheinlichkeit? Warum ist dies ein Wahrscheinlichkeitsmaß? Wie lautet und was besagt die Formel von der totalen Wahrscheinlichkeit? und die Formel von Bayes? Wann sind zwei Ereignisse stochastisch unabhängig? drei Ereignisse? allgemein n Ereignisse? Was genau kann man damit berechnen? Nennen Sie Beispiele von un/abhängigen Ereignissen! Folgt aus paarweiser Unabhängigkeit gemeinsame Unabhängigkeit? Verständnisfragen S406 Erinnerung Aufgabe: Seien A, B, C Ω Ereignisse in einem WRaum (Ω, P). Gelten folgende Formeln allgemein? Geben Sie einen Beweis oder ein Gegenbeispiel! Kennen Sie zusätzliche, hinreichende Voraussetzungen? () P(A B) = P(A) P(B) () P(Ω A) = P(A) (3) P(A B) = P(A) P(B) (4) P(A B) = P(A) + P(B) (5) P(A B) = P(A) + P(B) (6) P(A B) = P(A) + P(B) P(A B) (7) P(A B C) = P(A) + P(B) + P(B) P(A B) P(B C) P(A C) Lösung: Zeichnen Sie Skizzen! Formeln (),(4),(6) gelten immer. () Falsch im Allgemeinen. Dies ist äquivalent zur Unabhängigkeit! (3) Falsch im Allgemeinen. Es braucht P(B A) = 0, z.b. B A. (5) Falsch im Allgemeinen. Es braucht P(A B) = 0, z.b. A B =. (7) Falsch im Allgemeinen. Es fehlt der Korrekturterm +P(A B C).

64 Verständnisfragen S407 Übung Aufgabe: () Die Wkt, die Klausur zu bestehen, beträgt 40%. Bei drei Versuchen bestehe ich mit 0%iger Sicherheit! Richtig? () Die Erfolgswkt einer unbemannten Marsmission liegt bei 50%. Es genügen also zwei Missionen, und wir haben 00%igen Erfolg! Lösung: () Offenbar ist 3 40% = 0% nicht die richtige Antwort! Die Wkt, alle dreimal nicht zu bestehen, ist bei Unabhängigkeit! = 0.6. Die Wkt, mindestens einmal zu bestehen, ist also nur %. Man könnte nun einwenden, dass diese Rechnung unrealistisch ist: Sobald man den ersten Test besteht, muss und wird man keine weiteren Versuche unternehmen. Wenn Sie möchten, können Sie auch dieses alternative Modell ausführlich durchrechnen. Es kommt dasselbe heraus! Ernster ist folgender Einwand: Klausuren sind keine Lotterie! Unabhängigkeit gilt nicht, da sich jeder vernünftige Prüfling nach einem ersten Misserfolg sorgfältiger vorbereitet. (Nicht wahr?) () Tatsächlich ist 50% = 00% nicht die richtige Antwort! Die Wkt von zwei Misserfolgen ist bei Unabhängigkeit = 0.5. Die Wkt von mindestens einem Erfolg ist demnach nur 0.75 = 75%. Fair oder gezinkt? S408 Übung Aufgabe: (Aus der NEW YORK TIMES, August 0) Von drei gleich aussehenden Münzen sind zwei fair, zeigen also Kopf 0 und Zahl mit gleicher Wkt, die dritte ist gezinkt und zeigt Kopf mit Wkt 60%. Sie wählen zufällig eine der Münzen aus und machen einen Testwurf. Wenn Sie Kopf erhalten, mit welcher Wkt ist Ihre Münze gezinkt? Lösung: Sie wählen eine faire Münze mit Wkt P(F ) = /3 und die gezinkte mit Wkt P(F ) = /3. Gegeben sind zudem die Wkten P(0 F ) = P( F ) = / sowie P(0 F ) = 0.6 und P( F ) = 0.4. Dank Bayes folgt also für die gesuchte Wahrscheinlichkeit: P(F 0) = P(0 F )P(F ) P(0 F )P(F ) + P(0 F )P(F ) = /5 /5 + /3 = 3 8 Anschaulich gesagt: Vor dem Testwurf ist die Wkt / , nach dem Testwurf 3/8 = Das ist plausibel. Ist eine höhere Sicherheit nötig, dann sollten Sie umfangreichere Tests durchführen.

65 Disjunkt versus unabhängig S409 Erläuterung Seien A, B Ω Ereignisse in einem Wahrscheinlichkeitsraum (Ω, P). Für die Wahrscheinlichkeit ihrer Vereinigung gilt die einfache Formel P(A B) = P(A) + P(B) P(A B). Diese Formel gilt immer. Meist kennt man P(A) und P(B), aber wie berechnet man den Störterm P(A B)? Zwei Fälle sind besonders nützlich und wichtig: A, B sind disjunkt, A B =, allgemeiner P(A B) = 0. Die Ereignisse A, B sind stochastisch unabhängig. P(A B) = P(A) + P(B) P(A B) = P(A) P(B) Das sind zwar nur die einfachsten (extremen) Fälle, aber sie treten häufig genug auf, um nützlich zu sein. Häufig nutzt (prüft oder fordert) man in Rechnungen daher Disjunktheit oder Unabhängigkeit. Disjunkt und unabhängig gilt nur für P(A) = 0 oder P(B) = 0. Korrelation von Ereignissen Wir untersuchen genauer die Un/Abhängigkeit von Ereignissen: Im Falle P(A B) = P(A) P(B) sind die Ereignisse unabhängig. Im Falle P(A B) > P(A) P(B) sind sie positiv korrelliert. Im Falle P(A B) < P(A) P(B) sind sie negativ korrelliert. Im Allgemeinen können wir dies wie folgt quantifizieren: Definition S4A (Kovarianz und Korrelation von Ereignissen) Seien A, B Ω Ereignisse in einem Wahrscheinlichkeitsraum (Ω, P). Wir definieren ihre Kovarianz durch Cov(A, B) := P(A B) P(A) P(B) = E(X Y ). S40 Ergänzung Hier nutzen wir die Zufallsvariablen X = I A P(A) und Y = I B P(B). Im Fall P(A), P(B) ]0, [ definieren wir ihre Korrelation durch Cor(A, B) := P(A B) P(A) P(B) P(A) P(A) P(B) P(B) = E(X Y ) V(X) V(Y ) [, ]. Im Fall P(A) {0, } oder P(B) {0, } setzen wir Cor(A, B) := 0.

66 Korrelation von Ereignissen S4 Ergänzung Die Korrelation von zwei Ereignissen beschreibt den Grad der Abhängigkeit. Hierzu gelten einfache aber nützliche Rechenregeln: Aufgabe: Beweisen Sie die folgenden Regeln: () Genau dann gilt Cor(A, B) = 0, wenn A und B unabhängig sind. () Es gilt Cor(A, A) =, Cor(A, A) =, Cor(A, B) = Cor(A, B). (3) Für alle A, B Ω gilt Cor(A, B) [, ] dank Cauchy Schwarz. (4) Aus Cor(A, B) = + folgt A = B fast sicher, also P(A B) = 0. (5) Aus Cor(A, B) = folgt A = B fast sicher, also P(A B) = 0. Bemerkung: Wenn P({ω}) > 0 für alle ω Ω gilt, dann gilt in (4) A = B bzw. in (5) A = B. Es ist jedoch möglich, dass unser WRaum (Ω, P) Elemente ω mit Wkt P({ω}) = 0 enthält, dann können wir nicht A = B bzw. A = B schließen, sondern nur P(A B) = 0 bzw. P(A B) = 0. Korrelation von Ereignissen S4 Ergänzung Lösung: () Im Sonderfall P(A) {0, } oder P(B) {0, } sind A und B unabhängig, und es gilt Cor(A, B) = 0 nach Vereinbarung. Im regulären Fall P(A), P(B) ]0, [ betrachten wir den obigen Bruch: Genau dann gilt Cor(A, B) = 0, wenn P(A B) P(A) P(B) verschwindet, also genau dann, wenn A und B unabhängig sind. () Einsetzen liefert sofort Cor(A, A) = + und Cor(A, A) =. Zum Ereignis A Ω betrachten wir X = I A P(A), zum Komplement A = Ω A entsprechend X = I A P(A) = ( I A ) ( P(A)) = X. Hieraus folgt Cov(A, B) = Cov(A, B) und Cor(A, B) = Cor(A, B). (3) Für X = I A P(A) gilt E(X) = 0 und V(X) = P(A)P(A). Ebenso für Y = I B P(B) gilt E(Y ) = 0 und V(Y ) = P(B)P(B). Wir finden E(XY ) = E(I A I B ) P(A)P(B) = P(A B) P(A)P(B). Dank der Cauchy Schwarz Ungleichung gilt E(XY ) E(X )E(Y ), also Cor(X, Y ) und somit Cor(X, Y ) [, ] wie gewünscht. (4/5) Gleichheit gilt bei Cauchy Schwarz für Y = λx mit λ R. Wegen = max X min X = max Y min Y bleibt nur λ = ±. In L (Ω, P) gilt demnach X = ±Y, also A = B bzw. A = B fast sicher.

67 Unabhängigkeit und Unkorreliertheit S43 Ergänzung Wir untersuchen die Summe X + Y von zwei Zufallsvariablen X, Y. Die Varianzen addieren sich nicht immer, die nötige Korrektur liefert gerade die Kovarianz: V(X + Y ) = V(X) + V(Y ) + Cov(X, Y ). Definition S4B (Kovarianz und Korrelation von Zufallsvariablen) Seien X, Y L (Ω, P) quadrat-summierbare Zufallsvariablen. Wir definieren ihre Kovarianz und ihre Korrelation durch Cov(X, Y ) := E [ (X E(X)) (Y E(Y )) ] = E(XY ) E(X)E(Y ), Cor(X, Y ) := Cov(X, Y ) V(X)V(Y ) bzw. := 0, falls V(X)V(Y ) = 0. Wir nennen die beiden Zufallsvariablen X, Y unkorreliert, wenn Cov(X, Y ) = 0 gilt, positiv korelliert, wenn Cov(X, Y ) > 0 gilt, negativ korelliert, wenn Cov(X, Y ) < 0 gilt. Unabhängigkeit und Unkorreliertheit S44 Ergänzung Satz S4C (Kovarianz als Skalarprodukt) Die Kovarianz verhält sich wie ein Skalarprodukt: Cov(X, X) = V(X) 0 Cov(X, Y ) = Cov(Y, X) Cov(a + bx, Y ) = b Cov(X, Y ) Die Varianz V(X) = Cov(X, X) entspricht dem Normquadrat, die Streuung σ(x) = V(X) entspricht somit der Norm. Genau dann gilt V(X) = 0, wenn X = const fast sicher. Für die Varianz einer Summe gilt Pythagoras: V(X + Y ) = V(X) + V(Y ) + Cov(X, Y ) Unkorreliert Cov(X, Y ) = 0 bedeutet orthogonal X Y. Dank Cauchy Schwarz Ungleichung gilt Cor(X, Y ) [, ]. Maximal gilt Cor(X, ±X) = ± und allgemein folgende Äquivalenz: Cor(X, Y ) = ± genau dann, wenn X = ±λy fast sicher (mit λ > 0).

68 Unabhängigkeit und Unkorreliertheit S45 Ergänzung Aufgabe: Seien X, Y : Ω R zwei Zufallsvariablen. Das Paar (X, Y ) nimmt die vier Werte (±, 0), (0, ±) R jeweils mit Wkt /4 an. () Berechnen Sie E(X), V(X) und E(Y ), V(Y ) sowie Cov(X, Y ). () Sind X und Y unkorreliert? (3) Sind X und Y unabhängig? (4) Welche Verteilung hat S = X + Y? Erwartung? Varianz? Lösung: () Es gilt P(X=±) = 4 und P(X=0) =, also E(X) = 0 und V(X) =. Ebenso für Y, denn Y hat dieselbe Verteilung. Cov(X, Y ) = E [ (X E(X)) (Y E(Y )) ] = E(XY ) = 0 () Demnach sind X und Y unkorrelliert. (3) Aber nicht unabhängig: P(X=) = P(Y =) = 4 aber P(X=, Y =) = 0 (4) Für die Summe S = X + Y gilt offensichtlich P(S=±) =, also E(S) = 0 = E(X) + E(Y ) und V(S) = = V(X) + V(Y ). Die Variablen X und Y sind abhängig aber dennoch unkorreliert. Diese schwächere Bedingung genügt für die Additivität der Varianzen. Unabhängigkeit und Unkorreliertheit S46 Ergänzung Aufgabe: Wir untersuchen die drei folgenden Aussagen über X, Y : () Die Zufallsvariablen X, Y sind unabhängig (gemäß Definition S3H). () Die Zufallsvariablen X, Y sind unkorreliert, also Cov(X, Y ) = 0. (3) Die Varianzen addieren sich gemäß V(X + Y ) = V(X) + V(Y ). Welche der sechs möglichen Implikationen gelten hier? Geben Sie jeweils einen Beweis oder ein Gegenbeispiel. Lösung: Pythagoras S4C zeigt sofort die Äquivalenz () (3). Es gilt () () : Satz S3I garantiert E(XY ) = E(X)E(Y ) für unabhängige Variablen, also Cov(X, Y ) = E(XY ) E(X)E(Y ) = 0. Die Umkehrung () () gilt nicht: Die vorige Aufgabe zeigt ein Gegenbeispiel. (Sie können leicht Varianten davon konstruieren.) Unabhängig impliziert unkorreliert, aber nicht umgekehrt! Aufgabe: Für alle zweiwertigen Zufallsvariablen X = a 0 + a I A und Y = b 0 + b I B ist unabhängig dasselbe wie unkorreliert. Lösung: S33

69 Ursprünge der Stochastik im Würfelspiel S47 Übung Chevalier de Meré ( ) war ein berufsmäßiger Spieler und suchte hierzu Rat beim Mathematiker Blaise Pascal (63 66). Speziell plagte ihn folgendes Problem. Beim Würfelspiel war er davon ausgegangen, dass folgende Ereignisse gleich wahrscheinlich seien: A: Bei 4 Würfen eines Würfels wird mindestens eine Sechs geworfen. B: Bei 4 Würfen zweier Würfel wird mind. eine Doppelsechs geworfen. Er argumentierte ganz einfach und anschaulich so: Eine Doppelsechs ist 6 mal unwahrscheinlicher, dafür führt man 6 mal mehr Würfe aus, also sind beide gleich wahrscheinlich. Damit hatte er jedoch auf Dauer Geld verloren, was ihn sehr wunderte und vor allem sehr verdross. Wissen macht Ah! Unwissen macht Aua! Unkenntnis führt zu Fehleinschätzung und schlimmer noch zu Fehlentscheidungen. Ursprünge der Stochastik im Würfelspiel S48 Übung Aufgabe: Wie wahrscheinlich sind diese Ereignisse A und B? Auf welches sollte der Chevalier de Meré demnach wetten? Lösung: (A) Die Wahrscheinlichkeit, bei vier Würfen keine Sechs zu werfen ist ( 5 6 )4 = Bei vier Würfen mindestens eine Sechs zu werfen, hat somit die Gegenwahrscheinlichkeit (B) Die Wahrscheinlichkeit, bei 4 Würfen keine Doppelsechs zu werfen ist ( ) Bei 4 Würfen mindestens eine Doppelsechs zu werfen, hat somit die Gegenwahrscheinlichkeit Der Chevalier de Meré sollte demnach auf Ereignis A wetten. Der kleine Unterschied von etwa.6% fällt nicht sofort auf. Bei häufiger Wiederholung fällt er jedoch spürbar ins Gewicht. Für professionelle Spieler wie Meré ist genaues Wissen wertvoll. Gleiches gilt für alle Prozesse, die häufig wiederholt werden.

70 Wie fair ist ein fairer Würfel? S49 Übung Bei einem fairen Würfel sind alle sechs Ergebnisse,, 3, 4, 5, 6 gleich wahrscheinlich. Manche verstehen fair wesentlich strenger so, dass bei sechsmaligem Würfeln jedes der möglichen Ergebnisse,, 3, 4, 5, 6 einmal autreten muss. (Sonst wär s ja irgendwie unfair... ) Aufgabe: () Warum ist das keine vernünftige Definition von fair"? () Wie wahrscheinlich ist das? Was sagt Ihre Intuition? Rechnung? (3) Können Sie dennoch eine realistische Vorhersage machen? Lösung: () Der Würfel müsste wissen, was er noch würfeln darf. Insbesondere beim letzten Wurf wäre er festgelegt und nicht zufällig! () Es gibt 6 6 Möglichkeiten (unter Beachtung der Reihenfolge). Alle sind gleich wahrscheinlich. Darunter sind 6! Möglichkeiten, bei denen jede der Zahlen,, 3, 4, 5, 6 genau einmal vorkommt. Die Wahrscheinscheinlichkeit ist also 6!/6 6 = 70/ Das ist eher unwahrscheinlich und tritt nur etwa jedes 65. Mal auf. (3) Gesetz der großen Zahlen (S3J): Bei häufiger unabhängiger Wiederholung nähern sich die relativen Häufigkeiten den Wkten, hier also /6. Sechsmalige Wiederholung ist aber noch keine große Zahl. Efrons intransitive Würfel S40 Übung Aufgabe: Der Statistiker Bradley Efron hat folgende Würfel erfunden: A : 5, 5, 5,,, B : 6, 6,,,, C : 3, 3, 3, 3, 3, 3 D : 4, 4, 4, 4, 0, 0 Je zwei dieser Würfel treten gegeneinander an, z.b. A gegen B. Wie groß sind die Gewinnwahrscheinlichkeiten P(A > B) etc.? Lösung: Abzählen aller Gewinnkombinationen ergibt: P(A > B) = /36 = /3 P(B > C) = /36 = /3 P(C > D) = /36 = /3 P(D > A) = /36 = /3 Es gibt keinen besten Würfel: Jeder wird vom nächsten geschlagen! P(A > C) = 8/36 = / P(B > D) = 0/36 = 5/9

71 Mikrozensus: Familienbande S4 Übung Laut Mikrozensus 009 haben von ca. Mio Haushalten mit Kindern (vereinfacht) etwa 5% ein Kind, 36% zwei Kinder, 9% drei Kinder, % vier Kinder, % fünf Kinder. (Weitere vernachlässigen wir hier.) Die Wkten von Mädchen und Jungen seien gleich und unabhängig. Aufgabe: () Stimmt die Schlagzeile Jedes zweite Kind ist Einzelkind? Wie viele sind Einzelkinder? oder eins von, 3, 4, 5 Geschwistern? () Angenommen Sie haben später einmal drei Kinder. Mit welcher Wkt sind es zwei Mädchen und ein Junge? (3) Angenommen Sie haben später einmal vier Kinder. Mit welcher Wkt sind es zwei Mädchen und zwei Jungs? (4) Xanthia hat zwei Geschwister, dabei ist das ältere ein Mädchen. Mit welcher Wahrscheinlichkeit ist das andere Geschwist ein Junge? (5) Yago hat zwei Geschwister, dabei (mindestens) eine Schwester. Mit welcher Wahrscheinlichkeit ist das andere Geschwist ein Junge? (6) Sie lernen zufällig Zé kennen, von dem Sie zunächst nichts wissen. Wie groß ist die Wkt, dass er (mindestens) eine Schwester hat? Mikrozensus: Familienbande Lösung: () Es gab Mio = Einzelkinder, Mio = Kinder mit genau einem Geschwist, Mio = Kinder mit genau zwei Geschwistern Mio = Kinder mit drei Geschwistern und 5 00 Mio = Kinder mit vier Geschwistern. Insgesamt sind das Kinder. Etwa jedes dritte ist Einzelkind. Die Zeitungsschlagzeile ist also falsch. Sie gründet, wie so oft, auf mangelnder Sachkenntnis. Man muss eine Statistik auch lesen können! () In Geburtsreihenfolge: {MMJ, MJM, JMM}. Das sind drei von acht gleichwahrscheinlichen Möglichkeiten. Die Wkt beträgt 3/8 = 37.5%. (3) Hier {MMJJ, MJMJ, MJJM, JMMJ, JMJM, JJMM}, also 6 von 6 gleichwahrscheinlichen Möglichkeiten. Die Wkt beträgt 6/6 = 37.5%. Diese beiden Fragen sind Spezialfälle der Binomialverteilung T3B. (4) Das Geschlecht des jüngeren Geschwist ist unabhängig vom Geschlecht der älteren. Also ist die Wahrscheinlichkeit / = 50%. S4 Übung

72 Mikrozensus: Familienbande S43 Übung (5) In Geburtsreihenfolge ist möglich: MM, MJ, JM, JJ. Das Ereignis A = {mindestens ein Bruder} hat Wkt P(A) = 3/4. Das Ereignis B = {mindestens eine Schwester} hat Wkt P(B) = 3/4. Gefragt ist die Wkt P(A B) = P (A B)/P (B) = (/) / (3/4) = /3. Alternativ: Das entspricht zwei der drei Möglichkeiten MM, MJ, JM. Vergleichen Sie (4) und (5): Der Unterschied mag überraschen. (6) Zé habe n {0,,, 3, 4} Geschwister. Dann gilt: P ( Zé hat keine Schwester Zé hat n Geschwister ) = n Als nächstes benötigen wir die Wahrscheinlichkeiten P ( Anzahl der Kinder mit n Geschwistern Zé hat n Geschwister ) =. Gesamtzahl aller Kinder Aus dem Mikrozensus () berechnen wir (auf drei Nachkommastellen): n = p n Mikrozensus: Familienbande S44 Übung Damit finden wir schließlich die Gesamtwahrscheinlichkeit: P ( Zé hat keine Schwester ) 4 = P ( Zé hat n Geschwister und keine Schwester ) = n=0 4 n=0 P ( Zé hat n Geschwister ) P ( Zé hat keine Schwester Zé hat n Geschwister ) = Die gesuchte Wahrscheinlichkeit ist demnach: P ( Zé hat mindestens eine Schwester ) = P ( Zé hat keine Schwester ) = 0.44 Mit den Mitteln dieses Kapitels verfügen Sie über eine bequeme und präzise Notation zur Berechnung von Wahrscheinlichkeiten.

73 Ausfallwkt: Welcome to the machine! S45 Aufgabe: Drei unabhängige Bauteile haben die Ausfallwkten P(A) = a = 0.3, P(B) = b = 0.4, P(C) = c = 0.5. (0) Mit welcher Wkt fällt mindestens ein Teil aus? () Genau 0,,, 3? () Wenn nur genau ein Teil ausfällt, mit welcher Wkt ist es A, B, C? (3) Konstruieren Sie als Modell hierfür explizit einen WRaum (Ω, P). Lösung: (0) Offenbar ist =. unsinnig! (Warum?) Kein Teil fällt aus, wenn A funktioniert, B funktioniert, C funktioniert: {Keins fällt aus} = A B C Dank Unabhängigkeit können wir diese Wkt als Produkt berechnen: P(Keins fällt aus) = P(A) P(B) P(C) = = 0. Die Wkt, dass mindestens ein Teil ausfällt, ist demnach 0. = Der Trick verkürzt die Rechnung. Frage () geht den langen Weg. Ausfallwkt: Welcome to the machine! S46 () Mit welcher Wkt fallen genau 0,,, 3 Teile aus? Wir zerlegen: {Keins fällt aus} = F 0 := A B C {Eins fällt aus} = F := (A B C) (A B C) (A B C) {Zwei fallen aus} = F := (A B C) (A B C) (A B C) {Drei fallen aus} = F 3 := A B C Wir nutzen alle oben ausgeführten Rechenregeln: Bei Vereinigung disjunkter Ereignisse ist die Wkt additiv. Bei Schnitten unabhängiger Ereignisse ist die Wkt multiplikativ. P(Keins fällt aus) = P(F 0 ) = a b c = 0. P(Eins fällt aus) = P(F ) = a b c + a b c + a b c = 0.44 P(Zwei fallen aus) = P(F ) = a b c + a b c + a b c = 0.9 P(Drei fallen aus) = P(F 3 ) = a b c = 0.06 Plausibilitätsprüfung: Für WMaß gilt =.

74 Ausfallwkt: Welcome to the machine! S47 Übung () Genau ein Teil fällt aus; mit welcher Wkt ist es A, B, C? Die Wkten berechnen wir dank Unabhängigkeit (wie zuvor): Nur A fällt aus: X := A B C, P(X) = = 0.09 Nur B fällt aus: Y := A B C, P(Y ) = = 0.4 Nur C fällt aus: Z := A B C, P(Z) = = 0. Eins fällt aus: F := X Y Z, P(F ) = = 0.44 Für die bedingten Wahrscheinlichkeiten folgt somit: P(A F ) = P(A F ) P(F ) P(B F ) = P(B F ) P(F ) P(C F ) = P(C F ) P(F ) = P(X) P(F ) = P(Y ) P(F ) = P(Z) P(F ) = = = Plausibilitätsprüfung: Für WMaß gilt =. Ausfallwkt: Welcome to the machine! S48 Übung (3) Wir konstruieren explizit einen geeigneten WRaum (Ω, P). Mögliches Modell: Ω = {0, } 3 mit 0 = fehlerfrei und = fällt aus. Die zugehörigen Wkten erhalten wir dank Unabhängigkeit: P({}) = a b c = 0.06, P({0}) = a b c = 0.06, P({0}) = a b c = 0.09, P({00}) = a b c = 0.09, P({0}) = a b c = 0.4, P({00}) = a b c = 0.4, P({00}) = a b c = 0., P({000}) = a b c = 0. Hiermit ist (Ω, P) tatsächlich ein WRaum: P 0 und P(Ω) =. Unsere Ereignisse sind dann A = {??} und B = {??} und C = {??} sowie ihre Komplemente A = {0??} und B = {?0?} und C = {??0}. Die zugehörigen Wkten erhalten wir jeweils durch Summation. Ebenso X = {00}, Y = {00}, Z = {00} und F = {00, 00, 00}. Das explizite Modell (3) ist detailliert; das kann helfen. Oft genügt die implizite Schreibweise wie in (0 ); sie ist schnell und bequem. Es liegt immer ein Modell zu Grunde; im Zweifel führt man es aus.

75 Was nützen dem Pfau seine Federn? S49 Pfauen-Männchen haben ein prachtvolles Gefieder. Fürs Überleben ist das leider hinderlich: Tarnung, Flucht, Energie,... Warum lohnen sich dennoch lange Federn? Wozu dienen sie? Angenommen, es gebe fitte und unfitte Pfauen-Männchen. Letztere werden öfter von Raubtieren gefressen etc. Sowohl fitte als auch unfitte können kurze oder lange Federn haben. Die mit langen Federn werden aufgrund der genannten Nachteile jedenfalls öfter gefressen. Eine Population von Pfauen-Männchen könnte etwa so aussehen: Pfauen fit unfit kurze Federn 40% 0% lange Federn 30% 0% Das Pfauen-Weibchen sieht nicht die Fitness, sondern nur die Federn! Aufgabe: Welche Strategie der Partnerwahl ist für sie vorteilhaft? Federlänge ignorieren: Trefferquote 70 : 30 (möglich) Kurze Federn bevorzugen: Trefferquote 40 : 0 (schlechter) Lange Federn bevorzugen: Trefferquote 30 : 0 (besser!) Trotz aller Nachteile zahlen sich lange Federn doch aus! Ineffizienz ist der Preis für unvollständige Information. Was nützen dem Pfau seine Federn? S430 Erläuterung Das auffallend prächtige Gefieder der Pfauen-Männchen wird in der Verhaltensbiologie als visuelles Ornament bezeichnet. Die lange Schleppe ist zwar hinderlich und vermindert das Flugvermögen, paradoxerweise kann es dennoch ein Indikator für genetische Fitness sein und Pfauen-Weibchen als Indiz für gesunden Nachwuchs dienen. (Siehe unser Zahlenbeispiel.) Wäre es nicht effizienter, Pfauen würden diesen Aufwand sparen und die Energie in bessere Überlebensstrategien stecken? Auf den ersten Blick betrachtet ja. Aber für ein Weibchen gibt es keine bessere Wahl: Es kennt nicht die tatsächliche Fitness, sondern nur das vom Männchen ausgesandte Signal der Federn. Auf Grundlage dieser unvollständigen Information muss es sich (in unserem Modellbeispiel) tatsächlich für die langen Federn entscheiden, selbst wenn das Überlebensnachteile mit sich bringt, auch für seinen eigenen Nachwuchs! Damit bleibt dann auch den Männchen keine Wahl: Lange Federn sind unsinnig aber werden zum Must-Have. Auch Menschen ist dieses Phänomen vertraut: Manche Männer beeindrucken Frauen, indem sie Geld verschwenden oder andere verrückte Dinge tun. Mit diesem Verhalten schaden sie sich zunächst selbst und es erscheint daher irrational. Wäre dieses Verhalten insgesamt nachteilig, so würde man vermuten, dass es auf lange Sicht ausstirbt. Das ist jedoch nicht der Fall, da Frauen dieses Verhalten als Indikator für (gesellschaftlichen) Erfolg interpretieren können und eventuell bei der Partnerwahl belohnen. (Das funktioniert selbstverständlich auch umgekehrt... ) Dieses Phänomen wird Handicap-Prinzip genannt. Beispiele gibt es viele: Produktwerbung verschwendet Geld, wird aber vom Käufer belohnt. Manch akademischer Titel ist scheinbar Zeitverschwendung, wird aber vom Arbeitgeber belohnt. Auch Ihr Studium ist nur teilweise für Ihren Beruf relevant, und dennoch wird diese Anstrengung meist belohnt. Zum Beispiel gelten Leistungen in Mathematik als zuverlässiger Indikator für intellektuelle Leistungsfähigkeit.

76 Kann ein unnützer Doktortitel doch nützlich sein? S43 Eine Personalchefin sucht für eine Stelle einen Ingenieur (m/w). Aus Erfahrung schätzt sie die allgemeine Bewerberlage wie folgt: Bewerber geeignet ungeeignet gesamt Diplom/Master 50% 5% 75% Promotion 0% 5% 5% gesamt 70% 30% 00% Als individuelle Information hat sie zunächst nur den Abschluss laut Bewerbungsunterlagen. Die eigentlich interessante Zielgröße der tatsächlichen Eignung kennt sie hingegen nicht. Eine Promotion kostet Zeit und Mühe, bringt aber für diese Stelle keinen direkten Nutzen. Aufgabe: Welche Strategie ist bei ihrer Auswahl vorteilhaft? Abschluss ignorieren: Trefferquote 70 : 30 (möglich) Master einstellen: Trefferquote 50 : 5 (schlechter) Doktor einstellen: Trefferquote 0 : 5 (besser!) Trotz aller Nachteile kann sich eine Promotion auszahlen... selbst wenn sie für die eigentliche Tätigkeit nicht relevant ist! Vorurteil und Gerechtigkeit Wir untersuchen hier zwei simple aber frappierende Beispiele: Federn und Doktortitel. Beide sind durchaus realistisch und handfeste Illustrationen für das Konzept der bedingten Wahrscheinlichkeit: Diese ist nicht nur eine schöne Theorie, sondern alltägliche Praxis. S43 Erläuterung Die Argumente in unserer fiktiven Bewerbungssituation mögen manche für ungerecht halten. In der Tat basieren Sie auf Vorurteilen des Arbeitgebers ein eher negativ besetzter Ausdruck, aber inhaltlich bedeutet es dasselbe wie bedingte Wahrscheinlichkeit: Er nutzt seine Erfahrung. Unter den gegebenen spärlichen Informationen ist das Vorurteil nützlicher als gar kein Urteil. Das Grundproblem: Die primäre Zielgröße Eignung ist nicht direkt zugänglich. Der sekundäre Faktor Ornament ist eigentlich unwichtig, dafür aber leicht sichtbar. In Ermangelung primärer Information muss man sich mit sekundärer Information begnügen. Diese erhält dadurch eine größere Bedeutung als sie eigentlich haben sollte, und das wird als ineffizient oder ungerecht empfunden. Das ist der Preis für unvollständige Information! Zur Beruhigung der Gemüter: Nichts hält den Arbeitgeber davon ab, über die erste grobe Vorinformation hinaus genauere Information zu gewinnen, zum Beispiel durch Gespräche, Tests oder eine Probezeit. Genau das wird in der Praxis auch erfolgreich genutzt. Das ist der Vorteil, wenn man Information nicht nur passiv beobachtet, sondern aktiv herstellen kann. Schließlich zur Ehrenrettung der Promotion, auch aus meiner persönlichen Sicht: Viele Studenten empfinden große Begeisterung für ihr Fach. Dies kann sogar dazu führen, dass sie aus ehrlichem intrinsischem Interesse einer Frage auf den Grund gehen wollen und darüber promovieren. Das wird durch die obigen allzu berechnenden Argumenten nicht in Zweifel gezogen!

77 Nun zu etwas völlig anderem... S433 Erläuterung Mit den Mitteln dieses Kapitels verfügen Sie über eine bequeme und präzise Notation zur Berechnung von Wahrscheinlichkeiten. Insbesondere die Formel von Bayes ist sehr einfach aber nützlich. Man kann sie in den unterschiedlichsten Situationen einsetzen: Glücksspiel, Testverfahren, Partnerwahl, Bewerbung, etc. Versuchen wir es mal mit den großen Fragen der Menschheit... There is a theory which states that if ever anybody discovers exactly what the Universe is for and why it is here, it will instantly disappear and be replaced by something even more bizarre and inexplicable. There is another theory which states that this has already happened. (Douglas Adams, 95 00) Seul au monde?

78 Sind Sie das einzige denkende Wesen? S435 Erläuterung Als Kopfnuss noch eine erstaunliche Rechnung, die nicht ganz ernst gemeint ist. (Oder doch?) Es gibt Menschen, die glauben, sie seien das einzige denkende Wesen im Universum. Für den Fall, dass Sie sich diese Frage stellen, schlage ich Ihnen ein stochastisches Argument vor. (a) Angenommen, es gibt genau X denkende Wesen im Universum. Diese Anzahl X ist Ihnen nicht bekannt, Sie nehmen deshalb die Gleichverteilung auf der Menge {,, 3,..., n} an, etwa n < e 00. Wir wollen nur annehmen, dass n sehr groß ist, aber doch kleiner als die geschätzten 0 80 Elementarteilchen im Universum. (Paralleluniversen nicht mitgerechnet, wie auch?) (b) Angenommen, nur eines der Wesen hat zufällig die Erleuchtung: Ich denke, also bin ich... Bin ich das einzige denkende Wesen? Das ist von allen Annahmen die willkürlichste und rechnerisch auch die einschneidendste. Andererseits: Wer sich fragt, ob er das einzige denkende Wesen im Universum ist, der wird auch vor dieser Annahme der Einzigkeit nicht zurückschrecken. Also sei s drum. Aufgabe: Angenommen, dieses denkende Wesen sind zufällig Sie. Mit welcher Wahrscheinlichkeit können Sie nun zurückschließen, dass Sie das einzige denkende Wesen im Universum sind? Sind Sie das einzige denkende Wesen? S436 Erläuterung Lösung: Nach Annahme der Gleichverteilung (a) wissen Sie P(X=) = P(X=) =... = P(X=n) = n. Ihre Erleuchtung E hat nach (b) die Wahrscheinlichkeit P(E X=k) = k. Ihre Einzigkeit {X = } hat nach Bayes die Wahrscheinlichkeit P(X = E) = P(E X=) P(X=) n k= P(E X=k) P(X=k) = n n k= k n = n k= k ln n > 00 = % Zur harmonischen Reihe siehe??. Unter den genannten Annahmen (a) und (b) gibt es also eine nicht zu vernachlässigende Wahrscheinlichkeit von > %, dass Sie das einzige denkende Wesen im Universum sind. Gut, dass wir das klären konnten. Ich gratuliere!

79 Objektive und subjektive Wahrscheinlichkeit S437 Erläuterung Ein Wahrscheinlichkeitsraum (Ω, P) ist ein theoretisches Modell. Was sagt es über die Wirklichkeit? Was bedeuten Aussagen wie: Das Ereignis A tritt mit Wahrscheinlichkeit P(A) ein? Objektive Interpretation: Die Wahrscheinlichkeit drückt die relative Häufigkeit bei beliebig wiederholbaren Experimenten aus. Sie kann empirisch überprüft werden, man kann sie messen! Bei einem fairen Würfel erscheinen gerade Zahlen mit Wkt /. Bei unserem gezinkten Würfel haben gerade Zahlen Wkt 53%. Die Wkt für 6 Richtige beim Lotto ist Eins zu ( 49 6 ) = Subjektive Interpretation: Die Wahrscheinlichkeit drückt den Grad unseres Unwissens aus, oder die gefühlte Wahrscheinlichkeit. Dies hat keinen präzisen Sinn und kann nicht überprüft werden. Morgen beträgt die Regenwahrscheinlichkeit 70%. Die Klausur werde ich mit 90% Wahrscheinlichkeit bestehen. Mit Wahrscheinlichkeit % bin ich das einzige denkende Wesen. Objektive und subjektive Wahrscheinlichkeit S438 Erläuterung Wir suchen nach objektiven Aussagen und Schlussfolgerungen. Aussagen, die keine Prüfung erlauben, haben keinen objektiven Sinn. Präzise Aussagen und rationales Entscheiden folgen strengen Regeln: Dies ist das übliche und bewährte Vorgehen der Naturwissenschaften! Theorie: Die präzise Beschreibung des zugrundegelegten Modells dient der wissenschaftlichen Redlichkeit: Es enthält alle Annahmen und die festgelegten Wahlen, Parameter, Kalibrierungen etc. Alle Rechnungen bauen auf diesen Daten auf und auf nichts weiter. Empirie: Ob ein Modell zur Beschreibung der Realität geeignet ist, oder ob von zwei Modellen eines besser ist als das andere, lässt sich empirisch feststellen: Man vergleicht hierzu die Vorhersagen und prüft sie durch Experimente stochastisch unabhängig wiederholt! Klassisches Beispiel einer falsifizierbaren Theorie (als populärer Ulk): Die Hummel hat 0.7cm Flügelfläche und wiegt.g. Nach den Regeln der Aerodynamik ist es unmöglich, bei diesem Verhältnis zu fliegen. Zum Glück weiß die Hummel das nicht und fliegt einfach trotzdem. Man kann die Theorie empirisch überprüfen und falsifizieren!

80 Wahrscheinlichkeit impliziert nicht Kausalität! S439 Erläuterung Aufgabe: Wir beobachten sehr häufig folgende Ereignisse: R = {Es regnet}, S = {Scheibenwischer laufen} () Es gilt etwa P(S R) = 99%. Was kann man hieraus folgern? Verursacht Regen das Anschalten der Scheibenwischer? () Es gilt auch etwa P(R S) = 99%. Was kann man hieraus folgern? Verursacht das Anschalten der Scheibenwischer etwa Regen? Dieser Denkfehler ist absurd aber dennoch sehr häufig. Dieses Beispiel ist so gewählt, dass der Denkfehler möglichst auffällig ist, gar absurd. Doch wo genau liegt der Fehler? Wir wissen alle aus Erfahrung, dass das Anschalten der Scheibenwischer nicht Regen verursacht. Woher wissen wir das? Das sagen uns nicht die obigen Wahrscheinlichkeiten, sondern folgendes aktive Experiment: Wir können willkürlich / zufällig den Scheibenwischer anschalten und den Regen beobachten. Nach zahlreicher Wiederholung dieses Experiments sind wir sicher, dass der vermutete kausale Zusammenhang nicht besteht. Kausalität beweist man nur aktiv, durch randomisierte Tests. So lernten wir als Kinder, Zusammenhänge zu begreifen und mögliche Erklärungen zu erhärten: durch ausgiebige Tests und endlos wiederholte Spiele. Das ist eine überaus sinnvolle Strategie! Wahrscheinlichkeit impliziert nicht Kausalität! S440 Erläuterung Kausalität impliziert meist gewisse Wahrscheinlichkeiten. Unser Erfahrungswissen nutzen wir zur Erstellung unserer Modelle. Umgekehrt jedoch muss man vorsichtig sein: Die Kenntnis gewisser Wahrscheinlichkeiten impliziert noch keine Kausalität. Wissenschaftliche Grundregel: Ursache und Wirkung lässt sich nur durch ein detailliertes Verständnis der Mechanismen ergründen! Ein passives, statistisches Abbild der Situation ist hierfür zu grob. Um Kausalität zu messen, nutzt man aktiv randomisierte Tests. Beispiel: Menschen mit hohem Vitamin-C-Gehalt im Blut erleiden seltener einen Herzinfarkt. Kann man hieraus folgern, dass Vitamin C das Risiko mindert? Nein, daraus allein noch nicht! Ein hoher Vitamin-C-Gehalt kann durch andere Faktoren verursacht werden (z.b. gesunder Lebenswandel, viel Obst, viel Sport) und diese mindern das Infarktrisiko, nicht das Vitamin C: Es ist noch nicht schlüssig, ob zusätzliches Vitamin C das Risiko senkt oder gar erhöht. Da sehr viele (bekannte und unbekannte) Faktoren das Infarktrisiko beeinflussen, muss man mit voreiligen Schlussfolgerungen sehr vorsichtig sein. Die Wirkung von Vitamin C auf das Infarktrisiko kann man dennoch testen: Sorgfältig konstruiert kann ein randomisierter kontrollierter Test (RCT) hierauf Antwort geben. Dies ist zwar extrem aufwändig, aber allgemein das beste Studiendesign in der medizinischen, psychologischen und ökonomischen Forschung.

81 Das Runde muss ins Eckige. S44 Angenommen beim Tischkicker zwischen gleich starken Gegnern fallen die Tore zufällig und unabhängig voneinander. Gespielt wird bis 0. Aufgabe: Wie stehen die Gewinnchancen bei 8 : 9? bei 4 : 7? Lösung: Wahrscheinlichkeitstafel für den Sieg von A beim Stand a : b. Am oberen und linken Rand ist das Spiel beendet und die Wkt ist entweder 0 oder. Im Inneren ist jeder Eintrag der Mittelwert aus dem linken und dem oberen Nachbarn. a : b Das Runde muss ins Eckige. S44 Übung Wie kommt diese Berechnung zustande? Ganz einfach dank Bayes! Beim Stand von a : b gibt es genau zwei mögliche Fortgänge: Als nächstes trifft entweder Spieler A oder es trifft Spieler B. Sei A[a : b] das Ereignis Spieler A gewinnt nach Stand a : b. Dank Satz SB gilt für die totale Wahrscheinlichkeit: P ( A[a : b] ) = P ( A[a : b] A trifft ) P ( A trifft ) + P ( A[a : b] B trifft ) P ( B trifft ) = P ( A[a + : b] ) P ( A trifft ) + P ( A[a : b + ] ) P ( B trifft ) Mit dieser Rekursionsformel kann man nun die Tabelle ausfüllen. Besonders bequem geht s mit einer Tabellenkalkulation, z.b. LibreOffice. Pascal lässt grüßen: Die nte Diagonale unserer Tabelle entspricht der nten Zeile des Pascalschen Dreiecks (hier kumuliert und normiert). In unserer Tabelle versteckt sich die Binomialverteilung!

82 Das Runde muss ins Eckige. S443 Übung Angenommen beim Tischkicker fallen die Tore zufällig und unabhängig voneinander mit Wahrscheinlichkeit 60 : 40. Gespielt wird bis 0. Aufgabe: Wie stehen die Gewinnchancen bei 8 : 9? bei 4 : 7? Lösung: Wahrscheinlichkeitstafel für den Sieg von A beim Stand a : b. Am oberen und linken Rand ist das Spiel beendet und die Wkt ist entweder 0 oder. Im Inneren ist jeder Eintrag 0.4 mal der linke Nachbar plus 0.6 mal der obere Nachbar. a : b Das Runde muss ins Eckige. S444 Übung Angenommen beim Tischkicker fallen die Tore zufällig und unabhängig voneinander mit Wahrscheinlichkeit :. Gespielt wird bis 0. Aufgabe: Wie stehen die Gewinnchancen bei 8 : 9? bei 4 : 7? Lösung: Wahrscheinlichkeitstafel für den Sieg von A beim Stand a : b. Am oberen und linken Rand ist das Spiel beendet und die Wkt ist entweder 0 oder. Im Inneren ist jeder Eintrag /3 mal der linke Nachbar plus /3 mal der obere Nachbar. a : b

83 Irrfahrten und Potentiale: das Dirichlet Problem S445 Auf einem Spielfeld Ω Z ziehen Sie jeweils mit Wkt /4 nach links / rechts / oben / unten. Das Spiel endet mit den Gewinnen am Rand. 0 0 Ω Aufgabe: () Wie groß ist die Gewinnerwartung u(x, y) auf jedem Feld? Wo ist sie maximal? Ist die gesuchte Lösung u : Ω R eindeutig? Wie berechnet man sie? möglichst effizient? näherungsweise? () Mechanik: elastisches Netz aus Massen und Federn in Ruhelage. (3) Kirchoff: äußere / innere Spannung einer elektrischen Schaltung. (4) Fourier: Die Wärmeleitungsgleichung t u = κ u fließt von jeder Startverteilung u 0 zur gesuchten stationären Lösung u mit u = 0. Irrfahrten und Potentiale: das Dirichlet Problem S446 0 y x

84 Irrfahrten und Potentiale: das Dirichlet Problem S447 Erläuterung Lösung: () Sei u(x, y) die Gewinnerwartung auf dem Feld (x, y) Ω. In jedem Randpunkt (x, y) Ω ist der Gewinn u(x, y) fest vorgegeben. In jedem inneren Punkt (x, y) Int Ω gilt die Mittelwerteigenschaft: u(x, y) = 4 u(x, y) + 4 u(x+, y) + 4 u(x, y ) + 4u(x, y+) Eine solche diskrete Funktion u : Z Ω R nennen wir harmonisch. Wir betrachten hier das ebene Gitter Z und darin eine Teilmenge Ω Z. Innere Punkte z Ω sind solche, deren vier direkte Nachbarn auch in Ω liegen. Bei einem Randpunkt z Ω liegt mindestens ein Nachbar außerhalb von Ω. Dirichlet Problem: In jedem Randpunkt z Ω ist der Wert u(z) fest vorgegeben durch eine Funktion v = u Ω : Ω R. LGS: Gesucht ist also eine harmonische Funktion u : Ω R mit u Ω = v. Existiert eine Lösung? Ist sie eindeutig? Minimum-Maximum-Prinzip: Jede harmonische Funktion u : Ω R auf einem beschränkten Gebiet Ω nimmt Min & Max am Rand Ω an: min ( u ) = min ( u Ω ), max ( u ) = max ( u Ω ) Eindeutigkeit: Zwei harmonische Funktionen u, ũ : Ω R mit gleichen Randwerten u Ω = ũ Ω sind gleich auf ganz Ω, denn (u ũ) Ω = 0. Irrfahrten und Potentiale: das Dirichlet Problem S448 Dieses einfache Beispiel illustriert das allgemeine und überall wichtige Dirichlet Problem. Die Rechnung ist trickreicher als in der vorigen Aufgabe: Dort konnten wir mit den Startwerten direkt Zeile für Zeile ausrechnen. Hier hingegen muss man wirklich ein nicht-triviales LGS lösen! Die Aufgabe führt uns zu einem linearen Gleichungssystem... mit 7 = 84 Unbekannten! Für diese finden wir genau 84 Gleichungen. Das sieht vernünftig aus, bedeutet aber noch nicht, dass es genau eine Lösung gibt. Hierzu müssen wir genauer hinschauen und präzise begründen! Meine Tabellenkalkulation LibreOffice weigert sich zunächst mit Fehler 5: zirkulärer Bezug. Mit Extras > Optionen > Calc > Iterationen rechnet sie dann iterativ obige Näherungslösung aus.

85 Minimalflächen in der Natur S449 Die Oberflächenspannung von Seifenblasen führt zu Minimalflächen. Der vorgegebene Rand ist hier ein Drahtrahmen. (Emanuele Paolini, oro.math.unifi.it/paolini/diletto/minime) Minimalflächen in der Architektur S450 Das Zeltdach des Olympiastadions in München ist eine Minimalfläche. Es beruht auf Ideen von Frei Paul Otto (95 05) vom Institut für Leichte Flächentragwerke der Universität Stuttgart.

86 Harmonische Funktionen: Gleichgewicht! S45 Erläuterung Kontext und Anwendung ändern sich, die Rechnung bleibt dieselbe! () Wir betrachten Massenpunkte in (x, y, u(x, y)) R 3 in Ruhelage. Jeder ist durch gleich starke Federn mit seinen Nachbarn verbunden. Es gilt: Ruhelage = Kräftegleichgewicht Mittelwerteigenschaft! Sie können es nachrechnen! Genauer gesagt ist dies die Näherung bei geringer Krümmung. U N (3) Wir betrachten die gezeigte Schaltung mit vier gleichen Widerstände. An den Nachbarpunkten liegen die Potentiale U E, U N, U W, U S an. U W U U E Ohmsches Gesetz und Kirchhoffsche Regel: U S U = U E + U N + U W + U S 4 Ausführlich: Es gilt das Ohmsche Gesetz I E = (U E U)/R. Die Kirchhoffsche Regel besagt hier I E + I N + I W + I S = 0. Einsetzen und Auflösen nach U ergibt die Mittelwerteigenschaft! Wir können Ω als Schaltung realisieren und am Rand die Spannungen 0V, V, V anlegen. Mit einem Voltmeter messen wir das Potential u(x, y) im Inneren und finden die obige Lösung. Wärmeleitungsgleichung: Alles fließt! S45 Erläuterung (4) Wir betrachten Ω als ein Bauteil aus wärmeleitendem Material. An den Rändern liegen die Temperaturen 0 C, 00 C, 00 C an. Wärme fließt von warm nach kalt proportional zur Temperaturdifferenz. Stationäre Verteilung = Fließgleichgewicht = Mittelwerteigenschaft! Unser LGS ist die diskrete Version der Potentialgleichung u = 0. Für u : R R zweimal stetig differenzierbar gilt die Taylor Formel: 0 = u(x, y) u(x, y) + u(x+, y) + u(x, y ) u(x, y) + u(x, y+) = xu(x, y) + h.o.t. = yu(x, y) + h.o.t. Wir diskretisieren die Wärmeleitungsgleichung t u = κ u für κ = 4 : u(t, x, y) + u(t, x+, y) + u(t, x, y ) + u(t, x, y+) u(t+, x, y) = 4 Diese Iteration nähert sich der stationären Lösung u mit u = 0. Diese Beobachtung führt uns schließlich zur Methode der iterativen Näherung, die auf den folgenden Folien numerisch illustriert wird. Die Rechnung beginnt mit einer (beliebigen!) Startverteilung und konvergiert recht schnell gegen die (eindeutige!) stationäre Lösung. Das ist für den Computer einfach und schnell zu rechnen. (So macht es auch die Tabellenkalkulation.)

87 Iterative Näherung des Gleichgewichts S453 t= t= Iterative Näherung des Gleichgewichts S454 t= t=

88 Iterative Näherung des Gleichgewichts S455 t= t= Iterative Näherung des Gleichgewichts S456 t= t=

89 Die Mathematik hinter Google S457 Wo simmer denn dran? Aha, heute krieje mer de Suchmaschin. Wat is en Suchmaschin? Da stelle mer uns janz dumm.... Benutzer Suchanfrage nach Schlüsselwörtern Suchmaschine Liste aller Webseiten mit diesen Wörtern Nutzergerecht sortierte Liste der Ergebnisse Effiziente Sortierung nach Relevanz Kernprobleme bei Suchmaschinen (und beim Data Mining allgemein): Mathematik: Wie misst man Relevanz von Informationen? Informatik: Wie verarbeitet man enorme Datenmengen? Finanzstrategie: Wie verdient man mit einem Gratisprodukt? Die Mathematik hinter Google S458 Erläuterung Als das World Wide Web Mitte der 990er noch klein war, da genügte es, zu einer Suchanfrage einfach alle Treffer aufzulisten. Die Liste war noch kurz, der Nutzer konnte sie noch leicht selbst überblicken. Das Internet blieb jedoch nicht lange so klein und überschaubar... Die Suchmaschine Google ist seit 998 in Betrieb und dominiert seither den Markt. Sie wird ständig weiterentwickelt. Die meisten Optimierungen hütet Google als Firmengeheimnis, aber das ursprüngliche Grundprinzip ist veröffentlicht und genial einfach: Sergey Brin, Larry Page: The anatomy of a large-scale hypertextual web search engine. Stanford University 998, infolab.stanford.edu/pub/papers/google.pdf Bei vorherigen Suchmaschinen musste man endlose Trefferlisten durchforsten, bis man auf die ersten interessanten Ergebnisse stieß. Bei Google stehen sie auf wundersame Weise ganz oben auf der Liste. Wie ist das möglich? Die Antwort liegt (zu einem großen Teil) in folgender Formel. Google misst die Popularität p i (PageRank) jeder Seite i durch folgendes Gleichungssystem: PageRank p i = q N + j i q l j p j Keine Angst, die Formel sieht nur auf den ersten Blick kompliziert aus. Ich werde sie anhand von Beispielen Schritt für Schritt erläutern. Wer sowas schon gesehen hat, weiß, dass es sich um eine besonders einfache Formel handelt, nämlich ein lineares Gleichungssystem, das keine Quadrate oder komplizierteres enthält. Schon die Formel von Pythagoras a + b = c ist komplizierter.

90 Chaos und Struktur im Web Miniaturbeispiel des Web. Gegeben sind die Seiten i =,..., N und die Links i j. Versuch einer hierarchischen Anordnung: 0 S Eine Seite ist populär, wenn viele Seiten auf sie verweisen? Zu naiv! Eine Seite ist populär, wenn viele populäre Seiten auf sie verweisen. Das Web ist ein Graph aus Seiten i =,..., N und Links i j. Ein zufälliger Surfer folgt von der aktuellen Seite zufällig einem der Links. Aufgabe: Berechnen Sie die Aufenthaltswkten. Konvergieren sie gegen ein Gleichgewicht? Wie schnell? Immer dasselbe, d.h. ist es eindeutig? Wenn Sie diese Aufgabe vor 998 professionell gelöst hätten, so wären Sie heute Milliardär. Chaos und Struktur im Web S460 Erläuterung Klassische Texte sind von einem Autor und linear geschrieben: Ein Buch hat einen Anfang und ein Ende, typischerweise liest man es von vorne nach hinten in der Reihenfolge der Seiten. Meist gibt es zudem ein Inhaltsverzeichnis oder einen Index zum leichteren Nachschlagen. (Ja, liebe Kinder, unsere Vorfahren konnten Texte mit hunderttausend Buchstaben am Stück lesen, ohne Clicks und ohne Werbung. Man nannte das Buch und speicherte es auf Papier.) Webseiten bilden hingegen eine gänzlich andere Struktur. Niemand käme auf die Idee, das Internet von Anfang bis Ende durchzulesen: Es hat keine lineare Struktur, keine erste und keine letzte Seite, es ist zudem viel zu groß, und das meiste ist ohnehin uninteressant. Die Webseiten verweisen gegenseitig aufeinander und bilden einen Hypertext. Zur Illustration betrachten wir ein Miniaturbeispiel bestehend aus Webseiten. Unter den Seiten,, 3, 4 wird am häufigsten zitiert. Die Seite scheint daher besonders relevant oder populär. Gleiches gilt für 9, 0,, mit 9 an der Spitze. Die Struktur von 5, 6, 7, 8 ist ähnlich mit 7 an der Spitze. Aber die Seiten und 9, die wir schon als relevant erkannt haben, verweisen beide auf die Seite 5. Diese scheint daher wichtig und für die Suche besonders relevant. Diese Anordnung war Handarbeit. Lässt sie sich automatisieren? Nach welchen Regeln? Erster Versuch: Eine Seite ist populär, wenn viele Seiten auf sie verweisen. Nachteil: Die simple Linkzählung ist zu naiv und anfällig für Manipulationen! Zweiter Versuch: Eine Seite ist populär, wenn viele populäre Seiten auf sie verweisen. Das klingt zunächst zirkulär, lässt sich aber in eine einfache Gleichung fassen und lösen. Ich erläutere die besonders anschauliche Betrachtungsweise des zufälligen Surfers.

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Prof. Dr. Michael Eisermann Höhere Mathematik 3 (vertieft) Kapitel S Wahrscheinlichkeitsrechnung Statistical thinking will one day be as necessary for efficient citizenship as the ability to read or write.

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Prof. Dr. Michael Eisermann Höhere Mathematik 3 (vertieft) Kapitel S Wahrscheinlichkeitsrechnung Statistical thinking will one day be as necessary for efficient citizenship as the ability to read or write.

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Prof. Dr. Michael Eisermann Höhere Mathematik 3 (vertieft) Kapitel M Wahrscheinlichkeitsrechnung Statistical thinking will one day be as necessary for efficient citizenship as the ability to read or write.

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Prof. Dr. Michael Eisermann Höhere Mathematik vertieft Kapitel S Wahrscheinlichkeitsrechnung Statistical thinking will one day be as necessary for efficient citizenship as the ability to read or write.

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Prof. Dr. Michael Eisermann Höhere Mathematik (vertieft) Inhalt dieses Kapitels S000 Kapitel S Wahrscheinlichkeitsrechnung Statistical thinking will one day be as necessary for efficient citizenship as

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der

Mehr

Teil II. Wahrscheinlichkeitsrechnung

Teil II. Wahrscheinlichkeitsrechnung Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) Teil II Wahrscheinlichkeitsrechnung 5 Zufallsexperimente Ergebnisse Ereignisse Wahrscheinlichkeiten Deskriptive Statistik und Wahrscheinlichkeitsrechnung

Mehr

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung

Mehr

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen Ü b u n g 1 Aufgabe 1 Die Ereignisse A, B und C erfüllen die Bedingungen P(A) = 0. 7, P(B) = 0. 6, P(C) = 0. 5 P(A B) = 0. 4, P(A C) = 0. 3, P(B C) = 0. 2, P(A B C) = 0. 1 Bestimmen Sie P(A B), P(A C),

Mehr

1. Grundlagen der Wahrscheinlichkeitsrechnung

1. Grundlagen der Wahrscheinlichkeitsrechnung 1. Grundlagen der Wahrscheinlichkeitsrechnung Ereignisse und Wahrscheinlichkeiten Zufälliger Versuch: Vorgang, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang innerhalb einer

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 1 Vorbemerkungen

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

Zusammenfassung Stochastik

Zusammenfassung Stochastik Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

4. Die Laplacesche Gleichverteilung

4. Die Laplacesche Gleichverteilung Universität Basel Wirtschaftswissenschaftliches Zentrum Grundlagen der Stochastik Dr. Thomas Zehrt Inhalt: 1. Die Ereignismenge 2. Die Wahrscheinlichkeitsverteilung 3. Eigenschaften einer Wahrscheinlichkeitsverteilung

Mehr

6: Diskrete Wahrscheinlichkeit

6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 219 6: Diskrete Wahrscheinlichkeit 6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 220 Wahrscheinlichkeitsrechnung Eines der wichtigsten

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Gegeben Menge Ω (Wahscheinlichkeitsraum, Menge aller möglichen Ausgänge eines Zufallsexperiments), Abbildung P : P(Ω) [0, 1] (Wahrscheinlichkeit): Jeder Teilmenge

Mehr

2.2 Ereignisse und deren Wahrscheinlichkeit

2.2 Ereignisse und deren Wahrscheinlichkeit 2.2 Ereignisse und deren Wahrscheinlichkeit Literatur: [Papula Bd., Kap. II.2 und II.], [Benning, Kap. ], [Bronstein et al., Kap. 1.2.1] Def 1 [Benning] Ein Zufallsexperiment ist ein beliebig oft wiederholbarer,

Mehr

htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017

htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017 htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT htw saar 2 Gliederung 25.01. Bedingte Wahrscheinlichkeit: Motivation und Definition Multiplikationssatz Stochastische Unabhängigkeit:

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 1

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 1 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/ Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie svorschläge zu

Mehr

Satz von der totalen Wahrscheinlichkeit

Satz von der totalen Wahrscheinlichkeit htw saar 1 Satz von der totalen Wahrscheinlichkeit Sei (Ω, P) ein Wahrscheinlichkeitsraum, und B 1,, B n seien paarweise disjunkte Ereignisse mit B i = Ω. Für jedes Ereignis A gilt dann: P(A) = P(A B 1

Mehr

Statistik für Ingenieure Vorlesung 2

Statistik für Ingenieure Vorlesung 2 Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Wahrscheinlichkeitsrechnung [probability]

Wahrscheinlichkeitsrechnung [probability] Wahrscheinlichkeitsrechnung [probability] Hinweis: Die Wahrscheinlichkeitsrechnung ist nicht Gegenstand dieser Vorlesung. Es werden lediglich einige Begriffsbildungen bereitgestellt und an Beispielen erläutert,

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Diskrete Strukturen WiSe 2012/13 in Trier

Diskrete Strukturen WiSe 2012/13 in Trier Diskrete Strukturen WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 11. Januar 2013 1 Diskrete Strukturen Gesamtübersicht Organisatorisches und Einführung Mengenlehre Relationen

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Das Ziegenproblem. Nils Schwinning und Christian Schöler Juni 2010

Das Ziegenproblem. Nils Schwinning und Christian Schöler  Juni 2010 Das Ziegenproblem Nils Schwinning und Christian Schöler http://www.esaga.uni-due.de/ Juni 2010 Die Formulierung Obwohl das sogenannte Ziegenproblem in der Mathematik allgegenwärtig erscheint, wurde es

Mehr

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/

Mehr

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

Kapitel 5 Stochastische Unabhängigkeit

Kapitel 5 Stochastische Unabhängigkeit Kapitel 5 Stochastische Unabhängigkeit Vorlesung Wahrscheinlichkeitsrechnung I vom SoSe 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 5.1 Das Konzept der stochastischen Unabhängigkeit. 1 Herleitung anhand

Mehr

Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele

Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Wahrscheinlichkeitstheorie Agenda:

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

9. Elementare Wahrscheinlichkeitsrechnung

9. Elementare Wahrscheinlichkeitsrechnung 9. Elementare Wahrscheinlichkeitsrechnung Beispiel (Einmaliges Würfeln): verbal mengentheoretisch I. Zufällige Ereignisse Beispiel (Einmaliges Würfeln): Alle möglichen Ausgänge 1,,, 6 des Experiments werden

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 1. und 2. Vorlesung - 2017 Im Alltag... Laut den meteorologischen Vorhersagen wird es morgen regnen. Ob ich riskiere und die Wette verlieren werde? Ich werde mit Sicherheit gewinnen! Ist das wirklich unmöglich?

Mehr

1 Wahrscheinlichkeitsrechnung und Zufallsvariablen

1 Wahrscheinlichkeitsrechnung und Zufallsvariablen 1 Wahrscheinlichkeitsrechnung und Zufallsvariablen Zoltán Zomotor Versionsstand: 18. Mai 2015, 09:29 Die nummerierten Felder bitte während der Vorlesung ausfüllen. This work is licensed under the Creative

Mehr

= 7! = 6! = 0, 00612,

= 7! = 6! = 0, 00612, Die Wahrscheinlichkeit, dass Prof. L. die Wette verliert, lässt sich wie folgt berechnen: Ω = {(i 1,..., i 7 ) : i j {1... 7}, j = 1... 7}, wobei i, j für den Wochentag steht, an dem die Person j geboren

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Unabhängigkeit Prof. Dr. Achim Klenke http://www.aklenke.de 6. Vorlesung: 02.12.2011 1/30 Inhalt 1 Wahrscheinlichkeit 2 2/30 Wahrscheinlichkeit

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

8. Wahrscheinlichkeitsrechnung

8. Wahrscheinlichkeitsrechnung Didaktik der Geometrie und Stochastik WS 09/10 Bürker 27. 1. 11 8. Wahrscheinlichkeitsrechnung 8.1 Begriffe 8.1.1 Zufallsexperiment Was ist ein Zufallsexperiment? a) Mehrere Ergebnisse möglich b) Ergebnis

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Wahrscheinlichkeitsrechnung Theorie Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem,

Mehr

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet Kapitel 10 Zufall und Wahrscheinlichkeit 10.1. Grundbegriffe Wahrscheinlichkeitsrechnung Zufallsvorgang Klein-Omega ω Groß-Omega Ω Stellt Modelle bereit, die es erlauben zufallsabhängige Prozesse abzuschätzen

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Lernzusammenfassung für die Klausur. Inhaltsverzeichnis. Stochastik im SS 2001 bei Professor Sturm

Lernzusammenfassung für die Klausur. Inhaltsverzeichnis. Stochastik im SS 2001 bei Professor Sturm Stochastik im SS 2001 bei Professor Sturm Lernzusammenfassung für die Klausur Hallo! In diesem Text habe ich die wichtigsten Dinge der Stochastikvorlesung zusammengefaÿt, jedenfalls soweit, wie ich bis

Mehr

Basiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

WAHRSCHEINLICHKEITSRECHNUNG

WAHRSCHEINLICHKEITSRECHNUNG WAHRSCHEINLICHKEITSRECHNUNG Mathematischer Teil In der Wahrscheinlichkeitsrechnung haben wir es mit Zufallsexperimenten zu tun, d.h. Ausgang nicht vorhersagbar. Grundbegriffe Zufallsexperiment und Ergebnisse

Mehr

Mathematische Grundlagen der Computerlinguistik Wahrscheinlichkeit

Mathematische Grundlagen der Computerlinguistik Wahrscheinlichkeit Mathematische Grundlagen der Computerlinguistik Wahrscheinlichkeit Dozentin: Wiebke Petersen 8. Foliensatz Wiebke Petersen math. Grundlagen 1 Motivation Bsp.: In vielen Bereichen der CL kommt Wahrscheinlichkeitstheorie

Mehr

Stochastische Unabhängigkeit. 01. Dezember 2014

Stochastische Unabhängigkeit. 01. Dezember 2014 Stochastische Unabhängigkeit 0. Dezember 204 Der Begriff der Unabhängigkeit Großbritannien, im November 999. Die Anwältin Sally Clark wird wegen Mordes an ihren Kindern angeklagt. Clark geriet unter Verdacht

Mehr

15 Wahrscheinlichkeitsrechnung und Statistik

15 Wahrscheinlichkeitsrechnung und Statistik 5 Wahrscheinlichkeitsrechnung und Statistik Alles, was lediglich wahrscheinlich ist, ist wahrscheinlich falsch. ( Descartes ) Trau keiner Statistik, die du nicht selbst gefälscht hast. ( Churchill zugeschrieben

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,

Mehr

Mathe-Camp 2017 Stochastik: Geometrische Wahrscheinlichkeiten

Mathe-Camp 2017 Stochastik: Geometrische Wahrscheinlichkeiten Mathe-Camp 2017 Stochastik: Geometrische Wahrscheinlichkeiten Jo rn Saß, sass@mathematik.uni-kl.de Fachbereich Mathematik, TU Kaiserslautern Arbeitsgruppe Stochastische Steuerung und Finanzmathematik Kaiserslautern

Mehr

Diskrete Strukturen. Sebastian Thomas RWTH Aachen https://www2.math.rwth-aachen.de/ds16/ 1. Februar 2017 Vorlesung 21

Diskrete Strukturen. Sebastian Thomas RWTH Aachen https://www2.math.rwth-aachen.de/ds16/ 1. Februar 2017 Vorlesung 21 Diskrete Strukturen Sebastian Thomas RWTH Aachen https://www2.math.rwth-aachen.de/ds16/ 1. Februar 2017 Vorlesung 21 Quasiendliche Wahrscheinlichkeitsräume Definition quasiendlicher Wahrscheinlichkeitsraum

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Stochastik - Kapitel 2

Stochastik - Kapitel 2 " k " h(a) n = bezeichnet man als die relative Häufigkeit des Ereignisses A bei n Versuchen. n (Anmerkung: für das kleine h wird in der Literatur häufig auch ein r verwendet) k nennt man die absolute Häufigkeit

Mehr

Vorlesung Statistik WING ASW Melanie Kaspar, Prof. Dr. B. Grabowski 1

Vorlesung Statistik WING ASW Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 1 Aus diesen Eigenschaften lassen sich alle weiteren Eigenschaften ableiten: Beweis zu 1) Melanie Kaspar, Prof. Dr. B. Grabowski 2 Aufgabe Die Wahrscheinlichkeit

Mehr

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3. 2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das

Mehr

Pr[A] = Pr[C (A B)] = Pr[C] + Pr[A B]. Wegen A B = C B folgt daraus. Pr[A B] = Pr[C B] = Pr[C] + Pr[B] = Pr[A] Pr[A B] + Pr[B]

Pr[A] = Pr[C (A B)] = Pr[C] + Pr[A B]. Wegen A B = C B folgt daraus. Pr[A B] = Pr[C B] = Pr[C] + Pr[B] = Pr[A] Pr[A B] + Pr[B] Beweis: Wir betrachten zunächst den Fall n = 2. Dazu setzen wir C := A \ B = A \ (A B). Gemäß dieser Definition gilt, dass C und A B sowie C und B disjunkt sind. Deshalb können wir Eigenschaft 5 von Lemma

Mehr

UE Statistik 1, SS 2015, letztes Update am 5. März Übungsbeispiele

UE Statistik 1, SS 2015, letztes Update am 5. März Übungsbeispiele UE Statistik, SS 05, letztes Update am 5. März 05 Übungsbeispiele Beispiele mit Musterlösungen finden Sie auch in dem Buch Brannath, W., Futschik, A., Krall, C., (00) Statistik im Studium der Wirtschaftswissenschaften..

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

1 Grundbegriffe der Wahrscheinlichkeitsrechnung

1 Grundbegriffe der Wahrscheinlichkeitsrechnung 4 1 Grundbegriffe der Wahrscheinlichkeitsrechnung 1.1 Grundlegende Begriffe Der Begriff wahrscheinlich wird im Alltag in verschiedenen Situationen verwendet, hat dabei auch unterschiedliche Bedeutung.

Mehr

Kapitel 5. Kapitel 5 Wahrscheinlichkeit

Kapitel 5. Kapitel 5 Wahrscheinlichkeit Wahrscheinlichkeit Inhalt 5.1 5.1 Grundbegriffe Ω, Ω, X, X,...... 5.2 5.2 Wahrscheinlichkeitsräume (Ω, (Ω, P) P) 5.3 5.3 Das Das Laplace-Modell P(A) P(A) = A / Ω 5.4 5.4 Erwartungswert E(X) E(X) Literatur:

Mehr

Übungen zur Wahrscheinlichkeitstheorie und Statistik

Übungen zur Wahrscheinlichkeitstheorie und Statistik Übungen zur Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank Blatt 0 vom 16. April 2012 Aufgabe 1 (Wahrscheinlichkeitsräume). Welche der folgenden Aussagen sind wahr? Begründen Sie jeweils

Mehr

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Rumpfskript Elementare Wahrscheinlichkeitsrechnung Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Vorbemerkung Vorbemerkung Das vorliegende Skript heißt nicht nur Rumpf skript, sondern

Mehr

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Satz 18 (Satz von der totalen Wahrscheinlichkeit) Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte

Mehr

Diskrete Verteilungen

Diskrete Verteilungen KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder

Mehr

Dr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung

Dr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung Vorlesungscharts Vorlesung 1 Grundbegriffe der Wahrscheinlichkeitsrechnung Zufallsvorgänge und Zufallsereignisse Definitionen der Wahrscheinlichkeit Seite 1 von 11 Chart 1: Vorgänge deterministisch zufällig

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Teil V Wahrscheinlichkeitsrechnung Inhaltsangabe 6 Einführung in die Wahrscheinlichkeitsrechnung 125 6.1 Kombinatorik......................... 125 6.2 Grundbegri e......................... 129 6.3 Wahrscheinlichkeiten.....................

Mehr

Wahrscheinlichkeit und Zufall

Wahrscheinlichkeit und Zufall Wahrscheinlichkeit und Zufall Rechnen mit Wahrscheinlichkeiten 16. Juni 2009 Dr. Katja Krüger Universität Paderborn 1 Inhalt Ereignisse i und deren Wahrscheinlichkeit h hk i Laplace-Regel Baumdiagramm

Mehr

Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit

Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit Teil I: Wahrscheinlichkeitstheorie 1 Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 3: Bedingte Wahrscheinlichkeit Kapitel 4: Zufallsvariablen Kapitel 5: Erwartungswerte, Varianz, Kovarianz

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie

Grundbegriffe der Wahrscheinlichkeitstheorie KAPITEL 1 Grundbegriffe der Wahrscheinlichkeitstheorie 1. Zufallsexperimente, Ausgänge, Grundmenge In der Stochastik betrachten wir Zufallsexperimente. Die Ausgänge eines Zufallsexperiments fassen wir

Mehr

Kapitel I Diskrete Wahrscheinlichkeitsräume

Kapitel I Diskrete Wahrscheinlichkeitsräume Kapitel I Diskrete Wahrscheinlichkeitsräume 1. Grundlagen Definition 1 1 Ein diskreter Wahrscheinlichkeitsraum ist durch eine Ergebnismenge Ω = {ω 1, ω 2,...} von Elementarereignissen gegeben. 2 Jedem

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie

Zentralübung Diskrete Wahrscheinlichkeitstheorie Zentralübung Diskrete Wahrscheinlichkeitstheorie Christian Ivicevic (christian.ivicevic@tum.de) Technische Universität München 14. Juni 2017 Agenda Disclaimer und wichtige Hinweise Übungsaufgaben Disclaimer

Mehr

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? 2. Übung: Wahrscheinlichkeitsrechnung Aufgabe 1 Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? a) P ist nichtnegativ. b) P ist additiv. c) P ist multiplikativ.

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. 2 Zufallsvariable 2.1 Einführung Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. Eine Zufallsvariable X ordnet jedem elementaren Versuchsausgang

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 10. November 2010 1 Bedingte Wahrscheinlichkeit Satz von der totalen Wahrscheinlichkeit Bayessche Formel 2 Grundprinzipien

Mehr

Wahrscheinlichkeitsrechnung für die Mittelstufe

Wahrscheinlichkeitsrechnung für die Mittelstufe Wahrscheinlichkeitsrechnung für die Mittelstufe Wir beginnen mit einem Beispiel, dem Münzwurf. Es wird eine faire Münze geworfen mit den Seiten K (für Kopf) und Z (für Zahl). Fair heißt, dass jede Seite

Mehr

Bedingte Wahrscheinlichkeiten

Bedingte Wahrscheinlichkeiten Bedingte Wahrscheinlichkeiten Bei der Betrachtung der Ereignisse A und B eines Zufallsexperiments muss man die beiden im folgendem beschrieben zwei Situationen unterscheiden. 1. Das Ereignis A und B tritt

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Haug verwendet man die Denition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A \ B] = Pr[BjA] Pr[A] = Pr[AjB] Pr[B] : (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1 ; : : : ; A n

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Abiturvorbereitung Wahrscheinlichkeitsrechnung S. 1 von 9 Wahrscheinlichkeitsrechnung Kombinatorik Formeln für Wahrscheinlichkeiten Bedingte Wahrscheinlichkeiten Zusammenfassung wichtiger Begriffe Übungsaufgaben

Mehr

Interaktives Skriptum: Elementare Wahrscheinlichkeitsrechnung

Interaktives Skriptum: Elementare Wahrscheinlichkeitsrechnung Interaktives Skriptum: Elementare Wahrscheinlichkeitsrechnung 1. Grundbegriffe Würfeln, Werfen einer Münze, Messen der Lebensdauer einer Glühbirne Ausfall/Ausgang: Würfeln: Augenzahlen 1, 2, 3, 4, 5, 6

Mehr

Übungen Abgabetermin: Freitag, , 10 Uhr

Übungen Abgabetermin: Freitag, , 10 Uhr Universität Münster Institut für Mathematische Statistik Stochastik für Lehramtskandidaten SoSe 015, Blatt 1 Löwe/Heusel Übungen Abgabetermin: Freitag, 10.7.015, 10 Uhr Hinweis: Dies ist nur eine Beispiellösung.

Mehr

Bei 10 dieser Würfe wurde gleichzeitig eine 1 gewürfelt. Bei 25 dieser Würfe wurde gleichzeitig eine Augenzahl größer als 2 gewürfelt.

Bei 10 dieser Würfe wurde gleichzeitig eine 1 gewürfelt. Bei 25 dieser Würfe wurde gleichzeitig eine Augenzahl größer als 2 gewürfelt. 3 Wahrscheinlichkeiten 1 Kapitel 3: Wahrscheinlichkeiten A: Beispiele Beispiel 1: Ein Experiment besteht aus dem gleichzeitigen Werfen einer Münze und eines Würfels. Nach 100 Wiederholungen dieses Experiments

Mehr