Wahrscheinlichkeitsrechnung

Größe: px
Ab Seite anzeigen:

Download "Wahrscheinlichkeitsrechnung"

Transkript

1 Prof. Dr. Michael Eisermann Höhere Mathematik (vertieft Kapitel T Wahrscheinlichkeitsrechnung Statistical thinking will one day be as necessary for efficient citizenship as the ability to read or write. H.G. Wells (8 9 Les questions les plus importantes de la vie ne sont en effet, pour la plupart, que des problèmes de probabilité. Pierre-Simon de Laplace (9 8 WiSe /8 Ziele der Wahrscheinlichkeitsrechnung T Inhalt dieses Kapitels Diskrete Wahrscheinlichkeitsräume Zufall und Wahrscheinlichkeit: Grundbegriffe Rechnen mit Ereignissen: Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeit und Unabhängigkeit Bedingte Wahrscheinlichkeiten, Formel von Bayes Stochastische Unabhängigkeit von Ereignissen Das Gesetz der großen Zahlen Zufallsvariablen, Erwartung und Varianz Die Ungleichungen von Chebychev Unabhängigkeit und Gesetz der großen Zahlen Fazit: Wahrscheinlichkeitsrechnung Aufgaben und Anwendungsbeispiele Sex: Was nützen dem Pfau seine Federn? Tischkicker: Das Runde muss ins Eckige. Google: zufällige Irrfahrt im Internet Google: zufällige Irrfahrt im Internet Ziele der Wahrscheinlichkeitsrechnung T T Überblick Unser Ziel sind #rationale Entscheidungen unter Unsicherheit. #Experimente unter Einfluss von Zufällen #Prozesse mit unsicherem Ausgang Wir suchen hierzu #begründete quantitative Aussagen. Ungenauigkeit von Messungen, Konfidenzintervalle. Ausfallwahrscheinlichkeit, Lebensdauer von Bauteilen Bewertung von Risiken (Unfälle, Schutz, Versicherung Glücksspiele (Lotto, Roulette, Poker, Aktienbörse, Klausur That s life: Fast alles im Leben ist ein Wahrscheinlichkeitsexperiment! Ingenieure müssen Risiken abschätzen, minimieren, verkaufen bzw. Chancen berechnen, maximieren, kaufen. Dazu dient die Stochastik! Literatur: E. Kreyszig: Advanced Engineering Mathematics. Wiley 999 U. Krengel: Einführung in die Wahrscheinlichkeitstheorie. Vieweg 99 W. Feller: Probability Theory and Applications. Wiley 9 9 Die Wahrscheinlichkeitsrechnung beginnt im. Jh. mit Rechnungen zu Glücksspielen. T Heutzutage wird sie überall eingesetzt, von der Wettervorhersage bis zur Industrieproduktion und klinischen Tests neuer Medikamente. In ihrer Bedeutung für den Alltag kommt sie wohl gleich nach Grundrechenarten und Dreisatz. Ich möchte wetten, Wahrscheinlichkeitsrechnung wird von Otto Normalbürger viele hundertmal häufiger benötigt und benutzt als die vielbeschworene Mitternachtsformel! Das hängt natürlich davon ab, was Otto im Alltag oder Beruf so tut... Viele Vorgänge haben unsicheren Ausgang; stochastische Argumente sind daher unausweichlich. Leider erstaunlich häufig werden aber selbst einfache Fragen falsch behandelt manchmal mit katastrophalen Folgen. Damit es Ihnen nicht so, sondern besser ergeht, sollen Sie hier mit (einer homöopathischen Dosis Wahrscheinlichkeitsrechnung geimpft werden. Zu Experten werden Sie dadurch noch nicht, aber die Grundregeln müssen Sie kennen und fehlerfrei anwenden können. Statt Wahrscheinlichkeitsrechnung spricht man gleichbedeutend von Wahrscheinlichkeitstheorie: Auf Grundlage eines geeigneten Modells (eines Wahrscheinlichkeitsraums wie unten erklärt erlaubt sie die Berechnung der Wahrscheinlichkeiten zu den betrachteten Ereignissen. Ihr Gegenstück ist die Statistik, also die Analyse empirischer Daten (Messwerte, Beobachtungen. Diese versucht, aus bereits vorliegenden Daten relevante Informationen zu extrahieren, insbesondere um ein geeignetes Modell zu finden, zu testen oder zu kalibrieren. Wahrscheinlichkeitstheorie und Statistik ergänzen sich demnach. Beide fasst man unter dem Oberbegriff Stochastik zusammen, von altgriechisch στοχάζομαι [stochazomai] zielen, vermuten, erraten, auch στοχαστικός [stochastikos] scharfsinnig. Typische Anwendung: Ausfallwahrscheinlichkeit T Überblick Typische Anwendung: Chancen beim Glücksspiel T Überblick #Aufgabe: Drei unabhängige Bauteile haben Ausfallwkten.,.,.. ( Mit welcher Wkt fällt mindestens ein Teil aus? ( Genau,,,? ( Wenn nur genau ein Teil ausfällt, mit welcher Wkt ist es A, B, C? ( Konstruieren Sie als Modell hierfür explizit einen WRaum (Ω, P. #Techniken: Rechenregeln für WRäume, bedingte Wkt, Bayes. Lösung ab Seite T: Die Wkten sind.,.,.9,.. Aus der Presse: In Reaktorjahren sind Unfälle der höchsten Stufe aufgetreten. Demnach tritt bei europäischen Reaktoren in Jahren ein solcher Unfall mit Wahrscheinlichkeit von über % auf. #Aufgabe: Was ist hieran falsch? Welche Rechnung wäre richtig? #Techniken: Ausfallwkt (exakt, Poissonverteilung (gute Näherung. Lösung ab Seite U: Die Wkt ist mit % erschreckend hoch. Die Wahrscheinlichkeitsrechnung hat viele praktische Anwendungen, ihre Ursprünge liegen im Würfelspiel. Eines der ersten Probleme war die gerechte Teilung bei vorzeitigem Spielabbruch. Zwei gleich starke Teams spielen Tischkicker bis. #Aufgabe: Wie stehen die Chancen bei 8 : 9? bei :? Lösung ab Seite T: (a : (leicht bzw. (b. : 8. (knifflig Um Sie vom Ernst solcher Fragestellungen zu überzeugen, folgendes Szenario: Sie spielen um viel Geld, im Film üblicherweise den Wert eines Autos, doch das Spiel wird jäh unterbrochen, sagen wir durch eine Razzia. Im Polizeigewahrsam können Sie das Spiel nicht beenden, daher einigen Sie sich mit dem gegnerischen Team, den Einsatz gerecht aufzuteilen, proportional zu den Gewinnchancen beim letzten Stand :. Diese gilt es zu berechnen! Sie haben ja Zeit... Typische Anwendung: Gesetze der großen Zahlen T Überblick Gewählte Themen und benötigte Techniken T Überblick Nach den grundlegenden Modellen betrachten wir große Datenreihen: #Aufgabe: Sie wiederholen mal unabhängig ein Experiment mit Trefferwkt %. Mit welcher Wkt erhalten Sie bis 9 Treffer? #Techniken: Erwartung und Varianz, Binomialverteilung (exakt, lokaler Grenzwertsatz (gute Näherung, Chebychev (Abschätzung. Lösung ab Seite V: Die Wkt beträgt recht genau 9%. #Aufgabe: Sie würfeln mal mit einem fairen/gezinkten Würfel. Mit welcher Wkt erhalten Sie eine Augensumme S 9? Angenommen S 9, mit welcher Wkt ist der Würfel gezinkt? #Techniken: Chebychev (grob, zentraler Grenzwertsatz (fein. Lösung ab Seite W: Die Wkt beträgt % für den fairen Würfel. Diese Aufgaben nenne ich stellvertretend für unsere vier Kapitel über Wahrscheinlichkeitsrechnung. Meine Auswahl der Themen (in Breite und Tiefe ist naturgemäß ein Kompromiss: Für den einen ist es schon zuviel, für die andere noch lange nicht genug. Ihr Bedarf hängt ganz davon ab, worin Sie sich spezialisieren! Ich will und kann nur einen Einstieg bieten, damit Sie diese wichtigen Techniken je nach Bedarf vertiefen können. Wenn Sie das alles schon aus der Schule kennen und beherrschen, dann können Sie die folgenden Kapitel als Wiederholung durcharbeiten. Vermutlich ist aber für die meisten noch viel Neues (und Schönes dabei. Welche Grundlagen und Rechentechniken benötigen wir? Die Anfänge der Wahrscheinlichkeitsrechnung, wie hier dargelegt, erfordern vor allem begriffliche Präzision (Ereignisse und WMaße, sind aber technisch leicht (Reihen, Kombinatorik. Kontinuierliche Verteilungen, wie die Normalverteilung, erfordern zudem Integration. Überall nützlich sind Grenzwerte und Näherungen, wie Stirling Formel oder Taylor Entwicklung. Den zentralen Grenzwertsatz schließlich können wir mit der Fourier Transformation schmerzfrei nachrechnen.

2 Statistik der ersten Lottoziehungen Ziehungen vom 9..9 bis 9.., Sa+Mi, mit Zusatzzahl. 8 beobachtete Häufigkeit T 9 gezogene Lottozahl #Modell / vereinfachende Annahme: Die Ziehungen unterliegen nur dem Zufall und alle Zahlen,..., 9 sind dabei gleich wahrscheinlich. Statistik: empirische Häufigkeiten beim Würfeln T Statistik der ersten Lottoziehungen Ziehungen vom 9..9 bis 9.., Sa+Mi, mit Zusatzzahl. beobachtete Häufigkeit 8 T 9 gezogene Lottozahl Ein Modell ist eine #Annahme und sollte kritisch überprüft werden. Titanic (..: Experten warnen: Lottozahlen oft reiner Zufall! Stochastik: Modell eines fairen Würfels Wahrscheinlichkeit. /. Augenzahl T Diese #Wahrscheinlichkeiten bilden das stochastische Modell. Das #empirische Gesetz der großen Zahlen ist folgende Erfahrungstatsache: Bei sehr häufiger unabhängiger Wiederholung nähern sich die relativen Häufigkeiten einem Grenzwert an. Stochastisches Modell eines fairen Würfels Mögliche #Ergebnisse sind die Zahlen,,,,,. #Annahme: Alle Ergebnisse sind gleich wahrscheinlich. Das bedeutet anschaulich: Wenn Sie sehr oft würfeln, dann treten die Ergebnisse,,,,, gleich häufig auf, jedes also in / aller Fälle. Das ist zunächst eine Erfahrung, sodann eine empirische #Beobachtung. Für das theoretische Modell hingegen ist es die grundlegende #Annahme. Abstraktion des Experiments zu einem mathematischen Modell: #Ergebnismenge Ω {,,,,, } #Elementarwahrscheinlichkeiten p : Ω [, ] p( p( p( p( p( p(. Dieses Modell besteht nicht aus empirischen Daten, sondern ist eine axiomatische Festlegung! Wir fixieren damit präzise unsere Annahmen und leiten alle weiteren Rechnungen hieraus ab. In diesem Falle ist die Gleichverteilung plausibel aufgrund der Symmetrie des Würfels. Wie können Sie das interpretieren? oder messen? Was bedeutet Wahrscheinlichkeit q [, ]? Vereinfacht gesagt: Bei häufiger Wiederholung tritt das Ergebnis im Anteil q aller Fälle ein. Stochastisches Modell eines gezinkten Würfels Man kann Würfel durch ungleiche Masse manipulieren (Bleieinlage. Präzisionswürfel sind daher transparent, um Betrug zu erschweren. Gleiche Wkten! Präzisionswürfel aus Kunststoff Ungleiche Wkten? Angenommen, die Wahrscheinlichkeiten sind nicht gleich, sondern: p(., p( p( p( p(., p(. Dies ist ein anderes stochastisches Modell als die zuvor betrachtete Gleichverteilung! Es besagt anschaulich: Wenn Sie sehr oft würfeln, tritt die Augenzahl etwa in % aller Fälle auf,,,, jeweils etwa in % aller Fälle, und in etwa in % aller Fälle. Handgesägte Würfel aus Holz T T Es handelt sich um eine Abstraktion, also theoretische Werte. Hiervon zu unterscheiden sind die empirischen relativen Häufigkeiten: Diese werden bei n maliger Durchführungen des Experiments beobachtet. Nur für n nähern sie sich den Wahrscheinlichkeiten an. Satz TJ präzisiert und quantifiziert diese Aussage als #Gesetz der großen Zahlen. Wkt von Ergebnissen und Ereignissen #Aufgabe: Sie würfeln mit einem fairen Würfel. Wie wahrscheinlich ist das Ereignis A: gerade Zahl? B: mindestens? A B: beides? #Lösung: Das Ereignis A {,, } hat die Wahrscheinlichkeit P(A P({,, } p( + p( + p( + +. Das Ereignis B {, } hat die Wahrscheinlichkeit P(B P({, } p( + p( +. Die Schnittmenge A B {} hat die Wahrscheinlichkeit P(A B P({} P(A P(B. Die Ereignisse A und B sind hier #stochastisch unabhängig. Das Ereignis gerade Zahl entspricht der Teilmenge A {,, }. Das Ereignis A tritt genau dann ein, wenn ein Ergebnis ω A eintritt. Interpretation der Wkt: Das Ereignis A tritt in der Hälfte aller Fälle ein. Das Ereignis mindestens eine entspricht der Teilmenge B {, }. Interpretation der Wkt: Das Ereignis B tritt in einem Drittel aller Fälle ein. Diese Rechnungen beruhen auf dem Modell eines fairen Würfels. Ein gezinkter Würfel hat im Allgemeinen andere Wahrscheinlichkeiten, wie im nachfolgenden Beispiel erklärt. Vor der Rechnung müssen wir uns also auf ein stochastisches Modell festlegen! Wkt von Ergebnissen und Ereignissen #Aufgabe: Sie würfeln mit diesem gezinkten Würfel. Wie wahrscheinlich ist das Ereignis A: gerade Zahl? B: mindestens? A B: beides? #Lösung: Das Ereignis A {,, } hat die Wahrscheinlichkeit P(A P({,, } p( + p( + p( Das Ereignis B {, } hat die Wahrscheinlichkeit P(B P({, } p( + p( Die Schnittmenge A B {} hat die Wahrscheinlichkeit P({}. P(A P(B.9. Die Ereignisse A und B sind hier #stochastisch abhängig. Interpretation: Das Ereignis A tritt in % aller Fälle ein, B tritt in % aller Fälle ein. Die Wahrscheinlichkeiten sind hier anders als beim fairen Würfel. Es handelt sich um zwei verschiedene Modelle, die unterschiedliche Vorhersagen machen. Welches Modell in einem konkreten Fall das richtige oder das realistischere ist, bleibt hierbei zunächst noch offen. Wir werden später verschiedene Modelle testen, um jeweils das bessere auszuwählen. T T8

3 Wie beschreiben wir Zufallsereignisse? T9 Grundmenge und Komplemente T Erinnerung #Ziel: Geeignete Sprache zur Beschreibung von Zufallsereignissen. Möglichst einfache und unmissverständliche Notation Flexibel und leicht anwendbar in konkreten Rechnungen Hierfür bietet sich die Sprache der Mengenlehre an! Alle Ergebnisse fassen wir zur #Ergebnismenge Ω zusammen. Jedes Element ω Ω nennen wir ein #Ergebnis. Jede Teilmenge A Ω nennen wir ein #Ereignis. Das Ereignis A tritt genau dann ein, wenn ein Ergebnis ω A eintritt. Beispiel Würfeln: Ω {,,,,, } besteht aus sechs Ergebnissen. Das Ereignis gerade Zahl entspricht der Teilmenge A {,, }. Das Ereignis mindestens entspricht der Teilmenge B {, }. Ergebnis und Ereignis klingen ähnlich, bedeuten aber verschiedenes: Unterscheiden Sie beides sorgfältig! Dann weiß jeder, was gemeint ist. Wir bezeichnen mit Ω unsere #Gesamtmenge, mit die #leere Menge. Wir schreiben A B, wenn jedes Element von A auch in B liegt. Ω A B Ω A Die Teilmenge aller Elemente mit einer #Eigenschaft P schreiben wir { ω Ω P (ω }. Beispiel: Für Ω {,,..., } gilt { ω Ω ω gerade } {,, }. Das #Komplement von A in Ω ist Ω ohne A oder nicht A : A Ω A : A { ω Ω ω / A }. Es besteht aus allen Elementen von Ω, die nicht in A liegen. Gebräuchliche Schreibweisen: Ω A Ω A A A c A... Schnitt und Vereinigung T Erinnerung Schnitt und Vereinigung T Erinnerung Ω A A B B Ω A B Die Vereinigung einer endlichen Familie von Mengen: n A k A A A A n k Die Schnittmenge einer endlichen Familie von Mengen: Die #Schnittmenge A und B ist A B { ω Ω ω A und ω B }. Sie besteht aus den Elementen, die sowohl in A als auch in B liegen. Die #Vereinigung A oder B ist A B { ω Ω ω A oder ω B }. Sie besteht aus den Elementen, die in A oder B liegen (oder in beiden. Zwei Mengen A, B heißen #disjunkt, wenn A B gilt. In diesem Fall schreiben wir für die #disjunkte Vereinigung: A B : A B mit A B. n A k A A A A n k Schnittmenge einer (abzählbar unendlichen Familie: A k A A A { ω Ω ω A k für alle k N } k Vereinigung einer (abzählbar unendlichen Familie: A k A A A { ω Ω ω A k für mind. ein k N } k Restmenge und symmetrische Differenz T Erinnerung Rechenregeln für Vereinigung und Schnitt T Erinnerung Ω A B A Ω A B B A Satz TA (Rechenregeln für Vereinigung und Schnitt Folgende nützliche Rechenregeln gelten für alle A, B, C Ω: Neutralität, Absorbtion, Idempotenz, Komplemente: A A, A Ω Ω, A A A, A A Ω A Ω A, A, A A A, A A Die #Restmenge B ohne A ist Kommutativität: B A : { ω B ω / A }. A B B A, A B B A Sie besteht aus allen Elementen, die zwar in B nicht aber in A liegen. Die #symmetrische Differenz entweder A oder B ist A B : (A B (A B (A B (B A. Assoziativität: A (B C (A B C, Distributivität: A (B C (A B C Sie besteht aus allen Elementen, die entweder in A oder in B liegen, aber nicht in beiden zugleich! Wir nennen dies auch #exklusives Oder. A (B C (A B (A C, A (B C (A B (A C #: Illustrieren und begründen Sie sorgfältig jede dieser Regeln. Rechenregeln für Komplement und Restmenge T Erinnerung Einfache Beispiele zu DeMorgan T Erinnerung Satz TB (Regeln von DeMorgan für Komplemente Das Komplement einer Menge A in Ω ist definiert durch A Ω A : { ω Ω ω / A }. Es gilt Ω und Ω sowie A A. Für die Restmenge gilt: B A B A Für je zwei Mengen A, B Ω gilt A B A B, A B A B. Allgemein: Für alle A, B, C Ω gilt C (A B (C A (C B, C (A B (C A (C B. #: Illustrieren und begründen Sie sorgfältig jede dieser Regeln. Wie zuvor sei Ω {,,,,, } sowie A {,, } und B {, }. #Aufgabe: Führen Sie an diesem Beispiel die DeMorgan Regeln aus. #Lösung: Wir bestimmen Schnitt, Vereinigung und ihre Komplemente. Das Komplement der Vereinigung ist der Schnitt der Komplemente: A B {,,, } {, } A B {,, } {,,, } {, } Das Komplement des Schnittes ist die Vereinigung der Komplemente: A B {} {,,,, } A B {,, } {,,, } {,,,, } Diese Rechenregeln sind sehr einfach, sehr häufig und sehr nützlich. Sie schützen vor ärgerlichen Rechenfehlern und Trugschlüssen! Wir sehen insbesondere A B A B und A B A B.

4 Rechnen mit Ereignissen Alle Ergebnisse fassen wir zur #Ergebnismenge Ω zusammen. Jedes Element ω Ω heißt #Ergebnis. Jede Teilmenge A Ω heißt #Ereignis. Menge Bedeutung als Zufallsereignis Ω Das sichere Ereignis: Ω tritt immer ein, P(Ω. Das unmögliche Ereignis: tritt nie ein, P(. A Ω Das Ereignis A tritt ein bei jedem Ergebnis ω A. Ω A Das Ereignis A Ω A tritt ein, wenn A nicht eintritt. A B Wenn A eintritt, dann auch B. B A Das Ereignis B tritt ein, aber nicht A. A B A B A B Die Ereignisse A und B treten beide ein. Das Ereignis A oder B tritt ein (oder auch beide. Entweder A oder B tritt ein (aber nicht beide. A B Das Ereignis A oder B tritt ein, wobei A B. Bequeme Notation und präzises Rechnen mit Zufallsereignissen. Wahrscheinlichkeit von Ergebnissen Definition TC (diskrete Wahrscheinlichkeitsverteilung Eine #diskrete Wahrscheinlichkeitsverteilung ist eine Abbildung p : Ω [, ] : ω p(ω mit p(ω. ω Ω Für jedes #Ereignis A Ω summieren sich die Elementarwkten: P : P(Ω [, ] : A P(A ω A p(ω. Ein solches Paar (Ω, P heißt #diskreter Wahrscheinlichkeitsraum. Jedem Ergebnis ω Ω wird die Elementarwahrscheinlichkeit p(ω [, ] zugeordnet. Beispiele: Für den fairen Würfel gilt p( p( p( p( p( p( /, für unseren gezinkten p(., p( p( p( p(., p(.. Weitere typische Beispiele: Wir betrachten später die Verteilungen p : N [, ] mit Elementarwkten p(k ( n k t k ( t k oder p(k e λ λ k /k! oder p(k q k ( q. Es handelt sich hierbei jeweils um die Binomialverteilung B(n, t mit n N und t [, ], die Poisson Verteilung P (λ mit λ, und die geometrische Verteilung G(q mit q [, ]. Diese erfüllen p(k und ω Ω p(ω, wie gefordert. Versuchen Sie es als! Diskrete Wahrscheinlichkeitsräume Auch die Zuordnung A P(A wollen wir als Abbildung auffassen. Wir fassen alle Ereignisse A Ω zur #Ereignismenge zusammen. Zur gegebenen #Ergebnismenge Ω ist dies hier die #Potenzmenge P(Ω : { A A Ω }. Definition TD (diskreter Wahrscheinlichkeitsraum Ein #diskretes WMaß ist eine Abbildung P : P(Ω [, ] für die gilt: Normierung: Es gilt P(Ω für die Gesamtmenge Ω. Additivität: Es gilt P(A ω A P({ω} für jedes A Ω. Ein #diskreter Wahrscheinlichkeitsraum (Ω, P besteht aus einer (nicht-leeren Menge Ω von möglichen Ergebnissen und einem diskreten WMaß P : P(Ω [, ] wie oben erklärt. T T9 T Diese einfache Definition fasst unsere bisherigen Überlegungen zusammen. Sie ist ausreichend flexibel für viele Anwendungen und legt einen präzisen und bequemen Sprachgebrauch fest. Bei diskreten WRäumen ist P bestimmt durch die Elementarwkten p(ω : P({ω} für ω Ω. Neben diskreten werden wir später auch kontinuierliche WMaße kennenlernen. Endliche WRäume und Gleichverteilung Definition TE (endlicher WRaum und Gleichverteilung Ein Wahrscheinlichkeitsraum (Ω, P heißt #endlich, wenn die Ergebnismenge Ω endlich ist, und #Laplacesch, wenn zudem alle Ergebnisse ω Ω gleich wahrscheinlich sind: P({ω} Ω Für dieses #Laplace Wahrscheinlichkeitsmaß auf Ω gilt daher P(A A Anzahl der Ergebnisse in A günstige Ergebnisse Ω Anzahl aller Ergebnisse in Ω mögliche Ergebnisse. Dies nennen wir auch die #endliche Gleichverteilung auf Ω. #Beispiel: Der Wurf eines fairen Würfels ist ein Laplace Experiment auf Ω {,,..., }, der Wurf unseres gezinkten Würfels hingegen nicht. Roulette ist ein Laplace Experiment auf Ω {,,,..., }. Hingegen sind {rot, schwarz, zero} nicht gleichwahrscheinlich. T Anwendungsbeispiel Sie würfeln mit unserem gezinkten Würfel, p : {,,,,, } R mit p(., p( p( p( p(., p(. #Aufgabe: Mit welcher Wahrscheinlichkeit ergibt unser gezinkter Würfel entweder eine gerade Zahl oder mindestens? (aber nicht beides! #Lösung: Gerade Zahl entspricht der Teilmenge A {,, }. Das Ereignis mindestens entspricht der Teilmenge B {, }. Entweder A oder B entspricht der symmetrischen Differenz: A B (A B (A B {,,, } {} {,, }. Die Wkt berechnen wir durch Aufsummieren der Elementarwkten: P(A B p( + p( + p( #Interpretation: Dieses Ereignis tritt in 8% aller Fälle ein. Bequeme Notation und präzises Rechnen mit Zufallsereignissen. Wahrscheinlichkeit von Ereignissen Es gilt die #Normierung P(Ω sowie P(. Außerdem gilt P(A B P(A + P(B P(A B. Bei disjunkter Vereinigung addieren sich die Wahrscheinlichkeiten: P(A B P(A + P(B Per Induktion folgt aus paarweiser die #endliche Additivität: P(A A A n P(A + P(A + + P(A n T8 T Bei diskreten Wahrscheinlichkeiten gilt sogar #allgemeine Additivität: ( P A i P(A i. i I i I Hier bedeutet i Ai i Ai mit Ai Aj für i j. Die Indexmenge I ist beliebig. Für kontinuierliche Wahrscheinlichkeitsräume nutzen wir später Integrale statt Summen. Zudem beschränken wir uns dann (aus unumgänglichen technischen Gründen auf höchstens abzählbare Vereinigungen. Einstweilen ist alles noch diskret und somit besonders einfach. Eigenschaften von Wahrscheinlichkeitsmaßen Unmögliches Ereignis: Sicheres Ereignis: Komplement: Monotonie: Restmenge: Vereinigung: Disjunke Vereinigung: P( P(Ω P(Ω A P(A A B P(A P(B P(B A P(B P(B A P(A B P(A + P(B P(A B P(A B P(A + P(B wegen A B Zweimaliger Wurf eines fairen Würfels #Aufgabe: Sie würfeln zweimal. Beschreiben Sie dies als WRaum. #Lösung: Als Ergebnismenge Ω betrachten wir hierzu (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, Ω (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (,, (, Wir nehmen an, beide Würfe seien gleichverteilt und unabhängig. Es handelt sich demnach bei (Ω, P um ein Laplace Experiment! T #Aufgabe: Welche Wkt hat die Augensumme,,,...,? #Lösung: Wir untersuchen das Ereignis A k Die Augensumme ist k. A {(, }, P(A A / Ω / A {(,, (, }, P(A A / Ω / A {(,, (,, (, }, P(A A / Ω / A {(,, (,, (,, (, }, P(A A / Ω / T

5 Zweimaliger Wurf eines fairen Würfels Alle Ergebnisse (i, j {,,,,, } sind gleichwahrscheinlich, die zugehörigen Augensummen i + j hingegen nicht! / + T Dreimaliger Wurf eines fairen Würfels Bei dreimaligem Würfeln sind alle Ergebnisse (i, j, k {,,,,, } gleichwahrscheinlich, die Augensummen i + j + k hingegen nicht! T Wahrscheinlichkeit / / / / Wahrscheinlichkeit.. / Augensumme bei zwei unabhängigen Würfen Viermaliger Wurf eines fairen Würfels Die hier entstehende Glockenkurve wird uns noch beschäftigen: Sie illustriert den #zentralen Grenzwertsatz WA, kurz ZGS. T Augensumme bei drei unabhängigen Würfen Zehnmaliger Wurf eines fairen Würfels Hier entsteht (in brauchbarer Näherung die gaußsche Glockenkurve! Gilt das immer? Können Sie das effizient nutzen? Ja! Das ist unser Ziel. T8 Wahrscheinlichkeit.. Wahrscheinlichkeit Augensumme bei vier unabhängigen Würfen Kombinatorik der Augensumme beim Würfeln #Aufgabe: Auf wie viele Weisen erhalten Sie die Augensumme s bei einmaligem Würfeln? zweimaligem Würfeln? dreimaligem Würfeln? #Lösung: ( Bei einmaligem Würfeln ist alles klar: Augensumme s Möglichkeiten n s Die Wkt P(Ss / ist gleichverteit. Wir kodieren sie als Polynom G(z z + z + z + z + z + z z z ( z. ( Bei zweimaligem Würfeln entspricht die Summe der Augenzahlen der Faltung der Verteilung ( mit sich selbst, als Polynom also G(z G(z: Augensumme s 8 9 Möglichkeiten n s Die Wkt ist jeweils P(Ss n s /, also keine Gleichverteilung mehr! Die Wkt ist am größten für die Augensumme, und zwar mit Wkt /. Kombinatorik der Summe beim fairen Münzwurf Würfelexperimente sind schön anschaulich, die Rechnungen sind nicht ganz banal und illustrieren bereits viele wichtige Phänomene. Münzwürfe sind wesentlich leichter und als Modell noch wichtiger: Wir wiederholen ein Experiment n mal und zählen die Treffer. T9 T Augensumme bei zehn unabhängigen Würfen Kombinatorik der Augensumme beim Würfeln ( Bei dreimaligem Würfeln müssen wir die Rechnung gut organisieren. Beispiel: Auf wie viele Weisen kann die Augensumme entstehen? Je nach erstem Wurf , dank voriger Tabelle also auf Möglichkeiten Die Wkt ist demnach P(S / /8.. Nach diesem Schema berechnen wir die folgende Tabelle: Die Summe der Augenzahlen entspricht der Faltung der Verteilungen ( und (. (Hier kann eine Tabellenkalkulation helfen, zum Beispiel LibreOffice. Augensumme s Möglichkeiten n s Die Wkt ist jeweils P(Ss n s /, wie oben graphisch dargestellt. Wie zu erwarten ist die Wkt am größten für die mittleren Augensummen und, und zwar jeweils mit Wkt /8. Jetzt können Sie s ausrechnen! Als Polynom entspricht dies dem Produkt G(z G(z G(z G(z. Die Wkten lesen Sie als Koeffizienten von G(z s P(Ss zs ab. Diese Kodierung als #erzeugende Funktion ist elegant und effizient. Kombinatorik der Summe beim fairen Münzwurf. n n n T T #Aufgabe: Sie werfen n mal eine faire Münze: Kopf, Zahl. Die Summe der Treffer bezeichnen wir mit S n {,,..., n}. ( Berechnen Sie die Wkt P(S n k für alle k n. ( Berechnen Sie die erzeugende Funktion G n (z k P(S nk z k. ( Skizzieren Sie die Verteilung der Zufallsvariablen S, S, S, S,... #Lösung: ( Für unabhängig wiederholte faire Münzwürfe finden wir: ( ( n n P(S n k k Die Binomialverteilung ( n k t k ( t n k ist ein wichtiges Modell. Wir werden sie in den nächsten Kapiteln ausführlich untersuchen. ( Wir finden das Polynom G n (z n k ( n k( nz k ( z + n. Wahrscheinlichkeit.. Trefferzahl k

6 Bedingte Wahrscheinlichkeit Häufig stehen Sie vor der Aufgabe, nach Eintritt eines Ereignisses auf die Wahrscheinlichkeit eines anderen Ereignisses zu schließen. #Aufgabe: Angenommen, beim Würfeln wurde nicht die gewürfelt. Wie groß ist dann noch die Wahrscheinlichkeit einer geraden Zahl? #Lösung: Wir setzen voraus, das Ereignis B {,,,, } tritt ein. Zum Ereignis A {,, } suchen wir die bedingte Wkt P B (A. Ergebnis ω ursprüngliche Wkt P({ω} bedingte Wkt P B ({ω} Die gesuchte Wkt ist demnach P B (A / + / / %. #Interpretation: Sie würfeln sehr häufig und werten nur die Fälle, die Bedingung B erfüllen. In dieser Fälle erhalten wir eine gerade Zahl. In den restlichen dieser Fälle erhalten wir eine ungerade Zahl. Rechenregeln für bedingte Wahrscheinlichkeiten #Aufgabe: Ist P B : P(Ω [, ] ein Wahrscheinlichkeitsmaß? #Lösung: Ja, denn P B erfüllt die beiden definierenden Eigenschaften: #Normierung: Es gilt P B (Ω P(Ω B P(B #Additivität: Für A, A Ω mit A A gilt P B (A A P((A A B P(B P((A B (A B P(B P(A B + P(A B P(B P(A B P(B + P(A B P(B P(B P(B. P B (A + P B (A. Entsprechendes gilt für (abzählbare disjunkte Vereinigungen. Aus diesen beiden Eigenschaften folgen alle weiteren Rechenregeln. Die Formel der totalen Wahrscheinlichkeit T T Sei Ω B B B l eine Zerlegung in disjunkte Ereignisse. Das heißt, es gilt Ω B B B l mit B i B j für i j. Dies zerlegt jedes Ereignis A Ω in disjunkte Teilmengen A k A B k : B A B A A B A B B B A (A B (A B (A B l Hieraus folgt die #Formel der totalen Wahrscheinlichkeit: P(A l k P(A B k l k P(A B k P(B k Diese Formel entspricht dem Baumdiagramm für Ω B B B l. Sie gilt auch noch für P(B k, wobei wir P(A B k P(B k setzen. Strategie: Zerlegung des Problems in kleine, einfachere Teilprobleme! Die Formel von Bayes: Es lebe der Dreisatz! Für alle Ereignisse A, B Ω mit P(A, P(B > gilt: P(A B P(B P(B A P(A Def Def P(A B P(B P(B P(A B P(A B P(A P(A P(A B Durch Umstellen gewinnen wir hieraus die #Formel von Bayes: P(B A P(A B P(B P(A Dies erlaubt das Umkehren von Bedingung und Schlussfolgerung nicht im kausalen Sinne, aber immerhin im stochastischen Sinne. Typische Anwendung: Wir kennen die Wkten P(A und P(B, die Bestimmung von P(A B ist leicht, aber gesucht ist P(B A. Um durch P(A zu dividieren, müssen wir P(A > voraussetzen. Die Formel gilt auch für P(B ; wir setzen dann P(A B P(B. Anschaulich in obiger Graphik zu A (A B (A B l. T T Bedingte Wahrscheinlichkeit Wie zuvor erklärt, beginnen wir mit einem stochastischen Modell, also einem Wahrscheinlichkeitsraume (Ω, P gemäß Definition TC. Definition TA (bedingte Wahrscheinlichkeit Sei (Ω, P ein Wahrscheinlichkeitsraum und B Ω ein Ereignis mit Wahrscheinlichkeit P(B >. Für jedes Ereignis A Ω definieren wir die #Wahrscheinlichkeit von A unter der Bedingung B durch P(A B : P B (A : #Beispiel: In der vorigen Aufgabe finden wir P ( A B P(A B P(B P(A B. P(B P({, } P({,,,, } / / %. Bequeme Notation und präzises Rechnen mit Zufallsereignissen. Die Rechnung ist meist leicht, die Interpretation erfordert. Die Definition TA stellt eindeutig klar, was gemeint ist. Baummodell und Pfadfinderregeln B Wkt P(B B Wkt P(B A Wkt P(A B A Wkt P(A B A Wkt P(A B A Wkt P(A B P(A B P(A B P(B P(A B P(A B P(B P(A B P(A B P(B P(A B P(A B P(B #Produkteregel: Die Wkt jedes Blattes ist das Produkt der bedinten Wkten entlang des Pfades. #Summenregel: Die Wkt eines Ereignisses A ist die Summe der Wkten aller Pfade, die zu A führen. Implizite Voraussetzung: Diese Zerlegung muss ganz A überdecken und disjunkt sein! Beispiel zur totalen Wahrscheinlichkeit #Aufgabe: Aus einer Urne mit zwei roten und drei schwarzen Kugeln ziehen wir nacheinander zufällig zwei Kugeln ohne Zurücklegen. Mit welcher Wkt haben beide die gleiche Farbe? #Lösung: Sei G {Beide Kugeln haben die gleiche Farbe} sowie R {Erste Kugel ist rot} und S {Erste Kugel ist schwarz}. Dies ist eine Zerlegung, denn R S und R S Ω. Wir wissen: P(R, P(S, P(G R, P(G S Hieraus berechnen wir mühelos die totale Wahrscheinlichkeit: P(G P(G R P(R + P(G S P(S + + Bedingte Wkten strukturieren und vereinfachen die Rechnung! Die Formel von Bayes: Zusammenfassung Soweit ist alles klar und einfach, die Formel von Bayes ist sehr leicht. In vielen Anwendungen entfaltet sie eine enorme Durchschlagskraft. Satz TB (Bayes Sei (Ω, P ein Wahrscheinlichkeitsraum und Ω B B B l eine Zerlegung, also Ω B B B l mit B i B j für i j. Für alle A Ω gilt dann die #Formel der totalen Wahrscheinlichkeit: P(A l k P(A B k l k P(A B k P(B k Im Falle P(A > gilt zudem die #Formel von Bayes: P(B i A P(A B i P(B i P(A P(A B i P(B i l k P(A B k P(B k Alles gilt wörtlich genauso für abzählbare Zerlegungen, also l. Bequeme Notation und präzises Rechnen mit Zufallsereignissen. Die Rechnung ist meist leicht, die Interpretation erfordert. T T T T8

7 Anwendung: ein Urnenmodell T9 Anwendung: Bestehen von Prüfungen T X Y Zu einer Prüfung treten drei Typen von Teilnehmern an: % sind gut vorbereitet und haben Erfolgswkt % (Typ A, % sind etwas vorbereitet und haben Erfolgswkt % (Typ B, % sind schlecht vorbereitet und haben Erfolgswkt % (Typ C. Urne X: rote und schwarze; Urne Y : rote und schwarze Kugel. Wir wählen zufällig eine Urne X, Y und ziehen daraus eine Kugel. #Aufgabe: ( Welche Wkt hat das Ereignis R {rote Kugel}? ( Es wurde eine rote Kugel gezogen. Mit welcher Wkt aus Urne X? #Lösung: Dank Bayes ist die Rechnung leicht: P(R P(R X P(X + P(R Y P(Y + P(X R P(R X P(X P(R Die Rechnung ist hier leicht, die Interpretation erfordert. Anwendung: Test für eine seltene Krankheit Eine bestimmte Krankheit tritt bei % aller Personen (zufällig auf. Nimmt man frühzeitig ein (teures Medikament, so ist die Genesung schneller. Ein Testverfahren für diese Krankheit liefert ein positives Ergebnis bei 98% aller kranken, aber auch bei % aller gesunden Personen. #Aufgabe: ( Welche Wkt haben positive Tests? ( Wie groß ist die Wkt, dass eine Person mit positivem Testergebnis krank ist? gesund ist? #Lösung: Für das Ereignis K {krank} wissen wir P(K.. Für P {positiver Test} gilt P(P K.98 und P(P K.. ( Hieraus folgt zunächst die totale Wahrscheinlichkeit P(P P(P K P(K + P(P K P(K % ( Die gesuchte Wahrscheinlichkeit P(K P erhalten wir mit Bayes: P(K P P(P K P(K P(P % Komplementär P(K P 8%. In diesem Beispiel ist eine positiv getestete Person mit größerer Wahrscheinlichkeit gesund als krank! Das Ziegenproblem Bei der Spielshow Let s make a deal wählt der Kandidat zwischen drei Türen: Hinter einer ist ein Auto, hinter den beiden anderen sind Ziegen. Der Kandidat wählt eine Tür. Der Showmaster weiß, was hinter den Türen ist, und öffnet eine der beiden anderen Türen, immer mit Ziege. Er bietet dem Kandidaten nun die Möglichkeit zu wechseln. #Aufgabe: Ist es vorteilhaft, die Tür zu wechseln? #Lösung: Unglaublich aber wahr: Ja! Das Ziegenproblem: Anwendung von Bayes #Aufgabe: Lösen Sie das Ziegenproblem mit der Formel von Bayes. #Lösung: Wir betrachten die Ereignisse: A, A, A Das Auto steht hinter Tür,, Annahme der Gleichverteilung: P(A P(A P(A / Der Kandidat wählt Tür. Wie kann der Moderator reagieren? M, M, M Der Moderator öffnet Tür,, Annahme der Gleichverteilung auch bei der Türöffnung: P(M A /, P(M A, P(M A, P(M A /, P(M A, P(M A. Beide Annahmen kann der Kandidat erzwingen, indem er die drei Türen für seinen Gebrauch zufällig nummeriert, also symmetrisiert. Der Moderator öffnet demnach Tür oder Tür jeweils mit Wkt /: P(M P(M A P(A + P(M A P(A + P(M A P(A + +. T T T #Aufgabe: ( Wie groß ist der Anteil der erfolgreichen Teilnehmer E? ( Wie groß ist darunter jeweils der Anteil der Typen A, B, C? #Lösung: Die Gesamtmenge wird disjunkt zerlegt in Ω A B C. ( Nach der Formel für die totale Wahrscheinlichkeit gilt: P(E P(E A P(A + P(E B P(B + P(E C P(C ( Nach Bayes berechnen wir hieraus folgende Verteilung: P(A E P(E A P(A / P(E. P(B E P(E B P(B / P(E. P(C E P(E C P(C / P(E. Anwendung: Test für eine seltene Krankheit Wissen macht Ah! Unwissen macht Aua! Unkenntnis führt zu Fehleinschätzung und schlimmer noch zu Fehlentscheidungen. T Es muss eine Entscheidung getroffen werden. Was würden Sie entscheiden bzw. empfehlen? Ist unser Ergebnis plausibel? Naiv würden Sie davon ausgehen, dass obiger Test recht zuverlässig ist und dem Testergebnis vertrauen. Das Problem hierbei ist, dass die Krankheit eher selten ist. Die weitaus meisten der getesteten Personen sind gesund, und gerade hier hat der Test eine recht hohe Fehlerwahrscheinlichkeit von % falsch positiv zu testen. Das kommt insgesamt häufig vor. Diese qualitative Vorüberlegung erklärt das Problem einigermaßen anschaulich. Unsere Rechnung bestätig dies und liefert zudem eine quantitative Aussage. Obwohl die Krankheit mit % recht selten ist, werden etwa % aller Personen positiv getestet; das liegt daran, dass von den 99% gesunden % falsch positiv getestet werden (Fehler. Art. Dies erklärt ganz allgemein, dass Tests für seltene Krankheiten nur sehr geringe Fehlerwahrscheinlichkeiten haben dürfen. Ein positiver Test ist daher nur ein erstes (schwaches Indiz, dass die Krankheit vorliegen könnte: Die Wahrscheinlichkeit, krank zu sein, steigt von % vor dem Test auf % nach einem positiven Test. Entsprechend sinkt die Wahrscheinlichkeit, gesund zu sein, von 99% vor dem Test auf 8% nach einem positiven Test. Daher muss ein Arzt möglichst versuchen, den Verdacht durch weitere, unabhängige (und wenn möglich genauere Untersuchungen zu erhärten oder auszuräumen. Dank der Formel von Bayes sind solche Rechnungen meist leicht und doch oft überraschend. Üben Sie sich mit diesem Werkzeug! Das Ziegenproblem: anschauliche Erklärung ( Anschauliche Darstellung der Wahrscheinlichkeiten: Der Kandidat wählt Tür, diese hat Gewinnwkt /, die beiden anderen zusammen /. Das bleibt auch so, nachdem der Moderator eine Ziegentür öffnet. / / / / / / ( Experimenteller Vergleich bei Spielshows: Die Strategie nie wechseln erzielt etwa Treffer (ein Drittel. Die Strategie immer wechseln erzielt die verbleibenden Treffer. Entgegen dem naiven ersten Eindruck ist es tatsächlich die bessere Strategie, die anfangs gewählte Tür im zweiten Schritt zu wechseln! Das Ziegenproblem: Anwendung von Bayes Angenommen der Moderator öffnet Tür. Was sollte der Kandidat tun? Die Formel von Bayes ergibt für die Gewinnwkt der Türen und : P(A M P(M A P(A P(M P(A M P(M A P(A P(M Das entspricht der anschaulichen Erklärung, wie oben skizziert. Es ist also tatsächlich vorteilhaft zu wechseln! Die Rechnung in allen anderen Fällen verläuft aus Symmetriegründen genauso. Ein häufiger Einwand gegen diese Rechnung ist folgender: Was wäre, wenn der Moderator die beiden Türen ungleich öffnet? Sei allgemein P(M A α [, ] und P(M A α. Wir haben oben vereinfachend α / angenommen. Die allgemeine Rechnung verläuft so: Zunächst folgt P(M ( + α/ und P(M ( α/. Die obige Rechnung ergibt nun P (A M ( α/( α und P (A M /( α. Es ist auch hier immer noch vorteilhaft zu wechseln! Der Sonderfall α bedeutet: Hat der Moderator die Wahl, Tür oder zu öffnen, dann nimmt er immer Tür. Hier gilt Gleichstand P (A M P (A M /. In allen verbleibenden Fällen muss der Moderator Tür öffnen, und hier gilt P (A M gegen P (A M. Über alle Fälle summiert bleibt die Schlussfolgerung bestehen! Bildquelle: wikipedia.org T T

8 Stochastisch unabhängige Ereignisse Wir betrachten weiterhin einen WRaum (Ω, P gemäß TC. Zwei Ereignisse A und B sind #stochastisch unabhängig, wenn die Wahrscheinlichkeit von A nicht von B abhängt: P(A B P(A Das setzt P(B > voraus und bedeutet ausgeschrieben: P(A B P(B P(A, also P(A B P(A P(B. Dies machen wir nun zur Definition: Definition TC (stochastisch unabhängige Ereignisse Sei (Ω, P ein Wahrscheinlichkeitsraum und A, B Ω zwei Ereignisse. Wir nennen A und B #(stochastisch unabhängig bezüglich P, wenn P(A B P(A P(B. In Worten: Die Wkt des Schnitts A B ist das Produkt der Wkten. Andernfalls heißen die Ereignisse A und B #(stochastisch abhängig. T Stochastisch unabhängige Ereignisse #Aufgabe: Sie würfeln einmal mit einem fairen Würfel. Dies ist ein Laplace Experiment auf Ω {,,,,, }. A : {gerade Zahl} {,, } B : {nicht die } {,,,, } Sind A und B stochastisch unabhängig? #Lösung: Wir finden zunächst A B {, }. Es gilt P(A und P(B, aber P(A B. Die Ereignisse A und B sind demnach #stochastisch abhängig. Anschaulich scheint das klar, Sie müssen es nur ausrechnen! Quantitativer Vergleich: P(A aber P(A B. Das Eintreten von Ereignis B verändert die Wkt von A. Quantitativer Vergleich: P(B aber P(B A. Das Eintreten von Ereignis A verändert die Wkt von B. T8 Stochastisch unabhängige Ereignisse #Aufgabe: Sie würfeln zweimal mit einem fairen Würfel. Dies ist ein Laplace Experiment auf Ω {,,,,, }. A : {Die erste Augenzahl ist gerade} B : {Die Augensumme ist gerade} Sind A und B stochastisch unabhängig? #Lösung: Wir haben A B {Beide Augenzahlen sind gerade}. Somit finden wir P(A und P(B sowie P(A B. Die Ereignisse A und B sind demnach #stochastisch unabhängig. Anschaulich ist das vielleicht etwas überraschend. Quantitativer Vergleich: P(A und P(A B. Quantitativer Vergleich: P(B und P(B A. Die Ereignisse A und B scheinen sich zu beeinflussen, doch sie sind stochastisch unabhängig! Es geht bei der stochastischen Unabhängigkeit nicht um Kausalität, sondern allein um die Multiplikativität der Wahrscheinlichkeiten. Die Ereignisse A und B mögen noch so raffiniert miteinander verknüpft sein, doch es zählt allein die Gleichung P(A B P(A P(B. Unabhängigkeit von Ereignissen #Aufgabe: Sind folgende Ereignisse A, B stochastisch unabhängig? Wkt B B gesamt A.8.. A..8. gesamt.. #Lösung: Ja! Aus P(A, P(B und Multiplikativität folgt die Tabelle. #Aufgabe: Sind folgende Ereignisse X, Y stochastisch unabhängig? Wkt Y Y gesamt X... X... gesamt.. #Lösung: Nein! Multiplikativität gilt nicht, X, Y sind abhängig. Unabhängigkeit von Ereignissen #Aufgabe: Wie können Sie die Tabelle füllen? bei Unabhängigkeit? Wkt B B ges. A. A ges.. Wkt B B ges. A. A ges... Wkt B B ges. A.9.. A..8. ges... Ohne die Voraussetzung der Unabhängigkeit sind die rot markierten Einträge nicht eindeutig: Sie können ein beliebiges Feld aussuchen und frei festlegen im offensichtlichen Intervall! Bei Unabhängigkeit hingegen gibt es jeweils nur eine Lösung (hier grün. Raffinierteres Beispiel: Gleiches gilt bei der nächsten Frage, es gibt aber zwei Lösungen (quadratische Gleichung. Wkt B B ges. A. A. ges. Wkt B B ges. A....8 A ges Wkt B B ges. A A ges T9 T T Stochastisch unabhängige Ereignisse #Aufgabe: Sie würfeln zweimal mit einem fairen Würfel. Sei X die erste Augenzahl, Y die zweite, S X + Y ihre Summe. ( Sind die Ereignisse X und S stochastisch unabhängig? ( Sind die Ereignisse X und S stochastisch unabhängig? ( Berechnen und interpretieren Sie die bedingten Wkten. #Lösung: ( Wir wissen P(X und P(S sowie P( X und S P({(, } unabhängig. ( Wir wissen P(X und P(S sowie P(X und S P({(, } abhängig. ( Es gilt P(S X P(S und P(X S P(X. Es gilt P(S X P(S und P(X S P(X. Nochmal zur Betonung: Es geht bei der stochastischen Unabhängigkeit nicht um Kausalität! Die Ereignisse mögen noch so raffiniert miteinander verwoben sein, für die stochastische Unabhängigkeit zählt allein die Multiplikativität der Wahrscheinlichkeiten. So einfach ist das. Unabhängigkeit von Ereignissen Lemma TD (Komplemente Sind (A, B unabhängig, dann auch (A, B und (A, B sowie (A, B. Außerdem ist jedes Ereignis A von unabhängig, ebenso von Ω. #Aufgabe: Rechnen Sie dies sorgfältig nach! #Lösung: P(A B P(A (A B P(A P(A B P(A P(A P(B P(A( P(B P(A P(B Jedes Ereignis A ist von stochastisch unabhängig: P(A P( P(A P( Jedes Ereignis A ist von Ω stochastisch unabhängig: P(A Ω P(A P(A P(Ω T T Zusammengefasst: Jedes der Ereignisse, A, A, Ω ist stochastisch unabhängig von jedem der Ereignisse, B, B, Ω. Das nützt gelegentlich. Unabhängigkeit von Ereignissen #Aufgabe: Drei Absender schreiben je einen Brief an einen von zwei Empfängern. Die Wahlen sind zufällig, gleichverteilt und unabhängig. ( Berechnen Sie P(A, P(A, P(A A für die Ereignisse A i {Der Empfänger i erhält mindestens einen Brief}. ( Sind A, A stochastisch unabhängig? ( Was gilt für n Absender? #Lösung: Es gibt 8 gleichwahrscheinliche Zuordnungen: (,, (,, (,, (,, (,, (,, (,, (,, ( Demnach finden wir P(A P(A /8 und P(A A /8. ( Wegen /8 /8 /8 sind A, A stochastisch abhängig. ( Allgemein P(A P(A n und P(A A n. Unabhängigkeit gilt hierbei nie, aber die Abhängigkeit nimmt ab: Für n gilt P(A P(A /P(A A. Das ist plausibel! T

9 Unabhängigkeit mehrerer Ereignisse Zwei Ereignisse A, B sind unabhängig, wenn gilt: P(A B P(A P(B Drei Ereignisse A, B, C sind unabhängig, wenn gilt: P(A B P(A P(B P(A C P(A P(C P(B C P(B P(C P(A B C P(A P(B P(C Die Tripelbedingung folgt nicht aus den drei Paarbedingungen! Sie kennen dieses Problem von linearer Unabhängigkeit von Vektoren. Definition TE (stochastische Unabhängigkeit Sei (Ω, P ein Wahrscheinlichkeitsraum. Eine Familie von Ereignissen A, A,..., A n Ω heißt #(stochastisch unabhängig, wenn folgende Produktformel für jede Auswahl i < i < < i l n gilt: P(A i A i A il P(A i P(A i P(A il Unabhängigkeit mehrerer Ereignisse #Aufgabe: In einer Urne befinden sich die Lose,,,. Sei A i das Ereignis an i ter Stelle. Sind A, A unabhängig? und A, A? und A, A? Sind A, A, A unabhängig? #Lösung: Wir finden P(A P(A P(A / und P(A A P(A A P(A A /: Die Ereignisse A, A, A sind paarweise unabhängig. Es gibt kein Los, daher gilt P(A A A : Das Tripel (A, A, A ist insgesamt nicht unabhängig. #Aufgabe: Sie würfeln zweimal mit einem fairen Würfel. Berechnen Sie die Wkten von A {erster gerade} und B {zweiter ungerade} und C {Summe gleich } und ihrer Schnitte. Sind A, B, C unabhängig? #Lösung: Wir finden P(A P(B / und P(C / sowie P(A B / und P(A C P(B C P(A B C /: Die Familie (A, B, C ist paarweise unabhängig, aber nicht unabhängig. Die Siebformel #Aufgabe: ( Erklären Sie graphisch und rechnerisch die Siebformel: P(A B C + P(A + P(B + P(C P(A B P(A C P(B C + P(A B C ( Was erhalten Sie im Spezialfall, wenn A, B, C unabhängig sind? ( Formulieren und erklären Sie diese Formel für P(A B C D. ( Formulieren Sie die allgemeine Siebformel: Aus A n i A i folgt n i (I A I Ai und somit I A I {,...,n} ( I I AI. #Lösung: (a Die Summe P(A + P(B + P(C zählt manche Elemente doppelt oder gar dreifach. Nach Korrektur P(A B P(A C P(B C zählen die Elemente in A B C gar nicht mehr. Nach Korrektur +P(A B C stimmt alles. Siebformel vs Produktformel #Aufgabe: (nach Lewis Carroll Projekte im Research & Development leiden erfahrungsgemäß zu % an irrealen Zielen, % an schlechter Kommunikation, 8% an Missmanagement, 8% an Zeitmangel. Wie viele Projekte leiden sowohl an irrealen Zielen, an schlechter Kommunikation, an Missmanagement als auch an Zeitmangel? ( höchstens? ( mindestens? ( wenn diese unabhängig sind? Zeichnen Sie Mengen I, K, M, Z Ω, die diese Werte realisieren! M Z Z M Z M Z M Z M Z M Z I K I K I K I K K M Z M Z M Z M Z M Z I K I K I K I K I K M Z M Z M Z M Z M Z I K I K I K I K I K B C A M Z M Z M Z M Z M Z K K K K K M Z M Z M Z M Z M Z I I I I K Z Z Z Z M Z I K I K I K I K I M Z M Z M M M I K I K I K I K I K T T T9 T Unabhängigkeit mehrerer Ereignisse Sie werfen zweimal eine faire Münze: Kopf, Zahl. #Aufgabe: Sind folgende Ereignisse (A, B, C unabhängig? A {Zahl beim ersten Wurf} {(,, (, } B {Zahl beim zweiten Wurf} {(,, (, } C {gleiches Ergebnis bei beiden Würfen} {(,, (, } Welche dieser drei Paare sind unabhängig? Ist das Tripel unabhängig? #Lösung: Der Ergebnisraum ist Ω {, } mit Gleichverteilung. Wir berechnen die erforderlichen Wahrscheinlichkeiten: P(A P(B P(C, P(A B P(A C P(B C, P(A B C und P(A P(B P(C 8. Jedes der Paare (A, B und (A, C und (B, C ist unabhängig. Das Tripel (A, B, C ist nicht unabhängig! Lesen Sie die Definition! Sie kennen dieses Problem von linearer Unabhängigkeit von Vektoren. Unabhängigkeit mehrerer Ereignisse #Aufgabe: Wir würfeln zweimal mit einem fairen Würfel. Berechnen Sie die Wkten von A {erster gerade} und B {zweiter oder } und C {Summe gleich } und ihrer Schnitte. Sind A, B, C unabhängig? #Lösung: Wir finden P(A / und P(B / und P(C / sowie P(A B / und P(A C / und P(B C /8 und P(A B C /. Die Familie (A, B, C ist also unabhängig. #Aufgabe: Seien (A, B, C drei unabhängige Ereignisse A, B, C Ω. Sind dann auch die folgenden Tripel von Ereignissen unabhängig? ( (A, C, B, ( (B, A, C, ( (A, B, C, ( (A, B, C #Lösung: Ja! Alle Bedingungen in der Definition der Unabhängigkeit sind invariant unter Vertauschung (,. Wir rechnen ( exemplarisch nach: P(A B C P((A B (A B C P(A B P(A B C P(A P(B P(A P(B P(C P(A P(B ( P(C P(A P(B P(C Die Siebformel (b Wir nutzen P(A B P(A + P(B P(A B und finden: P(A B C P(A B + P(C P((A B C P(A + P(B P(A B + P(C P((A C (B C P(A + P(B + P(C P(A B P(A C P(B C + P(A B C ( Sind A, B, C unabhängig, so finden wir hier die vertraute Formel P(A B C [ P(A][ P(B][ P(C]. ( Für A,..., A n Ω und A n i A i gilt n i (I A I Ai, denn für jedes x A ist mind. ein Faktor Null. Für jede Indexmenge I {,..., n} sei A I : i I A i die zugehörige Schnittmenge. Wir erhalten folgende #Siebformel, auch #Inklusions-Exklusions-Prinzip: I A I {,...,n} ( I I AI, ( n P A i i I {,...,n} ( I P(A I. Siebformel vs Produktformel #Lösung: ( Höchstens % leiden an allen vier; das ist offensichtlich. ( Mindestens % leiden an allen vier; das rechnen wir geduldig aus: P(I. P(I K P(I + P(K P(I K. +.. P(I K M P(I K + P(M P((I K M P(I K M Z P(I K M + P(Z P((I K M Z Die oben skizzierten Graphiken zeigen, dass diese Werte tatsächlich angenommen werden können. Unsere Schranken sind also optimal. ( Bei Unabhängigkeit von I, K, M, Z gilt die einfache Produktformel: P(I K M Z P(I P(K P(M P(Z. Die untere Schranke % und die obere Schranke % gelten immer, die Produktformel gilt nur im Spezialfall stochastischer Unabhängigkeit. T T8 T T

10 Diskrete Zufallsvariablen #Beispiel: Bei n maligem Würfeln nutzen wir Ω {,,..., } n mit Gleichverteilung P und S n : Ω R : (ω,..., ω n ω + + ω n. Definition TA (Zufallsvariable, zunächst diskret Sei (Ω, P ein WRaum. Eine reelle #Zufallsvariable ist eine Abbildung X : Ω R : ω X(ω. Das heißt: X ordnet jedem Ergebnis ω Ω eine Zahl X(ω R zu. Somit transportiert X das WMaß P auf Ω zum #Bildmaß P X auf R: P X ({a} P(X a : P ( X ({a} P ( { ω Ω X(ω a } P X (A P(X A : P ( X (A P ( { ω Ω X(ω A } für jedes Element a R und jede Teilmenge A R, etwa A [a, b]. Satz TB (Auch das Bildmaß ist ein Wahrscheinlichkeitsmaß. Sei (Ω, P ein (diskreter WRaum und X : Ω R eine Zufallsvariable. Dann ist P X auf R ein (diskretes Wahrscheinlichkeitsmaß (TD. Erwartungswert einer diskreten Zufallsvariablen Definition TC (Erwartungswert, zunächst diskret Die #absolute Erwartung der Zufallsvariable X : (Ω, P R ist E ( X : X(ω P ( {ω} [, ]. ω Ω Ist dieser Wert endlich, so nennen wir X #absolut summierbar. Wir sagen hierzu anschaulich #der Erwartungswert von X existiert; dies gilt immer, wenn Ω endlich oder X beschränkt ist. Wir schreiben: L (Ω, P L (Ω, P; R : { X : Ω R E( X < } Für jede Zufallsvariable X L (Ω, P ist der #Erwartungswert definiert: E(X : X(ω P( {ω} a P(X a ω Ω a R Satz TD (Die Erwartung ist linear. Für jeden WRaum (Ω, P ist die Menge L (Ω, P ein R Vektorraum und die Erwartung E : L (Ω, P R : X E(X eine R lineare Abbildung. Zufallsvariable, Verteilung und Erwartung #Aufgabe: Bei zweimaligem Würfeln betrachten wir die Ergebnismenge Ω {,,..., } mit der Gleichverteilung P und den Zufallsvariablen X, Y : Ω R : X(ω, ω ω, Y (ω, ω ω. Berechnen Sie Verteilung und Erwartung der Zufallsvariablen X, Y, sowie X Y und X Y, schließlich max(x, Y und min(x, Y. #Lösung: Wir beginnen mit der Zufallsvariable X(ω, ω ω : ω X ω Der Erwartungswert ist hier E(X., wie Sie leicht nachrechnen. Erwartungswert bedeutet nicht häufigster Wert, sondern Schwerpunkt! Zufallsvariable, Verteilung und Erwartung Für X Y gilt E(X Y E(X E(Y dank Linearität. ω X Y ω ω X Y ω /. T T T T Diskrete Zufallsvariablen T Wir setzen den WRaum (Ω, P hier vorerst als diskret voraus (TD. Später ist (Ω, A, P ein allgemeiner WRaum; wir fordern dann von X zudem Messbarkeit, also X ([a, b] A für jedes Intervall [a, b] R. #Aufgabe: ( Interpretieren Sie die Abbildung X : Ω R stochastisch. ( Warum ist P X auf R ein diskretes WMaß? Was ist hier zu prüfen? #Lösung: ( Die Zufallsvariable X ordnet jedem Ergebnis ω Ω eine reelle Zahl X(ω a R zu, etwa den Gewinn oder eine Auszahlung. Oft beobachten wir nicht direkt das Ergebnis ω, sondern die abgeleitete Zufallsgröße X(ω a. Die Menge X ({a} : { ω Ω X(ω a } fasst alle Ergebnisse ω Ω zusammen, die zum Wert X(ω a führen. ( Wir wenden Definition TD an. (a P X (R P ( X (R P(Ω. (b Ebenso prüfen wir die Additivität: Für jede Teilmenge A R gilt Def P X (A P ( X (A Def P ( { ω Ω X(ω A } Dis P ( { ω Ω X(ω a } Def ( P a A a A X ({a} Add P( X ({a} Def P X({a} a A a A Erwartungswert einer diskreten Zufallsvariablen T Wir setzen den WRaum (Ω, P hier vorerst als diskret voraus (TD. Im diskreten Fall genügen Reihen, im allgemeinen Fall Integrale. Für Reihen und Integrale haben Sie alle nötigen Werkzeuge. #Aufgabe: ( Der Erwartungswert E(X kann wie angegeben auf zwei Arten berechnet werden: Beide Summen ergeben denselben Wert! ( Beweisen Sie den Satz TD durch sorgfältiges Nachrechnen. #Lösung: ( Dank absoluter Summierbarkeit (?? dürfen wir umordnen: X(ω P ( {ω} ( Um X(ω P ( {ω}?? ω Ω Lin ( a a R a R ω X ({a} P( {ω} a R ω X ({a} a P(X a ( Es gilt E( λ X λ E( X und E( X + Y E( X + E( Y, für alle Zufallsvariablen X, Y : (Ω, P R und λ R, daher ist L (Ω, P ein R Vektorraum. Für X, Y L (Ω, P gilt zudem E(λ X λ E(X und E(X + Y E(X + E(Y dank Linearität (konvergenter! Reihen. Die Abbildung E : L (Ω, P R ist also R linear, wie gewünscht. Zufallsvariable, Verteilung und Erwartung Die ZVariable Y ist verschieden von X, aber identisch verteilt: ω Y ω Wir sehen in den ausführlichen Tabellen links die beiden ZVariablen X Y. Die Graphik rechts zeigt die Verteilungen, hier gilt P X P Y. Dies zeigt eindrücklich: Das Bildmaß ist ein stark vergröbertes Abbild! Die letzte Formel von Definition TC sagt: Der Erwartungswert E(X hängt nur von der Verteilung P X ab: Aus P X P Y folgt E(X E(Y. Diese Situation ist typisch für Anwendungen, in denen eine Messung / ein Experiment n mal unabhängig wiederholt wird: Die ZVariablen X,..., X n sind unabhängig und identisch verteilt. Dazu später mehr! Zufallsvariable, Verteilung und Erwartung Für die Zufallsvariablen max(x, Y und min(x, Y finden wir: ω max(x, Y ω ω min(x, Y ω 9/. / T T8

11 Varianz von Zufallsvariablen Definition TE (Varianz und höhere Momente Sei (Ω, P ein WRaum und X : Ω R eine Zufallsvariable. Sei E( X <, so dass der Erwartungswert µ E(X existiert. Die #Varianz der ZVariable X ist die mittlere quadratische Abweichung: σ (X V(X : E [ (X µ ] E(X E(X Die #Streuung oder #Standardabweichung von X ist die Quadratwurzel σ(x : V(X. Das (absolute, zentrierte #n te Moment von X ist gegeben durch ρ n (X E [ X µ n]. Anschaulich ist der Erwartungswert µ der Schwerpunkt der Verteilung. Die Varianz E[(X µ ] entspricht demnach dem Trägheitsmoment. Varianz und höhere Momente messen, wie weit die Werte um µ streuen: Große Abweichungen wiegen schwerer, quadratisch oder sogar hoch n. Warnende Beispiele: divergente Reihen #Aufgabe: Seien X, Y : Ω Z Zufallsvariablen mit Verteilung P [ X( k] a k und P [ Y k ] b k für k,,,... ( Sind dies tatsächlich WVerteilungen? Für welche a bzw. b? ( Existiert der Erwartungswert E(X bzw. E(Y? #Lösung: ( Ja: Es gilt jeweils p(k und k p(k, wobei wir die Konstanten a und b /π setzen müssen. T9 T ( Nein, die zum Erwartungswert benötigte Reihe konvergiert nicht: x k P [ ] Xx k ( k a k + + ±... k k k P [ Y k ] b k k ( π k k Einen Erwartungswert können wir hier also nicht definieren! Zur Rechnung für die geometrische Verteilung siehe T. Erwartung und Varianz von Zufallsvariablen #Aufgabe: ( Sei µ E(X. Zeigen Sie die nützliche Formel σ V(X E [ (X µ ]! E(X E(X ( Wie verhalten sich Erwartung und Varianz bei Verschiebung zu Y X + c mit c R und Skalierung zu Z ax mit a R? ( Was gilt demnach für Y X µ und Z (X µ/σ? #Nachrechnen: ( Wir fordern E( X < und setzen µ E(X. Dank Linearität der Erwartung gilt dann E [( X µ ] E [ X Xµ + µ ] E [ X ] E [ X ] µ + µ E(X µ + µ E(X E(X Die Varianz V(X E [ (X µ ] E(X E(X können Sie also mit jeder der beiden Formeln ausrechnen. Beide sind nützlich. Dies ist eine besondere Eigenschaft des zweiten Moments. Für alle anderen Momente E[ X µ n ] mit n gilt dies nicht! Erwartung und Varianz von Zufallsvariablen #Aufgabe: Bei zweimaligem Würfeln betrachten wir die Ergebnismenge Ω {,,..., } mit der Gleichverteilung P und den Zufallsvariablen X, Y : Ω R : X(ω, ω ω, Y (ω, ω ω. Berechnen Sie Erwartung und Varianz der Zufallsvariablen X, Y, sowie X Y, X Y, schließlich max(x, Y und min(x, Y. #Lösung: Die Verteilungen dieser ZVariablen wurden oben ausgeführt. Wir nutzen direkt die Definition TC. Für die Zufallsvariable X finden wir: E(X E(X V(X E(X E(X σ(x /.8 Die ZVariable Y ist verschieden von X, aber identisch verteilt: Erwartung, Varianz und Streuung sind demnach dieselben. T T Varianz von Zufallsvariablen #Aufgabe: Berechnen Sie das././. Moment für X I A B(, t. #Lösung: Hier ist X : Ω {, } eine Zufallsvariable mit Verteilung P(X P(A t und P(X P(Ω A t : t. Ihre Erwartung und././. Momente berechnen wir nach Definition: µ E(X P(X + P(X t E ( X µ µ P(X + µ P(X t ( t + ( t t t( t E ( X µ µ P(X + µ P(X t ( t + ( t t t( t E ( X µ µ P(X + µ P(X t ( t + ( t t t t(t + t Zum Vergleich: Auch E(X E(X t t liefert die Varianz. Warnende Beispiele: die Zeta-Verteilung #Aufgabe: Sei Z : Ω N eine Zufallsvariable mit der #Zeta Verteilung P [ Zk ] c k α für k,,,... ( Für welche α, c R ist dies tatsächlich eine WVerteilung? ( Für welche α R existiert der Erwartungswert µ E[Z]? zudem endliche Varianz σ V(Z E( Z µ? und endliches n tes Moment ρ n E( Z µ n? T T #Lösung: ( Es muss c ], [ gelten und c k /kα : ζ(α. Die Reihe k /kα konvergiert jedoch nur für α >. (Warum? Für α ist dies also keine Wahrscheinlichkeitsverteilung! ( Die Reihe E[Z] k k/kα ζ(α konvergiert nur für α >. Für < α existiert der Erwartungswert nicht! Die Reihe E[Z ] k k /k α ζ(α konvergiert nur für α >. Für < α existiert die Erwartung, aber die Varianz ist unendlich! Allgemein: Die Reihe E[Z n ] k kn /k α ζ(α n konvergiert nur für α > n +. Für < α n hingegen ist das n te Moment unendlich! Erwartung und Varianz von Zufallsvariablen ( Dank der Normierung P(Ω und der Linearität der Erwartung gilt immer E(Y E(X + c E(X + E(c E(X + c, sowie E(Z E(aX ae(x. Bei Verschiebung und Skalierung gilt: ρ n (X + c E [ X + c E(X + c n] E [ X + c E(X c n] E [ X E(X n] ρ n (X ρ n (ax E [ ax E(aX n] E [ ax ae(x n] a n E [ X E(X n] a n ρ n (X ( Speziell für Y X µ gilt somit E(Y und V(Y V(X σ. Speziell für Z (X µ/σ gilt somit E(Z und V(Z. Wir nennen Y X µ die #Zentrierung und Z (X µ/σ die #Normierung von X. Dies lässt sich umkehren zu X µ + Zσ. Für die Zufallsvariable X ist die natürliche Betrachtung die #(µ, σ Skala mit Ursprung in µ und Längeneinheit σ >. Erwartung und Varianz von Zufallsvariablen Dank Linearität TD gilt E(X Y E(X E(Y. Also: V(X Y E [ (X Y ] σ(x Y /. Das Ergebnis erhalten wir bequemer dank Unabhängigkeit (TH der beiden ZVariablen X, Y mittels Additivität der Varianzen (TI: V(X Y V(X + V( Y V(X + V(Y + Für die Zufallsvariable X Y finden wir entsprechend: E( X Y V( X Y E [ X Y ] E [ X Y ] ( 8 σ( X Y /. Die Rechnungen für max(x, Y und min(x, Y verlaufen genauso: Wir wenden die Definition TC direkt auf die Verteilungen an. T T

12 Die Ungleichungen von Chebychev Sei X : Ω R eine Zufallsvariable mit Erwartung µ E(X. Anschaulich gilt: Die Werte schwanken zufällig um µ, und große Abweichungen vom Erwartungswert sind eher unwahrscheinlich. T Wie unwahrscheinlich? Wir fragen also nach P( X µ c. Die Streuung σ misst hierzu die typische Breite der Verteilung. Die Ungleichungen von Chebychev geben bequeme Abschätzungen! Wir müssen hierzu über die Verteilung von X nichts weiter wissen als nur ihren Erwartungswert µ E(X und ihre Varianz σ V(X! Dies sind hier (und überall die beiden wichtigsten Kenngrößen. Selbst wenn Sie mehr wissen oder mehr herausfinden könnten, die Chebychev Abschätzungen sind allgemein, unschlagbar einfach und oft sehr nützlich als erste Überschlagsrechnung. Anschließend werden wir den zentralen Grenzwertsatz WA kennen und nutzen lernen. Wenn der ZGS anwendbar ist, dann ermöglicht er präzisere Schätzungen. In diesen Fällen ist Chebychev vergleichsweise grob und kann in Punkto Genauigkeit meist nicht konkurrieren. Die beidseitige Chebychev Abschätzung Die beidseitige Chebychev Ungleichung (, besagt: P [ X µ c ] σ c T9 #Aufgabe: Überprüfen Sie diese für folgende Verteilung. Ist sie scharf? Die Ungleichungen von Chebychev Satz TF (Chebychev 8 Sei X : (Ω, P R eine Zufallsvariable mit Erwartung µ E(X und Varianz σ E [ (X µ ] bzw. n tem Moment ρ n E [ X µ n]. Für alle c, k, h > gelten universelle worst case Abschätzungen: [ ] ( P X µ c [ ] ( P X µ kσ [ ] ( P X µ + kσ [ ] ( P µ kσ < X < µ + kσ [ ] ( P µ hσ < X < µ + kσ σ ρn bzw. c c n k + k k (hk (h + k Die Wkt großer Abweichungen fällt mindestens quadratisch, mit /k. Kennen Sie nur µ und σ bzw. ρ n, so sind diese Ungleichungen optimal. Die einseitige Chebychev Abschätzung Die einseitige Chebychev Ungleichung ( für a < µ < b besagt: P [ X a ] + ( a µ σ und P [ X b ] + ( b µ σ T8 T #Aufgabe: Überprüfen Sie beide für folgende Verteilung. Sind sie scharf? p/ Wkt p p/ q / Wkt p / c +c a / b #Lösung: Es gilt µ und σ c p. Die Ungleichung ist scharf: p P [ X µ c ] σ c p Die Abschätzung ist meist grob, dafür aber universell einsetzbar. Unser Beispiel zeigt, dass sie sich allgemein nicht verbessern lässt. Typische Abschätzungen dank Chebychev #Aufgabe: Was sagt Chebychev für folgende typische Abschätzungen? P [ X µ σ ] / % P [ X µ σ ] / % P [ X µ σ ] /9 % P [ X µ σ ] / % P [ X µ + σ ] / % P [ X µ + σ ] / % P [ X µ + σ ] / % P [ X µ + σ ] / % Große Abweichungen vom Erwartungswert sind unwahrscheinlich. Diese Abschätzungen sind grob, dafür aber universell einsetzbar. Die erste Abschätzung ist trivialerweise immer richtig aber nie hilfreich. Mindestens / der Wkt liegt in der σ Umgebung [µ σ, µ + σ]. Mindestens 8/9 der Wkt liegt in der σ Umgebung [µ σ, µ + σ]. Für Normalverteilungen gilt die genauere Regel. V Beweis der einseitigen Chebychev Abschätzung Wir beweisen damit nun die einseitige Chebychev Ungleichung (. Wie zuvor zentrieren wir die Zufallsvariable X gemäß Z : X µ. Für alle t, b R mit t + b > gelten folgende Ungleichungen: P [ Z b ] P [ Z + t b + t ] P [ (Z + t (b + t ] E[ (Z + t ] (b + t σ + t (b + t T T Die erste Ungleichung ist klar, die zweite ist die Markov Ungleichung. Die letzte Gleichung folgt dank Zentrierung E[Z], denn damit gilt E [ (Z + t ] E [ Z ] + E [ Z ] t + t σ + t. Für b σk und t σ/k erhalten wir die gewünschte Ungleichung (: σ + t (b + t σ + σ /k (σk + σ/k k + (k + k + Die Rechnung ist etwas trickreich, aber jeder Schritt ist elementar. #Lösung: Hier gilt µ und σ. Die Ungleichungen sind scharf: q P [ X a ] + a bzw. p P [ X b ] + b. Die Abschätzung ist meist grob, dafür aber universell einsetzbar. Unser Beispiel zeigt, dass sie sich allgemein nicht verbessern lässt. Beweis der beidseitigen Chebychev Abschätzung T #Nachrechnen: Die Zufallsvariable X zentrieren wir zu Z : X µ. Ihr n tes Moment ist ρ n E [ Z n] ; für n ist dies die Varianz. Wir vergleichen Z mit der zweiwertigen Zufallsvariablen Y c I { Z c}, { c falls Z(ω c, Y : Ω R : ω Y (ω falls Z(ω < c. Es gilt Z Y. Dank Monotonie der Erwartung folgt ρ n E [ Z n] E [ Y n] c n P [ X µ c ]. Hieraus folgt (. Speziell für n und c kσ erhalten wir (. Für ( zeigen wir als Hilfsmittel zunächst die Markov Ungleichung: Lemma TG (Markov Ungleichung Sei Y : (Ω, P [, ] eine nicht-negative Zufallsvariable. Für alle b > gilt dann die Abschätzung P[Y b] E[Y ]/b. #Beweis: Es gilt Y b I {Y b}, also E[Y ] b P[Y b]. Beweis der asymmetrischen Abschätzung T Ungleichung ( folgt direkt aus (; sie betont hier die Analogie zur asymmetrischen Ungleichung (. Für a < µ < b ist diese äquivalent zu: P [ a < X < b ] [ (b µ(µ a σ ] (b a, P [ X m c ] σ + (m µ c. Zur Umformulierung setzen wir m (a + b/ und c (b a/. Für m µ ergibt sich die symmetrische Chebychev Ungleichung. Die letzte Ungleichung folgt erneut dank Markov Ungleichung TG: P [ X m c ] P [ X m c ] E[ X m ] c σ + (m µ c Auch diese Abschätzung lässt sich nicht verbessern. Obiges Beispiel: Zu < t < sei b ( t/t und a /b t/( t sowie P(Xa t und P(Xb t. Es gilt E(X a( t + bt und V(X a ( t + b t. In diesem Beispiel sind die obigen Ungleichungen scharf.

13 Unabhängigkeit von Zufallsvariablen Zwei Zufallsvariablen X, X sind unabhängig, wenn das Ergebnis von X nicht die Wkten von X beeinflusst. Dies präzisieren wir wie folgt: Definition TH (Unabhängigkeit von Zufallsvariablen Eine Familie X (X,..., X n von Zufallsvariablen X k : Ω R heißt #(stochastisch unabhängig, wenn für alle Intervalle I,..., I n R gilt P( X I,..., X n I n P(X I P(X n I n. Ausführlich heißt das: Im WRaum (Ω, P ist die Familie (A,..., A n der Ereignisse A k X k (I k { ω Ω X k (ω I k } unabhängig. Die gemeinsame Verteilung von X,..., X n ist die Produktverteilung. Formal entspricht das dem Produktmaß P (X,...,Xn P X P Xn : Diese Formulierungen gelten ebenso für kontinuierliche Verteilungen. Die Produktformel gilt für alle messbaren Teilmengen I,..., I n R. Für #diskrete Zufallsvariablen ist Unabhängigkeit äquivalent zu P( X a,..., X n a n P(X a P(X n a. Unabhängigkeit von Zufallsvariablen #Aufgabe: Seien X,..., X n : (Ω, P R diskrete Zufallsvariablen. T T Zeigen Sie die Äquivalenz der beiden Unabhängigskeitsbedingungen: ( P( X I,..., X n I n P(X I P(X n I n für alle Intervalle I,..., I n R und ( P( X a,..., X n a n P(X a P(X n a für alle Punkte a,..., a k R. Bedingung ( ist vielseitiger und bequemer anzuwenden. Zudem ist dies die richtige Definition auch für kontinuierlich verteilte Zufallsvariablen. Daher erheben wir Eigenschaft ( zur Definition TH. Bedingung ( nützt nur für diskrete Zufallsvariablen, ist dann aber leichter zu prüfen. Genau hierfür nutzen wir die Äquivalenz ( (. Erste Beispiele kennen wir aus der vorigen Aufgabe. Unabhängigkeit von Zufallsvariablen T #Aufgabe: Bei zweimaligem Würfeln betrachten wir die Ergebnismenge Ω {,,..., } mit der Gleichverteilung P und den Zufallsvariablen X, Y : Ω R : X(ω, ω ω, Y (ω, ω ω. ( Sind X und Y stochastisch unabhängig? ( Sind X + Y und X Y stochastisch unabhängig? ( Sind min(x, Y und max(x, Y stochastisch unabhängig? #Lösung: ( Ja, denn P( Xa, Y b P(Xa P(Y b. ( Nein, die Multiplikativität gilt hier nicht: Zum Beispiel gilt P( X+Y, X Y aber P( X+Y / und P( X Y /. ( Nein, die Multiplikativität gilt hier nicht: Zum Beispiel gilt P( min(x, Y, max(x, Y / aber P( min(x, Y / und P( max(x, Y /. Zum Nachweis der Unabhängigkeit muss man alle Produkte prüfen. Zum Nachweis der Abhängigkeit hingegen genügt ein Gegenbeispiel. Unabhängigkeit von Zufallsvariablen #Lösung: Die Implikation ( ( ist offensichtlich: Es genügt die einpunktigen Intervalle I k {a k } zu betrachten. Wir zeigen die Umkehrung ( ( : Hierzu sei X (X,..., X n sowie a (a,..., a n und I I I n. Wir finden: P( X I,..., X n I n a I P(X a... P( X a,..., X n a n a I a n I n... P(X a P(X n a a I a n I n [ ] [ ] P(X a P(X n a a I a n I n P(X I P(X n I n T8 Unabhängigkeit von Indikatorfunktionen #Aufgabe: ( Wann sind zu zwei Ereignissen A, B Ω die Indikatorfunktionen X I A und Y I B unabhängig? ( Wann gilt Multiplikativität E(I A I B E(I A E(I B? #Lösung: ( Sei A Ω ein Ereignis und I A seine Indikatorfunktion, { falls ω A, I A : Ω R : ω I A (ω falls ω / A. Unabhängigkeit von I A und I B bedeutet vier äquivalente Bedingungen: P(I A, I B P(A B P(I A, I B P(A B P(I A, I B P(A B P(I A, I B P(A B! P(I A P(I B P(A P(B! P(I A P(I B P(A P(B! P(I A P(I B P(A P(B! P(I A P(I B P(A P(B Dies ist äquivalent zur Unabhängigkeit der Ereignisse A und B! T Erwartung und Varianz #Aufgabe: ( Gilt Additivität der Erwartung, E(X + Y E(X + E(Y? ( Gilt Multiplikativität der Erwartung, E(X Y E(X E(Y? ( Gilt Additivität der Varianzen, V(X + Y V(X + V(Y? #Lösung: ( Ja! Die Erwartung E : L (Ω, P R ist linear. (TD ( Nein! Gegenbeispiel X : Ω {±} mit P(X ± /. Hier gilt E(X X E( E(X E(X. Die Erwartung ist immer additiv aber i.a. nicht multiplikativ! Allgemein: Die Varianz ist V(X E(X E(X und i.a. >. Alternativ: E(I A I B E(I A E(I B gilt nur für unabhängige A, B. ( Nein! Gegenbeispiel X : Ω R mit V(X >. Hier gilt V(X + X V(X V(X V(X + V(X. Die Varianzen addieren sich im Allgemeinen nicht! Sie können sich verstärken wie bei X + X X oder auslöschen wie bei X + ( X. Additivität gilt glücklicherweise bei #unabhängigen Zufallsvariablen! T9 T Unabhängigkeit von Indikatorfunktionen ( Die Indikatorfunktion I A nimmt nur die beiden Werte und an: P(I A P(A und P(I A P(A Demnach ist ihr Erwartungswert Für das Produkt von I A und I B gilt E(I A P(A. I A I B I A B. Wir vergleichen schließlich, wie in der Aufgabenstellung gefragt, den Erwartungswert des Produkts mit dem Produkt der Erwartungswerte: E(I A I B E(I A E(I B E(I A B P(A B, P(A P(B. Gleichheit links ist demnach äquivalent zu Gleichheit rechts: Die Zufallsvariablen I A, I B : Ω R sind genau dann unabhängig (TH, wenn die betrachteten Ereignisse A, B Ω unabhängig sind (TC. Nur dann ist die Erwartung multiplikativ, E(I A I B E(I A E(I B. Erwartung und Varianz unabhängiger ZVariablen Satz TI (Fubini für unabhängige Zufallsvariablen ( Erwartungen unabhängiger Zufallsvariablen X, Y multiplizieren sich: E(X Y E(X E(Y ( Varianzen unabhängiger Zufallsvariablen X, Y addieren sich: V(X + Y V(X + V(Y #Aufgabe: Rechnen Sie dies nach! #Lösung: ( Dank Unabhängigkeit: E ( X Y Def ab P(Xa, Y b Fub ab P(XaP(Y b Un (a,b R a R b R [ ] [ ] Lin Def a P(Xa b P(Y b E(X E(Y a R b R ( Nach Zentrierung können wir E(X E(Y annehmen. Dann: Def V(X + Y E [ (X + Y ] Bin E ( X + XY + Y ( E(X + E(XE(Y + E(Y Zen V(X + V(Y T T

14 Erwartung und Varianz unabhängiger ZVariablen #Aufgabe: ( Einzelner Münzwurf: Berechnen Sie Erwartung und Varianz eines Experiments X k : Ω {, } mit P(X k t k. ( Mehrere Münzwürfe: Bestimmen Sie Erwartung und Varianz der Trefferzahl S X + + X n. Welche Zusatzinformation brauchen Sie? ( Was erhalten Sie speziell für t t n t? Das ist der wichtige Spezialfall von unabhängigen, identisch verteilten Experimenten. Die Summe ist dann binomialverteilt, S B(n, t, siehe Satz UB. #Lösung: ( Wir erhalten E(X k t k und V(X k t k ( t k. ( Dank #Linearität der Erwartung (TD gilt hier Additivität: E(S E(X + + X n E(X + + E(X n t + + t n Sind die Zufallsvariablen X,..., X n zudem #unabhängig, so addieren sich bei der Summe S X + + X n auch ihre Varianzen (TI: V(S V(X + + V(X n t ( t + + t n ( t n ( Wir erhalten hier E(S nt und V(S nt( t. Anwendungsbeispiel: Überbuchung #Aufgabe: Für eine Klausur sind n Teilnehmer angemeldet. Jeder davon tritt nur mit Wahrscheinlichkeit t.8 tatsächlich an. Wir nehmen stochastische Unabhängigkeit an, keine Grippewelle o.ä. Mit welcher Wkt reichen Plätze? (Chebychev, später LGS, exakt #Lösung: Wir wissen µ nt, σ nt( t., σ.. #Chebychev: Die Wkt für mehr als Teilnehmer ist beschränkt durch P ( T P ( T +k.% mit k... Die Schätzung % ist deutlich zu hoch, dafür aber bequem zu berechnen. Wir wissen über T noch viel mehr als nur µ und σ: Wir kennen die gesamte Verteilung. Die Binomialverteilung B(n, t erlaubt dank lokalem Grenzwertsatz VA eine wesentlich genauere Abschätzung: #LGS VA: Normalverteilung als Näherung, Tabelle: k ϕ(t dt <, Approximationsfehler: δ < /(σ <., insgesamt Wkt <.%. #Exakt UB: Die Teilnehmerzahl T ist binomialverteilt, genauer T B(n, t. Durch Aufsummieren (mit Computerhilfe erhalten wir P ( T.9. Es gibt > 9 mögliche Ausgänge dieses Experiments. Das kann offensichtlich niemand naiv aufsummieren, selbst der schnellste Computer nicht. Die exakte Rechnung organisieren wir daher wesentlich effizienter mit den Abzählmethoden des folgenden Kapitels. Das Gesetz der großen Zahlen #Anwendung: Jede Messung X ist zufälligen Fehlern unterworfen, Messwerte schwanken um den Erwartungswert µ mit Streuung σ >. #Beispiel: Sie führen n unabhängige Messungen X,..., X durch und erhalten Messwerte x,..., x. Sie schätzen µ durch den Stichprobenmittelwert: ˆx : n n k x k Messung (Beispiel. Die Streuung von X schätzen Sie (dank der Stichprobe auf σ. Wie genau ist ˆx? Wo liegt vermutlich der wahre Erwartungswert µ? I [, 8], I [., 8.], I [, 9], I k [. ±.k] #Aufgabe: Welches Intervall I k überdeckt den Erwartungswert µ mit Sicherheit α k 9% bzw. α k 99%? (Chebychev, später genauer ZGS Der Erwartungswert µ ist eine Konstante. Leider ist sie uns unbekannt. Das Ziel der Messung ist, diese Konstante µ möglichst genau zu bestimmen. Als Schätzung für den Wert µ dient uns ˆx. Wie die Messwerte x,..., x n ist auch ˆx zufälligen Schwankungen unterworfen. Wenn Sie eine neue unabhängige Stichprobe durchführen, erhalten Sie einen neuen Mittelwert ˆx, und mit ihm verschieben sich obige Intervalle. Wir wollen sichergehen und verlangen, dass in 9% aller Stichproben unser Intervall den wahren Wert µ überdecken soll. Welchem Intervall vertrauen wir? Das Gesetz der großen Zahlen Zu Klarheit, Verständnis und Richtigkeit hilft eine präzise Notation: T T T T9 #Vor der Messung sind X, X,..., X n : Ω R Zufallsvariablen. Wir kennen die Messergebnisse noch nicht, noch sind für X j alle Werte möglich mit ihren jeweiligen Wahrscheinlichkeiten P(X j I; daher ist es sinnvoll, von Erwartung E(X j und Varianz V(X j zu sprechen. Daraus berechnen wir die Zufallsvariable ˆX und schließlich das Intervall I k [ ˆX ± kσ]. Mit ˆX schwankt auch Ik. Wir wollen unser Verfahren so einrichten, dass I k mit großer Wkt den gesuchten Wert µ überdeckt. #Nach der Messung liegen die Ergebnisse x, x,..., x n R vor. Wir kennen die Messergebnisse nun, dies sind keine Zufallsvariablen mehr, sondern fest vorgegebene reelle Zahlen. Es hat daher überhaupt keinen Sinn, von Erwartung E(x k oder Varianz V(x k zu sprechen. Auch das Intervall I k [ˆx ± kσ] ist jetzt fixiert. Entweder es überdeckt µ oder eben nicht. Es daher hat keinen Sinn, hier nach Wkt zu fragen. #Nach der Messung ist vor der Messung! Wir wollen sicherstellen, dass unser Intervall I k auch zukünftigen, unabhängig wiederholten Messungen standhält. Genau hierzu lohnt die Mühe und Sorgfalt! Erwartung und Varianz unabhängiger ZVariablen Unabhängig wiederholte Experimente sind eine zentrale Methode der Natur- und Ingenieurwissenschaften. Das stochastische Modell (zur Planung und die statistische Auswertung (nach Durchführung gehören daher zum allgegenwärtigen Handwerkszeug. T ( Der Münzwurf ist das einfachste Zufallsexperiment: Es gibt nur zwei Ergebnisse: Kopf ( oder Zahl (. Wir nehmen hier nicht zwangsweise an, dass die Münze fair ist, also P(X k P(X k / erfüllt. Die Wkt P(X k t k [, ] ist in unserem Modell frei wählbar. ( Wenn wir n Münzen werfen, so addieren sich die Erwartungen und dank Unabhängigkeit auch die Varianzen. Die Summe unabhängiger zweiwertiger Zufallsvariablen ist ein weiteres einfaches Modell. ( Die n fache Wiederholung eines Münzwurfs ist ein wichtiges Modell: Zur Vereinfachung nehmen wir an, das Experiment wird unabhängig wiederholt und alle Wkten sind gleich (Binomialverteilung UB. Anwendungsbeispiel: Überbuchung #Aufgabe: Angenommen, im obigen Beispiel gilt n und t.9. Mit welcher Wkt reichen Plätze? (Chebychev, LGS, exakt #Lösung: Wir wissen µ nt 88, σ nt( t 8.8, σ.. #Chebychev: Die Wkt für mehr als Teilnehmer ist beschränkt durch P ( T P ( T 88 +k % mit k... Diese Größenordnung ist alarmierend: Wir sollten einen größeren Hörsaal buchen oder genauer hinschauen! Die Binomialverteilung erlaubt eine wesentlich genauere Abschätzung: #LGS VA: Normalverteilung als Näherung, Tabelle: ϕ(t dt <., k Approximationsfehler: δ /(σ <, insgesamt Wkt < %. #Exakt UB: Die Teilnehmerzahl T ist binomialverteilt, genauer T B(n, t. Durch Aufsummieren (mit Computerhilfe erhalten wir P ( T 8. Die Ungleichung von Chebychev ist vor allem in Situationen nützlich, in denen wir über die Verteilung wenig wissen (z.b. nur µ und σ aber die Wahrscheinlichkeit großer Abweichungen abschätzen wollen. In obigen Beispielen kennen wir die Verteilung sogar genau. Der lokale Grenzwertsatz VA und die Tabelle der Normalverteilung liefern hier präzisere Abschätzungen. Solche Risikoabschätzungen und Optimierungen haben enorme wirtschaftliche Bedeutung. Genau dieses Szenario analysieren Fluggesellschaften bei der Überbuchung ihrer Flüge. Das Gesetz der großen Zahlen #Lösung: Die Einzelmessung entspricht einer ZVariable X : Ω R mit Erwartung µ E(X, Varianz σ V(X und Streuung σ(x ], [. Aus unabhängigen Wiederholungen X, X,..., X n bilden wir den ( Mittelwert ˆX : X + X + + X n. n Dank Linearität gilt E( ˆX E(X µ und dank Unabhängigkeit zudem V( ˆX n V(X + + X n n [ V(X + + V(X n ] n V(X. Also σ( ˆX σ(x/ n. Im Beispiel gilt σ( ˆX /.. Für unsere Intervalle gelten die Chebychev Abschätzungen: α /, α / %, α / > 88%, α / 9%, α / 99%, α k /k. Diese genial-einfache Methode optimieren wir in Kapitel V und W: Unser Ziel sind schärfere Abschätzungen, also genauere Intervalle! Das Gesetz der großen Zahlen Dieses Argument und die Rechnung sind allgemein anwendbar. Da sie häufig gebraucht werden, halten wir diese Regel als Satz fest: Satz TJ (Gesetz der großen Zahlen Der empirische Mittelwert ˆX nähert sich dem Erwartungswert µ: ( Seine Streuung σ( ˆX σ(x/ n fällt wie / n für n. ( Abweichungen um ε > werden beliebig unwahrscheinlich gemäß ( P ˆX µ σ ε n ε. Deshalb wiederholen wir Messungen unabhängig, um die Messgenauigkeit zu verbessern! Das Gesetz der großen Zahlen erklärt insbesondere, wie wir Wahrscheinlichkeiten messen können: Die Indikatorfunktion X I A zählt das Eintreten des Ereignisses A. (Beim Würfeln sei zum Beispiel X falls eine gewürfelt wird und X sonst. Der Mittelwert ˆX ist dann die relative Häufigkeit nach n Versuchen und konvergiert gegen µ E(X P(A. Für praktische Anwendungen wollen Sie n nicht zu groß wählen: Wiederholte Messungen sind teuer. Chebychev TF ist zwar einfach aber noch recht grob. Sie wollen daher bessere Schranken für die Abweichung P( ˆX µ ε. Diese liefert der ZGS! (Satz WA T T8 T

15 Das Gesetz der großen Zahlen T Das Gesetz der großen Zahlen T 8 #Aufgabe: Sie würfeln n mal mit einem fairen Würfel. Sei S die Häufigkeit der Augenzahl. Wie groß sind Erwartung und Streuung? Welche zusätzlichen Annahmen fordern Sie hierzu sinnvollerweise? Wie wahrscheinlich ist S [, ]? S [, ]? S [8, ]? Das #empirische Gesetz der großen Zahlen ist folgende Erfahrungstatsache: Bei sehr häufiger unabhängiger Wiederholung nähern sich die relativen Häufigkeiten einem Grenzwert an. Sie können nun genauer ausrechnen, wie schnell und wie sicher dies geschieht! Das Gesetz der großen Zahlen Wir nutzen die (worst case Abschätzungen von Chebychev (Satz TF: ( ( P X µ c σ c ( ( P X µ kσ k, ( ( P µ kσ < X < µ + kσ k, In unserem Fall gilt µ und σ., und wir erhalten: ( P S (. P S [, ].9 ( P S. P ( S [, ].8 ( P S (. P S [8, ]. Die ersten beiden Abschätzungen sind hilfreich, die dritte ist nutzlos. Später rechnen wir genauer mit dem lokalen Grenzwertsatz VA (LGS. Stochastisches Modell und Kalibrierung T T #Lösung: Wir nutzen die Zufallsvariablen X, X,..., X n : Ω {, }, wobei X k bedeutet Augenzahl im k ten Wurf. Damit gilt: Trefferwkt P(X k t /, Erwartung E(X k t /, Varianz V(X k t( t /. Die Summe S X + X + + X n : Ω R zählt die Häufigkeit: Erwartung E(S nt, Varianz V(S nt( t, Streuung σ(s V(S.. Satz TI: Für die Additivität der Varianzen fordern wir Unabhängigkeit! Das Gesetz der großen Zahlen Die Ungleichungen von Chebychev sind zwar grob, aber sie erlauben uns immerhin eine erste Abschätzung, zudem schnell und bequem. Zunächst klingen Versuche nach viel, doch es genügt nicht: Die Ergebnisse streuen noch stark, die Messung ist recht ungenau! #Aufgabe: Bei Versuchen erhalten Sie S [µ ±.µ] mit Wkt 9%. Wie oft müssen Sie würfeln, damit S [µ ±.µ] mit Wkt 9% gilt? #Lösung: Wir rechnen wie oben, mit unbekannter Versuchszahl n: ( σ nt( t t! P S µ.µ. (.µ (.nt nt Wegen ( t/t muss demnach n gelten. Plausibel: Doppelte Genauigkeit erfordert vierfache Versuchszahl, zehnfache Genauigkeit erfordert hundertfache Versuchszahl, fache Genauigkeit erfordert 89fache Versuchszahl. Genauigkeit hat ihren Preis. Das ist Fluch und Segen der großen Zahlen. Das Gesetz der großen Zahlen T T Präzisionswürfel aus Kunststoff Handgesägte Würfel aus Holz Gleiche Wkten! Ungleiche Wkten? Bei perfekter Symmetrie sind alle Seiten gleichwahrscheinlich: p( p( p( p( p( p( Bei handgesägten Würfeln sind die Wahrscheinlichkeiten nicht gleich: p(., p( p( p( p(., p(. Wie findet man diese Wkten? Man muss sie messen! Aber wie genau? #Aufgabe: Sie wollen die Wkt P(A t eines Ereignisses A messen: ( Bis auf einen Fehler von ε.. Sie verlangen 98%ige Sicherheit. ( Bis auf einen Fehler von ε.. Sie verlangen 9%ige Sicherheit. ( Bis auf einen Fehler von ε.. Sie verlangen 9%ige Sicherheit. Wie oft müssen Sie die Messung / das Experiment wiederholen? Nutzen Sie hier zunächst den Satz von Chebychev TF, später genauer den lokalen Grenzwertsatz VA (LGS. Wir setzen unser Experiment als beliebig wiederholbar voraus. Das ist für praktische Anwendungen eine starke Annahme; machmal ist schon eine erste Wiederholung zu kostspielig oder gar unmöglich. Dann muss man Wkten auf andere Weise schätzen, und sei s nur grob. Selbst wenn das Experiment im Prinzip beliebig wiederholbar ist, so sind Wiederholungen doch meist aufwändig und kostspielig. Begrenzte Ressourcen erlauben Ihnen nur begrenzte Genauigkeit. Für dieses Problem soll Sie dieser Aufgabentyp sensibilisieren. Das Gesetz der großen Zahlen T Das Gesetz der großen Zahlen T8 #Lösung: Das einfache Experiment hat Erwartung E(I A P(A t und Varianz V(I A t( t /. Wir nutzen besser n unabhängige Wiederholungen X, X,..., X n : Ω {, } und bilden den Mittelwert ˆX n (X + + X n relative Häufigkeit des Ereignisses A. Er hat die Erwartung E( ˆX t und dank Unabhängigkeit die Varianz V( ˆX V(X/n /n, also die Streuung σ / n. Damit schätzen wir die Anzahl der Wiederholungen für (: Irrtumswkt: P ( ˆX t kσ /k!. k 8 Ungenauigkeit: 8σ / n! ε. n Nach dieser Abschätzung genügt ein 8σ Intervall um den Messwert. Somit genügen n Messungen. Genauigkeit hat ihren Preis! Dank LGS genügt bereits k., somit nur n Messungen. Wir schätzen die Anzahl der Wiederholungen für (: Irrtumswkt: P ( ˆX t kσ /k! k Ungenauigkeit: σ / n! ε. n Nach dieser Abschätzung genügt ein σ Intervall um den Messwert. Somit genügen n Messungen. Genauigkeit hat ihren Preis! Dank LGS genügt bereits k., somit nur n Messungen. Wir schätzen die Anzahl der Wiederholungen für (: Irrtumswkt: P ( ˆX t kσ /k!. k Ungenauigkeit: σ / n! ε. n Nach dieser Abschätzung genügt ein σ Intervall um den Messwert. Somit genügen n Messungen. Genauigkeit hat ihren Preis! Dank LGS genügt bereits k.8, somit nur n Messungen.

16 Diskrete Wahrscheinlichkeitsräume Ein #diskreter Wahrscheinlichkeitsraum (Ω, P besteht aus einer Menge Ω von möglichen Ergebnissen und einer normierten und additiven Abbildung P : P(Ω [, ]. Letzteres bedeutet P(Ω und P(A ω A P({ω} für alle A Ω. Alle Ergebnisse fassen wir zur #Ergebnismenge Ω zusammen. Jedes Element ω Ω heißt #Ergebnis. Jede Teilmenge A Ω heißt #Ereignis. Das Ereignis A tritt genau dann ein, wenn ein Ergebnis ω A eintritt. Die Wahrscheinlichkeit hierfür ist das #Wahrscheinlichkeitsmaß P(A. Spezialfall: Ein Wahrscheinlichkeitsraum (Ω, P heißt #endlich, wenn die Ergebnismenge Ω endlich ist. Er heißt #Laplacesch, wenn zudem alle Ergebnisse ω Ω gleich wahrscheinlich sind. Für das #Laplace Wahrscheinlichkeitsmaß auf Ω gilt daher P(A A Anzahl der Ergebnisse in A günstige Ergebnisse Ω Anzahl aller Ergebnisse in Ω mögliche Ergebnisse. Für Laplace Experimente berechnet man die Wkten durch Abzählen der Ergebnisse. Hierbei helfen kombinatorische Abzählformeln. Bedingte Wahrscheinlichkeit Sei (Ω, P ein Wahrscheinlichkeitsraum und B Ω ein Ereignis mit Wahrscheinlichkeit P(B >. Für jedes Ereignis A Ω definieren wir die #Wahrscheinlichkeit von A unter der Bedingung B durch P(A B : P B (A : P(A B. P(B Sei Ω B B B l eine Zerlegung in disjunkte Ereignisse. Für A Ω gilt dann die #Formel der totalen Wahrscheinlichkeit: P(A l k P(A B k l k P(A B k P(B k Im Falle P(A > gilt zudem die #Formel von Bayes (Satz TB: P(B i A P(A B i P(B i P(A P(A B i P(B i l k P(A B k P(B k Bequeme Notation und präzises Rechnen mit Zufallsereignissen. Die Rechnung ist meist leicht, die Interpretation erfordert. Verständnisfragen Versuchen Sie, folgende Fragen frei aber genau zu beantworten, etwa so, wie Sie sie einem Kommilitonen / Kollegen erklären wollen. Was ist ein diskreter Wahrscheinlichkeitsraum? Wann nennen wir ihn endlich? Laplacesch? Was ist die endliche Gleichverteilung auf Ω? Welche allgemeinen Rechenregeln gelten für Ereignisse und Wkten? Welche Wkten haben die Augensummen bei zweimal Würfeln? dreimal? Wie berechnen Sie dies geschickt? Wie nutzen Sie hierzu die Faltung? Wie definieren Sie bedingte Wahrscheinlichkeit? Ist dies ein WMaß? Wie lautet und was besagt die Formel von der totalen Wkt? und von Bayes? Wann sind zwei Ereignisse stochastisch unabhängig? drei Ereignisse? n Ereignisse? Folgt aus paarweiser die gemeinsame Unabhängigkeit? Was genau können Sie damit berechnen? Nennen Sie Beispiele! Was ist eine Zufallsvariable? Was ist ihre Erwartung und ihre Varianz? Was gilt für Linearkombinationen von ZV? von unabhängigen ZV? Wie lautet das Gesetz der großen Zahlen? Wie wenden Sie es an? Verständnisfragen #Aufgabe: ( Die Wkt, die Klausur zu bestehen, beträgt %. Bei drei Versuchen bestehe ich mit %iger Sicherheit! Richtig? ( Die Erfolgswkt einer unbemannten Marsmission liegt bei %. Es genügen also zwei Missionen, und wir haben %igen Erfolg! #Lösung: ( Offenbar ist % % nicht die richtige Antwort! Die Wkt, alle dreimal nicht zu bestehen, ist bei Unabhängigkeit!..... Die Wkt, mindestens einmal zu bestehen, ist also nur.8 8%. Sie könnten nun einwenden, dass diese Rechnung unrealistisch ist: Sobald Sie die erste Klausur bestehen, müssen und werden Sie keine weiteren Versuche unternehmen. Wenn Sie möchten, können Sie auch dieses alternative Modell ausführlich durchrechnen. Es kommt dasselbe heraus! Ernster ist folgender Einwand: Klausuren sind keine Lotterie! Unabhängigkeit gilt nicht, da sich jeder vernünftige Prüfling nach einem ersten Misserfolg sorgfältiger vorbereitet. (Nicht wahr? ( Tatsächlich ist % % auch hier nicht die richtige Antwort! Die Wkt von zwei Misserfolgen ist bei Unabhängigkeit.... Die Wkt von mindestens einem Erfolg ist demnach nur. %. T Fazit T Fazit T T Rechnen mit Ereignissen Die Sprache der Mengen erlaubt uns, mit Ereignissen zu rechnen: Klare eindeutige Formulierung ermöglicht die effiziente Rechnung. Menge Bedeutung als Zufallsereignis Ω Das sichere Ereignis: Ω tritt immer ein, P(Ω. Das unmögliche Ereignis: tritt nie ein, P(Ω. A Ω Das Ereignis A tritt ein bei jedem Ergebnis ω A. Ω A Das Ereignis A Ω A tritt ein, wenn A nicht eintritt. A B Wenn A eintritt, dann auch B. B A Das Ereignis B tritt ein, aber nicht A. A B A B A B Die Ereignisse A und B treten beide ein. Das Ereignis A oder B tritt ein (oder auch beide. Entweder A oder B tritt ein (aber nicht beide. A B Das Ereignis A oder B tritt ein, wobei A B. Bequeme Notation und präzises Rechnen mit Zufallsereignissen. Stochastische Unabhängigkeit Eine Familie von Ereignissen A, A,..., A n Ω heißt #(stochastisch unabhängig, wenn alle Schnittmengen die Produktregel erfüllen: P(A i A i A il P(A i P(A i P(A il für jede Auswahl i < i < < i l n: Die Wkt jedes Schnitts ist das Produkt der Wahrscheinlichkeiten. Für unabhängige Ereignisse lassen sich damit die Wkten aller erzeugten Ereignisse berechnen. Das heißt, zwei Ereignisse A, B Ω sind unabhängig, wenn gilt: P(A B P(A P(B. Drei Ereignisse A, B, C Ω sind unabhängig, wenn gilt: P(A B P(A P(B, P(A C P(A P(C, P(B C P(B P(C, P(A B C P(A P(B P(C. Die Tripelbedingung folgt nicht aus den drei Paarbedingungen! Verständnisfragen #Aufgabe: Seien A, B, C Ω Ereignisse in einem WRaum (Ω, P. Gelten folgende Formeln allgemein? Geben Sie einen Beweis oder ein Gegenbeispiel! Kennen Sie zusätzliche, hinreichende Voraussetzungen? ( P(A B P(A P(B ( P(Ω A P(A ( P(A B P(A P(B ( P(A B P(A + P(B ( P(A B P(A + P(B ( P(A B P(A + P(B P(A B ( P(A B C P(A + P(B + P(B P(A B P(B C P(A C #Lösung: Zeichnen Sie Skizzen! Formeln (,(,( gelten immer. ( Falsch im Allgemeinen. Dies ist äquivalent zur Unabhängigkeit! ( Falsch im Allgemeinen. Es braucht P(B A, z.b. B A. ( Falsch im Allgemeinen. Es braucht P(A B, z.b. A B. ( Falsch im Allgemeinen. Es fehlt der Korrekturterm +P(A B C. Fair oder gezinkt? #Aufgabe: (Aus der NEW YORK TIMES, August Von drei gleich aussehenden Münzen sind zwei fair, zeigen also Kopf und Zahl mit gleicher Wkt, die dritte ist gezinkt und zeigt Kopf mit Wkt %. Sie wählen zufällig eine der Münzen aus und machen einen Testwurf. Wenn Sie Kopf erhalten, mit welcher Wkt ist Ihre Münze gezinkt? #Lösung: Sie wählen eine faire Münze mit Wkt P(F / und die gezinkte mit Wkt P(F /. Gegeben sind zudem die Wkten P( F P( F / sowie P( F. und P( F.. Dank Bayes folgt also für die gesuchte Wahrscheinlichkeit: P(F P( F P(F P( F P(F + P( F P(F / / + / 8 Anschaulich gesagt: Vor dem Testwurf ist die Wkt /., nach dem Testwurf /8.. Das ist plausibel. Ist eine höhere Sicherheit nötig, dann sollten Sie umfangreichere Tests durchführen. T Fazit T Fazit T T8

17 Ausfallwkt: Welcome to the machine! T9 Ausfallwkt: Welcome to the machine! T #Aufgabe: Drei unabhängige Bauteile haben die Ausfallwkten P(A a., P(B b., P(C c.. ( Mit welcher Wkt fällt mindestens ein Teil aus? ( Genau,,,? ( Wenn nur genau ein Teil ausfällt, mit welcher Wkt ist es A, B, C? ( Konstruieren Sie als Modell hierfür explizit einen WRaum (Ω, P. #Lösung: ( Offenbar ist unsinnig! (Warum? Kein Teil fällt aus, wenn A funktioniert, B funktioniert, C funktioniert: {Keins fällt aus} A B C Dank #Unabhängigkeit können wir diese Wkt als Produkt berechnen: P(Keins fällt aus P(A P(B P(C.... Die Wkt, dass mindestens ein Teil ausfällt, ist demnach..9. Komplement verkürzt die Rechnung. Frage ( geht den langen Weg. ( Mit welcher Wkt fallen genau,,, Teile aus? Wir zerlegen: {Keins fällt aus} F : A B C {Eins fällt aus} F : (A B C (A B C (A B C {Zwei fallen aus} F : (A B C (A B C (A B C {Drei fallen aus} F : A B C Wir nutzen alle oben ausgeführten Rechenregeln: Bei Vereinigung #disjunkter Ereignisse ist die Wkt additiv. Bei Schnitten #unabhängiger Ereignisse ist die Wkt multiplikativ. P(Keins fällt aus P(F a b c. P(Eins fällt aus P(F a b c + a b c + a b c. P(Zwei fallen aus P(F a b c + a b c + a b c.9 P(Drei fallen aus P(F a b c. Plausibilitätsprüfung: Für WMaß gilt Ausfallwkt: Welcome to the machine! T Ausfallwkt: Welcome to the machine! T ( Genau ein Teil fällt aus; mit welcher Wkt ist es A, B, C? Die Wkten berechnen wir dank Unabhängigkeit (wie zuvor: Nur A fällt aus: X : A B C, P(X....9 Nur B fällt aus: Y : A B C, P(Y.... Nur C fällt aus: Z : A B C, P(Z.... Eins fällt aus: F : X Y Z, P(F Für die bedingten Wahrscheinlichkeiten folgt somit: P(A F P(A F P(F P(B F P(B F P(F P(C F P(C F P(F P(X P(F P(Y P(F P(Z P(F Plausibilitätsprüfung: Für WMaß gilt ( Wir konstruieren explizit einen geeigneten WRaum (Ω, P. #Mögliches Modell: Ω {, } mit fehlerfrei und fällt aus. Die zugehörigen Wkten erhalten wir dank Unabhängigkeit: P({} a b c., P({} a b c., P({} a b c.9, P({} a b c.9, P({} a b c., P({} a b c., P({} a b c., P({} a b c. Hiermit ist (Ω, P tatsächlich ein WRaum: P und P(Ω. Unsere Ereignisse sind dann A {??} und B {??} und C {??} sowie ihre Komplemente A {??} und B {??} und C {??}. Die zugehörigen Wkten erhalten wir jeweils durch Summation. Ebenso X {}, Y {}, Z {} und F {,, }. Das explizite Modell ( ist detailliert; das kann helfen. Oft genügt die implizite Schreibweise wie in ( ; sie ist schnell und bequem. Es liegt immer ein Modell zu Grunde; im Zweifel führt man es aus. Ursprünge der Stochastik im Würfelspiel T Ursprünge der Stochastik im Würfelspiel T Chevalier de Meré ( 8 war ein berufsmäßiger Spieler und suchte hierzu Rat bei dem Mathematiker Blaise Pascal (. Speziell plagte ihn folgendes Problem. Beim Würfelspiel war er davon ausgegangen, dass folgende Ereignisse gleich wahrscheinlich seien: A: Bei Würfen eines Würfels wird mindestens eine Sechs geworfen. B: Bei Würfen zweier Würfel wird mind. eine Doppelsechs geworfen. Er argumentierte ganz einfach und anschaulich so: Eine Doppelsechs ist mal unwahrscheinlicher, dafür führt man mal mehr Würfe aus, also sind beide gleich wahrscheinlich. Damit hatte er jedoch auf Dauer Geld verloren, was ihn sehr wunderte und vor allem sehr verdross. Wissen macht Ah! Unwissen macht Aua! Unkenntnis führt zu Fehleinschätzung und schlimmer noch zu Fehlentscheidungen. Die Mathematik stellt hierzu präzise Werkzeuge zur Verfügung. Das macht hier den Unterschied, wie in jeder ernsthaften Anwendung. Wie fair ist ein fairer Würfel? Bei einem fairen Würfel sind alle sechs Ergebnisse,,,,, gleich wahrscheinlich. Manche verstehen fair wesentlich strenger so, dass bei sechsmaligem Würfeln jedes der möglichen Ergebnisse,,,,, einmal autreten muss. (Sonst wär s ja irgendwie unfair... #Aufgabe: ( Warum ist das keine vernünftige Definition von fair"? ( Wie wahrscheinlich ist das? Was sagt Ihre Intuition? Rechnung? ( Können Sie dennoch eine realistische Vorhersage machen? #Lösung: ( Der Würfel müsste wissen, was er noch würfeln darf. Insbesondere beim letzten Wurf wäre er festgelegt und nicht zufällig! ( Es gibt Möglichkeiten (unter Beachtung der Reihenfolge. Alle sind gleich wahrscheinlich. Darunter sind! Möglichkeiten, bei denen jede der Zahlen,,,,, genau einmal vorkommt. Die Wahrscheinscheinlichkeit ist also!/ /.. Das ist unwahrscheinlich und tritt nur etwa in jeder. Serie auf. ( Das Gesetz der großen Zahlen (TJ garantiert: Bei unabhängiger Wiederholung nähern sich die relativen Häufigkeiten den Wkten, hier also /. Sechsmalige Wiederholung ist aber noch keine große Zahl. T #Aufgabe: Wie wahrscheinlich sind diese Ereignisse A und B? Auf welches sollte unser Glücksritter demnach wetten? #Lösung: (A Die Wahrscheinlichkeit, bei vier Würfen keine Sechs zu werfen ist ( 9.8. Bei vier Würfen mindestens eine Sechs zu werfen, hat somit die Gegenwahrscheinlichkeit.8.. (B Die Wahrscheinlichkeit, bei Würfen keine Doppelsechs zu werfen ist (.8. Bei Würfen mindestens eine Doppelsechs zu werfen, hat somit die Gegenwahrscheinlichkeit.8.9. Tatsächlich ist das Ereignis A etwas wahrscheinlicher als B. Der Chevalier de Meré sollte demnach auf Ereignis A wetten. Der kleine Unterschied von etwa.% fällt nicht sofort auf. Bei häufiger Wiederholung fällt er jedoch spürbar ins Gewicht. Für professionelle Spieler wie Meré ist genaues Wissen wertvoll. Gleiches gilt für alle Prozesse, die häufig wiederholt werden, und deren genaue Berechnung / Bewertung daher wesentlich ist. Efrons intransitive Würfel #Aufgabe: Der Statistiker Bradley Efron erfand folgende Würfel: A :,,,,, B :,,,,, C :,,,,, D :,,,,, Je zwei dieser Würfel treten gegeneinander an, z.b. A gegen B. Wie groß sind die Gewinnwahrscheinlichkeiten P(A > B etc.? #Lösung: Abzählen aller Gewinnkombinationen ergibt: P(A > B / / P(B > C / / P(C > D / / P(D > A / / Es gibt keinen besten Würfel: Jeder wird vom nächsten geschlagen! P(A > C 8/ / P(B > D / /9 T

18 Die geometrische Verteilung G(q T Die geometrische Verteilung G(q T8 Satz TA (geometrische Verteilung Wir wiederholen ein Zufallsexperiment mit Misserfolgswkt q < unabhängig so lange, bis im n ten Versuch der erste Erfolg eintritt. Die Wahrscheinlichkeitsverteilung für die Wartezeit X ist gegeben durch p : N [, ] : n p(n q n ( q. Dies nennen wir die #geometrische Verteilung G(q, geschrieben n X G(q Geom(q. Die mittlere Wartezeit bis zum ersten Erfolg und ihre Varianz sind E[X] n p(n q und V[X] q ( q. #Beispiele: Lebensdauer eines Geräts, Wartezeit bis zum Ausfall, Würfeln bis die Sechs kommt beim Spiel Mensch ärgere dich nicht, Wartezeit auf den Jackpot beim Lotto oder ähnlichen Spielen. U Erwartung der geometrischen Verteilung #Aufgabe: ( Warum ist G(q tatsächlich eine WVerteilung? Berechnen Sie hierzu ( die Erwartung und ( die Varianz. #Lösung: ( Zwei Eigenschaften sind zu prüfen: Es gilt p(n und p(n ( q q n ( q q n ( q q. n n n n n ( Wir berechnen zunächst den Erwartungswert: E [ X ] n P(Xn ( q n q n d ( q dq qn ( q d [ q n] dq n n T9 ( q d [ ] ( q dq q ( q q Der geometrischen Reihe sei Dank! Hier hilft der Ableitungstrick: Die Rechenregeln für Reihen kennen und nutzen Sie seit der HM. Das Ergebnis ist bemerkenswert: Die Wartezeit kann beliebig groß werden, aber ihre Erwartung ist endlich, da die Wkt schnell sinkt mit q n. Stoppzeiten: Würfeln bis die Eins kommt Beim Würfeln werden Augenzahlen addiert bis der Spieler aufhört. Würfelt er jedoch eine Eins, so endet sein Spiel mit Totalverlust. #Aufgabe: Welchen Gewinn erwarten Sie bei n Würfen? Strategie: Welches n maximiert den erwarteten Gewinn? #Lösung: Bei n Würfen erwarten wir den Gewinn n( n. Bei n {, } erreichen wir das Maximum ( ( 8.8 erwarteter Gewinn Anzahl der Würfe Stoppzeiten: Würfeln bis die Eins kommt T T Wahrscheinlichkeit G(/, mittlere Wartezeit G(/, mittlere Wartezeit Wartezeit bis zum ersten Treffer Varianz der geometrischen Verteilung ( Ebenso berechnen wir E[X ], dazu zunächst E[X(X ]: E [ X(X ] n(n P(Xn ( qq n(n q n n d ( qq dq qn n ( qq d [ ] dq q n ( qq d [ dq q n] n T ( qq ( q q ( q Hieraus erhalten wir schließlich die ersehnte Varianz: V [ X ] E [ X ] E [ X ] E [ X(X ] + E [ X ] E [ X ] q ( q + q ( q q ( q Die Rechnung ist trickreich, aber jeder einzelne Schritt ist leicht: Für Reihen kennen Sie alle nötigen Rechenregeln aus der HM. Auch hier hilft erneut der Ableitungstrick: Sie nutzen gewinnbringend die allgegenwärtigen, extrem effizienten Rechenregeln für Potenzreihen! Stoppzeiten: Würfeln bis die Eins kommt Erwartung 8 ist erstaunlich wenig. Gibt es noch bessere Strategien? #Aufgabe: Sie spielen Würfeln bis die Eins kommt wie zuvor erklärt: Jeder Wurf addiert seine Augenzahl, bis Sie entscheiden aufzuhören; würfeln Sie jedoch eine Eins, so endet das Spiel mit Totalverlust. Bis zu welcher Augensumme s ist ein weiterer Zug profitabel? #Lösung: Angenommen, im Spiel ist Ihre aktuelle Augensumme s. Sollten Sie noch einen weiteren Zug wagen oder besser aufhören? Wenn Sie einen weiteren Zug wagen, so ist der erwartete Augensumme + (s + + (s + + (s + + (s + + (s + s + e Der nächste Zug ist genau dann profitabel (im Mittel, wenn e > s gilt: s <! s + s < Das legt folgende Strategie nahe: Sie würfeln bis Sie Augensumme erreichen (oder zuvor eine Eins Ihr Spiel mit Totalverlust beendet. Ist diese flexible Strategie wirklich besser als fest Runden? Stoppzeiten: Würfeln bis die Eins kommt T T #Aufgabe: Strategie S n lautet: Solange Sie < n Punkte haben, spielen Sie weiter; sobald Sie n Punkte haben, hören Sie auf. (Anders als bei fester Rundenzahl nutzen Sie Informationen des bisherigen Verlaufs! ( Welche Ergebnisse erzeugt die Strategie S n mit welcher Wkt? ( Welche der Strategien S n bringt (im Mittel den höchsten Gewinn? #Lösung: ( Sei n N. Die Strategie S n erzeugt die Ergebnisse, n, n+, n+, n+, n+, n+ mit Wkten a n, b n, c n, d n, e n, f n, g n [, ]. Für n sind diese Wkten offensichtlich /,, /, /, /, /, /. Rekursiv gilt dann a n+ a n + b n /, b n+ c n, c n+ d n + b n /, d n+ e n + b n /, e n+ f n + b n /, f n+ g n + b n /, g n+ b n /. Mit einer Tabellenkalkulation erhalten wir die folgenden Werte. ( Der erwartete Gewinn für die Strategie S n ist gegeben durch E n nb n + (n+c n + (n+d n + (n+e n + (n+f n + (n+g n. Er wird maximal für n (und n. Das Maximum E 8. liegt ein klein Wenig höher als die Erwartung 8.8 bei fest Runden. S n n n+ n+ n+ n+ n+ E n S n n n+ n+ n+ n+ n+ E n

19 Disjunkt versus unabhängig Seien A, B Ω Ereignisse in einem Wahrscheinlichkeitsraum (Ω, P. Für die Wahrscheinlichkeit ihrer Vereinigung gilt die einfache Formel P(A B P(A + P(B P(A B. Diese Formel gilt immer. Meist kennen wir P(A und P(B, aber wie berechnen wir den Störterm P(A B? Zwei Fälle sind besonders nützlich und wichtig: A, B sind disjunkt, A B, allgemeiner P(A B. Die Ereignisse A, B sind stochastisch unabhängig. P(A B P(A + P(B P(A B P(A P(B T Ergänzung Das sind zwar nur die einfachsten (extremen Fälle, aber sie treten häufig genug auf, um nützlich zu sein. Häufig nutzt (prüft oder fordert man in Rechnungen daher Disjunktheit oder Unabhängigkeit. Das hilft. Disjunkt und unabhängig gilt nur für P(A oder P(B. Korrelation von Ereignissen Die Korrelation von zwei Ereignissen beschreibt den Grad der Abhängigkeit. Hierzu gelten einfache aber nützliche Rechenregeln: #Aufgabe: Beweisen Sie die folgenden Regeln: ( Genau dann gilt Cor(A, B, wenn A und B unabhängig sind. T Ergänzung ( Es gilt Cor(A, A, Cor(A, A, Cor(A, B Cor(A, B. ( Für alle A, B Ω gilt Cor(A, B [, ] dank Cauchy Schwarz. ( Aus Cor(A, B + folgt A B fast sicher, also P(A B. ( Aus Cor(A, B folgt A B fast sicher, also P(A B. Bemerkung: Wenn P({ω} > für alle ω Ω gilt, dann gilt in ( A B bzw. in ( A B. Es ist jedoch möglich, dass unser WRaum (Ω, P Elemente ω mit Wkt P({ω} enthält, dann können wir nicht A B bzw. A B schließen, sondern nur P(A B bzw. P(A B. Korrelation von Ereignissen Wir untersuchen genauer die Un/Abhängigkeit von Ereignissen: Im Falle P(A B P(A P(B sind die Ereignisse #unabhängig. Im Falle P(A B > P(A P(B sind sie #positiv korrelliert. Im Falle P(A B < P(A P(B sind sie #negativ korrelliert. Im Allgemeinen können wir dies wie folgt quantifizieren: Definition TB (Kovarianz und Korrelation von Ereignissen Seien A, B Ω Ereignisse in einem Wahrscheinlichkeitsraum (Ω, P. Wir definieren ihre #Kovarianz durch Cov(A, B : P(A B P(A P(B E(X Y. T Ergänzung Hier nutzen wir die Zufallsvariablen X I A P(A und Y I B P(B. Im Fall P(A, P(B ], [ definieren wir ihre #Korrelation durch Cor(A, B : P(A B P(A P(B E(X Y [, ]. P(A P(A P(B P(B V(X V(Y Im Fall P(A {, } oder P(B {, } setzen wir Cor(A, B :. Korrelation von Ereignissen T8 Ergänzung #Lösung: ( Im Sonderfall P(A {, } oder P(B {, } sind A und B unabhängig, und es gilt Cor(A, B nach Vereinbarung. Im regulären Fall P(A, P(B ], [ betrachten wir den obigen Bruch: Genau dann gilt Cor(A, B, wenn P(A B P(A P(B verschwindet, also genau dann, wenn A und B unabhängig sind. ( Einsetzen liefert sofort Cor(A, A + und Cor(A, A. Zum Ereignis A Ω betrachten wir X I A P(A, zum Komplement A Ω A entsprechend X I A P(A ( I A ( P(A X. Hieraus folgt Cov(A, B Cov(A, B und Cor(A, B Cor(A, B. ( Für X I A P(A gilt E(X und V(X P(AP(A. Ebenso für Y I B P(B gilt E(Y und V(Y P(BP(B. Wir finden E(XY E(I A I B P(AP(B P(A B P(AP(B. Dank der Cauchy Schwarz Ungleichung gilt E(XY E(X E(Y, also Cor(X, Y und somit Cor(X, Y [, ] wie gewünscht. (/ Gleichheit gilt bei Cauchy Schwarz für Y λx mit λ R. Wegen max X min X max Y min Y bleibt nur λ ±. In L (Ω, P gilt demnach X ±Y, also A B bzw. A B fast sicher. Unabhängigkeit und Unkorreliertheit T9 Ergänzung Unabhängigkeit und Unkorreliertheit T Ergänzung Wir untersuchen die Summe X + Y von zwei Zufallsvariablen X, Y. Die Varianzen addieren sich nicht immer, die nötige Korrektur liefert gerade die Kovarianz: V(X + Y V(X + V(Y + Cov(X, Y. Definition TC (Kovarianz und Korrelation von Zufallsvariablen Seien X, Y L (Ω, P quadrat-summierbare Zufallsvariablen. Wir definieren ihre #Kovarianz und ihre #Korrelation durch Cov(X, Y : E [ (X E(X (Y E(Y ] E(XY E(XE(Y, Cor(X, Y : Cov(X, Y V(XV(Y bzw. :, falls V(XV(Y. Wir nennen die beiden Zufallsvariablen X, Y #unkorreliert, wenn Cov(X, Y gilt, #positiv korelliert, wenn Cov(X, Y > gilt, #negativ korelliert, wenn Cov(X, Y < gilt. Satz TD (Kovarianz als Skalarprodukt Die Kovarianz verhält sich wie ein Skalarprodukt: Cov(X, X V(X Cov(X, Y Cov(Y, X Cov(a + bx, Y b Cov(X, Y Die Varianz V(X Cov(X, X entspricht dem Normquadrat, die Streuung σ(x V(X entspricht somit der Norm. Genau dann gilt V(X, wenn X const fast sicher. Für die Varianz einer Summe gilt Pythagoras: V(X + Y V(X + V(Y + Cov(X, Y Unkorreliert Cov(X, Y bedeutet orthogonal X Y. Dank Cauchy Schwarz Ungleichung gilt Cor(X, Y [, ]. Maximal gilt Cor(X, ±X ± und allgemein folgende Äquivalenz: Cor(X, Y ± genau dann, wenn X ±λy fast sicher (mit λ >. Unabhängigkeit und Unkorreliertheit T Ergänzung Unabhängigkeit und Unkorreliertheit T Ergänzung #Aufgabe: Seien X, Y : Ω R zwei Zufallsvariablen. Das Paar (X, Y nimmt die vier Werte (±,, (, ± R jeweils mit Wkt / an. ( Berechnen Sie E(X, V(X und E(Y, V(Y sowie Cov(X, Y. ( Sind X und Y unkorreliert? ( Sind X und Y unabhängig? ( Welche Verteilung hat S X + Y? Erwartung? Varianz? #Lösung: ( Es gilt P(X± und P(X, also E(X und V(X. Ebenso für Y, denn Y hat dieselbe Verteilung. Cov(X, Y E [ (X E(X (Y E(Y ] E(XY ( Demnach sind X und Y unkorrelliert. ( Aber nicht unabhängig: P(X P(Y aber P(X, Y ( Für die Summe S X + Y gilt offensichtlich P(S±, also E(S E(X + E(Y und V(S V(X + V(Y. Die Variablen X und Y sind abhängig aber dennoch unkorreliert. Diese schwächere Bedingung genügt für die Additivität der Varianzen. #Aufgabe: Wir untersuchen die drei folgenden Aussagen über X, Y : ( Die Zufallsvariablen X, Y sind unabhängig (gemäß Definition TH. ( Die Zufallsvariablen X, Y sind unkorreliert, also Cov(X, Y. ( Die Varianzen addieren sich gemäß V(X + Y V(X + V(Y. Welche der sechs möglichen Implikationen gelten hier? Geben Sie jeweils einen Beweis oder ein Gegenbeispiel. #Lösung: Pythagoras TD zeigt sofort die Äquivalenz ( (. Es gilt ( ( : Satz TI garantiert E(XY E(XE(Y für unabhängige Variablen, also Cov(X, Y E(XY E(XE(Y. Die Umkehrung ( ( gilt nicht: Die vorige Aufgabe zeigt ein Gegenbeispiel. (Sie können leicht Varianten davon konstruieren. Unabhängig impliziert unkorreliert, aber nicht umgekehrt! #Aufgabe: Für alle zweiwertigen Zufallsvariablen X a + a I A und Y b + b I B ist unabhängig dasselbe wie unkorreliert. #Lösung: T

20 Mikrozensus: Familienbande Laut Mikrozensus 9 haben von ca. Mio Haushalten mit Kindern (vereinfacht etwa % ein Kind, % zwei Kinder, 9% drei Kinder, % vier Kinder, % fünf Kinder. (Weitere vernachlässigen wir hier. Die Wkten von Mädchen und Jungen seien gleich und unabhängig. #Aufgabe: ( Stimmt die Schlagzeile Jedes zweite Kind ist Einzelkind? Wie viele sind Einzelkinder? oder eins von,,, Geschwistern? ( Angenommen Sie haben später einmal drei Kinder. Mit welcher Wkt sind es zwei Mädchen und ein Junge? ( Angenommen Sie haben später einmal vier Kinder. Mit welcher Wkt sind es zwei Mädchen und zwei Jungs? ( Xanthia hat zwei Geschwister, dabei ist das ältere ein Mädchen. Mit welcher Wahrscheinlichkeit ist das andere Geschwist ein Junge? ( Yago hat zwei Geschwister, dabei (mindestens eine Schwester. Mit welcher Wahrscheinlichkeit ist das andere Geschwist ein Junge? ( Sie lernen zufällig Zé kennen, von dem Sie zunächst nichts wissen. Wie groß ist die Wkt, dass er (mindestens eine Schwester hat? Mikrozensus: Familienbande ( In Geburtsreihenfolge ist möglich: MM, MJ, JM, JJ. Das Ereignis A {mindestens ein Bruder} hat Wkt P(A /. Das Ereignis B {mindestens eine Schwester} hat Wkt P(B /. Gefragt ist die Wkt P(A B P (A B/P (B (/ / (/ /. Alternativ: Das entspricht zwei der drei Möglichkeiten MM, MJ, JM. Vergleichen Sie ( und (: Der Unterschied mag überraschen. ( Zé habe n {,,,, } Geschwister. Dann gilt: P ( Zé hat keine Schwester Zé hat n Geschwister n Als nächstes benötigen wir die Wahrscheinlichkeiten P ( Anzahl der Kinder mit n Geschwistern Zé hat n Geschwister. Gesamtzahl aller Kinder Aus dem Mikrozensus ( berechnen wir (auf drei Nachkommastellen: n p n Was nützen dem Pfau seine Federn? Pfauen-Männchen haben ein prachtvolles Gefieder. Fürs Überleben ist das leider hinderlich: Tarnung, Flucht, Energie,... Warum lohnen sich dennoch lange Federn? Wozu dienen sie? Angenommen, es gebe fitte und unfitte Pfauen-Männchen. Letztere werden öfter von Raubtieren gefressen etc. Sowohl fitte als auch unfitte können kurze oder lange Federn haben. Die mit langen Federn werden aufgrund der genannten Nachteile jedenfalls öfter gefressen. Eine Population von Pfauen-Männchen könnte etwa so aussehen: Pfauen fit unfit kurze Federn % % lange Federn % % Das Pfauen-Weibchen sieht nicht die Fitness, sondern nur die Federn! #Aufgabe: Welche Strategie der Partnerwahl ist für sie vorteilhaft? Federlänge ignorieren: Trefferquote : (möglich Kurze Federn bevorzugen: Trefferquote : (schlechter Lange Federn bevorzugen: Trefferquote : (besser! Trotz aller Nachteile zahlen sich lange Federn doch aus! Ineffizienz ist der Preis für unvollständige Information. Kann ein unnützer Doktortitel doch nützlich sein? Eine Personalchefin sucht für eine Stelle einen Ingenieur (m/w. Aus Erfahrung schätzt sie die allgemeine Bewerberlage wie folgt: Bewerber geeignet ungeeignet gesamt Diplom/Master % % % Promotion % % % gesamt % % % Als individuelle Information hat sie zunächst nur den Abschluss laut Bewerbungsunterlagen. Die eigentlich interessante Zielgröße der tatsächlichen Eignung kennt sie hingegen nicht. Eine Promotion kostet Zeit und Mühe, bringt aber für diese Stelle keinen direkten Nutzen. #Aufgabe: Welche Strategie ist bei ihrer Auswahl vorteilhaft? Abschluss ignorieren: Trefferquote : (möglich Master einstellen: Trefferquote : (schlechter Doktor einstellen: Trefferquote : (besser! Trotz aller Nachteile kann sich eine Promotion auszahlen... selbst wenn sie für die eigentliche Tätigkeit nicht relevant ist! T T T T9 Mikrozensus: Familienbande #Lösung: ( Es gab Mio Einzelkinder, Mio 8 Kinder mit genau einem Geschwist, 9 Mio Kinder mit genau zwei Geschwistern Mio 9 Kinder mit drei Geschwistern und Mio Kinder mit vier Geschwistern. Insgesamt sind das 9 8 Kinder. Etwa jedes dritte ist Einzelkind. Die Zeitungsschlagzeile ist also falsch. Sie gründet, wie so oft, auf mangelnder Sachkenntnis. Man muss eine Statistik auch lesen können! ( In Geburtsreihenfolge: {MMJ, MJM, JMM}. Das sind drei von acht gleichwahrscheinlichen Möglichkeiten. Die Wkt beträgt /8.%. ( Hier {MMJJ, MJMJ, MJJM, JMMJ, JMJM, JJMM}, also von gleichwahrscheinlichen Möglichkeiten. Die Wkt beträgt /.%. Diese beiden Fragen sind Spezialfälle der Binomialverteilung UB. ( Das Geschlecht des jüngeren Geschwist ist unabhängig vom Geschlecht der älteren. Also ist die Wahrscheinlichkeit / %. Mikrozensus: Familienbande Damit finden wir schließlich die Gesamtwahrscheinlichkeit: P ( Zé hat keine Schwester P ( Zé hat n Geschwister und keine Schwester n P ( Zé hat n Geschwister P ( Zé hat keine Schwester Zé hat n Geschwister n Die gesuchte Wahrscheinlichkeit ist demnach: P ( Zé hat mindestens eine Schwester P ( Zé hat keine Schwester.8. Mit den Mitteln dieses Kapitels verfügen Sie über eine bequeme und präzise Notation zur Berechnung von Wahrscheinlichkeiten. Was nützen dem Pfau seine Federn? T T T8 Das auffallend prächtige Gefieder der Pfauen-Männchen wird in der Verhaltensbiologie als visuelles Ornament bezeichnet. Die lange Schleppe ist zwar hinderlich und vermindert das Flugvermögen, paradoxerweise kann es dennoch ein Indikator für genetische Fitness sein und Pfauen-Weibchen als Indiz für gesunden Nachwuchs dienen. (Siehe unser Zahlenbeispiel. Wäre es nicht effizienter, Pfauen würden diesen Aufwand sparen und die Energie in bessere Überlebensstrategien stecken? Auf den ersten Blick betrachtet ja. Aber für ein Weibchen gibt es keine bessere Wahl: Es kennt nicht die tatsächliche Fitness, sondern nur das vom Männchen ausgesandte Signal der Federn. Auf Grundlage dieser unvollständigen Information muss es sich (in unserem Modellbeispiel tatsächlich für die langen Federn entscheiden, selbst wenn das Überlebensnachteile mit sich bringt, auch für seinen eigenen Nachwuchs! Damit bleibt dann auch den Männchen keine Wahl: Lange Federn sind unsinnig aber werden zum Must-Have. Auch Menschen ist dieses Phänomen vertraut: Manche Männer beeindrucken Frauen, indem sie Geld verschwenden oder andere verrückte Dinge tun. Mit diesem Verhalten schaden sie sich zunächst selbst und es erscheint daher irrational. Wäre dieses Verhalten insgesamt nachteilig, so würde man vermuten, dass es auf lange Sicht ausstirbt. Das ist jedoch nicht der Fall, da Frauen dieses Verhalten als Indikator für (gesellschaftlichen Erfolg interpretieren können und eventuell bei der Partnerwahl belohnen. (Das funktioniert selbstverständlich auch umgekehrt... Dieses Phänomen wird Handicap-Prinzip genannt. Beispiele gibt es viele: Produktwerbung verschwendet Geld, wird aber vom Käufer belohnt. Manch akademischer Titel ist scheinbar Zeitverschwendung, wird aber vom Arbeitgeber belohnt. Auch Ihr Studium ist nur teilweise für Ihren Beruf relevant, und dennoch wird diese Anstrengung meist belohnt. Zum Beispiel gelten Leistungen in Mathematik als zuverlässiger Indikator für intellektuelle Leistungsfähigkeit. Vorurteil und Gerechtigkeit Wir untersuchen hier zwei simple aber frappierende Beispiele: Federn und Doktortitel. Beide sind durchaus realistisch und handfeste Illustrationen für das Konzept der bedingten Wahrscheinlichkeit: Diese ist nicht nur eine schöne Theorie, sondern alltägliche Praxis. T Die Argumente in unserer fiktiven Bewerbungssituation mögen manche für ungerecht halten. In der Tat basieren Sie auf Vorurteilen des Arbeitgebers ein eher negativ besetzter Ausdruck, aber inhaltlich bedeutet es dasselbe wie bedingte Wahrscheinlichkeit: Er nutzt seine Erfahrung. Unter den gegebenen spärlichen Informationen ist das Vorurteil nützlicher als gar kein Urteil. Das Grundproblem: Die primäre Zielgröße Eignung ist nicht direkt zugänglich. Der sekundäre Faktor Ornament ist eigentlich unwichtig, dafür aber leicht sichtbar. In Ermangelung primärer Information muss man sich mit sekundärer Information begnügen. Diese erhält dadurch eine größere Bedeutung als sie eigentlich haben sollte, und das wird als ineffizient oder ungerecht empfunden. Das ist der Preis für unvollständige Information! Zur Beruhigung der Gemüter: Nichts hält den Arbeitgeber davon ab, über die erste grobe Vorinformation hinaus genauere Information zu gewinnen, zum Beispiel durch Gespräche, Tests oder eine Probezeit. Genau das wird in der Praxis auch erfolgreich genutzt. Das ist der Vorteil, wenn man Information nicht nur passiv beobachtet, sondern aktiv herstellen kann. Schließlich zur Ehrenrettung der Promotion, auch aus meiner persönlichen Sicht: Viele Studenten empfinden große Begeisterung für ihr Fach. Dies kann sogar dazu führen, dass sie aus ehrlichem intrinsischem Interesse einer Frage auf den Grund gehen wollen und darüber promovieren. Das wird durch die obigen allzu berechnenden Argumenten nicht in Zweifel gezogen!

21 Nun zu etwas völlig anderem... T Mit den Mitteln dieses Kapitels verfügen Sie über eine bequeme und präzise Notation zur Berechnung von Wahrscheinlichkeiten. Insbesondere die Formel von Bayes ist sehr einfach aber nützlich. Sie können sie in den unterschiedlichsten Situationen einsetzen: Glücksspiel, Testverfahren, Partnerwahl, Bewerbung, etc. Versuchen wir es mal mit den großen Fragen der Menschheit... There is a theory which states that if ever anybody discovers exactly what the Universe is for and why it is here, it will instantly disappear and be replaced by something even more bizarre and inexplicable. There is another theory which states that this has already happened. (Douglas Adams, 9 Seul au monde? Sind Sie das einzige denkende Wesen? T Sind Sie das einzige denkende Wesen? T Als Kopfnuss noch eine erstaunliche Rechnung, die nicht ganz ernst gemeint ist. (Oder doch? Es gibt Menschen, die glauben, sie seien das einzige denkende Wesen im Universum. Für den Fall, dass Sie sich diese Frage stellen, schlage ich Ihnen ein stochastisches Argument vor. (a Angenommen, es gibt genau X #denkende Wesen im Universum. Diese Anzahl X ist Ihnen nicht bekannt, Sie nehmen deshalb die Gleichverteilung auf der Menge {,,,..., n} an, etwa n < e. Wir wollen nur annehmen, dass n sehr groß ist, aber doch kleiner als die geschätzten 8 Elementarteilchen im Universum. (Paralleluniversen nicht mitgerechnet, wie auch? (b Angenommen, #nur eines der Wesen hat zufällig die Erleuchtung: Ich denke, also bin ich... Bin ich das einzige denkende Wesen? Das ist von allen Annahmen die willkürlichste und rechnerisch auch die einschneidendste. Andererseits: Wer sich fragt, ob er das einzige denkende Wesen im Universum ist, der wird auch vor dieser Annahme der Einzigkeit nicht zurückschrecken. Also sei s drum. #Aufgabe: Angenommen, dieses denkende Wesen sind zufällig Sie. Mit welcher Wahrscheinlichkeit können Sie nun zurückschließen, dass Sie das einzige denkende Wesen im Universum sind? #Lösung: Nach Annahme der Gleichverteilung (a wissen Sie P(X P(X... P(Xn n. Ihre Erleuchtung E hat gemäß (b die Wahrscheinlichkeit P(E Xk k. Ihre Einzigkeit {X} hat nach Bayes die Wahrscheinlichkeit P(X E n n k k n P(E X P(X n k P(E Xk P(Xk n k k ln n > % Zur harmonischen Reihe siehe??. Unter den genannten Annahmen (a und (b gibt es also eine nicht zu vernachlässigende Wahrscheinlichkeit von mindestens %, dass Sie das einzige denkende Wesen im Universum sind. Gut, dass wir das klären konnten. Ich gratuliere! Objektive und subjektive Wahrscheinlichkeit T Objektive und subjektive Wahrscheinlichkeit T Ein Wahrscheinlichkeitsraum (Ω, P ist ein #theoretisches Modell. Was sagt es über die #Wirklichkeit? Was bedeuten Aussagen wie: Das Ereignis A tritt mit Wahrscheinlichkeit P(A ein? #Objektive Interpretation: Die Wahrscheinlichkeit drückt die relative Häufigkeit bei #beliebig wiederholbaren Experimenten aus. Sie kann empirisch überprüft werden, wir können sie messen! Bei einem fairen Würfel erscheinen gerade Zahlen mit Wkt /. Bei unserem gezinkten Würfel haben gerade Zahlen Wkt %. Die Wkt für Richtige beim Lotto ist Eins zu ( #Subjektive Interpretation: Die Wahrscheinlichkeit drückt den Grad unseres Unwissens aus, oder die #gefühlte Wahrscheinlichkeit. Dies hat keinen präzisen Sinn und kann nicht überprüft werden. Morgen beträgt die Regenwahrscheinlichkeit %. Die Klausur werde ich mit 9% Wahrscheinlichkeit bestehen. Mit Wahrscheinlichkeit % bin ich das einzige denkende Wesen. Wir suchen nach objektiven Aussagen und Schlussfolgerungen. Aussagen, die keine Prüfung erlauben, haben keinen objektiven Sinn. Präzise Aussagen und rationales Entscheiden folgen strengen Regeln: Dies ist das übliche und bewährte Vorgehen der Naturwissenschaften! #Theorie: Die präzise Beschreibung des zugrundegelegten Modells dient der wissenschaftlichen Redlichkeit: Es enthält alle Annahmen und die festgelegten Wahlen, Parameter, Kalibrierungen etc. Alle Rechnungen bauen auf genau diesen Daten auf und auf nichts weiter. #Empirie: Ob ein Modell zur Beschreibung der Realität geeignet ist, oder ob von zwei Modellen eines besser ist als das andere, lässt sich empirisch feststellen: Man vergleicht hierzu die Vorhersagen und prüft sie durch Experimente stochastisch unabhängig wiederholt! Klassisches Beispiel einer falsifizierbaren Theorie (als populärer Ulk: Die Hummel hat.cm Flügelfläche und wiegt.g. Nach den Regeln der Aerodynamik ist es unmöglich, bei diesem Verhältnis zu fliegen. Zum Glück weiß die Hummel das nicht und fliegt einfach trotzdem. Man kann die Theorie empirisch überprüfen und falsifizieren! Wahrscheinlichkeit impliziert nicht Kausalität! T Wahrscheinlichkeit impliziert nicht Kausalität! T8 #Aufgabe: Wir beobachten sehr häufig folgende Ereignisse: R {Es regnet}, S {Scheibenwischer laufen} ( Es gilt etwa P(S R 99%. Was können Sie hieraus folgern? Verursacht Regen das Anschalten der Scheibenwischer? ( Es gilt auch etwa P(R S 99%. Was können Sie hieraus folgern? Verursacht das Anschalten der Scheibenwischer etwa Regen? Dieser Denkfehler ist absurd aber dennoch sehr häufig. Dieses Beispiel ist so gewählt, dass der Denkfehler möglichst auffällig ist, gar absurd. Doch wo genau liegt der Fehler? Wir wissen alle aus Erfahrung, dass das Anschalten der Scheibenwischer nicht Regen verursacht. Woher wissen wir das? Das sagen uns nicht die obigen Wahrscheinlichkeiten, sondern folgendes aktive Experiment: Wir können willkürlich / zufällig den Scheibenwischer anschalten und den Regen beobachten. Nach zahlreicher Wiederholung dieses Experiments sind wir sicher, dass der vermutete kausale Zusammenhang nicht besteht. Kausalität beweist man nur aktiv, durch randomisierte Tests. So lernten wir als Kinder, Zusammenhänge zu begreifen und mögliche Erklärungen zu erhärten: durch ausgiebige Tests und endlos wiederholte Spiele. Das ist eine überaus sinnvolle Strategie! Kausalität impliziert meist gewisse Wahrscheinlichkeiten. Unser Erfahrungswissen nutzen wir zur Erstellung unserer Modelle. Umgekehrt jedoch muss man vorsichtig sein: Die Kenntnis gewisser Wahrscheinlichkeiten impliziert noch keine Kausalität. Wissenschaftliche Grundregel: Ursache und Wirkung lässt sich nur durch ein detailliertes Verständnis der Mechanismen ergründen! Ein passives, statistisches Abbild der Situation ist hierfür zu grob. Um Kausalität zu messen, benötigen wir aktiv randomisierte Tests. Beispiel: Menschen mit hohem Vitamin-C-Gehalt im Blut erleiden seltener einen Herzinfarkt. Kann man hieraus folgern, dass Vitamin C das Risiko mindert? Nein, daraus allein noch nicht! Ein hoher Vitamin-C-Gehalt kann durch andere Faktoren verursacht werden (z.b. gesunder Lebenswandel, viel Obst, viel Sport und diese mindern das Infarktrisiko, nicht das Vitamin C: Es ist noch nicht schlüssig, ob zusätzliches Vitamin C das Risiko senkt oder gar erhöht. Da sehr viele (bekannte und unbekannte Faktoren das Infarktrisiko beeinflussen, muss man mit voreiligen Schlussfolgerungen sehr vorsichtig sein. Die Wirkung von Vitamin C auf das Infarktrisiko kann man dennoch testen: Sorgfältig konstruiert kann ein randomisierter kontrollierter Test (RCT hierauf Antwort geben. Dies ist zwar extrem aufwändig, aber allgemein das beste Studiendesign in der medizinischen, psychologischen und ökonomischen Forschung.

22 Das Runde muss ins Eckige. Angenommen beim Tischkicker zwischen gleich starken Gegnern fallen die Tore zufällig und unabhängig voneinander. Gespielt wird bis. #Aufgabe: Wie stehen die Gewinnchancen bei 8 : 9? bei :? #Lösung: Wahrscheinlichkeitstafel für den Sieg von A beim Stand a : b. Am oberen und linken Rand ist das Spiel beendet und die Wkt ist entweder oder. Im Inneren ist jeder Eintrag der Mittelwert aus dem linken und dem oberen Nachbarn. a : b Das Runde muss ins Eckige. Angenommen beim Tischkicker fallen die Tore zufällig und unabhängig voneinander mit Wahrscheinlichkeit :. Gespielt wird bis. #Aufgabe: Wie stehen die Gewinnchancen bei 8 : 9? bei :? #Lösung: Wahrscheinlichkeitstafel für den Sieg von A beim Stand a : b. Am oberen und linken Rand ist das Spiel beendet und die Wkt ist entweder oder. Im Inneren ist jeder Eintrag. mal der linke Nachbar plus. mal der obere Nachbar. a : b T9 T Das Runde muss ins Eckige. Wie kommt diese Berechnung zustande? Ganz einfach dank Bayes! Beim Stand von a : b gibt es genau zwei mögliche Fortgänge: Als nächstes trifft entweder Spieler A oder es trifft Spieler B. Sei A[a : b] das Ereignis Spieler A gewinnt nach Stand a : b. Dank Satz TB gilt für die totale Wahrscheinlichkeit: P ( A[a : b] P ( A[a : b] A trifft P ( A trifft + P ( A[a : b] B trifft P ( B trifft P ( A[a + : b] P ( A trifft + P ( A[a : b + ] P ( B trifft Mit dieser Rekursionsformel können Sie nun die Tabelle ausfüllen. Besonders bequem geht s mit einer Tabellenkalkulation, z.b. LibreOffice. Pascal lässt grüßen: Die nte Diagonale unserer Tabelle entspricht der nten Zeile des Pascalschen Dreiecks (hier kumuliert und normiert. In unserer Tabelle versteckt sich die Binomialverteilung! Das Runde muss ins Eckige. Angenommen beim Tischkicker fallen die Tore zufällig und unabhängig voneinander mit Wahrscheinlichkeit :. Gespielt wird bis. #Aufgabe: Wie stehen die Gewinnchancen bei 8 : 9? bei :? #Lösung: Wahrscheinlichkeitstafel für den Sieg von A beim Stand a : b. Am oberen und linken Rand ist das Spiel beendet und die Wkt ist entweder oder. Im Inneren ist jeder Eintrag / mal der linke Nachbar plus / mal der obere Nachbar. a : b T T Irrfahrten und Potentiale: das Dirichlet Problem Auf einem Spielfeld Ω Z ziehen Sie jeweils mit Wkt / nach links / rechts / oben / unten. Das Spiel endet mit den Gewinnen am Rand. Ω T Irrfahrten und Potentiale: das Dirichlet Problem T #Aufgabe: ( Wie groß ist die Gewinnerwartung u(x, y auf jedem Feld? Wo ist sie maximal? Ist die gesuchte Lösung u : Ω R eindeutig? Wie berechnet man sie? möglichst effizient? näherungsweise? ( Mechanik: elastisches Netz aus Massen und Federn in Ruhelage. ( Kirchoff: äußere / innere Spannung einer elektrischen Schaltung. ( Fourier: Die Wärmeleitungsgleichung t u κ u fließt von jeder Startverteilung u zur gesuchten stationären Lösung u mit u. Irrfahrten und Potentiale: das Dirichlet Problem T #Lösung: ( Sei u(x, y die Gewinnerwartung auf dem Feld (x, y Ω. In jedem Randpunkt (x, y Ω ist der Gewinn u(x, y fest vorgegeben. In jedem inneren Punkt (x, y Int Ω gilt die #Mittelwerteigenschaft: u(x, y u(x, y + u(x+, y + u(x, y + u(x, y+ Eine solche diskrete Funktion u : Z Ω R nennen wir #harmonisch. Wir betrachten hier das ebene Gitter Z und darin eine Teilmenge Ω Z. Innere Punkte z Ω sind solche, deren vier direkte Nachbarn auch in Ω liegen. Bei einem Randpunkt z Ω liegt mindestens ein Nachbar außerhalb von Ω. #Dirichlet Problem: In jedem Randpunkt z Ω ist der Wert u(z fest vorgegeben durch eine Funktion v u Ω : Ω R. LGS: Gesucht ist also eine harmonische Funktion u : Ω R mit u Ω v. Existiert eine Lösung? Ist sie eindeutig? #Minimum-Maximum-Prinzip: Jede harmonische Funktion u : Ω R auf einem beschränkten Gebiet Ω nimmt Min & Max am Rand Ω an: min ( u min ( u Ω, max ( u max ( u Ω #Eindeutigkeit: Zwei harmonische Funktionen u, ũ : Ω R mit gleichen Randwerten u Ω ũ Ω sind gleich auf ganz Ω, denn (u ũ Ω. x Irrfahrten und Potentiale: das Dirichlet Problem Dieses einfache Beispiel illustriert das allgemeine und überall wichtige #Dirichlet Problem. Die Rechnung ist trickreicher als in der vorigen Aufgabe: Dort konnten wir mit den Startwerten direkt Zeile für Zeile ausrechnen. Hier hingegen muss man wirklich ein nicht-triviales LGS lösen! Die Aufgabe führt uns zu einem linearen Gleichungssystem... mit 8 Unbekannten! Für diese finden wir genau 8 Gleichungen. Das sieht vernünftig aus, bedeutet aber noch nicht, dass es genau eine Lösung gibt. Hierzu müssen wir genauer hinschauen und präzise begründen! Meine Tabellenkalkulation LibreOffice weigert sich zunächst mit Fehler : zirkulärer Bezug. Mit Extras > Optionen > Calc > Iterationen rechnet sie dann iterativ obige Näherungslösung aus. y T

23 Minimalflächen in der Natur T Die Oberflächenspannung von Seifenblasen führt zu Minimalflächen. Der vorgegebene Rand ist hier ein Drahtrahmen. (Emanuele Paolini, oro.math.unifi.it/paolini/diletto/minime Harmonische Funktionen: Gleichgewicht! T9 Kontext und Anwendung ändern sich, die Rechnung bleibt dieselbe! ( Wir betrachten Massenpunkte in (x, y, u(x, y R in Ruhelage. Jeder ist durch gleich starke Federn mit seinen Nachbarn verbunden. Es gilt: Ruhelage Kräftegleichgewicht Mittelwerteigenschaft! Sie können es nachrechnen! Genauer gesagt ist dies die Näherung bei geringer Krümmung. ( Wir betrachten die gezeigte Schaltung mit vier gleichen Widerstände. An den Nachbarpunkten liegen die Potentiale UE, UN, UW, US an. UN UW U UE U T8 Das Zeltdach des Olympiastadions in München ist eine Minimalfläche. Es beruht auf Ideen von Frei Paul Otto (9 vom Institut für Leichte Flächentragwerke der Universität Stuttgart. Wärmeleitungsgleichung: Alles fließt! T ( Wir betrachten Ω als ein Bauteil aus wärmeleitendem Material. An den Rändern liegen die Temperaturen C, C, C an. Wärme fließt von warm nach kalt proportional zur Temperaturdifferenz. Stationäre Verteilung Fließgleichgewicht Mittelwerteigenschaft! Unser LGS ist die diskrete Version der Potentialgleichung u. Für u : R R zweimal stetig differenzierbar gilt die Taylor Formel: u(x, y u(x, y + u(x+, y + u(x, y u(x, y + u(x, y+ x u(x, y + h.o.t. y u(x, y + h.o.t. Wir diskretisieren die Wärmeleitungsgleichung t u κ u für κ : Ohmsches Gesetz und Kirchhoffsche Regel: US Minimalflächen in der Architektur u(t, x, y + u(t, x+, y + u(t, x, y + u(t, x, y+ Diese Iteration nähert sich der stationären Lösung u mit u. UE + UN + UW + US u(t+, x, y Ausführlich: Es gilt das Ohmsche Gesetz IE (UE U /R. Die Kirchhoffsche Regel besagt hier IE + IN + IW + IS. Einsetzen und Auflösen nach U ergibt die Mittelwerteigenschaft! Wir können Ω als Schaltung realisieren und am Rand die Spannungen V, V, V anlegen. Mit einem Voltmeter messen wir das Potential u(x, y im Inneren und finden die obige Lösung. Iterative Näherung des Gleichgewichts T Diese Beobachtung führt uns schließlich zur Methode der iterativen Näherung, die auf den folgenden Folien numerisch illustriert wird. Die Rechnung beginnt mit einer (beliebigen! Startverteilung und konvergiert recht schnell gegen die (eindeutige! stationäre Lösung. Das ist für den Computer einfach und schnell zu rechnen. (So macht es auch die Tabellenkalkulation. Iterative Näherung des Gleichgewichts T t t t t Iterative Näherung des Gleichgewichts T Iterative Näherung des Gleichgewichts T t t t t

24 Die Mathematik hinter Google T Benutzer Suchmaschine Suchanfrage nach Schlüsselwörtern Liste aller Webseiten mit diesen Wörtern Die Suchmaschine Google ist seit 998 in Betrieb und dominiert seither den Markt. Sie wird ständig weiterentwickelt. Die meisten Optimierungen hütet Google als Firmengeheimnis, aber das ursprüngliche Grundprinzip ist veröffentlicht und genial einfach: Sergey Brin, Larry Page: The anatomy of a large-scale hypertextual web search engine. Stanford University 998, infolab.stanford.edu/pub/papers/google.pdf Bei vorherigen Suchmaschinen musste man endlose Trefferlisten durchforsten, bis man auf die ersten interessanten Ergebnisse stieß. Bei Google stehen sie auf wundersame Weise ganz oben auf der Liste. Wie ist das möglich? Die Antwort liegt (zu einem großen Teil in folgender Formel. Google misst die Popularität pi (PageRank jeder Seite i durch folgendes Gleichungssystem: effiziente Sortierung nach Relevanz Mathematik: Wie misst man Relevanz von Informationen? Finanzstrategie: Wie verdient man mit einem Gratisprodukt? Chaos und Struktur im Web T Miniaturbeispiel des Web. Gegeben sind die Seiten i,..., N und die Links i j. Versuch einer hierarchischen Anordnung: Chaos und Struktur im Web T8 Klassische Texte sind von einem Autor geschrieben und linear: Ein Buch hat einen Anfang und ein Ende, typischerweise liest man es von vorne nach hinten in der Reihenfolge der Seiten. Meist gibt es zudem ein Inhaltsverzeichnis oder einen Index zum leichteren Nachschlagen. (Ja, liebe Kinder, unsere Vorfahren konnten Texte mit hunderttausend Buchstaben am Stück lesen, ohne Clicks und ohne Werbung. Man nannte das Buch und speicherte es auf Papier. Webseiten bilden hingegen eine gänzlich andere Struktur. Niemand käme auf die Idee, das Internet von Anfang bis Ende durchzulesen: Es hat keine lineare Struktur, keine erste und keine letzte Seite, es ist zudem viel zu groß, und das meiste ist ohnehin uninteressant. 8 X q q + pj N j i `j Keine Angst, die Formel sieht nur auf den ersten Blick kompliziert aus. Ich werde sie anhand von Beispielen Schritt für Schritt erläutern. Wer sowas schon gesehen hat, weiß, dass es sich um eine besonders einfache Formel handelt, nämlich ein lineares Gleichungssystem, das keine Quadrate oder komplizierteres enthält. Schon die Formel von Pythagoras a + b c ist komplizierter. Informatik: Wie verarbeitet man enorme Datenmengen? pi PageRank Kernprobleme bei Suchmaschinen (und beim Data Mining allgemein: T Als das World Wide Web Mitte der 99er noch klein war, da genügte es, zu einer Suchanfrage einfach alle Treffer aufzulisten. Die Liste war noch kurz, der Nutzer konnte sie noch leicht selbst überblicken. Das Internet blieb jedoch nicht lange so klein und überschaubar... Wo simmer denn dran? Aha, heute krieje mer de Suchmaschin. Wat is en Suchmaschin? Da stelle mer uns janz dumm.... nutzergerecht sortierte Liste der Ergebnisse Die Mathematik hinter Google Eine Seite ist populär, wenn viele Seiten auf sie verweisen? Zu naiv! Eine Seite ist populär, wenn viele populäre Seiten auf sie verweisen. Das Web ist ein Graph aus Seiten i,..., N und Links i j. Ein zufälliger Surfer folgt von der aktuellen Seite zufällig einem der Links. #Aufgabe: Berechnen Sie die Aufenthaltswkten. Konvergieren sie gegen ein Gleichgewicht? Wie schnell? Immer dasselbe, d.h. ist es eindeutig? Wenn Sie diese Aufgabe vor 998 professionell gelöst hätten, so wären Sie heute Milliardär. Irrfahrt eines zufälligen Surfers T Zweiter Versuch: Eine Seite ist populär, wenn viele populäre Seiten auf sie verweisen. Das klingt zunächst zirkulär, lässt sich aber in eine einfache Gleichung fassen und lösen. Ich erläutere die besonders anschauliche Betrachtungsweise des zufälligen Surfers. Irrfahrt eines zufälligen Surfers 9 Googles Heuristik: Aufenthaltswkt Popularität Relevanz Berechnen Sie die Aufenthaltswkten bei Start auf Seite...8 Diese Anordnung war Handarbeit. Lässt sie sich automatisieren? Nach welchen Regeln? Erster Versuch: Eine Seite ist populär, wenn viele Seiten auf sie verweisen. Nachteil: Die simple Linkzählung ist zu naiv und anfällig für Manipulationen! #Aufgabe: t t t t t t... t 9 t Die Webseiten verweisen gegenseitig aufeinander und bilden einen Hypertext. Zur Illustration betrachten wir ein Miniaturbeispiel bestehend aus Webseiten. Unter den Seiten,,, wird am häufigsten zitiert. Die Seite scheint daher besonders relevant oder populär. Gleiches gilt für 9,,, mit 9 an der Spitze. Die Struktur von,,, 8 ist ähnlich mit an der Spitze. Aber die Seiten und 9, die wir schon als relevant erkannt haben, verweisen beide auf die Seite. Diese scheint daher wichtig und für die Suche besonders relevant Zufall und Notwendigkeit T Gleichgewicht pi (t + pi 8 9 Googles Heuristik: Aufenthaltswkt Popularität Relevanz Berechnen Sie die Aufenthaltswkten bei Start auf Seite. #Aufgabe: t t t t t t... t 9 t Zufall und Notwendigkeit T 8 9 T Diffusion Wir beobachten eine Diffusion: Sie konvergiert gegen eine stationäre Gleichgewichtsverteilung! Ebenso beim Start in ; sie konvergiert langsamer aber schließlich zum selben Gleichgewicht! Dank dieser Betrachtungsweise löst sich unser LGS sozusagen von allein! Verfeinertes Modell: Mit Wkt q startet unser Surfer neu auf irgendeiner zufälligen Seite i {,..., N }. Mit Wkt ( q folgt er von der aktuellen Seite j zufällig irgendeinem der `j Links. Dies führt zu folgenden Gleichungen, analog zur Wärmeleitung bzw. Potentialgleichung: T X q q + pj (t N j i `j X q q + pj N j i `j Dieses verfeinerte Modell mit Teleportation lässt sich ebenso leicht berechnen. Für q. entspricht sie dem typischen Verhalten, sechs bis sieben Links zu folgen, bevor man neu anfängt. Die Ergebnisse entsprechen der Nutzererwartung und sind robust gegenüber Manipulationen. Unsere obigen Beobachtungen zur Konvergenz sind nicht bloß zufällig, sondern beruhen auf mathematischen Gesetzmäßigkeiten. Diese kann man beweisen und darf sich darauf verlassen: Aus dem Fixpunktsatz von Banach (9 folgt sofort: Bei Sprunghaftigkeit < q gilt: ( Es gibt genau ein Gleichgewicht p. Dieses erfüllt p,..., pn > und p + + pn. ( Für jede Anfangsverteilung konvergiert die Diffusion gegen die Gleichgewichtsverteilung p. ( Die Konvergenz ist mindestens so schnell wie die der geometrischen Folge ( qn. Googles Heuristik: Aufenthaltswkt Popularität Relevanz Aufenthaltswkten bei Sprunghaftigkeit q.: #Aufgabe: t t t t t t... t 9 t

Kapitel N. Wahrscheinlichkeitsrechnung

Kapitel N. Wahrscheinlichkeitsrechnung Kapitel N Wahrscheinlichkeitsrechnung Inhalt dieses Kapitels N000 1 Diskrete Wahrscheinlichkeitsräume 2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 1 Produktexperimente 2 Kombinatorik und Urnenmodelle

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Prof. Dr. Michael Eisermann Höhere Mathematik 3 (vertieft) Kapitel S Wahrscheinlichkeitsrechnung Statistical thinking will one day be as necessary for efficient citizenship as the ability to read or write.

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Prof. Dr. Michael Eisermann Höhere Mathematik 3 (vertieft) Kapitel M Wahrscheinlichkeitsrechnung Statistical thinking will one day be as necessary for efficient citizenship as the ability to read or write.

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Prof. Dr. Michael Eisermann Höhere Mathematik 3 (vertieft) Kapitel T Wahrscheinlichkeitsrechnung Statistical thinking will one day be as necessary for efficient citizenship as the ability to read or write.

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Prof. Dr. Michael Eisermann Höhere Mathematik 3 (vertieft) Kapitel S Wahrscheinlichkeitsrechnung Statistical thinking will one day be as necessary for efficient citizenship as the ability to read or write.

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Prof. Dr. Michael Eisermann Höhere Mathematik 3 (vertieft) Kapitel S Wahrscheinlichkeitsrechnung Statistical thinking will one day be as necessary for efficient citizenship as the ability to read or write.

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Prof. Dr. Michael Eisermann Höhere Mathematik vertieft Kapitel S Wahrscheinlichkeitsrechnung Statistical thinking will one day be as necessary for efficient citizenship as the ability to read or write.

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Prof. Dr. Michael Eisermann Höhere Mathematik (vertieft) Inhalt dieses Kapitels S000 Kapitel S Wahrscheinlichkeitsrechnung Statistical thinking will one day be as necessary for efficient citizenship as

Mehr

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 stheorie: Grundbegriffe Prof. Dr. Achim Klenke http://www.aklenke.de 5. Vorlesung: 25.11.2011 1/33 Inhalt 1 Zufallsvariablen 2 Ereignisse 3 2/33 Zufallsvariablen Eine Zufallsvariable

Mehr

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

DWT 1 Grundlagen 17/476 c Ernst W. Mayr

DWT 1 Grundlagen 17/476 c Ernst W. Mayr Ē heißt komplementäres Ereignis zu E. Allgemein verwenden wir bei der Definition von Ereignissen alle bekannten Operatoren aus der Mengenlehre. Wenn also A und B Ereignisse sind, dann sind auch A B, A

Mehr

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis Stochastische Prozesse: Grundlegende Begriffe bei zufälligen Prozessen In diesem Abschnitt beschäftigen wir uns mit den grundlegenden Begriffen und Definitionen von Zufallsexperimenten, also Prozessen,

Mehr

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen Ü b u n g 1 Aufgabe 1 Die Ereignisse A, B und C erfüllen die Bedingungen P(A) = 0. 7, P(B) = 0. 6, P(C) = 0. 5 P(A B) = 0. 4, P(A C) = 0. 3, P(B C) = 0. 2, P(A B C) = 0. 1 Bestimmen Sie P(A B), P(A C),

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 1 Vorbemerkungen

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II

Allgemeine diskrete Wahrscheinlichkeitsräume II 6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete

Mehr

6: Diskrete Wahrscheinlichkeit

6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 219 6: Diskrete Wahrscheinlichkeit 6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 220 Wahrscheinlichkeitsrechnung Eines der wichtigsten

Mehr

TU DORTMUND Sommersemester 2018

TU DORTMUND Sommersemester 2018 Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume I

Allgemeine diskrete Wahrscheinlichkeitsräume I 6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Gegeben Menge Ω (Wahscheinlichkeitsraum, Menge aller möglichen Ausgänge eines Zufallsexperiments), Abbildung P : P(Ω) [0, 1] (Wahrscheinlichkeit): Jeder Teilmenge

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Statistik für Ingenieure Vorlesung 2

Statistik für Ingenieure Vorlesung 2 Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen

Mehr

Satz von der totalen Wahrscheinlichkeit

Satz von der totalen Wahrscheinlichkeit htw saar 1 Satz von der totalen Wahrscheinlichkeit Sei (Ω, P) ein Wahrscheinlichkeitsraum, und B 1,, B n seien paarweise disjunkte Ereignisse mit B i = Ω. Für jedes Ereignis A gilt dann: P(A) = P(A B 1

Mehr

Diskrete Strukturen WiSe 2012/13 in Trier

Diskrete Strukturen WiSe 2012/13 in Trier Diskrete Strukturen WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 11. Januar 2013 1 Diskrete Strukturen Gesamtübersicht Organisatorisches und Einführung Mengenlehre Relationen

Mehr

Teil II. Wahrscheinlichkeitsrechnung

Teil II. Wahrscheinlichkeitsrechnung Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

Teil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129

Teil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129 Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

Zusammenfassung Stochastik

Zusammenfassung Stochastik Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl

Mehr

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) Teil II Wahrscheinlichkeitsrechnung 5 Zufallsexperimente Ergebnisse Ereignisse Wahrscheinlichkeiten Deskriptive Statistik und Wahrscheinlichkeitsrechnung

Mehr

4. Die Laplacesche Gleichverteilung

4. Die Laplacesche Gleichverteilung Universität Basel Wirtschaftswissenschaftliches Zentrum Grundlagen der Stochastik Dr. Thomas Zehrt Inhalt: 1. Die Ereignismenge 2. Die Wahrscheinlichkeitsverteilung 3. Eigenschaften einer Wahrscheinlichkeitsverteilung

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

1. Grundlagen der Wahrscheinlichkeitsrechnung

1. Grundlagen der Wahrscheinlichkeitsrechnung 1. Grundlagen der Wahrscheinlichkeitsrechnung Ereignisse und Wahrscheinlichkeiten Zufälliger Versuch: Vorgang, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang innerhalb einer

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

Lernzusammenfassung für die Klausur. Inhaltsverzeichnis. Stochastik im SS 2001 bei Professor Sturm

Lernzusammenfassung für die Klausur. Inhaltsverzeichnis. Stochastik im SS 2001 bei Professor Sturm Stochastik im SS 2001 bei Professor Sturm Lernzusammenfassung für die Klausur Hallo! In diesem Text habe ich die wichtigsten Dinge der Stochastikvorlesung zusammengefaÿt, jedenfalls soweit, wie ich bis

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Diskrete Strukturen II

Diskrete Strukturen II SS 2006 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2006ss/ds2/ Sommersemester 2006 c Ernst W. Mayr 3. Einleitung Was bedeutet Zufall? Große Menge

Mehr

Sprechstunde zur Klausurvorbereitung

Sprechstunde zur Klausurvorbereitung htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 1

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 1 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/ Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie svorschläge zu

Mehr

Wahrscheinlichkeitsrechnung [probability]

Wahrscheinlichkeitsrechnung [probability] Wahrscheinlichkeitsrechnung [probability] Hinweis: Die Wahrscheinlichkeitsrechnung ist nicht Gegenstand dieser Vorlesung. Es werden lediglich einige Begriffsbildungen bereitgestellt und an Beispielen erläutert,

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Statistik I für Betriebswirte Vorlesung 2

Statistik I für Betriebswirte Vorlesung 2 Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Zufallsvariable X. 30 e. 40 e = 33,33...% 6

Zufallsvariable X. 30 e. 40 e = 33,33...% 6 Zufallsvariable Wir führen ein Zufallsexperiment mit Ergebnisraum Ω durch. Eine Zufallsvariable X ordnet jedem möglichen Ergebnis einen Zahlenwert zu. Eine Zufallsvariable ist also eine Funktion X : Ω

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie

Zentralübung Diskrete Wahrscheinlichkeitstheorie Zentralübung Diskrete Wahrscheinlichkeitstheorie Christian Ivicevic (christian.ivicevic@tum.de) Technische Universität München 14. Juni 2017 Agenda Disclaimer und wichtige Hinweise Übungsaufgaben Disclaimer

Mehr

3. Grundbegriffe der Wahrscheinlichkeitstheorie

3. Grundbegriffe der Wahrscheinlichkeitstheorie 03. JULI 2006: BLATT 17 3. Grundbegriffe der Wahrscheinlichkeitstheorie (v.a. nach Manning/Schütze: 40ff und Fahrmeir /Künstler/Pigeot/Tutz: 171ff) Übersicht Um entscheiden zu können, ob eine statistische

Mehr

Das Ziegenproblem. Nils Schwinning und Christian Schöler Juni 2010

Das Ziegenproblem. Nils Schwinning und Christian Schöler  Juni 2010 Das Ziegenproblem Nils Schwinning und Christian Schöler http://www.esaga.uni-due.de/ Juni 2010 Die Formulierung Obwohl das sogenannte Ziegenproblem in der Mathematik allgegenwärtig erscheint, wurde es

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr

Kapitel 5. Kapitel 5 Wahrscheinlichkeit

Kapitel 5. Kapitel 5 Wahrscheinlichkeit Wahrscheinlichkeit Inhalt 5.1 5.1 Grundbegriffe Ω, Ω, X, X,...... 5.2 5.2 Wahrscheinlichkeitsräume (Ω, (Ω, P) P) 5.3 5.3 Das Das Laplace-Modell P(A) P(A) = A / Ω 5.4 5.4 Erwartungswert E(X) E(X) Literatur:

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 08.01.2009 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 32 Einführung Wahrscheinlichkeit Verteilungen

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Inhaltsverzeichnis (Ausschnitt)

Inhaltsverzeichnis (Ausschnitt) 8 Messbarkeit und Bildwahrscheinlichkeit Inhaltsverzeichnis (Ausschnitt) 8 Messbarkeit und Bildwahrscheinlichkeit Messbare Abbildungen Bildwahrscheinlichkeit Deskriptive Statistik und Wahrscheinlichkeitsrechnung

Mehr

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie Kapitel 4 Christoph Hindermann Vorkurs Mathematik 1 4.0 Motivation Wenn 100 Münzen geworfen werden, wie ist dann die Wahrscheinlichkeit, dass genau 50 davon Kopf zeigen? Angenommen, es befinden sich 300

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele

Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Wahrscheinlichkeitstheorie Agenda:

Mehr

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. 2 Zufallsvariable 2.1 Einführung Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. Eine Zufallsvariable X ordnet jedem elementaren Versuchsausgang

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

1 Grundlagen Wahrscheinlichkeitsrechung

1 Grundlagen Wahrscheinlichkeitsrechung 1 Grundlagen Wahrscheinlichkeitsrechung 1.1 Grundbegriffe Alle möglichen Ereignisse eines Zufallsexperiments fassen wir in einer Ereignismenge Ω zusammen. Ereignisse sind Teilmengen von Ω. Umfasst das

Mehr

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum

Mehr

2.2 Ereignisse und deren Wahrscheinlichkeit

2.2 Ereignisse und deren Wahrscheinlichkeit 2.2 Ereignisse und deren Wahrscheinlichkeit Literatur: [Papula Bd., Kap. II.2 und II.], [Benning, Kap. ], [Bronstein et al., Kap. 1.2.1] Def 1 [Benning] Ein Zufallsexperiment ist ein beliebig oft wiederholbarer,

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017

htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017 htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT htw saar 2 Gliederung 25.01. Bedingte Wahrscheinlichkeit: Motivation und Definition Multiplikationssatz Stochastische Unabhängigkeit:

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 13.0.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 112 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

WAHRSCHEINLICHKEITSRECHNUNG

WAHRSCHEINLICHKEITSRECHNUNG WAHRSCHEINLICHKEITSRECHNUNG Mathematischer Teil In der Wahrscheinlichkeitsrechnung haben wir es mit Zufallsexperimenten zu tun, d.h. Ausgang nicht vorhersagbar. Grundbegriffe Zufallsexperiment und Ergebnisse

Mehr

Stochastik Grundlagen

Stochastik Grundlagen Grundlegende Begriffe: Zufallsexperiment: Ein Experiment, das beliebig oft wiederholt werden kann. Die möglichen Ergebnisse sind bekannt, nicht jedoch nicht, welches Ergebnis ein einzelnes Experiment hat.

Mehr

= 7! = 6! = 0, 00612,

= 7! = 6! = 0, 00612, Die Wahrscheinlichkeit, dass Prof. L. die Wette verliert, lässt sich wie folgt berechnen: Ω = {(i 1,..., i 7 ) : i j {1... 7}, j = 1... 7}, wobei i, j für den Wochentag steht, an dem die Person j geboren

Mehr

Basiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Pr[A] = Pr[C (A B)] = Pr[C] + Pr[A B]. Wegen A B = C B folgt daraus. Pr[A B] = Pr[C B] = Pr[C] + Pr[B] = Pr[A] Pr[A B] + Pr[B]

Pr[A] = Pr[C (A B)] = Pr[C] + Pr[A B]. Wegen A B = C B folgt daraus. Pr[A B] = Pr[C B] = Pr[C] + Pr[B] = Pr[A] Pr[A B] + Pr[B] Beweis: Wir betrachten zunächst den Fall n = 2. Dazu setzen wir C := A \ B = A \ (A B). Gemäß dieser Definition gilt, dass C und A B sowie C und B disjunkt sind. Deshalb können wir Eigenschaft 5 von Lemma

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Grundbegriffe: Experiment: ein Vorgang, den man unter gleichen Voraussatzungen beliebig oft wiederholen kann. Ergebnis ω : Ausgang eines Experiments Ergebnismenge Ω : Menge

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Diskrete Verteilungen

Diskrete Verteilungen KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr