a) Fragen zur diskreten Wahrscheinlichkeitstheorie

Ähnliche Dokumente
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2 Zufallsvariable und Verteilungsfunktionen

Stochastik Wiederholung von Teil 1

3. Kombinatorik und Wahrscheinlichkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

Wirtschaftsmathematik

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26)

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

KAPITEL 5. Erwartungswert

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Inhaltsverzeichnis (Ausschnitt)

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Wahrscheinlichkeitstheorie und Statistik

Vorlesung 5a. Die Varianz

8 Zufallsvariablen und Verteilungen. Themen: Zufallsvariablen Verteilungen Gesetz der großen Zahlen

Stochastik. 1. Wahrscheinlichkeitsräume

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie

Grundbegriffe der Wahrscheinlichkeitsrechnung

Stochastik I. Vorlesungsmitschrift

Prüfungsvorbereitungskurs Höhere Mathematik 3

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

5 Erwartungswerte, Varianzen und Kovarianzen

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung

K3 (Diskrete) Zufallsvariablen 3.1 Basis

3.3 Bedingte Wahrscheinlichkeit

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Fit for Abi & Study Stochastik

Stochastik. Ingo Blechschmidt. 27. März 2007


Modelle diskreter Zufallsvariablen

Wichtige Definitionen und Aussagen

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Vorlesung 5a. Varianz und Kovarianz

Kapitel 5 Stochastische Unabhängigkeit

Prüfungsvorbereitungskurs Höhere Mathematik 3

Unabhängigkeit KAPITEL 4

Varianz und Kovarianz

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

1 Grundlagen Wahrscheinlichkeitsrechung

Psychologische Methodenlehre und Statistik I

Statistik I für Betriebswirte Vorlesung 3

Unabhängige Zufallsvariablen

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Sabrina Kallus, Eva Lotte Reinartz, André Salé

2 Zufallsvariable, Verteilungen, Erwartungswert

Vorlesung 3. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

KAPITEL 3 DISKRETE ZUFALLSVARIABLEN UND VERTEILUNGEN

TU DORTMUND Sommersemester 2018

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Grundlagen der Wahrscheinlichkeitstheorie

Vorlesung 4b. Die Varianz

Grundbegriffe der Wahrscheinlichkeitsrechnung

Wählt man aus n Mengen mit z 1 bzw. z 2,..., bzw. z n Elementen nacheinander aus jeder Menge jeweils ein Element aus,

Diskrete Strukturen I

67 Zufallsvariable, Erwartungswert, Varianz

Mathematik für Biologen

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

13 Grenzwertsätze Das Gesetz der großen Zahlen

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Wahrscheinlichkeitstheorie. Alea iacta est!

4 Diskrete Wahrscheinlichkeitsverteilungen

Vorlesung 4b. Die Varianz

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

i Pr(X = i). Bsp: Sei X die Summe zweier Würfe eines Würfels. Dann gilt E[X] =

Kombinatorik kompakt. Stochastik WS 2016/17 1

Wahrscheinlichkeitstheorie

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg

Zusammenfassung Stochastik

Statistik für Ingenieure Vorlesung 3

Statistik I für Betriebswirte Vorlesung 4

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Abitur 2016 Mathematik Stochastik IV

Lernzusammenfassung für die Klausur. Inhaltsverzeichnis. Stochastik im SS 2001 bei Professor Sturm

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Klausur: Diskrete Strukturen I

Kapitel 6 Diskrete Wahrscheinlichkeitsräume

Zufallsvariablen [random variable]

Wahrscheinlichkeitsrechnung und Statistik

Einführung in die angewandte Stochastik

Kapitel 5. Stochastik

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Diskrete Strukturen WiSe 2012/13 in Trier

Mustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10

Woche 2: Zufallsvariablen

Transkript:

Kapitel 5 a) Fragen zur diskreten Wahrscheinlichkeitstheorie 5. Diskrete Wahrscheinlichkeitsräume (i) Was versteht man unter einem endlichen Wahrscheinlichkeitsraum? Beispiele solcher Räume an, dabei auch Modelle für Laplace-Experimente! (ii) Geben Sie (i) Definition: Sei Ω /0 endliche Menge und P :P(Ω) Ê Abbildung. Dann heißt (Ω,P) (endlicher) Wahrscheinlichkeitsraum, wenn gilt: () P(Ω) = (2) P(A) 0 für alle A P(Ω) sowie (3) P(A B)=P(A)+P(B) für alle A,B P(Ω) mit A B= /0. Jedes Element ω von Ω heißt Ergebnis (Versuchs-Ausgang oder Elementarereignis 2 ), jede Teilmenge von Ω heißt Ereignis, die Funktion P Wahrscheinlichkeitsfunktion oder Wahrscheinlichkeitsmaß; (vgl. auch Tabelle 5., Seite 4). Anmerkung: Bei der wahrscheinlichkeitstheoretischen Auswertung eines Experiments kommt es darauf an, als Modell einen passenden Wahrscheinlichkeitsraum zu finden; die Elementarereignisse entsprechen dann den nicht mehr weiter aufzugliedernden möglichen Ausgängen eines Versuchs, die Ereignisse Kombinationen solcher Ausgänge, die Wahrscheinlichkeiten den idealen relativen Häufigkeiten dieser Ausgänge (s.u.). Das Ereignis A B steht für das Eintreten von "A oder B", der Schnitt A B für das Ereignis A und B und das Komplement C Ω (A)={ω Ω ω A} für das Ereignis, dass A nicht eintritt (Gegenereignis). (ii) Beispiele: a) Würfeln mit einem idealen Würfel: Man wählt Ω = {,2,3,4,5,6} (Augenzahlen) und P(ω i )= 6 für ω i Ω. Das Ereignis Würfeln einer gerade Augenzahl ist A={2,4,6}, und es gilt P(A)=P(2)+P(4)+P(6)= 2. Verallgemeinerung: a) ist Spezialfall eines Laplace-Raumes: P(Ω) bezeichnet die Potenzmenge, also die Menge aller Teilmengen, von Ω. 2 Dabei identifiziert man das Elementarereignis {ω} (also die Singleton-Menge) mit ihrem Element ω.

2 5. Wahrscheinlichkeitstheorie/Stochastik b) Laplacescher Wahrscheinlichkeitsraum: Diese Wahrscheinlichkeitsräume dienen als Modell für Versuche, deren mögliche Ausgänge alle gleichwahrscheinlich sind (Symmetrie-Forderung). Für sie gilt: P(ω )=P(ω 2 ) für alle ω,ω 2 Ω (Gleichverteilung). A Folgerung: Aus P(A) = P(ω)= Ω ergibt sich P(A)= Ω. ω A ω A Merkregel: Anzahl der günstigen durch Anzahl der möglichen Fälle. c) Urnenexperimente (ebenfalls Modelle): α) Entnahme einer Stichprobe vom Umfang n ausn N :={,...,N} mit Zurücklegen und unter Beachtung der Reihenfolge (bzw. Verteilung von n unterscheidbaren Kugeln auf N Urnen mit Mehrfachbesetzung): Ω={(a,...,a n ) ai {,...,N}}=(N N ) n. Hierbei ist P(ω)= / N n für ω Ω. β) Entnahme einer Stichprobe vom Umfang n aus N N ohne Zurücklegen mit Beachtung der Reihenfolge (n-tupel ohne Wiederholung) P(ω)=/ N! (N n)!. γ) Entnahme einer Stichprobe vom Umfang n aus N N ohne Zurücklegen ohne Beachtung der Reihenfolge (mit n N) (bzw. Verteilung von n nicht-unterscheidbaren Kugeln auf N Urnen ohne Mehrfachbesetzung): Ω={{a,...,a n } ai {,...,N}, a i a j für i j}=: ( N N n ). Es gilt : P(ω) = / ( ( N n) für ω Ω. (Hierbei bezeichnet N n) den Binomialkoeffizenten N! n!(n n)!.) Hinweis (Warnung): Bei einem Experiment mit Entnahme aus einer Urne mit mehreren nicht-unterscheidbaren Kugeln ohne Berücksichtigung der Reihenfolge erhält man (für die Multimengen!) keinen Laplace-Raum! (Die Wahrscheinlichkeiten kann man durch Nummerierung der ursprünglich ununterscheidbaren Kugeln und durch Beachtung der Reihenfolge der Ziehung berechnen.) Beispiel: Die Urne enthalte 2 blaue und eine rote Kugel. Setze U :={b,b 2,r}. Bei zweimaligem Ziehen ohne Zurücklegen erhält man einen Laplace-Raum mit den folgenden 6 Ausgängen: (b,b 2 ),(b 2,b ),(b,r),(b 2,r),(r,b ),(r,b 2 ). Die ersten beiden ergeben die Multimenge{b,b}, die anderen vier die Menge{b,r}; diese haben die Wahrscheinlichkeiten 2 6 bzw. 4 6. δ) Spezialfall Lotto: Es werden n = 6 aus N = 49 Kugeln ohne Rücklegen und ohne Beachtung der Reihenfolge gezogen. Die Wahrscheinlichkeit für "6 Richtige"(ω gezogen = ω getippt) ist: P(ω)=/ ( 49 6) = : 3.983.86 ε) In einer Urne seien S schwarze und W = N S weiße Kugeln. Es werden n Kugeln ohne Rücklegen gezogen. Die Wahrscheinlichkeit, dass genau s schwarze und w = n s weiße Kugeln gezogen werden, ist (bei diesem Laplace-Experiment). ( S W )/( S+W s) ( w s+w). ( Hypergeometrische Verteilung) Bestimmen Sie (unmittelbar aus den Axiomen) folgende Wahrscheinlichkeiten in einem endlichen Wahrscheinlichkeitsraum: (i) P(A) unter Verwendung der Wahrscheinlichkeiten der Elementarereignisse, (ii) P(C Ω A) aus P(A) und (iii) P(A B) aus P(A),P(B) und P(A B)!

5. Diskrete Wahrscheinlichkeitsräume 3 (i) Durch Induktion folgt aus Axiom (3): P(A) = P(ω) und P(/0)=0 ω A Anmerkung: Umgekehrt wird bei gegebenen P(ω i ) 0 mit Ω P(ω i )= durch diese Formel ein Wahrscheinlichkeitsmaß definiert. (ii) Aus =P(Ω)=P(A C Ω (A))=P(A)+P(C Ω (A)) ergibt sich P(C Ω A)= P(A). (iii) Aus A B=(A\(A B)) (B\(A B)) (A B) und (ii) erhält man i= P(A B)= P(A)+P(B) P(A B). Wie lässt sich der Begriff des endlichen Wahrscheinlichkeitsraums zu dem des diskreten Wahrscheinlichkeitsraums erweitern? In der Definition des endlichen Wahrscheinlichkeitsraums wird Ω endlich ersetzt durch Ω endlich oder abzählbar unendlich und Axiom (3) durch das folgende Axiom (die sogenannte σ-additivität ) (3 ) P( A i )= P(A i ) für jede Folge (A i ) i N disjunkter Ereignisse A i Ω. i=0 i=0 Aus diesem folgt die (einfache) Additivität unmittelbar. Anmerkung: Ist Ω={ω i i N}, und(ω,p) diskreter Wahrscheinlichkeitsraum, so muss gelten: k=0 P(ω i ) konvergiert gegen. Ist umgekehrt Zahlen, dann ist durch P(A) := ω k A Rényi [?]). k=0 p k = und (p k ) k N eine Folge nicht-negativer p k ein diskreter Wahrscheinlichkeitsraum definiert (s.z.bsp. Definieren Sie den Begriff der bedingten Wahrscheinlichkeit eines Ereignisses B bei gegebenem Ereignis A (mit P(A) 0). Interpretieren Sie sie als Wahrscheinlichkeitsfunktion. Sei (Ω,P) diskreter Wahrscheinlichkeits-Raum. P(B A) := P(A B)/P(A) heißt bedingte Wahrscheinlichkeit von B unter Voraussetzung des Eintretens von A. Die Funktion P A mit P A (B) := P(B A) ist ebenfalls Wahrscheinlichkeitsfunktion auf Ω (Beweis?). Bei dieser werden alle Wahrscheinlichkeiten von Teilmengen von A gerade derart proportional erhöht, dass P A (A)= ist. Die bedingte Wahrscheinlichkeit von B hängt dann nur von A B ab (s. Abb. 5.). B A Ω Abbildung 5.: P(B A)= P(A B) P(A) Beispiel: Würfeln mit einem idealen Würfel und A ={2, 4, 6} (gerade Augenzahl) P({i} A)= 6 / 2 = 3 für i A und P({i} A)=0 für i / A. Wie lauten die Formel von der totalen Wahrscheinlichkeit und die Regel von Bayes? Sei (Ω,P) diskreter Wahrscheinlichkeitsraum; seien ferner A,A 2,... disjunkte Ereignisse mit A k = Ω.

4 5. Wahrscheinlichkeitstheorie/Stochastik Tabelle 5.: Zur Sprache der Wahrscheinlichkeitstheorie Versuchsorientierte Sprache Mengen- bzw. maßtheoretische Sprache (Einzel-) Ausgang eines Zufallsexperiments (Versuchs) Menge aller (Einzel-) Ausgänge Ereignis, (zusammengesetzter) Ausgang beobachtbares Ereignis sicheres Ereignis Ergebnis ω Ω, oft mit dem Elementarereignis{ω} identifiziert Ereignisraum Ω A Ω Element der Ereignisalgebra, messbare Menge (s.u.) A A P(Ω) Ω unmögliches Ereignis /0 Nichteintreten des Ereignisses A C Ω A gemeinsames Vorkommen der Ereignisse A, B A B, A B Vorkommen eines der Ereignisse A,B A B, A+B Ereignis A impliziert Ereignis B A B A und B schließen sich einander aus A B= /0 Zufallsvariable messbare Funktion Die Formel von der totalen Wahrscheinlichkeit lautet: P(B)= P(A k ) P(B A k ) für B Ω, die Regel von Bayes: Ist P(B)>0, so gilt P(A i B)= P(A i) P(B A i ) P(A k )P(B A k ). Anmerkung zur Regel von Bayes: Eigentlich zielt man mit der Bayesschen Regel auf eine zweidimensionale Verteilung ab. Früher interpretierte man A k als vergangene Ereignisse und versuchte, so aus den a priori Wahrscheinlichkeiten P(A k ) und den bedingten Wahrscheinlichkeiten P(B A k ) die a posteriori Wahrscheinlichkeiten P(A i B) zu bestimmen; vgl. Krengel [?]. Behandeln Sie exemplarisch am Beispiel des dreimaligen Münzwurfs die Darstellung eines mehrstufigen Experiments mit Hilfe eines Ereignisbaumes bzw. Wahrscheinlichkeitsbaumes. Wie lauten die Pfadregeln zur Bestimmung der Wahrscheinlichkeiten eines Ereignisses? a) Die Ausgänge eines k-fachen Münzwurfs sind beschreibbar durch die Elemente von{w,z} k mit W := Wappen und Z := Zahl. Für k = 0,, 2, 3 erhält man den Ereignisbaum von Abb. 5.2 (mit der Schreibeise X X 2 X 3 :=(X,X 2,X 3 )). k k

5. Diskrete Wahrscheinlichkeitsräume 5 O/ W Z WW WZ ZW ZZ WWW WWZ WZW WZZ ZWW ZWZ ZZW ZZZ Abbildung 5.2: Ereignisbaum beim Experiment Dreifacher Münzwurf Allgemein wird bei einem n-stufigen Experiment, beginnend mit /0, auf der k-ten Stufe jeder bis dahin mögliche Ausgang (x...,x k ) des Experiments als Knoten eines Baumes eingezeichnet und (für k < n) mit den Ausgängen (x,...,x k,y) der (k+)-ten Stufe durch eine Kante (Ast, Zweig) verbunden (s. Abb. 5.3 a). Anmerkung:(x,...,x k ) ist auf der k-ten Stufe Bedingung für das Eintreten von(x,...,x k,y) auf der folgenden Stufe. Ist{a,...,a m } die Menge der möglichen Ausgänge des Einzelversuchs, so kommt für y jedes a i in Frage. Unmögliche Ausgänge brauchen nicht eingezeichnet zu werden. O/ (x,..., x k ) P(A) A... a a m P(B A)...... B... (X,...,X k,a )... (X,..., Xk,a m ) P(C B) a) b) C Abbildung 5.3: a) Verzweigung im Ereignisbaum b) Markierung der (bedingten) Wahrscheinlichkeiten am Wahrscheinlichkeitsbaum b) Durch Markierung der bedingten Wahrscheinlichkeiten an den Ästen gemäß Abb. 5.3 b wird ein Ereignisbaum zum Wahrscheinlichkeitsbaum. Der Wahrscheinlichkeitsbaum zum 3-fachen Münzwurf ist in Abb. 5.4 dargestellt. c) Pfadregel : Die Wahrscheinlichkeit eines Ausgangs (Elementarereignisses) eines mehrstufigen Zufallsexperiments ist das Produkt aller Wahrscheinlichkeiten der Äste desjenigen Pfades,

6 5. Wahrscheinlichkeitstheorie/Stochastik W Z 2 W 2 2 2 Z 2 2 Z 2 WWW WWZ WZW WZZ ZWW ZWZ ZZW ZZZ Abbildung 5.4: Wahrscheinlichkeitsbaum zum dreifachen Münzwurf (fett markiert ist der Pfad zum Ereignis WWZ mit P(WWZ)= 2 2 2 ) der zu diesem Ausgang führt. Beweisskizze: Wiederholte Anwendung der Formel P(A B)= P(A) P(B A). Pfadregel 2: Die Wahrscheinlichkeit eines Ereignisses E ist die Summe der Wahrscheinlichkeiten aller für E günstigen Ausgänge, also aller relevanten Blätter. Beweisskizze: P(E) = P(ω). d) Weiteres Beispiel: Die Wahrscheinlichkeit des Ziehens mindestens einer weißen Kugel bei zweimaligem Ziehen ohne Zurücklegen aus einer Urne mit 3 weißen und 6 schwarzen Kugeln ist 9 3 28 + 3 9 68 + 6 9 38 = 2 7 = P(SS) (s. Abbildung 5.5). ω E 3 6 9 9 W 2 6 8 8 WW WS SW SS 3. 8 2 + 3 9. 6 + 6. 3 2 5 9 8 9 8 8 3 S 8 5 Abbildung 5.5: Anwendung der Pfadregeln auf ein Beispiel (Ziehen ohne Zurücklegen mindestens einer weißen Kugel aus einer Urne mit 3 weißen und 6 schwarzen Kugeln) Was versteht man unter der (stochastischen) Unabhängigkeit zweier Ereignisse A und B eines Wahrscheinlichkeitsraumes bzw. einer Familie von Ereignissen, was unter der (stochastischen) Unabhängigkeit von Zufallsvariablen? (a) Zwei Ereignisse A und B eines Wahrscheinlichkeitsraumes heißen (stochastisch) unabhängig, falls gilt P(A B)= P(A) P(B).

5. Diskrete Wahrscheinlichkeitsräume 7 Anmerkungen: (i) Ist P(A) 0, so sind A und B genau dann stochastisch unabhängig, wenn P(B A) = P(B) gilt; (Folgerung aus der Definition von P(B A)). (ii) Damit verträgt sich die Definition mit der intuitiven Vorstellung von Unabhängigkeit. Insbesondere bei mehrstufigen Experimenten geht man davon aus, dass unabhängige Wiederholungen von Teilexperimenten (z.b. Ziehen mit Zurücklegen) zu unabhängigen Ereignissen führen (s.u.). (iii) Stochastische Abhängigkeit ist nicht mit kausaler Abhängigkeit zu verwechseln! (b) Bei der Ausdehnung der Definition auf mehrere Ereignisse reicht es nicht, die paarweise stochastische Unabhängigkeit zu verlangen; vielmehr heißt eine Familie(A i ) i I von Ereignissen stochastisch unabhängig, falls P(A i... A ik )=P(A i )... P(A ik ) für jede endliche Teilmenge {i,...,i k } von I gilt. Anmerkung: Bei der Definition der Unabhängigkeit von mehrstufigen Versuchen fordert man P(A... A n ) = P( Ω... A j... Ω n ) = n P(A j ), also die Unabhängigkeit der j j= Ereignisse jeden Teilversuchs; (s. auch unter Produktraum!). (c) Die Zufallsvariablen X,X 2,...,X m (s. 5.2) über einen (diskreten) Wahrscheinlichkeitsraum heißen (stochastisch) unabhängig, wenn für alle möglichen A,A 2,...,A m gilt P(X A... X m A m )= m i= P(X i A i ). Anmerkung: (i) Manchmal beschränkt man sich bei dieser Definition auf einelementige Ereignisse A i ={x i }. (ii) Die Unabhängigkeit von X,...,X m ist äquivalent zur Unabhängigkeit der Ereignisse Xi (A i ), denn ungeformt lautet die obige Gleichung P(X (A )... Xm (A m))= für alle möglichen A i (insbesondere für A i,...,a ik m i= P(X i (A i )) und A j = X j (Ω) für die übrigen j). Definieren Sie den Produktraum von endlichen Wahrscheinlichkeitsräumen, und erläutern Sie kurz, für welche Zufallsexperimente er Modell sein kann. (a) Sind(Ω,P ),...,(Ω n,p n ) endliche Wahrscheinlichkeitsräume, dann lässt sich auf dem kartesischen Produkt Ω = Ω... Ω n (aller n-tupel (ω,...,ω n ) mit ω i Ω i ) wie folgt ein Wahrscheinlichkeitsmaß definieren P((ω,...,ω n )) := n P i (ω i ). Beweisskizze: Es gilt nämlich u.a. P(Ω... Ω n )= (ω,...,ω n ) Ω = (ω,...,ω n ) Ω... Ω n P(ω,...,ω n ) ( n ω n Ω n i= i= P i (ω i ))P n (ω n )=P(Ω... Ω n ), woraus durch vollständige Induktion P(Ω) = folgt. Definition: P heißt das Produktmaß und(ω... Ω n,p) der Produktraum der(ω i,p i ). Anmerkungen: (i) Eine Verallgemeinerung auf diskrete Räume ist analog möglich; für beliebige Räume ist zuvor eine geeignete Ereignisalgebra zu definieren (s. Seite??). (ii) Ist P das Produktmaß auf Ω... Ω n, so gilt P i (ω i )=P(Ω... {ω i }... Ω n ); die P i sind also die sogenannten Randverteilungen von P.

8 5. Wahrscheinlichkeitstheorie/Stochastik (b) Der Produktraum von (Ω,P )...,(Ω n,p n ) dient als Modell für die unabhängige Hintereinanderausführung von Zufallsexperimenten, deren i-ter Teilversuch durch das Modell (Ω i,p i ) beschrieben werden kann. Denn wie gesehen, ist die i-te Randverteilung gleich P i ; ferner ist auch in diesem Modell der Ausgang A i des i-ten Versuchs unabhängig von den anderen Versuchen: P(A... A n ) = P( ω i A i i=,...n {(ω,...,ω n )})= P (ω )...P n (ω n ) ω i A i i=,...n = n P i (ω i )= n i= ω i A i i= Sind die Räume (Ω i,p i ) alle gleich, so ist ( n Ziehen mit Zurücklegen. P i (A i )= n P(Ω... A i... Ω n ). i= i= Ω i,p) = (Ω n,p) auch Modell für das n-fache Was ist eine Bernoulli-Kette, welches Modell ist für eine solche üblich, und wie ist die Anzahl der Treffer (Erfolge) dabei verteilt? Wenden Sie die Ergebnisse auf das Galtonbrett an!. Eine Bernoulli-Kette der Länge n ist ein mehrstufiges Zufallsexperiment, das aus der n-fachen unabhängigen Wiederholung eines Teilexperiments mit zwei möglichen Ausgängen Erfolg Misserfolg (Bernoulli-Experiment) besteht. 2. Jedes Teilexperiment wird beschrieben durch Ω i = {0,} und P i () = p (Treffer- oder Erfolgswahrscheinlichkeit), also P i (0)= p=: q, das Gesamtexperiment durch den Produktraum (Ω n,p). Beispiele: n-facher Münzwurf ( = Wappen, 0 = Zahl), mit p=q= 2. n-faches Würfeln mit einem idealen Würfel und ={6}0 ={,2,3,4,5} mit p= 6 und q= 5 6. Galtonbrett s.u. Nr.4! 3. Ein Elementarereignis(ω,...,ω n ) mit Einsen an genau k festen Stellen hat die Wahrscheinlichkeit p k q n k. Damit erhält man für die Zufallsvariable X, die diese Anzahl der Erfolge angibt 3, P(X = k)= ( n k) p k q n k =: B n,p (k). Eine solche Verteilung heißt eine Binomialverteilung. Anmerkung: Sind X,...,X n stochastisch unabhängige Zufallsvariable und die X i nach P i verteilt, so heißt die Verteilung von S = n X i das Faltungsprodukt von P,...,P n, in Zeichen i= P... P n. Sie ist die von dem Produktmaß und der folgenden Abbildung induzierte Verteilung:(x,...,x n ) n x i. Es lässt sich nun zeigen, dass B n,p B m,p = B n+m,p gilt, insbesondere i= also B n,p = B,p... B,p mit n Faktoren (Reproduktivität der Binomial-Verteilung). 4. Beim Galtonbrett, einem didaktischen Veranschaulichungsmaterial, sind in mehreren Zeilen Hindernisse (Nägel) so angebracht, dass im Idealfall eine fallende Kugel jeweils mitten auf ein solches trifft und mit der gleichen Wahrscheinlichkeit nach rechts oder links an dem Hindernis zur nächsten Zeile vorbeiläuft (s. Abb. 5.6). In jeder Zeile wird also das Bernoulli-Experiment Fallen nach links oder Fallen nach rechts unabhängig von den vorigen Zeilen ausgeführt. Es handelt sich also um eine Bernoulli-Kette mit p= 2 = q der Länge n (bei n Nagelreihen). Zum Fach Nr. k gelangt also eine Kugel mit Wahrscheinlichkeit B n, (k)= ( ) n 2 k ( 2 ) n. Hierbei ist ( n k) die Zahl der unterschiedlichen Wege zum Fach k und 2 n die Anzahl aller möglichen Wege. 3 ( ) n k = n! k!(n k)!

5.2 Zufallsvariable 9 Abbildung 5.6: Galtonbrett (schematisch) 0 2 3 4 5 5.2 Zufallsvariable Was versteht man unter einer Zufallsvariablen eines diskreten Wahrscheinlichkeitsraums, was unter ihrer (Wahrscheinlichkeits-) Verteilung? Behandeln Sie als Beispiel die Binomialverteilung. (i) Definition: Sei (Ω, P) diskreter Wahrscheinlichkeitsraum, X nicht-leere Menge (meist X Ê). Dann heißt jede Funktion X : Ω X eine (X -wertige) Zufallsvariable oder Zufallsgröße. (ii) Definiert man P X (x) := P(X ({x})) für x Bild X, wobei X ({x}) das volle Urbild von {x} unter X bezeichnet, so ist P X Wahrscheinlichkeitsfunktion auf Bild X. Da für die x X mit x Bild X die (analog definierte) Wahrscheinlichkeit P X (x) gleich 0 ist, kann man P X auch als Wahrscheinlichkeitsfunktion auf der (eventuell überabzählbaren) Menge X auffassen, indem man definiert: P X (A)=P(X (A)) für A X. P X heißt Wahrscheinlichkeitsverteilung von X. Üblicherweise schreibt man P(X A) statt P X (A) und P(X = x) für P X ({x}) (s. Abb. 5.7 ). Die Funktion F mit F(x) := P(X x)=p X ({y y x}) heißt Verteilungsfunktion von X. Anmerkung: Zwei Zufallsgrößen X und Y auf Ω heißen (stochastisch) unabhängig, wenn die Ereignisse X = x i und Y = y j für alle i, j unabhängig sind, also P(X = x i Y = x j )=P(X = x i ) P(Y = y j ) (für x i X(Ω) und y j Y(Ω) gilt. Eine dazu äquivalente Definition fordert die Unabhängigkeit der Ereignisse X x und Y y für alle x X(Ω) und y X(Ω). Letztere Definition ist nicht mehr an die Endlichkeit von Ω gebunden. (iii) Beispiel Binomialverteilung: Wie schon in 5. behandelt, heißt eine Zufallsvariable X : Ω {0,...,n} binomialverteilt, wenn gilt ( ) n P(X = k)= p k ( p) n k = B p,n (k). k Beispiele von Graphen spezieller Binomialverteilungen sind in Abb. 5.8 und ein Graph einer Verteilungsfunktion in Abb. 5.9 angegeben. Anmerkungen:.) Bezeichnet X i den Ausgang des i-ten Bernoulliexperiments einer Bernoullikette (s. 5.), so

0 5. Wahrscheinlichkeitstheorie/Stochastik Ω X X X (A) A P(X A) Ω P X χ Abbildung 5.7: Zufallsvariable X {x} X (x) P (X= x) ist S= n X i binomialverteilt (s.o.). i= 2.) Zur Approximation der Binomialverteilung durch Normal- bzw. Poissonverteilung siehe 5.4! () Definieren Sie Erwartungswert, Varianz und Standardabweichung einer reellwertigen Zufallsvariablen X eines endlichen (bzw. diskreten) Wahrscheinlichkeitsraums (2) Welche Rechenregeln gelten für Erwartungswerte von Zufallsvariablen? Ist der Erwartungswert linear, ist er multiplikativ? Wie lautet der Verschiebungssatz für die Varianz? (3) Bestimmen Sie Erwartungswert und Varianz einer binomialverteilten Zufallsvariablen! a) Sei X eine Zufallsvariable, die die reellen Werte x,...,x n (bzw. x i mit i ausn ) annehmen kann. Dann ist der Erwartungsswert von X definiert als E(X) := n x i P(X = x i ) (im endlichen Fall) i= E(X) := x i P(X = x i ), falls die Reihe absolut konvergiert (diskreter Fall). i= Anmerkungen: (i) Achtung, E(X) muss nicht in der Nähe von Werten mit hoher Wahrscheinlichkeit liegen. Im diskreten Fall braucht E(X) nicht zu existieren. (ii) Wegen der absoluten Konvergenz kann folgendermaßen umgeformt werden: E(X)= i x i P(X = x i )= x i ( P(ω)= X(ω)P(ω). i ω Ω ω Ω X(ω))=x i b) Ist X eine Zufallsvariable mit Erwartungswert E(X), so heißt im Falle der Existenz Var(X) := E([X E(X)] 2 ) (also die mittlere quadratische Abweichung vom Erwartungswert) die Varianz von X und

0,3355 0,0459 0,000 0,0000 0,0039 0,0039 5.2 Zufallsvariable 0,4 0,3 0,2 0, 0,678 0,2936 0,468 0,0092 0,00 0,4 0,3 0,2 0, 0,033 0,094 0,288 0,2734 0,288 0,094 0,033 0 2 3 4 5 6 7 8 0 2 3 4 5 6 7 8 Abbildung 5.8: Binomialverteilungen a) B 8;0,2 b) B 8;0,5 (Zahlen nach Fillbrunn & Pahl) 0,0039 0,0352 0,446 0,3634 0,6368 0,8556 0,9650 0,9963,0000 Abbildung 5.9: Verteilungsfunktion der Binomialverteilung B 8;0,5 0 2 3 4 5 6 7 8 σ(x) := Var X die Standardabweichung. Beide Zahlen quantifizieren die Streuung um den Erwartungswert. Weitere Parameter der Verteilung sind die Momente bzw. zentralen Momente E(X n ), E([X E(X)] n ). 2a) Sind X und Y reelle Zufallsvariablen, deren Erwartungswerte existieren, so gilt mit a,b Ê: (i) E(aX+ by)=ae(x)+be(y) Linearität (ii) E(X + b) = E(X) + b Translationsinvarianz (iii) Sind X und Y unabhängig, so folgt E(X Y)=E(X) E(Y) (im Falle der Existenz der Erwartungswerte). Die Umkehrung gilt i. a. nicht. Beweisskizzen: (i) E(aX+Y)= [ax(ω i )+Y(ω i )]P(ω i )=a X(ω i )P(ω i )+ Y(ω i )P(ω i ). i (ii) folgt aus (i) mit Y als einer konstanten Zufallsvariablen: Y(ω i )=b

2 5. Wahrscheinlichkeitstheorie/Stochastik (iii) E(X Y)= k z k P(X Y = z k )= k x i y j P(X = x i Y = y j )= x i y j =z k x i y j P(x i ) P(y j )= x i P(x i ) y j P(y j )=E(X) E(Y) i, j wegen der stochastischen Unabhängigkeit und wegen der absoluten Konvergenz der Reihen. Für die Unrichtigkeit der Umkehrung entnehmen wir dem DIFF Studienbrief MS3 folgendes Beispiel: X nehme die Werte,0, jeweils mit Wahrscheinlichkeit 3 an; Y sei X 2. Dann gilt E(X)=0 = E(X 3 ) = E(X Y), also E(XY)=E(X) E(Y); aber X und Y sind nicht unabhängig; z.bsp. gilt P(X = ) P(Y = )= 3 23 3 = P(X = Y = ). 2b) Existiert auch die Varianz Var( X) bzw. Var(Y), so gilt (iv) Var(aX+ b)= a 2 Var(X) und damit σ(ax)= a σ(x), ferner (v) der Verschiebungssatz Var(X)= E(X 2 ) (E(X)) 2 sowie (vi) Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y) mit der Kovarianz E(XY) E(X) E(Y)=E([X E(X)] [Y E(Y)]). Beweisskizzen: (iv) ergibt sich aus der Definition und den Formeln (i) und (ii) durch Nachrechnen; (v) folgt ebenfalls aus der Definition und der Linearität von E: E([X E(X)] 2 )=E(X 2 E(X) X+ E(X) 2 )=E(X 2 ) 2E(X) 2 + E(X) 2. (vi) Var(X+Y) (iv) = E((X+Y) 2 ) E(X+Y) 2 = E(X 2 )+2E(X Y)+E(Y 2 ) (E(X)+E(Y)) 2 =[E(X 2 ) E(X) 2 ]+[E(Y 2 ) E(Y) 2 ]+2[E(XY) E(X) E(Y)]. Anmerkungen: Mit (vi) folgt auch (im Fall der Existenz der Varianzen) E(X Y)=E(X) E(Y) Cov(X,Y)=0 Var(X+Y)=Var(X)+Var(Y). Unabhängige Zufallsvariablen, deren Varianzen existieren, sind unkorreliert. Für solche Variable gilt also Var(X+Y)=Var(X)+ Var(Y). ρ(x,y) := Cov(X,Y) Var X Var Y heißt Korrelationskoeffizient 4 (Korrelation) von X und Y. 3) Beispiel Binomialverteilung: Ist X eine B n,p verteilte Zufallsvariable, so gilt E(X)=n p und σ(x)= n pq. Beweis: E(X) = n i (n i=0 σ(x) 2 = n p n i=0 i n i i) p i q n i = p n i= ) p i q n i = n p. ( n i = Var(X)=E(X 2 ) E(X) 2 = n ( n ) i p i q n i i=0 i 2( n) i p i q n i (n p) 2 = n p n (i+) ( ) n s.o. i p i q n i n 2 p 2 = n p [E(B n,p )+] n 2 p 2 i=0 = n p((n )p+) n 2 p 2 = n p( p). 4 Zur Bedeutung des Korrelationskoeffizienten s.z.bsp. Henze [?]!