Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Ähnliche Dokumente
Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

3. Kombinatorik und Wahrscheinlichkeit

2 Zufallsvariable, Verteilungen, Erwartungswert

Stochastik. Peter Pfaffelhuber

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

4 Diskrete Wahrscheinlichkeitsverteilungen

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Diskrete Strukturen WiSe 2012/13 in Trier

Wahrscheinlichkeitsrechnung für die Mittelstufe

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen:

Wahrscheinlichkeitsrechnung und Statistik

Binomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec

Klausur: Diskrete Strukturen I

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

Mathematik für Biologen

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Stochastik I. Vorlesungsmitschrift

Ü b u n g s b l a t t 10

Stochastik für Studierende der Informatik

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion

Zufallsvariablen [random variable]

Paarweise Unabhängigkeit vs. Unabhängigkeit

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Vorwort Zufallsvariable X, Erwartungswert E(X), Varianz V(X) 1.1 Zufallsvariable oder Zufallsgröße Erwartungswert und Varianz...

Grundbegriffe der Wahrscheinlichkeitsrechnung

3.3 Bedingte Wahrscheinlichkeit

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Wenn es sich um ein faires Spiel handeln soll, muss der Einsatz 1 betragen (2) Weniger als 3 mal Wappen ( ) 32 (3) Mindestens 1 mal Wappen ( )

Würfel-Aufgabe Bayern LK 2006

P (X = 2) = 1/36, P (X = 3) = 2/36,...

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Kursthemen 11. Sitzung. Spezielle diskrete Verteilungen: Auswahlexperimente. Spezielle diskrete Verteilungen: Auswahlexperimente

Diskrete Verteilungen

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Statistik für Ingenieure Vorlesung 2

Discrete Probability - Übungen (SS5) Wahrscheinlichkeitstheorie. 1. KR, Abschnitt 6.1, Aufgabe 5: 2. KR, Abschnitt 6.1, Aufgabe 7:

(8 + 2 Punkte) = = 0.75

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Auf dem Schulfest bietet Peter als Spielleiter das Glücksspiel "GlücksPasch" an.

Pflichtteilaufgaben zu Stochastik (Pfadregeln, Erwartungswert, Binomialverteilung) Baden-Württemberg

7.5 Erwartungswert, Varianz

Wahrscheinlichkeitsrechnung

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen

Stochastik. 1. Wahrscheinlichkeitsräume

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Beispiel Zusammengesetzte Zufallsvariablen

Basistext - Wahrscheinlichkeitsrechnung

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit


Stochastik und Statistik für Ingenieure Vorlesung 4

Übungen zu Wahrscheinlichkeitstheorie und Statistik

Kombinatorik. 1. Beispiel: Wie viele fünfstellige Zahlen lassen sich aus den fünf Ziffern in M = {1;2;3;4;5} erstellen?

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

Mathematik für Biologen

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Diskrete Strukturen. Sebastian Thomas RWTH Aachen 1. Februar 2017 Vorlesung 21

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

Einführung in Markoff-Ketten

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik

5 Erwartungswerte, Varianzen und Kovarianzen

1. Ziehg.: N M. falls nicht-rote K. in 1. Ziehg. gezogen

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

7.2 Moment und Varianz

6 Kombinatorik: Einschluß-Ausschluß Formel. 6.1 Indikatorfunktionen. I A ist eine Zufallsvariable E[I A ] = P (A) IĀ = 1 I A I A B = I A I B

Kapitel 5. Stochastik

Ü b u n g s b l a t t 11

Stochastik. Informatiker(innen)

Die Varianz (Streuung) Definition

Unabhängige Zufallsvariablen

Varianz und Kovarianz

Stochastik: Erwartungswert Stochastik Erwartungswert einer Zufallsvariablen Gymnasium ab Klasse 10 Alexander Schwarz

Die Voraussetzungen aus Klasse 8-10

Hypergeometrische Verteilung

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Aufgaben zu Kapitel 38

Kapitel VI - Lage- und Streuungsparameter

0, t 0,5

Diskrete Zufallsvariable

Mathematik für Biologen

Wahrscheinlichkeitsrechnung

Die Schreibweise x M bedeutet, dass das Objekt x in der Menge M liegt. Ist dies nicht der Fall, dann schreibt man

1 1. Übung. Einleitung. 1.1 Urnenmodelle. 1.2 Beispiele. 1.3 Aufgaben

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Doz. Dr. H.P. Scheffler Sommer 2000 Klausur zur Vorlesung Stochastik I

WAHRSCHEINLICHKEITSTHEORIE. 1. Elementare Kombinatorik Wir betrachten die Frage wieviele Möglichkeiten es gibt, aus n unterschiedlichen

Erwartungswert, Varianz und Standardabweichung einer Zufallsgröße. Was ist eine Zufallsgröße und was genau deren Verteilung?

alte Maturaufgaben zu Stochastik

Transkript:

Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen

X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) (oder eine Teilmenge davon) ist. Es existiere eine abzählbare Menge S R mit P(X S) = 1. Wir sagen dann: X ist eine diskrete reellwertige Zufallsvariable

Eine einprägsame Kenngröße für die Lage der Verteilung von X ist das mit den Wahrscheinlichkeiten gewichtete Mittel der möglichen Werte von X: E[X] := a S a P(X = a). Man spricht vom Erwartungswert von X. (Wir bezeichnen ihn auch mit µ oder µ X.)

0 10 20 30 40 k Gewichte 0.00 0.04 0.08 0.12

Damit die Summe a S a P(X = a) exisitiert, muss gelten: a S, a>0 a P(X = a) < oder a S, a<0 a P(X = a) > ist als Summenwert erlaubt, auch. Aber gibt keinen Sinn.

Beispiele: 1. P(X = 2 j ) = 2 j, j = 1, 2,...: E[X] = 2. P(X = ( 2) j ) = 2 j, j = 1, 2,...: E[X] exisitiert nicht.

Seii ρ die Verteilung von X E[X] = a S a P{X = a} = a S a ρ(a) Man beachte: Der Erwartungswert der Zufallvariablen X hängt nur von deren Verteilung ρ ab.

X eine Zufallsgröße E[X] eine Zahl

BEISPIEL 0 1 2 3 x = Anzahl Kopf P(X = x) 0.0 0.1 0.2 0.3 0.4 0.5

P(X = x) 0.0 0.1 0.2 0.3 0.4 0.5 Eine faire Münze wird dreimal geworfen. 0 1 2 3 x = Anzahl Kopf

P(X = x) 0.0 0.1 0.2 0.3 0.4 0.5 E[X] = 0 1 8 18 + 1 38 + 2 38 + 3 18 = 12 8 = 1.5 3 8 3 8 0 1 2 3 x = Anzahl Kopf 1 8

P(X = x) 0.0 0.1 0.2 0.3 0.4 0.5 1 8 E[X] gehört hier gar nicht zum Wertebereich von X 3 8 3 8 0 1 2 3 x = Anzahl Kopf 1 8

P(X = x) 0.0 0.1 0.2 0.3 0.4 0.5 und kann in dem Sinn kein erwarteter Wert von X sein 1 8 3 8 3 8 0 1 2 3 x = Anzahl Kopf 1 8

Was denn? 3 8 3 8 1 8 1 8 0 1 2 3 x = Anzahl Kopf P(X = x) 0.0 0.1 0.2 0.3 0.4 0.5

P(X = x) 0.0 0.1 0.2 0.3 0.4 0.5 Wie erlebt man den Erwartungswert? 1 8 3 8 0 1 2 3 x = Anzahl Kopf 3 8 1 8

P(X = x) 0.0 0.1 0.2 0.3 0.4 0.5 Durch wiederholtes Werfen der drei Münzen 1 8 3 8 3 8 0 1 2 3 x = Anzahl Kopf 1 8

2345678912345678980 Wiederholungen: X 1, X 2,..., X 80 123456789123456 Xn 0 1 2 3 0 20 40 60 80 n

123456789123456789M n := (X 1 + X 2 +... + X n ) / n1234567891234567 Xn 0 1 2 3 0 20 40 60 80 n

123456789123456789M n := (X 1 + X 2 +... + X n ) / n1234567891234567 Xn 0 1 2 3 0 200 400 600 800 n

123456789123456789M n := (X 1 + X 2 +... + X n ) / n1234567891234567 Xn 0 1 2 3 0 2000 4000 6000 8000 n

23456789123456789123456789M n E[X]123456789123456789123456 Xn 0 1 2 3 0 2000 4000 6000 8000 n

123456789123456789123456789Warum?1234567891234567891234567 Xn 0 1 2 3 0 2000 4000 6000 8000 n

89123456789123456789M n = x #{Würfe mit x}/n123456789123456789 Xn 0 1 2 3 0 2000 4000 6000 8000 n

M n = x #{Würfe mit x}/n 456789123456789123456789 x P(X = x) 1234567891234567891234 Xn 0 1 2 3 0 2000 4000 6000 8000 n

Dazu später mehr. Für den Moment nur als kurzer Ausblick:

DAS GESETZ DER GROSSEN ZAHLEN Sei X eine Zufallsgröße mit Erwartungswert E[X]. Seien X 1, X 2,... unabhängige Kopien von X. Dann gilt X 1 +... + X n n E[X] Zu klären 1. Was heißt unabhängig? 2. Was heißt?

Zwei Vorstellungen von E[X] 1. Gewichtetes Mittel der möglichen Werte: E[X] := xp(x = x) 2. Langzeitmittelwert bei unabhängigen Wiederholungen: X 1 +... + X n n E[X]

Die wichtigste Eigenschaft des Erwartungswerts ist die Additivität E[X + Y] = E[X] + E[Y]

Die Additivität des Erwartungswerts wird sofort klar aus der Vorstellung als Langzeitmittelwert bei unabhängigen Wiederholungen : 1 n ((X 1 + Y 1 ) +... + (X n + Y n )) = 1 n (X 1 +... + X n ) + 1 n (Y 1 +... + Y n ) E[X] + E[Y]

BEISPIEL 1 Erwartungswert der Binomialverteilung X sei Bin(n, p) verteilt. E[X] =? n k=0 kp(x = k) = n k=0 k ( ) n k p k q n k =... Es GEHT so (vgl Buch Seite 23-24 ) Aber es geht auch einfacher:

Sei Z = (Z 1,..., Z n ) ein n-facher p-münzwurf. Dann ist (Z 1 + + Z n ) Bin(n, p)-verteilt. E[Z 1 + + Z n ] = E[Z 1 ] + + E[Z n ] E[Z i ] = 1 p + 0 q = p Fazit: Der Erwartungswert einer Bin(n, p) verteilten ZV ist np.

BEISPIEL 2 Ziehen ohne Zurücklegen Eine Urne enthält r rote und b blaue Kugeln. ooooooooooooo r = 8 b = 5 Aus der Urne werden ohne Zurücklegen n Kugeln gezogen. ooooooooo n = 9 R := Anzahl der gezogenen roten Kugeln E[R] =?

Verteilung von R P(R = k) =? P(R = k) = r k b n k / r + b n Eine ZV mit diesen Verteilungsgewichten (k = 0,..., n) heißt übrigens hypergeometrisch verteilt zu den Parametern (n, r + b, r). (vg. Buch Seite 28)

P(R = k) = r k b n k / r + b n E(R) =? E[R] = n k=0 k r k b n k / r + b n =... Es GEHT so (vgl. Buch Seite 30) Aber es geht auch einfacher.

R = Z 1 + Z 2 +... + Z n Z i = 1 falls i-te Kugel rot Z i = 0 falls i-te Kugel blau ooooooooooooo r = 8 b = 5 P(Z i = 1) =? Man stelle sich vor, die Nummern der Züge werden als rein zufällige Permutation an die r + b Kugeln vergeben. Wie wahrscheinlich ist es, dass Nummer i auf eine rote Kugel fällt?

R = Z 1 + Z 2 +... + Z n Z i = 1 falls i-te Kugel rot Z i = 0 falls i-te Kugel blau ooooooooooooo r = 8 b = 5 P(Z i = 1) = r r + b Man stelle sich vor, die Nummern der Züge werden als rein zufällige Permutation an die r + b Kugeln vergeben. Wie wahrscheinlich ist es, dass Nummer i auf eine rote Kugel fällt?

R = Z 1 + Z 2 +... + Z n Z i = 1 falls i-te Kugel rot Z i = 0 falls i-te Kugel blau ooooooooooooo r = 8 b = 5 P(Z i = 1) = r r + b E[Z i ] = r+b r E[R] = E[Z 1 ] + E[Z 2 ] +... + E[Z n ] E[R] = n r r + b

BEISPIEL 3 Runs beim Münzwurf Z := (Z 1, Z 2,..., Z n ) n-facher p-münzwurf P{Z i = 1} = p P{Z i = 0} = q := 1 p Run: ein Teilblock maximaler Länge: 0...0 oder 1...1 R := Anzahl Runs in Z 00000000 R = 1 11100011 R = 3 10101010 R = 8

E[R] =? Dazu schreiben wir R als Summe von Zählern. Bei jedem Wurf zählen wir eins dazu, wenn bei diesem Wurf ein Run beginnt:

Y i := 1 falls bei i ein Run beginnt, Y i := 0 sonst R = Y 1 + Y 2 +... + Y n Y 1 1 {Y i = 1} = {(Z i 1, Z i ) = (0, 1) oder (1, 0)} (i > 1) P(Y i = 1) = qp + pq (i > 1) E[Y i ] = 2pq (i > 1) E[R] = E[Y 1 ] + E[Y 2 ] + E[Y 3 ] +... + E[Y n ] E[R] = 1 + 2pq(n 1)

Gerade haben wir die Linearität des Erwartungswertes schon in Beispielen angewendet. Wir werden sie jetzt noch aus der Definition E[X] := a S a P(X = a) herleiten. Hilfreich dabei ist:

Eine wichtige Transformationsformel : (Buch S. 21) Sei X diskrete Zufallsvariable mit P(X S) = 1 und h eine Abbildung von S nach R (so dass der Erwartungswert der Zufallsvariablen h(x) wohldefiniert ist). Dann ist E[h(X)] = h(a)p(x = a). a S

Beweis. b P(h(X) = b) b h(s) = b P(X = a) b h(s) a h 1 (b) = h(a) P(X = a) b h(s) a h 1 (b) = a S h(a) P(X = a).

Satz [Linearität des Erwartungswertes] (Buch S. 48) Für reellwertige Zufallsvariable X 1, X 2 mit wohldefiniertem Erwartungswert gilt E[c 1 X 1 + c 2 X 2 ] = c 1 E[X 1 ] + c 2 E[X 2 ], c 1, c 2 R.

Beweis. Seien S 1, S 2 R abzählbar mit P(X 1 S 1 ) = P(X 2 S 2 ) = 1. Aus der Transformationsformel folgt mit h(a 1, a 2 ) := c 1 a 1 + c 2 a 2 :

E[c 1 X 1 + c 2 X 2 ] = a 1 S 1 a 2 S 2 (c 1 a 1 + c 2 a 2 ) P(X 1 = a 1, X 2 = a 2 ) = c 1 a 1 S 1 a 1 + c 2 a 2 S 2 a 2 P(X 1 = a 1, X 2 = a 2 ) a 2 S 2 P(X 1 = a 1, X 2 = a 2 ) a 1 S 1

E[c 1 X 1 + c 2 X 2 ] = a 1 S 1 a 2 S 2 (c 1 a 1 + c 2 a 2 ) P(X 1 = a 1, X 2 = a 2 ) =c 1 a 1 S 1 a 1 P(X 1 = a 1, X 2 = a 2 ) a 2 S 2 = c 1 a 1 P(X 1 = a 1 ) a 1 S 1 = c 1 E[X 1 ]

Ein wichtiger Fall ist Y = X 1 + X n, wobei die X 1,..., X n nur die Werte 0 oder 1 annehmen. Dann gilt E[X i ] = 1 P(X i = 1) + 0 P(X i = 0) = P(X i = 1) und somit E[Y] = P(X 1 = 1) + + P(X n = 1). Dies kam bei der Binomialverteilung und bei der hypergeometrischen Verteilung zum Tragen.

Zusammenfassung

1. Was ist der Erwartungswert? E[X] = xp(x = x) und E[X] = lim X 1 +... + X n n für unabhängige Wiederholungen X 1, X 2,...

2. Was ist die wichtigste Eigenschaft des Erwartungswertes? Die Linearität: E[αX + βy] = αe[x] + βe[y]

3. Wie berechnet man E[X] am besten? Oft dadurch, dass man X als Summe schreibt: X = Z 1 +... + Z n E[X] = E[Z 1 ] +... + E[Z n ]