Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Ähnliche Dokumente
Vorlesung 3. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3b. Der Erwartungswert

Vorlesung 2b. Diskrete Zufallsvariable. und ihre Verteilungen

Vorlesung 5a. Die Varianz

Vorlesung 5a. Varianz und Kovarianz

Vorlesung 4b. Die Varianz

Vorlesung 4b. Die Varianz

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Vorlesung 4b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson

Vorlesung 2a. Diskret uniform verteilte Zufallsvariable

Stochastik Wiederholung von Teil 1

Vorlesung 11b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten

2 Zufallsvariable, Verteilungen, Erwartungswert

Vorlesung 3b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson

Vorlesung 5a. Zufallsvariable mit Dichten

4 Diskrete Wahrscheinlichkeitsverteilungen

Vorlesung 2a. Diskret uniform verteilte Zufallsvariable. (Buch S. 6-11)

Vorlesung 9b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

2 Zufallsvariable und Verteilungsfunktionen

Diskrete Strukturen I

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 2

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

K3 (Diskrete) Zufallsvariablen 3.1 Basis

KAPITEL 5. Erwartungswert

67 Zufallsvariable, Erwartungswert, Varianz

Vorlesung 5b. Zufallsvariable mit Dichten

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 1

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

Klausur: Diskrete Strukturen I

Vorlesung 8b. Bedingte Erwartung und bedingte Varianz

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Vorlesung 7a. Unabhängigkeit

Klausur: Diskrete Strukturen I

Wahrscheinlichkeitstheorie und Statistik

Modelle diskreter Zufallsvariablen

Zufallsvariable: Verteilungen & Kennzahlen

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Biostatistik, WS 2010/2011 Grundlagen aus der Wahrscheinlichkeitstheorie

Wahrscheinlichkeitsrechnung und Statistik

1 Grundlagen Wahrscheinlichkeitsrechung

Wirtschaftsmathematik

A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen:

Inhaltsverzeichnis (Ausschnitt)

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,

Vorlesung 6b. Zufallsvariable mit Dichten. Teil 1 Uniforme Verteilung & Co.

3. Kombinatorik und Wahrscheinlichkeit

Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung

Zufallsvariable X. 30 e. 40 e = 33,33...% 6

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

i Pr(X = i). Bsp: Sei X die Summe zweier Würfe eines Würfels. Dann gilt E[X] =

Vorlesung 7a. Der Zentrale Grenzwertsatz

Grundbegriffe der Wahrscheinlichkeitsrechnung

Multivariate Zufallsvariablen

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie

Vorlesung 7b. Der Zentrale Grenzwertsatz

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

5 Binomial- und Poissonverteilung

Numerische Methoden und Algorithmen in der Physik

Vorlesung 9b. Bedingte Wahrscheinlichkeiten und bedingte Erwartungswerte

Die Probabilistische Methode

1.5 Erwartungswert und Varianz

Statistik I für Betriebswirte Vorlesung 4

Vorwort Zufallsvariable X, Erwartungswert E(X), Varianz V(X) 1.1 Zufallsvariable oder Zufallsgröße Erwartungswert und Varianz...

1.5 Mehrdimensionale Verteilungen

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg

Statistik I für Betriebswirte Vorlesung 3

1.5 Erwartungswert und Varianz

Klausur: Diskrete Strukturen I

Willkommen zur Vorlesung Statistik (Master)

Stochastik I. Vorlesungsmitschrift

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz

Zufallsvariablen [random variable]

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in Quantitative Methoden

Diskrete Verteilungen

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Wahrscheinlichkeitsrechnung für die Mittelstufe

Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten

Paarweise Unabhängigkeit vs. Unabhängigkeit

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik

Willkommen zur Vorlesung Statistik (Master)

Wichtige Definitionen und Aussagen

Finanzmathematische Modelle und Simulation

Woche 2: Zufallsvariablen

68 Abschätzungen für Abweichungen vom Erwartungswert

Stochastik. Peter Pfaffelhuber

Transkript:

Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen

X sei eine diskrete reellwertige Zufallsvariable, d.h. eine ZV e mit Wertebereich R (oder einer Teilmenge davon), sodass eine endliche oder abzählbar unendliche Menge S existiert mit P(X S) = 1. X S R

1. Der Erwartungswert als gewichtetes Mittel

Eine einprägsame Kenngröße für die Lage der Verteilung von X ist das mit den Wahrscheinlichkeiten gewichtete Mittel der möglichen Werte von X: E[X] := a S a P(X = a). Man spricht vom Erwartungswert von X. (Wir bezeichnen ihn auch mit µ oder µ X.)

0 10 20 30 40 a Gewichte 0.00 0.04 0.08 0.12

Z = Das elementarste Beispiel: { 1 mit Wahrscheinlichkeit p 0 mit Wahrscheinlichkeit q = 1 p Man erinnere sich an die Situation der ersten Stunde: Rein zufällige Wahl eines Pixels aus einem Quadrat, die Teilmenge A hatte den Pixelanteil p; gezählt wird, wenn der Pixel in A fällt.

Z = Das elementarste Beispiel: { 1 mit Wahrscheinlichkeit p 0 mit Wahrscheinlichkeit q = 1 p E[Z] = p 1+q 0 = p

Das passt gut zu unserem Logo der ersten Stunde Y Z A 1 A 1 0 Z = 1 A (Y) =: I {Y A}... die Indikatorvariable des Ereignisses {Y A} {Z = 1} = {Y A} E[Z] = P(Y A).

... und entspricht dem Szenario des einfachen Münzwurfs: Z Y Kopf 1 Zahl 0 Z = I {Y=Kopf} {Z = 1} = {Y = Kopf} E[Z] = P(Y = Kopf).

Für allgemeines diskretes, reellwertiges X hatten wir E[X] = a S a P{X = a} = a S aρ(a) Dabei sind die Zahlen ρ(a) die Verteilungsgewichte von X. Merke: Der Erwartungswert der Zufallvariablen X hängt nur von ihrer Verteilung ρ ab. Synonym sprechen wir daher auch manchmal vom Erwartungswert der Verteilung ρ.

X eine Zufallsgröße; E[X] eine Zahl.

2. Ein Beispiel: Der Erwartungswert der Anzahl der Erfolge beim dreifachen Münzwurf

Eine faire Münze wird dreimal geworfen. X := Anzahl der geworfenen Köpfe.

E[X] =? 3 8 3 8 1 8 1 8 0 1 2 3 a = Anzahl Köpfe P(X = a) 0.0 0.1 0.2 0.3 0.4 0.5

E[X] = a P(X = a) 3 8 3 8 1 8 1 8 0 1 2 3 a = Anzahl Köpfe P(X = a) 0.0 0.1 0.2 0.3 0.4 0.5

P(X = a) 0.0 0.1 0.2 0.3 0.4 0.5 E[X] = 0 1 8 18 +1 38 +2 38 +3 18 = 12 8 = 1.5 3 8 0 1 2 3 a = Anzahl Köpfe 3 8 1 8

P(X = a) 0.0 0.1 0.2 0.3 0.4 0.5 Die Zahl E[X] = 1.5 gehört hier gar nicht zum Wertebereich von X 1 8 3 8 0 1 2 3 a = Anzahl Köpfe 3 8 1 8

P(X = a) 0.0 0.1 0.2 0.3 0.4 0.5 und kann deshalb im buchstäblichen Sinn kein Wert von X sein, den man erwartet. 1 8 3 8 0 1 2 3 x = Anzahl Köpfe 3 8 1 8

Was denn dann? 3 8 3 8 1 8 1 8 0 1 2 3 a = Anzahl Köpfe P(X = a) 0.0 0.1 0.2 0.3 0.4 0.5

P(X = a) 0.0 0.1 0.2 0.3 0.4 0.5 Wie erlebt man den Erwartungswert? 1 8 3 8 3 8 0 1 2 3 a = Anzahl Köpfe 1 8

P(X = a) 0.0 0.1 0.2 0.3 0.4 0.5 Durch wiederholtes Werfen der drei Münzen 1 8 3 8 0 1 2 3 a = Anzahl Köpfe 3 8 1 8

3. Der Erwartungswert als Langzeitmittel Beispiel: X... Anzahl Köpfe beim dreimaligen fairen Münzwurf

12345678912345678980 Wiederholungen: X 1,X 2,...,X 80 123456789123456 Xn 0 1 2 3 0 20 40 60 80 n

123456789123456789M n := (X 1 +X 2 +...+X n )/n12345678912345678 Xn 0 1 2 3 0 20 40 60 80 n

23456789123456789800 Wiederholungen: X 1,X 2,...,X 800 12345678912345 Xn 0 1 2 3 0 200 400 600 800 n

123456789123456789M n := (X 1 +X 2 +...+X n )/n12345678912345678 Xn 0 1 2 3 0 200 400 600 800 n

34567891234567898000 Wiederholungen: X 1,X 2,...,X 8000 12345678912345 Xn 0 1 2 3 0 2000 4000 6000 8000 n

123456789123456789M n := (X 1 +X 2 +...+X n )/n12345678912345678 Xn 0 1 2 3 0 2000 4000 6000 8000 n

123456789123456789123456789M n E[X]123456789123456789123456 Xn 0 1 2 3 0 2000 4000 6000 8000 n

123456789123456789123456789Warum?1234567891234567891234567 Xn 0 1 2 3 0 2000 4000 6000 8000 n

123456789123456789M n = (X 1 +X 2 +...+X n )/n12345678912345678 123456789123456789123456789 Xn 0 1 2 3 0 2000 4000 6000 8000 n

M n = 3 a=0 a #{i n : X i = a}/n a P(X = a) Xn 0 1 2 3 0 2000 4000 6000 8000 n

Dazu später mehr. Für den Moment nur als kurzer Ausblick:

DAS GESETZ DER GROSSEN ZAHLEN Sei X eine Zufallsgröße mit Erwartungswert E[X]. Seien X 1,X 2,... unabhängige Kopien von X. Dann gilt X 1 +...+X n n E[X] Zu klären 1. Was heißt unabhängig? 2. Was heißt?

Diese Klärung wird in der Vorlesung in wenigen Wochen erfolgen. Jetzt halten wir erst einmal fest:

Zwei Vorstellungen von E[X] 1. Gewichtetes Mittel der möglichen Werte: E[X] := a P(X = a) 2. Langzeitmittelwert bei unabhängigen Wiederholungen: X 1 +...+X n n E[X]

4. Die Additivität des Erwartungswertes - anschaulich und als Werkzeug

Die wichtigste Eigenschaft des Erwartungswerts ist die Additivität

Die wichtigste Eigenschaft des Erwartungswerts ist die Additivität E[X+Y] = E[X]+E[Y]

Die Additivität des Erwartungswerts wird intuitiv sofort klar aus der Vorstellung als Langzeitmittelwert bei unabhängigen Wiederholungen : 1 n ((X 1 +Y 1 )+...+(X n +Y n )) = 1 n (X 1 +...+X n )+ 1 n (Y 1 +...+Y n ) E[X]+E[Y]

Ein prominenter Fall ist X = Z 1 + +Z n, wobei die Z 1,...,Z n nur die Werte 0 oder 1 annehmen. Dann gilt E[Z i ] = P(Z i = 1) und somit E[X] = P(Z 1 = 1)+ +P(Z n = 1).

5. Der Erwartungswert der Binomialverteilung (als Erwartungswert der Anzahl der Erfolge beim n-fachen p-münzwurf)

X sei Bin(n, p) verteilt. E[X] =? n k=0 k P(X = k) = n k=0 k ( ) n k p k q n k =... Es GEHT so (vgl Buch Seite 23-24 ) Aber es geht auch einfacher (vgl. Buch S. 49):

Sei Z = (Z 1,...,Z n ) ein n-facher p-münzwurf. Dann ist (Z 1 + +Z n ) Bin(n,p)-verteilt. E[Z 1 + +Z n ] = E[Z 1 ]+ +E[Z n ] E[Z i ] = 1 p+0 q = p Fazit: Der Erwartungswert einer Bin(n,p) verteilten ZV ist np.

6. Der Erwartungswert der hypergeometrischen Verteilung (als Erwartungswert der Anzahl der Erfolge beim n-fachen Ziehen ohne Zurücklegen)

BEISPIEL Ziehen ohne Zurücklegen ause Eine Urne enthält r rote und b blaue Kugeln. ooooooooooooo r = 8 b = 5 Aus der Urne werden ohne Zurücklegen n Kugeln gezogen. ooooooooo n = 9 R := Anzahl der gezogenen roten Kugeln E[R] =?

R = Z 1 +Z 2 +...+Z n Z i = 1 falls i-te gezogogene Kugel rot Z i = 0 falls i-te gezogene Kugel blau ooooooooooooo r = 8 b = 5 P(Z i = 1) = r r+b Man stelle sich vor, die Nummern der Züge werden als rein zufällige Permutation an die r+b Kugeln vergeben. Wie wahrscheinlich ist es, dass Nummer i auf eine rote Kugel fällt?

R = Z 1 +Z 2 +...+Z n Z i = 1 falls i-te gezogogene Kugel rot Z i = 0 falls i-te gezogene Kugel blau ooooooooooooo r = 8 b = 5 P(Z i = 1) = r r+b E[Z i ] = r r+b E[R] = E[Z 1 ]+E[Z 2 ]+...+E[Z n ] E[R] = n r r+b

BEISPIEL Ziehen ohne Zurücklegen vspace0.6cm Eine Urne enthält r rote und b blaue Kugeln. ooooooooooooo r = 8 b = 5 Aus der Urne werden ohne Zurücklegen n Kugeln gezogen. ooooooooo n = 9 R := Anzahl der gezogenen roten Kugeln Verteilung von R?

Verteilung von R? P(R = k) =? vspace1cm P(R = k) = r b k n k / r+b n Eine ZV mit diesen Verteilungsgewichten (k = 0,..., n) heißt hypergeometrisch verteilt zu den Parametern (n, r + b, r). (vg. Buch Seite 28)

P(R = k) = r k b n k / r+b n E[R] = n k=0 k r k E(R) =? b n k / r+b n Es GEHT so (vgl. Buch Seite 32) Aber wie wir eben gesehen haben, =... (über die Darstellung von R als Summe von Zählern) geht s auch einfacher (vgl. Buch S. 50/51).

7. Der Erwartungswert einer Anzahl von Runs

Runs beim fairen Münzwurf Z := (Z 1,Z 2,...,Z n ) n-facher fairer Münzwurf P{Z i = 1} = 2 1 P{Z i = 0} = 2 1 Run: ein Block von Nullen (Einsen), der nicht echt in einem größeren Block enthalten ist R := Anzahl Runs in Z 00000000 R = 1 11100011 R = 3 10101010 R = 8

E[R] =? Dazu schreiben wir R als Summe von Zählern. Bei jedem Wurf zählen wir eins dazu, wenn bei diesem Wurf ein Run beginnt:

Y i := 1 falls bei i ein Run beginnt, Y i := 0 sonst R = Y 1 +Y 2 +...+Y n Y 1 1 {Y i = 1} = {(Z i 1,Z i ) = (0,1) oder (1,0)} (i > 1) P(Y i = 1) = 1 4 + 4 1 = 1 2 (i > 1) E[Y i ] = 1 2 (i > 1) E[R] = E[Y 1 ]+E[Y 2 ]+E[Y 3 ]+...+E[Y n ] E[R] = 1+ 1 2 (n 1)

8. Zur Wohldefiniertheit des Erwartungswertes

Wie kann es sein, dass für eine diskrete reellwertige Zufallsvariable X mit P(X S), S abzählbar, die Summe a SaP(X = a) nicht wohldefiniert ist?

Ein Beispiel: P(X = ( 2) n ) := 2 n, n = 1,2,... Dann ist n {1,3,...} 2 n P(X = 2 n ) = und n {2,4,...} 2 n P(X = 2 n ) = +. Aber die Summe von und + gibt keinen Sinn!

Wenn wir sagen Die diskrete reellwertige Zufallsvariable X hat einen wohldefinierten Erwartungswert meinen wir, dass nicht zugleich a S,a>0 ap(x = a) und a S,a<0 a P(X = a) Unendlich sein dürfen.

Wenden wir uns nun der Herleitung der Linearitätseigenschaft aus der Definition des Erwartungswertes zu.

9. Transformationsformel für den Erwartungswert Diese Formel ist oft hilfreich bei der Berechnung von Erwartungswerten. Sie erinnert an die Einsetzungsregel( Substitutionsregel) zum Berechnen von Summen und Integralen, und wird uns im Abschnitt 10 helfen, die Linearität des EW aus seiner Definition herzuleiten.

Sei X diskrete Zufallsvariable mit P(X S) = 1 und h eine Abbildung von S nach R h(x) X S h R

Sei X diskrete Zufallsvariable mit P(X S) = 1 und h eine Abbildung von S nach R so, dass der Erwartungswert der Zufallsvariablen h(x) wohldefiniert ist. Dann ist E[h(X)] = a Sh(a) P(X = a). Die Idee ist einfach: anstatt die Werte b = h(a), a S, mit deren Gewichten zu mitteln, zerlegt man nach dem Urbild und mittelt mit den Gewichten der Werte a.

E[h(X)] = a Sh(a) P(X = a) Denn: b P(h(X) = b) b h(s) = b P(X = a) b h(s) a h 1 (b) = b h(s) a h 1 (b) h(a) P(X = a) = a Sh(a) P(X = a).

10. Die Linearität des Erwartungswertes - Beweis

Wir betrachten zwei diskrete reellwertige Zufallsvariable X 1, X 2, die gemeinsam in einem Zufallsexperiment auftreten und sich damit zu einem zufälligen Paar (X 1,X 2 ) zusammenfassen lassen. Für c 1, c 2 R ist dann auch c 1 X 1 +c 2 X 2 eine diskrete reellwertige Zufallvariable.

X = (X 1,X 2 ) R h(x) = c 1 X 1 +c 2 X 2 R (a 1,a 2 ) h R h(a 1,a 2 ) = c 1 a 1 +c 2 a 2

Satz [Linearität des Erwartungswertes] (Buch S. 52) Für reellwertige Zufallsvariable X 1, X 2 mit wohldefiniertem Erwartungswert gilt E[c 1 X 1 +c 2 X 2 ] = c 1 E[X 1 ]+c 2 E[X 2 ], c 1,c 2 R. Den Beweis führen wir hier nur für diskrete Zufallsvariable, und zwar über die Transformationsformel mit h(a 1,a 2 ) := c 1 a 1 +c 2 a 2.

Beweis. Seien S 1,S 2 R abzählbar mit P(X 1 S 1 ) = P(X 2 S 2 ) = 1. Aus der Transformationsformel folgt mit h(a 1,a 2 ) := c 1 a 1 +c 2 a 2 :

E[c 1 X 1 +c 2 X 2 ] = a 1 S 1 a 2 S 2 (c 1 a 1 +c 2 a 2 ) P(X 1 = a 1,X 2 = a 2 ) = c 1 a 1 S 1 a 1 + c 2 a 2 S 2 a 2 P(X 1 = a 1,X 2 = a 2 ) a 2 S 2 P(X 1 = a 1,X 2 = a 2 ) a 1 S 1

E[c 1 X 1 +c 2 X 2 ] = a 1 S 1 a 2 S 2 (c 1 a 1 +c 2 a 2 ) P(X 1 = a 1,X 2 = a 2 ) = c 1 a 1 S 1 a 1 P(X 1 = a 1,X 2 = a 2 ) a 2 S 2 = a 1 P(X 1 = a 1 ) a 1 S 1 = E[X 1 ]

E[c 1 X 1 +c 2 X 2 ] = a 1 S 1 a 2 S 2 (c 1 a 1 +c 2 a 2 ) P(X 1 = a 1,X 2 = a 2 ) = c 1 a 1 S 1 a 1 + c 2 a 2 S 2 a 2 P(X 1 = a 1,X 2 = a 2 ) a 2 S 2 P(X 1 = a 1,X 2 = a 2 ) a 1 S 1

= a 1 S 1 E[c 1 X 1 +c 2 X 2 ] a 2 S 2 (c 1 a 1 +c 2 a 2 ) P(X 1 = a 1,X 2 = a 2 ) = c 1 E[X 1 ]AAAAAAAAAAAAAA + c 2 a 2 S 2 a 2 a 1 S 1 P(X 1 = a 1,X 2 = a 2 )

= a 1 S 1 E[c 1 X 1 +c 2 X 2 ] a 2 S 2 (c 1 a 1 +c 2 a 2 ) P(X 1 = a 1,X 2 = a 2 ) = c 1 E[X 1 ]AAAAAAAAAAAAAA + c 2 E[X 2 ]AAAAAAAAAAAAAA

Zusammenfassung des Wichtigsten

A. Was ist der Erwartungswert? E[X] = a P(X = a) und E[X] = lim X 1 +...+X n n für unabhängige Wiederholungen X 1,X 2,...

B. Was ist die wichtigste Eigenschaft des Erwartungswertes? Die Linearität: E[αX+βY] = αe[x]+βe[y]

C. Wie berechnet man E[X] am besten? Oft dadurch, dass man X als Summe schreibt: X = Z 1 +...+Z n E[X] = E[Z 1 ]+...+E[Z n ]