Erwartungswert. j=1. Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich

Ähnliche Dokumente
KAPITEL 5. Erwartungswert

Stochastik I. Vorlesungsmitschrift

Erwartungswert als Integral

Finanzmathematische Modelle und Simulation

Erwartungswert und Varianz von Zufallsvariablen

Lösungen Klausur. k k (n + 1) n. für alle n N. Lösung: IA: Für n = 1 ist 1. k k + (n + 1) n+1. k k = k=1. k=1 kk = 1 1 = 1 2 = 2 1.

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

2 Zufallsvariable und Verteilungsfunktionen

67 Zufallsvariable, Erwartungswert, Varianz

Klausur zur Vorlesung Stochastik II

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

3. Kombinatorik und Wahrscheinlichkeit

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

Konstruktion der reellen Zahlen

Vollständigkeit. 1 Konstruktion der reellen Zahlen

Satz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung

12 Erwartungswerte. Erwartungswerte 111. Überblick

Sabrina Kallus, Eva Lotte Reinartz, André Salé

Aufgaben zu Kapitel 0

Wahrscheinlichkeitstheorie

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

4 Messbare Funktionen

Lösungen zu Übungsblatt 9

Wahrscheinlichkeitstheorie

Darstellungssatz von Riesz in vollständig regulären Räumen. Carina Pöll Wintersemester 2012

Stochastik. 1. Wahrscheinlichkeitsräume

Die Topologie von R, C und R n

A. Maß- und Integrationstheorie

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Vorlesungsskript: Martingale

10 Aus der Analysis. Themen: Konvergenz von Zahlenfolgen Unendliche Reihen Stetigkeit Differenzierbarkeit

Lösungen zur Probeklausur zur Vorlesung Analysis I, WS08/09, Samstag, (Version A)

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

3. Folgen und Reihen. 3.1 Folgen und Grenzwerte. Denition 3.1 (Folge) Kapitelgliederung

Ferienkurs Analysis 1, SoSe Unendliche Reihen. Florian Beye August 15, 2008

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :

Lösungsvorschläge für das 5. Übungsblatt

Klausur zur Vorlesung Stochastik II

Topologische Grundbegriffe I. 1 Offene und Abgeschlossene Mengen

1, falls t A, χ A (t) := 0, falls t / A.

Grundlagen der Wahrscheinlichkeitstheorie

Mathematik I. Vorlesung 19. Metrische Räume

2 Folgen und Reihen. 2.1 Folgen in C Konvergenz von Folgen. := f(n)

Kapitel 10 VERTEILUNGEN

Wahrscheinlichkeitsrechnung und Statistik

ERWARTUNGSWERT. ABSOLUT STETIGE VERTEILUNGEN

Das Lebesgue-Maß im R p

Kapitel II - Wahrscheinlichkeitsraum

Mathematik III. Vorlesung 71

Konstruktion der reellen Zahlen 1 von Philipp Bischo

Trennende Markov Ketten

1 Häufungswerte von Folgen

Lösungen 4.Übungsblatt

Zusammenfassung Analysis 2

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

Finanzmathematik I Lösungvorschläge für Übungsblatt 1

Gesetze der großen Zahlen

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016

Lösung zur Übung für Analysis einer Variablen WS 2016/17

Wahrscheinlichkeitstheorie und Maßtheorie

Die reellen Zahlen als Äquivalenzklassen rationaler Cauchy-Folgen. Steven Klein

Maße auf Produkträumen

,...) ist eine Folge, deren Glieder der Null beliebig nahe kommen. (iii) Die Folge a n = ( 1) n + 1 n oder (a n) = (0, 3 2, 2 3, 5 4, 4 5

2 Allgemeine Integrationstheorie

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Regulär variierende Funktionen

Zusammenfassung der Lebesgue-Integrationstheorie

Die Gamma-Funktion, das Produkt von Wallis und die Stirling sche Formel. dt = lim. = lim = Weiters erhalten wir durch partielle Integration, dass

1.3 Zufallsvariablen

Lernzusammenfassung für die Klausur. Inhaltsverzeichnis. Stochastik im SS 2001 bei Professor Sturm

Varianz und Kovarianz

a 0, a 1, a 2, a 3,... Dabei stehen die drei Pünktchen für unendlich oft so weiter.

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze

Unendliche Graphen. Daniel Perz 24. Dezember Definition 1. Ein Graph G heißt lokal endlich, wenn alle Knotengrade endlich sind.

Wahrscheinlichkeitstheorie

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

3 Markov-Eigenschaft der Brownschen Bewegung

Seminar Kryptographie. Satz von Hasse-Weil. Autor: Philipp Heÿler. Dozent: Dr. Mohamed Barakat

4 Fehlerabschätzungen und Konvergenz der FEM

Kardinalzahlen. Bemerkung. Eine unendliche Kardinalzahl α muss eine Limesordinalzahl sein. (Beweis zur Übung)

Analysis II (FS 2015): ZUSAMMENHÄNGENDE METRISCHE RÄUME

1. Aufgabe [2 Punkte] Seien X, Y zwei nicht-leere Mengen und A(x, y) eine Aussageform. Betrachten Sie die folgenden Aussagen:

Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten

2. Integration. {x : f(x) <a+ 1 n }

Existenz des Lebesgue-Borel-Maßes

DIFFERENTIATION PARAMETERABHÄNGIGER INTEGRALE

Ultrametrik. Christian Semrau Metrische Räume

Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung Eigenschaften von stochastischen Ordnungen Kleine Generatoren

Wichtige Definitionen und Aussagen

Das Singularitätentheorem von Hawking Teil 2

Kapitel V. Folgen und Konvergenz. V.1 Konvergenz von Zahlenfolgen

Prüfungsvorbereitungskurs Höhere Mathematik 3

Grundbegri e der Graphentheorie: Eckengrad, Wege und Kreise, Zusammenhang

Kapitel VI. Euklidische Geometrie

Absolute Stetigkeit von Maßen

9 Konvergenz und absolute Konvergenz von Reihen

Kapitel V. Folgen und Konvergenz. V.1 Konvergenz von Zahlenfolgen

Transkript:

Erwartungswert Naiv stellt man sich unter dem Erwartungswert einer Zufallsvariablen X Folgendes vor. Man führt das Experiment n-mal durch und bestimmt den Mittelwert (arithmetisches Mittel) der dabei für X erhaltenen Werte. Jetzt lässt man n gegen Unendlich gehen, und bestimmt den Grenzwert dieser Mittelwerte. Dieser Grenzwert ist der Erwartungswert E(X) dieser Zufallsvariablen X. Damit ergibt sich auch die Vorstellung des Erwartungswerts, nämlich dass nach vielen Versuchen der Mittelwert ungefähr der Erwartungswert ist. Jetzt wollen wir den Erwartungswert axiomatisch denieren. Diese De- nition entspricht der Denition des Integrals X dp aus der Maÿtheorie, das Lebesgue-Integral ist ein Spezialfall dieses maÿtheoretischen Integrals. Man kann also sagen, dass E(X) = X dp gilt, deshalb nennt man Zufallsvariable mit Erwartungswert auch integrierbar. Es ist die Denition des Erwartungswerts insofern ein bisschen einfacher als diejenige des allgemeinen maÿtheoretischen Integrals, weil P (Ω) = 1 gilt, während auf allgemeinen Maÿräumen das Maÿ des ganzen Raumes auch den Wert ergeben kann (etwa beim Lebesgue-Maÿ). Zuerst wird der Erwartungswert für Zufallsvariable, die nur endlich viele Werte annehmen, deniert. Denition 1. Es sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und X : Ω R eine Zufallsvariable, die nur die endlich vielen Werte {α 1, α 2,..., α k } annimmt. Dann deniert man E(X) := α j P (X = α j ) k.. Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und X : Ω R eine Zufallsvariable. Es gäbe eine endliche Zerlegung C von Ω, sodass es für alle C C ein a C R gibt, das X(ω) = a C für alle ω C erfüllt. Dann gilt E(X) = C C a C P (C). j=1 Beweis. Wegen der Voraussetzung nimmt die Zufallsvariable X nur endlich viele Werte {α 1, α 2,..., α k } an. Für jedes j {1, 2,..., k} gibt es eine Teilmenge C j C mit a C = α j für alle C C j. Deshalb erhält man, dass {X = α j } = C C j C gilt. Nachdem C eine Zerlegung ist, sind ihre Elemente paarweise disjunkt, und daher ist P (X = α j ) = C C j P (C). Dadurch gilt auch C C j a C P (C) = α j P (C) =α j C C j =P (X=α j ) 1 = α j P (X = α j ). Somit ist

2 ERWARTUNGSWERT C C a CP (C) = k j=1 Resultat bewiesen ist. C C j a C P (C) =α j P (X=α j ) = E(X), womit das gewünschte Denition 1 Proposition 2. Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, sei X : Ω R eine Zufallsvariable, die nur die endlich vielen Werte {α 1, α 2,..., α r } annimmt, und Y : Ω R sei eine Zufallsvariable, die nur die endlich vielen Werte {β 1, β 2,..., β s } annimmt. (1) Es gilt E(X + Y ) = E(X) + E(Y ). (2) Für α R gilt E(αX) = αe(x). (3) Falls X Y erfüllt ist, dann gilt E(X) E(Y ). Beweis. Für j {1, 2,..., r} und k {1, 2,..., s} setze C j,k := {X = α j } {Y = β k }. Sei C die Zerlegung, die aus den nichtleeren C j,k 's besteht. Dann gibt es für jedes C C ein a C R und ein b C R, sodass X(ω) = a C und Y (ω) = b C für alle ω C gelten. (1) Falls C C, dann gilt (X + Y )(ω) = X(ω) + Y (ω) = a C + b C für =a C =b C alle ω C. Deshalb gilt E(X + Y ) = = C C a C P (C) = E(X) womit (1) bewiesen ist. (2) Es ist (αx)(ω) = αx(ω) Dadurch ist E(αX) = wodurch auch (2) gezeigt ist. (a C + b C )P (C) = C C + C C b C P (C) = E(Y ) = E(X) + E(Y ), = αa C für alle ω C, soferne C C. =a C C C αa CP (C) = α a C P (C) = αe(x), C C = E(X)

ERWARTUNGSWERT 3 (3) Wegen X Y gilt a C b C für jedes C C. Somit ist E(X) = a C P (C) b C P (C) = E(Y ), C C b C C C = E(Y ) und auch (3) ist gezeigt. Wie üblich wird für A A die charakteristische Funktion 1 A : Ω R durch { 1, falls ω A, 1 A (ω) := 0, falls ω Ω \ A, deniert. Nimmt die Zufallsvariable X nur endlich viele Werte an, und ist A A, so nimmt auch 1 A X nur endlich viele Werte an. Falls X 0 gilt, und A A ist, dann gilt X 1 A X 0. Für A, B A mit A B und X 0 gilt X 1 B X 1 A X 0. Weiters ist C C 1 C = 1, soferne C eine endliche Zerlegung von (Ω, A, P ) ist. Jetzt werden wir zeigen, dass E(1 A X) = 0 gilt, wenn X nur endlich viele Werte annimmt und P (A) = 0 ist. Proposition 3. Es sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und A A mit P (A) = 0. Weiters sei X : Ω R eine Zufallsvariable, die nur endlich viele Werte annimmt. Dann gilt E(1 A X) = 0. Beweis. Die Zufallsvariable X nimmt nur die Werte {α 1, α 2,..., α k } an. Setze C 0 := Ω \ A und für j {1, 2,..., k} setze C j := A {X = α j }. Dann ist {C 0, C 1, C 2,..., C k } eine endliche Zerlegung von (Ω, A, P ). Für j {1, 2,..., k} gilt 1 A X(ω) = α j für alle ω C j und es ist 0 P ( C j A P (A) = 0, also P (C j ) = 0. Weiters gilt 1 A X(ω) = 0 für alle ω C 0. Daher ist E(1 A X) = 0P (C 0) + k j=0 α jp (C j ) = 0 und damit haben wir =0 E(1 A X) = 0 gezeigt. Als nächsten Schritt wird der Erwartungswert für nichtnegative Zufallsvariable deniert. Dazu ist zunächst einmal auch der Wert + zugelassen. Um den Erwartungswert in diesem Fall zu denieren, benötigt man die folgenden Resultate. Proposition 4. Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und X : Ω R eine Zufallsvariable, die X 0 erfüllt. Weiters seien (X n ) n N und (Y n ) n N Folgen von Zufallsvariablen, die 0 X 1 X 2 X 3, für jedes n N nimmt X n nur endlich viele Werte an, 0 Y 1 Y 2 Y 3, für )

4 ERWARTUNGSWERT jedes n N nimmt Y n nur endlich viele Werte an, lim X n (ω) = X(ω) n für alle ω Ω und lim Y n (ω) = X(ω) für alle ω Ω erfüllen. Dann gilt n lim E(X n) = sup E(X n ) = lim E(Y n ) = sup E(Y n ), wobei für die Limiten n n N n n N und die Suprema auch der Wert + zugelassen ist. Beweis. Wegen Eigenschaft (3) aus Proposition 2 sind die Folgen ( E(X n ) ) n N und ( E(Y n ) ) monoton wachsend. Wird auch der Wert + als Grenzwert n N und Supremum zugelassen, so existieren die folgenden Grenzwerte und Suprema, und es gelten lim n E(X n ) = sup n N E(X n ) und lim n E(Y n ) = sup n N E(Y n ). Es sei s < lim n E(X n ). Dann gibt es ein N N mit E(X N ) > s. Die Zufallsvariable X N nimmt die Werte {α 1, α 2,..., α r } an, dabei ist α j 0 für alle j {1, 2,..., r}. Setze δ := 1(E(X 3 N) s). Dann ist δ > 0 und es gilt E(X N ) 2δ > s. Für j {1, 2,..., r} setze A j := {X N = α j }. Fixiere ein j {1, 2,..., r}. Falls ω A j ist, dann gilt α j δ < α j X(ω). Deniere A j,n := {ω A j : Y n (ω) > α j δ}. Weil (Y n ) n N monoton wachsend ist, gilt A j,n A j,n+1 für alle n N. Nachdem lim n Y n (ω) = X(ω) für alle ω Ω, ist n=1 A j,n = A j. Wegen der Stetigkeitseigenschaft gilt lim n P (A j,n ) = P (A j ) und daher lim n (α j δ)p (A j,n ) = (α j δ)p (A j ). Wenn P (A j ) > 0 ist, dann ist (α j δ)p (A j ) > (α j 2δ)P (A j ), und im Fall P (A j ) = 0 ist P (A j,n ) = 0 für alle n. Deshalb gibt es ein N j N mit (α j δ)p (A j,n ) (α j 2δ)P (A j ) für alle n N j. Ist n N j, so ist 1 Aj,n Y n (α j δ)1 Aj,n, und damit E(1 Aj Y n ) E(1 Aj,n Y n ) E ( ) (α j δ)1 Aj,n = (2) aus Proposition 2 = (α j δ)e(1 Aj,n ) =P (A j,n ) = Denition 1 = (α j δ)p (A j,n ) (α j 2δ)P (A j ). (α j 2δ)P (A j ) Somit wurde gezeigt, dass es zu jedem j {1, 2,..., r} ein N j N gibt, sodass E(1 Aj Y n ) (α j 2δ)P (A j ) für alle n N j gilt. Betrachte ein n N mit n max{n 1, N 2,..., N r }. Weil {A 1, A 2,..., A r } eine endliche Zerlegung ist, gilt r j=1 1 A j = 1 Dann ist ( r ) E(Y n ) = E(Y n 1 ) = E 1 Aj Y n = = (1) aus Proposition 2 r j=1 1 j=1 A j r r r = E(1 Aj Y n ) α j P (A j ) 2δ P (A j ) = E(X N ) 2δ > s. j=1 j=1 j=1 (α j 2δ)P (A j ) =1 E(X N )

ERWARTUNGSWERT 5 Dadurch ist lim n E(Y n ) = sup n N E(Y n ) s, und deswegen erhalten wir lim n E(Y n ) = sup n N E(Y n ) lim n E(X n ) = sup n N E(X n ). Vertauscht man die Rollen von (X n ) n N und (Y n ) n N so ergibt sich daraus auch lim n E(X n ) = sup n N E(X n ) lim n E(Y n ) = sup n N E(Y n ). Damit ist die Gleichheit gezeigt und das Resultat bewiesen. Proposition 5. Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und X : Ω R eine Zufallsvariable, die X 0 erfüllt. Für n N deniere X n : Ω R durch { k, falls k X(ω) < k+1 für ein k {0, 1, 2,..., 2 2n 1}, 2 X n (ω) := n 2 n 2 n 2 n, falls X(ω) 2 n. Dann ist X n für jedes n N eine Zufallsvariable, die nur endlich viele Werte annimmt. Weiters gilt 0 X 1 X 2 X 3 und für jedes ω Ω gilt lim n X n(ω) = X(ω). Beweis. { Oensichtlich nimmt die Funktion X n nur die endlich vielen Werte 0, 1, 2,..., 2 n} an, und es gilt {X 2 n 2 n n = k } = { k X < k+1 } A, falls n 2 n 2 n k < 2 2n, und {X n = k = 2 n } = {X 2 n } A, falls k = 2 2n. Damit ist 2 n X n eine Zufallsvariable, die nur endlich viele Werte annimmt, und X n 0 erfüllt. Sei ω Ω. Betrachte ein beliebiges n N. Wenn X(ω) 2 n+1 gilt, dann ist X n (ω) = 2 n 2 n+1 = X n+1 (ω). Ist X(ω) 2 n+1, so gibt es ein k {0, 1,..., 2 2(n+1) k 1} mit X(ω) < k+1. Soferne dieses k 2 2n+1 ist, 2 n+1 2 n+1 ist X(ω) 2 n und X n (ω) = 2 n = 22n+1 k = X 2 n+1 2 n+1 n+1 (ω). Andernfalls gibt es ein p {0, 1,..., 2 2n 1} mit k = 2p oder k = 2p + 1. Dadurch ist 2p k < k+1 2p+2 = 2(p+1) und somit p k X(ω) < k+1 p+1. 2 n 2 n+1 2 n+1 2 n Deshalb ist X n (ω) = p k = X 2 n 2 n+1 n+1 (ω). Jetzt sei ε > 0. Wähle N N so, dass X(ω) < 2 N und 1 < ε. Sei n N. 2 N Dann gibt es ein k {0, 1, 2,..., 2 2n 1} mit k X(ω) < k+1. Deswegen 2 n 2 n ist X n (ω) = k k und daher X 2 n n (ω) X(ω) = X(ω) < 1 < ε. Nachdem 2 n 2 n = k 2 n < k+1 2 n ω Ω beliebig war, gilt 0 X 1 X 2 X 3 und lim n X n (ω) = X(ω) für alle ω Ω. Denition 2. Es sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und X : Ω R eine Zufallsvariable, die X 0 erfüllt. Dann deniert man E(X) durch E(X) := lim n E(X n ), wobei der Wert + für E(X) zugelassen ist, und (X n ) n N eine Folge von Zufallsvariablen ist, die 0 X 1 X 2 X 3, für jedes n N nimmt X n nur endlich viele Werte an, und lim n X n (ω) = X(ω) für alle ω Ω erfüllen.

6 ERWARTUNGSWERT Diese Denition bedarf einer Rechtfertigung. Zunächst folgt aus Proposition 5, dass es eine Folge (X n ) n N mit den in der Denition geforderten Eigenschaften gibt. Aus Proposition 4 folgt, dass diese Denition nicht von der konkreten Wahl der Folge abhängt. Jetzt zeigen wir, dass für nichtnegative Zufallsvariable mit nur endlich vielen Werten Denition 1 und Denition 2 denselben Wert ergeben. Proposition 6. Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und X : Ω R eine Zufallsvariable, die nur endlich viele Werte annimmt und X 0 erfüllt. Weiters sei (X n ) n N eine Folge von Zufallsvariablen, die 0 X 1 X 2 X 3, für jedes n N nimmt X n nur endlich viele Werte an, und lim n X n(ω) = X(ω) für alle ω Ω erfüllen. Dann ist lim n E(X n ) = E(X). Beweis. Deniere Y n := X für n N. Dann ist 0 Y 1 Y 2 Y 3, für jedes n N nimmt Y n nur endlich viele Werte an, und lim n X n (ω) = X(ω) für alle ω Ω. Nach Proposition 4 ist lim n E(X n ) = lim n E(Y n ) = =E(X) E(X), wodurch das Resultat gezeigt ist. Wie üblich wird im folgenden Resultat die Konvention x + (+ ) = (+ ) + x = + für alle x R und (+ ) + (+ ) = +. Auÿerdem soll wie üblich x < + für alle x R gelten. Proposition 7. Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, und seien X : Ω R und Y : Ω R Zufallsvariable mit X 0 und Y 0. (1) Es gilt E(X + Y ) = E(X) + E(Y ). (2) Für α R, α 0 gilt E(αX) = αe(x). (3) Es ist E(X) 0. (4) Wenn X Y gilt, dann ist E(X) E(Y ). (5) Falls A A und P (A) = 0, dann gilt E(1 A X) = 0 Beweis. Wegen Proposition 5 gibt es Folgen (X n ) n N und (Y n ) n N von Zufallsvariablen, sodass X n und Y n für jedes n N nur endlich viele Werte annehmen, 0 X 1 X 2 X 3, 0 Y 1 Y 2 Y 3, und lim n X n (ω) = X(ω) und lim n Y n (ω) = Y (ω) für alle ω Ω gelten. (1) Auch X n + Y n nimmt für jedes n N nur endlich viele Werte an, es ist 0 X 1 + Y 1 X 2 + Y 2 X 3 + Y 3, und für jedes ω Ω gilt lim n (X n + Y n )(ω) = lim n X n (ω) + lim n Y n (ω) = X(ω) + Y (ω) =

ERWARTUNGSWERT 7 (X + Y )(ω). Deshalb ist E(X + Y ) = lim n E(X n + Y n ) = (1) aus Proposition 2 E(X n)+e(y n) lim n E(X n ) + lim n E(Y n ) = E(X) + E(Y ). (2) Weil α 0 ist, nimmt αx n für alle n N nur endlich viele Werte an, wir haben 0 αx 1 αx 2 αx 3, und für jedes ω Ω gilt lim n (αx n )(ω) = α lim n X n (ω) = αx(ω) = (αx)(ω). Man erhält E(αX) = lim n E(αX n ) = (2) aus Proposition 2 αe(x n) = α lim n E(X n ) = αe(x). (3) Aus (3) in Proposition 2 folgt, dass E(X n ) E(0) = 0 für alle n N. Daher ist E(X) = lim n E(X n ) 0. 0 (4) Setze Z := Y X. Dann ist Z eine Zufallsvariable und wegen X Y ist Z 0. Man erhält wegen (3), dass E(Z) 0 gilt. Da X+Z = X+Y X = Y, ergibt sich aus (1), dass E(Y ) = E(X + Z) = E(X) + E(Z) E(X). 0 (5) Es nimmt auch 1 A X n für alle n N nur endlich viele Werte an, wir haben 0 1 A X 1 1 A X 2 1 A X 3, und für jedes ω Ω gilt lim n (1 A X n )(ω) = (1 A X)(ω). Somit ergibt sich E(1 A X) = lim E(1 A X n ) = 0, n = 0 Proposition 3 womit das gewünschte Resultat gezeigt ist. Damit können wir jetzt den Erwartungswert allgemein denieren. Zur Erinnerung erwähnen wir, dass X = X + X und X = X + + X gelten. Denition 3. Es sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und X : Ω R eine Zufallsvariable. Man sagt X ist integrierbar, falls E(X + ) < + und E(X ) < +. Für eine integriebare Zufallsvariable X wird der Erwartungswert E(X) durch E(X) := E(X + ) E(X ) deniert. Denition 4. Die Familie aller integrierbaren Zufallsvariablen auf (Ω, A, P ) bezeichnet man mit L 1 (Ω, A, P ) (oder kurz L 1, soferne es keine Missverständnisse geben kann). Proposition 8. Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und X : Ω R eine Zufallsvariable. Dann ist X genau dann integrierbar, wenn X integrierbar ist, und es gilt E(X) E ( X ). =

8 ERWARTUNGSWERT Beweis. Zuerst sei X integrierbar. Wegen E(X + ) < + und E(X ) < + ist nach (1) aus Proposition 7 E( X ) = E(X + + X ) = E(X + ) + E(X ) < +. Damit ist X integrierbar. Jetzt sei X integrierbar. Weil 0 X + X und 0 X X folgt wegen (4) in Proposition 7, dass E(X + ) E( X ) < + und E(X ) E( X ) < +. Deswegen ist X integrierbar. Es ist E(X) = E(X + ) E(X ) E(X + ) + E(X ) = E(X + + X ) = E( X ). Wir haben damit auch die Dreiecksungleichung für den Erwartungswert gezeigt. Proposition 9. Es sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, und es sei X : Ω R eine Zufallsvariable, die nur endlich viele Werte annimmt. Dann ist X integrierbar und der in Denition 2 denierte Erwartungswert stimmt mit den in Denition 3 denierten Erwartungswert überein. Beweis. Setze A 1 := {X 0} und A 2 := Ω \ A 1. Dann ist {A 1, A 2 } eine endliche Zerlegung und es gelten X + = 1 A1 X und X = 1 A2 X. Als endliche Summen sind E(X + ) < + und E(X ) < +, wodurch X integrierbar ist. Somit ist E(X + ) E(X ) = E(1 A1 X) E( 1 A2 X) = E(1 A1 X)+ = (2) aus Proposition 2 E(1 A2 X) E(1 A2 X) = E((1 A 1 + 1 A2 ) X) = E(X), womit gezeigt ist, dass (1) aus Proposition 2 =1 beide Denitionen übereinstimmen. 0. Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und X : Ω R und Y : Ω R seien integrierbare Zufallsvariable. (1) Dann ist X + Y integrierbar und es gilt E(X + Y ) = E(X) + E(Y ). (2) Für α R ist αx integrierbar und es gilt E(αX) = αe(x). (3) Wenn X Y gilt, dann ist E(X) E(Y ). (4) Falls A A und P (A) = 0, dann gilt E(1 A X) = 0 Beweis. (1) Setze A 1 := {X 0} {Y 0}, A 2 := {X < 0} {Y < 0}, A 3 := {X 0} {Y < 0} {X + Y 0}, A 4 := {X 0} {Y < 0} {X + Y < 0}, A 5 := {X < 0} {Y 0} {X + Y 0}, A 6 := {X < 0} {Y 0} {X + Y < 0}. Dann ist {A 1, A 2, A 3, A 4, A 5, A 6 } eine endliche Zerlegung. Auf A 1 ist X + = X, Y + = Y, (X +Y ) + = X +Y = X + +Y +, und X = Y = (X + Y ) = 0, also 1 A1 (X + Y ) + = 1 A1 (X + + Y + ) und 1 A1 (X + Y ) = 1 A1 (X + Y ). Daher ist wegen (1) aus Proposition 7 E(1 A1 (X + Y ) + ) = E(1 A1 X + +1 A1 Y + ) = E(1 A1 X + )+E(1 A1 Y + ) und E(1 A1 (X +Y ) ) =

ERWARTUNGSWERT 9 E(1 A1 X + 1 A1 Y ) = E(1 A1 X ) + E(1 A1 Y ). Wir erhalten auf A 2, dass X + = Y + = Y = (X + Y ) + = 0, und X = X, Y = Y und (X + Y ) = (X + Y ) = X + Y, also 1 A2 (X + Y ) + = 1 A2 (X + + Y + ) und 1 A2 (X + Y ) = 1 A2 (X + Y ). Nach (1) aus Proposition 7 ergibt sich E(1 A2 (X + Y ) + ) = E(1 A2 X + +1 A2 Y + ) = E(1 A2 X + )+E(1 A2 Y + ) und E(1 A2 (X +Y ) ) = E(1 A2 X +1 A2 Y ) = E(1 A2 X )+E(1 A2 Y ). Man erhält auf A 3, dass X + = X, Y = Y, (X +Y ) + = X +Y = X + Y, und X = Y + = (X +Y ) = 0, also 1 A3 (X + Y ) + = 1 A3 (X + Y ). Wegen (1) aus Proposition 7 ist E(1 A3 X + ) = E(1 A3 (X + Y ) + + 1 A3 Y ) = E(1 A3 (X + Y ) + ) + E(1 A3 Y ), also E(1 A3 (X + Y ) + ) = E(1 A3 X + ) E(1 A3 Y ), und E(1 A3 (X + Y ) ) = 0 = E(1 A3 X ) E(1 A3 Y + ). Auf A 4 ist X + = X, Y = Y, (X + Y ) = (X + Y ) = X + + Y, und X = Y + = (X + Y ) + = 0, und deshalb 1 A4 (X + Y ) = 1 A4 ( X + + Y ). Aus (1) in Proposition 7 erhalten wir E(1 A4 Y ) = E(1 A4 (X + Y ) + 1 A4 X + ) = E(1 A4 (X + Y ) ) + E(1 A4 X + ), also E(1 A4 (X + Y ) ) = E(1 A4 X + ) + E(1 A4 Y ), und E(1 A4 (X + Y ) + ) = 0 = E(1 A4 X ) + E(1 A4 Y + ). Wir erhalten auf A 5, dass X = X, Y + = Y, (X + Y ) + = (X + Y ) = X + Y +, und X + = Y = (X + Y ) = 0, also 1 A5 (X + Y ) + = 1 A5 ( X + Y + ). Wegen (1) aus Proposition 7 ist E(1 A5 Y + ) = E(1 A5 (X + Y ) + + 1 A5 X ) = E(1 A5 (X + Y ) + ) + E(1 A5 X ), also E(1 A5 (X + Y ) + ) = E(1 A5 X ) + E(1 A5 Y + ), und E(1 A5 (X + Y ) ) = 0 = E(1 A5 X + ) + E(1 A5 Y ). Schlieÿlich ergibt sich auf A 5, dass X = X, Y + = Y, (X +Y ) = (X +Y ) = X Y +, und X + = Y = (X +Y ) = 0, also 1 A6 (X + Y ) = 1 A6 (X Y + ). Deshalb erhalten wir wegen (1) aus Proposition 7, dass E(1 A6 X ) = E(1 A6 (X + Y ) + 1 A6 Y + ) = E(1 A6 (X + Y ) ) + E(1 A6 Y + ), somit E(1 A6 (X + Y ) ) = E(1 A6 X ) E(1 A6 Y + ), und E(1 A6 (X + Y ) + ) = 0 = E(1 A6 X + ) E(1 A6 Y ). Deshalb ist E(X + Y ) = E ( (X + Y ) +) E ( (X + Y ) ) = E ( 1 A1 (X + Y ) +) + E ( 1 A2 (X + Y ) +) + E ( 1 A3 (X +Y ) +) +E ( 1 A4 (X +Y ) +) +E ( 1 A5 (X +Y ) +) +E ( 1 A6 (X +Y ) +) E ( 1 A1 (X +Y ) ) E ( 1 A2 (X +Y ) ) E ( 1 A3 (X +Y ) ) E ( 1 A4 (X +Y ) ) E ( 1 A5 (X +Y ) ) E ( 1 A6 (X +Y ) ) = E(1 A1 X + )+E(1 A1 Y + )+E(1 A2 X + )+ E(1 A2 Y + ) + E(1 A3 X + ) E(1 A3 Y ) E(1 A4 X ) + E(1 A4 Y + ) E(1 A5 X ) + E(1 A5 Y + ) + E(1 A6 X + ) E(1 A6 Y ) E(1 A1 X ) E(1 A1 Y ) E(1 A2 X ) E(1 A2 Y ) E(1 A3 X ) + E(1 A3 Y + ) + E(1 A4 X + ) E(1 A4 Y ) + E(1 A5 X + ) E(1 A5 Y ) E(1 A6 X )+E(1 A6 Y + ) = E(1 A1 X + )+E(1 A2 X + )+E(1 A3 X + )+ E(1 A4 X + )+E(1 A5 X + )+E(1 A6 X + ) E(1 A1 X ) E(1 A2 X ) E(1 A3 X ) E(1 A4 X ) E(1 A5 X ) E(1 A6 X ) + E(1 A1 Y + ) + E(1 A2 Y + ) + E(1 A3 Y + ) + E(1 A4 Y + ) + E(1 A5 Y + ) + E(1 A6 Y + ) E(1 A1 Y ) E(1 A2 Y ) E(1 A3 Y ) E(1 A4 Y ) E(1 A5 Y ) E(1 A6 Y ) = E(X + ) E(X ) + E(Y + ) E(Y ) = E(X) + E(Y ). (2) Im Fall α 0 ist (αx) + = αx + und (αx) = αx. Daher folgt wegen (2) aus Proposition 7, dass E((αX) + ) = E(αX + ) = αe(x + ) und

10 ERWARTUNGSWERT E((αX) ) = E(αX ) = αe(x ). Daraus ergibt sich E(αX) = E((αX) + ) E((αX) ) = α(e(x + ) E(X )) = αe(x). Für α < 0 ist (αx) + = ( α)x und (αx) = ( α)x +. Wegen (2) aus Proposition 7 erhalten wir E((αX) + ) = E(( α)x ) = αe(x ) und E((αX) ) = E(( α)x + ) = αe(x + ), und deshalb E(αX) = E((αX) + ) E((αX) ) = α(e(x ) E(X + )) = αe(x). (3) Da X Y ist, ist Y X 0 und wegen (3) aus Proposition 7 erhält man, dass E(Y X) 0. Unter Verwendung von (1) und (2) ergibt sich daraus, dass 0 E(Y X) = E(Y + ( 1)X) = E(Y ) + E(( 1)X) = E(Y ) + ( 1)E(X) = E(Y ) E(X), und deshalb E(X) E(Y ). (4) Hier ist (1 A X) + = 1 A X + und (1 A X) = 1 A X. Wegen (5) aus Proposition 7 ist E(1 A X + ) = 0 und E(1 A X ) = 0. Deswegen erhält man E(1 A X) = E((1 A X) + ) E((1 A X) ) = E(1 A X + ) E(1 A X ) = 0. 1. Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und X : Ω R eine Zufallsvariable. (1) Falls Y : Ω R eine integrierbare Zufallsvariable ist, und X = Y fast überall gilt (also P (X Y ) = 0 ist), dann ist X integrierbar und es gilt E(X) = E(Y ). (2) Es gäbe ein α R mit X = α fast überall (also P (X = α) = 1). Dann ist X integrierbar und es gilt E(X) = α. Beweis. (1) Setze A 1 := {X Y } und A 2 := Ω \ A 1. Dann ist {A 1, A 2 } eine endliche Zerlegung und P (A 1 ) = 0. Es ist E(X) = E(1 A1 X + 1 A2 X) = (1) aus 0 E(1 A1 X) + E(1 A2 X) = = 0 (4) aus 0 =1 A2 Y = 0 + E(1 A2 Y ) = A 1 Y + 1 A2 Y ). (1) aus 0 = E(1 A1 Y ) (4) aus 0 (2) Nach Proposition 9 ist E(α) = αp (Ω) = α. Wegen (1) ist X integrierbar und E(X) = α.