Appendix I: Eine etwas komprimierte Einführung in die Wahrscheinlichkeitstheorie

Ähnliche Dokumente
2 Zufallsvariable und Verteilungsfunktionen

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Stochastik Wiederholung von Teil 1

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

KAPITEL 5. Erwartungswert

Wichtige Definitionen und Aussagen

Wahrscheinlichkeitstheorie und Statistik

Teil II. Wahrscheinlichkeitsrechnung

Teil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse

Grundbegriffe der Wahrscheinlichkeitsrechnung

Stochastik. 1. Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

Kapitel II - Wahrscheinlichkeitsraum

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Grundbegriffe der Wahrscheinlichkeitsrechnung

Kapitel II - Wahrscheinlichkeitsraum

Statistik I für Betriebswirte Vorlesung 3

Sabrina Kallus, Eva Lotte Reinartz, André Salé

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Lösung Semesterendprüfung

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,

Zusatzmaterial zur Vorlesung Statistik II

Inhaltsverzeichnis (Ausschnitt)

2 Zufallsvariable, Verteilungen, Erwartungswert

Diskrete Zufallsvariablen (Forts.) I

Diskrete Zufallsvariablen (Forts.) I

2 Zufallsvariablen und deren Verteilungen

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

13 Grenzwertsätze Das Gesetz der großen Zahlen

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Zufallsvariablen rekapituliert

Statistik für Ingenieure Vorlesung 3

Einführung in die angewandte Stochastik

TU DORTMUND Sommersemester 2018

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Statistik I für Betriebswirte Vorlesung 2

Zufallsvariablen [random variable]

5 Zufallsvariablen, Grundbegriffe

Einführung in die Wahrscheinlichkeitsrechnung

Kapitel 8: Zufallsvektoren

Wahrscheinlichkeitstheorie

Zufallsvariablen rekapituliert

Eindimensionale Zufallsvariablen

P (X = 2) = 1/36, P (X = 3) = 2/36,...

Wirtschaftsmathematik

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

WAHRSCHEINLICHKEITSRECHNUNG

3.3 Bedingte Wahrscheinlichkeit

Unabhängige Zufallsvariablen

Übungsblatt 6 zur Vorlesung Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker

A. Grundlagen der Stochastik

A. Grundlagen der Stochastik

Fit for Abi & Study Stochastik

Seminar Kolmogorovkomplexität

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Übungsaufgaben, Statistik 1

Grundbegriffe der Wahrscheinlichkeitstheorie

Statistik für Ingenieure Vorlesung 2

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

SozialwissenschaftlerInnen II

4. Verteilungen von Funktionen von Zufallsvariablen

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

3. STOCHASTISCHE PROZESSE 73

1.3 Zufallsgrößen und Verteilungsfunktionen

Einführung und Grundlagen

Mathematische und statistische Methoden für Pharmazeuten

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Hypothesentests. 5 Regression

Numerische Methoden und Algorithmen in der Physik

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

KAPITEL 5 ZUFALLSVARIABLE

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Sprechstunde zur Klausurvorbereitung

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Stochastik I. Vorlesungsmitschrift

Unabhängigkeit KAPITEL 4

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet

Erwartungswert als Integral

Beispiel: Zufallsvariable

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte

Wahrscheinlichkeitsrechnung und Quantentheorie

1 Multivariate Zufallsvariablen

Transkript:

Appendix I: Eine etwas komprimierte Einführung in die Wahrscheinlichkeitstheorie Vorbemerkung: Die folgenden Seiten sind nicht zur Abschreckung gedacht, sondern als Ergänzung zu den Darstellungen, die in einführenden Lehrbüchern zur Ökonometrie enthalten sind. Die folgenden Seiten sind der Versuch, die Intuition hinter den vielen Definitionen und Konzepten in der Wahrscheinlichkeitstheorie zu erklären. Deshalb wird nicht überall auf Formeln verzichtet, auch wenn dadurch vielleicht nicht alles beim ersten oder zweiten Lesen klar wird. Korrekturen, Kommentare und Kritik sind willkommen! Siehe insbesondere den sehr guten, knappen Überblick (mit Beispielen) in Hassler (2007, Kapitel 2) oder sehr ausführlich (in Englisch) Casella & Berger (2002) oder 1

(sehr knapp) Wahrscheinlichkeitstheorie in Wikipedia. 2

Ergebnismenge (sample space, outcome space): (in früheren Versionen auch als Möglichkeitenraum bezeichnet) die Menge Ω enthält alle möglichen Ergebnisse (outcomes) eines Zufallsexperiments. Diese Menge kann abzählbar viele oder überabzählbar viele Ergebnisse enthalten. Beispiele: Urne mit 4 Kugeln in jeweils verschiedener Farbe: Ω = {gelb, rot, blau, grün}. zukünftiges Monatseinkommen eines Haushalts: Ω = [0, ). Anmerkungen: Sind die Ergebnisse endlich viele, dann bezeichnet man die einzelnen Ergebnisse häufig mit ω i. Für S Ergebnisse ist Ω dann Ω = {ω 1, ω 2,...,ω S }. Liegen unendlich viele Ergebnis vor, dann bezeichnet man ein einzelnes davon häufig mit ω. 3

Ereignis (event): Tritt ein bestimmtes Ergebnis ein, wird dies als Ereignis bezeichnet. Enthält das Ereignis genau ein Element der Ergebnismenge, wird es als Elementarereignis bezeichnet. Ein Ereignis ist eine Teilmenge der Ergebnismenge Ω, also jede Menge von möglichen Elementarereignissen = jede Teilmenge der Menge Ω einschließlich Ω selbst. Beispiele: Urnenbeispiel: mögliche Ereignisse sind beispielsweise {gelb, rot} oder {rot, blau, grün}. Haushaltseinkommen: mögliche Ereignisse sind alle möglichen Teilintervalle und Verknüpfungen davon, z.b. (0, 5000], [1000, 1001), (400, ), 4000, etc. 4

Anmerkungen: Verwendet man die allgemeine Schreibweise mit den ω s, dann ergibt sich im Fall von S Elementarereignissen: {ω 1,ω 2 }, {ω S }, {ω 3,...,ω S }, etc. im Fall von unendlich vielen Elementarereignissen innerhalb eines Intervalls Ω = (, ): (a 1, b 1 ], [a 2, b 2 ), (0, ), etc., wobei immer die untere Grenze kleiner oder gleich der oberen Grenze ist, also a i b i. Sigma-Algebra: Vorbemerkungen: Betrachten wir unser Beispiel mit den 4 Kugeln in verschiedenen Farben. Um das Beispiel noch allgemeiner zu machen, bezeichnen wir ω 1 = gelb, ω 2 = rot, ω 3 = blau, ω 4 = grün. Nehmen wir nun an, dass wir insbesondere daran interessiert sind, ob folgende Ereignisse eintreten: C = {{ω 1 }, {ω 1, ω 2 }, {ω 1,ω 3, ω 4 }}, die in der Menge C zusammengefasst werden. Wenn wir nun diese Kollektion von Teilmengen C genauer betrachten, fällt auf, dass zwar das Elementarereignis {ω 1 } eintreten kann, aber was machen wir, wenn es nicht eintritt. Dann 5

muss ja zwangsläufig das Ereignis {ω 2, ω 3,ω 4 } eintreten, das aber nicht in der Sammlung C enthalten ist. Das bedeutet, dass wir diesem Ereignis dann auch keine Wahrscheinlichkeit zuordnen können. Da dies keinen Sinn macht, müssen wir die Menge C mindestens um das Ereignis {ω 2, ω 3, ω 4 } erweitern. Daraus folgt, dass eine Kollektion von Teilmengen, für die wir jeweils Wahrscheinlichkeiten definieren möchten, bestimmte Eigenschaften aufweisen muss. So muss zumindest immer das Komplement eines Ereignisses in der Kollektion von Teilmengen enthalten sein. Man kann sich auch überlegen, dass beliebige Vereinigungsmengen von Teilmengen ebenfalls in der Kollektion enthalten sein müssen. Erfüllt eine Kollektion von Teilmengen diese Anforderungen, dann wird sie als Sigma-Algebra bezeichnet. 6

Definition einer Sigma-Algebra: Eine Menge von Teilmengen von Ω wird als Sigma-Algebra bzw. als σ- Algebra (σ-algebra, σ-field) bezeichnet, wenn für diese Menge von Teilmengen folgende Eigenschaften gelten. Dabei wird eine σ-algebra häufig mit F bezeichnet: 1. F. 2. Wenn A F, dann A c F. 3. Wenn A 1, A 2,... F, dann i=1 A i F. Anmerkungen: Im Fall endlich vieler Elementarereignisse ist die σ-algebra mit der Potenzmenge identisch. Im Fall unendlich vieler Elementarereignisse, beispielsweise im Fall der möglichen Intervalle reeller Zahlen ist die σ-algebra kleiner als die Potenzmenge. Genau für diesen Fall hat man dieses Konzept entwickelt, da die Potenzmenge zu groß sein würde. F wird auch als Ereignisalgebra oder Ereignisraum bezeichnet. 7

Es sei eine Ergebnismenge Ω und eine σ-algebra F gegeben. Dann wird das Paar (Ω, F) als meßbarer Raum bezeichnet. Wahrscheinlichkeitsfunktion: Es sei eine Ergebnismenge Ω und eine σ-algebra F gegeben. Jedem Ereignis wird eine Wahrscheinlichkeit zugeordnet. Die Wahrscheinlichkeit ist eine Abbildung die folgende Bedingungen erfüllt: 1. P(A) 0 für alle A F. 2. P(Ω) = 1. P : A P(A) [0, 1], A F, 3. Wenn A 1, A 2,... paarweise disjunkt sind, dann P ( i=1 A i) = i=1 P(A i). Man sieht, dass die Definition einer Wahrscheinlichkeitsfunktion die Kenntnis einer Ergebnismenge Ω und einer dazu passenden σ-algebra voraussetzt. Streng genommen müsste man also zu einer Wahrscheinlichkeitsfunktion P immer dazu sagen, zu welchem Ω und F sie gehört, was wir aber im Allgemeinen nicht tun werden. Das Tripel (Ω, F, P) hat einen Namen und wird Wahrscheinlichkeits- 8

raum genannt. Auf einem meßbaren Raum (Ω, F) können mehrere Wahrscheinlichkeitsfunktionen definiert sind (z.b. für einen fairen und einen unfairen Würfel). Zufallsvariable: Eine Zufallsvariable ist eine Funktion, die jedem Elementarereignis ω Ω eine reelle Zahl X(ω) R zuordnet. Urnenbeispiel: X(ω 1 ) = 0, X(ω 2 ) = 3, X(ω 3 ) = 17, X(ω 4 ) = 20. Beachte: Möchte man eine Wahrscheinlichkeitsfunktion für die Zufallsvariable X(ω) auf Ω festlegen, dann benötigt man eine neue Ergebnismenge Ω, die der Bildmenge der Zufallsvariablen für die Ergebnisse bzw. Elementarereignisse entspricht (im Urnenbeispiel Ω = {0, 3, 17, 20}) eine neue σ-algebra F, die sich aus F gewinnen lässt, und eine neue Wahrscheinlichkeitsfunktion P X, die als Argumente Zahlen (im Beispiel: z.b. 0, 3) bzw. Intervalle von (reellen) Zahlen hat. Im Allgemeinen ist 9

die neue Ergebnismenge Ω durch die Menge der reellen Zahlen R gegeben die dazugehörige σ-algebra durch die sogenannte Borel-Algebra B gegeben. Sie ist die kleinste σ-algebra über R, die alle reellen Intervalle enthält. Die Zufallsvariable X definiert damit einen neuen (abgeleiteten, induzierten) Wahrscheinlichkeitsraum (R, B, P X ). Beachte: Voraussetzung hierfür, dass alle Teilmengen in den jeweiligen σ-algebren (F bzw. B) jeweils eine entsprechende Teilmenge in der anderen σ-algebra aufweisen. Dies wird in der mathematischen Statistik als Messbarkeit einer Zufallsvariablen bezeichnet, siehe auch Hassler (2007, Abschnitt 2.1, S. 15). Beachte: Wenn es zu keinen Verwechslungen kommen kann, wird im Folgenden anstelle von P X nur P geschrieben. 10

Dichtefunktion Vorbemerkung: Wie wir schon gesehen haben, wird es immer kompliziert, wenn Ω unendlich viele Elementarereignisse vorliegen. Betrachten wir beispielsweise Ω = [0, 4]. Möchte man nun die Wahrscheinlichkeit berechnen, dass beispielsweise die Zahl π eintritt, dann ist diese Wahrscheinlichkeit 0. Wäre sie nicht 0, dann hätten wir das Problem, dass die Summe der Wahrscheinlichkeiten über alle (überabzählbar vielen) Zahlen nicht 1 sein könnte. Was tun? Ein Ausweg bietet folgender Trick: Betrachten wir die Wahrscheinlichkeit, dass die Realisation der Zufallsvariablen X in dem Intervall [0, x] liegt, wobei x < 4. Diese Wahrscheinlichkeit lässt sich schreiben als P(X x). Nun kann man fragen, inwieweit sich diese Wahrscheinlichkeit verändert, wenn man das Intervall [0, x] um ein kleines Stück h verlängert. Die Antwort lautet: P(X x + h) P(X x). Setzt man diese Veränderung in der Wahrscheinlichkeit in Bezug auf die Veränderung der Intervalllänge, erhält man P(X x + h) P(X x). h 11

Lässt man nun die Intervalllänge h gegen 0 gehen, bildet also den Grenzwert, erhält man P(X x + h) P(X x) lim = f(x). h 0 h Dieser Grenzwert heißt Wahrscheinlichkeitsdichtefunktion oder kurz Dichtefunktion, die zu der Wahrscheinlichkeitsfunktion P gehört. Wie lässt sich die Dichtefunktion interpretieren? Schreibt man etwas lässig P(X x + h) P(X x) h und formt dies um zu f(x) P(X x + h) P(X x) f(x)h, dann sieht man, dass die Dichtefunktion f(x) die Rate angibt, mit der sich die Wahrscheinlichkeit verändert, wenn das Intervall [0, x] um h verlängert wird. Die Dichtefunktion gibt also eine Rate an. 12

Da die Dichtefunktion eine Ableitung ist, gilt umgekehrt in unserem Beispiel, dass x 0 f(u)du = P(X x) = F(x). Dabei wird F(x) = P(X x) als Wahrscheinlichkeitsverteilungsfunktion bezeichnet. Man erhält natürlich in unserem Beispiel auch, dass 4 0 f(u)du = P(X 4) = 1. Allgemein gilt, dass das Integral der Dichtefunktion über den gesamten Bereich der Zufallsvariable 1 ergibt, beispielsweise bei X(ω) R: f(u)du = P(X ) = 1. 13

Bedingte Wahrscheinlichkeitsfunktion Zunächst ein Beispiel: Es bezeichne die Zufallsvariable X [0, ) den Auszahlungsbetrag in einem Gewinnspiel. Die Wahrscheinlichkeitsfunktion bzw. Verteilungsfunktion P(X x) = F(x) gibt die Wahrscheinlichkeit für einen maximalen Gewinnbetrag von x an. Es ist weiter bekannt, dass zur Ermittlung des Auszahlungsbetrags 2 Maschinen bereitstehen, Maschine A und Maschine B. Frage: Wie groß ist die Wahrscheinlichkeit für einen maximalen Gewinnbetrag von x, wenn Maschine A zum Einsatz kommt? Anders formuliert, wie groß ist die gesuchte Wahrscheinlichkeit, wenn die Bedingung Maschine A im Einsatz gilt? Man nennt deshalb die gesuchte Wahrscheinlichkeit auch bedingte Wahrscheinlichkeit und man schreibt P(X x A). Entsprechend notiert man, falls die Bedingung Maschine B im Einsatz gilt, P(X x B). 14

Frage: Welcher Zusammenhang besteht nun zwischen der unbedingten Wahrscheinlichkeit P(X x) und den beiden bedingten Wahrscheinlichkeiten P(X x A) und P(X x B)? Zur Beantwortung muss man wissen, mit welcher Wahrscheinlichkeit Maschine A, bzw. Maschine B zum Einsatz kommt. Wenn wir diese Wahrscheinlichkeiten mit P(A) und P(B) bezeichnen, dann können wir die obige Frage beantworten: P(X x) = P(X x A)P(A) + P(X x B)P(B) F(x) = F(x A)P(A) + F(x B)P(B) (Übrigens, der Ergebnisraum mit den Elementarereignissen für die Maschinenwahl ist Ω = {A, B}. Die hier verwendete σ-algebra für die Maschinenwahl ist gegeben durch F = {Ω, A, B, }.) In unserem Beispiel haben wir genau zwei Elementarereignisse. Der hierfür genannte Zusammenhang lässt sich auf n diskrete Elementarereignisse Ω = {A 1,A 2,...,A n } erweitern: F(x) = F(x A 1 )P(A 1 ) + F(x A 2 )P(A 2 ) + F(x A n )P(A n ) (*) 15

Bisher haben wir die Bedingung in Form von Ereignissen und nicht in Form von Zufallsvariablen definiert. Ein Beispiel für letzteres wäre, wenn zur Ermittlung des Auszahlungsbetrags nur eine Maschine zur Verfügung steht, deren Funktionsweise aber von dem vorherigen Auszahlungsbetrag Z abhängt. Dann lautet die bedingte Verteilungsfunktion F(x Z = z), wobei Z = z bedeutet, dass die Bedingung lautet, dass Zufallsvariable Z genau die Realisation z annimmt. Um wieder den Zusammenhang zwischen der unbedingten und den bedingten Wahrscheinlichkeiten zu erhalten, müssen wir nun die Summe durch ein Integral ersetzen und die Wahrscheinlichkeit der Bedingung durch die entsprechende Dichtefunktion, da Z ja unendlich viele Werte annehmen kann. Für unser Beispiel ergibt sich dann: bzw. allgemein F(x) = F(x) = 0 F(x Z = z)f(z)dz = F(x Z = z)f(z)dz = 0 F(x z)f(z)dz F(x z)f(z)dz (**) 16

Noch eine wichtige Eigenschaft: Wenn die Zufallszahlen X und Z stochastisch unabhängig sind, dann gilt Bedingte Dichtefunktion F(x z) = F(x). Die bedingte Dichtefunktion kann man heuristisch aus der bedingten Verteilungsfunktion in derselben Weise ableiten, wie wir das weiter oben für unbedingte Dichtefunktion getan haben; lediglich die unbedingten Wahrscheinlichkeiten werden durch bedingte Wahrscheinlichkeiten ersetzt. Die bedingte Dichtefunktion ergibt sich aus P(X x + h A) P(X x A) lim = f(x A). h 0 h Falls man endlich viele Bedingungen hat, dann wird (*) zu f(x) = f(x A 1 )P(A 1 ) + f(x A 2 )P(A 2 ) + f(x A n )P(A n ) (+) Der Zusammenhang (**) lautet dann f(x) = f(x Z = z)f(z)dz = f(x z)f(z)dz. (++) 17

Erwartungswert Betrachten wir wieder unser Beispiel der Auszahlungsmaschinen. Frage: Welchen Auszahlungsbetrag würden Sie im Mittel oder im Durchschnitt erwarten? Antwort: 0 xf(x)dx. Würde die Gewinnauszahlung in n verschiedenen diskreten Beträgen erfolgen, so würde man im Mittel n i=1 x ip(x = x i ) erwarten. Jede mögliche Auszahlung wird mit ihrer Eintrittswahrscheinlichkeit gewichtet aufsummiert. Nicht überraschend bezeichnet man diese Größen auch als Erwartungswert. Allgemein ist der Erwartungswert definiert als E(X) = xf(x)dx, X stetig E(X) = x i P(X = x i ) X diskret 18

Regeln für den Erwartungswert z.b. Wooldridge (2009, Appendix B) 1. Für jede Konstante c gilt E[c] = c. 2. Für alle Konstanten a und b und Zufallsvariablen X und Y gilt E[aX + by ] = ae(x) + be(y ). 3. Sind die Zufallsvariablen X und Y unabhängig, gilt Bedingter Erwartungswert E(Y X) = E(Y )E(X). Bisher haben wir nicht darauf geachtet, welche Maschine bei der Auszahlungsermittlung zum Einsatz kommt. Interessieren wir uns hingegen für die erwartete Auszahlung, wenn Maschine A im Einsatz ist, dann müssen wir den bedingten Erwartungswert berechnen E(X A) = 0 xf(x A)dx. 19

Dies geschieht einfach, indem man die unbedingte Dichte f(x) durch die bedingte Dichte f(x A) ersetzt und die Bedingung in der Notation des Erwartungswertes angibt. Entsprechend lässt sich die erwartete Auszahlung für Maschine B berechnen als E(X B) = Allgemein erhält man für diskrete Bedingungen E(X A) = xf(x A)dx, 0 xf(x B)dx. X stetig, E(X A) = x i P(X = x i A), bzw. für stetige Bedingungen E(X Z = z) = xf(x Z = z)dx, E(X Z = z) = x i P(X = x i Z = z), X diskret, X stetig, X diskret. 20

Beachte: Häufig verwendet man auch die Kurzformen, so auch in Wooldridge (2009), E(X z) = xf(x z)dx, X stetig, E(X z) = x i P(X = x i z), X diskret. Entsprechend dem Zusammenhang zwischen unbedingten und bedingten Wahrscheinlichkeiten, existiert ein ähnlicher Zusammenhang auch zwischen dem unbedingten und den bedingten Erwartungswerten. Er lautet E(X) = E [E(X Z)] und wird als Law of iterated expectations (LIE) bezeichnet. 21

Beweisskizze: E(X) = xf(x)dx [ ] = x f(x z)f(z)dz dx (Einsetzen von (++)) = xf(x z)f(z)dzdx = xf(x z)dxf(z)dz (Vertauschen von dx und dz) } {{ } E(X z) = E(X z)f(z)dz =E [E(X Z)] In unserem Beispiel mit den 2 Maschinen ergibt das Gesetz der iterierten Erwartungen E(X) = E(X A)P(A) + E(X B)P(B). Dieses Beispiel macht auch deutlich, dass die bedingten Erwartungswerte E(X A) und E(X B) Zufallszahlen sind, die gewichtet mit ihren Eintrittswahrscheinlich- 22

keiten P(A) und P(B) den Erwartungswert E(X) ergeben. Man stelle sich vor, man kennt vor Beginn des Spiels nur die beiden bedingten Erwartungswerte, aber nicht welche Maschine zum Einsatz kommen wird. Dann ist der erwartete Auszahlungsbetrag gerade E(X) und wir müssen die beiden bedingten Erwartungswerte als Zufallsvariablen ansehen. Sobald man weiß, welche Maschine zum Einsatz gekommen ist, ist der dazugehörige bedingte Erwartungswert die Realisation der Zufallsvariablen. Diese Eigenschaft gilt ganz allgemein für bedingte Erwartungswerte. Regeln für bedingte Erwartungen z.b. Wooldridge (2009, Appendix B) 1. Für jede Funktion c( ) gilt 2. Für alle Funktionen a( ) und b( ) gilt E[c(X) X] = c(x). E[a(X)Y + b(x) X] = a(x)e(y X) + b(x). 23

3. Sind die Zufallsvariablen X und Y unabhängig, gilt E(Y X) = E(Y ). 4. Law of iterated expectations (LIE) 5. E(Y X) = E[E(Y X, Z) X]. E[E(Y X)] = E(Y ). 6. Falls E(Y X) = E(Y ), dann Cov(X,Y ) = 0. 7. Falls E(Y 2 ) < und E[g(X) 2 ] < für eine beliebige Funktion g( ), dann gelten E{[Y E(Y X)] 2 X} E{[Y g(x)] 2 X} E{[Y E(Y X)] 2 } E{[Y g(x)] 2 }. 24

Beachte: E(Y ) = 0 E(Y X) = 0. Cov(Y, X) = 0 E(Y X) = 0. Cov(Y, X) = 0 und E(Y ) = 0 E(Y X) = E[XE(Y X)] = 0. Beispiel: Für Y = X 2 und E(X) = E(X 3 ) = 0 gilt Cov(Y, X) = 0, da Cov(X 2, X) = E(X 3 ) E(X 2 )E(X) = 0, aber E(Y X) = X 2 0. 25

Literaturverzeichnis Casella, G. & Berger, R. L. (2002), Statistical Inference, Thomson. Hassler, U. (2007), Stochastische Integration und Zeitreihenmodellierung, Springer, Berlin, Heidelberg. Wooldridge, J. M. (2009), Introductory Econometrics. A Modern Approach, 4th edn, Thomson South-Western. 26