Einführung in die Stochastik

Größe: px
Ab Seite anzeigen:

Download "Einführung in die Stochastik"

Transkript

1 Einführung in die Stochastik Wahrscheinlichkeitstheorie und Statistik mit R Tobias Hell Histogram of x Density x Skriptum zu den Vorlesungen Stochastik 1 und Statistik Universität Innsbruck, 2015/16

2

3 Vorwort Die Stochastik als Teilgebiet der Mathematik setzt sich aus den Bereichen Wahrscheinlichkeitstheorie und Statistik zusammen, so auch dieses zweiteilige Skriptum, es umfasst die Inhalte der 2013/2014 an der Universität Innsbruck abgehaltenen Vorlesungen Stochastik 1 und Statistik. Der erste Teil beinhaltet eine Einführung in die Wahrscheinlichkeitstheorie und orientiert sich strukturell sowie an zahlreichen Stellen inhaltlich am englischsprachigen Skriptum [8] und teils an [14]. Des Weiteren dienten abschnittsweise Teile und Aufgaben der Skripten [10, 16, 22] sowie der Bücher [19, 1, 6, 2] als Vorlage. Im zweiten Teil ndet die Wahrscheinlichkeitstheorie Anwendung in der Statistik. Einige Inhalte dieses Parts sind an die Bücher [4, 20, 17, 5, 9] sowie die beiden Skripten [15, 10] angelehnt, auÿerdem stammen vereinzelt Aufgaben aus diesen Büchern und Skripten. An einigen Stellen wird die Statistik-Software R verwendet, genauere Informationen, das Manual [21] sowie die Software selbst sind unter frei verfügbar. Programmcode ist in diesem Skriptum stets in grauen Boxen verpackt. > x =17; y =25; > x + y [1] 42 Der Anhang beinhaltet eine kurze Einführung in R, welche sich an [21] orientiert. Des Weiteren nden sich am Ende einiger Kapitel Schulaufgaben, wovon einige Schulbüchern entnommen sind. Zahlreiche Aufgaben (falls nicht anders angegeben) stammen beinahe unverändert aus dem unter verfügbaren Aufgabenpool zur Vorbereitung auf die standardisierte Reifeprüfung in Mathematik (Stand: Februar 2013). Es sei betont, dass einige dieser Aufgabenstellungen meiner Meinung nach unnötig unmathematisch sind und daher sollte man sich mit diesen Aufgaben besonders kritisch auseinandersetzen. i

4 ii Vielen Dank an Florian Baumgartner, Ingrid Blumthaler, Georg Spielberger, Gregor Staggl, Florian Stampfer und Alexander Steinicke für beigesteuerte Übungsaufgaben sowie zahlreiche Anregungen. Insbesondere danke ich Christel Geiÿ für ihre konstruktive Kritik und das Suchen und Finden unzähliger Tippfehler, vor allem in den ersten Versionen des Statistikteils. Innsbruck, Februar 2013

5 Inhaltsverzeichnis I Wahrscheinlichkeitstheorie 1 1. Maÿ- und Wahrscheinlichkeitsräume Sigma-Algebren Maÿe und Wahrscheinlichkeitsmaÿe Beispiele diskreter Wahrscheinlichkeitsräume Binomialverteilung Hypergeometrische Verteilung Poisson-Verteilung Geometrische Verteilung Bedingte Wahrscheinlichkeiten und Unabhängigkeit Fortsetzung von Maÿen Fortsetzungssatz von Carathéodory Eindeutigkeit von Maÿen Produkträume Lebesgue-Maÿ Nicht Lebesgue-messbare Mengen Beispiele kontinuierlicher Wahrscheinlichkeitsräume Gleichverteilung Exponentialverteilung Normalverteilung Übungsaufgaben Schulaufgaben Kontrollfragen Messbare Abbildungen und Zufallsvariable Messbare Abbildungen Eigenschaften messbarer Abbildungen Bildmaÿ Verteilung und Verteilungsfunktion Unabhängigkeit von Zufallsvariablen Übungsaufgaben Schulaufgaben Kontrollfragen iii

6 iv Inhaltsverzeichnis 3. Integration und Erwartungswert Einfache Funktionen Konstruktion des Integrals Erster Schritt: Integral einfacher Funktionen Zweiter Schritt: Integral nicht-negativer Funktionen Dritter Schritt: Integral messbarer Funktionen Substitution und Dichten Klassische Sätze der Integrationstheorie Ungleichungen Erwartungswert und Varianz Gesetze der groÿen Zahlen und zentraler Grenzwertsatz Übungsaufgaben Schulaufgaben Kontrollfragen II Statistik Einleitung und Überblick Was ist Statistik? Einige Beispiele Datenerhebung Stichproben Typische Fragestellungen Übungsaufgaben Schulaufgaben Kontrollfragen Deskription und Exploration Typen von Merkmalen Empirische Verteilung Dichten und Histogramme Dichteschätzung Statistische Maÿzahlen Regression Übungsaufgaben Schulaufgaben Kontrollfragen

7 Inhaltsverzeichnis v 6. Schätzen Parameterschätzung Maximum-Likelihood-Prinzip Kondenzschätzung Kondenzintervall für den Erwartungswert bei bekannter Varianz Statistische Gröÿen normalverteilter Daten Kondenzintervall für den Erwartungswert bei unbekannter Varianz Kondenzintervalle für die Varianz Übungsaufgaben Schulaufgaben Kontrollfragen Parametrische Tests Problemstellung und grundlegende Begrie Vorgehen bei einem Hypothesentest Gütefunktion, Macht und p-wert Einstichprobenprobleme Einfacher Gauÿ-Test Einfacher t-test χ 2 -Streuungstest Zweistichprobenprobleme Doppelter Gauÿ-Test Doppelter t-test F -Test Welch-Test Überblick: Tests für normalverteilte Daten Einfache Varianzanalyse Übungsaufgaben Schulaufgaben Kontrollfragen Nichtparametrische Tests Anpassungstests Kolmogorow-Smirnow-Anpassungstests χ 2 -Anpassungstest χ 2 -Unabhängigkeitstest Vorzeichentest Vorzeichentest für das Einstichprobenproblem Vorzeichentest für verbundene Stichproben Bemerkung zum Vorzeichentest und Rang-Tests Übungsaufgaben

8 vi Inhaltsverzeichnis Kontrollfragen Zeitreihen Komponentenmodelle Trendbestimmung Globale Regressionsansätze Lokale Ansätze Bestimmung der Saison Übungsaufgaben A. Eine kurze Einführung in R 291 Übungsaufgaben B. Projektaufgaben 305 C. Antwortschlüssel zu den Kontrollfragen 307

9 Notation Es seien Ω eine Menge und A, B Ω. Weiters sei I eine beliebige Indexmenge. Wir verwenden die folgenden Bezeichnungen und Schreibweisen. P(Ω) := {D Ω} (Potenzmenge von Ω) Mit Ω bezeichnen wir die Anzahl der Elemente von Ω. {a i } i I Ω I... über I indizierte Familie von Elementen in Ω A B := {ω Ω: ω A ω B} A B := {ω Ω: ω A ω B} A \ B := {ω Ω: ω A ω / B} A c =: Ω \ A := {ω Ω: ω / A} = {} (Vereinigung) (Durchschnitt) (Mengendierenz) (Komplement) (leere Menge) Gilt A B =, so nennen wir A und B disjunkt. Sind A und B disjunkt, so schreiben wir A B für die disjunkte Vereinigung. N := {1, 2,...} und N 0 := N {0} (natürliche Zahlen) R... reelle Zahlen Q... rationale Zahlen χ A : Ω {0, 1}: χ A (ω) := { 1, ω A, 0, ω / A. (Indikatorfunktion von A) vii

10

11 Teil I Wahrscheinlichkeitstheorie 1

12

13 Kapitel 1 Maÿ- und Wahrscheinlichkeitsräume Was ein Punkt, ein rechter Winkel, ein Kreis ist, weiÿ ich schon vor der ersten Geometriestunde, ich kann es nur noch nicht präzisieren. Ebenso weiÿ ich schon, was Wahrscheinlichkeit ist, ehe ich es definiert habe. H. Freudenthal 1 Die Wahrscheinlichkeitstheorie dient der Modellierung zufälliger Phänomene, als Grundlage dafür wird in diesem Kapitel das Konzept des Wahrscheinlichkeitsraums eingeführt, welches auf eine Publikation von A. N. Kolmogorow 2 im Jahre 1933 zurückgeht. Ein Wahrscheinlichkeitsraum ist ein Tripel (Ω, F, P) bestehend aus den folgenden drei Komponenten. Die Menge Ω wird als Ergebnismenge oder Menge der Elementarereignisse bezeichnet, ein Element ω Ω als Elementarereignis oder Zustand. Bei dem Mengensystem F P(Ω) handelt es sich um eine σ-algebra, welche man auch den Ereignisraum nennt. Dementsprechend heiÿt eine Menge A F Ereignis, wobei man auch von einer beobachtbaren Teilmenge von Ω spricht. Das Wahrscheinlichkeitsmaÿ P ordnet jedem Ereignis A F seine Wahrscheinlichkeit P(A) [0, 1] zu, welche beschreibt, wie sicher das Ereignis A eintritt. Mit einem Wahrscheinlichkeitsraum wollen wir ein Zufallsexperiment modellieren, wobei es sich dabei um einen zufälligen Vorgang handelt, auf den folgendes zutrit: Die Bedingungen, unter denen das Experiment durchgeführt wird, die sogenannten Versuchsbedingungen, sind genau festgelegt. Alle möglichen Ausgänge des Experiments sind im Vorhinein bekannt. Das Experiment kann, zumindest theoretisch, beliebig oft unter genau denselben Versuchsbedingungen wiederholt werden. Zufallsexperimente können sich wesentlich von etwa den Experimenten der klassischen Physik unterscheiden, denn dort herrscht das starke Kausalprinzip, nach welchem ähnliche Ursachen auch ähnliche Wirkungen zur Folge haben. Wirft man beispielsweise einen 1 Hans Freudenthal, , niederländischer Mathematiker und Wissenschaftsdidaktiker 2 Andrei Nikolajewitsch Kolmogorow, , russischer Mathematiker 3

14 4 1. Maÿ- und Wahrscheinlichkeitsräume Ball mehrmals aus etwa selber Höhe, so wird dieser jedes Mal nach etwa derselben Zeit am Boden aufschlagen, sofern die Versuchsbedingungen bei jeder Durchführung des Experiments gleich sind. Die nachfolgenden Beispiele sollen einen Einblick geben, wie ein Wahrscheinlichkeitsraum zur Modellierung von Zufallsexperimenten verwendet werden kann. Beispiel 1.1 (Wahrscheinlichkeitsräume) Wir betrachten das Zufallsexperiment, welches aus dem Wurf eines Würfels besteht. Zur Modellierung dieses Experiments wählen wir Ω := {1, 2,..., 6}. Angenommen, jemand würfelt und teilt uns lediglich mit, ob die Augenzahl gerade oder ungerade ist, so können wir nicht entscheiden, ob ein bestimmtes Elementarereignis ω Ω eingetreten ist oder nicht. Dies wird durch die Wahl der σ-algebra F := {, {1, 3, 5}, {2, 4, 6}, Ω} P(Ω) zum Ausdruck gebracht, F beschreibt also die uns zur Verfügung stehende Information. Soll es sich um einen fairen Würfel handeln, so werden wir intuitiv das Wahrscheinlichkeitsmaÿ P durch P (A) := A Ω = A 6 für A F denieren. Dann ist die Wahrscheinlichkeit eine gerade Augenzahl zu erhalten P ({2, 4, 6}) = 3 6 = 1 2. Eines der einfachsten Zufallsexperimente ist wohl der Wurf einer Münze. Wir wählen Ω := {K, Z}, wobei K für Kopf und Z für Zahl steht. Als geeigneter Ereignisraum dient nun F := P(Ω), was bedeutet, dass alle möglichen Ereignisse beobachtbar sind. Handelt es sich um eine faire Münze, so würde man vermutlich der Intuition entsprechend P mit P ({K}) = P ({Z}) = 1 2 wählen. Beispielsweise wäre Ω := {(K, K), (K, Z), (Z, K), (Z, Z)} eine mögliche Wahl der Ergebnismenge für den Wurf zweier Münzen.

15 1. Maÿ- und Wahrscheinlichkeitsräume 5 Um die zufällige Lebensdauer einer Glühbirne zu modellieren, liegt die Wahl Ω := [0, ) nahe. Was ist in dieser Situation ein sinnvoller Ereignisraum F und welches Wahrscheinlichkeitsmaÿ P erscheint passend? Diesen Fragen werden wir zu einem späteren Zeitpunkt genau beantworten können, dazu bedarf es jedoch einiger Vorarbeit. 1.1 Sigma-Algebren Wir wenden uns nun den maÿtheoretischen Grundlagen der Wahrscheinlichkeitstheorie zu. Dabei steht an erster Stelle der Begri der σ-algebra. Wie bereits eingangs erwähnt, handelt es sich bei einer σ-algebra um die Menge aller beobachtbaren Ereignisse. Darüber hinaus sind dies die natürlichen Mengensysteme der zufälligen Ereignisse, auf denen Maÿe und somit insbesondere Wahrscheinlichkeitsmaÿe in konsistenter Weise deniert werden können. Definition 1.2 (σ-algebra, Algebra, messbarer Raum) Es sei Ω eine beliebige Menge. Ein Mengensystem F P(Ω) wird σ-algebra auf Ω genannt, falls die folgenden drei Bedingungen erfüllt sind: (σ1) Ω F (σ2) A c := Ω \ A F für alle A F (komplementstabil) (σ3) n=1 A n F für alle Folgen {A n } n=1 F N (σ-vereinigungsstabil) Ein Element A von F wird Ereignis genannt und es tritt ein, falls ω A, es tritt nicht ein, wenn ω / A. Man nennt A F auch beobachtbar oder messbar. Das Paar (Ω, F) bezeichnet man als messbaren Raum. Ein Mengensystem A P(Ω) welches (σ1), (σ2) und (3) A B A für alle A, B A (vereinigungsstabil) erfüllt, wird Algebra auf Ω genannt. Bemerkung. Es sei F eine σ-algebra auf Ω. Man beachte, dass aufgrund der Komplementstabilität, jede σ-algebra die leere Menge enthält. Das unmögliche Ereignis und das sichere Ereignis Ω sind also stets beobachtbar. Oensichtlich ist F auch eine Algebra auf Ω, denn aus der σ-vereinigungsstabilität folgt die Vereinigungsstabilität, indem man für A, B F die σ-vereinigungsstabilität auf die Folge {A n } n=1 F mit A 1 = A, A 2 = B und A n = für n {3, 4,...} anwendet.

16 6 1. Maÿ- und Wahrscheinlichkeitsräume Ist Ω <, so gilt F ist σ-algebra F ist Algebra. Im Allgemeinen ist jedoch nicht jede Algebra eine σ-algebra. Oftmals werden σ-algebren und Algebren auch als σ-körper und Körper bezeichnet. Beispiel 1.3 (σ-algebren) Wir beginnen mit den beiden trivialen σ-algebren. Man überzeugt sich leicht, dass es sich bei der Potenzmenge P(Ω) um eine σ-algebra handelt. Diese ist bezüglich der Mengeninklusion die gröÿtmögliche σ-algebra. Die kleinste σ-algebra lautet {, Ω}. Für jede Menge A Ω ist {, A, A c, Ω} eine σ-algebra. Nun greifen wir den Wurf des Würfels aus Beispiel 1.1 nochmals auf. Die Ergebnismenge lautet dabei Ω = {1,..., 6} und F = {, {1, 3, 5}, {2, 4, 6}, Ω} ist somit eine σ-algebra auf Ω. Weiters entspricht dem Würfelergebnis gerade Augenzahl das Ereignis Mittels der Ergebnismenge A := {2, 4, 6} F. Ω := {(K, K), (K, Z), (Z, K), (Z, Z)} kann das Werfen zweier Münzen modelliert werden, wobei als σ-algebra die Potenzmenge F := P(Ω) gewählt werden kann. Das Ereignis A := {(K, Z), (Z, K), (K, K)} entspricht dem Ausgang mindestens eine Münze fällt auf Kopf des Zufallsexperiments. Als sinnvolle Ergebnismenge, um die zufällige Lebensdauer einer Glühbirne zu modellieren, haben wir bereits Ω = [0, ) erkannt. Den Ausgang die Glühbirne funktioniert länger als 200 Stunden könnten wir nun durch A := (200, ) ausdrücken. Was ist in diesem Fall jedoch die passende σ-algebra? Wie wir sehen werden, ist es jedenfalls nicht die Potenzmenge, diese wäre zu groÿ.

17 1. Maÿ- und Wahrscheinlichkeitsräume 7 Dass nicht jede Algebra auch eine σ-algebra ist, wird aus den beiden nachfolgenden Beispielen ersichtlich. Beispiel 1.4 (Algebra, aber keine σ-algebra) Es sei Ω eine Menge mit Ω =. Dann ist A := {A Ω: A oder A c ist endlich} eine Algebra auf Ω, welche nit-konite Algebra auf Ω genannt wird. Diese ist jedoch keine σ-algebra. Das Mengensystem A := {(a 1, b 1 ]... (a n, b n ]: n N, a 1 b 1... a n b n }, wobei wir für a R := R {, } die Konventionen (a, ] := (a, ) und (a, a] := treen, ist eine Algebra auf R, vgl. Aufgabe (1.9), jedoch handelt es sich um keine σ-algebra, denn A n := ( 0, 1 1 n] A für alle n N, aber n N A n = (0, 1) / A, vgl. Aufgabe (1.18). Auf die Algebra A werden wir bei der Konstruktion des Lebesgue-Maÿes wieder treen. Eine σ-algebra ist komplementstabil, daher ist die Forderung der σ-vereinigungsstabilität äquivalent zu jener der σ-schnittstabilität, wie wir im Folgenden zeigen werden. Dazu wird folgender Satz benötigt, dessen Beweis als Übung verbleibt. Satz 1.5 (De Morgansche 3 Regeln) Es sei Ω eine Menge und es bezeichne J eine beliebige Indexmenge. Für eine Familie {A j } j J von Teilmengen von Ω gilt ( A j)c = j J j J Beweis. Aufgabe (1.5). A c j und ( j J A j)c = j J A c j. 3 Augustus De Morgan, , englischer Mathematiker

18 8 1. Maÿ- und Wahrscheinlichkeitsräume Ein Mengensystem G P(Ω) wird σ-schnittstabil genannt, falls A n G für alle Folgen {A n } n=1 G N. n=1 Satz 1.6 (σ- -stabil σ- -stabil) Für ein komplementstabiles Mengensystem G P(Ω) gilt G ist σ-vereinigungsstabil G ist σ-schnittstabil. Beweis. Die Aussage folgt direkt aus den De Morganschen Regeln, denn ist beispielsweise G ein σ-vereinigungsstabiles Mengensystem, so erhalten wir für die Folge {A n } n=1 GN, dass ( c A n = An) c G. n=1 Die andere Richtung zeigt man analog. n=1 Viele σ-algebren können nicht explizit angegeben werden, jedoch kann man nichtsdestotrotz in der Praxis sehr gut mit ihnen umgehen. Etwa liefert nachfolgender Satz ein einfaches Verfahren um σ-algebren zu konstruieren. Satz 1.7 (Schnitte von σ-algebren) Es sei {F j } j J eine Familie von σ-algebren auf Ω, wobei J eine beliebige Indexmenge bezeichnet. Dann ist F := j J F j ebenfalls eine σ-algebra auf Ω. Beweis. Wir weisen die drei denierenden Eigenschaften einer σ-algebra nach. (σ1) Da Ω F j für alle j J, ist Ω F j = F. j J (σ2) Komplementstabilität: Es sei A F. Dann ist A F j und somit A c F j für alle j J, woraus unmittelbar A c F folgt. Somit ist F komplementstabil.

19 1. Maÿ- und Wahrscheinlichkeitsräume 9 (σ3) σ- -Stabilität: Es sei {A n } n=1 eine Folge in F. Für jedes j J gilt F F j und daher ist {A n } n=1 F j N, somit gilt A n F j, n=1 denn F j ist eine σ-algebra und daher insbesondere σ-vereinigungsstabil. Dies gilt für alle j J und somit ist folglich auch F σ-vereinigungsstabil. A n F, n=1 Damit ist gezeigt, dass der Durchschnitt von σ-algebren wieder eine σ-algebra ist. Bemerkung. Die Vereinigung zweier σ-algebren ist im Allgemeinen keine σ-algebra, vgl. Aufgabe (1.11). Obiger Satz gibt Anlass die von einem Mengensystem erzeugte σ-algebra zu denieren. Satz und Definition 1.8 (Erzeugte σ-algebra) Zu G P(Ω) existiert eine bezüglich der Mengeninklusion kleinste σ-algebra, welche G enthält. Setzt man J G := {F ist σ-algebra auf Ω mit G F}, so ist diese durch σ(g) := F J G F gegeben und wird von G erzeugte σ-algebra genannt. Das Mengensystem G heiÿt dann Erzeuger von σ(g). Beweis. Die Menge J G ist nicht-leer, denn P(Ω) ist eine σ-algebra auf Ω, welche G enthält. Nach Satz 1.7 ist somit σ(g) = F J G F eine σ-algebra und es bleibt noch zu zeigen, dass dies die kleinste ist, welche G enthält. Jede σ-algebra F mit G F liegt in J G und daher gilt σ(g) F, was den Beweis vollendet. Bemerkung. Insbesondere gilt für G 1, G 2 P(Ω) mit G 1 G 2, dass σ(g 1 ) σ(g 2 ), siehe Aufgabe (1.12).

20 10 1. Maÿ- und Wahrscheinlichkeitsräume Wir sind nun in der Lage eine der wichtigsten σ-algebren zu konstruieren, die Borel-σ- Algebra auf R d, wobei d N. Zuvor jedoch wiederholen wir die Denition oener und abgeschlossener Mengen in R d. Definition 1.9 ( Offene und abgeschlossene Mengen in R d) Eine Menge O R d heiÿt oen in R d, wenn zu jedem x O ein ε > 0 existiert, sodass { } B ε (x) = y R d : x y < ε O, wobei die euklidische Norm auf R d bezeichnet. Die Menge A R d wird abgeschlossen in R d genannt, wenn ihr Komplement A c = R d \ A oen ist. Definition 1.10 ( Borel 4 -σ-algebra auf R d) Die von { } G O := O R d oen erzeugte σ-algebra auf R d wird Borel-σ-Algebra genannt und mit B ( R d) bezeichnet, ein Element B B ( R d) als Borel-Menge oder als Borel-messbar. Bemerkung. Die Borel-σ-Algebra auf R d wird auch von G A := { } A R d abgeschlossen erzeugt, es gilt also σ (G A ) = σ (G O ) = B ( R d). Für A G A folgt A c G O und somit A σ (G O ). Daher ist G A σ (G O ), dies wiederum impliziert σ (G A ) σ (G O ). Die umgekehrte Inklusion zeigt man analog, vgl. Aufgabe (1.17). Satz 1.11 (Erzeuger der Borel-σ-Algebra) Die folgenden Mengensystem erzeugen B(R). G O = {O R oen}, G A = {A R abgeschlossen}, G 1 = {(a, b): a < b}, G 2 = {[a, b]: a < b}, G 3 = {(a, b]: a < b}, G 4 = {[a, b): a < b}, G 5 = {(, x): x R}, G 6 = {(, x]: x R}. Beweis. Die Aussage des Satzes ist auf mehrere Aufgaben verteilt, vgl. (1.17), (1.20) und (1.21). In vielen Fällen möchte man etwa anstelle der σ-algebra B(R) auf R eine gleichwertige σ-algebra auf beispielsweise dem abgeschlossenen Einheitsintervall [0, 1] betrachten. Wie wir nun sehen werden, kann dies durch die Einschränkung von B(R) auf die Menge [0, 1] erreicht werden. 4 Félix Édouard Justin Émile Borel, , französischer Mathematiker und Politiker

21 1. Maÿ- und Wahrscheinlichkeitsräume 11 Definition 1.12 (Spur-σ-Algebra) Es sei F eine σ-algebra auf Ω und A Ω. Dann heiÿt F A := {B A: B F} Spur-σ-Algebra oder Einschränkung von F auf A. Zu zeigen, dass es sich bei einer Spur-σ-Algebra tatsächlich um eine σ-algebra handelt, verbleibt als Übung, vgl. Aufgabe (1.12). Lemma 1.13 (Spur-σ-Algebra und Erzeuger) Für ein Mengensystem G P(Ω) und A Ω gilt σ ({B A: B G}) = {B A: B σ(g)}. Beweis. Wir setzen G A := {B A: B G} und σ(g) A := {B A: B σ(g)}. Aus G σ(g) folgt G A σ(g) A. Da σ(g) A eine σ-algebra ist, gilt somit Wir betrachten das Mengensystem σ(g A) σ(g) A. Σ := {B σ(g): B A σ(g A)}. Oenbar ist Σ eine σ-algebra und somit erhalten wir σ(g) σ(σ) = Σ σ(g). Also ist σ(g) = Σ und damit die Aussage gezeigt. Gegeben sei die Borel-Menge B B ( R d). Dann wird die Spur-σ-Algebra B ( R d) B = {A B : A B ( R d)} mit B(B) bezeichnet und Borel-σ-Algebra auf B genannt. Des Weiteren gilt nach Lemma 1.13 ({ }) B (B) = σ B O : O R d oen, vgl. Aufgabe (1.22). Beispielsweise erhält man so B ([0, 1]), die Borel-σ-Algebra auf dem abgeschlossenen Einheitsintervall [0, 1].

22 12 1. Maÿ- und Wahrscheinlichkeitsräume 1.2 Maÿe und Wahrscheinlichkeitsmaÿe In diesem Abschnitt führen wir nun die letzte Komponente eines Wahrscheinlichkeitsraums (Ω, F, P) ein, das Wahrscheinlichkeitsmaÿ P. Im Weiteren bezeichne F stets eine σ-algebra auf Ω. Wir führen nun die für die Denition eines Maÿes entscheidende Eigenschaft ein. Definition 1.14 (σ-additivität) Eine Mengenfunktion µ: F [0, ] nennt man σ-additiv, wenn ( ) µ A n = µ(a n ) n=1 für alle Folgen {A n } n=1 F N paarweise disjunkter messbarer Mengen. n=1 Definition 1.15 (Maÿ und Wahrscheinlichkeitsmaÿ) Eine Mengenfunktion µ: F [0, ] heiÿt Maÿ auf (Ω, F), falls (µ1) µ( ) = 0, (µ2) µ eine σ-additive Abbildung ist. Das Tripel (Ω, F, µ) bezeichnet man dann als Maÿraum. Ist P ein Maÿ auf (Ω, F) mit (P1) P(Ω) = 1, (P ist normiert) so nennt man P ein Wahrscheinlichkeitsmaÿ auf (Ω, F) und das Tripel (Ω, F, P) einen Wahrscheinlichkeitsraum. Bemerkung. Jedes Maÿ µ ist insbesondere additiv, d. h. für paarweise disjunkte Ereignisse A 1,..., A n F, n N, gilt ( n ) µ A i = i=1 n µ(a i ). i=1 Dies folgt direkt aus der σ-additivität durch Verwendung der Folge {A i } i=1 F N mit A i = für i > n. Ist auÿerdem Ω endlich, so ist das Maÿ µ genau dann σ-additiv, wenn es additiv ist. Definition 1.16 (Endliche und σ-endliche Maÿe) Ein Maÿ µ auf (Ω, F) heiÿt endlich, falls µ(ω) <, und σ-endlich, wenn eine Folge {Ω n } n=1 F N existiert, sodass Ω = Ω n und µ(ω n ) < für alle n N. n=1

23 1. Maÿ- und Wahrscheinlichkeitsräume 13 Oensichtlich ist jedes Wahrscheinlichkeitsmaÿ ein endliches Maÿ, und jedes endliche Maÿ insbesondere σ-endlich. Wir widmen uns nun einigen ersten Eigenschaften von Maÿen bzw. Wahrscheinlichkeitsmaÿen. Satz 1.17 (Eigenschaften von Wahrscheinlichkeitsmaÿen) Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Dann gelten für A, B F die folgenden Aussagen: (1) B \ A F und P(B \ A) = P(B) P(A B) (2) P(A B) = P(A) + P(B) P(A B) (3) A B P(A) P(B) (Monotonie) (4) P (A c ) = 1 P(A) (1), (2) und (3) gelten nicht nur für Wahrscheinlichkeitsmaÿe, sondern für beliebige Maÿe. Beweis. Da B \ A = B A c, vgl. Aufgabe (1.3), ist B \ A F und aus A B = A (B \ A) und B = (A B) (B \ A), vgl. Aufgabe (1.4), und der Additivität von P folgt daher P(A B) = P(A) + P(B \ A) und P(B) = P(A B) + P(B \ A), damit sind (1) und (2) gezeigt. Ist nun A B, so erhalten wir aus (1) P(B) = P(A) + P(B \ A) P(A) und somit (3). Anwendung von (1) führt auf P ( A c) = P(Ω \ A) = P(Ω) P(Ω A) = 1 P(A), wobei wir nun erstmals verwendet haben, dass es sich bei P nicht nur um ein Maÿ, sondern um ein Wahrscheinlichkeitsmaÿ handelt. Bemerkung. Obiger Satz gibt Anlass zu einigen Folgerungen und Denitionen. Die Mengenfunktion P: F [0, 1] ist genau dann ein Wahrscheinlichkeitsmaÿ auf dem messbaren Raum (Ω, F), wenn (P1) P(Ω) = 1, (P2) P ist σ-additiv.

24 14 1. Maÿ- und Wahrscheinlichkeitsräume Zu einem Ereignis A F gibt P(A) [0, 1] die Wahrscheinlichkeit an, dass A eintritt. Ist P(A) = 0, so nennt man A ein fast unmögliches Ereignis, falls P(A) = 1 gilt, bezeichnet man A als fast sicheres Ereignis, dieses tritt fast sicher ein. Ist µ ein Maÿ auf (Ω, F), so nennt man eine Menge A F mit µ(a) = 0 auch Nullmenge. Das Ereignis A c wird das zu A F komplementäre Ereignis genannt. Nach Satz 1.17 ist die Wahrscheinlichkeit P(A) genau dann bekannt, wenn es die Komplementärwahrscheinlichkeit P (A c ) ist, denn P (A c ) = 1 P(A). Zu wissen mit welcher Wahrscheinlichkeit ein Ereignis eintritt ist also gleichbedeutend damit, zu wissen mit welcher Wahrscheinlichkeit es nicht eintritt. Beispiel 1.18 (Dirac 5 -Maÿe und Zählmaÿe) Es folgen erste Beispiele von Maÿen. Es sei F eine σ-algebra auf Ω und ω 0 Ω fest. Dann wird durch { 1, ω 0 A, δ ω0 (A) := 0, ω 0 / A, A F, ein Wahrscheinlichkeitsmaÿ auf (Ω, F) deniert, welches man als Dirac- Maÿ oder Punktmaÿ in ω 0 bezeichnet. Die fast sicheren Ereignisse bezüglich δ ω0 sind dann gerade jene, welche das Elementarereignis ω 0 enthalten. Insbesondere Linearkombinationen von Dirac-Maÿen sind von groÿer Bedeutung. Betrachten wir beispielsweise den Wurf einer fairen Münze, so kann dieses Zufallsexperiment mittels des Wahrscheinlichkeitsraums ( {K, Z}, P({K, Z}), 1 2 δ K δ ) Z modelliert werden, vgl. Satz Es sei Ω eine Menge und F := P(Ω). Das durch µ(a) := A, A Ω, denierte Maÿ heiÿt Zählmaÿ auf Ω und es gibt an, aus wievielen Elementarereignissen sich ein Ereignis zusammensetzt. Es handelt sich hierbei oensichtlich um kein Wahrscheinlichkeitsmaÿ, falls Ω 2. Wie bereits aus obigem Beispiel ersichtlich, spielen Linearkombinationen von Wahrscheinlichkeitsmaÿen oft eine wichtige Rolle. 5 Paul Adrien Maurice Dirac, , britischer Physiker und Nobelpreisträger

25 1. Maÿ- und Wahrscheinlichkeitsräume 15 Satz 1.19 (Linearkombination von Wahrscheinlichkeitsmaÿen) Für n N seien P 1,..., P n Wahrscheinlichkeitsmaÿe auf (Ω, F) und α 1,..., α n 0 mit n α k = 1. k=1 Dann ist die Linearkombination n P := α k P k k=1 ebenfalls ein Wahrscheinlichkeitsmaÿ auf (Ω, F). Beweis. Aufgabe (1.24) Definition 1.20 (Laplace 6 -Raum) Es sei Ω eine endliche Menge. Dann wird durch U Ω (A) := A Ω für A Ω ein Wahrscheinlichkeitsmaÿ auf (Ω, P(Ω)) deniert. Man nennt U Ω uniforme Verteilung oder (diskrete) Gleichverteilung auf Ω und den Wahrscheinlichkeitsraum (Ω, P(Ω), U Ω ) Laplace-Raum. Die Gleichverteilung U Ω kann auch als geschrieben werden. U Ω = 1 δ ω Ω ω Ω Beispiel 1.21 (Fairer Würfel) Setzen wir Ω := {1,..., 6}, so modelliert der Laplace-Raum (Ω, P(Ω), U Ω ) den Wurf eines fairen Würfels, denn U Ω ({ω}) = 1 6 für alle ω Ω und somit haben alle Elementarereignisse die gleiche Wahrscheinlichkeit einzutreten. Dies bedeutet, alle Augenzahlen sind gleich wahrscheinlich. Die Gleichverteilung auf Ω lässt sich wiederum als U Ω = Pierre-Simon Marquis de Laplace, , französischer Mathematiker und Astronom 6 k=1 δ k

26 16 1. Maÿ- und Wahrscheinlichkeitsräume darstellen. Dann ist etwa und U Ω (gerade Augenzahl) = U Ω ({2, 4, 6}) = 1 2 U Ω (keine 6) = 1 U Ω ({6}) = 5 6. Ohne die jeweiligen Wahrscheinlichkeiten explizit zu berechnen, kann aus {1} {1, 3, 5} sofort U Ω ({1}) U Ω ({1, 3, 5}) geschlossen werden. Der nachfolgende Satz beinhaltet weitere wichtige Eigenschaften von Maÿen bzw. Wahrscheinlichkeitsmaÿen. Zuerst legen wir jedoch noch zwei Schreibweisen fest. Für eine Folge {A n } n=1 P(Ω)N schreiben wir und wir schreiben A n A, falls A 1 A 2... und A = A n A, falls A 1 A 2... und A = A n, n=1 A n. Satz 1.22 (σ-subadditivität und Stetigkeit) Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Für {A n } n=1 F N gelten die folgenden Aussagen: ( ) (1) P A n P(A n ) (σ-subadditiv) n=1 n=1 (2) Falls A n A, so gilt lim n P(A n) = P(A). (3) Gilt A n A, dann ist lim n P(A n) = P(A). n=1 (Stetigkeit von unten) (Stetigkeit von oben) (1) und (2) gelten nicht nur für Wahrscheinlichkeitsmaÿe, sondern für beliebige Maÿe. Beweis. (1) Wir setzen B 1 := A 1 und B n := A c 1... Ac n 1 A n für n {2, 3,...}. Da B n A n, ist P(B n ) P(A n ). Auÿerdem gilt B i B j = für i j und somit ist ( ) ( ) P A n = P B n = P(B n ) P(A n ). n=1 n=1 (2) Nun setzen wir B 1 := A 1 und B n := A n \ A n 1 für n = 2, 3,... und erhalten A n = n=1 n=1 B n. n=1 n=1

27 1. Maÿ- und Wahrscheinlichkeitsräume 17 Folglich ist ( ) ( ) P A n = P B n = lim n=1 n=1 N N n=1 Aussage (3) ist eine Übung, siehe Aufgabe (1.27). P(B n ) = lim N P(A N). 1.3 Beispiele diskreter Wahrscheinlichkeitsräume Wir bezeichnen einen Wahrscheinlichkeitsraum (Ω, F, P) als diskret, wenn Ω höchstens abzählbar ist. Für endliches Ω haben wir bereits den Laplace-Raum (Ω, P(Ω), U Ω ) als Beispiel eines diskreten Wahrscheinlichkeitsraumes kennengelernt, in diesem Abschnitt folgen nun weitere Binomialverteilung Wir führen die Binomialverteilung anhand eines der einfachsten Zufallsexperimente ein, dem Münzwurf. Problemstellung. Eine Münze falle mit Wahrscheinlichkeit p (0, 1) auf Kopf und mit Wahrscheinlichkeit 1 p auf Zahl. Was ist für n N und k {0,..., n} die Wahrscheinlichkeit, dass man bei n-maligem Werfen der Münze k-mal Kopf erhält? Modellierung. Wir wählen die Ergebnismenge Ω := {0,..., n}, dies entspricht dem gleichzeitigen Werfen n identer Münzen, und die σ-algebra F := P(Ω). Für k Ω gibt ( ) n B n,p ({k}) := p k (1 p) n k k die Wahrscheinlichkeit an, bei n-maligem Werfen der Münze k-mal Kopf zu erhalten. Definition 1.23 (Binomialverteilung) Für n N sei Ω := {0,..., n} und weiters sei p (0, 1). Das Wahrscheinlichkeitsmaÿ n ( ) n B n,p := p k (1 p) n k δ k k k=0 auf (Ω, P(Ω)) heiÿt Binomialverteilung mit Parametern n, der Anzahl der Versuche, und p, der Erfolgswahrscheinlichkeit. Dass es sich bei der Binomialverteilung tatsächlich um ein Wahrscheinlichkeitsmaÿ handelt, folgt aus dem Binomischen 7 Lehrsatz, denn n ( ) n p k (1 p) n k = (p + (1 p)) n = 1, k k=0 7 Giacomo Francesco Alessandro Binomi, , italienischer Mathematiker

28 18 1. Maÿ- und Wahrscheinlichkeitsräume und Satz Abbildung 1.1. Stabdiagramme zur Binomialverteilung B 10,p mit p = 1/2 (links) und p = 1/3 (rechts) Die Linearkombination von Dirac-Maÿen lässt sich sehr gut mittels eines Stabdiagramms veranschaulichen, vgl. Abbildung 1.1. Die mehrfache Durchführung eines Zufallsexperiments, welches nur zwei mögliche Ausgänge zulässt, man spricht hierbei von Erfolg und Misserfolg, nennt man auch Bernoulli 8 -Versuch oder Bernoulli-Prozess. Genauer wird das Zufallsexperiment hierbei höchstens abzählbar oft durchgeführt. Die Binomialverteilung gibt also die Wahrscheinlichkeit an, wie oft sich bei einem endlichen Bernoulli-Versuch Erfolg einstellt. Neben dem Münzwurf liefert das Ziehen mit Zurücklegen von Kugeln aus einer Urne ein Beispiel eines Bernoulli-Versuchs, vgl. Aufgabe (1.30). Beispiel 1.24 (Übertragungsrate) Angenommen, es gibt n Kommunikationskanäle zwischen zwei Standorten A und B, wobei jeder Kanal eine Übertragungsrate von ρ > 0 (z. B. ρ Bits pro Sekunde) besitzt. Werden k der n Kanäle zur Übertragung genutzt, so lautet die Gesamtübertragungsrate ρk, maximal also nρ. Da jedoch jeder der Kanäle unabhängig voneinander nur mit Wahrscheinlichkeit p (0, 1) funktioniert und dementsprechend mit Wahrscheinlichkeit 1 p versagt, erhält man die zufällige Übertragungsrate R = kρ, k {0,..., n}. Wie kann dieses Zufallsexperiment modelliert werden? Wir wählen die Ergebnismenge Ω := {(ω 1,..., ω n ): ω i {0, 1} für i = 1,..., n}, wobei wir ω i = 0 als Versagen des i-ten Kanals interpretieren, ω i = 1 bedeutet, dass dieser funktionsfähig ist. Es bezeichne A k := {ω Ω: ω ω n = k}, k = 0,..., n, 8 Jakob I. Bernoulli, , schweizer Mathematiker und Physiker

29 1. Maÿ- und Wahrscheinlichkeitsräume 19 das Ereignis, dass k der n Kanäle funktionsfähig sind und n k ausfallen. Da man für gewöhnlich nur weiÿ, wieviele der Kanäle ausfallen, jedoch nicht welche, verwenden wir als σ-algebra F := σ ({A k : k = 0,..., n}). Dann kann F als die uns zur Verfügung stehende Information nach Durchführung des Zufallsexperiments interpretiert werden. Als Wahrscheinlichkeitsmaÿ wählen wir P gegeben durch ( ) n P(A k ) := p k (1 p) n k, k = 0,..., n. k Identizieren wir A k mit der natürlichen Zahl k, so entspricht P gerade der Binomialverteilung mit Parameter p auf {0,..., n} Hypergeometrische Verteilung Problemstellung. Von insgesamt N Lotterielosen sind G Gewinnlose. Wie hoch ist die Wahrscheinlichkeit, dass k von n gekauften Losen gewinnen? Modellierung. Wir wählen wiederum Ω := {0,..., n}, dies entspricht dem gleichzeitigen Kauf aller n Lose, und F := P(Ω). Weiters gehen wir davon aus, dass jede Auswahl von n Losen dieselbe Wahrscheinlichkeit hat, von uns gekauft zu werden. Dann lautet die Wahrscheinlichkeit, dass k Gewinnlose unter den n gekauften Losen sind, H n,n,g ({k}) := Anzahl der günstigen Ereignisse Anzahl der möglichen Ereignisse = Definition 1.25 (Hypergeometrische Verteilung) Das Wahrscheinlichkeitsmaÿ ( n G N G ) H n,n,g := k)( n k ( N δ k n) k=0 ( G N G ) k)( n k ( N. n) auf ({0,..., n}, P({0,..., n})) nennt man hypergeometrische Verteilung mit Parametern n, N, G, vgl. Aufgabe (1.29) Poisson-Verteilung Problemstellung. Wir greifen den Münzwurf nochmals auf, die Wahrscheinlichkeit für Kopf sei wiederum p (0, 1), jene für Zahl 1 p. Werfen wir die Münze n-mal, so ist ( ) n P (k-mal Kopf) = p k (1 p) n k. k

30 20 1. Maÿ- und Wahrscheinlichkeitsräume Was geschieht, wenn wir nun 2n-mal werfen dürfen, sich jedoch die Wahrscheinlichkeit für Kopf entsprechend halbiert? Oensichtlich wäre dann ( ) 2n (p ) k ( P (k-mal Kopf) = 1 p 2n k. k 2 2) Nun iterieren wir dies, d. h. wir vergröÿern n während wir p entsprechend verkleinern und damit np konstant halten. Was passiert? Modellierung. Wir wählen Ω := N 0 und F := P(Ω). Es bezeichne p n (0, 1) die Wahrscheinlichkeit für Kopf bei n-maligem Münzwurf. Aus der Analysis wissen wir, dass für eine konvergente Folge {a n } n N R N mit lim n a n =: x gilt, dass ( lim 1 + a ) n n ( = lim 1 + x n = e n n n n) x. Setzen wir daher λ := lim n np n, so erhalten wir ( n B n,pn ({k}) = k n λk k! ) p k n(1 p n ) n k = np n (n 1)p n... (n k + 1)p n k! ( lim 1 λ ) n = λk n n k! e λ =: π λ ({k}), k N 0. Definition 1.26 (Poisson-Verteilung) Das Wahrscheinlichkeitsmaÿ λ k π λ := k! e λ δ k auf (N 0, P(N 0 )) heiÿt Poisson 9 -Verteilung mit Parameter λ > 0. k=0 ( 1 np n ) n n (1 p n ) k Um zu zeigen, dass es sich bei ( N 0, 2 N 0, π λ ) tatsächlich um einen Wahrscheinlichkeitsraum handelt, benötigen wir folgenden Satz. Satz 1.27 (Reihen von Wahrscheinlichkeitsmaÿen) Es sei {α n } n=1 eine Folge nichtnegativer reeller Zahlen mit α n = 1 n=1 und {P n } n=1 eine Folge von Wahrscheinlichkeitsmaÿen auf dem messbaren Raum (Ω, F). Dann ist auch P := α n P n ein Wahrscheinlichkeitsmaÿ auf (Ω, F). n=1 9 Siméon Denis Poisson, , französischer Mathematiker und Physiker

31 1. Maÿ- und Wahrscheinlichkeitsräume 21 Beweis. Wir weisen für P die denierten Eigenschaften eines Wahrscheinlichkeitsmaÿes nach. (P0) Positivität: Oensichtlich gilt P(A) 0 für alle A F, da α n 0 somit α n P n (A) 0 für alle n N. (P1) P ist normiert: Da es sich für jedes n N bei P n um ein Wahrscheinlichkeitsmaÿ handelt, ist P(Ω) = α n P n (Ω) = α n = 1. n=1 (P2) σ-additivität: Es sei {A k } k=1 F N mit A i A j = für i j. Wir setzen A := A k. k=1 n=1 Da α n P n (A) α n für alle n N, ist konvergente Majorante für n=1 Somit konvergiert α n α n P n (A) = n=1 n=1 k=1 α n P n (A). n=1 α n P n (A k ) absolut und die Summationsreihenfolge darf vertauscht werden. Dadurch erhalten wir P(A) = α n P n (A k ) = P(A k ). k=1 n=1 Damit ist gezeigt, dass P ein Wahrscheinlichkeitsmaÿ auf (Ω, F) ist. Nach Satz 1.27 handelt es sich somit bei π λ tatsächlich um ein Wahrscheinlichkeitsmaÿ auf ( N 0, 2 N 0), denn und k=1 λ k k! e λ 0 für alle k N 0 k=0 λ k k! e λ = e λ e λ = 1. Wir haben die Poisson-Verteilung als Grenzwert der Binomialverteilung erhalten, dies halten wir in folgendem Satz fest.

32 22 1. Maÿ- und Wahrscheinlichkeitsräume Satz 1.28 (Poissonscher Grenzwertsatz) Es sei λ > 0 und {p n } n N (0, 1) N eine Folge von Erfolgswahrscheinlichkeiten mit lim n np n = λ. Dann gilt für jedes k N 0, dass lim B n,p n n ({k}) = π λ ({k}). Beispiel 1.29 (Telefonanrufe) Im Schnitt treen in einem Büro innerhalb einer Stunde fünf Telefonanrufe ein. Es bezeichne N die Anzahl der potentiellen Anrufer zu einer fest gewählten Stunde. Angenommen, diese N Personen werfen eine Münze, welche mit Wahrscheinlichkeit p N auf Kopf fällt, um zu entscheiden, ob sie innerhalb der entsprechenden Stunde anrufen oder nicht. Wirft eine Person Kopf, so ruft diese an. Somit lautet die durchschnittliche Anzahl von Anrufen in dieser Stunde Np N = 5. Da N unbekannt ist, jedoch als sehr groÿ angenommen werden kann, bilden wir den Grenzwert N und setzen λ := lim N Np N = 5. Für k N 0 gibt dann π λ ({k}) die Wahrscheinlichkeit an, dass innerhalb einer Stunde k Anrufe eintreen. Weiters ist π λ/2 ({k}) die Wahrscheinlichkeit, dass k Anrufe innerhalb einer halben Stunde eingehen. Die Poisson-Verteilung wird des Weiteren verwendet, um die zufällige Anzahl von Sprüngen eines stochastischen Prozesses in stetiger Zeit zu modellieren. Die Wahrscheinlichkeit, dass der Prozess zwischen den Zeiten s und t, 0 s < t, genau k-mal springt, ist dabei π λ(t s) ({k}), vgl. Abbildung 1.2. Abbildung 1.2. Simulation eines Pfades eines sogenannten Sprung-Diusions-Prozesses Geometrische Verteilung Problemstellung. Eine Glühbirne versage mit Wahrscheinlichkeit p (0, 1) beim Einschaltvorgang. Da eine Glühbirne über kein Gedächtnis verfügt, ist das Versagen unabhängig davon, wie oft sie bereits eingeschaltet wurde. Wie hoch ist die Wahrscheinlichkeit, dass die Glühbirne beim k-ten Einschalten versagt? Modellierung. Ein Bernoulli-Versuch mit Erfolgswahrscheinlichkeit p (0, 1) wird bis zur ersten erfolgreichen Durchführung ausgeführt. Als Ergebnismenge wählen wir

33 1. Maÿ- und Wahrscheinlichkeitsräume 23 Ω := N 0, die σ-algebra laute F := P(Ω). Dann gibt ω Ω die Anzahl der Fehlversuche des Experiments an, bevor dieses das erste Mal glückt. Im Fall einer Glühbirne, versagt diese also beim (ω + 1)-ten Einschaltvorgang. Wir erhalten und folglich P (kein Misserfolg) = p und P (ein Misserfolg) = (1 p)p P (k Misserfolge) = (1 p) k p für k N 0. Die Wahrscheinlichkeit, dass die Glühbirne k Einschaltvorgänge überlebt bevor sie versagt lautet somit g p ({k}) := (1 p) k p. Definition 1.30 (Geometrische Verteilung) Das Wahrscheinlichkeitsmaÿ g p := (1 p) k pδ k k=0 auf (N 0, P(N 0 )) heiÿt geometrische Verteilung mit Parameter p (0, 1), vgl. Aufgabe (1.36). 1.4 Bedingte Wahrscheinlichkeiten und Unabhängigkeit In diesem Abschnitt bezeichne (Ω, F, P) stets einen Wahrscheinlichkeitsraum. Für ein Ereignis A F stellen wir uns nun die Frage, inwiefern das Eintreten eines Ereignisses B F jenes von A beeinusst. Dies kann mittels der bedingten Wahrscheinlichkeit ausgedrückt werden. Dazu folgendes Beispiel. Beispiel 1.31 Wir modellieren den Wurf eines fairen Würfels mittels des Laplace- Raums (Ω, F, P), wobei Ω = {1,..., 6}. Weiters betrachten wir die Ereignisse A := {ω Ω: ω 3} und B := {ω Ω: ω gerade}. Oensichtlich ist P(A) = P(B) = 1/2. Was ist nun aber die Wahrscheinlichkeit, dass A eintritt, wenn wir bereits wissen, dass B eintreten wird? Definition 1.32 (Bedingte Wahrscheinlichkeit) Es seien A, B F zwei Ereignisse, wobei P(B) > 0. Dann heiÿt P(A B) := P(A B) P(B) bedingte Wahrscheinlichkeit von A gegeben B.

34 24 1. Maÿ- und Wahrscheinlichkeitsräume Bemerkung. Es seien wiederum A, B F mit P(B) > 0. Man bezeichnet P(A B) auch als Wahrscheinlichkeit von A unter der Bedingung B. Bei P( B) handelt es sich um ein Wahrscheinlichkeitsmaÿ auf (Ω, F), vgl. Aufgabe (1.43). Im Fall, dass P(B) = 0, setzen wir im Weiteren P(A B) := 0. Oftmals sind nur gewisse bedingte Wahrscheinlichkeiten bekannt und unter gewissen Voraussetzungen kann daraus die Wahrscheinlichkeit des interessierenden Ereignisses berechnet werden. Satz 1.33 (Satz von der totalen Wahrscheinlichkeit) Es seien I eine abzählbare Indexmenge und {B i } i I F I eine Familie paarweiser disjunkter Ereignisse mit ( ) P B i = 1. Für jedes Ereignis A F gilt dann i I P(A) = i I P(A B i )P(B i ). Beweis. Aus der σ-additivität von P folgt ( ) P(A) = P (A B i ) = P (A B i ) = P(A B i )P(B i ). i I i I i I Aus dem Satz von der totalen Wahrscheinlichkeit folgern wir nun nachfolgenden Satz, der auch als Bayes'sche 10 Formel bekannt ist. Satz 1.34 (Satz von Bayes) Es seien wiederum I eine abzählbare Indexmenge und {B i } i I F I eine Familie paarweiser disjunkter Ereignisse mit P ( i I B i) = 1. Für jedes Ereignis A F mit P(A) > 0 und alle k I gilt dann P(B k A) = P(A B k)p(b k ) i I P(A B i)p(b i ). 10 Thomas Bayes, , englischer Mathematiker

35 1. Maÿ- und Wahrscheinlichkeitsräume 25 Beweis. Da P(B k A) = P(B k A) P(A) = P(A B k)p(b k ) P(A) folgt die Aussage aus dem Satz von der totalen Wahrscheinlichkeit durch Einsetzen der entsprechenden Darstellung für P(A). Beispiel 1.35 (Falsch-positiver Befund) Ein Bluttest liefere in 95% der Fälle das richtige Ergebnis, wenn die Krankheit, auf die getestet wird, tatsächlich vorliegt. Es werden jedoch 1% der Personen ohne diese Krankheit falsch-positiv getestet. Auÿerdem leiden nur 0.5% der Bevölkerung tatsächlich an der Krankheit. Wie hoch ist die Wahrscheinlichkeit, dass eine Person mit positivem Testergebnis auch wirklich erkrankt ist? Es wird nun eine zufällig ausgewählte Person getestet. Wir betrachten die Ereignisse Dann gilt A := der Test ist positiv und B := die Person ist erkrankt. P(A B) = 0.95, P ( A B c) = 0.01 und P(B) = , Aus der Bayes'schen Formel erhalten wir somit P(B A) = P(A B)P(B) P(A B)P(B) + P (A B c ) P (B c ) Daher sind etwa 68% der positiven Testergebnisse falsch-positiv. Sind A, B F zwei Ereignisse mit P(A), P(B) > 0, so gilt oenbar P(A B) = P(A) P(B A) = P(B) P(A B) = P(A)P(B). In diesem Fall beeinussen sich die beiden Ereignisse also nicht gegenseitig. Daher sagt man, dass A F und B F unabhängig sind, falls P(A B) = P(A)P(B). Den fundamentalen Begri der Unabhängigkeit erweitern wir in nachfolgender Denition auf beliebige Familien von Ereignissen. Definition 1.36 (Unabhängigkeit von Ereignissen) Es sei I eine beliebige Indexmenge. Die Familie {A i } i I F I von Ereignissen heiÿt (stochastisch) unabhängig, wenn für alle endlichen Teilmengen J I gilt, dass ( ) P A j = P (A j ). j J j J

36 26 1. Maÿ- und Wahrscheinlichkeitsräume Beispiel 1.37 (Unabhängigkeit von Würfelereignissen) Wir betrachten den Laplace-Raum (Ω, F, P) mit Ω = {1,..., 6} 2, P = U Ω ist also die Gleichverteilung auf Ω. Dieser Wahrscheinlichkeitsraum modelliert den Wurf zweier fairer Würfel, wobei wir davon ausgehen, dass die beiden Würfel voneinander unterschieden werden können. Wir nehmen daher an, dass ein Würfel rot und der andere blau ist. Tritt das Elementarereignis ω = (ω 1, ω 2 ) Ω ein, so zeigt der rote Würfel die Augenzahl ω 1 und der blaue ω 2. Nun betrachten wir die Ereignisse R 6 := {ω Ω: ω 1 = 6} B 6 := {ω Ω: ω 2 = 6} B g := {ω Ω: ω 2 {2, 4, 6}} B (1,2,3) := {ω Ω: ω 2 {1, 2, 3}}... Augenzahl 6 mit rotem Würfel,... Augenzahl 6 mit blauem Würfel,... gerade Augenzahl mit blauem Würfel,... Augenzahl 1,2 oder 3 mit blauem Würfel, S 7 := {ω Ω: ω 1 + ω 2 = 7}... Augensumme beider Würfel ist 7, S 5 := {ω Ω: ω 1 + ω 2 = 5}... Augensumme beider Würfel ist 5. Die Ereignisse R 6 und B 6 sind voneinander unabhängig, denn 1 36 = P(R 6 B 6 ) = P(R 6 ) P(B 6 ) = Dies ist wenig überraschend, denn schlieÿlich gehen wir davon aus, dass die Würfel einander nicht beeinussen. Daher sind auch alle Ereignisse A R und A B gegeben durch A R = A 1 {1,..., 6} und A B = {1,..., 6} A 2 mit A 1, A 2 {1,..., 6} voneinander unabhängig. Da P(S 7 R 6 ) = P(S 7 ) P(R 6 ), sind weiters auch S 7 und R 6 unabhängig. Zwar ist jedoch P ( B g B (1,2,3) S 5 ) = P(Bg )P(B (1,2,3) )P(S 5 ) = 1 36, P ( B g B (1,2,3) ) P (Bg ) P ( B (1,2,3) ). Somit sind die Ereignisse B g, B (1,2,3) und S 5 nicht voneinander unabhängig. Bemerkung. Um die Unabhängigkeit dreier Ereignisse A 1, A 2, A 3 zu zeigen, genügt es weder nur die paarweise Unabhängigkeit, d. h. P (A i A j ) = P(A i )P(A j ) für alle i, j {1, 2, 3} mit i j, (B2)

37 1. Maÿ- und Wahrscheinlichkeitsräume 27 noch nur P (A 1 A 2 A 3 ) = P(A 1 )P(A 2 )P(A 3 ) (B3) nachzuweisen, vgl. Aufgabe (1.42) und Beispiel Es muss sowohl Bedingung (B2) als auch (B3) erfüllt sein. Dies gilt natürlich dementsprechend für die Unabhängigkeit einer beliebigen Anzahl von Ereignissen. Sind A, B F unabhängige Ereignisse, so sind auch ihre Komplemente A c und B c unabhängig, denn P ( A c B c) = P ( (A B) c) = 1 P(A B) = 1 + P(A B) P(A) P(B) = Da weiters = 1 + P(A)P(B) P(A) P(B) = (1 P(A)) (1 P(B)) = = P ( A c) P ( B c). P ( A B c) = P (A \ B) = P(A) P(A B) = P(A) P(A)P(B) = P(A)P ( B c), sind auch A und B c unabhängig. Im folgenden Satz verallgemeinern wir diese Beobachtungen auf beliebige Familien von Ereignissen. Satz 1.38 (Unabhängigkeit von Komplementärereignissen) Es sei {A i } i I F I eine Familie von Ereignissen, wobei I eine beliebige Indexmenge bezeichne. Setzt man B (0) i := A i und B (1) i := A c i für i I, so sind die drei folgenden Aussagen äquivalent: (1) Die Familie {A i } i I ist unabhängig. { (2) Es existiert ein α {0, 1} I, sodass { (3) Für alle α {0, 1} I ist Beweis. Aufgabe (1.39). B (α i) i } B (α i) i } i I i I unabhängig. unabhängig ist. Als Anwendung zu obigem Satz beweisen wir nun die Eulersche Primzahlformel. Beispiel 1.39 (Eulersche 11 Primzahlformel) Die Riemannsche 12 Zetafunktion ist durch die Reihe 1 ζ(s) := n s für s > 1 n=1 11 Leonhard Euler, , schweizer Mathematiker 12 Georg Friedrich Bernhard Riemann, , deutscher Mathematiker

38 28 1. Maÿ- und Wahrscheinlichkeitsräume gegeben. Bezeichnen wir mit P := {p N: p ist Primzahl} die Menge aller Primzahlen, so besagt die Eulersche Primzahlformel, dass ζ(s) = ( 1 1 ) 1 p s für s > 1. p P Wir beweisen diese Darstellung, indem wir für festes s > 1 den Wahrscheinlichkeitsraum (Ω, F, P) mit Ω := N, F := P(N) und P := 1 ζ(s) n=1 1 n s δ n betrachten. Man beachte, dass es sich nach Satz 1.27 bei P tatsächlich um ein Wahrscheinlichkeitsmaÿ handelt. Für n N sei P n := {p P : p n} und für p P setzen wir pn := {pn: n N}. Dann ist {pn} p P unabhängig, denn für k N und paarweise verschiedene p 1,..., p k P ist und somit ( k ) P (p i N) = i=1 n=1 k (p i N) = (p 1... p k )N i=1 P ({p 1... p k n}) = 1 ζ(s) (p 1... p k ) s = p s 1... p s k = k P(p i N). Aus der Unabhängigkeit von {(pn) c } p P, siehe Satz 1.38, folgt nun 1 ζ(s) = P ({1}) = P (pn) c = p P i=1 n=1 [ ] = P ist stetig von oben = lim P (pn) c = n p P n = lim (1 P(pN)) = (1 1p ) n s, p P n p P womit die behauptete Produktdarstellung gezeigt ist. 1 n s =

39 1. Maÿ- und Wahrscheinlichkeitsräume Fortsetzung von Maÿen In diesem Abschnitt werden wir Maÿe konstruieren, indem wir diese zuerst auf einem einfachen Mengensystem denieren und dann auf eine von diesem Mengensystem erzeugte σ-algebra fortsetzen. Beispiel 1.40 (Konstruktion des Lebesgue-Maÿes auf R) Wir betrachten die Algebra A := {(a 1, b 1 ]... (a n, b n ]: n N, a 1 b 1... a n b n } auf R und denieren eine Mengenfunktion λ 0 : A [0, ] vermöge λ 0 ((a 1, b 1 ]... (a n, b n ]) := n (b i a i ). i=1 Kann λ 0 zu einem Maÿ auf σ(a) = B(R) fortgesetzt werden? Wie wir sehen werden, ist diese Frage mit Ja zu beantworten, das resultierende und eindeutig bestimmte Maÿ λ heiÿt Lebesgue 13 -Maÿ auf (R, B(R)) Fortsetzungssatz von Carathéodory Es sei Ω eine beliebige Menge. Definition 1.41 (Äuÿeres Maÿ) Eine Mengenfunktion µ : P(Ω) [0, ] nennt man äuÿeres Maÿ auf Ω, wenn (µ 1) µ ( ) = 0, (µ 2) µ (A) µ (B) für A B Ω, (monoton) (µ 3) µ ( n=1 A n) n=1 µ (A n ) für alle Folgen {A n } n=1 P(Ω)N. (σ-subadditiv) Eine Teilmenge A Ω heiÿt µ -messbar, wenn für alle C Ω. µ (C) = µ (C A) + µ (C \ A) Bemerkung. Es bezeichne µ ein äuÿeres Maÿ auf Ω. Die Bezeichnung äuÿeres Maÿ kann anfangs etwas irreführend sein, es handelt sich im Allgemeinen um kein Maÿ. 13 Henri Léon Lebesgue, , französischer Mathematiker

40 30 1. Maÿ- und Wahrscheinlichkeitsräume Um die µ -Messbarkeit einer Menge A Ω nachzuweisen, genügt es zu zeigen, dass µ (C) µ (C A) + µ (C \ A) für alle C Ω mit µ (C) <, vgl. Aufgabe (1.49). Satz 1.42 (Einschränkung eines äuÿeren Maÿes) Es sei µ ein äuÿeres Maÿ auf Ω. Dann ist Σ := {A Ω: A ist µ -messbar} eine σ-algebra auf Ω und die Einschränkung µ := µ Σ ein Maÿ auf (Ω, Σ). Beweis. Wir weisen für Σ die denierenden Eigenschaften einer σ-algebra nach. (σ1) Oensichtlich ist Ω Σ, denn für alle C Ω. µ (C) = µ (C Ω) + µ (C \ Ω) (σ2) Komplementstabilität: Es sei A Σ. Für C Ω ist µ (C) = µ (C A) + µ (C \ A) = µ ( C \ A c) + µ ( C A c) und somit auch A c µ -messbar. (σ3) σ- -Stabilität: Das Mengensystem Σ ist eine Algebra auf Ω, vgl. Aufgabe (1.50). Nun sei {A n } n=1 ΣN und o. B. d. A. A i A j = für i j. Wir setzen nun B := n=1 A n und B k := k n=1 A n für k {2, 3,...}. Dann gilt für alle k = 2, 3,... und C Ω, dass µ (C B k ) = µ (C B k A k ) + µ ((C B k ) \ A k ) = µ (C A k ) + µ (C B k 1 ) und daher folgt µ (C) = µ (C B k ) + µ (C \ B k ) = k µ (C A n ) + µ (C \ B k ). n=1 Da µ (C \ B k ) µ (C \ B), erhalten wir daher µ (C) µ (C A n ) + µ (C \ B) µ (C B) + µ (C \ B) µ (C) ( ) n=1 und somit B = n=1 A n Σ.

41 1. Maÿ- und Wahrscheinlichkeitsräume 31 Es bleibt die σ-additivität von µ auf Σ zu zeigen. Dies folgt jedoch direkt aus ( ), indem man C := B setzt, und somit ist (Ω, Σ, µ) ein Maÿraum, wobei µ = µ Σ. Definition 1.43 (Prämaÿ) Es seien A eine Algebra auf Ω und µ 0 : A [0, ] eine Mengenfunktion mit µ 0 ( ) = 0. Man nennt µ 0 Prämaÿ auf A, falls für alle Folgen {A n } n=1 AN paarweise disjunkter Mengen mit n=1 A n A gilt, dass ( ) µ 0 A n = n=1 µ 0 (A n ). (σ-additiv auf A) Das Prämaÿ µ 0 heiÿt endlich, falls µ 0 (Ω) <. Man nennt µ 0 auÿerdem σ-endlich, wenn eine Folge {Ω n } n=1 AN existiert, sodass Ω = n=1 Ω n und µ 0 (Ω n ) < für alle n N. n=1 Satz 1.44 (Fortsetzungssatz von Carathéodory 14 ) Es sei A eine Algebra auf Ω und µ 0 ein Prämaÿ auf A. Dann existiert ein Maÿ µ auf F := σ (A) mit µ 0 = µ A. Für σ-endliches µ 0 ist auÿerdem µ eindeutig bestimmt. Man nennt in diesem Fall das Maÿ µ die Fortsetzung von µ 0 auf F. Beweis. Der Beweis erfolgt in drei Schritten. Schritt 1: Im ersten Beweisschritt zeigen wir, dass durch { } µ (A) := inf µ 0 (A n ): {A n } n=1 A N mit A A n n=1 n=1 für A Ω ein äuÿeres Maÿ auf Ω deniert wird. (µ 1) Oenbar gilt µ ( ) = 0. (µ 2) Monotonie: Dies ist oensichtlich. (µ 3) σ-subadditivität: Für {A n } n=1 P(Ω)N setzen wir A := n=1 A n. Weiters wählen wir zu gegebenem ε > 0 für n N eine Folge {B nk } k=1 AN mit A n k=1 B nk und µ 0 (B nk ) µ (A n ) + 2 n ε. k=1 14 Constantin Carathéodory, , deutscher Mathematiker griechischer Abstammung

42 32 1. Maÿ- und Wahrscheinlichkeitsräume Dann ist µ (A) µ 0 (B nk ) µ (A n ) + ε n,k=1 n=1 und damit die σ-subadditivität von µ gezeigt. Schritt 2: Es sei wiederum Σ := {A Ω: A ist µ -messbar} die σ-algebra der µ -messbaren Mengen. Wir zeigen, dass das Maÿ µ Σ eine Erweiterung von µ 0 ist, d. h. A Σ und µ A = µ 0. Für A A gilt µ (A) µ 0 (A) und daher zeigen wir noch, dass µ 0 (A) µ (A). Es sei {B n } n=1 AN eine Folge paarweise disjunkter Mengen mit A n=1 B n. Für n N setzen wir A n := A B n. Dann ist A = n=1 A n und es folgt µ 0 (A) = µ 0 (A n ) n=1 µ 0 (B n ). n=1 Dies impliziert µ 0 (A) µ (A) und damit µ A = µ 0. Es bleibt noch die µ -Messbarkeit von A A zu zeigen. Es sei C Ω mit µ (C) <. Wähle zu ε > 0 eine Folge {B n } n=1 AN mit C n=1 B n und µ 0 (B n ) µ (C) + ε. n=1 Aus µ 0 (B n A) + µ 0 (B n \ A) = µ 0 (B n ) folgt dann µ 0 (B n A) + µ 0 (B n \ A) µ (C) + ε. n=1 n=1 Da weiters C A n=1 (B n A) und C \ A n=1 (B n \ A), impliziert obige Abschätzung µ (C A) + µ (C \ A) µ (C) + ε und somit A Σ. Schritt 3: Es bleibt noch die Eindeutigkeit der Fortsetzung für σ-endliches µ 0 zu zeigen. Es sei dazu µ ein Maÿ auf F = σ (A) Σ mit µ A = µ 0. Wir zeigen, dass µ = µ F.

43 1. Maÿ- und Wahrscheinlichkeitsräume 33 Es sei A F. Für {A n } n=1 AN mit A n=1 A n gilt µ(a) µ(a n ) = n=1 µ 0 (A n ). Dies zeigt, dass µ µ auf F. Das Prämaÿ µ 0 ist σ-endlich und daher existiert eine Folge {Ω n } n=1 AN paarweise disjunkter Mengen mit n=1 µ 0 (Ω n ) < für alle n N und Ω = Für n N sind Ω n A, Ω n \ A F und daher gilt Nun folgt aus Ω n. n=1 µ(ω n A) µ (Ω n A) und µ(ω n \ A) µ (Ω n \ A). µ(ω n A) + µ(ω n \ A) = µ(ω n ) = µ (Ω n ) = µ (Ω n A) + µ (Ω n \ A) und µ(ω n ) <, dass µ(ω n A) = µ (Ω n A). Summation über n liefert schlieÿlich µ(a) = µ (A). Bemerkung. Die Fortsetzung eines σ-endlichen Prämaÿes µ 0 auf der Algebra A zu einem Maÿ µ auf der σ-algebra F = σ (A) lässt sich wie folgt skizzieren: µ 0 Prämaÿ auf A Satz 1.44 µ äuÿeres Maÿ auf Ω Satz 1.42 µ Maÿ auf F Eindeutigkeit von Maÿen Viele Maÿe sind bereits durch Vorgabe auf deutlich kleineren Mengensystemen als Algebren eindeutig bestimmt. Im Folgenden bezeichne Ω eine beliebige Menge. Definition 1.45 (π-system und λ-system) Das Mengensystem P P(Ω) heiÿt π-system, gegeben dass A B P für alle A, B P. (schnittstabil) Das Mengensystem L P(Ω) heiÿt λ-system oder auch Dynkin 15 -System, wenn (λ1) Ω L, (λ2) B \ A L für alle A, B L mit A B, 15 Eugene Dynkin, geboren 1924, russischer Mathematiker

44 34 1. Maÿ- und Wahrscheinlichkeitsräume (λ3) n N A n L für alle Folgen {A n } n N L N paarweise disjunkter Mengen. Satz und Definition 1.46 (Erzeugtes λ-system) Es sei {L j } j J eine Familie von λ-systemen auf Ω, wobei J eine beliebige Indexmenge bezeichnet. Dann ist j J ebenfalls eine λ-system. Zu G P(Ω) existiert ein kleinstes λ-system, welches G enthält. Setzt man J G := {L ist λ-system auf Ω mit G L}, so ist dieses durch λ(g) := L J G L gegeben und wird von G erzeugtes λ-system genannt. Beweis. Der Beweis erfolgt analog zu jenem für σ-algebren. Bemerkung. Für ein Mengensystem G P(Ω) gilt oenbar stets λ(g) σ(g). Lemma 1.47 (Schnittstabiles λ-system) Ist L P(Ω) ein λ-system, so gilt L j L ist π-system L ist σ-algebra. Beweis. : Diese Richtung ist oensichtlich. : Wir weisen für L die denierenden Eigenschaften einer σ-algebra nach. (σ1) Dass Ω L, ist klar. (σ2) Komplementstabilität: Es sei A L. Da L ein λ-system ist, folgt aus A Ω L und Eigenschaft (λ2), dass A c = Ω \ A L. (σ3) σ- -Stabilität: Für A, B L gilt nach Voraussetzung, dass A B L und da A B A, folgt A \ B = A \ (A B) L. Da L dierenzenstabil ist, existiert zu {A n } n=1 LN eine Folge {B n } n=1 LN paarweise disjunkter Mengen mit Somit ist L eine σ-algebra. A n = n=1 B n L. n=1 Satz 1.48 (π-λ-theorem von Dynkin) Es sei P P(Ω) ein π-system. Dann gilt σ (P) = λ (P).

45 1. Maÿ- und Wahrscheinlichkeitsräume 35 Beweis. : Diese Inklusion ist klar. : Es ist zu zeigen, dass λ (P) eine σ-algebra ist. Nach Lemma 1.47 genügt es nachzuweisen, dass λ (P) ein π-system ist. Für B λ (P) sei Es genügt zu zeigen, dass λ B := {A λ (P) : A B λ (P)}. λ (P) λ B für alle B λ (P). Wir weisen zuerst für jedes P λ (P) für λ P die denierenden Eigenschaften eines λ- Systems nach. (λ1) Oensichtlich ist Ω P = P λ (P), also Ω λ P. (λ2) Für A, B λ P mit A B ist (B \ A) P = (B P ) \ (A P ) λ (P). (λ3) Es sei {A n } n=1 λn P eine Folge paarweise disjunkter Mengen. Dann ist ( ) A n P = n=1 (A n P ) λ (P). Nach Voraussetzung ist für alle A P auch A P P, daher P λ P und somit λ(p) λ P für alle P P. Hieraus folgt, dass B P λ(p) für alle P P und B λ(p). Schlieÿlich gilt P λ B für jedes B λ(p), also ist P λ B für alle B λ(p). Damit ist die Aussage des Satzes gezeigt. Satz 1.49 (Eindeutigkeit und erzeugendes π-system) Es sei (Ω, F, µ) ein Maÿraum und P F ein π-system mit σ (P) = F. Weiters existiere eine Folge {Ω n } n=1 PN mit Ω 1 Ω 2... und n=1 Ω n = Ω und µ(ω n ) < für alle n N. n=1 Dann ist µ durch die Werte µ(a), A P, eindeutig bestimmt. Ist µ ein Wahrscheinlichkeitsmaÿ, so gilt die Aussage auch ohne die Existenz der Folge {Ω n } n=1 vorauszusetzen. Beweis. Es sei µ ein weiteres σ-endliches Maÿ auf (Ω, F) mit µ(p ) = µ(p ) für alle P P. Für P P mit µ(p ) < betrachten wir das Mengensystem und zeigen, dass es ein λ-system ist. λ P := {A F : µ(a P ) = µ(a P )}

46 36 1. Maÿ- und Wahrscheinlichkeitsräume (λ1) Oensichtlich ist Ω λ P. (λ2) Es seien A, B λ P mit B A. Dann ist µ ((A \ B) P ) = µ(a P ) µ(b P ) = Folglich ist A \ B λ P. = µ(a P ) µ(b P ) = µ ((A \ B) P ). (λ3) Es sei {A n } n=1 λn P eine Folge paarweise disjunkter Mengen und A := n=1 A n. Wir erhalten daher ist A λ P. µ(a P ) = µ(a n P ) = n=1 µ(a n P ) = µ(a P ), Für alle A F und jedes P P mit µ(p ) < gilt somit µ(a P ) = µ(a P ). Da µ und µ von unten stetig sind, erhalten wir für A F die gewünschte Identität n=1 µ(a) = lim n µ(a Ω n) = lim n µ(a Ω n) = µ(a). Für den Fall, dass µ ein Wahrscheinlichkeitsmaÿ ist, wähle P = P {Ω} als erzeugendes π-system und beachte, dass der Wert µ(ω) = 1 bekannt ist. Man wählt nun die durch Ω n := Ω, n N, denierte konstante Folge Produkträume In diesem Abschnitt wenden wir uns der Konstruktion von Produkten von Maÿräumen zu. Beispiel 1.50 (Mehrmaliges Würfeln) Wir betrachten den Laplace-Raum (Ω, F, P) mit Ω = {1,..., 6}, dieser modelliert den Wurf eines fairen Würfels. Wie kann aus (Ω, F, P) ein Wahrscheinlichkeitsraum konstruiert werden, welcher das zweimalige Würfeln modelliert, also die zweimalige Durchführung des von (Ω, F, P) beschriebenen Zufallsexperiments? Als Ergebnismenge wählt man natürlich Ω Ω, als σ-algebra P(Ω Ω) und das entsprechende Maÿ P 2 deniert man durch P 2 (A 1 A 2 ) := P(A 1 )P(A 2 ), A 1 A 2 Ω Ω. Nun wird unendlich oft gewürfelt. Mit welchem Wahrscheinlichkeitsraum kann dies modelliert werden?

47 1. Maÿ- und Wahrscheinlichkeitsräume 37 Zu zwei gegebenen σ-endlichen Maÿräumen (Ω 1, F 1, µ 1 ) und (Ω 2, F 2, µ 2 ) werden wir nun den Produktraum (Ω 1 Ω 2, F 1 F 2, µ 1 µ 2 ) denieren. Die Produkt-σ-Algebra von F 1 und F 2 ist gegeben durch F 1 F 2 := σ ({A 1 A 2 : A 1 F 1, A 2 F 2 }). Nun betrachten wir die Algebra { n } ( ) {( )} A := A (k) 1 A (k) 2 : n N, A (k) n 1, A(k) 2 (F 1 F 2 ) n pw. disj.. k=1 k=1 Diese Algebra erzeugt F 1 F 2, es gilt also σ (A) = F 1 F 2. Weiters denieren wir die Mengenfunktion µ 0 : A [0, ] vermöge µ 0 ( n k=1 ( ) ) A (k) 1 A (k) 2 := n ( µ 1 k=1 wobei wir stets die Konvention 0 := 0 treen. A (k) 1 ) µ 2 ( Satz und Definition 1.51 (Produktmaÿraum) Das Mengensystem A ist eine Algebra und die Mengenfunktion µ 0 wohldeniert und ein σ-endliches Prämaÿ auf A. Nach dem Fortsetzungssatz von Carathéodory kann somit µ 0 eindeutig zu einem Maÿ auf F 1 F 2 fortgesetzt werden. Dieses Maÿ heiÿt Produktmaÿ von µ 1 und µ 2 und wird mit µ 1 µ 2 bezeichnet. Der Maÿraum heiÿt Produktmaÿraum. (Ω 1 Ω 2, F 1 F 2, µ 1 µ 2 ) Beweis. µ 0 ist wohldefiniert: Es sei A A mit ( ) ( ) A = A (1) 1 A (1) 2... A (n) 1 A (n) 2 = wobei ( B (1) 1 B (1) 2 A (k) 2 {( )} A (k) n {( )} 1, A(k) 2, B (k) m 1, k=1 B(k) 2 F 1 F 2 k=1 jeweils paarweise disjunkt seien. Nun wählen wir C (1) 1,..., C(N 1) 1 Ω 1 und C (1) 2,..., C(N 2) 2 Ω 2 ), ) ( )... B (m) 1 B (m) 2,

48 38 1. Maÿ- und Wahrscheinlichkeitsräume mit Ω 1 = N 1 k=1 C (k) 1 und Ω 2 = N 2 k=1 C (k) 2, sodass jede { der Mengen A } (1) 1,..., A(n) 1, B(1) 1,..., B(m) 1 als disjunkte Vereinigung von Mengen aus C (1) 1,..., C(N 1) 1 und alle Mengen A (1) 2,..., A(n) 2, B(1) 2,..., B(m) 2 als disjunkte { } Vereinigung von Mengen aus C (1) 2,..., C(N 2) 2 geschrieben werden können. Dann existiert eine Indexmenge I {1,..., N 1 } {1,..., N 2 } mit A = ( ) C (k) 1 C (l) 2. Da µ 1 und µ 2 Maÿe sind, folgt nun n ( µ 1 k=1 A (k) 1 ) µ 2 ( A (k) 2 ) = (k,l) I (k,l) I µ 1 ( C (k) 1 ) µ 2 ( C (l) 2 ) = m ( µ 1 l=1 B (l) 1 { µ 0 ist σ-endlich: Da µ 1 und µ 2 jeweils σ-endlich sind, gibt es Folgen { } und Ω (2) n F 2 N mit n=1 sowie Ω 1 = Ω 2 = m=1 n=1 Ω (1) m und µ 1 ( Ω (2) n und µ 2 ( Ω (1) m Ω (2) n Für m, n N setze Ω m,n := Ω (1) m Ω (2) n A. Dann ist Ω 1 Ω 2 = m,n=1 Somit ist µ 0 also σ-endlich. µ 0 ist σ-additiv: Es genügt für A i, A (k) i ) < für alle m N ) < für alle n N. ) µ 2 ( Ω (1) m Ω m,n und µ 0 (Ω m,n ) < für alle m, n N. A 1 A 2 = F i, i = 1, 2 und k N, mit k=1 ( ) A (k) 1 A (k) 2 B (l) 2 } ). m=1 F N 1

49 1. Maÿ- und Wahrscheinlichkeitsräume 39 zu zeigen, dass µ 1 (A 1 )µ 2 (A 2 ) ( µ 1 k=1 A (k) 1 ) µ 2 ( denn die umgekehrte Ungleichung kann leicht mittels der Partitionen bewiesen werden, die wir verwendet haben, um die Wohldeniertheit von µ 0 zu zeigen. Es sei nun A (k) 2 ), ϕ(ω 1 ) := n=1 ( χ (n) A (ω 1 )µ 2 1 A (n) 2 ) und ϕ N (ω 1 ) := N n=1 ( χ (n) A (ω 1 )µ 2 1 A (n) 2 ) für ω 1 Ω 1 und N N. Für N gilt Es sei nun ε (0, 1) und ϕ N (ω 1 ) ϕ(ω 1 ) = χ A1 (ω 1 )µ 2 (A 2 ). Bε N := {ω 1 Ω 1 : (1 ε)µ 2 (A 2 ) ϕ N (ω 1 )} F 1 für N N. Die Folge { Bε N } N N ist aufsteigend und da N N BN ε = A 1, folgt (1 ε)µ 1 (A 1 )µ 2 (A 2 ) = lim (1 ε)µ ( ) 1 B N ε µ2 (A 2 ). N Da (1 ε)µ 2 (A 2 ) ϕ N (ω 1 ) für alle ω 1 B N ε, erhält man und somit schlieÿlich ( ) N ( (1 ε)µ 2 (A 2 )µ 1 B N ε µ 1 k=1 lim (1 ε)µ ( ) 1 B N ε µ2 (A 2 ) N A (k) 1 ( µ 1 k=1 A (k) 1 A ist eine Algebra: Dies zu zeigen, verbleibt als Übung. ) µ 2 ( A (k) 2 ) µ 2 ( Bemerkung. Sind (Ω 1, F 1, P 1 ) und (Ω 2, F 2, P 2 ) zwei Wahrscheinlichkeitsräume, so nennt man entsprechend (Ω 1 Ω 2, F 1 F 2, P 1 P 2 ) den Produktwahrscheinlichkeitsraum und P 1 P 2 das Produktwahrscheinlichkeitsmaÿ von P 1 und P 2. ) A (k) 2 ).

50 40 1. Maÿ- und Wahrscheinlichkeitsräume Beispiel 1.52 (Zweimaliger Münzwurf) Es seien (Ω 1, F 1, P 1 ) := (Ω 2, F 2, P 2 ) := ( {0, 1}, P({0, 1}), 1 2 δ δ 1). Dann ist P 1 P 2 = 1 4 δ (0,0) δ (0,1) δ (1,0) δ (1,1) = U {0,1} U {0,1}. Um zu sehen, dass es bei der Bildung von Produkträumen mehrerer Maÿräume nicht auf die Reihenfolge ankommt, benötigen wir folgendes Lemma. Lemma 1.53 Für zwei Mengensysteme G 1 P(Ω 1 ) und G 2 P(Ω 2 ) gilt σ ({A 1 A 2 : A 1 G 1, A 2 G 2 }) = σ(g 1 ) σ(g 2 ). Beweis. Wir setzen F := σ ({A 1 A 2 : A 1 G 1, A 2 G 2 }). Oensichtlich gilt F σ(g 1 ) σ(g 2 ), es bleibt also noch die umgekehrte Inklusion zu zeigen. Wir zeigen dazu, dass {A 1 Ω 2 : A 1 σ(g 1 )} = σ ({A 1 Ω 2 : A 1 G 1 }). Wie man sich leicht überzeugt, ist {A 1 Ω 2 : A 1 σ(g 1 )} eine σ-algebra auf Ω 1 Ω 2, also gilt σ ({A 1 Ω 2 : A 1 G 1 }) {A 1 Ω 2 : A 1 σ(g 1 )}. Das Mengensystem Σ := {A 1 σ(g 1 ): A 1 Ω 2 σ ({A 1 Ω 2 : A 1 G 1 })} ist eine σ-algebra auf Ω 1 und daher folgt aus G 1 Σ σ(g 1 ), dass Σ = σ(g 1 ). Folglich ist {A 1 Ω 2 : A 1 σ(g 1 )} σ ({A 1 Ω 2 : A 1 G 1 }). Aus und {A 1 Ω 2 : A 1 σ(g 1 )} = σ ({A 1 Ω 2 : A 1 G 1 }) F {Ω 1 A 2 : A 2 σ(g 2 )} = σ ({Ω 1 A 2 : A 2 G 2 }) F dies zeigt man analog folgt nun für A 1 σ(g 1 ) und A 2 σ(g 2 ), dass Schlieÿlich vollendet die Inklusionskette den Beweis. A 1 A 2 = (A 1 Ω 2 ) (Ω 1 A 2 ) F. {A 1 A 2 : A 1 σ(g 1 ), A 2 σ(g 2 )} F σ(g 1 ) σ(g 2 )

51 1. Maÿ- und Wahrscheinlichkeitsräume 41 Es sei nun ein weiterer σ-endlicher Maÿraum (Ω 3, F 3, µ 3 ) gegebenen. Nach Lemma 1.53 ist Des Weiteren gilt da die beiden Maÿe auf dem π-system (F 1 F 2 ) F 3 = F 1 (F 2 F 3 ). (µ 1 µ 2 ) µ 3 = µ 1 (µ 2 µ 3 ), {A 1 A 2 A 3 : A 1 F 1, A 2 F 2, A 3 F 3 } übereinstimmen und somit nach Satz 1.49 unter Verwendung der σ-endlichkeit der einzelnen Maÿe gleich sind. Das Produkt der σ-endlichen Maÿräume (Ω 1, F 1, µ 1 ),..., (Ω d, F d, µ d ), wobei d N, wird daher iterativ konstruiert und dann mit (Ω 1... Ω d, F 1... F d, µ 1... µ d ) bezeichnet. Für das d-fache Produkt des σ-endlichen Maÿraums (Ω, F, µ) schreiben wir kurz ( Ω d, F d, µ d). Beispiel 1.54 (Produkt von Borel-σ-Algebren) Für d N ist B ( R d) = B(R) d, siehe Aufgabe (1.51). Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Wir konstruieren nun den Produktraum ( Ω N, F N, P N). Dazu betrachten wir das π-system der Zylindermengen P := {A 1... A n Ω Ω... : n N, A 1,..., A n F} und setzen F N := σ(p). Auf der Algebra { n } A := P i : n N, P 1,..., P n P paarweise disjunkt i=1

52 42 1. Maÿ- und Wahrscheinlichkeitsräume denieren wir das Prämaÿ P 0 durch P 0 (A 1... A n Ω Ω...) := n P(A k ) für A 1,..., A n F. Mittels des Fortsetzungssatzes von Carathéodory setzen wir P 0 zu einem eindeutig bestimmten Wahrscheinlichkeitsmaÿ auf F N fort und bezeichnen dieses mit P N. Beispiel 1.55 (Bernoulli-Maÿ) Wir wollen nun einen Bernoulli-Versuch mit N N möglichen Ausgängen und unendlich vielen Wiederholungen modellieren. Eine einzige Durchführung werde durch den Laplace- Raum (Ω, P(Ω), P) beschrieben, wobei Ω = {ω 1,..., ω N }. Es ist also k=1 P = 1 δ ω. Ω ω Ω Dann modelliert ( Ω N, F N, P N) den Bernoulli-Versuch und diesem Fall nennt man das Wahrscheinlichkeitsmaÿ P N Bernoulli-Maÿ. Für Ω = {1,..., 6} modelliert der eben konstruierte Wahrscheinlichkeitsraum das Zufallsexperiment unendlich oft würfeln. Würfeln wir mit einem Würfel unendlich oft, wie hoch ist die Wahrscheinlichkeit, dass unendlich oft, also immer wieder, eine Sechs geworfen wird? Diese Wahrscheinlichkeit sollte natürlich Eins sein, ansonsten gäbe es einen letzten Wurf, bei dem eine Sechs fällt und danach würde nie wieder eine auftreten. Um das eben Beschriebene zu formalisieren, benötigen wir folgende Denition. Definition 1.56 (Limes inferior und Limes superior von Mengen) Gegeben sei die Folge {A n } n=1 P(Ω)N. Dann nennt man lim inf n A n := n=1 m=n A m bzw. lim sup A n := n Limes inferior bzw. Limes superior der Folge {A n } n=1. Bemerkung. Es sei {A n } n=1 F N eine Folge von Ereignissen. Wir schreiben auch n=1 m=n A := lim inf A n und A := lim sup A n. n n A m

53 1. Maÿ- und Wahrscheinlichkeitsräume 43 Da Limes inferior und Limes superior durch das Bilden abzählbarer Vereinigungen und Durchschnitte entstehen, gilt Es ist lim inf A n F und lim sup A n F. n n A = {ω Ω: {n N: ω / A n } < }, A = {ω Ω: {n N: ω A n } = }. Der Limes inferior ist also jenes Ereignis, dass ab einem gewissen Index alle A n eintreten, während der Limes superior jenes Ereignis ist, dass unendlich viele der A n eintreten. Insbesondere gilt A A. Beispiel 1.57 (Unendlich oft Sechs) Wir betrachten den Wahrscheinlichkeitsraum ( ) (Ω, F, P) := {1,..., 6} N, P({1,..., 6}) N, U N {1,...,6}. Für n N denieren wir das Ereignis A n := {ω Ω: ω n = 6}... Sechs beim n-ten Wurf. Dann ist A = lim sup n A n jenes Ereignis, dass bei unendlich vielen Würfen eine Sechs auftritt. Was ist P (A )? Es bezeichne (Ω, F, P) einen beliebigen Wahrscheinlichkeitsraum. Satz 1.58 (Lemma von Borel-Cantelli 16 ) Es sei {A n } n=1 F N eine Folge von Ereignissen. (1) Gilt n=1 P(A n) <, so ist P(A ) = 0. (2) Ist {A n } n=1 unabhängig und n=1 P(A n) =, so gilt P(A ) = 1. Beweis. (1) Da P stetig von oben und σ-subadditiv ist, folgt ( ) ( ) P(A ) = P A m = lim P A m lim n n=1 m=n m=n n m=n P(A m ) = Francesco Paolo Cantelli, , italienischer Mathematiker

54 44 1. Maÿ- und Wahrscheinlichkeitsräume (2) Man überzeugt sich leicht, dass log(1 x) x für x [0, 1], wobei log(0) :=. Da P stetig von unten ist, führen die De Morganschen Regeln auf ( ) ( ) P ((A ) c ) = P A c m = lim P A c n m. n=1 m=n Für jedes n N erhalten wir jedoch ( ) P = (1 P(A m )) = m=n A c m m=n m=n ( ) ( = exp log (1 P(A m )) exp m=n ) P(A m ) = 0. Beispiel 1.59 (Anwendungen zum Lemma von Borel-Cantelli) Wir greifen Beispiel 1.57 nochmals auf und bestimmen nun P (A ). Die Familie {A n } n=1 von Ereignissen ist unabhängig, denn für eine endliche Indexmenge I N gilt P ( i I ) ( ) A i = P {6} I {1,..., 6} {1,..., 6}... Nach dem Lemma von Borel-Cantelli folgt daher aus 1 P(A n ) = 6 =, dass P(A ) = 1. n=1 n=1 m=n = ( 1 6 ) I = P(A i ). Nun werfen wir den Würfel nur ein einziges Mal, wählen also den Laplace-Raum (Ω, F, P) mit Ω = {1,..., 6}, und setzen A n := {6} für jedes n N. Dann ist n=1 P(A n) =, jedoch P(A ) = 1/6. Dies zeigt, dass die Unabhängigkeit in Teil (2) des Lemmas von Borel-Cantelli im Allgemeinen eine notwendige Voraussetzung ist Lebesgue-Maÿ Mittels des Fortsetzungssatzes von Carathéodory wollen wir nun das Lebesgue- Maÿ auf R d konstruieren. Dazu greifen wir Beispiel 1.40 auf und betrachten daher wiederum die Algebra A = {(a 1, b 1 ]... (a n, b n ]: n N, a 1 b 1... a n b n } auf R und die Mengenfunktion λ 0 : A [0, ] gegeben durch n λ 0 ((a 1, b 1 ]... (a n, b n ]) = (b i a i ). i=1 i I

55 1. Maÿ- und Wahrscheinlichkeitsräume 45 Wir zeigen nun, dass λ 0 ein σ-endliches Prämaÿ auf A ist. Da λ 0 ( ) = 0, widmen wir uns der σ-additivität. Es genügt zu zeigen, dass für a < b und paarweise disjunkte Intervalle (a n, b n ], n N und a n < b n, mit gilt, dass Es sei ε > 0. Da (a, b] = (a n, b n ] n=1 λ 0 ((a, b]) = b a = [a + ε, b] n=1 (b n a n ). ( ) n=1 ( a n, b n + ε 2 n ), folgt aus dem Überdeckungssatz von Heine 17 -Borel, dass eine endliche Indexmenge I(ε) N existiert, sodass [a + ε, b] ( (a n, b n ] b n, b n + ε ) 2 n. Damit erhalten wir b a ε n I(ε) n I(ε) Bilden des Grenzwertes ε 0 führt nun auf ( (b n a n ) + ε 2 n ) b a (b n a n ). n=1 (b n a n ) + ε. n=1 Da b a N n=1 (b n a n ) für alle N N, ist somit ( ) gezeigt. Setzen wir Ω n := ( n, n] A für n N, so gilt R = Ω n und λ 0 (Ω n ) = 2n < für alle n N. n=1 Dies zeigt die σ-endlichkeit von λ Heinrich Eduard Heine, , deutscher Mathematiker

56 46 1. Maÿ- und Wahrscheinlichkeitsräume Bei λ 0 handelt es sich also um ein σ-endliches Prämaÿ auf der Algebra A. Nach dem Fortsetzungssatz von Carathéodory existiert daher eine eindeutige Fortsetzung λ auf σ (A) = B(R). Das Maÿ λ heiÿt Lebesgue-Maÿ auf (R, B(R)). Es sei nun d N. Für das Produktmaÿ λ d auf ( R d, B(R d ) ) schreiben wir auch λ d oder kurz wiederum λ. Das Maÿ λ d nennt man entsprechend Lebesgue-Maÿ auf ( R d, B(R d ) ). Wir fassen die bisherigen Überlegungen zu folgendem Satz zusammen. Satz 1.60 ( Lebesgue-Maÿ auf R d) Es existiert ein eindeutig bestimmtes Maÿ λ d auf ( R d, B(R d ) ) mit λ d ((a 1, b 1 ]... (a d, b d ]) = d (b i a i ) für alle a 1 < b 1,..., a d < b d, dieses wird Lebesgue-Maÿ auf ( R d, B(R d ) ) genannt. Beweis. Es genügt den Fall d = 1 zu betrachten. Das Lebesgue-Maÿ λ auf (R, B(R)) besitzt die geforderte Eigenschaft und daher genügt es die Eindeutigkeit von λ zu zeigen. Dazu betrachten wir das Mengensystem i=1 P := {(a, b]: a < b} { }, welches B(R) erzeugt. Es sei nun µ ein weiteres Maÿ auf (R, B(R)) mit µ P = λ P. Variante 1: Oensichtlich stimmen dann µ und λ auch auf der Algebra A aus Beispiel 1.40 überein. Somit folgt aus dem Fortsetzungssatz von Carathéodory, dass µ = λ auf σ (A) = B(R). Variante 2: Das Mengensystem P ist ein π-system. Da Ω n := ( n, n] P, n N, eine aufsteigende Folge mit Ω n = R und λ(ω n ) < für alle n N n=1 deniert, sind die Voraussetzungen von Satz 1.49 erfüllt. Damit folgt die Eindeutigkeit von λ. Bemerkung. Das Prämaÿ λ 0 auf A kann nach dem Beweis des Fortsetzungssatzes von Carathéodory sogar auf die dort konstruierte σ-algebra Σ B(R) fortgesetzt werden. Wir bezeichnen diese σ-algebra mit B(R) und nennen eine Menge B B(R) Lebesgue-messbar. Man kann unter Verwendung des Auswahlaxioms zeigen, dass B(R) B(R) P(R).

57 1. Maÿ- und Wahrscheinlichkeitsräume Nicht Lebesgue-messbare Mengen Zur Konstruktion einer nicht Lebesgue-messbaren Menge werden wir das Auswahlaxiom benötigen. Axiom 1.61 (Auswahlaxiom) Es sei I eine nicht leere Indexmenge und {M i } i I eine Familie nicht leerer Mengen. Dann existiert eine auf I denierte Auswahlfunktion ϕ: i m i M i. Akzeptiert man das Auswahlaxiom, so kann die Menge {ϕ(i): i I} gebildet werden, welche entsteht, indem für jedes i I genau ein Element m i M i ausgewählt wird. Mittels des Auswahlaxioms konstruieren wir nun eine nicht Lebesgue-messbare Menge, eine sogenannte Vitali 18 -Menge. Satz 1.62 (Satz von Vitali) Es existiert eine nicht Lebesgue-messbare Menge V [0, 1]. Beweis. Wir denieren vermöge x y : x y Q für x, y R eine Äquivalenzrelation auf R. Man beachte, dass alle Äquivalenzklassen bezüglich dicht in R liegen. Nach dem Auswahlaxiom kann die Menge V [0, 1] gebildet werden, welche jeweils genau ein Element jeder Äquivalenzklasse bezüglich enthält. Wir setzen R := Q [ 1, 1] und denieren für r R die Menge Dann ist V r := V + r = {v + r : v V }. A := r R eine abzählbare Vereinigung paarweise disjunkter Mengen mit V r [0, 1] A [ 1, 2]. Angenommen, V wäre Lebesgue-messbar. Dann ist auch V r für jedes r R messbar und somit insbesondere A. Das Lebesgue-Maÿ λ ist translationsinvariant, daher gilt λ(v ) = λ(v r ) für alle r R. Aus λ(a) = r R λ(v ) folgt λ(a) {0, }. Dies ist aber oenbar nicht möglich, da [0, 1] A [ 1, 2]. Also ist V nicht Lebesgue-messbar. 18 Giuseppe Vitali, , italienischer Mathematiker

58 48 1. Maÿ- und Wahrscheinlichkeitsräume Bemerkung. Vitali-Mengen werden auch als Vitali-Monster bezeichnet. Zur Konstruktion weiterer nicht Lebesgue-messbarer Mengen sei auf [12] verwiesen. 1.6 Beispiele kontinuierlicher Wahrscheinlichkeitsräume Im Fall eines kontinuierlichen Wahrscheinlichkeitsraums (Ω, F, P), ist Ω überabzählbar und im Gegensatz zu diskreten Wahrscheinlichkeitsräumen nun in den meisten Fällen die Potenzmenge keine geeignete σ-algebra, auf der sinnvolle Wahrscheinlichkeitsmaÿe deniert werden können. Wir werden nun drei wichtige Beispiele kontinuierlicher Wahrscheinlichkeitsräume kennenlernen Gleichverteilung Problemstellung. Auf dem Kreis mit Mittelpunkt im Ursprung und Radius r > 0 wird zufällig ein Punkt P gewählt. Wie wahrscheinlich ist es, dass der Abstand von P zum Punkt Q = (r, 0) gröÿer gleich dem Kreisradius ist? Modellierung. Den Punkt P zufällig zu wählen bedeutet, einen Winkel α [0, 2π) zufällig zu wählen. Daher setzen wir Ω := [0, 2π). Da jeder Winkel α Ω gleich wahrscheinlich sein soll, fordern wir vom gesuchten Wahrscheinlichkeitsmaÿ U Ω, dass U Ω ((a, b]) = U Ω ({α Ω: α (a, b]}) = b a 2π für alle 0 a b < 2π. Da somit insbesondere alle Intervalle (a, b] messbar sein müssen, wählen wir als σ-algebra B ([0, 2π)). Das gesuchte Wahrscheinlichkeitsmaÿ ist folglich durch U [0,2π) := 1 2π λ B([0,2π)) gegeben, wobei λ wiederum das Lebesgue-Maÿ auf (R, B(R)) bezeichnet. Man nennt U [0,2π) die Gleichverteilung auf [0, 2π). Wir berechnen nun noch die gesuchte Wahrscheinlichkeit. Es bezeichne P Q den Abstand zwischen P und Q. Da P Q r α [ π 3, 5π ] 3, erhalten wir U [0,2π) (Abstand Radius) = U [0,2π) ([ π 3, 5π 3 ]) = 4π/3 2π = 2 3. Definition 1.63 (Kontinuierliche Gleichverteilung) Es sei I R ein beschränktes Intervall. Das Wahrscheinlichkeitsmaÿ U I := λ B(I) λ(i)

59 1. Maÿ- und Wahrscheinlichkeitsräume 49 auf (I, B(I)) wird (kontinuierliche) Gleichverteilung oder uniforme Verteilung auf I genannt. Bemerkung. Beachte, dass für jedes Elementarereignis ω I gilt, dass U I ({ω}) = 0. Beispiel 1.64 (Zufälliger Punkt) Mittels des Wahrscheinlichkeitsraums ([0, 1], B([0, 1]), λ) wird das zufällige Auswählen eines Punktes aus dem Intervall [0, 1] modelliert. Weiters sei s > 1 und für jedes n N ein Intervall A n = [a n, b n ] [0, 1] mit b n a n = n s gegeben. Da λ(a n ) = n=1 n=1 1 n s <, folgt aus dem Lemma von Borel-Cantelli λ(a ) = 0, also liegt ein zufällig ausgewählter Punkt aus [0, 1] fast sicher in nur endlich vielen der Intervalle A n Exponentialverteilung Problemstellung. Eine Sekretärin empfängt im Durchschnitt λ = 3 Anrufe pro Stunde an ihrem Arbeitsplatz. Sie erscheint pünktlich um 8 Uhr zur Arbeit, t 1 und t 2 mit 0 t 1 < t 2 bezeichnen jeweils die vergangene Zeit in Stunden seit Arbeitsbeginn. Wie wahrscheinlich ist es, dass der erste Anruf im Zeitintervall (t 1, t 2 ] eingeht? Modellierung. Es bezeichne µ λ das gesuchte Wahrscheinlichkeitsmaÿ auf (R, B(R)), wir werden es anschlieÿend mit dem Namen Exponentialverteilung versehen. Wie bereits bei Einführung der Poisson-Verteilung besprochen, ist µ λ (in der ersten Stunde kein Anruf) = µ λ ((1, )) = π λ ({0}) = e λ. Entsprechend erhalten wir µ λ (in den ersten t 1 Stunden kein Anruf) = µ λ ((t 1, )) = π λt1 ({0}) = e λt 1 und somit µ λ (erster Anruf zwischen t 1 und t 1 Stunden) = µ λ ((t 1, t 2 ]) = = µ λ ((t 1, ) \ (t 2, )) = µ λ ((t 1, )) µ λ ((t 2, )) = = e λt 1 e λt 2 = ˆ t2 t 1 λe λt dt. Es bezeichne H die Heaviside 19 -Funktion, welche durch { 0, t < 0, H(t) := 1, t 0, 19 Oliver Heaviside, , britischer Mathematiker und Physiker

60 50 1. Maÿ- und Wahrscheinlichkeitsräume für t R gegeben ist. Weiters sei vgl. Abbildung 1.3. f(t ; µ λ ) := H(t)λe λt, t R, Definition 1.65 (Exponentialverteilung) Das durch µ λ ((a, b]) := ˆ b a f(t ; µ λ ) dt für a, b R mit a b eindeutig bestimmte Wahrscheinlichkeitsmaÿ µ λ auf (R, B(R)) heiÿt Exponentialverteilung mit Parameter λ > 0. Weiters nennt man f( ; µ λ ) Dichte von µ λ. λ f(t ; µ λ ) t Abbildung 1.3. Dichte f( ; µ λ ) von µ λ für λ = 1.5 Bemerkung. Es sei f : R [0, ] Riemann-integrierbar mit ˆ f(t) dt = 1. Man nennt f eine Wahrscheinlichkeitsdichte. Auf der Algebra A := {(a 1, b 1 ]... (a n, b n ]: n N, a 1 b 1... a n b n } denieren wir vermöge P 0 ((a, b]) := ˆ b a f(t) dt für a b ein normiertes Prämaÿ. Dass es sich bei P 0 tatsächlich um ein Prämaÿ handelt, zeigt man wie für λ 0 in Abschnitt Nach dem Fortsetzungssatz von Carathéodory kann P 0 zu einem eindeutig bestimmten Wahrscheinlichkeitsmaÿ P auf σ(a) = B(R)

61 1. Maÿ- und Wahrscheinlichkeitsräume 51 fortgesetzt werden. Zur Konstruktion der Exponentialverteilung µ λ bleibt also zu überprüfen, dass Dies ist aber oensichtlich erfüllt. ˆ f(t ; µ λ ) dt = 1. Die Exponentialverteilung wird häug verwendet, um zufällige Wartezeiten zu modellieren. Beispielsweise werden auf diese Weise die Eintrittszeiten von Schäden, für die eine Versicherung aufkommen muss, modelliert. Ein anderes Beispiel liefert die Modellierung der zufälligen Lebensdauer von Atomen beim radioaktiven Zerfall Normalverteilung Beispiel 1.66 (100-maliges Würfeln) Wie wahrscheinlich ist es, dass unter n = 100 Würfen mit einem Würfel zwischen 12 und 22 Sechser auftreten? Diese Wahrscheinlichkeit können wir explizit berechnen, sie ist B n,p ({12,..., 22}) = 22 k=12 ( 100 k ) ( ) 1 k ( ) k 0.859, 6 6 wobei p = 1/6. Man könnte sich diese mühsame Rechnung durch Approximation mittels der Poisson-Verteilung ersparen, jedoch ist die Näherung in diesem Fall nicht sehr gut, denn p ist nicht klein genug. Setzen wir λ := np = 100/6, so erhalten wir nämlich π λ ({12,..., 22}) = 22 k=12 λ k k! e λ Wie lässt sich B n,p für n bei festem p approximieren? Für µ R und σ > 0 denieren wir die Gauÿsche 20 Glockenkurve vgl. Abbildung 1.4. f ( ; N µ,σ 2) : R (0, ): t 1 2πσ 2 e (t µ)2 /(2σ 2), Definition 1.67 (Normalverteilung) Das durch N µ,σ 2 ((a, b]) := ˆ b a f ( t ; N µ,σ 2) dt für a, b R mit a b 20 Johann Carl Friedrich Gauÿ, , deutscher Mathematiker und Physiker

62 52 1. Maÿ- und Wahrscheinlichkeitsräume 1 2πσ 2 f ( ) t ; N µ,σ 2 µ σ µ µ + σ t Abbildung 1.4. Dichte einer Normalverteilung eindeutig bestimmte Wahrscheinlichkeitsmaÿ N µ,σ 2 auf (R, B(R)) heiÿt Normalverteilung oder Gauÿ-Verteilung mit Erwartungswert µ und Varianz σ 2. Man nennt σ die Standardabweichung. Entsprechend heiÿt f ( ; N µ,σ 2) Dichte von Nµ,σ 2 und man bezeichnet diese dann auch als Gauÿ-Dichte. Im Speziellen wird N 0,1 Standardnormalverteilung genannt. Bemerkung. Zur Konstruktion von N µ,σ 2 mittels des Fortsetzungssatzes von Carathéodory gilt es noch zu überprüfen, ob wir ein normiertes Prämaÿ erhalten. Dies folgt jedoch aus ˆ ˆ f ( t ; N µ,σ 2) dt = 1 e (t µ)2 /(2σ 2) dt = 2πσ 2 [ ] ˆ = x = t µ 2σ = 1 π e x2 dx = 1. Beispiel 1.68 (Temperatur im Kühlhaus) Die Temperatur in C in einem Kühlhaus zur Lagerung von subtropischen Früchten sei normalverteilt mit Erwartungswert µ = 7 und Varianz σ 2 = 4, d. h. sie wird geeignet durch den Wahrscheinlichkeitsraum ( R, B(R), Nµ,σ 2) beschrieben. Was ist die Wahrscheinlichkeit, dass die Temperatur im akzeptablen Bereich zwischen 5 C und 13 C liegt? Für a, b R mit a < b erhalten wir N µ,σ 2 ((a, b)) = 1 2πσ 2 ˆ b a ˆ b µ = 1 σ 2π a µ σ e (t µ)2 /(2σ 2) [ ] dt = x = t µ σ = e x2 /2 dx = N 0,1 ( ( a µ σ, b µ ) ) σ =

63 1. Maÿ- und Wahrscheinlichkeitsräume 53 wobei Φ gegeben durch Φ(x) := ˆ x ( ( = N 0,1, b µ ] ) ( ( N 0,1, a µ ] ) σ = ) ) = Φ Φ, ( b µ σ σ ( a µ σ ˆ x f (t ; N 0,1 ) dt = 1 2π e t2 /2 dt, x R, die Verteilungsfunktion der Standardnormalverteilung bezeichnet, welche wir im nächsten Kapitel genauer besprechen werden. Die Funktionswerte von Φ sind für positive Argumente tabelliert. Für x < 0 verwendet man, dass Φ(x) = 1 Φ( x), vgl. Aufgabe (1.60). Unter Verwendung einer solchen Tabelle oder mit entsprechender Computerunterstützung erhalten wir für das eingangs geschilderte Beispiel N 7,4 ((5, 13)) = Φ ( ) Φ ( ) = Φ(3) Φ( 1) = Φ(3) + Φ(1) für die Wahrscheinlichkeit, dass die Temperatur zwischen 5 C und 13 C liegt. Die Normalverteilung ist von zentraler Bedeutung, nicht zuletzt aufgrund des Zentralen Grenzwertsatzes, den wir später formulieren werden. Ein Spezialfall dieses Satzes ist der nachfolgende, welcher eine Antwort auf die in Beispiel 1.66 aufgeworfene Frage gibt, vgl. Abbildung 1.5. Satz 1.69 (Grenzwertsatz von de Moivre 21 -Laplace) Es sei p (0, 1) und q := 1 p. Setzen wir µ := np und σ 2 := npq, so existiert für jedes k N 0 ein Restglied {R n (k)} n N R N mit lim n R n (k) = 0 und B n,p ({k}) = f ( k ; N µ,σ 2) (1 + Rn (k)). Beweis. Es sei auf [19, Abschnitt I.6] bzw. [11, S. 223] verwiesen. Eine Vorstufe des obigen Grenzwertsatzes wurde bereits um ca von Jakob Bernoulli bewiesen, diesen nannte er selbst das Goldene Theorem. Satz 1.70 (Goldenes Theorem von Jakob Bernoulli) Es sei p (0, 1) und q := 1 p. Weiters sei C > 0 und K(n, k) := k N 0. Setzen wir µ := np und σ 2 := npq, so gilt lim n,k K(n,k) C B n,p ({k}) f ( ) = 1. k ; N µ,σ 2 npq für n N und k np 21 Abraham de Moivre, , französischer Mathematiker

64 54 1. Maÿ- und Wahrscheinlichkeitsräume Abbildung 1.5. Vergleich der Binomialverteilung B 10,1/2 mit der Gauÿ-Dichte f ( ; N 5,5/2 ) Übungsaufgaben (1.1) Kombinatorische Grundlagen: Gegeben sei eine Urne mit n N Kugeln, welche mit 1,..., n durchnummeriert sind. Weiters sei k {1,..., n}. (a) Wieviele Möglichkeiten gibt es, k Kugeln mit Zurücklegen zu ziehen? (b) Was ist die Anzahl der Möglichkeiten, k Kugeln ohne Zurücklegen zu ziehen? Begründen Sie jeweils Ihr Ergebnis. (1.2) Operationen auf Bild- und Urbildmengen I: Gegeben seien zwei Mengen Ω und Σ, beliebige Indexmengen I und J und zwei Mengen A Ω und B Σ sowie eine Abbildung f : Ω Σ und Familien von Teilmengen {A i } i I P(Ω) I und {B j } j J P(Σ) J. Beweisen Sie die folgenden Aussagen. (a) f ( i I A ) i = i I f(a i) (b) f ( i I A ) i i I f(a i) ( ) (c) f 1 j J B j = j J f 1 (B j ) ( ) (d) f 1 j J B j = j J f 1 (B j ) (e) f 1 (B c ) = (f 1 (B)) c Notation: i I A i := {ω Ω: i I : ω A i } i I A i := {ω Ω: i I : ω A i } (Vereinigung) (Durchschnitt) f(a) := {f(ω): ω A} (Bildmenge von A unter f) f 1 (B) := {ω Ω: f(ω) B} (Urbildmenge von B unter f) A c := {ω Ω: ω / A} und B c := {σ Σ: σ / B} (Komplement)

65 1. Maÿ- und Wahrscheinlichkeitsräume 55 Bemerkung: Für zwei Mengen C, D Ω gilt C = D (ω C ω D) und C D (ω C ω D). (1.3) Darstellung der Mengendifferenz: Es seien A, B Ω. Zeigen Sie, dass A \ B = A B c. Fertigen Sie weiters ein entsprechendes Mengendiagramm an. (1.4) Darstellung als disjunkte Vereinigung: Zeigen Sie, dass für zwei Mengen A und B stets (a) A B = A (B \ A) (b) B = (A B) (B \ A) gilt. Fertigen Sie wiederum entsprechende Mengendiagramme an. (1.5) De Morgansche Regeln: Beweisen Sie die formulierten De Morganschen Regeln, also Satz 1.5 (1.6) Mächtigkeit der Potenzmenge: Zeigen Sie für eine endliche Menge Ω auf zwei Varianten, dass P(Ω) = 2 Ω. (a) Betrachten Sie die Menge A := {0, 1} Ω und begründen Sie, dass A = P(Ω). (b) Bestimmen Sie für k {0,..., Ω } die Anzahl der k-elementigen Teilmengen von Ω, vgl. Aufgabe (1.1). Wie bestimmt man dadurch P(Ω)? (1.7) Es seien m, n N. Zeigen und interpretieren Sie die Vandermondesche Identität, nach welcher für k N 0 mit k m + n gilt, dass k j=0 ( )( ) m n = j k j ( m + n Hinweis: (x + 1) m (x + 1) n = (x + 1) m+n, Koezientenvergleich (1.8) Es seien E, F, G drei Ereignisse. Finden Sie einen Ausdruck für das Ereignis, dass von E, F, G (a) nur F eintritt, (b) sowohl E als auch F, aber nicht G eintritt, (c) mindestens eines der Ereignisse eintritt, (d) mindestens zwei Ereignisse eintreten, (e) alle drei Ereignisse eintreten, (f) keines der Ereignisse eintritt, k ).

66 56 1. Maÿ- und Wahrscheinlichkeitsräume (g) höchstens ein Ereignis eintritt, (h) höchstens zwei Ereignisse eintreten. Ein Beispiel für (a) ist etwa E c F G c. (1.9) Zeigen Sie, dass es sich bei dem Mengensystem A aus Beispiel 1.4 um eine Algebra auf R handelt. (1.10) Ist (a) eine Algebra? (b) eine σ-algebra? G = {A R: A oder A c ist abzählbar} (1.11) Geben Sie zwei σ-algebren an, deren Vereinigung keine σ-algebra ist. (1.12) Es seien Ω eine beliebige Menge und G 1, G 2 P(Ω) mit G 1 G 2. Zeigen Sie, dass σ : {G P(Ω)} {F ist σ-algebra auf Ω}: G σ (G) inklusionserhaltend ist, d. h. dass σ (G 1 ) σ (G 2 ) gilt. (1.13) Wieviele Elemente enthält die kleinste σ-algebra auf Ω = [0, 1], welche die Mengen A 1 = [ 0, 1 2) und A2 = { 1 4} enthält? Geben Sie die σ-algebra explizit an. (1.14) Spur-σ-Algebra: Es sei F eine σ-algebra auf Ω und A Ω. Zeigen Sie, dass es sich bei F A = {B A: B F} um eine σ-algebra handelt. Gilt F A F? (1.15) Symmetrische Differenzen: Es sei Ω eine beliebige Menge. Man nennt A B := (A \ B) (B \ A) die symmetrische Dierenz von A und B. Zeigen Sie: (a) A B = (A B) \ (A B) (b) Eine σ-algebra F auf Ω ist bezüglich der symmetrischen Dierenzen abgeschlossen, d. h. F := {A B : A, B F} = F.

67 1. Maÿ- und Wahrscheinlichkeitsräume 57 (c) Sind F 1 und F 2 zwei σ-algebren auf Ω, dann ist auch ihre symmetrische Dierenz eine σ-algebra. F 1 F 2 := {A B : A F 1, B F 2 } (1.16) Es seien A 1, A 2,..., A n Ω paarweise disjunkt mit Ω = n k=1 A k. (a) Man zeige, dass zu B σ ({A 1, A 2,..., A n }) eine Indexmenge I {1,..., n} existiert, sodass B = k I A k. Hinweis: Zeigt man, dass { } F = A k : I {1,..., n} k I eine σ-algebra ist, so folgt die Inklusion σ ({A 1, A 2,..., A n }) F aus der Denition von σ ({A 1, A 2,..., A n }). (b) Wieviele Elemente enthält σ({a 1, A 2,..., A n })? (1.17) Man zeige, dass σ (G A ) = B ( R d), wobei G A = { A R d abgeschlossen }. (1.18) Beweisen Sie, dass n N ( 0, 1 1 n] = (0, 1). (1.19) Es sei O R oen. Zeigen Sie, dass O die Vereinigung abzählbar vieler oener Intervalle ist. (1.20) Es sei G I := {(a, b): a < b}. Verwenden Sie Aufgabe (1.19) um zu zeigen, dass σ (G I ) = B(R). (1.21) Wir betrachten die Mengensysteme G 1 := {(a, b]: a < b} und G 2 := {(, x]: x R}. Zeigen Sie, dass σ (G 1 ) = σ (G 2 ) = B(R).

68 58 1. Maÿ- und Wahrscheinlichkeitsräume (1.22) Gegeben sei die Borel-Menge B B ( R d). Zeigen Sie, dass ({ }) B (B) = σ B O : O R d oen. (1.23) Geben Sie einen Wahrscheinlichkeitsraum (Ω, F, P) und Ereignisse A, B F an, anhand derer Sie die Identitäten P(A \ B) = P(A) P(A B) und P(A B) + P(A B) = P(A) + P(B) veranschaulichen. (1.24) Beweisen Sie Satz (1.25) Augensumme: Betrachten Sie zwei faire Würfel mit den Augenzahlen {1, 2,..., 6}. Modellieren Sie den Wurf beider Würfel mittels eines geeigneten Wahrscheinlichkeitsraums. Mit welcher Wahrscheinlichkeit ist die Augensumme m {2,..., 12}? (1.26) Reise nach Jerusalem einmal anders: Es seien n 3 Sitzplätze in (a) einem Kreis (b) einer Reihe angeordnet. Die Sitzplätze werden zufällig an n Personen vergeben, jede Sitzplatzverteilung sei gleich wahrscheinlich. Modellieren Sie dieses Zufallsexperiment mittels eines geeigneten Wahrscheinlichkeitsraums. Ist die Wahrscheinlichkeit, dass zwei bestimmte Personen nebeneinander sitzen, im Fall (a) oder (b) höher? Wie hoch ist die jeweilige Wahrscheinlichkeit? (1.27) Stetigkeit von oben: Beweisen Sie, dass ein Wahrscheinlichkeitsmaÿ stetig von oben ist. (1.28) Multiple-Choice: Bei einem Multiple-Choice-Test stehen bei jeder der 13 Fragen drei Antwortmöglichkeiten, wobei jeweils nur eine richtig ist. Zum positiven Bestehen müssen mindestens sechs Fragen richtig beantwortet werden. Ein etwas unvorbereiteter Prüing beschlieÿt, bei jeder Frage zufällig eine der drei Antwortmöglichkeiten anzukreuzen. Mit welcher Wahrscheinlichkeit besteht er die Prüfung? (1.29) Hypergeometrische Verteilung: Zeigen Sie, dass es sich bei der hypergeometrischen Verteilung tatsächlich um ein Wahrscheinlichkeitsmaÿ handelt. (1.30) Ziehen mit und ohne Zurücklegen: Gegeben sei eine Urne mit N Kugeln, davon seien W weiÿ und N W schwarz. (a) Es werden n Kugeln mit Zurücklegen gezogen. Modellieren Sie dieses Zufallsexperiment mittels eines geeigneten Wahrscheinlichkeitsraums und bestimmen Sie die Wahrscheinlichkeit, k weiÿe Kugeln zu ziehen. Warum handelt es sich hierbei um ein Bernoulli-Experiment?

69 1. Maÿ- und Wahrscheinlichkeitsräume 59 (b) Nun werden n Kugeln ohne Zurücklegen gezogen. Wie lautet das entsprechende Modell und was ist nun die Wahrscheinlichkeit, k weiÿe Kugeln zu ziehen? Handelt es sich hierbei ebenfalls um ein Bernoulli-Experiment? (1.31) Vergleich diskreter Verteilungen: Veranschaulichen und vergleichen Sie die Binomialverteilung, hypergeometrische Verteilung, Poisson-Verteilung und geometrische Verteilung für geeignete Parameter mittels Stabdiagrammen. (1.32) Diskreter Wahrscheinlichkeitsraum: Es sei Ω höchstens abzählbar. Gegeben sei der diskrete Wahrscheinlichkeitsraum (Ω, P(Ω), P). Zeigen Sie, dass P = ω Ω p ω δ ω, wobei p ω = P ({ω}) für ω Ω. (1.33) Faschingskrapfen: In einer Bäckerei wurden 50 Faschingskrapfen gebacken, da jedoch die Marillenmarmeladebefüllungsmaschine sonderbare Laute von sich gegeben hat, beschlieÿt der Bäckermeister, die Erzeugnisse zu testen also zu verkosten. Was er nicht weiÿ: Tatsächlich litt die Maschine unter Marmeladenverstopfung und 10 der 50 erzeugten Krapfen konnten nicht befüllt werden. Der Meister lässt seine Lehrlinge 10 zufällig ausgewählte Krapfen testen. Wie hoch ist die Wahrscheinlichkeit, dass die Lehrlinge (a) genau zwei (b) keinen (c) alle 10 Krapfen ohne Füllung bekommen? Wie hoch ist die Wahrscheinlichkeit, dass unter 20 Krapfen genau 4 ohne Füllung sind? Geben Sie den zur Modellierung dieses Zufallsexperiments verwendeten Wahrscheinlichkeitsraum an. (1.34) Supermarkt: In einer Filiale einer Supermarktkette kauft im Schnitt alle drei Minuten ein Kunde ein. Was ist die Wahrscheinlichkeit, dass (a) in einer Stunde 15 Kunden (b) in 20 Minuten 5 Kunden einkaufen? Geben Sie den zur Modellierung verwendeten Wahrscheinlichkeitsraum an. (1.35) Das klassische Geburtstagsproblem: Wie hoch ist die Wahrscheinlichkeit, dass mindestens zwei von n der Studierenden im Stochastik-Proseminar am selben Tag Geburtstag haben? Man nehme dabei an, das Jahr habe 365 Tage und alle Tage sind als Geburtstag gleich wahrscheinlich.

70 P({ω}) = 1, ω Ω. 4 A := {ω 1, ω 2 },B := {ω 1, ω 3 } C := {ω 1, ω 4 } A, B, C (Ω, F, P) A F P(A) {0, 1}. 60 A 1. Maÿ- und Wahrscheinlichkeitsräume B F (1.36) Geometrische Verteilung: (Ω, F, P) Zeigen Sie für p (0, 1), dass die Ageometrische F, P(A) > 0. Verteilung g p einb Wahrscheinlichkeitsmaÿ 1,...,B n F auf (N 0, P(N 0 )) ist. Ω B i B j = i = j n i=1 (1.37) Türproblem: Nach B i = Ω. P(B j ) > 0 j =1,...,n, einer durchzechten Nacht kommt ein Mann in etwas angetrunkenem Zustand an seine Haustür. Er hat N für ihn inp(a B seiner j )P(B Verfassung j ) ununterscheidbare Schlüssel in seiner Tasche und beschlieÿt zu n P(B j A) = k=1 versuchen, P(A B k)p(b die k Haustüre ). folgendermaÿen zu önen: Er nimmt einen Schlüssel aus seiner Tasche, sperrt dieser nicht, so legt er ihn wieder (Ω, F, P) zu den anderen. Dies wiederholt eraso 1,...A lange, n bis F die Tür sich önet. Was ist die Wahrscheinlichkeit, dass er höchstens k Versuche benötigt, um sein Haus zu betreten? Geben A c 1,A 2,...,A Sie den n zur Modellierung verwendeten Wahrscheinlichkeitsraum an. A c 1,...,Ac n (1.38) Negative Binomialverteilung: (Ω, F, P) Beim Würfeln mit einem fairena Würfel 1,...,Asoll n man F möglichst oft eine Sechs würfeln, muss aber abbrechen, sobald man insgesamt n N mal keine Sechs gewürfelt hat. Man modelliere n dieses Zufallsexperiment mit einem geeigneten Wahrscheinlichkeitsraum undpberechne A i für =1 k P(A N 0 die c 1) Wahrscheinlichkeit, dass man nach n Fehlversuchen, k-mal eine Sechs gewürfelt... P(A c n). hat. i=1 (1.39) Beweisen Sie Satz (1.40) Stromkreis: Gegeben sei folgender Schaltplan: Jeder der Schalter A, B, C, D, E ist unabhängig voneinander mit Wahrscheinlichkeit p (0, 1) geönet und demzufolge mit Wahrscheinlichkeit 1 p geschlossen. (a) Wie wahrscheinlich ist es, dass alle Schalter geschlossen sind? (b) Mit welcher Wahrscheinlichkeit ieÿt Strom? Geben Sie den zur Modellierung dieses Zufallsexperiments verwendeten Wahrscheinlichkeitsraum an. (1.41) Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum und A F ein fast sicheres oder fast unmögliches Ereignis, d. h. P(A) {0, 1}. Man zeige, dass A von jedem Ereignis B F unabhängig ist. (1.42) Geben Sie einen Wahrscheinlichkeitsraum und drei Ereignisse A, B, C an, sodass A, B, C paarweise unabhängig, jedoch nicht unabhängig sind.

71 1. Maÿ- und Wahrscheinlichkeitsräume 61 (1.43) Bedingte Wahrscheinlichkeit: Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum und B F mit P(B) > 0. Zeigen Sie, dass P( B) ein Wahrscheinlichkeitsmaÿ auf (Ω, F) ist. (1.44) Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum und n N. Des Weiteren seien A 1,..., A n F voneinander unabhängige Ereignisse. Zeigen Sie, dass für alle I {1,..., n} gilt, dass ( ) P A i = 1 P ( A c ) i. i I i I (1.45) Monty-Hall 22 -Dilemma: Bei einer Quizshow kann der Kandidat zwischen drei Toren, hinter denen sich der mögliche Gewinn verbirgt, wählen. Hinter zwei Toren benden sich Nieten, während hinter dem dritten Tor ein Auto auf seinen Gewinner wartet. Der Kandidat muss sich am Anfang für eines der drei Tore entscheiden. Daraufhin önet der Moderator ein Tor, das der Kandidat nicht gewählt hat und hinter dem sich eine Niete bendet. Der Kandidat kann sich nun zwischen den zwei verbleibenden Toren entscheiden. Soll der Kandidat sein bereits gewähltes Tor behalten oder auf das andere Tor wechseln, um seine Gewinnchancen zu maximieren? Wie hoch sind jeweils die Gewinnwahrscheinlichkeiten? (1.46) CSI: Innsbruck: Die Innsbrucker Polizeizentrale nimmt Anrufe von den Revieren Mariahilf, Pradl und Bahnhof entgegen. Die Zentrale bekommt im Durchschnitt pro Tag vom Revier Pradl dreimal so viele und vom Revier Bahnhof viermal so viele Anrufe weitergeleitet wie vom Revier Mariahilf. In der Regel wird von Mariahilf in einem von 10000, von Pradl in einem von 5000 und von Bahnhof in einem von 4000 Anrufen ein Kapitalverbrechen gemeldet. Der Zentrale wird ein Mord gemeldet. Mit welcher Wahrscheinlichkeit wurde von Pradl angerufen? (1.47) Trickreiche Münzen: Wir betrachten zehn Münzen, wobei die Wahrscheinlichkeit, dass man beim Wurf der k-ten Münze Kopf erhält, gleich k/10 ist. Es wird zufällig eine der zehn Münzen ausgewählt. Was ist unter der Bedingung Kopf zu erhalten die bedingte Wahrscheinlichkeit, dass die fünfte Münze ausgewählt wird? (1.48) Konsens: Ein Parlament setzt sich aus zwei Parteien zusammen. Mit einem Anteil von p (0, 1) ist die konservative Partei vertreten, mit einem Anteil von (1 p) die liberale. Mitglieder der konservativen Partei stimmen bei jedem Abstimmungsdurchgang gleich ab, während jedes Mitglied der liberalen Partei mit Wahrscheinlichkeit q (0, 1) seine Meinung von einem Durchgang auf den nächsten ändert. Man beobachtet nun einen Abgeordneten und weiÿ, dass er bereits zweimal gleich 22 Monty Hall, geboren 1921, Moderator der Spieleshow Let's Make a Deal

72 62 1. Maÿ- und Wahrscheinlichkeitsräume abgestimmt hat. Wie groÿ ist die Wahrscheinlichkeit, dass er beim nächsten Mal wieder gleich stimmt? (1.49) Es sei µ ein äuÿeres Maÿ auf Ω. Zeigen Sie: Die Menge A Ω ist genau dann µ -messbar, wenn für alle C Ω mit µ (C) <. µ (C) µ (C A) + µ (C \ A) (1.50) Beweisen Sie, dass das Mengensystem Σ aus Satz 1.42 eine Algebra auf Ω ist. (1.51) Beweisen Sie die Aussage in Beispiel (1.52) Mengenoperationen auf Produkten: Es seien Ω 1 und Ω 2 zwei beliebige Mengen sowie A 1, B 1 Ω 1 und A 2, B 2 Ω 2. (a) Zeigen Sie, dass (A 1 A 2 ) (B 1 B 2 ) = (A 1 B 1 ) (A 2 B 2 ). (b) Warum gilt (A 1 A 2 ) (B 1 B 2 ) = (A 1 B 1 ) (A 2 B 2 ) im Allgemeinen nicht? (c) Begründen Sie, warum auch (A 1 A 2 ) c = A c 1 Ac 2 im Allgemeinen nicht gilt? (1.53) Es sei Ω eine beliebige Menge und {A n } n=1 P(Ω)N eine monotone Folge von Teilmengen, d. h. entweder ist A 1 A 2... oder A 1 A 2... erfüllt. Zeigen Sie, dass lim inf n A n = lim sup n A n. (1.54) Zeitlich intensives Würfelspiel: Zu Beginn des Spiels geben wir uns eine Folge {k n } n=1 {1,..., 6}N vor, der weitere Spielablauf lautet wie folgt : Im n-ten Durchgang, n N, würfeln wir k n -mal mit einem fairen Würfel. Wir gewinnen den Durchgang, wenn wir in allen k n Würfen eine Sechs würfeln. Zeigen Sie, dass (a) die Wahrscheinlichkeit unendlich oft zu gewinnen genau dann gleich 1 ist, wenn ( ) 1 kn =. 6 n=1 (b) die Wahrscheinlichkeit unendlich oft zu verlieren immer 1 ist. (1.55) Es sei Q (0, 1) = {x 1, x 2,...}. Stimmt es, dass (0, 1) n=1 ( xn 1 4 n, x n n )?

73 1. Maÿ- und Wahrscheinlichkeitsräume 63 (1.56) Cantor-Menge: Es sei {C n } n=0 die durch C 0 := [0, 1] und C n := C n 1 3 ( ) C n 1 3, n N, rekursiv denierte Folge von Teilmengen von [0, 1], wobei C n 1 3 := { x 3 : x C } n 1 und C n 1 3 := { 2+x 3 : x C n 1}. Man entfernt also aus dem Intervall [0, 1] das mittlere oene Drittel, dann wiederum aus den verbleibenden Stücken das mittlere oene Drittel und setzt diesen Vorgang iterativ fort, vgl. Es sei C := C n, n=0 diese Menge ist als Cantor 23 -Menge oder Cantorsches Diskontinuum bekannt. Zeige, dass C eine Borel-Menge mit λ(c) = 0 ist. Bemerkung: C ist überabzählbar. (1.57) Smith-Volterra-Cantor-Menge: Wir betrachten die Folge {S n } n=0 von Mengen, wobei diese rekursiv durch S 0 := [0, 1], S 1 := S 0 \ ( 3 8, 5 ) 8, S2 := S 1 \ (( 5 32, 7 ) ( , 27 32)),... gegeben ist. Man entfernt also aus [0, 1] das mittlere oene Viertel, dann aus den verbliebenen Teilen jeweils in der Mitte das oene Intervall der Länge 1/16, aus den vier verbliebenen Teilen weiters jeweils ein oenes Intervall der Länge 1/64 und so weiter, vgl. Nun sei S := S n. n=0 die sogenannte Smith 24 -Volterra 25 -Cantor-Menge. Zeige, dass S eine Borel- Menge mit λ(s) = 1/2 ist. (1.58) Gedächtnislosigkeit der Exponentialverteilung: Die zufällige Lebensdauer einer Glühbirne wir als exponentialverteilt angenommen, d. h sie wird für ein λ > 0 mittels des Wahrscheinlichkeitsraums (R, B(R), µ λ ) modelliert. Für a, b 0 bezeichne C das Ereignis, dass die Glühbirne länger als b + a Stunden hält, und A das Ereignis, dass sie nicht in den ersten a Stunden versagt. Was ist die Wahrscheinlichkeit von C gegeben dem Ereignis B, dass die Glühbirne bereits b Stunden gehalten hat? Zeigen Sie, dass µ λ (C B) = µ λ (A). 23 Georg Ferdinand Ludwig Philipp Cantor, , deutscher Mathematiker 24 Henry John Stephen Smith, , englischer Mathematiker 25 Vito Volterra, , italienischer Mathematiker und Physiker

74 64 1. Maÿ- und Wahrscheinlichkeitsräume (1.59) Es sei µ R und σ > 0. Führen Sie für die Gauÿ-Dichte f ( ; N µ,σ 2) eine Kurvendiskussion durch. (Extrema, Wendepunkte, Monotoniebereiche, asymptotisches Verhalten,...) (1.60) Symmetrie von Φ: Zeigen Sie, dass Φ( x) = 1 Φ(x) für alle x R. (1.61) Schokoladenfabrik: In einer Fabrik werden maschinell Schokoladentafeln hergestellt. Auf dem Etikett einer jeden Tafel wird ein Gewicht von 200 g angegeben. Aus Erfahrung weiÿ man, dass das Gewicht normalverteilt ist und zwar mit Erwartungswert µ = 198 und Standardabweichung σ = 3. Der kleine Charlie darf sich bei einer Führung durch die Schokoladenfabrik eine Tafel aussuchen. Nun hot er natürlich auf besonders viel Schokolade. (a) Wie hoch ist die Wahrscheinlichkeit, dass seine Schokoladentafel mehr als 205 g wiegt? (b) Mit welcher Wahrscheinlichkeit, wiegt die Tafel zwischen 195 g und 200 g?

75 1. Maÿ- und Wahrscheinlichkeitsräume 65 Schulaufgaben Die nachfolgenden Aufgaben stammen, sofern keine weiteren Angaben gemacht werden, von (Stand: Februar 2013). (S1.1) Reihenfolge: Für eine Abfolge von fünf verschiedenen Bildern gibt es nur eine richtige Reihung. Diese Bilder werden gemischt und ohne sie anzusehen in einer Reihe aufgelegt. Wie groÿ ist die Wahrscheinlichkeit dafür, dass die richtige Reihenfolge erscheint? (S1.2) Münzwurf: Eine Münze wird drei Mal geworfen. Z steht für Zahl, W für Wappen. (a) Gib alle möglichen Ausfälle (z. B. ZWZ) an. (b) Gib alle Ausfälle an, die zu folgenden Ereignissen E 1, E 2, E 3 gehören: E 1 E 2 E 3 Ereignis genau zweimal Zahl mindestens zweimal Zahl niemals Zahl Ausfälle (c) Beschreibe die Gegenereignisse E 1, E 2, E 3 der Ereignisse aus (b) verbal und gib ihre Wahrscheinlichkeiten P(E 1 ), P(E 2 ) und P(E 3 ) an: verbal E 1 P(E 1 ) = E 2 P(E 2 ) = E 3 P(E 3 ) = Wahrscheinlichkeit (S1.3) Augensumme: Zwei Würfel werden geworfen und die Augensumme wird ermittelt. Untersuche, ob das Ereignis Augensumme 6 oder Augensumme 9 wahrscheinlicher ist. (S1.4) Wahrscheinlichkeit eines Defekts: Eine Maschine besteht aus den drei Bauteilen A, B und C. Diese haben die im nachstehenden Modell eingetragenen Defekthäugkeiten. Eine Maschine ist defekt, wenn mindestens ein Bauteil defekt ist.

76 66 1. Maÿ- und Wahrscheinlichkeitsräume Berechnen Sie die Wahrscheinlichkeit, dass bei einer defekten Maschine zwei oder mehr Bauteile defekt sind! (S1.5) Sehr Gut: Ein Schüler rechnet bei jedem Test mit einer Wahrscheinlichkeit von 20% für die Note Sehr Gut. Wie schaut in diesem Fall bei 8 Tests die Sehr Gut- Verteilung aus? Berechne also die Wahrscheinlichkeiten für 0, 1, 2,..., 8 sehr gute Beurteilungen. (Timischl; Kaiser: Ingenieur-Mathematik 4, E. Dorner Verlag, 3. Auage, 2005, S. 246, Nr. 6.13) (S1.6) Ausschuss: In einer Fertigungsabteilung ist bekannt, dass im Schnitt jedes 200. Stück Ausschuss ist. Wie groÿ ist die Wahrscheinlichkeit (Näherung durch eine Poisson-Verteilung), dass in einer Tagesproduktion von 1000 Stück (a) mindestens ein Stück, (b) höchstens 5 Stück Ausschuss ist? (Timischl; Kaiser: Ingenieur-Mathematik 4, E. Dorner Verlag, 3. Auage, 2005, S. 246, Nr. 6.23) (S1.7) Dreimäderlhaus: Die Wahrscheinlichkeit unter 3 Kindern 3 Mädchen zu haben (Dreimäderlhaus) beträgt 11.6 %. Wie groÿ ist die Wahrscheinlichkeit, beim vierten Kind einen Buben zu bekommen? (S1.8) 6 aus 45: Seit 1986 wird in Österreich das Lotto-Spiel 6 aus 45 veranstaltet. Dabei werden bei jeder Ziehung aus den Zahlen 1 bis 45 sechs Zahlen zufällig ausgewählt. Angenommen, jemand gibt bei einer Spielrunde genau einen Tipp ab, d. h. er kreuzt (natürlich vor der Ziehung) auf dem Spielschein sechs Zahlen an.

77 1. Maÿ- und Wahrscheinlichkeitsräume 67 (a) Wie groÿ ist die Wahrscheinlichkeit für diesen Spieler bei der Ziehung 6 Richtige zu tippen? (b) In Deutschland werden beim Lotto 6 aus 49 Zahlen gezogen. Wo ist die Wahrscheinlichkeit für 6 Richtige gröÿer, in Deutschland oder in Österreich? Begründe deine Entscheidung. (S1.9) Binomialverteilung: Kreuzen Sie jene Situation(en) an, die mit Hilfe der Binomialverteilung modelliert werden kann/können! In der Kantine eines Betriebs essen 80 Personen. Am Montag werden ein vegetarisches Gericht und drei weitere Menüs angeboten. Erfahrungsgemäÿ wählt jede vierte Person das vegetarische Gericht. Es werden 20 vegetarische Gerichte vorbereitet. Wie groÿ ist die Wahrscheinlichkeit, dass diese nicht ausreichen? Bei einer Lieferung von 20 Mobiltelefonen sind fünf defekt. Es werden drei Geräte gleichzeitig entnommen und getestet. Mit welcher Wahrscheinlichkeit sind mindestens zwei davon defekt? In einer Klasse müssen die Schüler/innen bei der Überprüfung der Bildungsstandards auf einem anonymen Fragebogen ihr Geschlecht (m, w) ankreuzen. In der Klasse sind 16 Schülerinnen und 12 Schüler. Fünf Personen haben auf dem Fragebogen das Geschlecht nicht angekreuzt. Mit welcher Wahrscheinlichkeit benden sich drei Schüler unter den fünf Personen? Ein Groÿhändler erhält eine Lieferung von Mobiltelefonen, von denen erfahrungsgemäÿ 5 % defekt sind. Mit welcher Wahrscheinlichkeit benden sich 80 bis 90 defekte Geräte in der Lieferung? In einer Klinik werden 500 kranke Personen mit einem bestimmten Medikament behandelt. Die Wahrscheinlichkeit, dass schwere Nebenwirkungen auftreten, beträgt Wie groÿ ist die Wahrscheinlichkeit, dass bei mehr als zwei Personen schwere Nebenwirkungen auftreten? (S1.10) Gewinnspiel: Frau König betreut bei einem Schulfest ein Gewinnspiel, bei dem Kugeln aus einer Urne gezogen werden. Die Urne enthält Kugeln, die entweder die Aufschrift +2, +5 oder -7 tragen. Eine Kugel mit der Aufschrift -7 wird mit der Wahrscheinlichkeit 0.4 gezogen. Eine Kugel mit der Aufschrift +2 wird mit derselben Wahrscheinlichkeit gezogen wie eine Kugel mit der Aufschrift +5. (a) Gib ein Beispiel an, wie die Urne bestückt sein könnte. (b) Ein Spiel besteht darin, dass zwei Mal nacheinander eine Kugel mit Zurücklegen gezogen und ihre Zahl notiert wird. Dann werden die beiden Zahlen

78 68 1. Maÿ- und Wahrscheinlichkeitsräume addiert. Ist die Summe S positiv, erhält der Spieler S Euro ausbezahlt. Ist die Summe S negativ, hat der Spieler verloren und muss diesen Betrag an Frau König bezahlen. Bestimme die Wahrscheinlichkeit, dass der Spieler bei einem Spiel gewinnt. (S1.11) Kaubonbons: Bei einem Kindergeburtstagsfest seiner Tochter Isabella gibt Werner 30 Kaubonbons verschiedener Geschmacksrichtungen in einen undurchsichtigen Beutel. Es gibt 5 Bonbons mit Erdbeer-, 5 mit Kirsch-, 10 mit Zitronen-, 8 mit Orangenund nur 2 mit Himbeergeschmack. Isabella liebt Erdbeer- und Zitronengeschmack und hasst Kirschgeschmack. Sie nimmt ohne Hinschauen mit einem Gri drei Bonbons. Wie groÿ ist die Wahrscheinlichkeit, dass unter den drei gezogenen Bonbons (a) alle drei Erdbeer- oder Zitronengeschmack haben? (b) mindestens eines Kirschgeschmack hat? (c) beide Himbeerbonbons dabei sind? (S1.12) Pearl-Index: Der Pearl-Index ist eine Maÿzahl für die Sicherheit von Verhütungsmethoden. Er gibt an, wie viele Schwangerschaften eintreten, wenn 100 Frauen bzw. deren Partner ein Jahr lang eine bestimmte Verhütungsmethode nutzen. Der Pearl-Index für die Pille beträgt ca. 0.5 (je nach Studie 0.1 bis 0.9). Der Pearl-Index für das Kondom beträgt ca. 7 (je nach Studie 2 bis 12). Eine Vortragende behauptet, dass bei der Kombination beider Methoden, also bei Einnahme der Pille und gleichzeitiger Verwendung von Kondomen, pro Jahr im Schnitt ca. 3 bis 4 von Frauen schwanger werden. Entscheide, ob die Behauptung der Vortragenden korrekt ist und begründe deine Entscheidung. (S1.13) Wählen: In einer Bevölkerungsgruppe werden folgende Ereignisse untersucht: Ereignis E 1 lautet hat eine höhere Schulbildung. Ereignis E 2 lautet wählt die Partei A. Erkläre folgende Symbole mit Worten:

79 1. Maÿ- und Wahrscheinlichkeitsräume 69 symbolische Schreibweise P(E 1 ) P(E 1 E 2 ) P(E 2 E 1 ) P(E 2 ) P(E 1 E 2 ) Bedeutung in Worten (S1.14) Batterienkauf: Ein Betrieb stellt Batterien für grakfähige Taschenrechner her. Der Ausschussanteil beträgt 4%. Ausschussstücke treten unabhängig voneinander auf. Ernst kauft vier Batterien, die in diesem Betrieb hergestellt wurden. Er behauptet, die Wahrscheinlichkeit, dass alle vier Batterien kaputt sind, sei kleiner als die Wahrscheinlichkeit im Lotto 6 aus 45 mit einem Tipp einen Sechser zu erzielen. Ist diese Behauptung richtig oder falsch? Begründe deine Antwort! (Einen Sechser zu tippen bedeutet, dass man aus den Zahlen 1 bis 45 von sechs zufällig gezogenen Zahlen alle errät.) (S1.15) Ausschussquote: Ein Versandhaus wird von einer Firma mit Artikeln für Haushaltselektronik beliefert, bei denen von einer Ausschussquote von p = 0.06 ausgegangen wird. (a) Eine Lieferung umfasst 200 Stück. Wie groÿ ist die Wahrscheinlichkeit, dass sich in der Lieferung kein defekter Artikel bendet? (b) Nachdem die ersten 50 Stück der Ware verkauft worden sind, werden fünf als defekt reklamiert. Wie groÿ ist die Wahrscheinlichkeit, dass sich fünf defekte Artikel unter den ersten 50 benden? (S1.16) Schulball: In einer Schule werden für die Erönung des Schulballes Paare gesucht, die Walzer tanzen können. Von den Schülerinnen und Schülern der Maturaklassen können 18 % Linkswalzer (und selbstverständlich auch Rechtswalzer) und 60 % nur Rechtswalzer tanzen, der Rest sind Nichttänzer. Der Prozentsatz an Burschen von den Linkswalzerkönnern/könnerinnen beträgt 30%, von den Rechtswalzerkönnern/könnerinnen 45% und von den Nichttänzern/tänzerinnen 65%. a) Stelle den Text grasch dar (z.b. durch ein Baumdiagramm).

80 70 1. Maÿ- und Wahrscheinlichkeitsräume In den Aufgaben b) bis e) wird ein Schüler/eine Schülerin zufällig ausgewählt. Formuliere die Wahrscheinlichkeiten der gesuchten Ereignisse zuerst allgemein durch Symbole und verwende dabei für die Ereignisse die unten angegebenen Abkürzungen. Berechne danach die Wahrscheinlichkeiten und trage beides in der nachstehenden Tabelle ein. B... Bursch, M... Mädchen, L... Links- und Rechtswalzerkönner/innen, R... nur Rechtswalzerkönner/innen, N... Nichttänzer/innen b) Wie groÿ ist die Wahrscheinlichkeit unter den Linkswalzerkönnern/könnerinnen ein Mädchen zu nden? c) Wie groÿ ist die Wahrscheinlichkeit in den Maturaklassen einen Burschen zu nden, der Linkswalzer tanzen kann? d) Wie groÿ ist die Wahrscheinlichkeit in den Maturaklassen einen Burschen zu nden, der Walzer tanzen kann? e) Wie groÿ ist die Wahrscheinlichkeit in den Maturaklassen einen Burschen auszuwählen? b) c) d) e) allgemein Rechnung (S1.17) Blumen: Eine Blumenhandlung bezieht wöchentlich 600 Rosen. 200 Stück stammen aus der Gärtnerei A, 300 Stück aus dem Gartenbaubetrieb B und der Rest aus der Gärtnerei C. Aus Erfahrung weiÿ man, dass zirka 3 % der Rosen vom Betrieb A, 2 % der Rosen vom Betrieb B und 5 % der Rosen vom Betrieb C verwelkt ankommen und zum Verkauf nicht geeignet sind. (a) Wie viele der wöchentlich gelieferten Rosen sind im Durchschnitt zum Verkauf nicht geeignet? (b) Mit welcher Wahrscheinlichkeit stammt eine verwelkte Rose von der Gärtnerei B? Dokumentiere jeweils den Lösungsweg. (S1.18) Führerscheinprüfung: Eine Fahrschule hat eine Erfolgsquote von 75%, d. h. dass 75% der Kandidatinnen und Kandidaten die Führerscheinprüfung auf Anhieb schaen. Wie groÿ ist die Wahrscheinlichkeit, dass bei 300 antretenden Prüflingen

81 1. Maÿ- und Wahrscheinlichkeitsräume 71 (a) mehr als 230, (b) höchstens 210, (c) genau 220 die Fahrprüfung auf Anhieb schaen? Dokumentiere den Lösungsweg. (S1.19) Golfclub: Von den Mitgliedern eines Golfclubs sind 70 % der Männer und 5 % der Frauen gröÿer als 1.75m. Insgesamt sind 65 % der Mitglieder Männer. (a) Mit welcher Wahrscheinlichkeit ist ein Clubmitglied, das höchstens 1.75m groÿ ist, eine Frau? (b) Mit welcher Wahrscheinlichkeit ist ein Clubmitglied, das gröÿer als 1.75m ist, ein Mann? (Malle et al.: Mathematik verstehen, Österreichischer Bundesverlag Schulbuch, 1. Auage, 2010, S. 268, Nr ) (S1.20) Drehteile: Zwei Maschinen M 1 und M 2 fertigen Drehteile der gleichen Art. Für deren Durchmesser ist ein Toleranzbereich (250.0 ± 2.0) mm vorgeschrieben. Die Durchmesser können in guter Näherung als normalverteilt angesehen werden und zwar bei M 1 mit µ 1 = mm und σ 1 = 1.0 mm, bei M 2 mit µ 2 = mm und σ 2 = 1.5 mm. Welche Maschine hat den höheren Ausschussanteil? (Timischl; Kaiser: Ingenieur-Mathematik 4, E. Dorner Verlag, 3. Auage, 2005, S. 261, Nr. 6.45) (S1.21) Äpfel: Äpfel sind hinsichtlich ihrer Masse annähernd normalverteilt mit µ = 200g und σ = 50g. Äpfel, die weniger als 150g wiegen, werden als zu klein nicht als Speiseobst zum Verkauf zugelassen. Die übrigen Äpfel werden in die Kategorien Standard und Extragroÿ so eingeteilt, dass der Anteil von beiden gleich groÿ ist. Bei welcher Masse liegt die Grenze zwischen Standard und Extragroÿ? (S1.22) Körpergröÿe: Die Körpergröÿe von Schülerinnen und Schülern einer bestimmten Schule sei annähernd normalverteilt mit dem Mittelwert µ = 160cm.

82 72 1. Maÿ- und Wahrscheinlichkeitsräume Der Flächeninhalt von A ist etwa Was sagt diese Zahl im Zusammenhang mit der Angabe aus?

83 1. Maÿ- und Wahrscheinlichkeitsräume 73 Kontrollfragen 1.1 Es seien Ω eine beliebige Menge und A, B Ω. Welche der folgenden Aussagen sind wahr? A B = (A \ B) (B \ A) (A B) A B = (A \ B) (B \ A) A = (B \ A) (A B) A = (A \ B) (A B) 1.2 Es sei Ω = {1, 2, 3, 4}. Welche der folgenden Mengensysteme sind σ-algebren auf der Menge Ω? {, Ω} {, Ω, {1}, {2, 3}, {1, 2, 3}, {2, 3, 4}, {1, 4}} P(Ω) {, {1}, {2, 3, 4}} 1.3 Es sei Ω eine beliebige Menge. Unter welchen der folgenden Bedingungen ist F eine σ-algebra auf Ω? i. Ω F ii. F ist komplementstabil iii. F ist σ- -stabil i. F ii. F ist komplementstabil iii. F ist -stabil i. F ist Algebra auf Ω ii. F ist σ- -stabil i. Ω F ii. F ist σ- -stabil iii. F ist σ- -stabil 1.4 Es sei Ω = [0, 1] und F = σ ({[ 0, 1 2), { 3 4}}). Welche der folgenden Aussagen sind wahr? ( 3 4, 1] F ( 1 2, 1] \ { 3 4} F [ 1 2, 1] \ { 3 4} F

84 74 1. Maÿ- und Wahrscheinlichkeitsräume F = Es sei Ω = {1,..., 6} 2. Ein Elementarereignis (ω 1, ω 2 ) Ω wird als Ergebnis des Werfens zweier Würfel interpretiert, wobei ω 1 die Augenzahl des ersten Würfels angibt und ω 2 jene des zweiten Würfels. Sei nun F = σ ({(ω 1, ω 2 ) Ω: ω 1 + ω 2 = 3}). Welche der folgenden Ereignisse sind bezüglich F beobachtbar? Die Augensumme der beiden Würfel ist gleich 3. Der erste Würfel fällt auf 1, der zweite Würfel auf 2. Die Augensumme der beiden Würfel ist nicht gleich 3. Die Augensumme der beiden Würfel ist gleich Es sei Ω eine beliebige Menge und F eine σ-algebra auf Ω. Welche der folgenden Aussagen sind wahr? A, B, C F : A B c C F A, B F : A \ B c F {A x } x Q F = A x F {A x } x [0,1] F = x Q x [0,1] A x F 1.7 Es sei Ω = R, G = {{x}: x R} und F = σ(g). Welche der folgenden Aussagen sind wahr? F ist keine σ-algebra auf R F = B(R) F = {A R: A oder A c ist abzählbar} F = {A R: A ist abzählbar} 1.8 Es sei Ω eine beliebige Menge und F P(Ω). Welche der folgenden Aussagen sind wahr? F σ-algebra F Algebra F Algebra F σ-algebra Ist Ω <, so gilt F σ-algebra F Algebra.

85 1. Maÿ- und Wahrscheinlichkeitsräume 75 Ist F abzählbar, so gilt F σ-algebra F Algebra. 1.9 Es sei (Ω, F, µ) ein Maÿraum. Welche der folgenden Aussagen sind wahr? A, B F mit A B = : µ(a B) = µ(a) + µ(b) A, B F mit A B = : µ(a B) = µ(a) + µ(b) A, B F mit A B = : µ(a B) = µ(a)µ(b) Ist {A x } x Q [0,1] F eine beliebige Familie paarweise disjunkter Mengen, so gilt A x F und µ = µ(a x ). x Q [0,1] x Q [0,1] x Q [0,1] A x 1.10 Gegeben sei der messbare Raum (Ω, F) und die Mengenfunktion P: F [0, 1]. Welche der folgenden Aussagen sind wahr? Ist F <, so gilt P ist σ-additiv P ist additiv. P ist Wahrscheinlichkeitsmaÿ P ist Maÿ und P( ) = 1 P ist Wahrscheinlichkeitsmaÿ P ist Maÿ und P(Ω) = 1 P ist Wahrscheinlichkeitsmaÿ P ist σ-additiv und P(Ω) = Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A, B F. Welche der folgenden Aussagen sind wahr? P(A) = 0 P(A B) = 0 P(A) = 0 P(A B) = P(B) P(A) = 1 P(A B) = P(B) P(A) = 1 P(A B) = Es sei (Ω, F) ein messbarer Raum. Welche der folgenden Aussagen sind wahr? Für ω 1, ω 2, ω 3 Ω ist P = 1 6 δ ω δ ω δ ω 3 ein Wahrscheinlichkeitsmaÿ auf (Ω, F).

86 76 1. Maÿ- und Wahrscheinlichkeitsräume Für ω 1, ω 2 Ω ist µ = 1 10 δ ω δ ω 2 ein Maÿ auf (Ω, F), aber kein Wahrscheinlichkeitsmaÿ. Sind P 1 und P 2 Wahrscheinlichkeitsmaÿe auf (Ω, F), so ist auch die Summe P = P 1 + P 2 ein Wahrscheinlichkeitsmaÿ auf (Ω, F). Sind P 1, P 2 und P 3 Wahrscheinlichkeitsmaÿe auf (Ω, F), so ist auch die P = 3P 1 4P 2 + 2P 3 ein Wahrscheinlichkeitsmaÿ auf (Ω, F) Es sei (Ω, F, P) der Laplace-Raum zu Ω = {1,..., 6} 2. Welche der folgenden Aussagen sind wahr? ω Ω: P({ω}) = 0 ω Ω: P({ω}) = 1 36 ω Ω: P({ω}) = 1 6 P = 1 δ ω 36 ω Ω 1.14 Es sei (Ω, F, P) wiederum der Laplace-Raum zu Ω = {1,..., 6} 2. Welche der folgenden Aussagen sind wahr? ω Ω: P({ω}) = P ({(ω 1, ω 2 ) Ω: ω 1 + ω 2 = 2}) P ({(ω 1, ω 2 ) Ω: ω 1 + ω 2 gerade}) = 1 4 P ({(ω 1, ω 2 ) Ω: ω 1 ω 2 ungerade}) = 1 4 P ({(ω 1, ω 2 ) Ω: 2ω 1 + ω 2 = 6}) = Es bezeichne λ das Lebesgue-Maÿ auf (R, B(R)).Welche der folgenden Aussagen sind wahr? x R: λ({x}) = 0 x R: λ({x}) > 0 Es ist λ(q) = 0 und λ ([0, 3] \ Q) = 3. Für alle a < b gilt λ ([a, b]) = b a Es bezeichne λ das Lebesgue-Maÿ auf (R, B(R)). Für n N sei weiters A n = [ 0, ] 2, n Bn = [ n, n + 1 ] 2 und C n n = ( 0, 1 1 ) 2. n Welche der folgenden Aussagen sind wahr?

87 1. Maÿ- und Wahrscheinlichkeitsräume 77 lim λ(a n) = 1, n lim λ(a n) = 2, n ( λ n=1 A n ) = 1, λ lim λ(b n) = 0, n lim λ(b n) = 1, n ( n=1 B n ) =, λ lim λ(c n) = 1. n lim λ(c n) = 1. n ( ) C n = 1. n=1 ( ) ( ) ( ) λ A n = 1, λ B n = 1, λ C n = 1. n=1 n= Es sei (Ω, F, P) der Laplace-Raum zu Ω = {1,..., 6} 2. Ein Elementarereignis (ω 1, ω 2 ) Ω wird als Ergebnis des Werfens zweier Würfel interpretiert, wobei ω 1 die Augenzahl des ersten Würfels angibt und ω 2 jene des zweiten Würfels. Weiters bezeichne A 1 das Ereignis, dass die Augensumme der beiden Würfel gleich 5 ist, und A 2 das Ereignis, dass der erste Würfel eine ungerade Augenzahl zeigt.welche der folgenden Aussagen sind wahr? P(A 1 ) = 1 6 und P(A 2) = 1 2. P(A 1 ) = 1 9 und P(A 2) = 1 2. A 1 und A 2 sind nicht unabhängig. A 1 und A 2 sind unabhängig Es seien (Ω 1, F 1, P 1 ) und (Ω 2, F 2, P 2 ) zwei Wahrscheinlichkeitsräume und n=1 (Ω 1 Ω 2, F 1 F 2, P 1 P 2 ) ihr Produktwahrscheinlichkeitsraum. Welche der folgenden Aussagen sind wahr? Für alle A F 1 F 2 ist (P 1 P 2 ) (A) = P 1 (A)P 2 (A). Ist A 1 F 1 und A 2 F 2, so gilt (P 1 P 2 ) (A 1 A 2 ) = P 1 (A 1 )P 2 (A 2 ). Ist A 1 F 1 und A 2 F 2, so gilt (P 1 P 2 ) (A 1 A 2 ) = P 1 (A 1 ) + P 2 (A 2 ). Ist Ω 1 = Ω 2 = {0, 1}, F 1 = F 2 = 2 {0,1} und P 1 = P 2 = 1 2 δ δ 1, so gilt P 1 P 2 = 1 4 δ (0,0) δ (0,1) δ (1,0) δ (1,1).

88

89 Kapitel 2 Messbare Abbildungen und Zufallsvariable In diesem Kapitel führen wir den fundamentalen Begri der messbaren Abbildung ein. In vielen Fällen werden wir eine solche Funktion als sogenannte Zufallsvariable auassen, welche eine zufällige Beobachtung beschreibt. Im Anschluss werden wir die Eigenschaften solcher Abbildungen genauer untersuchen. 2.1 Messbare Abbildungen Ist (Ω, F, P) ein Wahrscheinlichkeitsraum, so spielen Abbildungen der Form X : Ω R eine wesentliche Rolle zur Modellierung zufälliger Phänomene. Um die Beobachtbarkeit der beschriebenen Vorgänge sicherzustellen, muss die Messbarkeit solcher Abbildungen verlangt werden. Beispiel 2.1 (Kühlhaus-Check) Wir greifen Beispiel 1.68 nochmals auf, betrachten also den Wahrscheinlichkeitsraum (Ω, F, P) = ( ) R, B(R), N µ,σ 2 für µ = 7 und σ 2 = 4. Wir interessieren uns wiederum dafür, wann die Temperatur im akzeptablen Bereich zwischen 5 C und 13 C liegt, also im Intervall (5, 13). Daher denieren wir die Funktion { 1, ω (5, 13), X : Ω R: ω χ (5,13) (ω) = 0, ω / (5, 13). Die Abbildung X gibt also an, ob die Temperatur akzeptabel ist oder nicht. Um die Wahrscheinlichkeit zu bestimmen, dass X = 1 bzw. X = 0 eintritt, muss {ω Ω: X(ω) = 1} = X 1 ({1}) F und {ω Ω: X(ω) = 0} = X 1 ({0}) F gelten. Dies ist hier oensichtlich der Fall, denn X 1 ({1}) = (5, 13) B(R) und und X 1 ({0}) = (, 5] [13, ) B(R). Wie bereits in Beispiel 1.68 geschehen, können wir daher die jeweilige Wahrscheinlichkeit berechnen und erhalten ( P(X = 1) := N µ,σ 2 X 1 ({1}) )

90 80 2. Messbare Abbildungen und Zufallsvariable und ( P(X = 0) := N µ,σ 2 X 1 ({0}) ) = 1 P(X = 1) Entscheidend ist also die Forderung der Messbarkeit gewisser Urbilder unter X. Wir interessieren uns nun für Abbildungen, die eine ganz bestimmte mathematische Struktur erhalten. Definition 2.2 (Messbare Abbildungen) Es seien (Ω D, F D ) und (Ω B, F B ) zwei messbare Räume. Eine Abbildung X : Ω D Ω B heiÿt (F D, F B )-messbar, falls Bemerkung. A B F B : X 1 (A B ) F D. Ist klar, welche σ-algebren auf Ω D und Ω B gewählt sind, so nennt man eine (F D, F B )-messbare Abbildung auch einfach nur messbar. Für eine Abbildung zwischen messbaren Räumen ist auch die Schreibweise üblich. X : (Ω D, F D ) (Ω B, F B ) Für A B F B schreiben wir {X A B } := X 1 (A B ). Ist µ ein Maÿ auf (Ω D, F D ), so setzen wir µ(x A B ) := µ ({X A B }). Im Fall dass F D = P(Ω), ist jede Abbildung X : Ω D Ω B messbar, da dann oensichtlich X 1 (A B ) F D für alle A B F B. Zufallsvariable sind spezielle messbare Abbildungen. Definition 2.3 (Zufallsvariable) Ist (Ω, F, P) ein Wahrscheinlichkeitsraum, so nennt man eine (F, B(R))-messbare Abbildung X : Ω R auch eine (reellwertige) Zufallsvariable. Bemerkung. Ist (Ω, F) ein messbarer Raum, dann nennen wir X : Ω R messbar, falls es sich bei X um eine (F, B(R))-messbare Abbildung handelt. Beispiel 2.4 (Augensumme) Wir betrachten das Zufallsexperiment, das aus dem Werfen zweier Würfel besteht. Daher wählen wir Ω := {1,..., 6} 2 und F := P(Ω). Dann ist X : Ω R: ω = (ω 1, ω 2 ) ω 1 + ω 2

91 2. Messbare Abbildungen und Zufallsvariable 81 eine Zufallsvariable, denn für alle B B(R) ist X 1 (B) Ω. Sie gibt die Augensumme der beiden Würfel wieder. Wählen wir als Wahrscheinlichkeitsmaÿ P := U Ω die Gleichverteilung auf Ω, so ist beispielsweise P (Augensumme 4) = P(X = 4) = P ({(1, 3), (2, 2), (3, 1)}) = 3 36 = Denieren wir die Zufallsvariablen X 1, X 2 : Ω R durch X 1 (ω) := ω 1 und X 2 (ω) := ω 2 für ω Ω, so erhalten wir auÿerdem P (Augensumme ist gerade) = P (X {2, 4,..., 12}) = = P (X 1, X 2 {2, 4, 6}) + P (X 1, X 2 {1, 3, 5}) = = 1 2. Hierbei wurde explizit nachgerechnet, dass und P (X 1, X 2 {2, 4, 6}) = P (X 1 {2, 4, 6}) P (X 2 {2, 4, 6}) P (X 1, X 2 {1, 3, 5}) = P (X 1 {1, 3, 5}) P (X 2 {1, 3, 5}). Dies folgt aus der Unabhängigkeit der Zufallsvariablen X 1 und X 2, welche wir jedoch erst zu einem späteren Zeitpunkt einführen werden. Für viele Abbildungen X : (Ω D, F D ) (Ω B, F B ) zwischen zwei messbaren Räumen ist es schwierig bis unmöglich die Bedingung X 1 (A B ) = {X A B } F D für alle A B F B explizit nachzuweisen. Wie wir sehen werden, ist dies in den meisten Fällen aber auch nicht notwendig. Dazu beobachten wir zuerst, dass sich zu einer Abbildung mit Werten in einem messbaren Raum eine zugehörige σ-algebra denieren lässt. Satz und Definition 2.5 (Erzeugte σ-algebra) (1) Gegeben seien ein messbarer Raum (Ω B, F B ) und eine Abbildung X : Ω D Ω B. Das Urbild X 1 (F B ) := { X 1 (A B ): A B F B } ist die kleinste σ-algebra auf Ω D, bezüglich der X messbar ist. Man bezeichnet dann σ(x) := X 1 (F B ) als die von X erzeugte σ-algebra auf Ω D. (2) Es bezeichne I eine beliebige Indexmenge und für jedes i I sei (Ω i, F i ) ein messbarer Raum sowie X i : Ω D Ω i eine beliebige Abbildung. Dann heiÿt ( ) σ (X i : i I) := σ Xi 1 (F i ) die von {X i } i I erzeugte σ-algebra auf Ω D. Diese ist die kleinste σ-algebra, für welche alle X i messbar sind. i I

92 82 2. Messbare Abbildungen und Zufallsvariable Beweis. Wir überprüfen, dass es sich bei X 1 (F B ) um eine σ-algebra auf Ω D handelt. (σ1) Aus X 1 (Ω B ) = Ω D folgt Ω D X 1 (F B ). (σ2) Komplementstabilität: Da zu A D X 1 (F B ) ein A B F B mit X 1 (A B ) = A D existiert, erhalten wir A c D = Ω D \ X 1 (A B ) = X 1 (Ω B \ A B ) = X 1 (A c B) X 1 (F B ). (σ3) σ- -Stabilität: Zu {A n } n=1 ( X 1 (F B ) ) N existiert eine Folge {Bn } n=1 F N B mit X 1 (B n ) = A n für alle n N. Folglich ist A n = n=1 ( ) X 1 (B n ) = X 1 B n X 1 (F B ). n=1 Oensichtlich ist X 1 (F B ) die kleinste σ-algebra, bezüglich der X messbar ist. Der nächste Satz zeigt, dass es genügt, die Messbarkeitsbedingung auf einem Erzeuger der σ-algebra im Bildraum zu überprüfen. n=1 Satz 2.6 (Erzeuger und Messbarkeit) Für G B P(Ω B ) gilt σ ( X 1 (G B ) ) = X 1 (σ(g B )) und damit X ist (F D, σ (G B ))-messbar A B G B : X 1 (A B ) F D. Beweis. Es gilt X 1 (G B ) X 1 (σ (G B )) und somit σ ( X 1 (G B ) ) X 1 (σ (G B )). Um die umgekehrte Inklusion zu zeigen, weisen wir nach, dass Σ := { B σ (G B ) : X 1 (B) σ ( X 1 (G B ) )} eine σ-algebra auf Ω B ist. (σ1) Oensichtlich ist Ω B Σ. (σ2) Komplementstabilität: Für B Σ ist und somit B c Σ. X 1 (B c ) = ( X 1 (B) ) c σ ( X 1 (G B ) ) (σ3) σ- -Stabilität: Für jede Folge {B n } n=1 ΣN gilt und daher n=1 B n Σ. ( ) X 1 B n = n=1 X 1 (B n ) σ ( X 1 (G B ) ) n=1

93 2. Messbare Abbildungen und Zufallsvariable 83 Aus G B Σ folgern wir Σ = σ (G B ) und damit die Aussage. Bemerkung. Speziell für σ (G B ) = F B gilt X ist (F D, F B )-messbar X 1 (G B ) F D. Beispiel 2.7 (Kriterium für Messbarkeit) Ist (Ω, F) ein messbarer Raum und X : Ω R eine Abbildung, so gilt X ist messbar a < b: X 1 ((a, b)) F. Dies folgt aus Satz 2.6 durch Betrachtung des Mengensystems P := {(a, b): a < b}, welches B(R) erzeugt, es ist also σ (P) = B(R). Beispiel 2.8 (Messbarkeit einer Indikatorfunktion) Es sei (Ω, F) ein messbarer Raum und A Ω. Wir betrachten die Indikatorfunktion χ A : Ω R. Dann gilt χ A ist messbar A F. : Ist χ A messbar, so ist A = χ 1 A ({1}) F. : Es sei nun A F. Wir betrachten a, b R mit a < b und untersuchen alle vier möglichen Fälle. (1) 0, 1 / (a, b): χ 1 A ((a, b)) = F (2) 1 (a, b) und 0 / (a, b): χ 1 A ((a, b)) = A F (3) 0 (a, b) und 1 / (a, b): χ 1 A ((a, b)) = Ac F (4) 0, 1 (a, b): χ 1 A ((a, b)) = Ω F Somit ist χ A nach Beispiel 2.7 messbar. Beispiel 2.9 (Diskrete messbare Abbildungen) Es sei (Ω, F) ein messbarer Raum. Eine Abbildung X : Ω R mit X(Ω) = {x 1, x 2,...} ist genau dann messbar, wenn n N: X 1 ({x n }) F. Denn zu jeder Borel-Menge B B(R) existiert in dieser Situation eine Indexmenge I B N mit X 1 (B) = n I B X 1 ({x n }). Für A Ω erhalten wir aus dieser Überlegung direkt χ A ist messbar χ 1 A ({1}) = A F und χ 1 A A F. ({0}) = Ac F

94 84 2. Messbare Abbildungen und Zufallsvariable Für d N wird eine ( B ( R d), B(R) ) -messbare Funktion Borel-messbar oder Borel- Funktion genannt. Wir zeigen nun, dass stetige Funktionen Borel-messbar sind. Lemma 2.10 (stetig Borel-messbar) Eine stetige Funktion X : R d R ist Borel-messbar. Beweis. Nach Beispiel 2.7 genügt es zu zeigen, dass X 1 ((a, b)) B d (R) für alle a < b. Es sei also a < b. Nun ist X aber stetig und somit X 1 ((a, b)) oen in R d. Da B(R d ) alle oenen Mengen enthält, folgt somit X 1 ((a, b)) B(R d ). Beispiel 2.11 (Metallscheiben) In einer Fabrik werden maschinell Scheiben aus Metall ausgestanzt. Man weiÿ, dass der zufällige Radius der Scheiben in cm näherungsweise normalverteilt ist und zwar mit Erwartungswert µ = 5 und Standardabweichung σ = 0.1. Eine Metallscheibe gilt als zu klein, wenn ihr Flächeninhalt kleiner 71 cm 2 ist. Mit welcher Wahrscheinlichkeit ist eine ausgestanzte Metallscheibe zu klein? Wir wählen den Wahrscheinlichkeitsraum (R, B(R), P) mit P = N µ,σ 2. Es wird eine Kreisscheibe mit Mittelpunkt im Ursprung und zufälligem Radius r gewählt. Dann ist A: R R: r πr 2 Borel-messbar, denn A ist stetig. Die Zufallsvariable A gibt den Flächeninhalt der entsprechenden zufällig gewählten Kreisscheibe an. Nun berechnen wir die Wahrscheinlichkeit, dass die Fläche der Kreisscheibe kleiner A 0 = 71 ist. Aus erhalten wir P (Fläche kleiner A 0 ) = N µ,σ 2 A(r) < A 0 r < (( A 0 π, A 0 π A 0 π )) %. Die Hintereinanderausführung messbarer Abbildungen ist messbar, dies ist Gegenstand des folgenden Satzes. Satz 2.12 (Komposition messbarer Abbildungen) Es seien (Ω 1, F 1 ), (Ω 2, F 2 ) und (Ω 3, F 3 ) messbare Räume. Weiters sei X : Ω 1 Ω 2 eine (F 1, F 2 )-messbare Abbildung und Y : Ω 2 Ω 3 sei (F 2, F 3 )-messbar. Dann ist die Hintereinanderausführung eine (F 1, F 3 )-messbare Abbildung. Beweis. Aufgabe (2.3). Y X : Ω 1 Ω 3 : ω 1 (Y X)(ω 1 ) = Y (X(ω 1 ))

95 2. Messbare Abbildungen und Zufallsvariable Eigenschaften messbarer Abbildungen In diesem Abschnitt sei (Ω, F) stets ein messbarer Raum und d N eine natürliche Zahl. Satz 2.13 (Koordinatenabbildungen) Gegeben seien die Abbildungen X 1,..., X d : Ω R und Dann gilt: X : Ω R d : ω (X 1 (ω),..., X d (ω)). X ist ( F, B ( R d)) -messbar X 1,..., X d sind (F, B(R))-messbar Beweis. : Für i = 1,..., d ist die i-te Projektion π i : R d R: (x 1,..., x d ) x i stetig und somit Borel-messbar. Folglich ist für jedes i = 1,..., d auch X i = π i X messbar. : Es seien a 1,..., a d R. Dann ist und somit X messbar. X 1 ((, a 1 ]... (, a d ]) = d i=1 Xi 1 ((, a i ]) F Für nachfolgenden Satz vereinbaren wir die Konvention x 0 := 0 für x R. Satz 2.14 (Summe, Produkt und Quotient messbarer Abbildungen) Es seien X, Y : Ω R messbar. Dann sind auch die Abbildungen messbar. Beweis. Die Abbildung X + Y, X Y und X/Y m: R R R: (x, y) x y ist stetig und somit eine Borel-Funktion. Weiters ist die Funktion (X, Y ): Ω R R: ω (X(ω), Y (ω)) messbar und daher nach Satz 2.12 die Hintereinanderausführung m (X, Y ) = X Y. Analog zeigt man, dass X + Y messbar ist, vgl. Aufgabe (2.14).

96 86 2. Messbare Abbildungen und Zufallsvariable Um zu zeigen, dass X/Y messbar ist, betrachten wir die Funktion { 1/x, x 0, h: R R: x 0, x = 0. Dann ist X/Y = X (h Y ). Daher genügt es, die Messbarkeit von h zu zeigen. Oensichtlich ist h R\{0} stetig. Für jede oene Menge U R ist auch U \ {0} offen und daher h 1 (U \ {0}) B(R). Da h 1 ({0}) = {0}, erhalten wir schlieÿlich h 1 (U) = h 1 (U \ {0}) (U {0}) B(R). Zur Untersuchung des Inmums und des Supremums messbarer Abbildungen ist es zweckmäÿig, den Bildbereich von R auf R := R {, } zu erweitern. Wir denieren die erweiterte Borel-σ-Algebra Für eine Abbildung X : Ω R gilt dann B ( R ) := σ ({ [, x): x R }). X ist ( F, B ( R )) -messbar B B ( R ) : X 1 (B) F x R: X 1 ([, x)) F. Wir bezeichnen X : Ω R wiederum als messbar, wenn X eine ( F, B ( R )) -messbare Abbildung ist. Satz 2.15 (inf, sup, lim inf, lim sup messbarer Abbildungen) Ist { X n : Ω R } eine Folge messbarer Abbildungen, so sind auch die Abbildungen n N messbar. inf X n, n N sup X n, n N lim inf X n, und lim sup n n X n Beweis. Oenbar gilt für jedes x R, dass ( ) 1 inf X n ([, x)) = n N n=1 Xn 1 ([, x)) F und folglich ist inf n N X n messbar. Analog zeigt man die Messbarkeit von sup n N X n, siehe Aufgabe (2.15). Nun denieren wir für n N die messbaren Abbildung Y n := inf m n X m. Dann ist auch sup n N Y n = lim inf n X n messbar. Wiederum analog zeigt man, dass lim sup n X n messbar ist, vgl. Aufgabe (2.15).

97 2. Messbare Abbildungen und Zufallsvariable 87 Bemerkung. Existiert für alle ω Ω der Grenzwert X(ω) := lim n X n(ω) in R, so ist X = lim X n = lim sup X n = lim inf X n n n n und daher auch die Grenzfunktion X : Ω R eine messbare Abbildung Bildmaÿ Wir machen nun eine wichtige Beobachtung: Eine messbare Abbildung transportiert ein Maÿ von einem messbaren Raum zum anderen. Satz und Definition 2.16 (Bildmaÿ) Es seien (Ω D, F D ) und (Ω B, F B ) messbare Räume. Weiters sei µ ein Maÿ auf (Ω D, F D ) und X : Ω D Ω B eine (F D, F B )-messbare Abbildung. Das Maÿ µ X 1 : F B [0, ]: A B µ ( X 1 (A B ) ) auf (Ω B, F B ) heiÿt Bildmaÿ von µ unter X. Ist P = µ ein Wahrscheinlichkeitsmaÿ, so auch P X 1. Beweis. Wir zeigen, dass µ X 1 ein Maÿ auf (Ω B, F B ) ist. (µ1) Es ist ( µ X 1) ( ) = µ ( X 1 ( ) ) = µ( ) = 0. (µ2) σ-additivität: Für eine Folge {B n } n=1 F B N paarweise disjunkter Mengen gilt ( µ X 1 ) ( ) ( ) B n = µ X 1 (B n ) = n=1 = n=1 µ ( X 1 (B n ) ) = n=1 ( µ X 1 ) (B n ). Somit ist µ X 1 ein Maÿ. Gilt zusätzlich für P = µ, dass P(Ω D ) = 1, so erhalten wir ( P X 1 ) (Ω B ) = P ( X 1 (Ω B ) ) = P(Ω D ) = 1 n=1 und damit ist auch P X 1 ein Wahrscheinlichkeitsmaÿ. 2.2 Verteilung und Verteilungsfunktion Die Wahrscheinlichkeit, dass eine Zufallsvariable Werte in einer bestimmten Borel-Menge annimmt, deniert ein Wahrscheinlichkeitsmaÿ auf B(R), die Verteilung der Zufallsvariablen. Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum.

98 88 2. Messbare Abbildungen und Zufallsvariable Definition 2.17 (Verteilung einer Zufallsvariablen) Ist die Abbildung X : Ω R eine Zufallsvariable, so heiÿt ihr Bildmaÿ P X := P X 1 Verteilung von X. Bemerkung. Ist P = P X, so schreibt man X P und nennt X dann P-verteilt. Zwei Zufallsvariablen X, Y : Ω R heiÿen identisch verteilt, falls P X = P Y. In diesem Fall schreiben wir X D = Y. Beispiel 2.18 (Simulation eines Münzwurfs) Wir wollen den Wurf einer Münze mittels eines Zufallszahlengenerators simulieren. Die generierte Zufallszahl sei annähernd gleichverteilt auf [0, 1], d. h. wir wählen den Wahrscheinlichkeitsraum ( [0, 1], B ([0, 1]), U [0,1] ). Für p (0, 1) betrachten wir die Abbildung X : [0, 1] R: ω χ [0,p) (ω). Da [0, p) B ([0, 1]), ist X nach Beispiel 2.8 eine Zufallsvariable. Es ist folglich P X ({1}) = λ ([0, p)) = p und P X ({0}) = λ ([p, 1]) = 1 p, P X = (1 p)δ 0 + pδ 1 = B 1,p. Die Zufallsvariable X bzw. die Verteilung P X modelliert daher den Wurf einer Münze. Wie wir sehen werden, ist die Verteilung einer Zufallsvariablen X eindeutig durch eine Funktion F X : R [0, 1] bestimmt, der sogenannten Verteilungsfunktion von X. Definition und Satz 2.19 (Verteilungsfunktion) Es sei X : Ω R eine Zufallsvariable. Die Funktion F X : R [0, 1]: x P (X x) = P X ((, x]) heiÿt Verteilungsfunktion von X bzw. P X. Diese hat folgende Eigenschaften: (F 1) F X ist monoton wachsend (F 2) F X ist rechtsseitig stetig (F 3) lim x F X(x) = 0 und lim x F X(x) = 1

99 2. Messbare Abbildungen und Zufallsvariable 89 Beweis. (F 1) Für x 1 x 2 ist (, x 1 ] (, x 2 ] und daher F X (x 1 ) = P X ((, x 1 ]) P X ((, x 2 ]) = F X (x 2 ). (F 2) Es sei x R und {x n } n=1 RN eine monotone Folge mit x n x für n. Dann gilt ( ) F X (x) = P X ((, x]) = P X (, x n ] = lim P X ((, x n ]) = lim F X(x n ), n n da P X stetig von oben ist. n=1 (F 3) Es sei {x n } n=1 RN eine monotone Folge mit x n für n. Unter Verwendung der Stetigkeit von unten des Maÿes P X erhalten wir ( ) lim F X(x n ) = lim P X ((, x n ]) = P X (, x n ] = P X (R) = 1. n n Zu zeigen, dass n=1 lim F X(x) = 0, verbleibt als Übung, siehe Aufgabe (2.10). x Im Weiteren werden wir ein Wahrscheinlichkeitsmaÿ P auf (R, B(R)) auch eine Verteilung nennen und die zugehörige Verteilungsfunktion R [0, 1]: x P ((, x]) mit F P bezeichnen. Satz 2.20 (Verteilung Verteilungsfunktion) Es seien P 1 und P 2 Verteilungen und F P1 und F P2 die zugehörigen Verteilungsfunktionen. Dann gilt P 1 = P 2 F P1 = F P2. Beweis. : Diese Richtung ist oensichtlich. : Es gelte F P1 = F P2. Dann stimmen P 1 und P 2 auf dem Mengensystem überein, welches B(R) erzeugt. P := {(, x]: x R} Variante 1: Wir betrachten wiederum die Algebra A aus Beispiel Für a < b ist P 1 ((a, b]) = P 1 ((, b] \ (, a]) = P 1 ((, b]) P 1 ((, a]) = P 2 ((a, b]) und somit stimmen P 1 und P 2 auf A überein. Der Fortsetzungssatz von Carathéodory impliziert daher P 1 = P 2 auf σ (A) = B(R). Variante 2: Da P ein π-system mit σ(p) = B(R) ist, folgt die Aussage direkt aus Satz 1.49.

100 90 2. Messbare Abbildungen und Zufallsvariable Beispiel 2.21 (Verteilungsfunktion einer Summe von Dirac-Maÿen) Für n N seien α 1,..., α n 0 mit n i=1 α i = 1 und x 1,..., x n R. Wir betrachten die Verteilung P := n α i δ xi. i=1 Dann ist die zugehörige Verteilungsfunktion durch F P (x) = n α i χ (,x] (x i ) = i=1 n α i χ [xi, )(x), x R, i=1 gegeben. Jede Funktion F : R [0, 1] mit den Eigenschaften (F 1), (F 2) und (F 3) aus Satz 2.19 bezeichnen wir als Verteilungsfunktion. Wir zeigen nun, dass es zu jeder Verteilungsfunktion F einen Wahrscheinlichkeitsraum (Ω, F, P) gibt, auf welchem eine Zufallsvariable X : Ω R mit F X = F existiert. Satz 2.22 (Verteilung Zufallsvariable) Gegeben sei die Verteilungsfunktion F : R [0, 1]. Wir wählen den Wahrscheinlichkeitsraum ((0, 1), B ((0, 1)), λ). Dann existiert eine Zufallsvariable X : (0, 1) R mit F X = F. Beweis. Wir denieren die Rechtsinverse G von F vermöge Für x R und t (0, 1) gilt G(t) := inf {x R: F (x) t} für t (0, 1). G(t) x t F (x). Insbesondere ist daher {t (0, 1): G(t) x} = (0, F (x)] (0, 1), folglich G: (0, 1) R eine (B ((0, 1)), B(R))-messbare Abbildung und λ ({t (0, 1): G(t) x}) = F (x). Somit ist X := G die gewünschte Zufallsvariable.

101 2. Messbare Abbildungen und Zufallsvariable 91 Beispiel 2.23 (Wahrscheinlichkeitsdichte) Eine Riemann-integrierbare Funktion f : R [0, ) mit ˆ f(t) dt = 1 bezeichnen wir als Wahrscheinlichkeitsdichte. Oensichtlich ist zu einer Wahrscheinlichkeitsdichte f durch F (x) := ˆ x f(t) dt, x R, eine Verteilungsfunktion gegeben. Ist X : Ω R eine Zufallsvariable mit F X (x) = ˆ x f(t) dt für alle x R, so nennt man f X := f auch Dichte von X bzw. F X. Man beachte, dass natürlich bei weitem nicht alle Zufallsvariablen eine Dichte besitzen. Gilt beispielsweise für µ R und σ > 0, dass X N µ,σ 2, so ist die Gauÿsche Glockenkurve gegeben durch eine Dichte von X. f X (t) = f ( t ; N µ,σ 2) = 1 2πσ 2 e (t µ)2 /(2σ 2), t R, Es folgen nun einige Bespiele diskreter Verteilungen, also von Verteilungen, die sich als Summe bzw. Reihe von Punktmaÿen schreiben lassen. Eine Verteilung P wird somit als diskret bezeichnet, falls es eine abzählbare Menge B B(R) mit P (B) = 1 gibt. Beispiel 2.24 (Einige diskrete Verteilungen) Es bezeichne (Ω, F, P) einen Wahrscheinlichkeitsraum. Es sei p (0, 1). Weiters sei n N und X : Ω R eine Zufallsvariable mit ( ) n P(X = k) = p k (1 p) n k für alle k {0,..., n}. k Dann ist P X = n k=0 ( ) n p k (1 p) n k δ k = B n,p k und man nennt X binomialverteilt mit Parametern n und p. Weiters ist die zugehörige Verteilungsfunktion durch n ( ) n F Bn,p (x) = p k (1 p) n k χ k [k, ) (x), x R, k=0

102 92 2. Messbare Abbildungen und Zufallsvariable gegeben. Etwa wird das n-malige Werfen einer Münze mittels der Zufallsvariablen X bzw. mit B n,p beschrieben. Ist speziell P(X = 1) = p und P(X = 0) = 1 p, folglich P X = (1 p)δ 0 + pδ 1 = B 1,p, so nennt man X Bernoulli-verteilt. Die zugehörige Verteilungsfunktion ist entsprechend durch gegeben, vgl. Abbildung 2.1. F B1,p (x) = (1 p)χ [0,1) (x) + χ [1, ) (x), x R, 1 F B1,p (x) 1 p 0 1 x Abbildung 2.1. Verteilungsfunktion der Bernoulli-Verteilung Eine Bernoulli-verteilte Zufallsvariable bzw. die Bernoulli-Verteilung modelliert beispielsweise den Wurf einer Münze. Ist X : Ω R eine Zufallsvariable und existieren ein n N und paarweise verschiedene x 1,..., x n R mit P X = 1 n δ xi = U n {x1,...,x n}, i=1 so heiÿt X gleichverteilt auf {x 1,..., x n }. Ist n = 6 und x 1 = 1,..., x 6 = 6, so dient die auf {1,..., 6} gleichverteilte Zufallsvariable X zum Beispiel der Modellierung eines fairen Würfels. Besitzt die Zufallsvariable X : Ω R die Verteilung ( n G N G ) P X = k)( n k ( N δ k = H n,n,g, n) k=0 so nennt man X hypergeometrisch verteilt. Mittels der hypergeometrischen Verteilung kann etwa das Ziehen ohne Zurücklegen von Kugeln aus einer Urne modelliert werden.

103 2. Messbare Abbildungen und Zufallsvariable 93 Es sei λ > 0 und X : Ω R eine Zufallsvariable mit Dann ist P(X = k) = λk k! e λ = π λ ({k}) für alle k N 0. P X = k=0 λ k k! e λ δ k = π λ und X heiÿt Poisson-verteilt. Die Poisson-Verteilung wird unter anderem verwendet, um die Anzahl zufällig auftretender Ereignisse zu modellieren. Es sei p (0, 1). Die Zufallsvariable X : Ω R heiÿt geometrisch verteilt, wenn P X = (1 p) k pδ k = g p. k=0 Beispielsweise modelliert eine geometrisch verteilte Zufallsvariable die zufällige Anzahl der Einschaltvorgänge, welche eine Glühbirne übersteht, bevor sie versagt. Im Gegensatz zu diskreten Verteilungen kommt man bei kontinuierlichen Verteilungen nun nicht mehr mit Punktmaÿen aus. Beispiel 2.25 (Einige kontinuierliche Verteilungen) Es sei (Ω, F, P) wiederum ein Wahrscheinlichkeitsraum. Weiters sei X : Ω R eine Zufallsvariable. Ist I R ein beschränktes Intervall und P X (B) = λ(b I) λ(i) = U I (B) für alle B B(R), so nennt man X gleichverteilt auf I. Ist a < b und I = [a, b], so ist die zugehörige Verteilungsfunktion für x R durch 0, x < a, F UI (x) = x a b a χ I(x) + χ (b, ) (x) = x a b a, x I, 1, x > b, gegeben, vgl. Abbildung 2.2. Weiters ist die Funktion f X = 1 b a χ I eine Dichte von X. Mittels der auf I gleichverteilten Zufallsvariablen X modelliert man das zufällige Auswählen einer Zahl im Intervall I.

104 94 2. Messbare Abbildungen und Zufallsvariable 1 F UI (x) a b x Abbildung 2.2. Verteilungsfunktion einer kontinuierlichen Gleichverteilung Gilt für ein λ > 0 und für alle x R, dass F X (x) = ˆ x f (t ; µ λ ) dt = H(x) ˆ x 0 ( λe λt dt = H(x) 1 e λx) = F µλ (x), so ist P X = µ λ und man nennt X exponentialverteilt mit Parameter λ. 1 F µλ (x) x Abbildung 2.3. Verteilungsfunktion von µ λ für λ = 1.5 Mittels der Exponentialverteilung können unter anderem zufällige Wartezeiten modelliert werden. Existieren µ R und σ > 0 mit F X (x) = ˆ x für alle x R, so ist P X = N µ,σ 2 f ( ˆ x t ; N µ,σ 2) dt = 1 e (t µ)2 /(2σ 2) dt = F (x) 2πσ 2 Nµ,σ 2 und X heiÿt normalverteilt. Viele in der Natur auftretenden Zufallsgröÿen werden als normalverteilt angenommen. In vielen Fällen werden auch zufällige Mess- oder Produktionsfehler mittels einer Normalverteilung modelliert.

105 2. Messbare Abbildungen und Zufallsvariable 95 1 F N0,1 (x) 0.5 x Abbildung 2.4. Verteilungsfunktion der Standardnormalverteilung 2.3 Unabhängigkeit von Zufallsvariablen Wir führen nun den Begri der Unabhängigkeit von Zufallsvariablen ein. Im Weiteren bezeichne (Ω, F, P) einen Wahrscheinlichkeitsraum und I eine beliebige Indexmenge. Definition 2.26 (Unabhängigkeit von Zufallsvariablen) Die Familie {X i : Ω R} i I von Zufallsvariablen heiÿt unabhängig, wenn für jede endliche Menge J I und alle {B j } j J B(R) J gilt, dass P (X j B j : j J) = j J P (X j B j ). Bemerkung. Es sei n N. Die Zufallsvariablen X 1,..., X n : Ω R sind genau dann unabhängig, wenn für alle Borel-Mengen B 1,..., B n B(R) gilt, dass P (X 1 B 1,..., X n B n ) = n P (X i B i ). Ist die Familie {X i } i I von Zufallsvariablen unabhängig und identisch verteilt, so schreiben wir {X i } i I u.i.v. (englisch: i.i.d. für independent and identically distributed). Beispiel 2.27 (Summe Bernoulli-verteilter Zufallsvariablen) Es seien n N, p (0, 1) und X 1,..., X n u.i.v. Zufallsvariablen und zwar mit Bernoulli- Verteilung P X1 = B 1,p. Die Zufallsvariablen X 1,..., X n beschreiben das voneinander unabhängige Werfen n identer Münzen. Wir denieren nun die Zufallsvariable i=1 X := n i=1 X i

106 96 2. Messbare Abbildungen und Zufallsvariable und wollen die Verteilung P X bestimmen. Es ist P (X {0,..., n}) = 1 und daher genügt es P(X = k) für k = 0,..., n zu berechnen. Für k {0,..., n} ist ( n ) ( ) n P(X = k) = P X i = k = P (X 1 = 1,..., X k = 1, X k+1 = 0,..., X n = 0) = k = ( n k i=1 ) P(X 1 = 1) k P(X 1 = 0) n k = ( ) n p k (1 p) n k = B n,p ({k}). k Daher ist P X = B n,p, also X binomialverteilt mit Parametern n und p. Beispiel 2.28 (Unabhängigkeit diskreter Zufallsvariablen) Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum, {α k } k=1 RN eine Folge und n N. Weiters seien X 1,..., X n : Ω R Zufallsvariablen mit X i (Ω) = {α 1, α 2,...} für i = 1,..., n. Dann sind X 1,..., X n genau dann unabhängig, wenn x 1,..., x n {α 1, α 2,...}: P(X 1 = x 1,..., X n = x n ) = vgl. Aufgabe (2.19). n P(X i = x i ), Wir wollen nun die Unabhängigkeit von Zufallsvariablen über Verteilungen bzw. Verteilungsfunktionen charakterisieren. Dazu benötigen wir folgende Denition. Definition 2.29 (Gemeinsame Verteilung und Verteilungsfunktion) Es seien n N und X 1,..., X n : Ω R Zufallsvariablen. Das Wahrscheinlichkeitsmaÿ P (X1,...,X n) auf (R n, B (R n )) sei für B B (R n ) durch P (X1,...,X n)(b) := P ((X 1,..., X n ) B) gegeben. Dann heiÿt P (X1,...,X n) gemeinsame Verteilung von X 1,..., X n bzw. Verteilung des Zufallsvektors (X 1,..., X n ). Die Funktion F (X1,...,X n) : R n [0, 1] x P (X1,...,X n) ((, x 1 ]... (, x n ]) = P (X 1 x 1,..., X n x n ) nennt man gemeinsame Verteilungsfunktion von X 1,..., X n bzw. Verteilungsfunktion des Zufallsvektors (X 1,..., X n ). Satz 2.30 (Unabhängigkeit und gemeinsame Verteilung) Es sei n N. Weiters seien X 1,..., X n : Ω R Zufallsvariablen. Dann sind folgende Aussagen äquivalent: i=1

107 2. Messbare Abbildungen und Zufallsvariable 97 (1) X 1,..., X n sind unabhängig (2) P (X1,...,X n) = P X1... P Xn (3) F (X1,...,X n)(x) = F X1 (x 1 )... F Xn (x n ) für alle x R n Beweis. (1) (2): Da X 1,..., X n unabhängig sind, gilt für alle B 1,..., B n B(R), dass P (X1,...,X n)(b 1... B n ) = P (X 1 B 1,..., X n B n ) = n = P (X i B i ) = (P X1... P Xn ) (B 1... B n ). Da das Mengensystem i=1 P := {B 1... B n : B 1,..., B n B(R)} ein π-system mit σ(p) = B (R n ) ist, folgt die Aussage aus Satz (1) (2): Diese Richtung ist oensichtlich. (2) (3): Eine Richtung dieser Äquivalenz ist klar, die andere erhält man durch Verwendung des π-systems P := {(, x 1 ]... (, x n ]: x 1,..., x n R}, welches B(R n ) erzeugt, und Satz Bemerkung. Definition 2.29 und Satz 2.30 lassen sich auf beliebige Familien {X i } i I von Zufallsvariablen erweitern, indem man jeweils endliche Teilmengen J I betrachtet. Oftmals möchte man unabhängige Zufallsvariablen gruppieren. Satz 2.31 (Gruppierung unabhängiger Zufallsvariablen) Es sei {X k : Ω R} k=1 eine Folge unabhängiger Zufallsvariablen, {d i} i=1 NN eine Folge natürlicher Zahlen und g i : R d i R eine Borel-Funktion für jedes i N. Für i N setzen wir d i := i 1 j=1 d j und denieren die Zufallsvariable ( ) Y i := g i X di +1,..., X d i +d i. Dann ist auch {Y i } i=1 eine Folge unabhängiger Zufallsvariablen. Beweis. Es seien n N und B 1,..., B n B(R). Zu zeigen ist, dass P(Y i B i : i = 1,..., n) = n P(Y i B i ). i=1

108 98 2. Messbare Abbildungen und Zufallsvariable Man beachte, dass aufgrund der Unabhängigkeit P ( X 1,...,X dn+1 ) = P (X1,...,X d1 )... P (X dn+1,...,x dn+dn ) gilt und somit ist ) P(Y i B i : i = 1,..., n) = P ((X di +1,..., X di +di ) gi 1 (B i ): i = 1,..., n = = P ( X 1,...,X dn+1 ) ( g 1 1 (B 1)... g 1 n (B n ) ) = = = = n i=1 n i=1 P ( X di +1,...,X d i +d i ) ( g 1 i (B i ) ) = ) ) P ((X di +1,..., X g 1 di +di i (B i ) = n P(Y i B i ). i=1 Beispiel 2.32 (Unabhängiges Würfeln) Wir betrachten den Laplace-Raum (Ω, F, P) mit Ω = {1,..., 6} 5, P = U Ω ist also die Gleichverteilung auf Ω. Dieser Wahrscheinlichkeitsraum modelliert die voneinander unabhängigen Würfe mit fünf Würfeln. Oensichtlich sind die Projektionen X k : Ω R: ω ω k, k = 1,..., 5, voneinander unabhängige Zufallsvariable. Die Zufallsvariable X k gibt die Augenzahl des k-ten Würfels an. Nach Satz 2.31 sind dann beispielsweise auch Y 1 = X 1 X 2 und Y 2 = X 3 + X 4 + X 5 voneinander unabhängige Zufallsvariablen. Genauso sind Ỹ 1 = e X 1 sin X 2, Ỹ 2 = cos ( 3X3 2 ) und Ỹ 3 = X 4 X 5 voneinander unabhängige Zufallsvariablen.

109 2. Messbare Abbildungen und Zufallsvariable 99 Übungsaufgaben (2.1) Operationen auf Bild- und Urbildmengen II: Gegeben seien eine Abbildung f : Ω Σ, A, A 1, A 2 Ω und B, B 1, B 2 Σ. Beweisen Sie die folgenden Aussagen. (a) A 1 A 2 f(a 1 ) f(a 2 ) (b) B 1 B 2 f 1 (B 1 ) f 1 (B 2 ) (c) (f A ) 1 (B) = A f 1 (B) (d) f 1 (f(a)) A. Ist f injektiv, so gilt die Gleichheit. (e) f(f 1 (B)) B. Ist f surjektiv, so gilt die Gleichheit. (2.2) Rechnen mit Indikatorfunktionen: Sei Ω eine beliebige Menge. Zeigen Sie für A, B Ω folgende Identitäten: (a) χ 0 (b) χ Ω 1 (c) χ A χ B = χ A B (d) χ A = 1 χc A (e) χ A + χ B = χ A B + χ A χ B (2.3) Komposition messbarer Abbildungen: Beweisen Sie Satz (2.4) Gegeben sei der messbare Raum (Ω, F) mit Ω = [0, 1] und F = {, Ω, [0, 1 4 ), [ 1 4, 1]}. Welche der folgenden Funktionen auf [0, 1] sind Zufallsvariablen? (a) χ [0.25,1] (b) [ x x 2] (c) χ [0,0.5] + χ [0.25,0.5] (d) 7χ [0,0.25] + 4χ [0.25,1] (e) [x 5] (2.5) Wir betrachten den Wahrscheinlichkeitsraum ((0, 1), B ((0, 1)), λ), wobei λ das Lebesguemaÿ bezeichnet. Bestimmen Sie das Bildmaÿ der Zufallsvariablen wobei (a) X = χ [0,0.25] + χ [0.75,1], (b) X(x) = x, X : (0, 1) R,

110 Messbare Abbildungen und Zufallsvariable (c) X(x) = 1 4, (d) X = 1 4 χ (0,1)\Q, (e) X(x) = ln x γ mit γ > 0. (2.6) Ermitteln Sie die jeweilige Verteilungsfunktion F X in Aufgabe (2.5). (2.7) Es sei X : R R: x x. Zeigen Sie, dass eine Borel-messbare Funktion Y : R R genau dann bezüglich σ(x) = X 1 (B(R)) messbar ist, wenn Y gerade ist. (2.8) Es seien (Ω, F, µ) ein Maÿraum und X, Y : Ω R Abbildungen, wobei X messbar sei. Zeigen Sie, dass aus der Messbarkeit von {X Y } und µ (X Y ) = 0 im Allgemeinen nicht folgt, dass Y messbar ist. (2.9) Es sei f : R R dierenzierbar. Zeigen Sie, dass die Ableitung f eine Borel- Funktion ist. (2.10) Vollenden Sie den Beweis von Satz (2.11) Bestimmen Sie für nachfolgende Verteilungsfunktionen die zugehörigen Verteilungen. 0, x < 0, 0, x < 1 5, 1 1 (a) F (x) = 3, 1 5 x < 2 5, 2 x, 0 x < 1 5, 1 (b) F (x) = 1, x x + 1 6, 1 5 x < 2 5, 1 2 x + 1 2, 2 5 x < 1, 1, x 1. (2.12) Mensch ärgere dich nicht über den Start: Bestimmen Sie die Verteilungsfunktion F X der Zufallsvariablen X, welche beim Spiel Mensch ärgere dich nicht die Anzahl der bis zum Start notwendigen Würfe mit einem fairen Würfel beschreibt. (2.13) Roulette I: Beim Roulette wird eine der 37 Zahlen 0, 1, 2,..., 36 mit Wahrscheinlichkeit 1/37 ausgespielt. Drei Spieler setzen jeweils einen weiÿen Jeton nach folgenden Strategien: Spieler 1 setzt immer auf die Zahl 1. Spieler 2 setzt auf die Kolonne {1, 2,..., 12}. Spieler 3 setzt auf Impair, d. h. auf die ungeraden Zahlen {1, 3,..., 35}. Die Zufallsvariablen X 1, X 2, X 3 beschreiben den Reingewinn der Spieler 1,2,3 in weiÿen Jetons. Wird die Zahl 1 ausgespielt, so erhält Spieler 1 den 36-fachen Einsatz. Nach Abzug seines Einsatzes verbleibt somit ein Reingewinn von 35 weiÿen Jetons. Wird die

111 2. Messbare Abbildungen und Zufallsvariable 101 Zahl 1 nicht ausgespielt, so verliert Spieler 1 seinen Einsatz. Tritt das Ereignis D = {1, 2,..., 12} ein, so wird Spieler 2 der dreifache Einsatz ausbezahlt, andernfalls verliert er seinen Einsatz. Für Spieler 3, welcher auf eine einfache Chance spielt, gibt es eine Sonderregelung: Wird eine ungerade Zahl ausgespielt, so bekommt er den doppelten Einsatz ausbezahlt, falls jedoch die 0 erscheint, bekommt er den halben Einsatz zurück. Ansonsten verliert er seinen Einsatz. Bestimmen Sie jeweils die Verteilung und die Verteilungsfunktion der Zufallsvariablen X 1, X 2, X 3. (2.14) Vollenden Sie den Beweis von Satz 2.14, indem Sie zeigen, dass auch X + Y messbar ist. (2.15) Ergänzen Sie die ausgelassenen Beweisschritte im Beweis von Satz Zeigen Sie also, dass sup n N X n und lim sup n X n messbar sind. (2.16) Es sei (Ω, F) ein messbarer Raum. Zeigen und beantworten Sie: (a) Ist X : Ω R messbar, so sind auch messbar. X + := max{x, 0}, X := max{ X, 0} und X = X + + X (b) Die Abbildung X : Ω R ist genau dann messbar, wenn X + und X messbar sind. (c) Es sei X : Ω R messbar. Folgt daraus die Messbarkeit von X? (2.17) Stetige Verteilungsfunktion: Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω R eine Zufallsvariable. Zeigen Sie, dass die Verteilungsfunktion F X : R R genau dann stetig ist, wenn P (X = x) = 0 für alle x R. (2.18) Multinomial- und verallgemeinerte hypergeometrische Verteilung: Gegeben sei eine Urne mit N = B B k Kugeln in k unterschiedlichen Farben, wobei B i die Anzahl der Kugeln in der Farbe i = 1,..., k bezeichnet. Bestimmen Sie die Wahrscheinlichkeit, dass unter n (a) mit Zurücklegen (b) ohne Zurücklegen gezogenen Kugeln, genau b i Kugeln von jeder Farbe i = 1,..., k sind. (2.19) Unabhängigkeit diskreter Zufallsvariablen: Zeigen Sie die Aussage in Beispiel 2.28.

112 Messbare Abbildungen und Zufallsvariable (2.20) Summe unabhängiger binomialverteilter Zufallsvariablen: Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum, n 1, n 2 N und p (0, 1). Die Zufallsvariablen X 1, X 2 : Ω R seien unabhängig mit P X1 = B n1,p und P X2 = B n2,p. Bestimmen Sie die Verteilung der Summe X = X 1 + X 2. (2.21) Klassenfahrt: Die 15 Schüler einer Schulklasse dürfen abstimmen, ob ihre Klassenfahrt nach Rom oder Paris gehen soll. Der k-te Schüler entscheidet sich unabhängig von den anderen mit Wahrscheinlichkeit p k (0, 1) für Paris. Wie groÿ ist die Wahrscheinlichkeit, dass höchstens drei Schüler für Paris stimmen? (2.22) Würfelspiel: Zwei Personen spielen folgendes Spiel: Ein Spieler hat drei rote Würfel, der andere einen schwarzen Würfel. Der Spieler mit dem schwarzen Würfel gewinnt die Runde, wenn seine Augenzahl gröÿer gleich der höchsten Augenzahl der roten Würfel ist. Wie groÿ ist die Wahrscheinlichkeit, dass der Spieler mit dem schwarzen Würfel die Runde gewinnt? (2.23) In den Teich: Ein Frosch springt in Richtung eines groÿen Teichs. Jeder Sprung bringt ihn entweder 1m oder 2m näher ans Wasser. Die Wahrscheinlichkeit für einen 1m-Sprung ist p (0, 1), jene für einen 2m-Sprung q = (1 p). Die Sprünge seien voneinander unabhängig. Sei p n (j) die Wahrscheinlichkeit, dass der Frosch den Teich nach j Sprüngen das erste Mal erreicht, wenn er (n 1 2 )m entfernt startet. Bestimmen Sie p 2 (2). (2.24) Im Wald: Anhand folgenden Beispiels soll gezeigt werden, dass die Summe unabhängiger Poisson-verteilter Zufallsvariablen wieder Poisson-verteilt ist. Die Anzahl f der Fichten in einem Waldstück sei Poisson-verteilt mit Parameter λ f > 0, während die Anzahl b der Birken im selben Waldstück als Poisson-verteilt mit Parameter λ b > 0 angenommen wird. Bestimmen sie die Verteilung von Fichten und Birken, also die Verteilung der Zufallsvariablen f + b, unter der Annahme, dass f und b unabhängig sind. Hinweis: P(f + b = k) = k i=0 P(f = i, b = k i) für k N 0 (2.25) Christkindlmarkt: Zwei Freunde vereinbaren, sich zwischen 18:00 Uhr und 19:00 Uhr am Christkindlmarkt zum Glühweintrinken zu treen. Da der Verkehr wie immer kaum vorherzusehen ist, kommen beide zufällig (gleichverteilt) zwischen 18:00 Uhr und 19:00 Uhr am vereinbarten Trepunkt an. (a) Beide sind bereit, bis zu 20 Minuten auf den jeweils anderen zu warten. Da die Kälte aber ohne Glühwein kaum zu ertragen ist, geht der Wartende nach Ablauf der Zeit wieder nach Hause, sollte der andere nicht auftauchen. (b) Einer der beiden hat nur einen dünnen Pullover an, daher wird ihm bereits nach 5 Minuten zu kalt und er geht wieder. Der andere ist angemessen gekleidet, er wartet bis zu 20 Minuten.

113 2. Messbare Abbildungen und Zufallsvariable 103 Wie groÿ ist jeweils die Wahrscheinlichkeit, dass sich beide treen? (2.26) Roulette II: Beim Roulette setzt ein Spieler jeweils einen weiÿen Jeton auf die Kolonne {1, 2,..., 12} und einen auf Impair, also auf die ungeraden Zahlen. Seine Reingewinne werden durch die Zufallsvariablen X, Y beschrieben, also durch den Zufallsvektor (X, Y ). Bestimme die Verteilungsfunktion von (X, Y ). (2.27) Minimum unabhängiger exponentialverteilter Zufallsvariablen: Es seien X 1,..., X n unabhängige, exponentialverteilte Zufallsvariablen mit Parametern λ 1,..., λ n > 0. Zeigen Sie, dass X := min{x 1,..., X n } eine Zufallsvariable ist und bestimmen Sie die Verteilung P X. (2.28) Dichte und Verteilungsfunktion: Bestimmen Sie c R so, dass die Funktion f X : R R: x { cx für 0 x 1, 0 sonst, Dichte einer Zufallsvariablen X ist und ermitteln Sie F X. Berechnen Sie weiters die Verteilungsfunktion und eine Dichte der Zufallsvariablen Y := 4X 1. (2.29) Substitutionsregel für Dichten: Es sei X eine reellwertige Zufallsvariable mit Dichte f X. Weiters sei α > 0 und β R. Zeigen Sie, dass die Zufallsvariable Y := αx + β die für t R durch ( ) f Y (t) = 1 α f t β X α gegebene Dichte besitzt. (2.30) Intelligent?: Der Intelligenzquotient (IQ) einer bestimmten Bevölkerungsschicht sei N 100,15 2-verteilt. Man bestimme c > 0 so, dass eine aus dieser Bevölkerungsschicht zufällig ausgewählte Person mit Wahrscheinlichkeit 0.3 einen IQ von mindestens c besitzt. Hinweis: Φ(x) = 0.7 x 0, 525

114 Messbare Abbildungen und Zufallsvariable Schulaufgaben Die nachfolgenden Aufgaben stammen, sofern keine weiteren Angaben gemacht werden, von (Stand: Februar 2013). (S2.1) Multiple Choice 2: Bei einem Aufnahmetest werden vier Fragen mit je drei Antwortmöglichkeiten gestellt, wobei jeweils genau eine Antwort richtig ist. Der Kandidat kreuzt rein zufällig jeweils eine Antwort an. Die Zufallsvariable X gibt die Anzahl der richtigen Antworten an. (a) Um welche Art der Wahrscheinlichkeitsverteilung der Zufallsvariablen X handelt es sich? Begründe deine Antwort. (b) Wie groÿ ist die Wahrscheinlichkeit, mindestens zwei Antworten richtig anzukreuzen? (S2.2) Versandhaus: Ein Versandhaus wird von einer Firma mit Artikeln für Haushaltselektronik beliefert, bei denen von einer Ausschussquote von p = 0.06 ausgegangen wird. Eine Lieferung umfasst 200 Stück. Die Zufallsgröÿe X beschreibe die Anzahl defekter Artikel in einer Lieferung. Begründe, warum die Zufallsvariable X binomialverteilt ist. (S2.3) Normalverteilung: Eine Zufallsvariable X ist normalverteilt mit dem Erwartungswert µ und der Standardabweichung σ. N1 N2 N3 N4 In den Graphen N1, N2, N3, N4 entsprechen den blau markierten Flächen Wahrscheinlichkeiten. Kreuze an, welche der unten stehenden Wahrscheinlichkeitsaussagen sie abbilden.

115 2. Messbare Abbildungen und Zufallsvariable 105 N1 N2 N3 N4 keiner der Graphen P(X a) P(X a) P(X b) 1 P(X a) 1 P(X b) 1 P(µ a X µ + a) P(a X b) 2P(X < µ a) 2P(X < b) 1 P(X b) P(X a) (S2.4) Binomialverteilung: Eine Binomialverteilung der Zufallsvariablen X mit den Parametern p und n wird mit der Formel ( ) n P(X = k) = p k (1 p) n k, k n, k beschrieben. (a) Unter welchen Bedingungen ist eine Zufallsvariable X binomialverteilt? Erkläre die Bedeutung der Variablen n und p in der Formel. (b) Eine Maschine erzeugt Glühbirnen mit einem Ausschussanteil von 1%. Berechne die Wahrscheinlichkeit, dass von 6000 Glühbirnen 60 bis 75 Stück schadhaft sind. Dokumentiere deinen Lösungsweg. (S2.5) Aufnahmetest: Eine Universität führt für die angemeldeten Bewerber/innen einen Aufnahmetest durch. Dabei werden zehn Multiple-Choice-Fragen gestellt, wobei jede Frage vier Antwortmöglichkeiten hat. Nur eine davon ist richtig. Wer mindestens acht Fragen richtig beantwortet, wird sicher aufgenommen. Wer alle zehn Fragen richtig beantwortet, erhält zusätzlich ein Leistungsstipendium. Die Ersteller/innen dieses Tests geben die Wahrscheinlichkeit, bei zufälligem Ankreuzen aller Fragen aufgenommen zu werden, mit % an. Nehmen Sie an, dass Kandidat K alle Antworten völlig zufällig ankreuzt. (a) Nennen Sie zwei Kriterien, warum die Anzahl der richtig beantworteten Fragen unter den vorliegenden Angaben binomialverteilt ist! Geben Sie zwei mögliche Gründe an, warum in der Realität das Modell der Binomialverteilung hier eigentlich nicht anwendbar ist!

116 Messbare Abbildungen und Zufallsvariable (b) Geben Sie die Wahrscheinlichkeit an, dass Kandidat K nicht aufgenommen wird! Berechnen Sie die Wahrscheinlichkeit, dass Kandidat K ein Leistungsstipendium erhält! (c) Um zu argumentieren, dass die Strategie des zufälligen Ankreuzens nicht aufgeht, wird die Anzahl der Kandidatinnen und Kandidaten ermittelt, die auf diese Weise zum Test antreten müssten, damit mit mindestens 90%iger Wahrscheinlichkeit zumindest eine/einer von ihnen aufgenommen wird. Kreuzen Sie die beiden zutreenden Ungleichungen an, die geeignet sind, diese Anzahl zu ermitteln. 1 ( n 0) n ( n 0) n ( n 1) n n n 0.10 Denieren Sie dazu auch die verwendete Zufallsvariable und geben Sie deren Wahrscheinlichkeit p an. (S2.6) Binomial- und Normalverteilung: Eine Maschine erzeugt Glühbirnen mit einem Ausschussanteil von 1%. (a) Eine Binomialverteilung der Zufallsvariablen X mit den Parametern p und n wird mit der Formel ( ) n P(X = k) = p k (1 p) n k, k n, k beschrieben. Berechne die Wahrscheinlichkeit, dass von 6000 Glühbirnen 60 bis 75 Stück schadhaft sind. Dokumentiere deinen Lösungsweg. (b) Berechne diese Wahrscheinlichkeit mittels Normalverteilung und vergleiche das Ergebnis mit dem aus (a). (S2.7) Blutgruppen 1: Nach Karl Landsteiner ( ) unterscheidet man die vier Blutgruppen 0, A, B und AB, die in einer bestimmten Region folgende Verteilung hat: Blutgruppe 0 A B AB Anteil 37% 41% 15% 7% a) Angenommen alle 23 Personen einer Maturaklasse spenden alle Blut. Welches Modell ist geeignet, die Wahrscheinlichkeiten, dass unter den Spender/innen mindestens zwei die Blutgruppe A bzw. mehr als 10 und höchstens 12 die Blutgruppe 0 haben, zu berechnen? Begründe deine Entscheidung.

117 2. Messbare Abbildungen und Zufallsvariable 107 b) Mit welchem Modell berechnet man die Wahrscheinlichkeit, dass unter Personen mehr als 3650 Personen die Blutgruppe 0 haben? c) Die Zufallsvariable X beschreibt die Anzahl der Personen mit Blutgruppe AB aus untersuchten Menschen. Was versteht man unter P(µ ε X µ + ε) = 0.90? (S2.8) Blutgruppen 2: Nach Karl Landsteiner ( ) unterscheidet man die vier Blutgruppen 0, A, B und AB, die in einer bestimmten Region folgende Verteilung hat: Blutgruppe 0 A B AB Anteil 37% 41% 15% 7% a) 23 Personen einer Maturaklasse spenden Blut. Berechne die Wahrscheinlichkeiten, dass unter den Spender/innen (i) mindestens zwei die Blutgruppe A haben, (ii) mehr als 10 und höchstens 12 die Blutgruppe 0 haben. b) Wie viele Personen müssten Blut spenden, wenn mit einer Wahrscheinlichkeit von mehr als 95% mindestens eine Person die seltene Blutgruppe AB hat? c) Berechne die Wahrscheinlichkeit, dass unter Personen mehr als 3650 Personen die Blutgruppe 0 haben. d) Die Zufallsvariable X beschreibt die Anzahl der Personen mit Blutgruppe AB aus untersuchten Menschen. Berechne: P(µ ε X µ + ε) = 0.95 Beschreibe das Ergebnis mit eigenen Worten.

118 Messbare Abbildungen und Zufallsvariable Kontrollfragen 2.1 Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω R eine Abbildung. Welche der folgenden Aussagen sind wahr? X ist Zufallsvariable B B(R): X 1 (B) B(R) X ist Zufallsvariable x R: X 1 ((, x]) F Ist X(Ω) = {x 1, x 2,...}, so gilt X ist Zufallsvariable n N: X 1 ({x n }) F. X ist Zufallsvariable x R: X 1 ({x}) F 2.2 Es sei Ω = (0, π) und X : Ω R: ω sin ω. Welche der Folgenden Aussagen sind wahr? X ist Borel-messbar. X ist ( X 1 (B(R)), B(R) ) -messbar. Ist F = {, ( 0, π 2 ], ( π 2, π), Ω }, so ist X eine (F, B(R))-messbare Funktion. Ist F = P(Ω) und F eine beliebige σ-algebra auf R, so ist X eine (F, F )- messbare Abbildung. 2.3 Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum und A F. Weiters sei X = 7χ A 5. Welche der folgenden Aussagen sind wahr? P X = P(A)δ 2 + (1 P(A))δ 5 P X = P(A)δ 2 + P(A c )δ 5 F X = P(A)χ [2, ) + P(A c )χ [ 5, ) F X = P(A)χ [7, ) + P(A c )χ [ 5, ) 2.4 Es sei (Ω, F, P) der Laplace-Raum zu Ω = {1, 2, 3}. Weiters seien die Zufallsvariablen X : Ω R: ω ω und Y = X 2 gegeben. Welche der folgenden Aussagen sind wahr? X und Y sind unabhängig.

119 2. Messbare Abbildungen und Zufallsvariable 109 P X = 1 3 (δ 1 + δ 2 + δ 3 ) und P Y = 1 3 (δ 1 + δ 4 + δ 9 ) F X = 1 ( ) 3 χ[1, ) + χ [2, ) + χ [3, ) und FY = 1 ( ) 3 χ[1, ) + χ [4, ) + χ [9, ) P X+Y = 1 3 (δ 2 + δ 6 + δ 12 ) 2.5 Gegeben sei der Wahrscheinlichkeitsraum ([0, 1], B([0, 1]), λ) und die Zufallsvariablen X = 1 4 und Y = χ [0,3/4] + χ [1/2,1]. Welche der folgenden Aussagen sind wahr? P X = 0 und P Y = 3 4 δ δ 2 P X = δ 1 4 und P Y = 3 4 δ δ 2 F X = χ (1/4, ) und F Y = 3 4 χ (1, ) χ (2, ) F X = χ [1/4, ) und F Y = 3 4 χ [1,2) + χ [2, ) 2.6 Gegeben seien die Abbildungen und F : R R: x 1 2 χ [1,3)(x) (x 2)χ [2,3)(x) + χ [3, ) (x) P : B(R) R: B 1 2 δ 1(B) + 1 2λ ((2, 3) B). Welche der folgenden Aussagen sind wahr? F ist eine Verteilungsfunktion und P eine Verteilung. F ist eine Verteilungsfunktion, aber P keine Verteilung. F P = F F P F 2.7 Es sei X : Ω R eine Zufallsvariable auf dem Wahrscheinlichkeitsraum (Ω, F, P) mit X N 7,4. Weiters bezeichne Φ die Verteilungsfunktion der Standardnormalverteilung. Welche der folgenden Aussagen sind wahr? P(11 X 13) = Φ(3) Φ(2) Die Zufallsvariable ist standardnormalverteilt. Y = X 7 2

120 Messbare Abbildungen und Zufallsvariable Die Zufallsvariable ist standardnormalverteilt. P(11 X 13) = N 7,4 ([11, 13]) Y = X Gegeben seien die Zufallsvariablen X 1, X 2 : Ω R mit P (X1,X 2 ) = 1 4 δ (0,0) δ (1,0) δ (0,1) δ (1,1). Welche der folgenden Aussagen sind wahr? X 1 und X 2 sind unabhängig. P (X1,X 2 ) = P X1 P X2 X 1 und X 2 sind nicht unabhängig. x 1, x 2 R: F (X1,X 2 )(x 1, x 2 ) = F X1 (x 1 )F X2 (x 2 )

121 Kapitel 3 Integration und Erwartungswert In diesem Kapitel werden wir das Integral reellwertiger messbarer Funktionen einführen und dessen grundlegende Eigenschaften studieren. Insbesondere wird uns dies erlauben, den Erwartungswert und die Varianz von Zufallsvariablen zu denieren. 3.1 Einfache Funktionen In diesem Abschnitt zeigen wir, dass jede messbare Funktion der monotone Grenzwert einfacher Funktionen ist. Es bezeichne (Ω, F) einen messbaren Raum. Definition 3.1 (Einfache Funktionen) Eine Abbildung X : Ω R heiÿt einfache Funktion, wenn ein n N und paarweise disjunkte messbare Mengen A 1,..., A n F sowie α 1,..., α n R existieren, sodass X = n α i χ Ai. i=1 Bemerkung. Nach Beispiel 2.8 und Satz 2.14 ist eine einfache Funktion insbesondere messbar. Beispiel 3.2 (Messbare Abbildung mit endlich vielen Funktionswerten) Nimmt die messbare Abbildung X : Ω R nur endlich viele Werte an, so ist diese eine einfache Funktion. Wir nehmen also an, dass X(Ω) = {α 1,..., α n } mit paarweise verschiedenen α 1,..., α n R. Für i = 1,..., n setzen wir A i := X 1 ({α i }). Dann sind A 1,..., A n F paarweise disjunkt und X = n α i χ Ai i=1 ist die gesuchte Darstellung. Wir zeigen nun, dass eine nichtnegative messbare Abbildung der monotone Grenzwert nichtnegativer einfacher Funktionen ist. Im Weiteren bezeichne { n } E + := E + (Ω, F) := α i χ Ai : n N, α 1,..., α n > 0, A 1,..., A n F p.w. disjunkt i=1 111

122 Integration und Erwartungswert die Menge der nichtnegativen einfachen Funktionen und L + := L + (Ω, F) := {X : Ω [0, ] messbar} die Menge der nicht-negativen messbaren Funktionen. Lemma 3.3 Für eine Abbildung X : Ω [0, ] gilt X L + {X n } n=1 E N + : X n X. Beweis. : Diese Richtung folgt direkt aus Satz : Für n N setze etwa X n := min {2 n 2 n X, n}. Obiges Lemma wird im weiteren Verlauf dieses Kapitels noch des Öfteren zum Einsatz kommen. 3.2 Konstruktion des Integrals Im Folgenden bezeichne (Ω, F, µ) stets einen Maÿraum. Als ersten Schritt werden wir das Integral auf der Menge der nichtnegativen einfachen Funktionen { n } E + = α i χ Ai : n N, α 1,..., α n > 0, A 1,..., A n F p.w. disjunkt denieren. i= Erster Schritt: Integral einfacher Funktionen Für X E + mit Darstellung X = n i=1 α iχ Ai denieren wir das Integral von X bezüglich µ durch ˆ X dµ := n α i µ(a i ). i=1 Wir müssen nun sicherstellen, dass diese Denition unabhängig von der gewählten Darstellung der einfachen Funktion X ist. Es sei X = m j=1 β jχ Bj eine weitere Darstellung. Es gilt zu zeigen, dass n α i µ(a i ) = i=1 m β j µ(b j ). j=1

123 3. Integration und Erwartungswert 113 Betrachte dazu die Durchschnitte A i B j, i = 1,..., n, j = 1,..., m. Im Fall, dass A i B j, ist X Ai B j = α i = β j. Weiters gilt, dass A i m B j und B j j=1 Aus diesen Überlegungen folgt nun n n m α i µ(a i ) = α i µ A i B j = i=1 = = i=1 m j=1 i=1 j=1 n β j µ (A i B j ) = m β j µ(b j ). j=1 n A i. i=1 n i=1 j=1 m α i µ (A i B j ) = ( m n ) β j µ A i B j = j=1 i=1 Somit ist die Abbildung E + [0, ]: X = n ˆ α i χ Ai i=1 X dµ = n α i µ(a i ) i=1 wohldeniert. Im Weiteren verwenden wir stets die Konvention 0 := 0. Lemma 3.4 (Eigenschaften des Integrals auf E + ) Für X, Y E + und α 0 gelten folgende Aussagen: (1) Es gilt X + αy E + und ˆ ˆ (X + αy ) dµ = ˆ X dµ + α Y dµ. (Linearität) (2) Ist X Y, so gilt X dµ Y dµ. (Monotonie) Beweis. Aufgabe (3.1) Zweiter Schritt: Integral nicht-negativer Funktionen Nun setzen wir das auf E + denierte Integral auf die Menge der nichtnegativen messbaren Funktionen L + = {X : Ω [0, ] messbar}

124 Integration und Erwartungswert fort. Für X L + denieren wir das Integral von X bezüglich µ durch ˆ {ˆ } X dµ := sup Y dµ: Y E +, Y X. Für X E + stimmt die obige Denition des Integrals oenbar mit der bisherigen auf E + überein und somit haben wir das Integral von E + auf L + fortgesetzt. Weiters schreiben wir auch ˆ ˆ ˆ X dµ =: X dµ =: X(ω) dµ(ω) für das Integral von X L + bezüglich µ. Ω Sind X, Y : Ω R zwei messbare Funktionen, so schreiben wir auÿerdem X = Y fast überall (kurz: f. ü.), falls µ(x Y ) = 0. Analog werden etwa X Y f. ü. und X Y f. ü. deniert. Lemma 3.5 (Eigenschaften des Integrals auf L + ) Für X, Y L + und α 0 gelten folgende Aussagen: (1) X Y f. ü. = X dµ Y dµ (Monotonie) (2) (X + αy ) dµ = X dµ + α Y dµ (Linearität) (3) X = 0 f. ü. X dµ = 0 (4) X dµ < = X < f. ü. Beweis. (1) Diese Aussage ergibt sich unmittelbar aus der Denition des Integrals. (2) Nach Lemma 3.3 existieren Folgen {X n } n=1 und {Y n} n=1 in E + mit X n X und Y n Y. Insbesondere ist dann {X n + αy n } n=1 EN + eine Folge mit X n + αy n X + αy. Aus dem Satz von der monotonen Konvergenz, also Satz 3.6, für dessen Beweis wir nur (1) verwenden werden, folgt nun ˆ ˆ ˆ ˆ (X + αy ) dµ = lim (X n + αy n ) dµ = lim X n dµ + α lim Y n dµ = n n n ˆ ˆ = X dµ + α Y dµ und damit die Linearität des Integrals. (3) : Diese Richtung folgt aus (1). : Es gilt { X n} 1 {X > 0}. Für jedes n N folgt aus ˆ ˆ 1 0 = X dµ } dµ = µ ( X 1 ) n, n n χ{ X 1 n Ω

125 3. Integration und Erwartungswert 115 dass µ ( X 1 n) = 0 und somit µ(x > 0) = 0. (4) Für jedes n N gilt 1 n Xχ {X n} χ {X n} und daher ist ˆ ˆ µ(x = ) = χ {X= } dµ χ {X n} dµ 1 ˆ Xχ n {X n} dµ 1 ˆ n X dµ 0 für n. Bemerkung. Insbesondere gilt für X, Y L +, dass ˆ X = Y fast überall = ˆ X dµ = Y dµ. Satz 3.6 (Satz von der monotonen Konvergenz, Beppo Levi 1 ) Ist X L + und {X n } n=1 LN + eine Folge mit X n X fast überall, so gilt ˆ ˆ X n dµ = X dµ. lim n Beweis. Es sei N F eine Nullmenge, sodass X n X auf N c. Aus der Monotonie folgt ˆ ˆ ˆ ˆ lim X n dµ = sup χ N cx n dµ χ N cx dµ = X dµ n n N und daher bleibt zu zeigen, dass sup n N Xn dµ X dµ. Es sei dazu Y E + mit Y X und Darstellung Y = M i=1 α i χ Ai. Zu ε > 0 und n N betrachte die Menge B ε n := {ω N c : X n (ω) (1 ε)y (ω)} F. Aus X n X Y auf N c folgt B ε n N c für n. Somit ist ˆ für n. ˆ X n dµ = ˆ M χ N cx n dµ (1 ε)y χ B ε n dµ = (1 ε)α i µ (A i Bn) ε i=1 M ˆ (1 ε)α i µ(a i ) = (1 ε) Korollar 3.7 (Vertauschen von Reihe und Integral) Für {X n } n=1 LN + gilt ˆ i=1 X n dµ = n=1 ˆ n=1 1 Beppo Levi, , italienischer Mathematiker X n dµ. Y dµ

126 Integration und Erwartungswert Beweis. Setze S := n=1 X n und S N := N n=1 X n für N N. Beachte nun, dass {S N } N=1 LN + und S N S. Aufgrund der Linearität und der monotonen Konvergenz des Integrals auf L + folgt daher ˆ ˆ ˆ ˆ X n dµ = lim S N dµ = S dµ = X n dµ. N n=1 Ist (Ω, F, P) ein Wahrscheinlichkeitsraum und X L +, so nennt man ˆ EX := X dp den Erwartungswert von X. Auÿerdem schreiben wir im Fall, dass ein Wahrscheinlichkeitsmaÿ zugrunde liegt, stets fast sicher (kurz: f.s.) anstelle von fast überall. Beispiel 3.8 (Erwartungswerte diskreter Verteilungen) Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X L + mit Verteilung P X. Dann nennt man EP X := EX den Erwartungswert der Verteilung P X. Wie wir sehen werden, ist die Denition des Erwartungswertes einer Verteilung unabhängig von der Wahl des Wahrscheinlichkeitsraumes und der Zufallsvariablen, vgl. Lemma In nachfolgender Tabelle sind die Erwartungswerte einiger diskreter Verteilungen aufgelistet. P X EP X Verteilung B n,p np Binomialverteilung Ω n=1 H n,n,g n G N Hypergeometrische Verteilung π λ λ Poisson-Verteilung g p 1 p p Geometrische Verteilung Exemplarisch berechnen wir den Erwartungswert der Poisson-Verteilung. Dazu wählen wir einen Wahrscheinlichkeitsraum (Ω, F, P) und X L + mit P X = π λ. Nun folgt aus P(X N 0 ) = 1, dass Somit erhalten wir ˆ Eπ λ = EX = X dp = X = ˆ k=0 kχ {X=k} fast sicher. k=0 kχ {X=k} dp = kp(x = k) = e λ k λk k! = λ. k=0 k=0

127 3. Integration und Erwartungswert Dritter Schritt: Integral messbarer Funktionen Ist X : Ω R messbar, so sind auch X + := max{x, 0} und X := max{ X, 0} messbar, es gilt also X +, X L +. Weiters lässt sich X in seinen positiven und negativen Anteil zerlegen, d. h. X = X + X. Aus X + X und X X folgt aufgrund der Monotonie des Integrals auf L +, dass ˆ ˆ ˆ ˆ X + dµ X dµ und X dµ X dµ. Insbesondere folgt daher aus X dµ <, dass X + dµ < und X dµ <. Diese Beobachtungen geben Anlass zu folgender Denition des Integrals messbarer Funktionen. Definition 3.9 (Integral messbarer Funktionen) (1) Eine messbare Funktion X : Ω R heiÿt µ-integrierbar, wenn X dµ <. Für die Menge der µ-integrierbaren Funktionen schreiben wir { ˆ } L 1 (µ) := L 1 (Ω, F, µ) := X : Ω R messbar: X dµ <. (2) Für X L 1 (µ) ist das Integral von X bezüglich µ durch ˆ ˆ ˆ X dµ := X + dµ X dµ gegeben. (3) Ist X : Ω R messbar mit X + dµ < und/oder X dµ <, so denieren wir das Integral von X bezüglich µ wie in (2), wobei nun die Werte und zugelassen sind. In diesem Fall sagen wir, dass das Integral von X bezüglich µ existiert. Bemerkung. Für A F und X L 1 (µ) setzen wir ˆ ˆ X dµ := A χ A X dµ.

128 Integration und Erwartungswert Es sei A F und X : A R eine bezüglich F A messbare Abbildung. Dann ist die durch { X(ω), ω A, (χ A X)(ω) := 0, ω / A, für ω Ω denierte Funktion messbar bezüglich F. Ist χ A X L 1 (µ), so setzen wir wiederum ˆ ˆ X dµ := χ A X dµ. Beispiel 3.10 (Lebesgue-Integral auf R d ) Wir betrachten nun das Lebesgue-Maÿ λ auf { } B(R d ) = B R d Lebesgue-messbar. A ) Man beachte, dass B(R d ) B(R d ). Eine Funktion X L (R 1 d, B(R d ), λ nennt man Lebesgue-integrierbar und entsprechend ˆ X dλ das Lebesgue-Integral von X. Bemerkung. (Zusammenhang: Riemann-Integral und Lebesgue-Integral) Jede absolut Riemann-integrierbare Funktion X : R R ist Lebesgue-integrierbar und ˆ ˆ X(x) dx = X(x) dλ(x). Beispiel 3.11 (Dirichletsche Sprungfunktion) Die Dirichletsche Sprungfunktion X : [0, 1] R: ω χ Q (ω) ist bekanntlich nicht Riemann-integrierbar, jedoch ist diese Lebesgue-integrierbar und ˆ ˆ X dλ = χ [0,1] Q dλ = λ([0, 1] Q) = 0. [0,1] Lemma 3.12 (Linearität des Integrals bezüglich des Maÿes) Es seien µ 1 und µ 2 zwei Maÿe auf dem messbarern Raum (Ω, F) und α 1, α 2 > 0. Weiters sei µ := α 1 µ 1 + α 2 µ 2 und X : Ω R eine Abbildung. Dann gilt und im Fall der Integrierbarkeit ist ˆ X dµ = α 1 ˆ X L 1 (µ) X L 1 (µ 1 ) L 1 (µ 2 ) R X dµ 1 + α 2 ˆ X dµ 2.

129 3. Integration und Erwartungswert 119 Beweis. Um die Linearität auf L + zu zeigen, genügt es X = χ A, A F, zu betrachten. Dies ist eine Folgerung aus der monotonen Konvergenz des Integrals auf L + und der Tatsache, dass jede Funktion in L + der monotone Grenzwert von Funktionen in E + ist. Es sei also X = χ A mit A F. In diesem Fall erhalten wir jedoch unmittelbar ˆ ˆ ˆ χ A dµ = µ(a) = α 1 µ 1 (A) + α 2 µ 2 (A) = α 1 χ A dµ 1 + α 2 χ A dµ 2. Da somit die Linearität bezüglich des Maÿes auf L + gezeigt ist, erhalten wir unmittelbar die Aussage über die Integrierbarkeit von X. Zerlegt man X L 1 (µ) in Positiv- und Negativ-Anteil, ergibt sich nun die gewünschte Aussage über das Integral. Bemerkung. Ist {µ n } n=1 eine Folge von Maÿen auf (Ω, F) und {α n} n=1 (0, )N, so kann obiges Lemma auf µ := n=1 α nµ n erweitert werden, um im Fall der Integrierbarkeit ˆ ˆ X dµ = α n X dµ n zu erhalten. n=1 Beispiel 3.13 (Erwartungswert der Gleichverteilung) Für a < b bestimmen wir nun den Erwartungswert der Gleichverteilung auf [a, b], also der Verteilung U [a,b]. Wir betrachten den Wahrscheinlichkeitsraum ( [a, b], B([a, b]), U [a,b] ) und die auf [a, b] gleichverteilte Zufallsvariable X : [a, b] R: ω ω. Dann ist ˆ E U [a,b] = [a,b] X(ω) du [a,b] (ω) = 1 ˆ ω dλ(ω) = 1 b a [a,b] b a Satz 3.14 (Eigenschaften des Integrals auf L 1 ) Es seien X, Y L 1 (µ). ˆ b a x dx = a + b 2. (1) Gilt X Y fast überall, dann ist X dµ Y dµ. (Monotonie) (2) Für α R ist X + αy L 1 (µ) und ˆ ˆ (X + αy ) dµ = ˆ X dµ + α Y dµ. (Linearität) (3) X dµ X dµ. (Dreiecksungleichung) (4) Ist Z : Ω R messbar und Z = X fast überall, so ist auch Z L 1 (µ) und ˆ ˆ X dµ = Z dµ.

130 Integration und Erwartungswert Beweis. (1) Da X + Y + und X Y fast überall, folgt aufgrund der Monotonie des Integrals auf L +, dass ˆ ˆ X + dµ Y + dµ und ˆ ˆ X dµ Y dµ. Daher ist ˆ ˆ X dµ = ˆ X + dµ ˆ X dµ ˆ Y + dµ ˆ Y dµ = Y dµ. (2) Aus X + αy X + α Y folgt X + αy L 1 (µ). Da ˆ ˆ ( X) dµ = ˆ ( X) + dµ ˆ ( X) dµ = ˆ X dµ ˆ X + dµ = X dµ, genügt es α 0 zu betrachten und in diesem Fall erhält man die Aussage direkt aus (X + αy ) + (X + αy ) = X + αy = X + X + αy + αy. (3) Da X X und X X, folgt die Aussage aus (1) und (2). (4) Aus Z = X fast überall folgt Z + = X + und Z = X fast überall und damit unmittelbar die Aussage. Ist (Ω, F, P) ein Wahrscheinlichkeitsraum und X L 1 (P), so nennt man wiederum Erwartungswert von X. ˆ EX := Ω X(ω) dp(ω) Beispiel 3.15 (Integration bezüglich eines Dirac-Maÿes) Zu einer nicht leeren Menge Ω und einem festen ω 0 Ω betrachten wir den Wahrscheinlichkeitsraum (Ω, P(Ω), δ ω0 ). Dann ist jede Funktion X : Ω R integrierbar bezüglich δ ω0, da X = X(ω 0 ) χ {ω0 } fast sicher und daher ˆ Ω ˆ X dδ ω0 = Ω X(ω 0 ) χ {ω0 } dδ ω0 = X(ω 0 ) <. Entsprechend erhalten wir ˆ EX = Ω X dδ ω0 = X(ω 0 ).

131 3. Integration und Erwartungswert 121 Beispiel 3.16 (Absolute Konvergenz und Integrierbarkeit) Für Ω := N wählen wir die σ-algebra F := P(N) und das Maÿ µ := n=1 δ n. Dann gilt für die Abbildung X : N R, dass X ist µ-integrierbar ˆ N X dµ = X(n) <. n=1 Im Falle der absoluten Konvergenz der Reihe n=1 X(n) ist also ˆ X dµ = X(n). N n=1 Beispiel 3.17 (Integration in diskreten Maÿräumen) Gegeben sei der Maÿraum (Ω, P(Ω), µ) mit abzählbarem Ω und µ = ω Ω α ω δ ω, wobei α ω 0 für jedes ω Ω. Dann gilt für eine Abbildung X : Ω R, dass X L 1 (µ) ω Ω α ω X(ω) <. Im Fall der Integrierbarkeit erhalten wir ˆ X dµ = ω Ω α ω X(ω). 3.3 Substitution und Dichten Zur praktischen Berechnung des Integrals einer messbaren Funktion benötigt man häug nachfolgende Substitutionsformel. Satz 3.18 (Substitutionsformel) Es seien (Ω D, F D ) und (Ω B, F B ) messbare Räume. Weiters sei µ ein Maÿ auf (Ω D, F D ), die Abbildung X : Ω D Ω B messbar. Für eine messbare Funktion g : Ω B R ist dann g L 1 ( µ X 1) g X L 1 (µ) und im Fall der Integrierbarkeit gilt für A B F B, dass ˆ g d ( µ X 1) ˆ = (g X) dµ. AB X 1 (AB)

132 Integration und Erwartungswert Beweis. Schritt 1: Wir setzen g := χ AB g. Dann ist ˆ g d ( µ X 1) ˆ = g d(µ X 1 ) AB ΩB und im Falle der Integrierbarkeit gilt ˆ ˆ (g X) dµ = ( g X) dµ. X 1 (AB) ΩD Schritt 2: Nach dem ersten Beweisschritt können wir annehmen, dass A B = Ω B. Aufgrund der monotonen Konvergenz des Integrals auf L + und da jede Funktion in L + der monotone Grenzwert von Funktionen in E + ist, genügt es für B F B zu zeigen, dass ˆ χ B d ( µ X 1) ˆ = χ B X dµ. ΩB Nun ist jedoch ˆ χ B d ( µ X 1) = ( µ X 1) (B) = µ ( X 1 (B) ) ˆ = ΩB ΩD ˆ χ X 1 (B) dµ = χ B X dµ. ΩD ΩD Korollar 3.19 (Erwartungswert und Verteilung) Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum, g : R R eine Borel-messbare Funktion und X : Ω R eine Zufallsvariable. Dann gilt g L 1 (P X ) g X L 1 (P) und im Fall der Integrierbarkeit ist ˆ ˆ E g(x) = g (X(ω)) dp(ω) = Ω R g(x) dp X (x). Beweis. Die Aussage ist eine unmittelbare Folgerung aus Satz Bemerkung. Ist P eine Verteilung mit R x dp (x) <, so nennen wir P integrierbar und ˆ EP := Erwartungswert der Verteilung P. R x dp (x)

133 3. Integration und Erwartungswert 123 Ist (X 1,..., X n ) ein Zufallsvektor, so gilt für eine Borel-Funktion g : R n R, dass g(x 1,..., X n ) L 1 (P) g L 1 ( ) P (X1,...,X n) und im Fall der Integrierbarkeit ist ˆ Eg(X 1,..., X n ) = g(x 1,..., x n ) dp (X1,...,X n)(x 1,..., x n ). R n Lemma 3.20 (Gleiche Verteilungen gleiche Erwartungswerte) Es seien (Ω 1, F 1, P 1 ) und (Ω 2, F 2, P 2 ) Wahrscheinlichkeitsräume sowie X L 1 (P 1 ) und Y L 1 (P 2 ). Dann gilt P X = P Y = E P1 X = E P2 Y, wobei E P1 X = Ω 1 X dp 1 und E P2 Y = Ω 2 Y dp 2. Beweis. Es gelte P X = P Y. Dann ist ˆ ˆ E P1 X = X(ω 1 ) dp 1 (ω 1 ) = x dp X (x) = Ω 1 R ˆ ˆ = x dp Y (x) = Y (ω 2 ) dp 2 (ω 2 ) = E P2 Y. R Ω 2 Definition 3.21 (Dichte einer Verteilung bezüglich λ) Es sei P eine Verteilung mit Verteilungsfunktion F P. Eine Lebesgue-integrierbare Funktion f : R [0, ) mit ˆ F P (x) = f(t) dλ(t) für alle x R (,x] heiÿt Dichte von F P bzw. Dichte der Verteilung P bezüglich λ. Bemerkung. Eine Lebesgue-integrierbare Funktion f : R [0, ) ist genau dann Dichte der Verteilung P bezüglich des Lebesgue-Maÿes, wenn ˆ P (B) = f(t) dλ(t) für alle B B(R). B Beispiel 3.22 Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω R eine Zufallsvariable. Weiters sei f X : R [0, ) Dichte von P X bezüglich λ und g : R R Borel-messbar. Ist gf X L 1 (λ), so gilt ˆ Eg(X) = R g(t)f X (t) dλ(t).

134 Integration und Erwartungswert Beispiel 3.23 (Erwartungswerte kontinuierlicher Verteilungen) In nachfolgender Tabelle sind die Erwartungswerte einiger kontinuierlicher Verteilungen aufgelistet. P EP Verteilung U [a,b] a+b 2 Gleichverteilung auf [a, b] µ λ 1 λ Exponentialverteilung N µ,σ 2 µ Normalverteilung Wir bestimmen den Erwartungswert der Exponentialverteilung mit Parameter λ > 0. Es ist ˆ ˆ Eµ λ = x dµ λ (x) = tf(t ; µ λ ) dt = = R ˆ 0 tλe λt dt = [ ] partielle Integration 3.4 Klassische Sätze der Integrationstheorie = 1 λ. In diesem Abschnitt widmen wir uns einigen grundlegenden Sätzen der Integrationstheorie. Es bezeichne (Ω, F, µ) stets einen Maÿraum. Satz 3.24 (Lemma von Fatou 2 ) Es sei X L 1 (µ) und { X n : Ω R } n=1 eine Folge messbarer Funktionen mit X n X fast überall für alle n N. Dann sind lim sup n X n und lim inf n X n integrierbar und ˆ ˆ ˆ ˆ lim inf X n dµ lim inf X n dµ lim sup X n dµ lim sup X n dµ. n n n n Beweis. Wir zeigen lediglich die erste Ungleichung, denn die zweite folgt direkt aus der Denition des Limes superior und des Limes inferior und die dritte lässt sich analog zur ersten beweisen. Für k N setzen wir Dann gilt Y k lim inf n X n, Y k := inf n k X n. Y k X fast überall für k N und 2 Pierre Fatou, , französischer Mathematiker lim inf n X n X fast überall.

135 3. Integration und Erwartungswert 125 Daher folgt aus dem Satz von der monotonen Konvergenz ˆ ˆ ˆ lim inf X n dµ = lim Y k dµ = lim inf X n dµ n k k n k ˆ ˆ lim inf X n dµ = lim inf X n dµ. k n k n Satz 3.25 (Satz von der majorisierten Konvergenz, Lebesgue) Es sei X : Ω R messbar und { X n : Ω R } eine Folge messbarer Funktionen mit n=1 lim n X n = X fast überall. Weiters sei Y L 1 (µ) mit X n Y fast überall für alle n N. Dann ist X L 1 (µ) und ˆ ˆ X n dµ = X dµ. lim n Beweis. Nach dem Lemma von Fatou ist ˆ ˆ ˆ X dµ = lim inf n dµ lim inf X n dµ n n ˆ ˆ ˆ lim sup n X n dµ lim sup X n dµ = n X dµ. Als Anwendung des obigen Satzes betrachten wir nun parameterabhängige Integrale. Es bezeichne λ das Lebesgue-Maÿ auf B(R d ). Satz 3.26 (Parameterintegrale) Es sei D R m und f : R d D R eine Funktion mit y D : [x f(x, y)] L 1 (λ). Wir betrachten die Abbildung ˆ F : D R: y f(x, y) dλ(x). R d (1) Für y 0 D gelte: (i) Die Funktion [y f(x, y)] ist stetig in y 0 für fast alle x R d. (ii) g L 1 (λ) y D : f(, y) g f. ü. Dann ist F stetig in y 0. (2) Es sei D eine Umgebung von y 0 D und für j {1,..., m} gelte: (i) Die Funktion [y f(x, y)] ist für fast alle x R d in y 0 partiell nach y j dierenzierbar.

136 Integration und Erwartungswert (ii) g L 1 (λ) y D : ( yj f)(, y) g f. ü. Dann ist F in y 0 nach y j partiell dierenzierbar und ˆ ( yj F )(y 0 ) = ( yj )f(x, y 0 ) dλ(x), R d wobei wir für jene x R d, in denen [y f(x, y)] in y 0 nicht partiell nach y j dierenzierbar ist, ( yj f)(x, y 0 ) := 0 setzen. Beweis. (1) Es sei {y n } n=1 DN eine Folge mit lim n y n = y 0. Für n N und x R d setzen wir X n (x) := f(x, y n ). Dann ist für alle n N nach Voraussetzung X n L 1 (λ). Es sei N R d eine Lebesgue-Nullmenge, sodass [y f(x, y)] für alle x R d \ N stetig in y 0 ist. Setze X := f(, y 0 )χ N c. Dann ist lim n X n = X fast überall und n N: X n g f. ü. Daher folgt aus dem Satz von der majorisierten Konvergenz ˆ lim n) = lim f(x, y n ) dλ(x) = lim n n R d n ˆ X n dλ = R d ˆ X dλ = F (y 0 ). R d (2) Es bezeichne e j R m den j-ten Standardbasisvektor und N R d eine Lebesgue- Nullmenge, sodass [y f(x, y)] für alle x R d \ N in y 0 partiell nach y j dierenzierbar ist. Weiters sei {h n } n=1 RN eine Nullfolge mit y 0 + h n e j D und h n > 0 für alle n N. Setze X n := f(, y 0 + h n e j ) f(, y 0 ) h n χ N c und X := ( yj f)(, y 0 )χ N c. Dann ist lim n X n = X und für n N sowie x N c folgt aus dem Mittelwertsatz X n (x) = ( yj )f(x, y 0 + ϑe j ) g(x), wobei ϑ (0, h n ). Daher erhalten wir nach dem Satz von der majorisierten Konvergenz ˆ ( yj f)(x, y 0 ) dλ(x) = R d ˆ X dλ = lim R d n ˆ X n dλ = R d F (y 0 + h n e j ) F (y 0 ) = lim = ( yj F )(y 0 ). n h n

137 3. Integration und Erwartungswert 127 Beispiel 3.27 (Gauÿ-Integral) Wir zeigen ˆ Dazu betrachten wir die Funktionen und e x2 dx = π. f : [0, 1] [0, ) R: (x, t) e (1+x2 )t 2 F : [0, ) R: t ˆ x 2 f(x, t) dx. Wie man mittels Satz 3.26 leicht nachprüft, ist F stetig auf [0, ) und dierenzierbar auf (0, ). Auÿerdem gilt F (t) = Des Weiteren ist und ˆ t ˆ 1 Damit erhalten wir 0 0 t f(x, t) dx = 2t ˆ t = 2e t2 e z2 dz. F (τ) dτ = 0 ˆ t 0 ˆ t 0 ˆ 1 0 e (1+x2 )t 2 dx = F (τ) dτ = F (t) F (0) = F (t) π 4 ( 2e τ 2 ˆ τ 0 [ ] z = tx, dz = t dx = ) (ˆ t 2 e z2 dz dτ = e dz) z2. 0 (ˆ π t ) 2 4 F (t) = e z2 dz 0 und da lim t F (t) = 0, ist schlieÿlich ˆ π e z2 dz = 0 2. [ Aus der Tatsache, dass die Funktion z e z2] gerade ist, ergibt sich das gewünschte Resultat ˆ e z2 dz = π.

138 Integration und Erwartungswert Wir werden nun zeigen, dass sich unter entsprechenden Voraussetzungen Integrale bezüglich Produktmaÿen als iterierte Integrale schreiben lassen. Dazu benötigen wir jedoch etwas Vorarbeit. Definition 3.28 (Monotone Klasse) Ein Mengensystem M P(Ω) heiÿt monotone Klasse auf Ω, wenn für jede monotone Folge {A n } n=1 MN mit A n A oder A n A gilt, dass A M. Bemerkung. Jede σ-algebra ist eine monotone Klasse. Der Durchschnitt monotoner Klassen ist wieder eine monotone Klasse. Wir bezeichnen mit M(G) die kleinste monotone Klasse, welche das Mengensystem G P(Ω) enthält. Satz 3.29 (Satz über monotone Klassen) Es sei A P(Ω) eine Algebra auf Ω. Dann ist M(A) = σ(a). Beweis. Wir zeigen zuerst, dass M := M(A) eine Algebra ist. (1) Oensichtlich ist Ω M. (2) Komplementstabilität: Wir zeigen, dass M c := {A M: A c M} eine monotone Klasse ist. Es sei {A n } n=1 (Mc ) N mit A n A. Da A M und A c n A c, folgt A c M. Im Fall, dass A n A, erhält man analog A c M, also ist M c eine monotone Klasse. Nun folgt aus A M c M die Komplementstabilität von M. (3) -Stabilität: Für A M setzen wir M A := {B M: A B M}. Oensichtlich ist M A eine monotone Klasse. Es sei nun A A. Da es sich bei A um eine Algebra handelt, gilt A M A M und somit M A = M. Für B M ist A M B B M A = M und daher A M B. Folglich gilt für jedes B M, dass M B = M und dies zeigt die -Stabilität von M.

139 3. Integration und Erwartungswert 129 Also ist die monotone Klasse M eine Algebra, wir zeigen, dass M dann bereits eine σ-algebra ist. Für {A i } i=1 MN und n N setzen wir B n := n i=1 A i M. Dann gilt B n i=1 und somit i=1 A i M. Folglich ist M eine σ-algebra. Da eine σ-algebra insbesondere eine monotone Klasse ist, gilt A M(A) σ(a), womit die Aussage gezeigt ist. Satz 3.30 (Satz von Fubini 3 -Tonelli 4 ) Gegeben seien die σ-endlichen Maÿräume (Ω 1, F 1, µ 1 ) und (Ω 2, F 2, µ 2 ) sowie Dann gilt A i X L + (Ω 1 Ω 2, F 1 F 2 ). [ ˆ ] ω 1 X(ω 1, ω 2 ) dµ 2 (ω 2 ) Ω [ ˆ 2 ] ω 2 X(ω 1, ω 2 ) dµ 1 (ω 1 ) Ω 1 und ˆ ˆ X(ω 1, ω 2 ) d(µ 1 µ 2 )(ω 1, ω 2 ) = Ω 1 Ω 2 ˆ = Ω 1 Ω 2 L + (Ω 1, F 1 ), L + (Ω 2, F 2 ) (ˆ ) X(ω 1, ω 2 ) dµ 2 (ω 2 ) dµ 1 (ω 1 ) = Ω (ˆ 2 ) X(ω 1, ω 2 ) dµ 1 (ω 1 ) dµ 2 (ω 2 ). Ω 1 Beweis. Schritt 1: Als erstes zeigen wir für festes ω 1 Ω 1, dass die Abbildung X ω1 : Ω 2 [0, ]: ω 2 X(ω 1, ω 2 ) messbar bezüglich F 2 ist. Da jede nicht-negative messbare Funktion der Grenzwert einfacher Funktionen ist, genügt es die Aussage für X = χ A mit A F 1 F 2 zu zeigen. Dazu genügt es zu zeigen, dass A ω1 := {ω 2 Ω 2 : (ω 1, ω 2 ) A} für jedes A F 1 F 2 in F 2 liegt. Hierfür betrachten wir die Menge F ω1 := {A F 1 F 2 : A ω1 F 2 }. 3 Guido Fubini, , italienischer Mathematiker 4 Leonida Tonelli, , italienischer Mathematiker

140 Integration und Erwartungswert und zeigen F ω1 = F 1 F 2. Beachte, dass A 1 A 2 F ω1 für alle A 1 F 1 und A 2 F 2. Auÿerdem ist F ω1 eine σ-algebra und daher folgt F ω1 = F 1 F 2. Schritt 2: Wir zeigen, dass die Abbildung ˆ Ω 1 [0, ]: ω 1 X ω1 (ω 2 ) dµ 2 (ω 2 ) Ω 2 messbar bezüglich F 1 ist. Da jede nicht-negative messbare Funktion der monotone Grenzwert einfacher Funktionen ist, genügt es aufgrund der monotonen Konvergenz des Integrals auf L + die Aussage für X = χ A mit A F 1 F 2 zu zeigen. Dazu betrachten wir die Menge M := { A F 1 F 2 : [ ˆ ] ω 1 χ A (ω 1, ω 2 ) dµ 2 (ω 2 ) Ω 2 ist messbar bezüglich F 1 } und zeigen, dass M = F 1 F 2. Für A 1 F 1 und A 2 F 2 gilt ˆ ˆ χ A1 A 2 (ω 1, ω 2 ) dµ 2 (ω 2 ) = χ A1 (ω 1 ) χ A2 (ω 2 ) dµ 2 (ω 2 ). Ω 2 Ω 2 Daher enthält M die Algebra { n } ( ) {( )} A := A (k) 1 A (k) 2 : n N, A (k) n 1, A(k) 2 (F 1 F 2 ) n pw. disj.. k=1 k=1 Aus der monotonen Konvergenz des Integrals folgt auÿerdem, dass es sich bei M um eine monotone Klasse handelt. Nach dem Satz über monotone Klassen gilt und daher ist M = F 1 F 2. F 1 F 2 = σ(a) = M(A) M F 1 F 2 Schritt 3: Im letzten Schritt zeigen wir, dass ˆ ˆ X(ω 1, ω 2 ) d(µ 1 µ 2 )(ω 1, ω 2 ) = Ω 1 Ω 2 Ω 1 (ˆ ) X(ω 1, ω 2 ) dµ 2 (ω 2 ) dµ 1 (ω 1 ). Ω 2 Aufgrund der monotonen Konvergenz des Integrals auf L + genügt es wiederum die Aussage für X = χ A mit A F 1 F 2 zu zeigen. Dazu denieren wir die Mengenfunktionen µ und µ durch ˆ µ(a) := χ A (ω 1, ω 2 ) d(µ 1 µ 2 )(ω 1, ω 2 ), Ω 1 Ω ˆ (ˆ 2 ) µ(a) := χ A (ω 1, ω 2 ) dµ 2 (ω 2 ) dµ 1 (ω 1 ) Ω 2 Ω 1

141 3. Integration und Erwartungswert 131 für A F 1 F 2. Oenbar handelt es sich bei µ und µ um σ-endliche Maÿe auf F 1 F 2. Für das π-system P := {A 1 A 2 : A 1 F 1, A 2 F 2 } gilt σ(p) = F 1 F 2 und µ P = µ P. Nach Satz 1.49 ist daher µ = µ und damit die Aussage des Satzes gezeigt. Beispiel 3.31 (Dichte eines Zufallsvektors und Unabhängigkeit) Es sei n N. Weiters seien X 1,..., X n : Ω R Zufallsvariablen auf dem Wahrscheinlichkeitsraum (Ω, F, P). Eine Lebesgue-integrierbare Funktion f (X1,...,X n) : R n [0, ) mit ˆ F (X1,...,X n)(x) = f (X1,...,X n)(t 1,..., t n ) dλ n (t 1,..., t n ) (,x 1 ]... (,x n] für alle x R n nennt man Dichte des n-dimensionalen Zufallsvektors (X 1,..., X n ) bezüglich des Lebesgue-Maÿes. Nach dem Satz von Fubini-Tonelli ist ˆ ˆ F (X1,...,X n)(x) =... f (X1,...,X d )(t 1,..., t n ) dλ(t n )... dλ(t 1 ). (,x 1 ] (,x n] Ist die Dichte f (X1,...,X n) stetig und haben auch X 1,..., X n stetige Dichten f X1,..., f Xn bezüglich des Lebesgue-Maÿes, so sind X 1,..., X n nach Satz 2.30 und dem Hauptsatz der Integral- und Differentialrechnung genau dann unabhängig, wenn f (X1,...,X n)(x) = n f Xi (x i ) für all x R n. i=1 Beispiel 3.32 (Mehrdimensionale Normalverteilung) Es sei n N, µ R n und Σ R n n eine positiv denite und symmetrische Matrix. Besitzt der Zufallsvektor X = (X 1,..., X n ) die Dichte ( ) f X (t) = det(2πσ) 1/2 exp 1 2 (t µ)t Σ 1 (t µ), t R n, so ist P X =: N µ,σ die n-dimensionale Normalverteilung mit Erwartungswert µ und Kovarianz Σ. Satz 3.33 (Satz von Fubini) Die Maÿräume (Ω 1, F 1, µ 1 ) und (Ω 2, F 2, µ 2 ) seien σ-endlich und X L 1 (Ω 1 Ω 2, F 1 F 2, µ 1 µ 2 ).

142 Integration und Erwartungswert Abbildung 3.1. Dichte der zweidimensionalen Standardnormalverteilung Dann gilt [ ˆ ] ω 1 X(ω 1, ω 2 ) dµ 2 (ω 2 ) Ω [ ˆ 2 ] ω 2 X(ω 1, ω 2 ) dµ 1 (ω 1 ) Ω 1 und ˆ ˆ X(ω 1, ω 2 ) d(µ 1 µ 2 )(ω 1, ω 2 ) = Ω 1 Ω 2 ˆ = Ω 1 Ω 2 L 1 (Ω 1, F 1, µ 1 ), L 1 (Ω 2, F 2, µ 2 ) (ˆ ) X(ω 1, ω 2 ) dµ 2 (ω 2 ) dµ 1 (ω 1 ) = Ω (ˆ 2 ) X(ω 1, ω 2 ) dµ 1 (ω 1 ) dµ 2 (ω 2 ). Ω 1 Beweis. Durch Zerlegung von X in den positiven Anteil X + und den negativen Anteil X folgt die Aussage aus dem Satz von Fubini-Tonelli. Bemerkung. Für eine bezüglich F 1 F 2 messbare Funktion X : Ω 1 Ω 2 R gilt nach dem Satz von Fubini-Tonelli X L 1 (µ 1 µ 2 ) ˆ ˆ Ω 1 Ω 2 (ˆ ) X(ω 1, ω 2 ) dµ 2 (ω 2 ) dµ 1 (ω 1 ) < Ω (ˆ 2 ) X(ω 1, ω 2 ) dµ 1 (ω 1 ) dµ 2 (ω 2 ) <. Ω 1 Beispiel 3.34 (Vertauschen der Summationsreihenfolge) Wir betrachten den Maÿraum (N, P(N), µ) mit dem Zählmaÿ µ = n=1 δ n und die

143 3. Integration und Erwartungswert 133 Abbildung X : N N R. Ist X 0, so gilt nach dem Satz von Fubini-Tonelli ˆ (ˆ ) X(m, n) = X(m, n) dµ(m) dµ(n) = m=1 n=1 N N ˆ (ˆ ) = X(m, n) dµ(n) dµ(m) = X(m, n). N N n=1 m=1 Obige Gleichheit gilt nach dem Satz von Fubini auch für X : N N R mit X(m, n) < bzw. X(m, n) <, m=1 n=1 also für X L 1 (µ 2 ). n=1 m=1 3.5 Ungleichungen In diesem Abschnitt werden einige grundlegende Ungleichungen mit weitreichenden Konsequenzen vorgestellt. Definition 3.35 (Konvexe und konkave Funktionen) Eine Funktion f : R R heiÿt konvex, wenn λ [0, 1] x, y R: f (λx + (1 λ)y) λf(x) + (1 λ)f(y). Man nennt f konkav, falls f konvex ist. Bemerkung. Konvexe und konkave Funktionen sind stetig und somit insbesondere Borel-messbar. Satz 3.36 (Jensen 5 -Ungleichung) Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum, f : R R konvex und X L 1 (P). Dann gilt f(ex) Ef(X). Beweis. Setze x 0 = EX und wähle a, b R mit ax 0 + b = f(x 0 ) und ax + b f(x) für alle x R. Dann ist f(ex) = aex + b = E(aX + b) Ef(X). 5 Johan Ludwig William Valdemar Jensen, , dänischer Mathematiker

144 Integration und Erwartungswert Beispiel 3.37 Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X L 1 (P). Da x x konvex ist, erhalten wir aus der Jensen-Ungleichung die Dreiecksungleichung EX E X. Für p [1, ) ist x x p konvex und folglich liefert die Jensen-Ungleichung (E X ) p E X p. Im Weiteren bezeichne (Ω, F, µ) einen Maÿraum. Für p [1, ) setzen wir { ˆ } L p (Ω, F, µ) := L p (µ) := X : Ω R messbar: X p dµ < und (ˆ X p := X p dµ) 1/p für X L p (µ). Im Speziellen nennt man eine Funktion X L 2 (µ) quadratisch integrierbar. Bemerkung. Für p [1, ) ist p keine Norm auf L p (µ), sondern nur eine Halbnorm, d. h. (i) X L p (µ) λ R: λx p = λ X p, (ii) X, Y L p (µ): X + Y p X p + Y p. (Absolute Homogenität) (Dreiecksungleichung) Satz 3.38 (Hölder 6 -Ungleichung) Es seien p, q (1, ) mit 1 p + 1 q = 1 sowie X Lp (µ) und Y L q (µ). Dann ist XY L 1 (µ) und XY 1 X p Y q. Beweis. Aus X p = 0 oder Y q = 0, folgt XY = 0 fast überall und daher XY 1 = 0. Daher können wir annehmen, dass X p > 0 und Y q > 0. Nun setzen wir X = X X p und Ỹ = Y Y q. 6 Otto Hölder, , deutscher Mathematiker

145 3. Integration und Erwartungswert 135 Es seien x, y > 0 und a, b > 0 mit a + b = 1. Da der Logarithmus eine konkave Funktion ist, erhalten wir ( log(ax + by) a log x + b log y = log x a y b). Folglich gilt x a y b ax + by für alle x, y 0 und a, b > 0 mit a + b = 1. Nun setzen wir x = X p, y = Ỹ q, a = 1 p und b = 1 q und erhalten XỸ 1 1 p + 1 q = 1. Da ist damit die Aussage gezeigt. XỸ 1 = XY 1 X p Y q, Korollar 3.39 Ist µ endlich, so gilt L p 1 (µ) L p 2 (µ) für p 1 p 2 1. Beweis. Aufgabe (3.24). Korollar 3.40 (Cauchy 7 -Schwarz 8 -Ungleichung) Sind X, Y L 2 (µ), so ist XY L 1 (µ) und XY 1 X 2 Y 2. Beweis. Dies ist gerade die Hölder-Ungleichung für p = q = 2. Wir zeigen nun für p die Dreiecksungleichung, wobei p [1, ). Satz 3.41 (Minkowski 9 -Ungleichung) Es sei p [1, ) und X, Y L p (µ). Dann ist X + Y L p (µ) und X + Y p X p + Y p. Beweis. Für p = 1 ist die Aussage klar, wir betrachten den Fall p (1, ). Dann erhalten wir für q (1, ) mit 1 p + 1 q = 1 durch Anwendung der Hölder-Ungleichung ˆ X + Y p p = X + Y X + Y p 1 dµ X X + Y p 1 Ω }{{} 1 + Y X + Y p 1 1 X + Y und damit die Aussage. ( X p + Y p ) X + Y p 1 q = ( X p + Y p ) X + Y p 1 p 7 Augustin-Louis Cauchy, , französischer Mathematiker 8 Karl Hermann Amandus Schwarz, , deutscher Mathematiker 9 Hermann Minkowski, , deutscher Mathematiker

146 Integration und Erwartungswert 3.6 Erwartungswert und Varianz Es sei X : Ω R eine Zufallsvariable auf dem Wahrscheinlichkeitsraum (Ω, F, P). Ist X + L 1 (P) und/oder X L 1 (P), so heiÿt ˆ ˆ ˆ EX := X dp = X + dp X dp Erwartungswert von X. Dann ist EX [, ] und wir sagen, dass der Erwartungswert von X existiert. Bemerkung. Natürlich übertragen sich sämtliche Eigenschaften und Sätze, welche wir für das Integral kennengelernt haben, auf den Erwartungswert. Definition 3.42 (Varianz und Standardabweichung) Es sei X L 1 (P). Man nennt Var(X) := E(X EX) 2 Varianz von X und σ X := Var(X) Standardabweichung von X. Bemerkung. Für X, Y L 1 (P) gilt im Allgemeinen nicht Var(X + Y ) = Var(X) + Var(Y ). Ist X L 1 (P) und α R, so gilt Var(αX) = α 2 Var(X). Eine erste Interpretation der Varianz liefert folgende Ungleichung. Lemma 3.43 (Tschebyschow 10 -Ungleichung) Es sei X L 1 (P). Dann gilt P ( X EX ε) Var(X) ε 2 für alle ε > 0. Beweis. Wir setzen Y := X EX und erhalten Var(X) = EY 2 EY 2 χ {Y 2 ε 2 } ε 2 Eχ {Y 2 ε 2 } = ε 2 P(Y 2 ε 2 ) = ε 2 P(Y ε). Für die Varianz erhalten wir folgende Formel. Lemma 3.44 (Steinersche 11 Formel, Verschiebungssatz) Für X L 1 (P) gilt Var(X) = EX 2 (EX) Pafnuti Lwowitsch Tschebyschow, , russischer Mathematiker 11 Jakob Steiner, , schweizer Mathematiker

147 3. Integration und Erwartungswert 137 Beweis. Es ist Var(X) = E(X EX) 2 = EX 2 2E(XEX) + (EX) 2 = EX 2 (EX) 2. Bemerkung. Nach obigem Lemma is Var(X) < X L 2 (P). Definition 3.45 (Momente) Es sei X : Ω R messbar, P eine Verteilung und n N. (1) E X n heiÿt n-tes absolutes Moment von X. (2) Im Falle der Existenz heiÿt EX n das n-te Moment von X. (3) Man nennt ˆ R x n dp (x) n-tes absolutes Moment der Verteilung P. (4) Entsprechend heiÿt ˆ R x n dp (x) das n-te Moment der Verteilung P, sofern dieses existiert. Der Erwartungswert einer Verteilung ist also gerade ihr erstes Moment. Die Varianz einer Verteilung steht mit dem zweiten Moment in Zusammenhang. Es sei X L 1 (P) mit Verteilung P X. Dann ist die Varianz von X durch ˆ Var(X) = (x EX) 2 dp X (x) gegeben. Für eine integrierbare Verteilung P setzt man entsprechend ˆ Var(P ) := (x EP ) 2 dp (x) R R und nennt Var(P ) Varianz der Verteilung P. Entsprechend der Steinerschen Formel ist ˆ Var(P ) = x 2 dp (x) (EP ) 2. R

148 Integration und Erwartungswert Beispiel 3.46 (Varianzen bekannter Verteilungen) In nachfolgender Tabelle sind die Varianzen einiger bekannter Verteilungen aufgelistet. P Var(P ) Verteilung B n,p np(1 p) Binomialverteilung H n,n,g n G N N G N n N N 1 Hypergeometrische Verteilung π λ λ Poisson-Verteilung g p 1 p 2 1 p Geometrische Verteilung U [a,b] (b a) 2 12 Gleichverteilung auf [a, b] µ λ 1 λ 2 Exponentialverteilung N µ,σ 2 σ 2 Normalverteilung Als Beispiel berechnen wir für λ > 0 die Varianz der Exponentialverteilung. Da Eµ λ = 1 λ, ist ˆ Var(µ λ ) = x 2 dµ λ (x) 1 ˆ λ 2 = t 2 λe λt dt 1 ] [partielle λ 2 = Integration = 1 λ 2. R Definition 3.47 (Kovarianz und Korrelation) Es seien X, Y L 2 (P). (1) Man nennt Kovarianz von X und Y. 0 Cov(X, Y ) := E [(X EX)(Y EY )] (2) Die Zufallsvariablen X und Y heiÿen unkorreliert, falls Cov(X, Y ) = 0, andernfalls korreliert. Bemerkung. Sind X, Y L 2 (P), so folgt aus der Cauchy-Schwarz-Ungleichung, dass X, Y und XY integrierbar sind und da Cov(X, Y ) = EXY EXEY, ist die Denition der Kovarianz sinnvoll. Auÿerdem folgt aus dieser Darstellung der Kovarianz, dass X und Y unkorreliert EXY = EXEY.

149 3. Integration und Erwartungswert 139 Lemma 3.48 (unabhängig unkorreliert) Es seien X, Y L 2 (P) unabhängige Zufallsvariablen. Dann sind X und Y unkorreliert. Beweis. Variante 1: Aus der Cauchy-Schwarz-Ungleichung folgt XY L 1 (P). Daher erhalten wir durch Anwendung des Satzes von Fubini ˆ ˆ ˆ EXY = X(ω)Y (ω) dp(ω) = xy dp (X,Y ) (x, y) = xy d(p X P Y )(x, y) = Ω R 2 R (ˆ ) (ˆ ) 2 = x dp X (x) y dp Y (y) = EXEY. R R Variante 2: (1) Wir betrachten zuerst den Fall, dass X, Y E +. Sei also n m X = α i χ Ai und Y = β j χ Bj. Dann ist EXY = i,j i=1 α i β j P(A i B j ) = j=1 [ ] A i und B j unabhängig = = i,j α i β j P(A i )P(B j ) = EXEY. (2) Es seien nun X, Y L +. Wähle Folgen {X n } n=1 EN + und {Y n } n=1 EN + mit X n X und Y n Y und erhalte EXY = E lim n X ny n = lim n EX ny n = lim n EX ney n = EXEY. (3) Im letzten Schritt seien nun X, Y L 2 (P). Dann ist XY L 1 (P) und aus der Unabhängigkeit von X und Y folgt, dass X + und X unabhängig von Y + und Y sind. Daher gilt EXY = E(X + X )(Y + Y ) = = EX + EY + EX EY + EX + EY + EX EY = EXEY. Beachte, dass unkorrelierte Zufallsvariablen im Allgemeinen nicht unabhängig sind, vgl. Aufgabe (3.25). Lemma 3.49 Es seien X, Y L 2 (P). Dann gilt Var(X + Y ) = Var(X) + Var(Y ) X und Y unkorreliert. Beweis. Aus der Darstellung Var(X + Y ) = E [(X EX) + (Y EY )] 2 = erhält man unmittelbar die Aussage. = E(X EX) 2 + E(Y EY ) 2 + 2E(X EX)(Y EY ) = = Var(X) + Var(Y ) + 2 Cov(X, Y )

150 Integration und Erwartungswert 3.7 Gesetze der groÿen Zahlen und zentraler Grenzwertsatz Die beiden nachfolgenden Sätze geben Anlass zur Interpretation des Erwartungswertes als Mittelwert. Es bezeichne (Ω, F, P) einen Wahrscheinlichkeitsraum. Satz 3.50 (Schwaches Gesetz der groÿen Zahlen) Es sei {X n } n=1 L2 (P) N eine Folge unabhängiger Zufallsvariablen mit Dann gilt EX n = EX 1 und Var(X n ) = Var(X 1 ) für alle n N. d. h. 1 n n i=1 X i ε > 0: P EX1, ( lim P 1 n n (Konvergenz in Wahrscheinlichkeit) ) n X i EX 1 > ε = 0. i=1 Beweis. Setzen wir Y := 1 n n i=1 X i EX 1, so erhalten wir aus der Tschebyschow- Ungleichung P( Y > ε) Var(Y ) ε 2 = Var(X 1) nε 2 0 für n. Eine stärkere Form der Konvergenz liefert folgender Satz. Satz 3.51 (Starkes Gesetz der groÿen Zahlen) Für eine u.i.v. Folge {X n } n=1 L1 (P) N von Zufallsvariablen gilt 1 n n i=1 d. h. P ( lim n 1 n n i=1 X i = EX 1 ) = 1. Beweis. Es wird auf [19, S. 391] verwiesen. Bemerkung. f. s. X i EX 1 für n, (fast sichere Konvergenz) 1 Gilt lim n n n i=1 X i = EX 1 auf A F mit P(A) = 1, so folgt für die Verteilung 1 der Zufallsvariablen X := lim n χ n A n i=1 X i aus dem starken Gesetz der groÿen Zahlen P X = δ EX1.

151 3. Integration und Erwartungswert 141 Die fast sichere Konvergenz impliziert die Konvergenz in Wahrscheinlichkeit, die Umkehrung gilt im Allgemeinen jedoch nicht. Beispiel 3.52 (Monte-Carlo-Simulation) Es sei f : [0, 1] [0, 1] eine Lebesgue-integrierbare Funktion. Wir wollen nun mit probabilistischen Methoden das Integral [0,1] f(x) dλ(x) näherungsweise bestimmen. Dazu seien {X i } i=1 und {Y i} i=1 voneinander unabhängige Folgen u.i.v. Zufallsvariablen mit P X1 = P Y1 = U [0,1]. Setze Z i := χ {Yi f(x i )} für i N. Dann ist die Folge {Z i } i=1 ebenfalls u.i.v. und ˆ EZ 1 = f(x) dλ(x). [0,1] Aus dem starken Gesetz der groÿen Zahlen folgt somit 1 n n i=1 ˆ f. s. Z i f(x) dλ(x). [0,1] Man simuliert daher für n N Realisierungen x i := X i (ω) und y i := Y i (ω) und berechnet z i := Z i (ω) für i = 1,..., n. Dann approximiert man das gesuchte Integral durch 1 n n ˆ z i i=1 [0,1] f(x) dλ(x). eine Näherung an π/4, vgl. Abbil- Beispielsweise erhält man für f(x) = 1 x 2 dung Abbildung 3.2. Monte-Carlo-Simulation für f(x) = 1 x 2, x [0, 1]. Der nachfolgende Satz ist unter anderem für die Statistik von zentraler Bedeutung und daher sei er an dieser Stelle erwähnt.

152 Integration und Erwartungswert Satz 3.53 (Zentraler Grenzwertsatz) Es sei {X n } n=1 L2 (P) N eine Folge u.i.v. Zufallsvariablen und Z eine standardnormalverteilte Zufallsvariable. Setzt man µ := EX 1 und σ 2 := Var(X 1 ) > 0 sowie so gilt Z n := 1 nσ n (X i µ) für n N, i=1 Z n D Z (Konvergenz in Verteilung) für n, d.h. lim F Z n n (x) = Φ(x) für alle x R, wobei Φ = F Z die Verteilungsfunktion der Standardnormalverteilung bezeichnet. Beweis. Siehe [19, S. 326].

153 3. Integration und Erwartungswert 143 Übungsaufgaben (3.1) Monotonie und Linearität des Integrals auf E + : Beweisen Sie Lemma 3.4. (3.2) Integration bezüglich Dirac-Maÿen: Gegeben sei das Wahrscheinlichkeitsmaÿ auf (R, B(R)). P = 1 3 δ δ 3 (a) Bestimmen Sie den Erwartungswert der Zufallsvariablen X = 4χ {2} + 9χ {3}. (b) Berechnen Sie nun den Erwartungswert von Y : R R: ω ω 2. (3.3) Erwarteter Würfelgewinn: Gegeben sei der Laplace-Raum (Ω, F, P), wobei Ω = {1,..., 6} 2. Weiters sei X : Ω R: (ω 1, ω 2 ) ω 1 + ω 2 7. Warum ist X E +? Bestimmen Sie EX und interpretieren Sie das Ergebnis. (3.4) Integration bezüglich des Lebesgue-Maÿes: Es bezeichne λ das Lebesgue- Maÿ auf (R, B(R)). Berechnen Sie das Integral von (a) X = 2χ [1,3] + 3χ [ 7, 5) + 4χ {42} (b) Y = n k=1 kχ [k,k+1), n N, bezüglich λ. (3.5) Erwartungswert der Binomialverteilung und hypergeometrischen Verteilung: Berechnen Sie den Erwartungswert der (a) Binomialverteilung (b) hypergeometrischen Verteilung in Analogie zu Beispiel 3.8. (3.6) Erwartungswert der geometrischen Verteilung: Bestimmen Sie den Erwartungswert der geometrischen Verteilung, vgl. Beispiel 3.8. (3.7) Erwartete Gewinne beim Roulette: Berechnen Sie die Erwartungswerte der Zufallsvariablen X 1, X 2, X 3 aus Aufgabe (2.13). (3.8) Erwartungswert bezüglich unterschiedlicher Wahrscheinlichkeitsräume: Berechnen Sie für den Wahrscheinlichkeitsraum

154 Integration und Erwartungswert (a) ([0, 5], B([0, 5]), P a ) mit P a = U [0,5] (b) ([0, ), B([0, )), P b ), wobei P b = 1 5 δ δ δ 3, (c) ([0, 5], B([0, 5]), P c ) mit P c = 1 2 P a P b den Erwartungswert der Zufallsvariablen X = 2χ (2,5] 3χ [1,3] + 3χ {3}. (3.9) Poisson-verteilte Zufallsvariable: Gegeben sei der Wahrscheinlichkeitsraum ([0, 1], B([0, 1]), λ) und die Zufallsvariable X := kχ [ak 1,a k ), wobei a 1 = 0, λ > 0 und Bestimmen Sie P X. a k = k l=0 k=0 λ l l! e λ für k N 0. (3.10) Integral bezüglich des Lebesgue-Maÿes: Betrachten Sie den messbaren Raum ([0, 1], B([0, 1])) und die Funktion { 1, x [0, 1] \ Q, X : [0, 1] [0, ]: x 1 x, x [0, 1] Q, wobei hier X(0) = gesetzt wird. Zeigen Sie, dass X messbar ist, und bestimmen Sie das Integral von X bezüglich λ. (3.11) Jahrmarkt: An einem Jahrmarktstand erhält man gegen 1 Euro Einsatz beim Werfen zweier fairer Würfel 10 Euro, falls beide Würfel auf Sechs fallen, und 2 Euro, wenn einer der beiden Würfel eine Sechs zeigt. Es beschreibe X den Reingewinn bei diesem Würfelspiel. Bestimmen Sie den Erwartungswert und die Varianz von X. Kann der Standbetreiber über lange Sicht mit einem Gewinn rechnen und falls dies der Fall ist, welchen Gewinn macht er im Schnitt pro Spiel? (3.12) Risiko von Roulette-Strategien: Berechnen Sie die Varianzen der Zufallsvariablen X 1, X 2, X 3 aus Aufgabe (2.13). Welche Strategie ist am risikoreichsten? (3.13) Randdichten: Der Zufallsvektor (X, Y ) besitze die für x, y R durch { x + y, für 0 x, y 1, f (X,Y ) (x, y) = 0, sonst, gegebene Dichte. Bestimmen Sie F (X,Y ) und die Dichten f X und f Y von X und Y, die sogenannten Randdichten. Sind X und Y unabhängig?

155 3. Integration und Erwartungswert 145 (3.14) Leibniz-Reihe: Auf dem messbaren Raum (N 0, P(N 0 )) betrachten Sie das Zählmaÿ µ = n=0 δ n und die Abbildung X : N 0 R: n ( 1)n 2n + 1. Zeigen Sie, dass X nicht µ-integrierbar ist. Existiert dennoch das Integral von X bezüglich µ? (3.15) Umordnung absolut konvergenter Reihen: Zeigen Sie mit dem Satz von Lebesgue, dass eine absolut konvergente Reihe umgeordnet werden kann. Verwenden Sie dazu den Maÿraum (N, P(N), µ) mit dem Zählmaÿ µ = n=1 δ n. (3.16) Verwenden Sie den Satz von Lebesgue, um log 2 = ˆ 1 zu rechtfertigen. 0 ˆ dx x = 0 ( x) k dx = k=0 k=0 ˆ 1 0 ( x) k dx = k=0 ( 1) k k + 1 (3.17) Es sei Ω = [0, 1] und X n (x) = nx n für x Ω und n N. Zeigen Sie, dass X n 0 fast überall bezüglich λ, aber [0,1] X n dλ 1. Warum ist der Satz von Lebesgue hier nicht anwendbar? (3.18) Es sei y > 0. Zeigen Sie ˆ 0 dx x 2 + y 2 = π 2y. Verwenden Sie den Satz von Lebesgue, um unter dem Integral zu dierenzieren und schlieÿen Sie damit induktiv ˆ 0 dx (x 2 + y 2 ) n = π (2n 3) 2y2n (2n 2). (3.19) Parameterintegral: Gegeben sei der Wahrscheinlichkeitsraum (R, B(R), N 0,1 ) und für t R die Zufallsvariable ( ) ω X t : R R: ω cos 1 + t 2. (a) Man zeige, dass X t für jedes t R integrierbar ist. (b) Zeigen Sie, dass die Abbildung R R: t EX t stetig ist, und berechnen Sie die Grenzwerte lim t EX t und lim t EX t.

156 Integration und Erwartungswert (c) Weisen Sie nach, dass [t EX t ] dierenzierbar auf ganz R ist. (3.20) Zylindervolumen: Für R > 0 betrachten Sie die Kreisscheibe (a) Zeigen Sie, dass B R B(R 2 ). B R := { (x, y) R 2 : x 2 + y 2 R 2}. (b) Berechnen Sie für h > 0 das Integral von X := hχ BR bezüglich λ 2 und interpretieren Sie das Ergebnis. Hinweis: Verwenden Sie den Satz von Fubini, um zu zeigen, dass λ 2 (B R ) = R 2 π. (3.21) Es seien X eine auf [0, π] und Y eine auf [0, 1] gleichverteilte Zufallsvariable. Weiters seien X und Y unabhängig. Berechnen Sie die Erwartungswerte der Zufallsvariablen X 2 Y und X cos(xy ). (3.22) Fragwürdige Würfelspiele: Es kann zwischen den folgenden zwei Würfelspielen mit drei fairen Würfeln gewählt werden, wobei der Einsatz jeweils 50 Cent beträgt. Spiel 1: Das Produkt der Augenzahlen wird in Cents ausbezahlt. Spiel 2: Man erhält das Fünache der Augensumme in Cents. Welches Spiel würden Sie spielen? (3.23) Gegeben sei der Wahrscheinlichkeitsraum (R, B(R), µ λ ), λ > 0, und die Zufallsvariable X : R R: ω e γω, γ R. Bestimmen Sie EX. (3.24) Beweisen Sie Korollar (3.25) Unkorreliert unabhängig: Gegeben sei der Wahrscheinlichkeitsraum und die Zufallsvariablen (a) Zeigen Sie, dass EXY = EXEY. (b) Sind X und Y unabhängig? (Ω, F, P) = ([0, 1], B([0, 1]), λ) X = χ [ 0, 1 ] und Y = χ [ 1 2 4, 1 ] + 2χ [ ,1] (3.26) Verschwindende Varianz: Es sei X : Ω R eine integrierbare Zufallsvariable auf dem Wahrscheinlichkeitsraum (Ω, F, P). Zeigen Sie: Var(X) = 0 X = EX fast sicher

157 3. Integration und Erwartungswert 147 (3.27) Ticketkontrolle: Die Wahrscheinlichkeit, dass im Bus die Tickets kontrolliert werden, sei p = 0.1. Günther fährt täglich mit dem Bus zur Schule. (a) Wie groÿ ist die Wahrscheinlichkeit, dass er nach n N Tagen zum ersten Mal kontrolliert wird? (b) Sei nun p (0, 1) beliebig. Berechne den Erwartungswert und die Varianz, dass Günther nach n N Tagen zum ersten Mal kontrolliert wird. (3.28) Es sei X eine Zufallsvariable auf dem Wahrscheinlichkeitsraum (Ω, F, P) mit Erwartungswert EX = 50 und Varianz Var(X) = 5. Schätzen Sie die Wahrscheinlichkeit P ( X 50 10) nach oben mittels der Tschebyschow-Ungleichung ab. (3.29) Es sei X eine Zufallsvariable auf dem Wahrscheinlichkeitsraum (Ω, F, P) mit Erwartungswert EX = 10 und Varianz Var(X) = Auÿerdem gelte X(Ω) [0, 12]. Schätzen Sie P(X 7) nach oben mittels der Tschebyschow-Ungleichung ab. (3.30) Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Die Zufallsvariablen X 1,..., X n seien u.i.v. und quadratisch integrierbar. (a) Berechnen Sie den Erwartungswert und die Varianz von X := 1 n n i=1 X n. (b) Weiters sei nun α (0, 1). Wie groÿ muss n mindestens sein, damit P ( X EX 1 α ) 1 α? (3.31) Wie oft muss eine faire Münze mindestens geworfen werden, damit mit einer Wahrscheinlichkeit von mindestens 0.95 die Zufallsvariable, welche den Prozentsatz jener Würfe angibt, welche auf Kopf gefallen sind, von 0.5 um höchstens (a) 0.01 (b) abweicht? (3.32) Getriebeschaden: Die mittlere Lebensdauer in Stunden eines Maschinenteils betrage 50 und die Varianz sei 900. Fällt das Maschinenteil aus, so wird dieses sofort durch ein gleichwertiges ersetzt. Wieviele Reserveteile werden benötigt, sodass mit einer Wahrscheinlichkeit von 0.95 die Maschine mindestens 5000 Stunden läuft? (3.33) Varianz der Binomialverteilung: Berechnen Sie für n N und p (0, 1) die Varianz der Binomialverteilung B n,p. (3.34) Varianz der Poisson-Verteilung: Berechnen Sie für λ > 0 die Varianz der Poisson-Verteilung π λ.

158 Integration und Erwartungswert (3.35) Varianz der geometrischen Verteilung: Berechnen Sie für p (0, 1) die Varianz der geometrischen Verteilung g p. (3.36) Varianz der kontinuierlichen Gleichverteilung: Berechnen Sie die Varianz der Gleichverteilung auf [a, b] für a < b. (3.37) Erwartungswert und Varianz der Normalverteilung: Es sei µ R und σ > 0. Bestimmen Sie den Erwartungswert und die Varianz der Normalverteilung N µ,σ 2. (3.38) Momente der Exponentialverteilung: Berechnen Sie für n N das n-te Moment der Exponentialverteilung mit Parameter λ > 0.

159 3. Integration und Erwartungswert 149 Schulaufgaben Die nachfolgenden Aufgaben stammen, sofern keine weiteren Angaben gemacht werden, von (Stand: Februar 2013). (S3.1) Multiple Choice 1: Bei einem Aufnahmetest werden vier Fragen mit je drei Antwortmöglichkeiten gestellt, wobei jeweils genau eine Antwort richtig ist. Der Kandidat kreuzt rein zufällig jeweils eine Antwort an. Die Zufallsvariable X gibt die Anzahl der richtigen Antworten an. (a) Um welche Art der Wahrscheinlichkeitsverteilung der Zufallsvariablen X handelt es sich? Begründe deine Antwort. (b) Stelle die Verteilung von X grasch dar. Bestimme den Erwartungswert und die Standardabweichung von X. (c) Wie groÿ ist die Wahrscheinlichkeit, mindestens zwei Antworten richtig anzukreuzen? (S3.2) Spielrunde: Eine Spielrunde besteht aus 9 Personen. Jede dieser Personen kommt mit einer Wahrscheinlichkeit von 75 % zu den wöchentlichen Treen. Aus Erfahrung weiÿ man, dass das Treen mehr als zwei Stunden dauert, wenn mindestens zwei Drittel der Personen anwesend sind. Unter den 9 Personen sind vier etwas streitlustiger. Wenn zwei dieser streitlustigeren Personen anwesend sind, kommt es beim Treen mit Sicherheit zum Streit. (a) Wie viele Personen kann man durchschnittlich bei einem Treen erwarten? (b) Wie hoch ist die Wahrscheinlichkeit, dass das nächste Treen mehr als zwei Stunden dauert? (c) Wie hoch ist die Wahrscheinlichkeit, dass es zu einem Streit kommt? (S3.3) Fertigung mit gleichbleibendem Auschussanteil: Eine Fertigung von Stanzteilen läuft mit dem gleichbleibenden Auschussanteil p = 4%. Wie groÿ ist die Wahrscheinlichkeit, unter n = 50 hintereinander entnommen Einheiten (a) genau 0 (b) genau 2 (c) höchstens 2 (d) mindestens 2 fehlerhafte Einheiten vorzunden? Wie groÿ ist der Ewartungswert µ der fehlerhaften Einheiten? (Timischl; Kaiser: Ingenieur-Mathematik 4, E. Dorner Verlag, 3. Auage, 2005, S. 243, Bsp. 6.5)

160 Integration und Erwartungswert (S3.4) Defekte Dichtungen: In einer Schachtel benden sich 25 einwandfreie und 4 defekte Dichtungen. Man entnimmt zufällig drei Dichtungen. Wie groÿ ist der Erwartungswert der Anzahl defekter Dichtungen unter den drei entnommenen Dichtungen? (Timischl; Kaiser: Ingenieur-Mathematik 4, E. Dorner Verlag, 3. Auage, 2005, S. 240, Nr. 6.3)

161 3. Integration und Erwartungswert 151 Kontrollfragen 3.1 Es sei X die Anzahl jener n N Würfe, bei denen eine faire Münze auf Kopf fällt. Welche der folgenden Aussagen sind wahr? EX = 1 2 EX = n 2 P(X = k) = ( n k) für k = 0,..., n P X = B n,1/2 3.2 Gegeben sei die Funktion f : R R: t 2tχ [0,1] (t). Welche der folgenden Aussagen sind wahr? Die durch ˆ F (x) := (,x] f(t) dλ(t) für x R auf R denierte Funktion ist eine Verteilungsfunktion. Ist X eine Zufallsvariable mit Dichte f bezüglich des Lebesgue-Maÿes λ, so gilt EX = 1. Ist X eine Zufallsvariable mit Dichte f bezüglich des Lebesgue-Maÿes λ, so gilt EX = 2 3. Ist X eine Zufallsvariable mit Dichte f bezüglich des Lebesgue-Maÿes λ, so gilt EX 2 = Gegeben seien der Wahrscheinlichkeitsraum (R, B(R), P) mit und die Abbildungen P = 1 2 δ δ 1 X : R R: ω 1 ω 2 und Y : R R: ω ω 2, wobei 1/0 :=. Welche der folgenden Aussagen sind wahr? X L 1 (P) und Y L 1 (P) X L + und Y L + EX = 1 2 und EY = 3 4 EX = und EY = 3 4

162 Integration und Erwartungswert 3.4 Es sei f : R R: (x, t) e x2 cos ( x 1+t 2 ) und ˆ F : R R: t Welche der folgenden Aussagen sind wahr? F ist dierenzierbar F ist nicht stetig lim t F (t) = π lim t F (t) = 1 R f(x, t) dλ(x). 3.5 Die Wartezeit X in Minuten an einer Supermarktkasse sei exponentialverteilt mit Parameter λ = 1 2. Welche der folgenden Aussagen sind wahr? Die durchschnittliche Wartezeit beträgt eine halbe Minute. Die durchschnittliche Wartezeit beträgt zwei Minuten. Die Wahrscheinlichkeit, dass man weniger als zwei Minuten wartet, lautet e 1 e. Die Wahrscheinlichkeit, dass man weniger als zwei Minuten wartet, lautet 1 e. 3.6 Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und X, Y L 2 (P). Welche der folgenden Aussagen sind wahr? Var(X + Y ) = Var(X) + Var(Y ) Var(XY ) = EX 2 EY 2 (EX) 2 (EY ) 2 Sind X und Y unabhängig, so gilt Var(XY ) = EX 2 EY 2 (EX) 2 (EY ) 2. Sind X und Y unkorreliert, so gilt Var(XY ) = EX 2 EY 2 (EX) 2 (EY ) Gegeben sei der Wahrscheinlichkeitsraum ( [0, 1], B([0, 1]), 1 2 δ δ ) 1 und die durch X(ω) := ω und Y (ω) := χ (1/2,1] (ω) für ω Ω denierten Zufallsvariablen. Welche der folgenden Aussagen sind wahr? X und Y sind unkorreliert X und Y sind unabhängig

163 3. Integration und Erwartungswert 153 EX = EY = EXY = 1 2 EX = EY = 1 2 und EXY = Gegeben sei der Wahrscheinlichkeitsraum (Ω, F, P) mit P = α n δ ωn, n=1 wobei {ω n } n=1 ΩN und {α n } n=1 [0, )N, sodass n=1 α n = 1. Weiter sei X : Ω R messbar. Welche der folgenden Aussagen sind wahr? X L 1 (P) n=1 α nx(ω n ) < X L 1 (P) n=1 α n X(ω n ) < Ist X L +, so gilt EX = n=1 α nx(ω n ). Ist X L 2 (P), so gilt Var(X) = n=1 α nx 2 (ω n ) ( n=1 α nx(ω n )) 2.

164

165 Teil II Statistik 155

166

167 Kapitel 4 Einleitung und Überblick Ich traue einer Statistik nie es sei denn, ich habe sie selbst gefälscht. 4.1 Was ist Statistik? W. Churchill 1 Da es sich bei Statistik 2 um ein sehr umfangreiches Fachgebiet mit breit gefächerten Anwendungsbereichen handelt, ist es schwierig, eine genaue Denition des Begris Statistik zu geben. Sehr allgemein gesprochen beschäftigt sich die Statistik zum einen mit Methoden zur Erhebung, Zusammenfassung, Darstellung und Analyse von Daten, zum anderen mit Methoden zum Ziehen von Schlüssen auf Grundlage von Daten. Eine mögliche Einteilung der Statistik liefern die folgenden Teilgebiete. 1. Deskriptive Statistik - Beschreibende und graphische Aufbereitung und geeignete Zusammenfassung von Daten - Datenvalidierung - Keine formalen Rückschlüsse über die Daten hinausgehend 2. Explorative Statistik - Aunden von Gesetzmäÿigkeiten in den Daten - Kann zu neuen Fragestellungen und Hypothesen führen - Einsatz bei undenierter Fragestellung - Ebenfalls keine Rückschlüsse über die Daten hinausgehend - Es können sich deutliche Hinweise für bestimmte Forschungshypothesen ergeben (empirische Evidenz) 3. Induktive Statistik - Wahrscheinlichkeitstheoretische Schlussfolgerungen 1 Sir Winston Leonard Spencer-Churchill, , britischer Premierminister und Nobelpreisträger 2 Statistik stammt vom lat. statisticum, den Staat betreend. 157

168 Einleitung und Überblick - Schätzen unbekannter Parameter - Testen von Hypothesen - Ist das verwendete Modell der Wirklichkeit hinreichend gut angepasst? - Wird oftmals als mathematische Statistik bezeichnet 4.2 Einige Beispiele Es folgen nun einige Beispiele, welche in nachfolgenden Kapiteln wieder aufgegrien werden. Beispiel 6.6 (Rückfangmethode) Um die unbekannte Anzahl von N Fischen in einem Teich zu schätzen, werden zuerst F 1 Fische gefangen und mit roter Farbe markiert. Nach einiger Zeit werden dann erneut F 2 < F 1 Fische gefangen und es werden darunter r rot markierte Fische gezählt. Wie lässt sich nun die Gesamtanzahl N der Fische im Teich schätzen? Beispiel 6.7 (Rote Ampel) Student T. fährt immer mit dem Fahrrad zur Uni, auf dem Weg muss er häug an einer Ampel halten. Die letzten n = 8 Wartezeiten in Sekunden betrugen x 1 = 49, x 2 = 54, x 3 = 49, x 4 = 37, x 5 = 43, x 6 = 28, x 7 = 55, x 8 = 21. Wie kann ausgehend vom obigen Datensatz die Dauer der Rotphase geschätzt werden? Beispiel 7.12 (Im Wirtshaus) In einem Wirtshaus wechseln sich die Wirtin und der Wirt regelmäÿig hinter dem Tresen ab. Bei einigen Wirtshausbesuchern ist der Eindruck entstanden, dass die Wirtin das Bierglas deutlich voller füllt als der Wirt. Ein kritischer Kunde hat sich über einige Abende hinweg den Füllstand des Bierglases in Millilitern notiert, die Ergebnisse sind in nachfolgender Tabelle zu nden. Füllstand Wirtin Füllstand Wirt Wie kann getestet werden, ob der durchschnittliche Füllstand der Wirtin von dem des Wirtes abweicht?

169 4. Einleitung und Überblick 159 Beispiel 8.7 (Benfordsches Gesetz) Nach dem Benfordschen Gesetz sollte die Zahl i {1,..., 9} mit etwa Wahrscheinlichkeit p i = log 10 i + 1 i als führende Zier bei Zahlen in einer Billianz auftreten. Im Fall, dass die Verteilung der Anfangsziern zu stark von der zu erwartenden abweicht, sollte die Billianz vermutlich einer genaueren Prüfung unterzogen werden. Wie kann man für eine vorliegende Billanz überprüfen, ob die Häugkeiten der Anfangsziern in Übereinstimmung mit dem Benfordschen Gesetz stehen? Beispiel 8.14 (Müllabfuhr) Die für einen kleineren Stadtteil zuständige Müllabfuhr kann zwei Routen wählen, um den Müll abzuholen, und möchte wissen, ob diese beiden Routen im Bezug auf die Fahrtzeit als gleichwertig anzusehen sind oder nicht. Elf Arbeitstage wurde die erste Route gefahren, neun weitere die zweite Route. Die folgende Tabelle enthält die Fahrtzeiten in Minuten Route Route Wie testet man, ob die beiden Routen als gleichwertig betrachtet werden können? 4.3 Datenerhebung Anhand eines Beispiels führen wir nun einige Begrie ein, welche bei einer Datenerhebung, etwa mittels einer Umfrage, gebräuchlich sind. Beispiel 4.1 (Volksbefragung) Anfang 2013 kam es zu einer Volksbefragung betreend die Frage, ob die Wehrpicht in Österreich abgeschat werden soll oder nicht. Ein gewisser Anteil der wahlberechtigten Staatsbürger machte von ihrem Wahlrecht nicht Gebrauch, enthielt sich also der Stimme. Die übrigen entscheiden sich entweder für oder gegen die Abschaung der Wehrpicht, einige wählten ungültig. Durch bloÿes Abzählen wurde dann der Ausgang der Befragung eruiert. Vor der Volksbefragung wollte man jedoch bereits Tendenzen feststellen und daher wurden Umfragen durchgeführt. Bei einer solchen Umfrage ist es natürlich nur möglich, einen geringen Anteil der Wahlberechtigten zu befragen. Nach welchen Kriterien sollte man bei einer solchen Umfrage die befragten Bürger auswählen?

170 Einleitung und Überblick Um repräsentative Umfragewerte zu erzielen, würde man intuitiv meinen, die Personen sollten möglichst zufällig ausgewählt werden. An einer Menge gewisser Objekte möchte man eine interessierende Gröÿe beobachten, ein sogenanntes (interessierendes) Merkmal. In der Statistik nennt man die untersuchten Objekte auch statistische Einheiten, die Menge der statistischen Einheiten wird Grundgesamtheit oder Population genannt. Jene Teilmenge der Grundgesamtheit, auf welcher das interessierende Merkmal tatsächlich erhoben wird, heiÿt untersuchte Teilgesamtheit oder Teilpopulation, ist dies die gesamte Grundgesamtheit, so spricht man von einer Vollerhebung. Weiters werden die Werte, welche ein Merkmal annimmt, Ausprägungen genannt. Es ergeben sich die folgenden Entsprechungen am Beispiel der Volksbefragung aus Beispiel 4.1. Grundgesamtheit: Untersuchte Teilgesamtheit: Interessierendes Merkmal: Vollerhebung: Ausprägungen: Menge aller wahlberechtigten Staatsbürger Menge der Wahlberechtigten, welche an der Umfrage teilnehmen Antwort auf die Frage nach der Abschaung der Wehrpicht Tatsächliche Volksbefragung Ja, Nein, Ungültig oder Enthalten Wir werden sehen, dass ein Merkmal einer Zufallsvariablen entspricht, an deren Verteilung man interessiert ist. 4.4 Stichproben Wir wenden uns nun dem stochastischen Modell zu, welches eine der einfachsten Arten der Datenerhebung in idealisierter Form beschreibt. Dazu führen wir zwei wesentliche Begrie ein, jenen der Stichprobe und jenen der Realisierung einer Stichprobe. Definition 4.2 (Stichproben und Realisierungen) Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum, X 1,..., X n : Ω R u.i.v. Zufallsvariablen und P eine Verteilung. Falls P X1 = P, so nennt man X 1,..., X n eine (unabhängige) Stichprobe vom Umfang n zur Verteilung P. Für ein festes ω Ω setzen wir x i := X i (ω), i = 1,..., n. Dann heiÿt x 1,..., x n Realisierung der Stichprobe X 1,..., X n. Bemerkung. Eine Realisierung einer Stichprobe nennt man auch Datensatz oder Messreihe.

171 4. Einleitung und Überblick 161 Ist X eine Zufallsvariable, so nennt man eine Stichprobe X 1,..., X n zur Verteilung P X auch Stichprobe zu X. Für eine Verteilung P bezeichnet man eine Folge {X n } n=1 mit P X1 = P ebenfalls als Stichprobe zu P. u.i.v. Zufallsvariablen Interpretation. Die Stichprobe X 1,..., X n beschreibt die n Ergebnisse, welche sich aus n unabhängigen und identisch ablaufenden Wiederholungen eines Zufallsexperiments ergeben. Führt man das Experiment tatsächlich n-mal durch, liefert dies die Werte x 1,..., x n, welche als Realisierung dieser Stichprobe aufgefasst werden. In R erhält man beispielsweise eine Realisierung einer normalverteilten Stichprobe wie folgt. > x = rnorm (10, mean =9, sd =2) > x [1] [6] Das Konzept der Stichprobe beschreibt eine Umfrage wie in Beispiel 4.1 nur in idealisierter Form. Eigentlich werden n Personen (zufällig) aus der Menge aller N Wahlberechtigten ausgewählt. Dies kann durch folgendes Zufallsexperiment beschrieben werden: Alle wahlberechtigten Staatsbürger erhalten eine Nummer von 1 bis N. Diese werden auf Kugeln geschrieben, die Kugeln in eine Urne geworfen, durchgemischt und ohne Zurücklegen gezogen. Die noch nicht gezogenen Kugeln sollen bei jeder Ziehung die gleiche Wahrscheinlichkeit haben, ausgewählt zu werden. Das entsprechende Zufallsexperiment, welches einer Stichprobe zugrundeliegt, entspricht jedoch dem Ziehen mit Zurücklegen. Ist die Anzahl N aller Wahlberechtigten im Vergleich zur Anzahl n der ausgewählten Personen entsprechend groÿ, so ist der Unterschied zwischen dem Ziehen mit und ohne Zurücklegen jedoch verschwindend gering, vgl. Aufgabe (4.3). Es wird also nicht exakt die Realität beschrieben, man erhält jedoch ein wesentlich einfacheres Modell. Beispiel 4.3 (Münzwurf) Es sei p (0, 1). Wir modellieren den Wurf einer nicht zwingend fairen Münze mittels des Wahrscheinlichkeitsraums (G, G, µ), wobei G = {0, 1}, G = P(G) und µ = pδ 0 + (1 p)δ 1. Beispielsweise steht 0 für Kopf und 1 für Zahl. Dann ist die Identität X : G R: x x

172 Einleitung und Überblick eine Zufallsvariable, welche den Ausgang beim Wurf der Münze beschreibt. Als Verteilung von X erhalten wir das Wahrscheinlichkeitsmaÿ P X = pδ 0 + (1 p)δ 1 auf B(R), also die Bernoulli-Verteilung mit Parameter p. Wir möchten nun n unabhängige und identisch ablaufende Wiederholungen dieses Münzwurfs modellieren. Dazu setzen wir Ω := {0, 1} n, F := P(Ω) und P := µ n. Es kann leicht nachgeprüft werden, dass die Zufallsvariablen X i : Ω R: ω = (ω 1,..., ω n ) X(ω i ), i = 1,..., n, eine Stichprobe X 1,..., X n zur Verteilung P X bilden, vgl. Aufgabe (4.2). Eine typische Fragestellung wäre nun, wie man zuverlässig testet, ob die Münze fair ist, d. h. ob p = 1/2 gilt. Bemerkung. In der Praxis ist der zugrundeliegende Wahrscheinlichkeitsraum unbekannt und somit auch die Verteilung der beobachteten Zufallsgröÿe. Durch die Realisierung einer Stichprobe möchte man die unbekannte Verteilung möglichst gut approximieren. 4.5 Typische Fragestellungen Die typischen Fragestellungen der Wahrscheinlichkeitstheorie unterscheiden sich häug von jenen der Statistik wie die nachfolgenden zwei Beispiele zeigen. Beispiel 4.4 (Typische Fragestellung der Wahrscheinlichkeitstheorie) Die Verteilung P sei bekannt. Fragestellung: Wie verhält sich eine Realisierung x 1,..., x n einer Stichprobe X 1,..., X n zu P? Beispiel: Ist P integrierbar mit Erwartungswert EP, was kann über das Stichprobenmittel X (n) := 1 n X i n ausgesagt werden? Eine mögliche Antwort liefert das Starke Gesetz der groÿen Zahlen, nach welchem das Stichprobenmittel fast sicher gegen EP konvergiert, also i=1 X (n) EP f.s. für n, d.h. P ( lim n X (n) = EP ) = 1.

173 4. Einleitung und Überblick 163 Beispiel 4.5 (Typische Fragestellung der Statistik) Die Verteilung P sei unbekannt, jedoch eine Realisierung x 1,..., x n der Stichprobe X 1,..., X n zu P gegeben. Fragestellung: Was kann über die Verteilung P geschlossen werden? Beispiel: Was ist EP? Es erscheint naheliegend EP durch die Realisierung x (n) := 1 n n i=1 x i des Stichprobenmittels X (n) zu schätzen. Aus dem nachfolgenden in R realisierten Beispiel lässt sich bereits erahnen, dass sich mit Erhöhung des Stichprobenumfangs n die Schätzung des Erwartungswertes durch das Stichprobenmittel entsprechend verbessert. > nseq = (25 * 1:5) ^2 > nseq [1] > for ( n in nseq ) { x = runif (n,0,84) ; print ( mean ( x ) ) } [1] [1] [1] [1] [1]

174 Einleitung und Überblick Übungsaufgaben (4.1) Identische Verteilung, unterschiedliche Wahrscheinlichkeitsräume: Gegeben sei der Wahrscheinlichkeitsraum ([0, 1], B([0, 1]), λ), wobei λ das Lebesguemaÿ auf [0, 1] bezeichne. Erklären Sie, warum f : [0, 1] R: ω { 0, ω [0, p), 1, ω [p, 1], den Münzwurf aus Beispiel 4.3 beschreibt und zeigen Sie, dass f dieselbe Verteilung besitzt, wie die im Beispiel denierte Zufallsvariable X. (4.2) Konstruktion einer Stichprobe: Zeigen Sie, dass es sich bei den Zufallsvariablen X 1,..., X n, welche in Beispiel 4.3 deniert wurden, tatsächlich um eine Stichprobe handelt. Wenden Sie die beschriebene Konstruktion einer Stichprobe auf ein Merkmal an, welches auf einer endlichen Grundgesamtheit gegeben ist. Dabei soll jede statistische Einheit mit der gleichen Wahrscheinlichkeit gezogen werden, es soll sich also um eine sogenannte einfache Zufallsstichprobe handeln. (4.3) Ziehen mit und ohne Zurücklegen: Gegeben sei eine Urne mit N Kugeln, davon seien W weiÿ und N W schwarz. (a) Es werden n Kugeln mit Zurücklegen gezogen. Zeigen Sie, dass die Wahrscheinlichkeit, k weiÿe Kugeln zu ziehen, beträgt. B n,p ({k}) = ( ) n p k (1 p) n k, p = W k N, (Binomialverteilung) (b) Zeigen Sie, wenn n Kugeln ohne Zurücklegen gezogen werden, so ist die Wahrscheinlichkeit, k weiÿe Kugeln zu ziehen ( W )( N W ) k n k H n,n,w ({k}) = ( N. (Hypergeometrische Verteilung) n) (c) Für festes n und p beweise man, dass lim N W N p H n,n,w = B n,p. Bemerkung: Ist N im Vergleich zu n groÿ, so ist also H n,n,w B n, W N.

175 4. Einleitung und Überblick 165 (d) In einer Kiste benden sich 500 Kugeln, 75 weiÿe, 425 schwarze. Beim Schütteln der Kiste fallen 10 Kugeln heraus. Wie wahrscheinlich ist es, dass genau 3 weiÿe Kugeln darunter sind? Berechnen Sie die Wahrscheinlichkeit exakt mittels der hypergeometrischen Verteilung und vergleichen Sie das Ergebnis mit der Näherung durch die Binomialverteilung. (4.4) Erwartungswert, Varianz, Bildmaÿ: Bestimmen Sie einen geeigneten Wahrscheinlichkeitsraum, Zufallsvariable und ihr Bildmaÿ, den Erwartungswert und die Varianz der folgenden Situation: Aus einer Geldtasche, in der sich ein 5e-, ein 200eund drei 500e- Scheine benden, werden zufällig drei Scheine (ohne zurücklegen) gezogen. Betrachtet wird die gezogene Geldsumme.

176 Einleitung und Überblick Schulaufgaben (S4.1) Preisverteilung: Bei einer Veranstaltung sollen unter 25 Personen fünf Preise verlost werden. In einer Urne benden sich die 25 Namenskärtchen der Teilnehmerinnen und Teilnehmer. Beschreibe den Ablauf der Gewinnermittlung wenn a) jede Person mehr als einen Preis erhalten kann, b) jede Person höchstens einen Preis erhalten kann und gib das jeweils zu Grunde liegende mathematische Modell an. ( Stand: Februar 2013) (S4.2) Fehlerhafte Einheiten: In einem Prüos von 20 Einheiten sind drei Einheiten fehlerhaft. Jemand entnimmt eine Zufallsstichprobe von 5 Einheiten. Berechne den Erwartungswert für die Anzahl fehlerhafter Einheiten der Stichprobe und die Wahrscheinlichkeiten für alle möglichen Anzahlen fehlerhafter Einheiten in einer solchen Stichprobe. (Timischl; Kaiser: Ingenieur-Mathematik 4, E. Dorner Verlag, 3. Auage, 2005, S. 240, Nr. 6.1)

177 4. Einleitung und Überblick 167 Kontrollfragen 4.1 Das Schätzen eines unbekannten Verteilungsparameters, etwa des Erwartungswerts, fällt in den Bereich der deskriptiven Statistik, explorativen Statistik, deskriptiven und explorativen Statistik, induktiven Statistik. 4.2 Bei der PISA-Studie 2012 mussten 5000 Schülerinnen und Schüler des Jahrgangs 1996 aus österreichischen Schulen ihre Kompetenzen in Mathematik unter Beweis stellen. Welche der folgenden Aussagen treen auf diese Datenerhebung zu? Die Grundgesamtheit ist die Menge aller Schülerinnen und Schüler des Jahrgangs Eine Schülerin bzw. ein Schüler des Jahrgangs 1996 ist eine statistische Einheit. Es handelt sich um eine Vollerhebung. Die untersuchte Teilgesamtheit ist die Menge der 5000 getesteten Schülerinnen und Schüler. 4.3 Es seien X 1,..., X n : Ω R identisch verteilte Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, F, P). Unter welchen der folgenden Annahmen handelt es sich bei X 1,..., X n um eine Stichprobe zur Verteilung B 1,p = (1 p)δ 0 + pδ 1 mit p (0, 1)? P(X 1 = 0) = 1 p und P(X 1 = 1) = p X 1,..., X n sind unabhängig, P(X 1 = 0) = 1 p und P(X 1 = 1) = p P X1 = B 1,p P (X1,...,X n) = (B 1,p ) n

178

179 Kapitel 5 Deskription und Exploration Der Ausgangspunkt der deskriptiven und explorativen Statistik ist ein Datensatz x 1,..., x n, wobei n N den Stichprobenumfang bezeichnet. Die deskriptive Statistik dient der übersichtlichen Darstellung dieser Daten und ihrer Eigenschaften, während die explorative Statistik Methoden zum Aunden von Strukturen zur Verfügung stellt. Eine klare Grenze zwischen diesen beiden Teilgebieten der Statistik kann nicht gezogen werden, da eine übersichtliche Darstellung der Daten immer auch zum Aunden von Gesetzmäÿigkeiten hilfreich sein wird. 5.1 Typen von Merkmalen Wir teilen nun Merkmale nach unterschiedlichen Gesichtspunkten ein. Diese Unterteilung ist insofern wichtig, da manche statistische Verfahren für bestimmte Merkmalstypen zu unsinnigen Ergebnissen führen. Diskrete und stetige Merkmale Von einem diskreten Merkmal spricht man, wenn die Anzahl der Ausprägungen abzählbar ist, also endlich oder abzählbar unendlich. Nimmt das Merkmal hingegen alle Werte eines Intervalls an, so spricht man von einem stetigen Merkmal. Diskretes Merkmal: Stetiges Merkmal: Anzahl der Ausprägungen ist abzählbar Alle Werte eines Intervalls werden angenommen In diesem Kontext hat der Begri der Stetigkeit eines Merkmal nichts mit der Stetigkeit als Abbildung zu tun und kann daher etwas irreführend sein. Typische Beispiele für diskrete Merkmale sind die Parteizugehörigkeit oder die Anzahl der Würfe mit einem Würfel, bis man eine Sechs erhält. Die Körpergröÿe hingegen ist ein stetiges Merkmal. Oftmals wird ein stetiges Merkmal zu einem diskreten Merkmal gemacht, indem eine Einteilung in Klassen vollzogen wird, etwa aus datenschutzrechtlichen Gründen. Befragt man beispielsweise Personen zu ihrem Einkommen, so könnte aufgrund einer genauen Angabe des Bruttoeinkommens in Euro auf eine einzelne Person rückgeschlossen werden. 169

180 Deskription und Exploration Nominale, ordinale, zirkuläre und reelle Merkmale Eine andere Unterteilung von Merkmalen erfolgt aufgrund der Struktur des Wertebereichs. Zur Einteilung stellt man fest, ob ein Abstandsbegri und/oder eine Ordnungsrelation auf dem Wertebereich des Merkmals gegeben ist, vgl. Tabelle 5.1. Die zugehörigen Merkmale mit den entsprechenden Eigenschaften werden nominal, ordinal, zirkulär und reell genannt. Merkmale, auf deren Wertebereich ein Abstandsbegri deniert ist, also zirkuläre und reelle Merkmale, werden auch metrisch genannt. Merkmalstyp Abstandsbegri Ordnungsrelation Beispiel nominal nein nein Parteizugehörigkeit ordinal nein ja Schulnoten zirkulär ja nein Uhrzeit reell ja ja Gewicht einer Person Tabelle 5.1. Einteilung von Merkmalen aufgrund der Struktur des Wertebereichs Zu beachten gilt es, dass gewisse Berechnungen für bestimmte Merkmalstypen a priori nicht sinnvoll sind, beispielsweise das Addieren von Schulnoten. Berechnet man auf diesem Weg den Notendurchschnitt, lässt sich das Ergebnis jedoch durchaus sinnvoll interpretieren, insbesondere als statistische Maÿzahl. 5.2 Empirische Verteilung Wir führen nun die Begrie der empirischen Verteilung und der empirischen Verteilungsfunktion ein und geben einen ersten Einblick in den Zusammenhang mit Verteilung und Verteilungsfunktion. Im Weiteren gehen wir davon aus, dass ein Datensatz x 1,..., x n R vorliegt. Definition 5.1 (Empirische Verteilung) Das Wahrscheinlichkeitsmaÿ P n ( ; x 1,..., x n ): B(R) [0, 1]: B 1 n n δ xi (B) i=1 heiÿt empirische Verteilung zu x 1,..., x n. Wenn klar ist, dass es sich um die empirische Verteilung zu x 1,..., x n handelt, so bezeichnen wir diese der Einfachheit halber mit P n. Es lässt sich leicht zeigen, dass P n

181 5. Deskription und Exploration 171 tatsächlich ein Wahrscheinlichkeitsmaÿ ist, siehe Aufgabe (5.2). Weiters gilt oensichtlich P n (B) = #{i {1,..., n}: x i B} n für B B(R). Man bezeichnet P n (B) auch als relative Häugkeit von B. Ist {X n } n=1 eine Stichprobe zur Verteilung P, so folgt für B B(R) aus dem Starken Gesetz der groÿen Zahlen P n (B ; X 1,..., X n ) = 1 n n i=1 χ B (X i ) f.s. Eχ B (X 1 ) = P (B) für n, da χ B (X 1 ),..., χ B (X n ) u.i.v. sind, vgl. Aufgabe (5.3). Die empirische Entsprechung der Verteilung ist die empirische Verteilung, nun denieren wir das empirische Pendant der Verteilungsfunktion. Definition 5.2 (Empirische Verteilungsfunktion) Die zur empirischen Verteilung P n zu x 1,..., x n gehörige Verteilungsfunktion F n ( ; x 1,..., x n ): R [0, 1]: x P n ((, x]) = 1 n n χ (,x] (x i ) i=1 heiÿt empirische Verteilungsfunktion zu x 1,..., x n. Ist wiederum klar, dass es sich um die empirische Verteilungsfunktion zu x 1,..., x n handelt, wird diese mit F n bezeichnet. Weiters gilt F n (x) = #{i {1,..., n}: x i x} n. > x = rnorm (10) > Fn = ecdf ( x ) > plot ( Fn, main = " Empirische Verteilungsfunktion " )

182 Deskription und Exploration Empirische Verteilungsfunktion Fn(x) x Aus der Wahrscheinlichkeitstheorie wissen wir, dass die Verteilung P bereits durch die zugehörige Verteilungsfunktion F eindeutig bestimmt ist. Der nachfolgende Satz legt nahe, die Verteilungsfunktion F durch die empirische Verteilungsfunktion F n zu x 1,..., x n zu schätzen. Satz 5.3 (Gliwenko 1 -Cantelli, Hauptsatz der Statistik) Es sei {X n } n=1 eine Stichprobe zur Verteilungsfunktion F und F n die empirische Verteilungsfunktion zu X 1,..., X n. Dann gilt f.s. F F n = sup F (x) F n (x) 0 für n. x R Beweis. Für x R folgt aus dem Starken Gesetz der groÿen Zahlen F n (x) f.s. F (x) und F n (x ) f.s. F (x ) (5.1) für n, also die punktweise Konvergenz fast sicher. Die nachfolgenden Aussagen gelten daher jeweils fast sicher. Wir wählen nun k N, setzen { } x j,k := inf x R: F (x) j k für j = 1,..., k 1 und x 0,k := und x k,k :=. Aus (5.1), der punktweisen Konvergenz, erhalten wir n k N n n k : F n (x j,k ) F (x j,k ) 1 k Fn (x j,k ) F (x j,k ) 1 k. Die Monotonie der Verteilungsfunktion F impliziert F (x j,k ) j k 1 Waleri Iwanowitsch Gliwenko, , russischer Mathematiker

183 5. Deskription und Exploration 173 und daher ist Für x [x j 1,k, x j,k ) gilt nun weiters F (x j,k ) F (x j 1,k) 1 k. und Damit ist gezeigt, dass F n (x) F n (x j,k ) F (x j,k ) + 1 k F (x j 1,k) + 2 k F (x) + 2 k F n (x) F n (x j 1,k ) F (x j 1,k ) 1 k F (x j,k ) 2 k F (x) 2 k. k 1 n k N n n k : sup F (x) F n (x) 2 k f.s. x R und damit die Aussage des Satzes bewiesen. Bemerkung. Die empirische Verteilungsfunktion F n konvergiert nach dem Satz von Gliwenko-Cantelli also fast sicher gleichmäÿig gegen die Verteilungsfunktion F. 5.3 Dichten und Histogramme Ziel dieses Abschnitts ist es, die Verteilung eines Merkmals durch den gegebenen Datensatz x 1,..., x n graphisch zu beschreiben. Zur graphischen Beschreibung von Dichten anhand der Daten verwendet man häug sogenannte Histogramme. Histogramme Wir gehen davon aus, dass der Datensatz x 1,..., x n R in geordneter Form vorliegt, d.h. x 1... x n. Diese Anordnung hat natürlich nur für ordinale und reelle Merkmale eine inhaltliche Bedeutung. Wir unterteilen nun das Intervall [c, d) [x 1, x n ], c < d, in paarweise disjunkte Intervalle I 1,..., I k, welche als Klassen bezeichnet werden. Für alle j = 1,..., k sei dabei I j = [a j 1, a j ) mit a 0 = c, a k = d und a j 1 < a j. Damit erhalten wir eine disjunkte Zerlegung [c, d) = k I j. j=1

184 Deskription und Exploration Das zu dieser Zerlegung und dem Datensatz x 1,..., x n gehörige Histogramm ist dann durch die Abbildung gegeben, wobei R R: x k j=1 n j nλ(i j ) χ I j (x) = k j=1 P n (I j ) λ(i j ) χ I j (x) n j := #{i {1,..., n}: x i I j }. [ ] n Der Flächeninhalt der Rechtecke I j 0, j nλ(i j ) ist oensichtlich n j nλ(i j ) λ(i j) = n j n = P n(i j ), also gerade die relative Häugkeit der Datenpunkte im entsprechenden Intervall. Häug wird eine entsprechende äquidistante Zerlegung des Intervalls [c, d) [x 1, x n ] gewählt. Für die Anzahl der Klassen gibt es einige Faustregeln wie etwa k = n. Beispiel 5.4 (Baumhöhe) Zunächst laden wir aus dem Datensatz trees wie folgt die Höhe von 31 gefällten Bäumen einer bestimmten Art. > trees. height = trees $ Height > trees. height [1] [ 26] > summary ( trees. height ) Min. 1 st Qu. Median Mean 3 rd Qu. Max Mittels des Befehls hist erzeugen wir nun ein Histogramm und lassen uns anschlieÿend die automatisch gewählte Zerlegung ausgeben. > trees. HG = hist ( trees. height, freq = FALSE ) > trees. HG $ breaks [1]

185 5. Deskription und Exploration 175 Histogram of trees.height Density trees.height Wir können die Zerlegung aber auch selbst wählen. > trees. breaks = c (60,65,80,85,90) > hist ( trees. height, breaks = trees. breaks, freq = FALSE ) Histogram of trees.height Density trees.height Eine äquidistante Zerlegung liefert also natürlich nur eine von vielen möglichen Darstellungsformen. 5.4 Dichteschätzung Ziel dieses Abschnitts ist es, die Dichte einer Verteilung durch eine glatte Funktion zu approximieren. Wir gehen also davon aus, dass der vorliegende geordnete Daten-

186 Deskription und Exploration satz x 1,..., x n von einer Stichprobe stammt, deren Verteilung eine Dichte bezüglich des Lebesgue-Maÿes besitzt. Als Vorstufe führen wir das gleitende Histogramm ein. Es sei dazu h > 0 fest gewählt. Analog zum Histogramm wird der Funktionswert durch f h (x) := # {i {1,..., n}: x i [x h, x + h]} n 2h = 1 nh n i=1 1 2 χ [x h,x+h](x i ) für x R berechnet. Mittels des Kerns K N : R R: u 1 2 χ [ 1,1](u), welcher als naiver Kern bezeichnet wird, schreibt sich der erhaltene Funktionswert als f h (x) = 1 nh n i=1 ( ) x xi K N. h Oensichtlich ist K N selbst eine Dichte und somit auch f h. Ein Kern ist also eine vorgegebene Wahrscheinlichkeitsdichte. Mittels des unstetigen naiven Kerns erhält man jedoch noch keine glatte Approximation. Daher verwenden wir anstelle des naiven Kerns beispielsweise den durch K G (u) := 1 2π e u2 /2, u R, gegebenen Gauÿ-Kern oder den Epanechnikov-Kern K E (u) := 3 4 (1 u2 )χ [ 1,1], u R. Die für einen Kern K und die Bandbreite h > 0 durch f h (x) := 1 nh n ( ) x xi K h i=1 gegebene Funktion nennt man Kern-Dichteschätzer und diese ist natürlich eine Dichte, vgl. Aufgabe (5.11). Beispiel 5.5 (Insektensprays) Wir wollen die Wirksamkeit von zwei der Insektensprays im Datensatz InsectSprays miteinander vergleichen.

187 5. Deskription und Exploration 177 > sprays = InsectSprays > head ( sprays ) count spray 1 10 A 2 7 A 3 20 A 4 14 A 5 14 A 6 12 A > sprays. splited = split ( sprays, sprays [, " spray " ]) > spray. A = sprays. splited $ A $ count > spray. B = sprays. splited $ B $ count > spray. A ; spray. B [1] [1] Die Funktion density() liefert einen Kern-Dichteschätzer, wobei ohne das Setzen des Argumentes kernel der Gauÿ-Kern verwendet wird. Die Bandbreite wird automatisch angepasst. > par ( mfrow = c (1,2) ) > plot ( density ( spray. A ), main = " Spray A " ) > plot ( density ( spray. B ), main = " Spray B " ) Spray A Spray B Density Density N = 12 Bandwidth = N = 12 Bandwidth = Eine gute Möglichkeit die beiden Sprays miteinander zu vergleichen bietet auch der Befehl boxplot(). > boxplot ( spray.a, spray.b, main = " Spray A und B im Boxplot " )

188 Deskription und Exploration Spray A und B im Boxplot Die in einem Boxplot dargestellten Gröÿen werden im nächsten Abschnitt eingeführt. 5.5 Statistische Maÿzahlen Wir werden nun im Folgenden einige statistische Maÿzahlen einführen. Ausgangspunkt ist wiederum ein geordneter Datensatz x 1,..., x n. Lagemaÿe Lagemaÿe beschreiben das Zentrum einer Verteilung. Ein Beispiel eines Lagemaÿes ist der empirische Mittelwert x (n) := 1 n x i. n Oftmals wird dieser auch einfach als Mittel bezeichnet. Man beachte, dass der empirische Mittelwert a priori nur für reelle Merkmale sinnvoll deniert ist. Weiters minimiert er die Summe der quadratischen Abweichungen, d.h. n ( ) 2 n xi x (n) (x i x) 2 für alle x x (n), i=1 i=1 vgl. Aufgabe (5.14). Daraus lässt sich erkennen, dass der empirische Mittelwert sehr stark von Ausreiÿern beeinusst werden kann. Stabiler unter Ausreiÿern verhält sich der (empirische) Median { x n+1, n ungerade, x (n) := (x n + x n ), n gerade, i=1

189 5. Deskription und Exploration 179 denn dieser minimiert die Summe der absoluten Abweichungen, d.h. n x i x (n) i=1 n x i x für alle x x (n), i=1 vgl. Aufgabe (5.15). Man beachte bei der Denition des Medians, dass es sich bei x 1,..., x n um einen geordneten Datensatz handelt. In R wird der empirische Mittelwert bzw. der Median mittels mean() bzw. median() berechnet. > x = rnorm (100) > mean ( x ) ; median ( x ) [1] [1] > mean ( x ^9) ; median ( x ^9) [1] [1] e -06 Weitere wichtige Lagemaÿe sind die sogenannten Quantile. Für α [0, 1] nennt man x α R ein α-quantil, wenn mindestens ein Anteil α der Daten x 1,..., x n einen Wert kleiner oder gleich x α und mindestens ein Anteil 1 α einen Wert gröÿer gleich x α besitzt. Man beachte, dass Quantile im Allgemeinen nicht eindeutig sind. Ein 25%-Quantil, 50%- Quantil bzw. 75%-Quantil wird auch als unteres oder 1. Quartil, 2. Quartil bzw. oberes oder 3. Quartil bezeichnet. Oensichtlich ist der Median gerade ein 2. Quartil. Den Abstand zwischen oberem und unterem Quartil nennt man Interquartilsabstand. > quantile ( rivers, probs = 0. 5) 50% 425 > median ( rivers ) [1] 425 Eine praktische Zusammenfassung der wichtigsten Lagemaÿe liefert summary(). > summary ( rivers ) Min. 1 st Qu. Median Mean 3 rd Qu. Max Eine graphische Darstellung dieser Werte bietet ein Boxplot. Dieser eignet sich besonders gut, wie bereits in Beispiel 5.5 geschehen, um mehrere Datensätze miteinander zu vergleichen. Dabei gibt die Linie in der Mitte des Rechtecks den Wert des Medians an, die

190 Deskription und Exploration untere Kante des Rechtecks das untere Quartil, die obere das obere Quartil. Die Striche am Ende der strichlierten vertikalen Linie kennzeichnen das Minimum bzw. Maximum ohne Ausreiÿer. Als Ausreiÿer werden Datenpunkte bezeichnet, die mehr als das 1.5- fache des Interquartilsabstands entfernt vom oberem oder unterem Quartil liegen. Diese werden separat als Kreise eingezeichnet. Streumaÿe Die empirische Varianz s 2 (n) := 1 n 1 n ( ) 2 xi x (n) i=1 beschreibt, wie stark die Daten um den empirischen Mittelwert schwanken. Die Mittelung durch n 1 anstatt durch n können wir vorerst wie folgt erklären: Da n ( ) xi x (n) = 0, i=1 wird beispielsweise die Abweichung x n x (n) durch die restlichen n 1 festgelegt. Daher variieren nur n 1 Abweichungen und man mittelt daher indem man durch die Anzahl n 1 der sogenannten Freiheitsgrade dividiert. Weitere Streumaÿe sind die empirische Standardabweichung oder Streuung s (n) = 1 n ( ) 2 xi x n 1 (n), der empirische Variationskoezient und die empirische Spannweite wobei wiederum x 1... x n. i=1 V (n) := s (n) x (n) r (n) := x n x 1, > var ( rivers ) # Empirische Varianz [1] > sd ( rivers ) ; sqrt ( var ( rivers ) ) # Streuung [1] [1]

191 5. Deskription und Exploration 181 > sd ( rivers ) / mean ( rivers ) # Variationskoeffizient [1] > max ( rivers ) - min ( rivers ) # Empirische Spannweite [1] Regression Bei der Regressionsrechnung interessieren funktionale Zusammenhänge einer mehrdimensionalen Messreihe. Im einfachsten Fall werden zwei im Allgemeinen nicht unabhängige Merkmale X und Y mehrfach erhoben. Dies liefert einen zweidimensionalen Datensatz (x 1, y 1 ),..., (x n, y n ), welchen wir als Realisierung einer zweidimensionalen Stichprobe (X 1, Y 1 ),..., (X n, Y n ) interpretieren. Beispiel 5.6 (Baumdurchmesser und -volumen) Wir interessieren uns für den Zusammenhang zwischen dem Umfang und dem Volumen der Bäume im Datensatz trees. > x = trees $ Girth > y = trees $ Volume > plot (x, y ) y x Bei Betrachtung des obigen Scatterplots, welcher auch Streudiagramm genannt wird, könnte man einen linearen Zusammenhang vermuten.

192 Deskription und Exploration Bei der linearen Regression wird ein funktionaler Zusammenhang der Form y = ax + b angenommen. Im Allgemeinen wird es natürlich nicht möglich sein y i = ax i + b für alle i = 1,..., n zu erfüllen. Die Konstanten a, b R sollen nun so bestimmt werden, dass dieses Modell möglichst gut den gegebenen Daten (x 1, y 1 ),..., (x n, y n ) angepasst ist, d.h. die Datenpunkten der Geraden möglichst nahe liegen. Eine Möglichkeit eine solche Gerade zu bestimmen bietet das Prinzip der kleinsten Fehler-Quadrate. Dabei wird die Summe der quadratischen Abstände der Datenpunkte zu den zugehörigen Werten auf der Geraden minimiert, also f(a, b) = n (y i (ax i + b)) 2 min. i=1 Die Gerade, welche man dadurch erhält, wird Regressionsgerade genannt. Eine einfache Rechnung, vgl. Aufgabe (5.17), führt auf n i=1 a = (x i x)(y i y) n i=1 (x i x) 2 und b = y ax, wobei x := 1 n n x i und y := 1 n i=1 n y i. Um die Steigung a interpretieren zu können, benötigen wir folgende Denition. Definition 5.7 (Empirische Kovarianz) Die Maÿzahl s x,y := 1 n (x i x)(y i y) n 1 i=1 wird empirische Kovarianz der zweidimensionalen Messreihe (x 1, y 1 ),..., (x n, y n ) genannt. Es bezeichne s 2 x die empirische Varianz von x 1,..., x n. Dann können die Koezienten der Regressionsgerade y = ax + b i=1 als a = s x,y s 2 x und b = y ax

193 5. Deskription und Exploration 183 geschrieben werden. Die empirische Kovarianz gibt also das Vorzeichen der Steigung der Regressionsgeraden an. Um die Stärke des linearen Zusammenhangs zu messen, bedarf es einer weiteren Denition. Definition 5.8 (Korrelationskoeffizient und empirische Korrelation) Für zwei quadratisch integrierbare Zufallsvariablen X und Y mit positiver Varianz nennt man ρ(x, Y ) := Cov(X, Y ) Var(X) Var(Y ) den Korrelationskoezienten, sein empirisches Pendant r x,y := s x,y s x s y empirische Korrelation nach Pearson 2. Da f(a, b) = n (y i (ax i + b)) 2 = (n 1)s 2 y(1 rx,y) 2, i=1 vgl. Aufgabe (5.18), liegen genau dann alle Datenpunkte (x 1, y 1 ),..., (x n, y n ) auf der Regressionsgerade, wenn r x,y = 1. Oenbar gilt r x,y 1. Daraus wird ersichtlich, dass die empirische Korrelation ein Maÿ für den linearen Zusammenhang ist. Beispiel 5.9 (Fortsetzung von Beispiel 5.6) In R wird die Regressionsgerade mittels lm() bestimmt, die empirische Korrelation erhalten wir durch cor(). > x = trees $ Girth > y = trees $ Volume > cor (x, y ) [1] > plot (x, y ) > rg = lm ( y ~ x ) > rg Call : lm ( formula = y ~ x ) 2 Karl Pearson, , britischer Mathematiker und Philosoph

194 Deskription und Exploration Coefficients : ( Intercept ) x > abline ( rg, col = ' red ') y x In diesem Beispiel lässt der hohe Wert des Korrelationskoezienten sehr stark einen linearen Zusammenhang vermuten. Bemerkung. Anstelle eines linearen Modells können natürlich beliebige funktionale Zusammenhänge y = g(x, p) angenommen werden, wobei der Parameter p R m so gewählt wird, dass die Datenpunkte wiederum möglichst nahe am Graphen von g(, p) liegen, vgl. Aufgabe (5.20).

195 5. Deskription und Exploration 185 Übungsaufgaben (5.1) Fragebogenauswertung: Importieren Sie den Datensatz janein.txt. (Diesen nden Sie unter Erstellen Sie eine Grak, die die absolute Anzahl der Nein- (0) und Ja-Antworten (1) darstellt und eine zweite, bei der die relativen Häugkeiten dargestellt sind. Beschriften Sie insbesondere die y-achse. (5.2) Empirische Verteilung: Zeigen Sie, dass die empirische Verteilung zu x 1,..., x n ein Wahrscheinlichkeitsmaÿ auf B(R) ist, es sich also um eine Verteilung handelt. (5.3) Es seien X 1,..., X n u.i.v. und B B(R). Zeigen Sie, dass χ B (X 1 ),..., χ B (X n ) u.i.v. (5.4) Empirische Verteilungsfunktion einer normalverteilten Stichprobe: Erzeugen Sie in R ein Plotfenster mit folgenden zwei Plots untereinander und sinnvollen Beschriftungen: (a) Plotten Sie die empirische Verteilungsfunktion einer Realisierung einer standardnormalverteilten Stichprobe vom Umfang 10 sowie (im selben Plot in roter Farbe) die Verteilungsfungsfunktion der Standardnormalverteilung. (b) Wiederholen Sie dasselbe für einen Stichprobenumfang von 100. Nützliche Befehle: ecdf(), par(mfrow=c()), lines() (5.5) Histogramm: Erstellen Sie für das Merkmal temp der beiden Datensätze beaver1 und beaver2 in einem Plotfenster die zwei Histogramme. Nutzen Sie die Möglichkeit die Anzahl der Klassen zu steuern. Beschreiben Sie die Unterschiede der beiden Histogramme. Für ein besseres Verständnis, was ein Histogramme darstellt, erzeugen sie eine Realisierung einer standardnormalverteilten Stichprobe vom Umfang 5000 und plotten Sie ein Histogramm der Daten. (5.6) Gegeben sei der Datensatz x 1 = 2, x 2 = 5, x 3 = 2, x 4 = 3, x 5 = 2. Plotten Sie in R die zugehörige empirische Verteilungsfunktion F 5 und bestimmen Sie P 5. Berechnen Sie weiters den Erwartungswert von P 5. (5.7) Empirische Verteilungsfunktion einer normalverteilten Stichprobe: Erzeugen Sie in R ein Plotfenster mit folgenden zwei Plots untereinander und sinnvollen Beschriftungen:

196 Deskription und Exploration (a) Plotten Sie die empirische Verteilungsfunktion einer Realisierung einer standardnormalverteilten Stichprobe vom Umfang 10 sowie (im selben Plot in roter Farbe) die Verteilungsfungsfunktion der Standardnormalverteilung. (b) Wiederholen Sie dasselbe für einen Stichprobenumfang von 100. Speichern Sie das Ergebnis als PDF-Datei. (5.8) Burger: Ein Fast-Food-Kette beschlieÿt in der eigenen Facebook-Gruppe eine Umfrage zu machen, um herauszunden, welcher der beliebteste Burger ist. Dabei stehen fünf Burger zur Auswahl. Jeder Teilnehmer bzw. jede Teilnehmerin kann einen Burger auswählen und darf nur einmal an der Umfrage teilnehmen. Das Umfrageergebnis lautet wie folgt: 5, 4, 4, 1, 1, 4, 5, 3, 2, 4, 3, 3, 3, 2, 1, 3, 4, 1, 4, 2, 3, 5, 4, 4, 2, 3, 4, 2, 3, 3 Sind die Burger gleich beliebt? Beantworten Sie dies Fragen (noch) nicht, aber geben Sie an, wie Sie die gegebenen Werte stochastisch modellieren und was mögliche statische Fragestellungen in Zusammenhang mit der Aufgabenstellung sind. Klassizieren Sie insbesondere das/die Merkmal/e. (5.9) Exponentialverteilung empirische Verteilungsfunktion: Generieren Sie eine Realisierungen einer exponentialverteilten Stichprobe mit Parameter 2 vom Umfang Erzeugen Sie die empirische Verteilungsfunktion F n für die ersten 50, ersten 100, ersten 500, alle 1000 Werte und bestimmen Sie jeweils in R den Abstand F n F, wobei F die Verteilungsfunktion der entsprechenden Exponentialverteilung bezeichnet. Erstellen Sie insbesondere eine Grak mit den vier Graphen der empirischen Verteilungsfunktionen jeweils gemeinsam mit dem Graphen von F. Im jeweiligen Titel soll der Abstand angeführt sein. Hinweis: Recherchieren Sie für Letzteres den Befehl paste. (5.10) Erwartungswert und Varianz der empirischen Verteilungsfunktion: Gegeben sei eine Stichprobe X 1,..., X n zur Verteilung P. Bestimme Sie für festes x R Erwartungswert und Varianz von (5.11) Man zeige: F n (x ; X 1,..., X n ). (a) K G und K E sind Wahrscheinichkeitsdichten.

197 5. Deskription und Exploration 187 (b) Es sei x 0 R und h > 0. Ist K ein Kern, so ist x 1 ( ) x h K x0 h eine Wahrscheinlichkeitsdichte. (c) Ein Kern-Dichteschätzer ist eine Wahrscheinlichkeitsdichte. (5.12) Kern-Dichteschätzer: Führen Sie folgenden R-Code aus. Fügen Sie nun selbständig weitere Kerne hinzu und überlegen Sie sich Kriterien für einen guten Kern. x = rnorm ( 50) # Kern K = function ( t ) { if (t >=0 & & t <=1) 4 * t ^3 else 0} par ( mfrow = c (1,2) ) s = seq ( -0.5,1.5,0.01) plot (s, sapply (s, K ), type = " l ", xlab = " x ", ylab = " K ( x ) ", main = " Kern " ) # Kerndichteschaetzer h =0.1 myfh = function ( y ) { n = length ( x ) ; return (1 / n / h * sum ( sapply (( y - x ) / h, K ) ) ) } t = seq ( -3,3,0.01) plot (t, sapply (t, myfh ), type = " l ", xlab = " x ", ylab = " f _ h ( x ) ", main = " Kerndichteschaetzer " ) lines ( density (x, kernel = " epanechnikov " ), col = " red " ) lines ( density (x, kernel = " gaussian " ), col = " blue " ) points (x,0 *x, pch =20) (5.13) Insektensprays: Vergleichen Sie die Insektensprays im Datensatz InsectSprays in Analogie zu Beispiel 5.5. Verwenden Sie weiters den Epanechnikov-Kern zur Kern-Dichteschätzung und vergleichen Sie die Resultate zu unterschiedlich gesetzten Bandbreiten. (5.14) Zeigen Sie, dass der empirische Mittelwert die Summe der quadratischen Abweichungen minimiert. (5.15) Zeige Sie, dass der Median die Summe der absoluten Abweichungen minimiert. (5.16) Zahnwachstum: Vergleichen Sie das Zahnwachstum der Meerschweinchen im Datensatz ToothGrowth mit Hilfe eines Boxplots. Verwenden und erklären Sie die

198 Deskription und Exploration Befehle qqnorm und qqline und interpretieren Sie die entsprechenden Plots für den obigen Datensatz. (5.17) Gegeben sei eine Messreihe (x 1, y 1 ),..., (x n, y n ). Zeigen Sie durch Minimierung von f(a, b) = n (y i (ax i + b)) 2, i=1 dass die Koezienten der zugehörigen Regressionsgerade y = ax + b durch a = s x,y s 2 x und b = y ax gegeben sind. (5.18) Zeigen Sie für a und b wie in Aufgabe (5.17), dass n (y i (ax i + b)) 2 = (n 1)s 2 y(1 rx,y) 2. i=1 (5.19) Korrelationskoeffizient und empirischer Korrelation: Zeigen Sie, dass (a) ρ(x, Y ) [ 1, 1] für quadratisch integrierbare Zufallsvariablen X und Y mit positiver Varianz, (b) r x,y [ 1, 1] für einen Datensatz (x 1, y 1 ),..., (x n, y n ) R 2, sofern s x, s y > 0. (5.20) Regressionsparabel: Gegeben sei die Messreihe Passen Sie eine Parabel durch Minimierung von (x 1, y 1 ),..., (x n, y n ). y = a + bx + cx 2 F (a, b, c) = n ( yi (a + bx i + cx 2 i ) ) 2 i=1 den Daten an. Bestimmen Sie eine solche Parabel für die Höhe und den Durchmesser der Bäume im Datensatz trees.

199 5. Deskription und Exploration 189 Schulaufgaben Die nachfolgenden Aufgaben stammen, sofern keine weiteren Angaben gemacht werden, von (Stand: Februar 2013). (S5.1) Einkindfamilien: Ein Vortragender interpretiert die untenstehende Tabelle mit folgenden Worten: Sie sehen, dass in dieser Wohnsiedlung 50 % aller Kinder ohne Geschwister aufwachsen. Entscheide, ob die Interpretation des Vortragenden korrekt ist und begründe deine Entscheidung. Anzahl der Kinder pro Wohnung Anzahl der Wohnungen Tabelle. Ergebnis einer Untersuchung zur Gröÿe der Familien in einer Wohnsiedlung mit 30 Wohnungen. (S5.2) Tagesumsätze: Die Tagesumsätze (in e) eines Restaurants für eine bestimmte Woche sind in folgendem Diagramm angegeben:

200 Deskription und Exploration (a) Um wie viel wird am Samstag mehr als am Montag umgesetzt? (b) Wie groÿ ist der durchschnittliche Tagesumsatz in dieser Woche? (S5.3) Arbeitslose: Tabelle. Stand: Oktober 2000; Quelle: Bundesministerium f. Wirtschaft und Arbeit, Presseabteilung In oben stehender Tabelle sind die Arbeitslosenzahlen für Österreich getrennt nach Altersklassen und Geschlecht aufgelistet. (a) Sind unter den jungen Arbeitslosen (bis unter 25 Jahre) mehr Männer als Frauen? Gib die entsprechenden Werte an. (b) Betrachte die Altersgruppen der 30- bis unter 40-Jährigen und der 40- bis unter 50-Jährigen: In welcher dieser Altersgruppen ist der auf die jeweilige Altersgruppe bezogene Prozentsatz der weiblichen Arbeitslosen höher? (c) Von allen Arbeitslosen wird eine Person zufällig ausgewählt. Mit welcher Wahrscheinlichkeit ist diese Person jünger als 19 und männlich? (S5.4) Histogramm erstellen: Bei einer LKW-Kontrolle wurde bei 50 Fahrzeugen eine Überladung festgestellt. Zur Festlegung des Strafrahmens wurde die Überladung der einzelnen Fahrzeuge in der folgenden Tabelle festgehalten. Überladung (in kg) Anzahl der LKW < bis bis bis Zeichnen Sie ein Histogramm der Daten.

201 5. Deskription und Exploration 191 (S5.5) Spendenaktion: An einer Spendenaktion beteiligten sich fünfhundert Personen. Durchschnittlich wurde ein Betrag von EUR 20, gegeben. Kann man aus diesen Informationen den Gesamtbetrag der Spende ermitteln? (S5.6) Boxplot: Ein Kastenschaubild zeigt die Studiendauer in Semestern für eine technische Studienrichtung. (a) Lies die Quartile ab. q 1 = q 2 = q 3 = (b) Sind die folgenden Aussagen wahr oder falsch? Kreuze an! Die Spannweite beträgt 10 Semester. 25% der Studierenden studieren höchstens 14 Semester lang. Es gibt Studierende, die ihr Studium erst nach 10 Jahren beenden. 50% der Studierenden benötigen für den Abschluss des Studiums zwischen 13 und 17 Semestern. 1/4 der Studierenden benötigt für den Abschluss des Studiums mindestens 17 Semester. Die Streuung der Werte im ersten Viertel ist am geringsten. (S5.7) Boxplot zeichnen: Eine Tankstellenkette hat in den Shops von Filialen die Umsatzzahlen eines Tiefkühlprodukts jeweils über einen Zeitraum von 15 Wochen beobachtet und der Gröÿe nach festgehalten. Umsatzzahlen: 12, 12, 12, 12, 18, 18, 18, 18, 18, 23, 23, 23, 23, 23, 24 Zeichnen Sie den entsprechenden Boxplot und tragen Sie die angegebenen Kennzahlen unter der Grak ein!

202 Deskription und Exploration (S5.8) Sportwettbewerb 1: 150 Grazer und 170 Wiener Schülerinnen nahmen an einem Sportbewerb teil. Der Vergleich der Listen der Hochsprungergebnisse ergibt einen für beide gleichen Mittelwert von 1.05 m und eine empirische Standardabweichung für die Grazer von 0.22 m und für die Wiener von 0.3 m. Entscheide, welche der folgenden Aussagen aus den gegebenen Daten geschlossen werden können. (a) Beide Listen haben den gleichen Median. (b) Der Mittelwert repräsentiert die Leistungen der Grazer Schülerinnen besser als die der Wiener. (c) Die Standardabweichung der Grazerinnen ist auf Grund der geringeren Teilnehmeranzahl kleiner als die der Wienerinnen. (d) Von den Sprunghöhen (gemessen in m) der Wienerinnen liegt kein Wert auÿerhalb des Intervalls [0.45, 1.65]. (S5.9) Zwei Merkmale mit gegensinnigem Zusammenhang: Die Messung zweier Merkmale x und y an 8 Einheiten ergab folgende Wertepaare (x i, y i ): Nr. Gröÿe x Gröÿe y Nr. Gröÿe x Gröÿe y Gesucht ist eine graphische Darstellung der Gröÿen x und y der Stichprobe. Liegt zwischen den beiden Gröÿen irgendeine Tendenz vor? (Timischl; Kaiser: Ingenieur-Mathematik 4, E. Dorner Verlag, 3. Auage, 2005, S. 319, Bsp. 8.3)

203 5. Deskription und Exploration 193 Kontrollfragen 5.1 Die Studierenden einer Statistikvorlesung werden hinsichtlich ihres Alters in Jahren und ihrer Körpergröÿe befragt. Welche der folgenden Aussagen sind zutreffend? Beim Alter handelt es sich um ein diskretes Merkmal, die Körpergröÿe stellt ein stetiges Merkmal dar. Sowohl Alter als auch Körpergröÿe sind stetige Merkmale. Alter und Körpergröÿe sind reelle Merkmale. Das Alter ist ein ordinales und die Körpergröÿe ein reelles Merkmal. 5.2 Beim zwölfmaligen Würfeln traten folgende Augenzahlen auf: Es sei x 1 = 4, x 2 = 3, x 3 = 6, x 4 = 6, x 5 = 4, x 6 = 4, x 7 = 4, x 8 = 2, x 9 = 2, x 10 = 3, x 11 = 2, x 12 = 6. P 12 = 1 m n p k δ k Für welche m, n, p 1,..., p n ist P 12 die empirische Verteilung zu x 1,..., x 12? Für m = 6, n = 6 und Es ist m = 1, n = 6 und Für m = 12, n = 6 und Für m = 1, n = 6 und k=1 p 1 =... = p 6 = 1. p 1 =... = p 6 = 1 6. p 1 = 0, p 2 = 3, p 3 = 2, p 4 = 4, p 5 = 0, p 6 = 3. p 1 = 0, p 2 = 3 12, p 3 = 2 12, p 4 = 4 12, p 5 = 0, p 6 = Es sei {X n } n=1 eine Stichprobe zur Verteilung P. Für n N bezeichne auÿerdem P n die empirische Verteilung und F n die empirische Verteilungsfunktion zu X 1,..., X n. Welche der folgenden Aussagen sind wahr?

204 Deskription und Exploration B B(R): P n (B) f.s. P (B) x R: F n (x) F P (x) F n F P fast sicher gleichmäÿig auf R x R: F n (x ) f.s. F P (x ) 5.4 Welche der folgenden Aussagen sind wahr? Der Flächeninhalt der bei einem Histogramm auftretenden Rechtecke ist gleich der entsprechenden absoluten Häugkeiten. Der Flächeninhalt der bei einem Histogramm auftretenden Rechtecke ist gleich der entsprechenden relativen Häugkeiten. Die bei einem Histogramm gebildeten Klassen I 1,..., I k müssen nicht zwingend paarweise disjunkt sein. Die bei einem Histogramm gebildeten Klassen I 1,..., I k müssen disjunkt sein. 5.5 Gegeben sei der Datensatz x 1,..., x n R. Welche der folgenden Aussagen sind wahr? x (n) = x (n) x (n) x (n) Die empirische Standardabweichung ist stets kleiner gleich der empirischen Varianz. Zu α = 1 ist das α-quantil von x 1,..., x n eindeutig. 5.6 Es sei (x 1, y 1 ),..., (x n, y n ) R 2 eine Realisierung der zweidimensionalen Stichprobe (X 1, Y 1 ),..., (X n, Y n ). Welche der folgenden Aussagen sind wahr? Sind X 1 und Y 2 unabhängig, so liegt keiner der Punkte (x i, y i ), i = 1,..., n, auf der zugehörigen Regressionsgeraden. Sind X 1 und Y 2 unkorreliert, so liegt keiner der Punkte (x i, y i ), i = 1,..., n, auf der zugehörigen Regressionsgeraden. Gilt für die empirische Korrelation r x,y = 1, so liegen alle Punkte (x i, y i ), i = 1,..., n, auf der zugehörigen Regressionsgeraden. Gilt für die empirische Korrelation r x,y = 0, so liegt keiner der Punkte (x i, y i ), i = 1,..., n, auf der zugehörigen Regressionsgeraden.

205 Kapitel 6 Schätzen In diesem Kapitel werden Verfahren vorgestellt, mit deren Hilfe man ausgehend von einer Realisierung einer Stichprobe mit unbekannter Verteilung Kennzahlen oder Parameter eines angenommenen Verteilungsmodells schätzen kann. 6.1 Parameterschätzung Ausgangspunkt ist eine Realisierung x 1,..., x n einer Stichprobe X 1,..., X n zu einer unbekannten Verteilung P. Es sei jedoch bekannt, dass die Verteilung aus einer vorgegebenen Menge von Verteilungen stammt, d. h. Daher gilt für ein ϑ 0 Θ, dass P {P ϑ : ϑ Θ}. P = P ϑ0, die Verteilung hängt also von einem ϑ 0 Θ ab, welches die Verteilung eindeutig bestimmt. Beispiel 6.1 (Münzwurf) Gegeben sei eine Stichprobe zu einer B 1,p -Verteilung. Wir wählen naheliegenderweise den Parameter ϑ gleich dem Erwartungswert p der Verteilung und setzen Θ := [0, 1]. Gegeben sei weiters die Funktion g : Θ R: ϑ g(ϑ), welche den vom Verteilungsparameter abhängigen zu schätzenden Wert angibt. Gesucht ist nun eine Schätzfunktion T n : R n R, mit deren Hilfe g(ϑ 0 ) ausgehend vom Datensatz x 1,..., x n durch T n (x 1,..., x n ) geschätzt werden kann. Die Funktion T n wird auch Schätzstatistik genannt. Beispiel 6.2 (Varianz einer Normalverteilung) Gegeben sei eine Stichprobe X 1,..., X n zu einer Normalverteilung mit unbekanntem Erwartungswert µ 0 und unbekannter Varianz σ0 2. In diesem Fall setzen wir ϑ := (µ, σ) Θ := R (0, ) 195

206 Schätzen und P ϑ ist die Normalverteilung mit Erwartungswert µ und Varianz σ 2. Interessiert man sich nun für die Varianz der Verteilung der Stichprobe, so gibt g : Θ R: (µ, σ) σ 2 den zu schätzenden Parameter an. Wir denieren nun zwei wünschenswerte Eigenschaften von Schätzfunktionen. Definition 6.3 (Erwartungstreue und konsistente Schätzfunktionen) (1) Die Schätzstatistik T n heiÿt erwartungstreue Schätzung von g(ϑ), falls für alle ϑ Θ und alle Stichproben X 1,..., X n zu P ϑ gilt, dass ET n (X 1,..., X n ) = g(ϑ). (2) Eine Folge (T n ) n N von Schätzfunktionen heiÿt konsistente Schätzung von g(ϑ), falls für alle ϑ Θ und für alle Stichproben {X n } n=1 zu P ϑ gilt, dass lim T n(x 1,..., X n ) f.s. = g(ϑ). n Schätzproblem 1. Wie schätzt man den Erwartungswert der Verteilung der Stichprobe? Eine naheliegende Schätzung des Erwartungswertes ist natürlich der empirische Mittelwert, also T n (x 1,..., x n ) = x (n). Diese Schätzung ist erwartungstreu und konsistent, vgl. Aufgabe (6.1). Schätzproblem 2. Wie schätzt man die Varianz der Verteilung der Stichprobe? Da die Varianz durch Var(X 1 ) = E(X 1 EX 1 ) 2 gegeben ist, erscheint es naheliegend, sie durch 1 n n (X i EX 1 ) 2 i=1

207 6. Schätzen 197 zu schätzen. Nun ist jedoch EX 1 unbekannt und man schätzt daher EX 1 wiederum durch das Stichprobenmittel. Somit ergibt sich als Schätzfunktion T n (x 1,..., x n ) = 1 n n (x i x (n) ) 2. Diese Schätzung ist konsistent, vgl. Aufgabe (6.2). Sie ist jedoch nicht erwartungstreu, denn ( ) 2 ET n (X 1,..., X n ) = E 1 n Xi 2 1 n X i = n n Hieraus folgt, dass die empirische Varianz s 2 (n) = i=1 i=1 i=1 = EX1 2 1 n n 2 EX i X j = i,j=1 = EX1 2 1 n EX2 1 1 n n 2 EX i X j = = i,j=1 i j ( 1 1 ) ( EX n n = n 1 n Var(X 1). n n 1 T n(x 1,..., x n ) = 1 n 1 ) (EX 1 ) 2 = n (x i x (n) ) 2 eine erwartungstreue und konsistente Schätzung für die Varianz ist Maximum-Likelihood-Prinzip Wir kommen nun zu einer systematischen Methode zur Konstruktion von Schätzern. Im Folgenden sei X 1,..., X n eine Stichprobe zur unbekannten Verteilung P ϑ. Diskrete Verteilung. Wir nehmen an, dass es sich für jedes ϑ Θ bei P ϑ um eine diskrete Verteilung handelt, also eine abzählbare Borel-Menge B B(R) mit P ϑ (B) = 1 existiert. Beispiel 6.4 (Eisessen am Nachmittag) Eine Eisdiele interessiert sich für die Anzahl der Kunden, welche im August während der Nachmittagszeit, d. h. zwischen Uhr und Uhr, ein Eis kaufen. Geht man davon aus, dass im Einzugsbereich der Eisdiele insgesamt N Kunden leben, welche sich i=1

208 Schätzen unbeeinusst voneinander mit Wahrscheinlichkeit p (0, 1) entscheiden, um die Nachmittagszeit ein Eis essen zu gehen, so ist es naheliegend, die zufällige Anzahl der Kunden durch eine Binomialverteilung mit Parametern N und p zu modellieren. Da N hier groÿ sein wird, bietet es sich an, diese Binomialverteilung durch eine Poisson-Verteilung mit Parameter λ = Np zu approximieren, vgl. Aufgabe (6.4). Wir nehmen also an, die Anzahl X der Kunden zur Nachmittagszeit ist π λ -verteilt, d. h. für k N 0 gilt P X ({k}) = λk k! e λ. In den vergangen n = 8 Tagen kamen während der Nachmittagszeit x 1 = 36, x 2 = 39, x 3 = 24, x 4 = 9, x 5 = 15, x 6 = 13, x 7 = 35, x 8 = 21 Kunden. Wie schätzt man nun λ durch x 1,..., x 8? Da man für jedes ϑ Θ ein anderes Verteilungsmodell erhält, besteht die Idee beim Maximum-Likelihood 1 -Prinzip darin, jenes ϑ Θ als Schätzer zu wählen, für das die Wahrscheinlichkeit P (X 1 = x 1,..., X n = x n ) maximal wird. Man wählt also jenes ϑ Θ, für welches die Wahrscheinlichkeit, dass x 1,..., x n eine Realisierung der Stichprobe X 1,..., X n zur Verteilung P ϑ ist, maximal wird. Aus der Unabhängigkeit der X 1,..., X n folgt P (X 1 = x 1,..., X n = x n ) = P n ϑ ({(x 1,..., x n )}) = n P ϑ ({x i }) =: L(ϑ; x 1,..., x n ), wobei L( ; x 1,..., x n ) Likelihood-Funktion genannt wird. Man verwendet bei der Maximum-Likelihood-Methode nun i=1 ϑ(x 1,..., x n ) := arg max ϑ Θ L(ϑ; x 1,..., x n ) als Schätzer, sofern die rechte Seite existiert und eindeutig ist. Beispiel 6.5 (Fortsetzung von Beispiel 6.4) In diesem Fall lautet die Likelihood-Funktion n λ x i n L(λ; x 1,..., x n ) = x i! e λ = e nλ i=1 1 Jean-Claude Van Likelihood, , japanischer Ornithologe i=1 λ x i x i!.

209 6. Schätzen 199 Anstatt der Likelihood-Funktion maximieren wir die logarithmierte Likelihood-Funktion log L(λ; x 1,..., x n ) = nλ + log λ Wie man leicht sieht, ergibt sich somit als Schätzer n x i i=1 λ(x 1,..., x n ) = x (n), n log(x i!). also gerade der empirische Mittelwert. Damit erhält man aufgrund des Datensatzes aus Beispiel 6.4 als Schätzung für λ. λ(x 1,..., x 8 ) = 24 Beispiel 6.6 (Rückfangmethode) Wir wollen nun die unbekannte Anzahl von N Fischen in einem Teich mittels der Rückfangmethode schätzen. Dazu werden zuerst F 1 Fische gefangen und mit roter Farbe markiert. Nach einiger Zeit werden dann erneut F 2 < F 1 Fische gefangen und es werden darunter r rot markierte Fische gezählt. Es sei R jene Zufallsvariable, welche die Anzahl der rot markierten Fische im zweiten Fang angibt. Dann gilt ) P(R = r) = H F2,N,F 1 ({r}) = i=1 ( F1 )( N F1 r F 2 r ( N F 2 ), R ist also hypergeometrisch verteilt. Unter Zuhilfenahme von R bestimmen wir nun den Maximum-Likelihood-Schätzer N für die Anzahl N der Fische im Teich, indem wir die Likelihood-Funktion L(N; r) = P(R = r) maximieren und zwar für die konkreten Daten F 1 = 500, F 2 = 250 und r = 17. > F1 =500; F2 =250; r =17; N = F1 :1 e5 > L = dhyper (r, F1,N - F1, F2 ) > N [ which. max ( L ) ] [1] 7352 Kontinuierliche Verteilung. Nun nehmen wir an, dass für jedes ϑ Θ die Verteilung P ϑ eine Dichte f ϑ : R [0, ) bezüglich des Lebesgue-Maÿes besitzt. Da in dieser Situation P n ϑ ({(x 1,..., x n )}) = 0

210 Schätzen für alle x 1,..., x n R, ist es natürlich nicht sinnvoll, ϑ durch Maximierung dieser Wahrscheinlichkeit zu schätzen. Stattdessen nimmt man vereinfacht die Wahrscheinlichkeit, dass die beobachteten Werte tatsächlich eine Realisierung der Stichprobe X 1,..., X n zu P ϑ sind, als direkt proportional zu den Werten der Dichte f ϑ an den Datenpunkten an und deniert in diesem Fall die Likelihood-Funktion durch L(ϑ; x 1,..., x n ) := n f ϑ (x i ). Der Maximum-Likelihood-Schätzer ist dann wiederum durch i=1 ϑ(x 1,..., x n ) := arg max ϑ Θ L(ϑ; x 1,..., x n ) gegeben, sofern die rechte Seite existiert und eindeutig ist. Beispiel 6.7 (Rote Ampel) Student T. fährt immer mit dem Fahrrad zur Uni, auf dem Weg muss er häug an einer Ampel halten. Die letzten n = 8 Wartezeiten in Sekunden betrugen x 1 = 49, x 2 = 54, x 3 = 49, x 4 = 37, x 5 = 43, x 6 = 28, x 7 = 55, x 8 = 21. Es bezeichne t > 0 die Dauer der Rotphase in Sekunden. Die zufällige Wartezeit wird als gleichverteilt auf dem Intervall [0, t] angenommen. Wie kann ausgehend vom obigen Datensatz die Dauer t der Rotphase geschätzt werden? Die Gleichverteilung U [0,t] besitzt die Dichte f t = 1 t χ [0,t]. Wir maximieren daher die Likelihood-Funktion L(t) = n f t (x i ) = i=1 und erhalten somit als Schätzer n i=1 { 1 t χ t n, t max{x 1,..., x n }, [0,t](x i ) = 0, t < max{x 1,..., x n }, t = max{x 1,..., x n }. Damit ergibt sich für obige Daten t = 55.

211 6. Schätzen Konfidenzschätzung Eine Punktschätzung liefert natürlich im Allgemeinen nicht exakt den zu schätzenden Wert g(ϑ 0 ) und daher erscheint es sinnvoll, die Genauigkeit des Schätzverfahrens mit anzugeben. Für die Genauigkeit eines erwartungstreuen Schätzers ist etwa dessen Standardabweichung ein sinnvolles Maÿ. In vielen Fällen wird jedoch im Vorhinein kein Hinweis auf die Genauigkeit gegeben sein. Bei einer Kondenzschätzung wird nun die Genauigkeit des Schätzverfahrens direkt in die Schätzung miteinbezogen. Wie im vorherigen Abschnitt nehmen wir an, dass die Verteilung der gegebenen Stichprobe aus einer Menge {P ϑ : ϑ Θ} von Verteilungen stammt. Ziel einer Kondenzschätzung ist es, mittels einer Stichprobe X 1,..., X n zu P ϑ0 zufällige Menge eine I(X 1,..., X n ) R zu konstruieren, welche g(ϑ 0 ) mit hoher Wahrscheinlichkeit enthält. In den Fällen, welche wir betrachten werden, wird es sich hierbei stets um ein Intervall handeln. Dabei wäre zweifelsohne wünschenswert, wenn die Wahrscheinlichkeit P (g(ϑ 0 ) I(X 1,..., X n )) möglichst groÿ wäre und die Menge I(X 1,..., X n ) möglichst klein. Diese beiden Eigenschaften werden natürlich nur bis zu einem gewissen Grad miteinander vereinbar sein. Definition 6.8 (Konfidenzintervall) Es sei α (0, 1). Ein Intervall I α (X 1,..., X n ) R heiÿt Kondenzintervall zum Kondenzniveau 1 α, wenn für alle ϑ Θ und für alle Stichproben X 1,..., X n zu P ϑ gilt, dass P (g(ϑ) I α (X 1,..., X n )) 1 α. Zur Berechnung von Kondenzintervallen werden wir sogenannte Quantile verwenden. Definition 6.9 (Quantilfunktion und Quantil) Es sei P eine Verteilung mit Verteilungsfunktion F P. Dann nennt man die durch G P (α) := min{x R: F P (x) α} für α (0, 1) denierte Abbildung die Quantilfunktion der Verteilung P. Des Weiteren nennt man für α (0, 1) den Wert G P (α) das α-quantil von P.

212 Schätzen Bemerkung. Die Menge, von welcher in obiger Denition das Minimum gebildet wird, ist nicht leer und das Minimum existiert, vgl. Aufgabe (6.12). Ist P die Standardnormalverteilung, so bezeichnen wir das zugehörige α-quantil mit Φ α. α-quantil der Standardnormalverteilung (α = 0.9) 1 2π e x2 / α 1 α Φ α x Das α-quantil der Standardnormalverteilung erhält man in R mit qnorm(α). > qnorm (0.9) [1] Konfidenzintervall für den Erwartungswert bei bekannter Varianz Im folgenden Beispiel bestimmen wir ein Kondenzintervall für den Erwartungswert bei bekannter Varianz unter der Annahme, dass eine normalverteilte Stichprobe vorliegt. Beispiel 6.10 (Genug Milch, σ 2 bekannt) Beim Abfüllen von Milch in n = 100 Ein-Liter-Packungen wurde eine mittlere Abfüllmenge von x = 0.97 Litern gemessen. Aus Erfahrung weiÿ man, dass die Abfüllmenge normalverteilt mit Standardabweichung σ 2 = 0.02 ist. Wie bestimmt man daraus ein möglichst kleines Intervall, welches die mittlere Abfüllmenge mit Wahrscheinlichkeit gröÿer oder gleich 1 α = 0.95 überdeckt?

213 6. Schätzen 203 Es sei X 1,..., X n eine N (µ, σ 2 )-verteilte Stichprobe, wobei der Erwartungswert µ R unbekannt ist. Dann ist die Zufallsvariable Z := 1 nσ n (X i µ) i=1 standardnormalverteilt, vgl. Aufgabe (6.17) bzw. Satz Man beachte, dass die Zufallsvariable Z zwar vom unbekannten Parameter µ abhängt, jedoch nicht ihre Verteilung P Z. Man nennt daher Z einen stochastischen Pivot. Nun gilt P ( Z Φ 1 α/2 ) = Φ ( Φ1 α/2 ) Φ ( Φ1 α/2 ) = 1 α, wobei Φ wiederum die Verteilungsfunktion der Standardnormalverteilung bezeichnet. Weiters ist Z Φ 1 α/2 X σ n Φ 1 α/2 µ X + σ n Φ 1 α/2 und daher erhalten wir I α (X 1,..., X n ) = [X n σ Φ 1 α/2, X + n σ ] Φ 1 α/2 als Kondenzintervall zum Kondenzniveau 1 α. Somit ist I α [0.9423, ] ein Kondenzintervall für die am Anfang des Beispiels gegebenen Daten. Man beachte, dass 1 / I α. Die mittlere Abfüllmenge entspricht vermutlich also nicht der Angabe auf der Packung. Bemerkung. Nach dem Zentralen Grenzwertsatz gilt lim n 1 nσ n (X i µ) N 0,1. i=1 Daher ist für einen groÿen Stichprobenumfang n der verwendete stochastische Pivot annährend standardnormalverteilt und man erhält selbst für nicht normalverteilte Daten ein approximatives Kondenzintervall.

214 Schätzen Statistische Gröÿen normalverteilter Daten Die Annahme, dass im vorangegangen Beispiel die Varianz bekannt sei, ist unrealistisch. Um unter anderem ein Kondenzintervall für den Erwartungswert auch bei unbekannter Varianz zu bestimmen, benötigen wir zuerst einige Resultate über die Verteilung von Gröÿen, welche sich aus normalverteilten Daten ableiten lassen. Definition 6.11 (χ 2 -Verteilung und t-verteilung) Es sei X 1,..., X n eine standardnormalverteilte Stichprobe. (1) Die Verteilung der Zufallsvariablen n i=1 heiÿt Chi-Quadrat-Verteilung mit n Freiheitsgraden (kurz: χ 2 n-verteilung). (2) Es seien X und Y unabhängige Zufallsvariable mit X N (0, 1) und Y χ 2 n. Dann heiÿt die Verteilung der Zufallsvariablen X 2 i X Y/n Student 2 -t-verteilung mit n Freiheitsgraden (kurz: t n -Verteilung). Die folgenden beiden Lemmata dienen der Vorbereitung auf Satz 6.14 und Satz Lemma 6.12 (Zufallsvektor mit unabhängigen Komponenten und Dichten) Es seien X und Y unabhängige Zufallsvariablen mit zugehörigen Dichten f X und f Y bezüglich des Lebesgue-Maÿes. Dann besitzt der Zufallsvektor (X, Y ) die Dichte bezüglich λ 2. f (X,Y ) = f X f Y Beweis. Es seien x, y R. Die Aussage folgt direkt aus [ ] F (X,Y ) (x, y) = X und Y unabhängig = F X (x)f Y (y) = ˆ = f X (s)f Y (t) dλ 2 (s, t), (,x] (,y] wobei die letzte Gleichheit nach dem Satz von Fubini-Tonelli gilt. 2 William Sealy Gosset, , englischer Statistiker, publizierte unter dem Pseudonym Student

215 6. Schätzen 205 Lemma 6.13 Es seien Y 1,..., Y n unabhängige standardnormalverteilte Zufallsvariable und A R n n eine orthogonale Matrix, d. h. A T A = I. Setzt man Z 1. Z n := A Y 1. Y n, so sind Z 1,..., Z n ebenfalls unabhängig und standardnormalverteilt. Beweis. Es seien z 1,..., z n R. Für I := (, z 1 ]... (, z n ], Y := [Y 1,..., Y n ] T und Z := [Z 1,..., Z n ] T gilt ) ˆ = ( F Z (z 1,..., z n ) = P(Z I) = P Y A T I ˆ = I ˆ = I ) f Y (A T x det A T dλ(x) = }{{} =1 f Y (x) dλ(x) und damit ist die Aussage des Lemmas gezeigt. A T I f Y (y) dλ(y) = [ f Y (A T x) = f Y (x) [ ] y = A T x = Der nächste Satz zeigt auf, welche statistischen Gröÿen die in Definition 6.11 eingeführten Verteilungen besitzen. Für eine Stichprobe X 1,..., X n bezeichne im Folgenden stets ] = X := 1 n n i=1 X i bzw. S 2 := 1 n 1 n (X i X) 2 i=1 das Stichprobenmittel bzw. die Stichprobenvarianz. Satz 6.14 (Eigenschaften und Verteilungen statistischer Gröÿen) Es sei X 1,..., X n eine N (µ, σ 2 )-verteilte Stichprobe. Dann gilt: (1) X und S 2 sind unabhängig (2) X ist N (µ, σ 2 /n)-verteilt (3) n 1 S 2 ist χ 2 σ 2 n 1 -verteilt (4) X µ S n ist tn 1 -verteilt

216 Schätzen Beweis. Für i = 1,..., n setzen wir Y i := X i µ, σ dann ist Y 1,..., Y n eine standardnormalverteilte Stichprobe. Wir wählen nun eine orthogonale Matrix A mit erster Zeile A 1 = 1 n [1,..., 1] und setzen Z = Z 1. Z n := AY, wobei Y = [Y 1,..., Y n ] T. Nach Lemma 6.13 ist auch Z 1,..., Z n eine standardnormalverteilt Stichprobe. Oensichtlich gilt Auÿerdem ist n Zi 2 = Z 2 2 = Y 2 2 = i=1 X = σ n n i=1 n Y i + µ = σ A 1 Y + µ = n i=1 = σ n Z 1 + µ Y 2 i. ( ) und S 2 = 1 n 1 = σ2 n 1 = σ2 n 1 ( n n (X i X) 2 = σ2 n 1 i=1 i=1 ( ) 2 n Yi 2 1 n Y i n i=1 n Zi 2, i=2 i=1 woraus sich die Behauptungen leicht ableiten lassen. Y 2 i ny 2 ) = ( ) = σ2 ( n ) Zi 2 Z1 2 = n 1 Wie in nachfolgendem Satz gezeigt wird, besitzen die χ 2 -Verteilung und die t-verteilung Dichten bezüglich des Lebesgue-Maÿes. i=1

217 6. Schätzen 207 Satz 6.15 (Dichte der χ 2 -Verteilung und der t-verteilung) Es sei n N. (1) Die χ 2 n-verteilung hat die Dichte f ( x ; χ 2 ) x n/2 1 e x/2 n = H(x) 2 n/2 Γ ( ) n, x R, 2 wobei Γ die Eulersche Gammafunktion bezeichnet. (2) Die t n -Verteilung hat die Dichte f (x ; t n ) = Γ ( ) n+1 2 ( nπγ n ) 2 ) (n+1)/2 (1 + x2, x R. n Beweis. Man erhält die Dichten durch Übergang auf die jeweiligen Bildmaÿe. (1) Sei X 1,..., X n eine standardnormalverteilte Stichprobe, dann ist Z := n Xi 2 χ 2 n. i=1 Oensichtlich ist F Z (t) = 0 für t 0. Für t > 0 gilt F Z (t) = P ( X X 2 n t ) = ({ = P (X1,...,X n) z R n : z 2 2 t }) = ˆ = { z 2 t} f (X 1,...,X n)(z) dλ(z) = ˆ [ ] = (2π) n/2 { z 2 t} e z 2 2 /2 dλ(z) = Kugelkoordinaten = = (2π) n/2 S n 1 ˆ t [ ] r n 1 e r2 /2 dr = S n 1 = 2πn/2 = Γ(n/2) 2 = 2 n/2 Γ(n/2) = ˆ t 0 0 ˆ t 0 x n/2 1 e x/2 2 n/2 Γ(n/2) dx, womit die Behauptung gezeigt ist. r n 1 e r2 /2 dr = [ x = r 2] =

218 Schätzen (2) Es seien X N (0, 1) und Y χ 2 n unabhängig. Nach Denition der t-verteilung ist Z := X t n. Y/n Für t R erhalten wir ( F Z (t) = P X t Y n ) = = P (X,Y ) ({(x, y) R R 0 : x t = ˆ 0 = 1 ˆ n ˆ t y/n f X (x)f Y (y) dx dy = ˆ t 0 f X (z y n ˆ t ˆ y n }) = [ x = z y n [ ] Fubini-Tonelli = ] = ) f Y (y) [ ] y dz dy = Fubini-Tonelli = 1 = 2 n/2 Γ(n/2) e y(1+z2 /n)/2 y (n 1)/2 dy dz = 2πn 0 [ = u = y )] (1 + z2 = 2 n ˆ 1 t ) (n+1)/2 ˆ = (1 + z2 dz e u u (n+1)/2 1 du = nπγ(n/2) n 0 ˆ t Γ ( ) n+1 ) (n+1)/2 2 = ( nπγ n ) (1 + z2 dz n 2 und somit die behauptete Dichte Dichte der χ 2 n-verteilung f ( x ; χ 2 ) n n = 1 n = 2 n = 3 n = 5 n = f (x ; t n ) Dichte der t n -Verteilung n = 1 n = 3 n = x x

219 6. Schätzen Konfidenzintervall für den Erwartungswert bei unbekannter Varianz Wir greifen Beispiel 6.10 nochmals auf und bestimmen nun ein Kondenzintervall für den Erwartungswert bei unbekannter Varianz. Beispiel 6.16 (Genug Milch, σ 2 unbekannt) Dieses Mal sei die Varianz unbekannt, wir schätzen diese durch die Stichprobenvarianz Nach Satz 6.14 ist S 2 = 1 n 1 n ( Xi X ) 2. i=1 S 2 σ2 n 1 χ2 n 1 und damit folgt aus der Unabhängigkeit von X und S 2, dass Z := X µ n tn 1. S Aufgrund der Symmetrie der stetigen Dichte der t-verteilung ist P µ ( Z tn 1;1 α/2 ) = 1 α, wobei t n 1;1 α/2 das (1 α/2)-quantil der t n 1 -Verteilung bezeichnet. Umformungen in Analogie zu Beispiel 6.10 führen auf das Kondenzintervall ] S S I α (X 1,..., X n ) = [X t n 1;1 α/2 n, X + t n 1;1 α/2 n. Wir nehmen nun an, dass in Beispiel 6.10 s 2 = 0.02 gemessen wurde. Zusammen mit den restlichen Daten erhält man dann das Kondenzintervall x = 0.97, n = 100 und α = 0.05 I α [0.9419, ]. > x. mean =0.97; s = sqrt (0.02) ; n =100; alpha =0.05 > breite = qt (1 - alpha / 2,n -1) * s / sqrt ( n ) > c ( x. mean - breite, x. mean + breite ) [1]

220 Schätzen Da die Varianz als unbekannt vorausgesetzt wurde, ist dieses Intervall etwas gröÿer als jenes in Beispiel f (x ; N 0,1 ) f (x ; t 1 ) f (x ; t 3 ) x Vergleich: Standardnormalverteilung und t n -Verteilung Wir fassen die Ergebnisse von Beispiel 6.10 und Beispiel 6.16 wie folgt zusammen. Zweiseitige Kondenzintervalle zum Kondenzniveau 1 α für den Erwartungswert µ für eine normalverteilte Stichprobe X 1,..., X n σ 2 bekannt: σ 2 unbekannt: [ X Φ1 α/2 σ/ n, X + Φ 1 α/2 σ/ n ] [ X tn 1;1 α/2 S/ n, X + t n 1;1 α/2 S/ n ] Dabei bezeichnet wiederum Φ 1 α/2 bzw. t n 1;1 α/2 das (1 α/2)-quantil der Standardnormalverteilung bzw. der t n 1 -Verteilung. Im Allgemeinen kann man natürlich nicht von normalverteilten Daten ausgehen. Nach dem Zentralen Grenzwertsatz gilt jedoch für das oben angegebene Kondenzintervall I α (X 1,..., X n ) bei bekannter Varianz σ 2, dass ( ) lim P (µ I α(x 1,..., X n )) = lim P 1 n (X i µ) n n nσ Φ 1 α/2 = 1 α für alle Stichproben {X n } n=1 mit EX 1 = µ und Var(X 1 ) = σ 2 > 0. Da S 2 ein konsistenter Schätzer für σ 2 ist, gilt dies auch für das obige Kondenzintervall bei unbekannter Varianz. Man erhält also ein approximatives Kondenzintervall, selbst wenn die Daten nicht normalverteilt sind. Um die Güte dieser Approximation bei gegebenem Stichprobenumfang n zu beurteilen, bedarf es jedoch einer sorgfältigen Analyse der zugrundelie- i=1

221 6. Schätzen 211 genden Verteilung. In vielen Fällen wird man jedoch auf andere Verfahren zurückgreifen. Weiters erkennt man an den obigen Beispielen das Prinzip, nach dem häug Kondenzintervalle konstruiert werden: [ Punktschätzer ± Quantil Standardabweichung des Punktschätzers ] Bemerkung. Die Konstruktion einseitiger Kondenzintervalle erfolgt analog zur Bestimmung zweiseitiger Kondenzintervalle, vgl. Aufgabe (6.18). Beispiel 6.17 (Konfidenzschätzung einer Binomialwahrscheinlichkeit) Ein Eier-Produzent sieht sich dem Vorwurf ausgesetzt, dass seine Eier mit Salmonellen belastet sind. Um den Anteil der inzierten Eier abzuschätzen, wurden n = 100 Stück auf Salmonellen getestet, dabei el der Test in drei Fällen tatsächlich positiv aus. Man bestimme ein approximatives Kondenzintervall zum Kondenzniveau 1 α = 0.95 für den Anteil der mit Salmonellen belasteten Eier. Es sei X 1,..., X n eine B 1,p -verteilte Stichprobe. Wie wir bereits wissen, ist p = X ein erwartungstreuer und konsistenter Schätzer für p. Da schätzen wir die Varianz durch Die Verteilung von Var( p) = σ 2 = p(1 p) n p(1 p) n., Z := p p p(1 p) n wird für einen genügend groÿen Stichprobenumfang n gut durch die Standardnormalverteilung approximiert. Als Faustregel gilt, dass die Bedingung np(1 p) 9 erfüllt sein sollte. Damit ist ( p(1 p) P p Φ 1 α/2 n ) p(1 p) p p + Φ 1 α/2 1 α n

222 Schätzen und wir erhalten somit für p das approximative Kondenzintervall [ ] p(1 p) p(1 p) I α (X 1,..., X n ) = p Φ 1 α/2, p + Φ n 1 α/2. n Es ergibt sich I α [ 0.003, 0.063] für die am Anfang des Beispiels gegebenen Daten Konfidenzintervalle für die Varianz Wir kommen nun zur Konstruktion von Kondenzintervallen für die Varianz. Beispiel 6.18 (Zweiseitiges Konfidenzintervall für die Varianz) Es sei X 1,..., X n eine normalverteilte Stichprobe mit Var(X 1 ) = σ 2 > 0. Nach Satz 6.14 ist Z := 1 n ( Xi σ 2 X ) 2 i=1 χ 2 n 1 -verteilt. Bezeichne χ2 n 1;α/2 bzw. χ2 n 1;1 α/2 das α/2-quantil bzw. das (1 α/2)- Quantil der χ 2 n 1-Verteilung. Dann ist ) P σ (χ 2 n 1;α/2 Z χ2 n 1;1 α/2 = 1 α und somit [ n ( P σ (σ 2 i=1 Xi X ) 2 n ( i=1 Xi X ) ]) 2, = 1 α, χ 2 n 1;1 α/2 χ 2 n 1;α/2 damit ein Kondenzintervall für σ 2 bestimmt. Kondenzintervalle zum Kondenzniveau 1 α für die Varianz σ 2 bei normalverteilter Stichprobe X 1,..., X n Zweiseitig: Einseitig: [ n ( i=1 Xi X ) 2 /χ 2 n 1;1 α/2, n ( i=1 Xi X ) ] 2 /χ 2 n 1;α/2 [ 0, n ( i=1 Xi X ) ] 2 /χ 2 n 1;α Die Konstruktion eines einseitigen Kondenzintervalls für die Varianz verläuft in völliger Analogie zu Beispiel 6.18, vgl. Aufgabe (6.20).

223 6. Schätzen 213 Übungsaufgaben (6.1) Zeigen Sie, dass das Stichprobenmittel T n (X 1,..., X n ) = 1 n ein erwartungstreuer und konsistenter Schätzer für den Erwartungswert der Stichprobe X 1,..., X n ist. (6.2) Zeigen Sie, dass T n (X 1,..., X n ) = 1 n n i=1 X i n (X i X (n) ) 2 eine konsistente Schätzung für die Varianz der Stichprobe X 1,..., X n ist. (6.3) Sei X 1,..., X n eine Stichprobe zur Gleichverteilung auf [ϑ, 2ϑ], d.h. X 1 besitzt die Dichte f ϑ : R [0, ): x (a) Zeigen Sie, dass der Schätzer i=1 { 1 ϑ, x [ϑ, 2ϑ], 0, sonst. T n (X 1,..., X n ) = 2 3n ein erwartungstreuer Schätzer für ϑ ist. (b) Ist der Schätzer auch konsistent? (6.4) Es seien λ > 0 und (p n ) n N [0, 1] N mit Für festes k N zeige man, dass lim np n = λ. n n i=1 X i lim B n,p n n ({k}) = λk k! e λ = π λ ({k}). (6.5) Gute Birne: Die Lebensdauer einer Glühbirne hängt lediglich von der Anzahl der Ein- und Ausschaltvorgänge ab. Die Wahrscheinlichkeit, dass eine Glühbirne beim k-ten Einschaltvorgang ausfällt, sei p k 1 (1 p),

224 Schätzen wobei p (0, 1). Die Güte eines Glühbirnentyps steht in direktem Zusammenhang mit p und soll dadurch bestimmt werden, dass n Glühbirnen solange ein- und ausgeschaltet werden, bis diese alle versagen. Eine solcher Test ergab die Werte x 1,..., x n N, wobei die i-te Glühbirne beim x i -ten Einschaltvorgang ausgefallen ist. Bestimmen Sie durch Anwendung des Maximum-Likelihood-Prinzips eine Schätzung für p. (6.6) Unzuverlässige Theaterbesucher: Ein Theaterbetreiber möchte wissen, welcher Anteil der reservierten Karten im Schnitt auch tatsächlich gekauft wird. Dazu bezeichne X die Anzahl der gekauften reservierten Karten. Zu einer Auührung werden stets n = 200 Karten reserviert. Wir nehmen an, dass jede einzelne Person, die eine Karte reserviert hat, unbeeinusst von den anderen Personen die Karte mit Wahrscheinlichkeit p [0, 1] kauft. Dann ist X B n,p. Bei den letzen 12 Auührungen wurden x 1 = 109, x 2 = 151, x 3 = 104, x 4 = 132, x 5 = 149, x 6 = 143, x 7 = 113, x 8 = 144, x 9 = 98, x 10 = 127, x 11 = 149, x 12 = 124 der n = 200 reservierten Karten gekauft. Konstruieren Sie mit Hilfe des Maximum-Likelihood-Prinzips ausgehend von diesem Datensatz eine Schätzung für p und überprüfen Sie das Ergebnis durch Maximierung der Likelihood-Funktion in R. (6.7) German tank problem: Im Zweiten Weltkrieg wurden die deutschen Panzer mit aufsteigenden Seriennummern versehen. Diese wurden von den Alliierten benutzt um die Gröÿe der gegnerischen Streitmacht zu schätzen. Wir modellieren diesen Sachverhalt folgendermaÿen: Die Stichprobe X 1,..., X n repräsentiere n Seriennummern gesichteter, deutscher Panzer. Bei einer Gesamtanzahl von N Panzern nehmen wir an, dass die Stichprobe gleichverteilt auf {1,..., N} ist. Was ist der Maximum-Likelihood-Schätzer für N? Zeigen Sie durch eine geeignete Wahl von n und N, dass dieser Schätzer im Allgemeinen nicht erwartungstreu ist. (6.8) Wirtschaftswissenschaftler W. möchte die Dauer von Arbeitslosigkeit modellieren. Dazu beschreibt er diese durch eine Exponentialverteilung mit Parameter λ > 0, d. h. die Dauer X von Arbeitslosigkeit hat die Dichte f(x) = H(x)λe λx, wobei H die Heaviside-Funktion bezeichnet. Zur Schätzung des unbekannten Parameters λ > 0, bekommt er vom Arbeitsamt für vier zufällig herausgegriene Arbeitslose die Information, dass diese x 1 = 12, x 2 = 2, x 3 = 18, x 4 = 8

225 6. Schätzen 215 Monate nach Verlust ihres bisherigen Arbeitsplatzes eine neue Arbeitsstelle gefunden haben. (a) Konstruieren Sie den Maximum-Likelihood-Schätzer für λ. (b) Zeige Sie, dass ein konsistenter Schätzer ist. T n (X 1,..., X n ) = n n i=1 X i (6.9) Die Dichte der Rayleigh-Verteilung ist für λ > 0 gegeben durch xe x2 2λ f(x) =, x 0, λ 0, x < 0. Berechnen Sie den Maximum-Likelhood-Schätzer für den Verteilungsparameter λ. (6.10) Pareto 3 -Verteilung: Für ξ > 0 und λ > 0 betrachten wir die Dichte f : R R: x { λξ λ, x λ+1 x ξ 0, x < ξ. Die unbekannten Parameter ξ und λ sollen mittels der Daten x 1,..., x n geschätzt werden. (a) Zeigen Sie, dass ξ = min x i der Maximum-Likelihood-Schätzer für ξ ist. i=1,...,n (b) Bestimmen Sie den Maximum-Likelihood-Schätzer λ für λ. (c) Importieren Sie den Datensatz staedte.txt. (Diesen nden Sie unter http: //tobiashell.com.) Berechnen Sie ξ und λ. Plotten Sie anschlieÿend ein Histogramm der Daten (Klassenbreite 10 5 ) und die Dichte f. (6.11) Es sei x 1,..., x n eine Realisierung der N (µ, σ 2 )-verteilten Stichprobe X 1,..., X n, wobei µ und σ unbekannt seien. Bestimmen Sie durch Anwendung des Maximum- Likelihood-Prinzips eine Schätzung für ϑ = (µ, σ 2 ). (6.12) Es sei F eine Verteilungsfunktion und α (0, 1). Zeigen Sie, dass die Menge nicht leer ist und ihr Minimum existiert. {x R: F (x) α} 3 Vilfredo Federico Pareto, , italienischer Ingenieur, Ökonom und Soziologe

226 Schätzen (6.13) Schreiben Sie eine R-Funktion, welche das Kondenzintervall zum Kondenzniveau 1 α für den Erwartungswert bei bekannter Varianz für normalverteilte Daten berechnet. (6.14) Dichte der Summe von Zufallsvariablen: Die Zufallsvariablen X und Y mit zugehörigen Dichten f X und f Y seien unabhängig. Zeigen Sie, dass die Summe Z = X + Y die Dichte f Z = f X f Y besitzt, wobei (f X f Y )(z) = R f X(t)f Y (z t) dt. (6.15) Zeigen Sie, dass die Summe unabhängiger normalverteilter Zufallsvariablen wiederum normalverteilt ist. Hinweis: Verwenden Sie Aufgabe (6.14). (6.16) In nachfolgender Tabelle ndet sich das Ergebnis der Erhebung des Merkmals Körpergröÿe bei den Spielern der Basketballteams GHP Bamberg und Bayer Giants Leverkusen sowie bei den Spielern der Fuÿballmannschaft SV Werder Bremen. Team n min max x s Bamberg Leverkusen Bremen Berechnen Sie für jedes Team 95%-Kondenzintervalle für die mittlere Körpergröÿe der Spieler und interpretieren Sie das Ergebnis. (6.17) Es sei X 1,..., X n eine N (µ, σ 2 )-verteilte Stichprobe. Zeigen Sie ohne Verwendung von Satz 6.14, dass standardnormalverteilt ist. Z := 1 nσ n (X i µ) i=1 (6.18) Gegeben sei eine normalverteilte Stichprobe X 1,..., X n. Bestimmen Sie eine obere Schranke zum Kondenzniveau 1 α für den Erwartungswert, d. h. ein Kondenzintervall der Form (, b], (a) bei bekannter Varianz, (b) bei unbekannter Varianz.

227 6. Schätzen 217 (6.19) Abwaschkrise: Um zu entscheiden, wer den Abwasch erledigen muss, wirft ein Pärchen nach jedem Essen eine Münze. Zeigt die Münze Kopf, so muss er sich um den Abwasch kümmern, bei Zahl ist sie an der Reihe. Nach n = 142 Würfen ist die Münze 53 mal auf Kopf gefallen. Bestimmen Sie ein approximatives 95%- Kondenzintervall für die Wahrscheinlichkeit, dass die Münze auf Kopf fällt, und interpretieren Sie das Ergebnis. (6.20) Konstruieren Sie aus einer normalverteilten Stichprobe einseitige Kondenzintervalle für die Varianz. (6.21) Konstruieren Sie in R normalverteilte Stichproben (z. B. zu N (5, 4)) von steigendem Stichprobenumfang zwischen 5 und Plotten Sie in geeigneter Weise die zugehörigen Kondenzintervalle zum Niveau 1 α = 0.9 (z. B. mittels der Funktion plotci aus dem package plotrix) (a) bei bekannter Varianz (b) bei unbekannter Varianz und vergleichen Sie die Intervallgröÿen. (6.22) Der Lebenskünstler Detlev hat in Panama eine alte Buslinie mit nur einem Linienbus erworben. Diese durchquert in wöchentlicher Routine einmal den Dschungel. Zur Berechnung der Kosten stellt er folgende Überlegungen an: Die Abweichungen X in der Ankunftszeit des Busses seien normalverteilt mit µ = 0 und σ 2 = 1 (in Tagen). Diese Informationen hat Detlev von dem Busfahrer bekommen, der die Strecke vorher befahren hat. Die Kosten eines zu frühen oder zu späten Eintreens steigen mit der Gröÿe der Abweichung gemäÿ 50X 2 $. (a) Mit welchen Kosten aufgrund von Unpünktlichkeit muss bei einer Fahrt mit einer Wahrscheinlichkeit von 0.75 gerechnet werden. (b) Mit welcher Wahrscheinlichkeit können zusätzliche Kosten von mehr als 250$ ausgeschlossen werden. (c) Wie groÿ ist die Wahrscheinlichkeit, dass bei wöchentlichen Fahrten die gesamten Extra-Kosten in einem halben Jahr (n = 26) höchstens etwa 2100$ und in einem Jahr (n = 52) höchstens 3100$ betragen, wenn man annimmt die Fahrten in verschiedenen Wochen seien voneinander unabhängig? (6.23) Die Abweichung X der planmäÿigen Ankunftszeiten der Stubaier-Straÿenbahnlinie seien t 10 -verteilt (in Minuten). (a) Wie groÿ ist die Wahrscheinlichkeit, dass eine Straÿenbahn maximal 0.7 Minuten von der fahrplanmäÿígen Ankunftszeit abweicht? (b) Zu welchem Zeitpunkt sollte man spätestens zur Haltestelle gehen, wenn man zu 90% die Straÿenbahn um 15:32 erreichen will?

228 Schätzen (c) In welchem (symmetrischen) Bereich bewegen sich 90% der Ankunftszeiten der Straÿenbahn? (d) Wie sehen die Ergebnisse der Aufgaben a) - c) aus, wenn man annimmt, die Ankunftszeiten seien standardnormalverteilt? (6.24) Zahnwachstum, revisited: Vergleichen Sie die Auswirkung der Menge von Vitamin- C-Gaben an Meerschweinchen auf ihr Zahnwachstum im Datensatz ToothGrowth in R mittels Kondenzintervallen zu den Kondenzniveaus α = 0.1, 0.05, Stellen Sie die Ergebnisse mit Hilfe des Befehls plotci dar und interpretieren Sie das Ergebnis. Welche Annahmen stecken hinter der Vorgehensweise (Verteilung etc.)? (6.25) Maximale Schneehöhen: Die maximale Schneehöhe eines Jahres bei einer Messstation folgen einer vorgegebenen Verteilung P mit stetiger Verteilungsfunktion F P. Die Zufallsvariable Z (j) bezeichne die maximale Schneehöhe im j-ten Beobachtungsjahr. Wir nehmen an, die maximalen Schneehöhen verschiedener Jahre seien unabhängig und identisch verteilt und betrachten die Stichprobe Z (1),..., Z (n) für n N. Die maximale Schneehöhe bis zum Jahr j ist dann Z j := max{z (1),..., Z (j) }. (a) Wie lautet die Verteilung von Z j und wie hängen F Zj und F Z (i) = F P zusammen? (b) Es bezeichne P p das p-quantil der Verteilung P für p (0, 1). Berechnen Sie das entsprechende Quantil der Verteilung von Z j. (c) Für die Verteilung von Extremwerten (z. B. der Z (j) ) hat sich die Gumbel 4 - Verteilung als geeignet erwiesen. Ihre Verteilungsfunktion für β > 0 und µ R ist druch F (x) = e e β 1 (x µ) für x R gegeben. Berechnen Sie die Quantilfunktion Q(p) zu F. (6.26) Pareto-Verteilung II: Der Datensatz badhealth.csv (zu nden auf http: //tobiashell.com) besteht aus einer Liste von Personen verschiedenen Alters, ihrem subjektiven Gesundheitszustand (0... gesund, 1... krank) und der Anzahl ihrer Arztbesuche im Untersuchungszeitraum. Wir betrachten die Anzahl der Arztbesuche jener Personen, die im Untersuchungszeitraum mindestens einmal einen Arzt aufgesucht haben und untersuchen die Anzahl der Arztbesuche in Abhängigkeit vom Gesundheitszustand (0 oder 1). Wir nehmen an, diese seien Pareto-verteilt (siehe Blatt 7) mit noch zu bestimmenden Parametern. 4 Emil Julius Gumbel, , deutsch-amerikanischer Mathematiker

229 6. Schätzen 219 (a) Bestimmen Sie mit den bereits konstruierten Maximum-Likelihood-Schätzern die Parameter λ i und ξ i für i = 1, 2 für Gesunde bzw. Kranke mit Hilfe von R. (b) Stellen Sie (relative) Histogramme der Arztbesuche und die entsprechenden Dichten der Paretoverteilungen dar. (6.27) Importieren Sie den Datensatz Fishing.csv (zu nden auf com) und betrachten Sie die Merkmale mode und income. Ersteres beschreibt die Art des Fischfangs (charter, boat, pier oder beach) und zweiteres den Gewinn. (a) Vergleichen Sie die Auswirkung von (mindestens) zwei Fangmethoden auf den Gewinn mittels Kondenzintervallen zu den Kondenzniveaus α = 0.1, 0.05, (b) Stellen Sie die Ergebnisse mit Hilfe des Befehls plotci dar und interpretieren Sie das Ergebnis. (c) Welche statistischen Grundannahmen stecken hinter der Vorgangsweise und sind diese gerechtfertigt? (6.28) Importieren Sie den Datensatz schneehoehe.csv (zu nden auf com), in welchem die maximalen Schneehöhen eines Jahres bei der Messstelle Achenkirch über mehrere Jahre hinweg aufgezeichnet wurden. Wir verwenden die Gumbel- Verteilung mit Parameter µ und β für die Verteilung der Schneehöhen. Für diese erhalten wir eine Schätzung mittels 6 β = S und µ = X γ β, π wobei S die Wurzel aus der Stichprobenvarianz und γ die Euler-Mascheroni-Konstante (in R mit -digamma(1)) bezeichnet. Berechnen Sie Schneehöhen h j, j = 1,..., 100 so, dass mit Wahrscheinlichkeit p = 0.01 das Maximum der Schneehöhen aus j Jahren gröÿer oder gleich h j ist. (6.29) χ 2 -Verteilung: Es sei X 1,..., X n eine standardnormalverteilte Stichprobe. Berechnen Sie die Wahrscheinlichkeit, dass der Zufallsvektor X = (X 1,..., X n ) in die euklidische Einheitskugel fällt, also P( X 2 1).

230 Schätzen Schulaufgaben Die nachfolgenden Aufgaben stammen, sofern keine weiteren Angaben gemacht werden, von (Stand: Februar 2013). (S6.1) Schwarzfahrer/innen: In einer Stadt fahren täglich ungefähr Personen mit der Straÿenbahn. Durchschnittlich werden täglich 1000 Personen kontrolliert, ob sie einen gültigen Fahrschein besitzen. Dabei wird festgestellt, dass 60 der kontrollierten Personen keinen gültigen Fahrschein haben. Jede/r ertappte Schwarzfahrer/in muss EUR 40, Strafe bezahlen und einen Fahrschein lösen. Wie hoch ist der durchschnittliche Verlust für die Verkehrsbetriebe durch Schwarzfahrer/innen in einem Jahr (365 Tage), wenn ein Fahrschein EUR 1,50 kostet? (S6.2) Quantile: Bestimme die p-quantile u p der standardisierten Normalverteilung (u-verteilung) für (a) p = 0.5, (b) p = 0.6, (c) p = 0.9, (d) p = 0.975, (e) p = 0.1, (f) p = (Timischl; Kaiser: Ingenieur-Mathematik 4, E. Dorner Verlag, 3. Auage, 2005, S. 261, Nr. 6.39) (S6.3) Würfeln: Ein Würfel wird 30-mal geworfen. Gib ein Intervall [x un, x ob ] an, in dem die Anzahl x der Sechserwürfe mit einer Wahrscheinlichkeit von 90% liegt. Dabei sollen die Anzahlen unter x un sowie über x ob zusammengenommen jeweils höchstens gleich 5% betragen. (Timischl; Kaiser: Ingenieur-Mathematik 4, E. Dorner Verlag, 3. Auage, 2005, S. 246, Nr. 6.23) (S6.4) Wahl: Bei einer Befragung von 2000 zufällig ausgewählten wahlberechtigten Personen geben 14 % an, dass sie bei der nächsten Wahl für die Partei Alternatives Leben stimmen werden. Aufgrund dieses Ergebnisses gibt ein Meinungsforschungsinstitut an, dass die Partei mit 12 % bis 16 % der Stimmen rechnen kann. Mit welcher Sicherheit kann man diese Behauptung aufstellen? (S6.5) Wellen: Bei Fertigung von Wellen erwies sich deren Durchmesser normalverteilt mit µ = mm und σ = 1.0 mm. Für den Durchmesser ist ein Höchstwert von 232.5mm vorgeschrieben. (a) Welcher Anteil übersteigt den Höchstwert? (b) Welchen Wert darf die Standardabweichung σ höchstens haben, sodass bei µ = mm der Überschreitungsanteil höchstens 0.5% ist? (c) Ermittle bei σ = 0.1 mm jenen symmetrisch um µ gelegenen Bereich, in den erwartungsgemäÿ 99% der Durchmesserwerte aller Wellen fallen!

231 6. Schätzen 221 (Timischl; Kaiser: Ingenieur-Mathematik 4, E. Dorner Verlag, 3. Auage, 2005, S. 262, Nr. 6.48) (S6.6) Dosiermenge: Für eine Dosiermenge gilt ein oberer Grenzwert von g. Die Dosiermenge kann als normalverteilt mit µ = g und σ = 0.05 g angesehen werden. (a) Wie groÿ ist der Überschreitungsanteil? (b) Wie groÿ darf (bei unverändertem µ) die Standardabweichung σ höchstens sein, wenn der Überschreitungsanteil 2% nicht übersteigen darf? (Timischl; Kaiser: Ingenieur-Mathematik 4, E. Dorner Verlag, 3. Auage, 2005, S. 262, Nr. 6.51) (S6.7) Vertrauensbereiche bei unterschiedlichen Vertrauensniveaus: Aus einer Fertigung mit gleichbleibender Auschussrate wird eine Zufallsstichprobe des Umfangs n = 80 entnommen; darunter werden x = 4 fehlerhafte Einheiten gefunden. Ermittle den zweiseitigen Vertrauensbereich für die Ausschussrate p der Fertigung zum Vertrauensniveau 1 α gleich (a) 90%, (b) 95%, (c) 99%. (Timischl; Kaiser: Ingenieur-Mathematik 4, E. Dorner Verlag, 3. Auage, 2005, S. 274, Bsp. 7.1) (S6.8) Vertrauensbereiche bei unterschiedlichem Stichprobenumfang: Ermittle den zweiseitigen Vertrauensbereich für die konstante Ausschussrate p einer Fertigung zum Vertrauensniveau 1 α = 95%, wenn eine Zufallsstichprobe des Umfangs (a) n = 80 entnommen wird, darunter x = 4 fehlerhafte Einheiten, (b) n = 320, darunter x = 16 fehlerhafte Einheiten. (Timischl; Kaiser: Ingenieur-Mathematik 4, E. Dorner Verlag, 3. Auage, 2005, S. 274, Bsp. 7.2) (S6.9) Vertrauensbereich für p Näherung durch die Normalverteilung: Aus einem gröÿeren Prüos wird eine Zufallsstichprobe von n = 1200 Einheiten entnommen; davon erweisen sich x = 30 fehlerhaft. Ermittle den zweiseitigen 99%-Vertrauensbereich für den Fehleranteil p im Prüos. (Timischl; Kaiser: Ingenieur-Mathematik 4, E. Dorner Verlag, 3. Auage, 2005, S. 275, Bsp. 7.3) (S6.10) Notwendiger Stichprobenumfang für Vertrauensbereich für µ: Ein Längenmaÿ ist normalverteilt mit σ = 0.2 mm. Eine Stichprobe des Umfangs n = 25 ergab x = 20.4 mm.

232 Schätzen (a) Ermittle den 95%-Vertrauensbereich für µ. (b) Für welchen Stichprobenumfang besitzt der 99%-Vertrauensbereich für µ die gleiche Länge wie jener aus (a)? (Timischl; Kaiser: Ingenieur-Mathematik 4, E. Dorner Verlag, 3. Auage, 2005, S. 283, Bsp. 7.8) (S6.11) Section Control: Der Begri Section Control (Abschnittskontrolle) bezeichnet ein System zur Überwachung von Tempolimits im Straÿenverkehr, bei dem nicht die Geschwindigkeit an einem bestimmten Punkt gemessen wird, sondern die Durchschnittsgeschwindigkeit über eine längere Strecke. Dies geschieht mithilfe von zwei Überkopfkontrollpunkten, die mit Kameras ausgestattet sind. Das Fahrzeug wird sowohl beim ersten als auch beim zweiten Kontrollpunkt fotogra- ert. Die zulässige Höchstgeschwindigkeit bei einer bestimmten Abschnittskontrolle beträgt 100 km/h. Da die Polizei eine Toleranz kleiner 3 km/h gewährt, löst die Section Control bei 103 km/h aus. Lenker/innen von Fahrzeugen, die dieses Limit erreichen oder überschreiten, machen sich strafbar und werden im Folgenden als Temposünder bezeichnet. Eine Stichprobe der Durchschnittsgeschwindigkeiten von zehn Fahrzeugen ist in der nachfolgenden Tabelle aufgelistet und im abgebildeten Boxplot dargestellt. v in km/h (a) Bestimmen Sie den arithmetischen Mittelwert x und die empirische Standardabweichung s der Durchschnittsgeschwindigkeiten in der Stichprobe! Kreuzen Sie die zutreende(n) Aussage(n) zur Standardabweichung an! Die Standardabweichung ist ein Maÿ für die mittlere Streuung um den arithmetischen Mittelwert. Die Standardabweichung ist immer ca. ein Zehntel des arithmetischen Mittelwerts. Die Varianz ist die quadrierte Standardabweichung.

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit

2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit 2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit a) Fortsetzungssatz, Eindeutigkeit Es wird gezeigt, dass jedes Prämaß µ auf einem Ring R zu einem Maß µ auf A(R) fortgesetzt werden kann, d.h. µ kann

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Grundbegrie der Wahrscheinlichkeitsrechnung

Grundbegrie der Wahrscheinlichkeitsrechnung Die Benutzung dieser Materialien ist auf Herbst 2017 beschränkt. Diese Hilfsmaterialien sind nur für unseren Studenten gemeint, dürfen also nicht weiterverteilt werden. Grundbegrie der Wahrscheinlichkeitsrechnung

Mehr

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis Stochastische Prozesse: Grundlegende Begriffe bei zufälligen Prozessen In diesem Abschnitt beschäftigen wir uns mit den grundlegenden Begriffen und Definitionen von Zufallsexperimenten, also Prozessen,

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Gegeben Menge Ω (Wahscheinlichkeitsraum, Menge aller möglichen Ausgänge eines Zufallsexperiments), Abbildung P : P(Ω) [0, 1] (Wahrscheinlichkeit): Jeder Teilmenge

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Kapitel 5 Stochastische Unabhängigkeit

Kapitel 5 Stochastische Unabhängigkeit Kapitel 5 Stochastische Unabhängigkeit Vorlesung Wahrscheinlichkeitsrechnung I vom SoSe 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 5.1 Das Konzept der stochastischen Unabhängigkeit. 1 Herleitung anhand

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 1. und 2. Vorlesung - 2017 Im Alltag... Laut den meteorologischen Vorhersagen wird es morgen regnen. Ob ich riskiere und die Wette verlieren werde? Ich werde mit Sicherheit gewinnen! Ist das wirklich unmöglich?

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Grundlagen der Wahrscheinlichkeitstheorie

Grundlagen der Wahrscheinlichkeitstheorie Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)

Mehr

Universität Leipzig, SoSo 2013

Universität Leipzig, SoSo 2013 Vorlesung Wahrscheinlichkeitstheorie I Universität Leipzig, SoSo 2013 Prof. Dr. Max v. Renesse renesse@uni-leipzig.de Sprechstunde: Di 13.15-14.45, A 337 Übungen: Mo 11.15 -- 12.45 A 314 K. Zimmermann

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Stochastik für Ingenieure

Stochastik für Ingenieure Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Skriptbausteine zur Vorlesung Maßtheorie

Skriptbausteine zur Vorlesung Maßtheorie Skriptbausteine zur Vorlesung Maßtheorie Vorlesender: Prof. Dr. Bernd Hofmann Der folgende Text soll die Nacharbeit der Vorlesung erleichtern und dabei an Definitionen, Sätze und Beispiele erinnern. Das

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten

Mehr

Teil II. Wahrscheinlichkeitsrechnung

Teil II. Wahrscheinlichkeitsrechnung Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

Teil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129

Teil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129 Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) Teil II Wahrscheinlichkeitsrechnung 5 Zufallsexperimente Ergebnisse Ereignisse Wahrscheinlichkeiten Deskriptive Statistik und Wahrscheinlichkeitsrechnung

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

5 Binomial- und Poissonverteilung

5 Binomial- und Poissonverteilung 45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1

Mehr

Inhaltsverzeichnis (Ausschnitt)

Inhaltsverzeichnis (Ausschnitt) 8 Messbarkeit und Bildwahrscheinlichkeit Inhaltsverzeichnis (Ausschnitt) 8 Messbarkeit und Bildwahrscheinlichkeit Messbare Abbildungen Bildwahrscheinlichkeit Deskriptive Statistik und Wahrscheinlichkeitsrechnung

Mehr

Übungen zur Wahrscheinlichkeitstheorie und Statistik

Übungen zur Wahrscheinlichkeitstheorie und Statistik Übungen zur Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank Blatt 0 vom 16. April 2012 Aufgabe 1 (Wahrscheinlichkeitsräume). Welche der folgenden Aussagen sind wahr? Begründen Sie jeweils

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Stochastik Approximationen der Binomialverteilung

Stochastik Approximationen der Binomialverteilung Stochastik Approximationen der Binomialverteilung Stefan Englert stefan.englert@gmx.net 21. April 2007 Inhaltsverzeichnis 1 Approximation von n! und b n,p (k) 2 2 Der Satz von de Moivre-Laplace 6 3 Die

Mehr

TU DORTMUND Sommersemester 2018

TU DORTMUND Sommersemester 2018 Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Diskrete Verteilungen

Diskrete Verteilungen KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder

Mehr

Musterlösung Analysis 3 - Maßtherorie

Musterlösung Analysis 3 - Maßtherorie Musterlösung Analysis 3 - Maßtherorie 10. März 2011 Aufgabe 1: Zum Aufwärmen (i) Zeige, dass die Mengensysteme {, X} und P(X) σ-algebren sind. Es sind jeweils nur die Charakteristika nachzuweisen. (1)

Mehr

Basiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)

Mehr

2.2 Ereignisse und deren Wahrscheinlichkeit

2.2 Ereignisse und deren Wahrscheinlichkeit 2.2 Ereignisse und deren Wahrscheinlichkeit Literatur: [Papula Bd., Kap. II.2 und II.], [Benning, Kap. ], [Bronstein et al., Kap. 1.2.1] Def 1 [Benning] Ein Zufallsexperiment ist ein beliebig oft wiederholbarer,

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der

Mehr

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: 24.01.2011 Autor: René Pecher Inhaltsverzeichnis 1 Permutation 1 1.1 ohne Wiederholungen........................... 1 1.2

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Sammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien

Sammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien Sammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien Prof. F. Merkl 23. Mai 2016 Zu Ihrer Information und als zusätzliches Übungsmaterial sind hier die Aufgaben

Mehr

Kapitel II - Wahrscheinlichkeitsraum

Kapitel II - Wahrscheinlichkeitsraum Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel II - Wahrscheinlichkeitsraum Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Unabhängigkeit Prof. Dr. Achim Klenke http://www.aklenke.de 6. Vorlesung: 02.12.2011 1/30 Inhalt 1 Wahrscheinlichkeit 2 2/30 Wahrscheinlichkeit

Mehr

Ausgewählte spezielle Verteilungen

Ausgewählte spezielle Verteilungen Ausgewählte spezielle Verteilungen In Anwendungen werden oft Zufallsvariablen betrachtet, deren Verteilung einem Standardmodell entspricht. Zu den wichtigsten dieser Modelle gehören: diskrete Verteilungen:

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Haug verwendet man die Denition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A \ B] = Pr[BjA] Pr[A] = Pr[AjB] Pr[B] : (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1 ; : : : ; A n

Mehr

7 Poisson-Punktprozesse

7 Poisson-Punktprozesse Poisson-Punktprozesse sind natürliche Modelle für zufällige Konfigurationen von Punkten im Raum Wie der Name sagt, spielt die Poisson-Verteilung eine entscheidende Rolle Wir werden also mit der Definition

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN

TECHNISCHE UNIVERSITÄT MÜNCHEN Prof. Dr. D. Castrigiano Dr. M. Prähofer Zentralübung 38. Einschränkung eines Maßes TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik Mathematik für Physiker 4 (Analysis 3) http://www.ma.tum.de/hm/ma9204

Mehr

Freie Universität Berlin Institut für Mathematik Winter Semester 2015/16 Stochastik 1 29 Oktober Material

Freie Universität Berlin Institut für Mathematik Winter Semester 2015/16 Stochastik 1 29 Oktober Material Freie Universität Berlin Institut für Mathematik Winter Semester 2015/16 Stochastik 1 29 Oktober 2015 Dozent: Prof. Tibor Szabó, Tutoren: Jan Corsten, Fabian Fumagalli, Yizheng Yuan Material Jede Woche

Mehr

Lemma (Eigenschaften elementarer Mengen) 1. Jede elementare Menge lässt sich als disjunkte Vereinigung halboffener Intervalle schreiben.

Lemma (Eigenschaften elementarer Mengen) 1. Jede elementare Menge lässt sich als disjunkte Vereinigung halboffener Intervalle schreiben. 12.3. DIE LEBESGUE ALGEBRA 19 Bemerkung 12.3.2 (Bezeichnungen) Im Buch von Bauer [2] werden elementare Mengen als Figuren bezeichnet. Wir folgen mit unserer Nomenklatur Rudin [15]. Natürlich kann man auf

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

KONSTRUKTION VON MASSEN

KONSTRUKTION VON MASSEN KONSTRUKTION VON MASSEN MARCUS HEITEL 1. Einleitung Wir wollen im Folgenden das Lebesguemaß konstruieren. Dieses soll die Eigenschaft λ ( [a, b = b a für a, b R besitzen. Nun ist ein Maß aber auf einer

Mehr

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19 Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Kapitel II - Wahrscheinlichkeitsraum

Kapitel II - Wahrscheinlichkeitsraum Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel II - Wahrscheinlichkeitsraum Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie Kapitel 4 Christoph Hindermann Vorkurs Mathematik 1 4.0 Motivation Wenn 100 Münzen geworfen werden, wie ist dann die Wahrscheinlichkeit, dass genau 50 davon Kopf zeigen? Angenommen, es befinden sich 300

Mehr

Mustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10

Mustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Mustererkennung: Wahrscheinlichkeitstheorie D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Definitionen (axiomatisch) Wahrscheinlichkeitsraum (Ω, σ, P), mit Ω Die Grundmenge, die Menge der elementaren

Mehr

σ-algebren, Definition des Maßraums

σ-algebren, Definition des Maßraums σ-algebren, Definition des Maßraums Ziel der Maßtheorie ist es, Teilmengen einer Grundmenge X auf sinnvolle Weise einen Inhalt zuzuordnen. Diese Zuordnung soll so beschaffen sein, dass dabei die intuitiven

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 08.01.2009 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 32 Einführung Wahrscheinlichkeit Verteilungen

Mehr

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin. Lemma 92 Beweis: Wir berechnen zunachst I 2 : I 2 = Z 1 I := e x2 =2 d x p = 2: 1 Z 1 1 Z 1 Z 1 = 1 1 Z 1 e x2 =2 d x 1 e (x2 +y 2 )=2 d x d y : e y2 =2 d y Wir gehen nun zu Polarkoordinaten uber und setzen

Mehr

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente... Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,

Mehr

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013 Reelle Analysis Vorlesungsskript Enno Lenzmann, Universität Basel 11. Oktober 2013 3 Fortsetzung von Prämassen zu Massen Der Begriff des Prämasses ist nicht ausreichend, um eine geschmeidige Integrationstheorie

Mehr

Stochastik Aufgaben zum Üben: Teil 2

Stochastik Aufgaben zum Üben: Teil 2 Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2

Mehr

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen

Mehr

Mathematische und statistische Methoden für Pharmazeuten

Mathematische und statistische Methoden für Pharmazeuten Mathematische und statistische Methoden für Pharmazeuten Josef Berger 11. Juni 2018 Dieses Manuskript enthält auszugsweise einige Teile der Vorlesung. Das Lesen des Manuskriptes ersetzt nicht den Besuch

Mehr

Kapitel N. Wahrscheinlichkeitsrechnung

Kapitel N. Wahrscheinlichkeitsrechnung Kapitel N Wahrscheinlichkeitsrechnung Inhalt dieses Kapitels N000 1 Diskrete Wahrscheinlichkeitsräume 2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 1 Produktexperimente 2 Kombinatorik und Urnenmodelle

Mehr

Zusammenfassung Stochastik

Zusammenfassung Stochastik Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr

12 Erwartungswerte. Erwartungswerte 111. Überblick

12 Erwartungswerte. Erwartungswerte 111. Überblick Erwartungswerte 111 12 Erwartungswerte Zur Motivation der Begrisbildung wird zunächst der Erwartungswert im diskreten Fall als Reihenwert eingeführt. Der allgemeine, auf dem Integral basierende Erwartungswert

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 10. November 2010 1 Bedingte Wahrscheinlichkeit Satz von der totalen Wahrscheinlichkeit Bayessche Formel 2 Grundprinzipien

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 13.0.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Aufgaben zu Kapitel 0

Aufgaben zu Kapitel 0 Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.

Mehr