Kompaktskript. Deskriptive Statistik. und Wahrscheinlichkeitsrechnung. Rolf Hauser

Ähnliche Dokumente
P (X = 2) = 1/36, P (X = 3) = 2/36,...

Teil II. Wahrscheinlichkeitsrechnung

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5

Einführung in die Wahrscheinlichkeitsrechnung

Stochastik I. Vorlesungsmitschrift

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Stochastik. 1. Wahrscheinlichkeitsräume

Skalenniveaus =,!=, >, <, +, -

Statistik. Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz. Der Weg zur Datenanalyse. Springer. Zweite, verbesserte Auflage

Beschreibende Statistik

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Bitte am PC mit Windows anmelden!

Tabellarische und graphie Darstellung von univariaten Daten

Elementare Wahrscheinlichkeitsrechnung

Zufallsvariablen [random variable]

Univariate Häufigkeitsverteilungen Kühnel, Krebs 2001: Statistik für die Sozialwissenschaften, S.41-66

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Statistik und Wahrscheinlichkeitsrechnung

Fachrechnen für Tierpfleger

3. Deskriptive Statistik

Empirische Verteilungsfunktion

WISTA WIRTSCHAFTSSTATISTIK

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

WISTA WIRTSCHAFTSSTATISTIK

3. Merkmale und Daten

Grundlagen der Statistik

3 Häufigkeitsverteilungen

Wiederholung Statistik I. Statistik für SozialwissenschaftlerInnen II p.8

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet

Kapitel 2. Häufigkeitsverteilungen

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Einführung in die computergestützte Datenanalyse

Statistik Klausur Wintersemester 2012/2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

WISTA WIRTSCHAFTSSTATISTIK

Kapitel 1 Beschreibende Statistik

Statistik. Datenanalyse mit EXCEL und SPSS. R.01denbourg Verlag München Wien. Von Prof. Dr. Karlheinz Zwerenz. 3., überarbeitete Auflage

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011

MATHEMATIK MTA 12 SCHULJAHR 07/08 STATISTIK

Wahrscheinlichkeits - rechnung und Statistik

Mathematische und statistische Methoden II

Über den Autor 7 Über den Fachkorrektor 7. Einführung 19

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

1. Grundlagen der Wahrscheinlichkeitsrechnung

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Beispiel für Anwendung: z-tabelle kann genutzt werden, um z.b. Poissonverteilung näherungsweise zu integrieren. Beispiel: wie wahrscheinlich ist es


Keine Panik vor Statistik!

Kapitel 5 Kenngrößen empirischer Verteilungen 5.1. Lagemaße. x mod (lies: x-mod) Wofür? Lageparameter. Modus/ Modalwert Zentrum. Median Zentralwert

Grundbegriffe. Bibliografie

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Statistik. Datenanalyse mit EXCEL und SPSS. Prof. Dr. Karlheinz Zwerenz. R.Oldenbourg Verlag München Wien. Von

Statistik II: Grundlagen und Definitionen der Statistik

Teil I: Deskriptive Statistik

Kapitel 2. Zufällige Versuche und zufällige Ereignisse. 2.1 Zufällige Versuche

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen

Dr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Anteile Häufigkeiten Verteilungen Lagemaße Streuungsmaße Merkmale von Verteilungen. Anteile Häufigkeiten Verteilungen

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen

4 Statistische Maßzahlen

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

Deskriptive Statistik 1 behaftet.

Statistik. Jan Müller

Modul 04: Messbarkeit von Merkmalen, Skalen und Klassierung. Prof. Dr. W. Laufner Beschreibende Statistik

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 8. Übung SS 16: Woche vom

2 Zufallsvariable, Verteilungen, Erwartungswert

3 Lage- und Streuungsmaße

Verteilungsfunktion und Quantile

Deskriptive Statistik Kapitel VI - Lage- und Streuungsparameter

1 Wahrscheinlichkeitsrechnung und Zufallsvariablen

Verteilungen und ihre Darstellungen

Lagemaße Übung. Zentrale Methodenlehre, Europa Universität - Flensburg

Übungsaufgaben, Statistik 1

Vorlesung Grundlagen der Biometrie WS 2011/12 1. Grundbegriffe

Inhaltsverzeichnis. Teil I Einführung

Grundbegriffe der Wahrscheinlichkeitsrechnung

Univariates Datenmaterial

4. Kumulierte Häufigkeiten und Quantile

Beispiel 2 (Einige Aufgaben zu Lageparametern) Aufgabe 1 (Lageparameter)

Statistik eindimensionaler Größen

Verteilungsfunktion und dquantile

Wahrscheinlichkeitsrechnung

STATISTIK FÜR STATISTIK-AGNOSTIKER Teil 1 (wie mich)

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Statistik für Ökonomen

I. Zahlen, Rechenregeln & Kombinatorik

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

Grundlegende Eigenschaften von Punktschätzern

Inhaltsverzeichnis. 2 Kurzbeschreibung von SPSS Der SPSS-Dateneditor Statistische Analysen mit SPSS DieDaten...

Wahrscheinlichkeitsrechnung und Quantentheorie

I. Deskriptive Statistik 1

Auf dem Schulfest bietet Peter als Spielleiter das Glücksspiel "GlücksPasch" an.

5 Erwartungswerte, Varianzen und Kovarianzen

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem

1. Maße der zentralen Tendenz Beispiel: Variable Anzahl der Geschwister aus Jugend '92. Valid Cum Value Frequency Percent Percent Percent

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

STATISTIK I Übung 07 Box-Plots und Stem-and-Leaf-Diagramme. 1 Kurze Wiederholung. Warum nur zwei grafische Darstellungsformen?

Transkript:

Kompaktskript zu der Vorlesung Deskriptive Statistik und Wahrscheinlichkeitsrechnung von Rolf Hauser Universität des Saarlandes SS 2009

i Wichtiger Hinweis! Das vorliegende Kompaktskriptum ist kein Lehrbuch, sondern es soll die Hörer der Vorlesung Deskriptive Statistik und Wahrscheinlichkeitsrechnung von dem ablenkenden und oft fehlerhaften Mitschreiben der Formeln entlasten und es ihnen erleichtern, sich auf die vorgetragenen Motivationen und Erläuterungen zu konzentrieren und hierüber individuelle Notizen anzufertigen. Dementsprechend sind in diesem Skriptum nur formale Definitionen und Sätze und einige Beispiele enthalten. Die Bemerkungen dienen zur Ergänzung des Stoffes. Die Motivation und Erläuterung der aufgeführten Begriffe und Aussagen sowie die Behandlung von Beispielen bleiben der Vorlesung und auch der begleitenden Übung vorbehalten. Ebenso werden Hinweise auf ergänzende und vertiefende Literatur im Verlauf der Vorlesung gegeben.

Inhaltsverzeichnis 1 Deskriptive Statistik 1 1.1 Einleitung....................................... 1 1.2 Grundbegriffe..................................... 3 1.3 Skalen und Merkmalstypen............................. 5 1.4 Tabellarische und grafische Darstellungen eindimensionaler Merkmale..... 8 1.5 Grafische Darstellung bei klassierten Daten.................... 13 1.6 Stem-Leaf-Diagramm (Stamm-Blatt-Diagramm)................. 18 1.7 Lage- und Streuungsmaße.............................. 19 1.7.1 Lagemaße................................... 19 1.7.2 Einige Bemerkungen zu den Lagemaßen.................. 23 1.7.3 Streuungsmaße................................ 25 1.7.4 Box-Plot................................... 27 1.8 Häufigkeitsverteilungen zweidimensionaler Merkmale............... 29 1.8.1 Grundlagen.................................. 29 1.8.2 Bedingte Häufigkeitsverteilungen und Unabhängigkeit.......... 32 1.9 Abhängigkeitsmaße.................................. 33 1.9.1 Kardinalskalierte Merkmale......................... 33 1.9.2 Ordinalskalierte Merkmale.......................... 36 1.9.3 Beliebiges Skalenniveau........................... 38 2 Wahrscheinlichkeitsrechnung 40 2.1 Einleitung....................................... 40 2.2 Das wahrscheinlichkeitstheoretische Modell.................... 42 2.2.1 Der Ergebnisraum Ω............................. 42 2.2.2 Ereignisse und Ereignisraum F....................... 43 2.2.3 Mengenalgebra................................ 44 2.2.4 Wahrscheinlichkeitsräume.......................... 51 2.2.5 Laplace-Experimente und Grundlagen der Kombinatorik......... 53 2.2.6 Bedingte Wahrscheinlichkeit und Unabhängigkeit............. 57 ii

INHALTSVERZEICHNIS iii 3 Messbare Abbildungen und Zufallsvektoren 63 3.1 Allgemeine Begriffe.................................. 63 4 Eindimensionale Zufallsvariablen 65 4.1 Einführung...................................... 65 4.2 Diskrete Zufallsvariablen............................... 67 4.3 Stetige Zufallsvariablen............................... 69 4.4 Die Verteilungsfunktion von eindimensionalen Zufallsvariablen.......... 71 4.5 Lineare Transformationen von eindimensionalen Zufallsvariablen........ 78 4.6 Momente von eindimensionalen Zufallsvariablen.................. 79 4.7 Modus und Quantile von eindimensionalen Zufallsvariablen........... 82 4.8 Spezielle diskrete Zufallsvariablen.......................... 83 4.8.1 Bernoulli-Verteilung (Zweipunktverteilung)................ 83 4.8.2 Binomialverteilung.............................. 85 4.8.3 Hypergeometrische Verteilung........................ 87 4.8.4 Geometrische Verteilung........................... 89 4.8.5 Poisson-Verteilung.............................. 91 4.9 Spezielle stetige Verteilungen............................ 93 4.9.1 Stetige Gleichverteilung........................... 93 4.9.2 Gaußverteilung N(0, 1) : (Standardnormalverteilung)........... 95 4.9.3 Normalverteilung N(µ, σ 2 )......................... 99 4.9.4 Exponentialverteilung............................ 101 5 Zweidimensionale Zufallsvariablen 105 5.1 Einführung...................................... 105 5.2 Zweidimensionale diskrete Zufallsvariable..................... 107 5.3 Zweidimensionale stetige Zufallsvariable...................... 109 5.4 Die Verteilungsfunktion von zweidimensionalen Zufallsvariablen......... 111 5.5 Randverteilungen zweidimensionaler Zufallsvariablen............... 113 5.6 Bedingte Verteilungen und Unabhängigkeit von Zufallsvariablen......... 115 5.7 Momente zweidimensionaler Zufallsvariablen.................... 120 6 Mehrdimensionale Zufallsvariablen 124 6.1 Allgemeine Definitionen und Sätze......................... 124 7 Summen von unabhängigen Zufallsvariablen 128 7.1 Bernoulli-, Binomial-, Poisson- und Normalverteilungen............. 128

INHALTSVERZEICHNIS iv 8 Ungleichung von Tschebyscheff und das schwache Gesetz der großen Zahlen 130 8.1 Ungleichung von Tschebyscheff........................... 130 8.2 Das schwache Gesetz der großen Zahlen...................... 132 9 Zentraler Grenzwertsatz 134 9.1 Zentraler Grenzwertsatz von de Moivre-Laplace.................. 134 9.2 Zentraler Grenzwertsatz von Lindeberg-Lévy................... 138 10 Statistische Tabellen 142

Kapitel 1 Deskriptive Statistik 1.1 Einleitung Die deskriptive Statistik befasst sich zunächst mit der Erhebung von Daten, deren Aufbereitung sowie Darstellung. Im Allgemeinen kann man von folgenden vier Phasen ausgehen: 1. Vorbereitung Zweck der Untersuchung bestimmen Über welche Untersuchungseinheiten welche Informationen gewonnen werden sollen 2. Datenerhebung Primärerhebung Befragung persönliche Befragung postalische Befragung Beobachtung Experiment Sekundärerhebung Es wird auf vorhandenes Datenmaterial zurückgegriffen Vollerhebung Teilerhebung 1

1.1. EINLEITUNG 2 3. Datenaufbereitung und -darstellung tabellarisch grafisch 4. Datenauswertung und -analyse Berechnung von Maßzahlen Entdecken von Strukturen und Zusammenhängen

1.2. GRUNDBEGRIFFE 3 1.2 Grundbegriffe Definition 1.2.1 Die statistische Einheit (Merkmalsträger, Untersuchungseinheit) ω i, i = 1,..., n ist das Einzelobjekt einer Untersuchung. Sie ist Träger der Informationen, für die man sich interessiert. Bemerkung 1.2.2 Jede statistische Einheit muss im Hinblick auf das Untersuchungsziel durch (1) sachliche (2) räumliche (3) zeitliche Kriterien eindeutig festgelegt (abgegrenzt) sein. Man bezeichnet diese Kriterien auch als identifizierende Merkmale. Beispiel 1.2.3 Soll im Stadtverband Saarbrücken eine Untersuchung über das Freizeitverhalten Berufstätiger durchgeführt werden, so sind die Identifikationskriterien: sachlich: räumlich: zeitlich: berufstätige Person Gebiet des Stadtverbandes Saarbrücken Untersuchungszeitraum Definition 1.2.4 Die statistische Masse oder Grundgesamtheit Ω ist die Menge aller statistischen Einheiten, die die vorgegebenen Abgrenzungskriterien erfüllen. Ω = {ω i ω i erfüllt die festgelegten Kriterien, i = 1,..., n} Definition 1.2.5 Es sei Ω = {ω 1, ω 2,..., ω n } eine statistische Masse und eine Abbildung mit X : Ω M R X(ω i ) = x i, i = 1,..., n. X heißt 1-dimensionales Merkmal und die resultierenden Werte x i, i = 1,..., n, Beobachtungswerte oder Merkmalswerte. Die Menge A := {a M : ω Ω mit X(ω) = a} = X(Ω) heißt Merkmalsraum und die Elemente von A heißen Merkmalsausprägungen.

1.2. GRUNDBEGRIFFE 4 Beispiel 1.2.6 20 Personen werden nach dem Schulabschluss befragt. Man erhielt als Ergebnis (1 Hauptschule, 2 Fachoberschule, 3 Abitur, 4 Fachhochschule, 5 Universität) die Beobachtungswerte X(ω i ) = x i, i = 1,..., 20 : ω i ω 1 ω 2 ω 3 ω 4 ω 5 ω 6 ω 7 ω 8 ω 9 ω 10 X(ω i ) = x i 3 3 2 1 1 4 5 5 4 1 ω i ω 11 ω 12 ω 13 ω 14 ω 15 ω 16 ω 17 ω 18 ω 19 ω 20 X(ω i ) = x i 4 5 2 3 5 4 1 5 2 1 Der Merkmalsraum A ist in diesem Beispiel gegeben durch A = {1, 2, 3, 4, 5}. Bemerkung 1.2.7 Die Menge A ist wegen X(Ω) Ω stets abzählbar, so dass A als endliche Menge A = {a 1, a 2,..., a m } darstellbar ist. In der Regel wird die Anzahl der Merkmalsausprägungen m kleiner als die Zahl der Beobachtungswerte n sein. Bemerkung 1.2.8 In der Definition sind die Merkmalswerte bzw. Merkmalsausprägungen durch reelle Zahlen dargestellt. Dies ist immer möglich. Z. B. kann das Merkmal Familienstand (ledig, verheiratet, geschieden, verwitwet) auf die Zahlen 0 ledig, 1 verheiratet, 2 geschieden, 3 verwitwet abgebildet werden. Bemerkung 1.2.9 Auch wenn Merkmalsausprägungen meistens als reelle Zahlen dargestellt werden, so ist vor der Durchführung algebraischer Operationen stets zu untersuchen, ob sie aufgrund des Skalierungsniveaus des Merkmals überhaupt sinnvoll sind.

1.3. SKALEN UND MERKMALSTYPEN 5 1.3 Skalen und Merkmalstypen Definition 1.3.1 (Nominalskala) Eine Skala, deren Skalenwerte nur nach dem Kriterium gleich oder verschieden geordnet werden können, heißt Nominalskala. Beispiel 1.3.2 Nominal messbare Merkmale sind z. B.: Geschlecht Beruf, Haarfarbe, Religionszugehörigkeit Definition 1.3.3 (Ordinalskala, Rangskala) Eine Skala, deren Skalenwerte nicht nur nach dem Kriterium gleich oder verschieden, sondern außerdem in einer natürlichen Reihenfolge geordnet werden können, heißt Ordinalskala oder Rangskala. Beispiel 1.3.4 Ordinal messbare Merkmale sind z. B.: Zensuren: sehr gut, gut, befriedigend, usw. Güteklassen von Hotels: ein Stern, zwei Sterne, usw. Platzziffer bei einem Tanzturnier Definition 1.3.5 (Kardinalskala, metrische Skala) Eine Skala, deren Skalenwerte reelle Zahlen sind und die die Ordnungseigenschaften der reellen Zahlen besitzt, heißt Kardinalskala oder metrische Skala. Beispiel 1.3.6 Kardinal messbare Merkmale sind z. B.: Lebensdauern Gewichte

1.3. SKALEN UND MERKMALSTYPEN 6 Stromstärke Größen Bei einer Kardinalskala unterscheidet man weiterhin: Definition 1.3.7 (Intervallskala) Eine metrische Skala, die keinen natürlichen Nullpunkt und keine natürliche Einheit besitzt, heißt Intervallskala. Beispiel 1.3.8 Kalender besitzen keinen natürlichen Nullpunkt und keine natürliche Einheit. Z. B. wird die heutige Einteilung der Zeitskala nach dem gregorianischen Kalender vorgenommen. Zeitabstände (Intervalle) auf der Skala können miteinander verglichen werden. Definition 1.3.9 (Verhältnisskala) Eine metrische Skala, die einen natürlichen Nullpunkt, aber keine natürliche Einheit besitzt besitzt, heißt Verhältnisskala. Beispiel 1.3.10 Bei Währungen existiert ein natürlicher Nullpunkt. Null Geldeinheiten sind überall in der Welt Null Geldeinheiten. Jedoch sind 100 $ in der Regel nicht gleich 100 e Das Verhältnis zweier Währungen ist interpretierbar und wird als Wechselkurs bezeichnet. Definition 1.3.11 (Absolutskala) Eine metrische Skala mit einem natürlichen Nullpunkt und einer natürlichen Einheit heißt Absolutskala. Beispiel 1.3.12 Stückzahlen oder Anzahl von Personen besitzen einen natürlichen Nullpunkt und eine natürliche Einheit. Definition 1.3.13 (Qualitative Merkmale) Ein Merkmal heißt qualitativ, wenn die zugehörigen Merkmalsausprägungen nominal bzw. ordinal skaliert sind. Bemerkung 1.3.14 Werden zur Bewertung die Noten sehr gut, gut, befriedigend, ausreichend und mangelhaft verwendet und in den Zahlen 1, 2, 3, 4, 5 angegeben, so bleibt das ordinalskalierte Merkmal Note doch qualitativer Natur.

1.3. SKALEN UND MERKMALSTYPEN 7 Definition 1.3.15 (Quantitative Merkmale) Ein Merkmal heißt quantitativ, wenn die zugehörigen Merkmalsausprägungen metrisch skaliert sind. Definition 1.3.16 (diskretes Merkmal) Ein Merkmal das nur abzählbar viele Werte annehmen kann heißt diskretes Merkmal. Definition 1.3.17 (stetiges Merkmal) Ein Merkmal das überabzählbar viele Werte annehmen kann heißt stetiges Merkmal.

1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE 8 1.4 Tabellarische und grafische Darstellungen eindimensionaler Merkmale Definition 1.4.1 Gegeben sei eine statistische Masse Ω = {ω 1,..., ω n } und das eindimensionale Merkmal X. Man bezeichnet die tabellarische Darstellung ω i ω 1 ω 2 ω n X(ω i ) = x i x 1 x 2 x n der Untersuchungseinheiten mit ihren zugehörigen Beobachtungswerten als Urliste. Beispiel 1.4.2 20 Personen wurden nach dem Schulabschluss befragt. Man erhielt als Ergebnis (1 Hauptschule, 2 Realschule, 3 Abitur, 4 Fachhochschule, 5 Universität) die folgende Urliste: ω i ω 1 ω 2 ω 3 ω 4 ω 5 ω 6 ω 7 ω 8 ω 9 ω 10 X(ω i ) = x i 3 3 2 1 1 4 5 5 4 1 ω i ω 11 ω 12 ω 13 ω 14 ω 15 ω 16 ω 17 ω 18 ω 19 ω 20 X(ω i ) = x i 4 5 2 3 5 4 1 5 2 1 Definition 1.4.3 Gegeben sei eine statistische Masse Ω = {ω 1,..., ω n } und das eindimensionale Merkmal X mit dem Merkmalsraum A = {a 1,..., a m }. Man bezeichnet h(a i ) := {ω Ω : X(ω) = a i }, i = 1,..., m, als absolute Häufigkeit der Merkmalsausprägung a i, i = 1,..., m und r(a i ) := h(a i), i = 1,..., m, n als relative Häufigkeit der Merkmalsausprägung a i, i = 1,..., m.

1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE 9 Definition 1.4.4 Gegeben sei ein Merkmal X mit Merkmalsraum A = {a 1,..., a m } sowie den absoluten Häufigkeiten h(a i ) bzw. den relativen Häufigkeiten r(a i ), i = 1,..., m. Man nennt die tabellarische Darstellung a i a 1 a 2 a m h(a i ) h(a 1 ) h(a 2 ) h(a m ) r(a i ) r(a 1 ) r(a 2 ) r(a m ) der Merkmalsausprägungen mit ihren absoluten bzw. relativen Häufigkeiten Häufigkeitstabelle. Beispiel 1.4.5 (Fortsetzung) Man erhält aus Beispiel 1.4.2 folgende Häufigkeitstabelle und grafische Darstellungen: Schulabschluss a i 1 2 3 4 5 Absolute Häufigkeit h(a i ) 5 3 3 4 5 Relative Häufigkeit r(a i ) 0.25 0.15 0.15 0.20 0.25 Kreisdiagramm Universität Hauptschule Fachhochschule Realschule Abitur

1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE 10 Balkendiagramm Relative Häufigkeit 0.00 0.05 0.10 0.15 0.20 0.25 Hauptschule Realschule Abitur Fachhochsch. Universität Schulabschluss Bemerkung 1.4.6 Zur graphischen Darstellung von Häufigkeiten bei nominalskalierten Merkmalen benutzt man Kreis- bzw. Balkendiagramme Bemerkung 1.4.7 Es gilt stets: m h(a i ) = n und i=1 m r(a i ) = 1. i=1 Definition 1.4.8 Gegeben sei ein Merkmal X mit den Beobachtungswerten x 1, x 2,..., x n bzw. mit dem Merkmalsraum A = {a 1,..., a m } sowie den jeweiligen relativen Häufigkeiten r(a i ), wobei die Beobachtungswerte x 1, x 2,..., x n bzw. die Merkmalsausprägungen a i, i = 1,..., m, mindestens

1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE 11 ordinalskaliert sind. Dann heißt ˆF X (x) = i:a i x empirische Verteilungsfunktion von X. r(a i ) = i {1,..., n} : x i x n Vereinbarung 1.4.9 ˆF X (x 0) := lim ˆF X (x h) = h 0 h>0 i:a i <x r(a i ) = i {1,..., n} : x i < x. n Beispiel 1.4.10 20 Ehepaare wurden nach der Zahl ihrer Kinder gefragt. Man erhielt folgende Häufigkeitstabelle: Zahl der Kinder a i 0 1 2 3 4 Relative Häufigkeit r(a i ) 0.20 0.30 0.25 0.15 0.10 0.4 Stabdiagramm 0.3 r(a) 0.2 0.1 0.0 0 1 2 3 4 a

1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE 12 Bemerkung 1.4.11 Zur grafischen Darstellung der relativen Häufigkeiten r(a i ) bei ordinalskalierten bzw. bei diskreten Merkmalen benutzt man das Stabdiagramm ˆF X (x) = i:a i x r(a i ) = 0 für x < 0 0.20 für 0 x < 1 0.50 für 1 x < 2 0.75 für 2 x < 3 0.90 für 3 x < 4 1 für x 4 empirische Verteilungsfunktion 1.0 0.8 F^(x) 0.6 0.4 0.2 0.0 1 0 1 2 3 4 5 x Bemerkung 1.4.12 Die empirische Verteilungsfunktion ist bei ordinalskalierten bzw. bei diskreten Merkmalen eine Treppenfunktion.

1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN 13 1.5 Grafische Darstellung bei klassierten Daten Bemerkung 1.5.1 Treten bei einem kardinalskalierten Untersuchungsmerkmal viele - oft auch paarweise verschiedene - Merkmalsausprägungen auf, so kann man die Anschaulichkeit von Tabellen und graphischen Darstellungen unter Inkaufnahme eines Informationsverlustes durch Klassierung der Merkmalsausprägungen erhöhen. Vereinbarung 1.5.2 Gegeben sei ein Merkmal X mit der Urliste: ω i ω 1 ω 2 ω n X(ω i ) = x i x 1 x 2 x n Man wähle für festes l N Zahlen k 0, k 1,..., k l R mit k 0 < k 1 < < k l und k 0 < x i k l für alle i = 1,..., n. Man bezeichnet K j := (k j 1, k j ], j = 1,..., l, als Klasse Nr. j, b j := k j k j 1, j = 1,..., l, als zugehörige Klassenbreite, m j := k j 1 + k j, j = 1,..., l, als zugehörigen Klassenmittelpunkt oder zugehörige Klassenmitte, 2 h j = i : k j 1 < x i k j, j = 1,..., l, als absolute Häufigkeit der Beobachtungswerte in der j-ten Klasse, r j = h j, j = 1,..., l, als relative Häufigkeit der Beobachtungswerte in der j-ten Klasse, n f j = r j b j, j = 1,..., l, als Häufigkeitsdichte der j-ten Klasse. Definition 1.5.3 Gegeben sei ein Merkmal X mit der Urliste: ω i ω 1 ω 2 ω n X(ω i ) = x i x 1 x 2 x n sowie die Bezeichnungen aus Vereinbarung (1.5.2), dann heißt { f j für k j 1 < x k j, j = 1,..., l ˆf X (x) = 0 sonst, x R Histogramm.

1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN 14 Bemerkung 1.5.4 Für die Verteilungsfunktion ˆF X von klassierten Daten gilt an der jeweiligen Klassenobergrenze k j : ˆF X (k j ) = j i=1 r i = i : x i k j n Definition 1.5.5 Gegeben sei ein Merkmal X mit der Urliste: ω i ω 1 ω 2 ω n X(ω i ) = x i x 1 x 2 x n sowie die Bezeichnungen aus Vereinbarung (1.5.2), dann heißt 0 für x k 0 ˆF X (x) = ˆF X (k j 1 ) + (x k j 1 ) f j für k j 1 < x k j ; j = 1,..., l, x R 1 für x > k l Verteilungsfunktion des klassierten Merkmales X. Beispiel 1.5.6 (Allgemeine zeichnerische Darstellung) Gegeben seien die Bezeichnungen aus Vereinbarung (1.5.2). Als Histogramm zu einer gegebenen Klassierung bezeichnet man die folgende graphische Darstellung: In einem rechtwinkligen Koordinatensystem werden auf der Abszisse die Klassengrenzen k 0,..., k l eingezeichnet. Über jeder Klasse K j = (k j 1, k j ] zeichnet man ein Rechteck mit der Breite b j und der Höhe f j. Wegen b j f j = r j stimmt also der Flächeninhalt des j-ten Rechtecks mit der relativen Häufigkeit r j der j-ten Klasse überein. Die Summe der Flächeninhalte aller Rechtecke ist somit 1.

1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN 15 f i f 4 Histogramm f 3 f 2 f 1 k 0 k 1 k 2 k 3 k 4 k 5 k 6 x Verteilungsfunktion ˆF X (x) r 1 + r 2 + r 3 + r 4 + r 5 + r 6 1. r 1 + r 2 + r 3 + r 4 + r 5 r 1 + r 2 + r 3 + r 4 r 1 + r 2 + r 3 r 1 + r 2 r 1 x k 0 k 1 k 2 k 3 k 4 k 5 k 6

1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN 16 Beispiel 1.5.7 In einer Bank wurde die Zeit X (in Minuten) notiert, die für die Beratung eines Kunden aufgewandt wurde. Man erhielt bei 100 Kunden folgende Urliste: 2.9, 1.5, 2.1, 2.6, 3.1, 3.5, 4.2, 5.1, 6.2, 7.1, 8.0, 2.0, 9.1, 10.1, 11.1, 4.3, 5.3, 6.4, 7.3, 10.8, 2.2, 3.1, 3.6, 1.4, 5.5, 6.5, 7.6, 8.4, 9.2, 10.3, 11.2, 12.5, 15.0, 2.2, 2.7, 3.2, 3.7, 1.7, 1.1, 11.9, 2.3, 2.7, 3.2, 3.4, 5.7, 6.6, 7.7, 12.9, 13.2, 1.1, 2.4, 8.6, 1.2, 4.6, 2.4, 2.8, 3.2, 3.8, 5.8, 18.8, 6.8, 0.8, 1.3, 13.8, 14.3, 2.5, 2.9, 3.3, 9.1, 1.2, 1.5, 9.5, 10.6, 1.3, 4.8, 1.4, 4.9, 14.9, 3.3, 19.7, 1.6, 4.1, 2.5, 1.7, 3.0, 1.8, 8.8, 5.9, 15.8, 16.4, 6.9, 7.9, 8.1, 3.0, 3.9, 2.0, 9.9, 17.6, 3.4, 1.9. Es werde die folgende Klasseneinteilung vorgenommen: (0 ; 2], (2 ; 4], (4 ; 8], (8 ; 12], (12 ; 20]. Klasse Klassen- Klassen- absolute relative Häufigkeits- Verteilungs- K j breite mitte Häufigkeit Häufigkeit dichte funktion (k j 1 ; k j ] b j m i h j r j = h j n f j = r j b j ˆF (kj ) (0 ; 2] 2 1 18 0.18 0.090 0.18 (2 ; 4] 2 3 30 0.30 0.150 0.48 (4 ; 8] 4 6 24 0.24 0.060 0.72 (8 ; 12] 4 10 16 0.16 0.040 0.88 (12 ; 20] 8 16 12 0.12 0.015 1.00 100 1.00

1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN 17 Histogramm 0.150 0.090 f(x) 0.060 0.040 0.015 0.000 0 2 4 8 12 20 Ausprägungen x Verteilungsfunktion 1.0 0.8 0.6 F(x) 0.4 0.2 0.0 0 2 4 8 12 20 Ausprägungen x

1.6. STEM-LEAF-DIAGRAMM (STAMM-BLATT-DIAGRAMM) 18 1.6 Stem-Leaf-Diagramm (Stamm-Blatt-Diagramm) Eine weitere Möglichkeit größere Datensätze einschließlich ihrer Häufigkeitsverteilung graphisch übersichtlich darzustellen, ist durch das Stamm- und Blatt-Diagramm gegeben. Um ein Stamm- und Blatt-Diagramm zu erstellen, geht man wie folgt vor: (1) Ordnen der Daten der Größe nach und Feststellung des Wertebereiches, der durch x (1) und x (n) gegeben ist. (2) Unterteilen des Wertebereiches in Intervalle gleicher Breite, wobei die Breite das 0.5, 1 oder 2 fache einer Zehnerpotenz ist. (3) Zerlegen der Beobachtungswerte in einen Stamm- und einen Blattanteil. (4) Auftragen der Beobachtungswerte. Die Vorgehensweise soll an einem Beispiel erläutert werden: Gegeben seien die folgenden geordneten Beobachtungswerte: 8 12 12 15 15 18 20 21 23 27 28 28 29 30 32 33 34 38 38 39 40 40 42 44 Wir unterteilen den Wertebereich in die gleichbreiten Intervalle [0, 10), [10, 20),..., [40, 50). Damit erhalten wir den Stamm: 0 1 2 3 4 Die beobachteten Werte werden dann als Blätter eingetragen, wobei z. B. der Beobachtungswert 38 durch eine 8 hinter der 3 des Stammes wiedergegeben wird (3 8). Gleiche Beobachtungswerte werden mehrfach eingetragen. Mit den obigen Daten erhält man dann das folgende Stamm- und Blatt-Diagramm: 0 8 1 22558 2 0137889 3 0234889 4 0024 Bei diesem Diagramm kann man leicht sehen, in welchem Bereich sich die Daten häufen.

1.7. LAGE- UND STREUUNGSMASSE 19 1.7 Lage- und Streuungsmaße 1.7.1 Lagemaße Definition 1.7.1 Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten x 1, x 2,..., x n. Dann heißt x := 1 n n i=1 x i arithmetischer Mittelwert sowie bei gegebenen Gewichten w i x w := n w i x i i=1 mit n w i = 1 und 0 w i 1 i=1 gewichteter arithmetischer Mittelwert. Bemerkung 1.7.2 (Eigenschaften des arithmetischen Mittelwertes) Es gilt 1. n i=1 (x i x) = 0. 2. n i=1 (x i t) 2 n i=1 (x i x) 2 für alle t R. Bemerkung 1.7.3 Liegen bei einem Merkmal X die Merkmalsausprägungen a i, i = 1,..., m, mit ihren relativen Häufigkeiten r(a i ) vor, dann kann man den arithmetischen Mittelwert x auch wie folgt berechnen: m x = a i r(a i ) =: ā i=1 Bemerkung 1.7.4 Liegt ein klassiertes Merkmal X vor, dann gilt mit den Bezeichnungen aus Vereinbarung (1.5.2) für die Berechnung des Mittelwertes die folgende Approximation x = l m i r i i=1 Definition 1.7.5 Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten x 1, x 2,..., x n.

1.7 Lagemaße 20 Dann heißt x h := n n i=1 = 1 x i 1 1 n i=1 n 1 x i harmonischer Mittelwert sowie bei gegebenen Gewichten w i x w h := 1 n i=1 w i x i mit n w i = 1 und 0 w i 1 i=1 gewichteter harmonischer Mittelwert. Beispiel 1.7.6 (Anwendung des harmonischen Mittelwertes) Es sei U = Gesamtumsatz M = Gesamtmenge P = durchschnittlicher Preis pro Mengeneinheit u i = Einzelumsatz des i-ten Gutes m i = umgesetzte Menge des i-ten Gutes x i = Einzelpreis pro Mengeneinheit des i-ten Gutes Mit U = M P, U = n i=1 u i, M = n i=1 m i und u i = x i m i ergibt sich der durchschnittliche Preis pro Mengeneinheit P wie folgt: P = U n M = i=1 u n i i=1 n i=1 m = u i u i n i i=1 u. i n i=1 u i = x i 1 n i=1 w i x i mit w i = Definition 1.7.7 Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten x 1, x 2,..., x n. Dann heißt x g := n x 1 x 2... x n geometrischer Mittelwert sowie bei gegebenen Gewichten w i x w g := x w 1 1 x w 2 2... x wn n gewichteter geometrischer Mittelwert. mit n w i = 1 und 0 w i 1 i=1

1.7 Lagemaße 21 Beispiel 1.7.8 (Anwendung des geometrischen Mittelwertes) Gegeben seien die Produktionssteigerungen eines Betriebes in 4 Jahren: Jahr 1. Jahr 2. Jahr 3. Jahr 4. Jahr Produktionssteigerung 2% 11% 4% 7% Die durchschnittliche Produktionssteigerung pro Jahr x g it gegeben durch: x g = 4 1.02 1.11 1.04 1.07 = 1.06 Definition 1.7.9 Gegeben sei das mindestens ordinal skalierte Merkmal X mit den geordneten Beobachtungswerten x (1) x (2)... x (n). Jeder Wert x p, mit 0 < p < 1, für den gilt: i {1,..., n} : x i x p n p und i {1,..., n} : x i x p n 1 p heißt p Quantil. D. h. ein p Quantil x p ist ein Wert, für den mindestens ein Anteil p der Daten x p und mindestens ein Anteil 1 p der Daten x p ist. Bemerkung 1.7.10 Ist für ein Merkmal X die empirische Verteilungsfunktion ˆF X gegeben, dann ist x p ein p Quantil, wenn gilt: ˆF X (x p 0) < p ˆF X (x p ). Bemerkung 1.7.11 Aufgrund der Definition (1.7.9) ist ein p Quantil oft nicht eindeutig. Daher definiert man, um Eindeutigkeit zu erhalten, das p Quantil wie folgt: Definition 1.7.12 Gegeben sei das mindestens ordinal skalierte Merkmal X mit den geordneten Beobachtungswerten x (1) x (2)... x (n). Weiterhin sei [y] die größte ganze Zahl y. Dann heißt: { x x p = ([n p]+1) für n p / N 1 2 (x (n p) + x (n p+1) ) für n p N p Quantil. Speziell heißen x 0,5 Median, x 0,25 unteres Quartil und x 0,75 oberes Quartil. Bemerkung 1.7.13 Aufgrund der Definition (1.7.12) gilt somit für den Median x : { x ( n+1 x := x 0.5 = 2 ) für n ungerade 1 2 (x ( n 2 ) + x ( n 2 +1) ) für n gerade

1.7 Lagemaße 22 Bemerkung 1.7.14 (Eigenschaft des Medians) Es gilt stets n i=1 x i t n i=1 x i x für alle t R. Bemerkung 1.7.15 Liegt ein klassiertes Merkmal X vor, dann gilt mit den Bezeichnungen aus Vereinbarung (1.5.2) für das p Quantil x p = k i 1 + p ˆF (k i 1 ) f i mit ˆF (k i 1 ) p < ˆF (k i ). Definition 1.7.16 Gegeben sei ein Merkmal X mit Merkmalsraum A = {a 1,..., a m } sowie den jeweiligen relativen Häufgkeiten r(a i ), i = 1,..., m. Dann heißt ein Wert a mod mit Modus oder Modalwert. r(a mod ) r(a i ) für alle i = 1,..., m Beispiel 1.7.17 Schulabschluss a i Volksschule Realschule Abitur Fachhochschule Universität Verschlüsselung 1 2 3 4 5 Relative Häufigkeit r(a i ) 0.10 0.25 0.20 0.30 0.15 r(4) r(a i ) für alle a i 4. Daher ist der Modus x mod = 4.

1.7 Einige Bemerkungen zu den Lagemaßen 23 1.7.2 Einige Bemerkungen zu den Lagemaßen Die Verteilung ist rechtsschief oder linkssteil, falls x > x 0.5 f(x) Rechtsschiefe Verteilung Ausprägungen x Die Verteilung ist linksschief oder rechtssteil, falls x < x 0.5 f(x) Linksschiefe Verteilung Ausprägungen x

1.7 Einige Bemerkungen zu den Lagemaßen 24 Die Verteilung ist symmetrisch, falls x = x 0.5 f(x) Symmetrische Verteilung Ausprägungen x

1.7 Streuungsmaße 25 1.7.3 Streuungsmaße Definition 1.7.18 Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten Dann heißt s 2 X = 1 n Varianz oder Streuung und s X = x 1, x 2,..., x n, n 2. n (x i x) 2 mit x = 1 n i=1 n i=1 x i s 2 X Standardabweichung. Bemerkung 1.7.19 Für die Berechnung verwendet man häufig die äquivalente Formel s 2 X = 1 n ( n i=1 x 2 i ) x 2. Bemerkung 1.7.20 Liegen bei einem Merkmal X die Merkmalsausprägungen a i mit ihren relativen Häufigkeiten r(a i ), i = 1,..., m, vor, dann kann man die Varianz s 2 X auch wie folgt berechnen: ( m m ) m s 2 X = (a i ā) 2 r(a i ) = a 2 i r(a i ) ā 2 mit ā = a i r(a i ). i=1 i=1 i=1 Bemerkung 1.7.21 Liegt ein klassiertes Merkmal X vor, dann gilt mit den Bezeichnungen aus Vereinbarung (1.5.2) für die Berechnung des Mittelwertes die folgende Approximation: s 2 X = ( l l ) (m i x) 2 r i = m 2 i r i x 2 mit x = i=1 i=1 l m i r i. i=1 Definition 1.7.22 Gegeben seien das metrisch skalierte Merkmal X mit den Beobachtungswerten x 1, x 2,..., x n, n 2 und dem Median x. Dann heißt d = 1 n n x i x i=1 mittlere absolute Abweichung.

1.7 Streuungsmaße 26 Definition 1.7.23 Gegeben sei das mindestens ordinal skalierte Merkmal X mit den geordneten Beobachtungswerten x (1) x (2)... x (n).dann heißt x (n) x (1) Spannweite und x 0,75 x 0,25 Interquartilsabstand.

1.7 Box-Plot 27 1.7.4 Box-Plot Eine kompakte graphische Darstellung, die besonders zum Vergleich wichtiger Kenngrößen mehrerer Datensätze geeignet ist, liegt in dem sogenannten Box-Plot vor. Als Box wird das Rechteck bezeichnet, welches durch das obere und untere Quartil begrenzt wird. Die Box umfasst 50% der Daten. Durch die Länge der Box ist der Interquartilsabstand abzulesen. Dies ist ein Maß der Streuung, welches durch die Differenz des oberen und unteren Quartils bestimmt ist. Als weiteres Quartil ist der Median in der Box eingezeichnet, welcher durch seine Lage innerhalb der Box einen Eindruck von der Schiefe der den Daten zugrunde liegenden Verteilung vermittelt.der Boxplot wird über einem Zahlenstrahl dargestellt und fasst verschiedene Maße der zentralen Tendenz, Streuung und Schiefe in einem Diagramm zusammen. Alle Werte der Fünf-Punkte-Zusammenfassung, also der Median, die zwei Quartile und die beiden Extremwerte, sind dargestellt. Als Whisker werden die horizontalen/vertikalen Linien bezeichnet. Die Länge der Whisker beträgt maximal das 1,5-fache des Interquartilsabstands und wird immer durch einen Wert aus den Daten bestimmt. Werte, die über dieser Grenze liegen, werden separat in das Diagramm eingetragen und als Ausreißer bezeichnet. Gibt es keine Werte außerhalb der Whisker, so wird die Länge des Whiskers durch den maximalen bzw. minimalen Wert festgelegt. Definition 1.7.24 Gegeben sei ein metrisch skaliertes Merkmal X mit den geordneten Beobachtungswerten x (1) x (2)... x (n) und die aus diesen Daten berechneten Lagemaße: (1) Unteres Quartil: x 0,25 (2) Median: x 0,5 (3) Oberes Quartil: x 0,75. (4) Interquartilsabstand: x 0,75 x 0,25. (5) Whiskers: 1.5 (x 0,75 x 0,25 ). (6) Kleinster Wert x (1) und größter Wert x (n). Dann heißt die folgende graphische Darstellung Box-Plot. K JA HA I 3 K = HJE A @ E= > A HA I 3 K = HJE ) K I HA E A H K JA HA H 9 D EI A HI > A HA H 9 D EI A HI N N

1.7 Box-Plot 28 Bemerkung 1.7.25 Um mehr extreme Beobachtungswerte explizit sichtbar zu machen, zieht man bisweilen die links und rechts an die Box angesetzten Linien nicht bis x (1) bzw. x (n) durch, sondern für ein geeignet gewähltes k N bis x (k+1) bzw. x (n k) und zeichnet x (1),..., x (k) und x (n k+1),..., x (n) einzeln ein. Beispiel 1.7.26 Gegeben seien die Daten aus Beispiel 1.5.7. Der Boxplot ist dann wie folgt gegeben: Box Plot 5 10 15 20

1.8. HÄUFIGKEITSVERTEILUNGEN ZWEIDIMENSIONALER MERKMALE 29 1.8 Häufigkeitsverteilungen zweidimensionaler Merkmale 1.8.1 Grundlagen Definition 1.8.1 Gegeben sei eine statistische Masse Ω = {ω 1,..., ω n } und eine Abbildung mit X := (X 1, X 2 ) : Ω M R 2 X(ω) =: (X 1 (ω), X 2 (ω)) = (x i, y i ), i = 1,..., n. X heißt 2-dimensonales Merkmal und die resultierenden Werte (x i, y i ) Beobachtungswerte oder Merkmalswerte. Die Menge A := {a M : ω Ω mit X 1 (ω) = a} = X 1 (Ω) heißt Merkmalsraum von X 1 und die Elemente von A heißen Merkmalsausprägungen von X 1. Entsprechend heißt die Menge B := {b M : ω Ω mit X 2 (ω) = b} = X 2 (Ω) Merkmalsraum von X 2 und die Elemente von B heißen Merkmalsausprägungen von X 2. Definition 1.8.2 Gegeben sei eine statistische Masse Ω = {ω 1,..., ω n } und das 2-dimensionale Merkmal X = (X 1, X 2 ). Man bezeichnet die tabellarische Darstellung ω i ω 1 ω 2 ω n X(ω i ) = (x i, y i ) (x 1, y 1 ) (x 2, y 2 ) (x n, y n ) der Untersuchungseinheiten mit ihren zugehörigen Beobachtungswerten als Urliste. Beispiel 1.8.3 Von 28 Studienanfängern wurden die Abiturnoten in Mathematik und Englisch erfasst. Man erhielt folgende Urliste (Mathematiknote, Englischnote): (4, 2); (3, 1); (3, 3); (2, 3); (4, 4); (3, 4); (3, 3); (1, 3); (3, 2); (5, 3); (3, 3); (3, 4); (3, 3); (3, 4); (2, 3); (2, 1); (2, 2); (3, 4); (3, 3); (3, 3); (1, 1); (4, 5); (5, 4); (2, 5); (2, 2); (2, 3); (2, 3); (3, 4). Definition 1.8.4 Gegeben sei eine statistische Masse Ω = {ω 1,..., ω n } und das zweidimensionale Merkmal X = (X 1, X 2 ) mit den Merkmalsräumen A = {a 1,..., a l } und B = {b 1,..., b m }. Man bezeichnet h ij := h(a i, b j ) := ω Ω : X(ω) = (a i, b j ), (a i, b j ) A B, i = 1,..., l, j = 1,..., m als absolute Häufigkeit der Merkmalsausprägung (a i, b j ), i = 1,..., l, j = 1,..., m und r ij := r(a i, b j ) := h(a i, b j ), i = 1,..., l, j = 1,..., m, n als relative Häufigkeit der Merkmalsausprägung (a i, b j ), i = 1,..., l, j = 1,..., m.

1.8 Grundlagen 30 Bemerkung 1.8.5 Es gilt: l m h ij = n i=1 j=1 und l m r ij = 1. i=1 j=1 Definition 1.8.6 Gegeben sei ein zweidimensionales Merkmal X = (X 1, X 2 ) mit den Merkmalsräumen A = {a 1,..., a l }, B = {b 1,..., b m } und den absoluten Häufigkeiten h ij, i = 1,..., l, j = 1,..., m. Man nennt die tabellarische Darstellung A B b 1 b 2 b m a 1 h 11 h 12 h 1m a 2 h 21 h 22 h 2m..... a l h l1 h l2 h lm Kontingenztabelle. Beispiel 1.8.7 (Fortsetzung von Beispiel 1.8.3) Englischnote b j Mathematiknote a i 1 2 3 4 5 1 1 1 2 1 2 4 1 3 1 1 6 5 4 1 1 1 5 1 1 Bemerkung 1.8.8 An Stelle der absoluten Häufigkeiten h ij in der Kontingenztabelle können auch die relativen Häufigkeiten r ij stehen. Bemerkung 1.8.9 Im Gegensatz zur eindimensionalen Häufigkeitstabelle aus Definition 1.4.4 sind in der Tabelle von Definition 1.8.6 nicht alle relativen Häufigkeiten h ij größer als Null, da nicht jedes Paar (a i, b j ) auch Trägerpunkt, d. h. Bildpunkt eines ω Ω sein muss.

1.8 Grundlagen 31 Definition 1.8.10 Gegeben sei ein zweidimensionales Merkmal X = (X 1, X 2 ) mit den absoluten Häufigkeiten h ij bzw. mit den relativen Häufigkeiten r ij. Dann heißt h i := m j=1 h ij, i = 1,..., l, absolute Randhäufigkeit des Merkmals X 1 und h j := l i=1 h ij, j = 1,..., m, absolute Randhäufigkeit des Merkmals X 2 bzw. r i := m j=1 r ij, i = 1,..., l, relative Randhäufigkeit des Merkmals X 1 und r j := l i=1 r ij, j = 1,..., m, relative Randhäufigkeit des Merkmals X 2. Beispiel 1.8.11 (Fortsetzung von Beispiel 1.8.3) Englischnote Mathematiknote 1 2 3 4 5 h i := m j=1 h ij 1 1 1 2 2 1 2 4 1 8 3 1 1 6 5 13 4 1 1 1 3 5 1 1 2 h j := l i=1 h ij 3 4 12 7 2 l i=1 h i = m j=1 h j = 28

1.8 Bedingte Häufigkeitsverteilungen und Unabhängigkeit 32 1.8.2 Bedingte Häufigkeitsverteilungen und Unabhängigkeit Definition 1.8.12 Es sei X = (X 1, X 2 ) ein zweidimensionales Merkmal mit den entsprechenden relativen Häufigkeiten r ij. Dann heißt für festes j r(a i b j ) := r ij r j = h ij h j für alle a i bedingte relative Häufigkeit von a i unter der Bedingung b j. Entsprechend ist für ein festes i r(b j a i ) := r ij r i = h ij h i für alle b j die bedingte relative Häufigkeit von b j unter der Bedingung a i definiert. Beispiel 1.8.13 (Fortsetzung von Beispiel 1.8.3) Es sei a 2 Mathematiknote 2 und b 3 Englischnote 3. Dann gilt für die bedingte relative Häufigkeit: r(a 2 b 3 ) = h 23 = 4 h 3 12 = 1 3 Definition 1.8.14 Es sei X =(X 1, X 2 ) ein zweidimensionales Merkmal mit den entsprechenden relativen Häufigkeiten r ij. Die Merkmale X 1 und X 2 heißen unabhängig, wenn für die entsprechenden relativen Häufigkeiten die folgende Beziehung gilt: r ij = r i r j für alle i und j. Folgerung 1.8.15 Sind die Merkmale a und b unabhängig, dann gilt für die bedingten relativen Häufigkeiten r(a i b j ) = r(a i ) für alle b j und i bzw. r(b j a i ) = r(b j ) für alle a i und j.

1.9. ABHÄNGIGKEITSMASSE 33 1.9 Abhängigkeitsmaße 1.9.1 Kardinalskalierte Merkmale Definition 1.9.1 Gegeben sei ein zweidimensionales Merkmal X = (X, Y ) mit den Beobachtungswerten (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Dann heißt n n n s XY = 1 n i=1 (x i x) (y i ȳ) mit x = 1 n i=1 x i und ȳ = 1 n i=1 y i empirische Kovarianz zwischen X und Y. Folgerung 1.9.2 Für die empirische Kovarianz zwischen X und Y gilt die folgende Formel: ( n ) s XY = 1 x i y i x ȳ n i=1 Folgerung 1.9.3 Liegt für das zweidimensionale Merkmal X = (X, Y ) die absolute Häufigkeitstabelle mit den Randverteilungen vor, A B b 1 b 2 b m h i a 1 h 11 h 12 h 1m h 1 a 2 h 21 h 22 h 2m h 2...... a l h l1 h l2 h lm h l h j h 1 h 2 h m n dann gilt für die empirische Kovarianz s XY = 1 l m (a i ā)(b j n b) h ij = 1 n mit ā = 1 n i=1 j=1 l a i h i und b = 1 n i=1 m b j h j. j=1 l i=1 j=1 m a i b j h ij ā b

1.9 Kardinalskalierte Merkmale 34 Definition 1.9.4 Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den Beobachtungswerten (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Dann heißt 1 n i=1 r XY = n (x i x) (y i ȳ) [ ] [ ] 1 n 1 i=1 n (x i x) 2 n i=1 n (y i ȳ) 2 mit x = 1 n x i und ȳ = 1 n y i n n Pearson scher Korrelationskoeffizient zwischen X und Y. i=1 i=1 Folgerung 1.9.5 Liegt für das zweidimensionale Merkmal X =(X, Y ) die Häufigkeitstabelle mit den Randverteilungen vor, A B b 1 b 2 b m h i a 1 h 11 h 12 h 1m h 1 a 2 h 21 h 22 h 2m h 2...... a l h l1 h l2 h lm h l h j h 1 h 2 h m n dann gilt für den empirischen Korrelationskoeffizienten r XY = l m i=1 j=1 (a i ā)(b j b) h ij [ l [ i=1 (a m i ā) 2 h i ] j=1 (b j b) ] 2 h j mit ā = 1 n l a i h i und b = 1 n i=1 m b j h j j=1 Bemerkung 1.9.6 Liegt ein klassiertes Merkmal vor, dann sind die a i bzw. b j als Klassenmitten zu interpretieren.

1.9 Kardinalskalierte Merkmale 35 der Pearson sche Korrelations- Satz 1.9.7 Es seien X =(X, Y ) ein zweidimensionales Merkmal und r XY koeffizient. Dann gilt: (1) 1 r XY 1, (2) r XY = 1, (bzw. = 1), genau dann wenn Y = a X + b mit a > 0, (bzw. mit a < 0), gilt. (3) Sind X und Y unabhängig, so gilt r XY = 0.

1.9 Ordinalskalierte Merkmale 36 1.9.2 Ordinalskalierte Merkmale Definition 1.9.8 Gegeben sei eine mindestens ordinal skalierte Beobachtungsreihe x 1, x 2,... x n. Dann heißt Rang von x i, i = 1,..., n. r i := Rang(x i ) := 1 + d(u) = 0 für u < 0 1 2 für u = 0 1 für u > 0 n d(x i x j ) mit j=1 j i Definition 1.9.9 Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den mindestens ordinalskalierten Beobachtungswerten (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ) und den Rängen r i := Rang(x i ) und s i := Rang(y i ), i = 1,..., n. Dann heißt 1 n i=1 r S = n (r i r) (s i s) [ ] [ ] 1 n 1 i=1 n (r i r) 2 n i=1 n (s i s) 2 mit r = 1 n r i und s = 1 n s i n n i=1 Spearmanscher Rangkorrelationskoeffizient zwischen X und Y. i=1 Satz 1.9.10 Gegeben seien die Voraussetzungen aus Definition (1.9.9). Dann gilt: r S = [ n i=1 r2 i n i=1 r n (n + 1)2 i s i 4 ] [ ]. n (n + 1)2 n n (n + i=1 4 s2 1)2 i 4 Satz 1.9.11 Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den mindestens ordinalskalierten Beobachtungswerten (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ) mit x i x j für i j und y i y j für i j und den Rängen r i := Rang(x i ) und s i := Rang(y i ). Dann gilt: r S = 1 6 n i=1 d2 i n (n 2 1) mit d i = r i s i.

1.9 Ordinalskalierte Merkmale 37 Satz 1.9.12 Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den mindestens ordinalskalierten Beobachtungswerten (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ) und den Rängen r i := Rang(x i ) und s i := Rang(y i ). Dann gilt: (1) 1 r S 1, (2) r S = 1 ist äquivalent mit r i = s i für alle i, (3) r S = 1 ist äquivalent mit r i = n + 1 s i für alle i. Bemerkung 1.9.13 Da der Spearmansche Rangkorrelationskoeffizient nur auf die Ränge der Messwerte angewendet wird, deutet ein Wert in der Nähe von ±1 auch bei kardinal skalierten Merkmalen nicht unbedingt auf einen starken linearen Zusammenhang der Messwerte hin, sondern möglicherweise nur auf ein monotones Verhalten der beiden Messwertefolgen. Werte in der Nähe von 0 deuten darauf hin, dass wenig oder kein monotoner Zusammenhang zwischen den Messwertefolgen vorliegt.

1.9 Beliebiges Skalenniveau 38 1.9.3 Beliebiges Skalenniveau Definition 1.9.14 Für das zweidimensionale Merkmal X = (X, Y ) mit beliebigem Skalierungsniveau der Komponenten sei die Tabelle der absoluten Häufigkeiten h ij und den absoluten Randhäufigkeiten h i bzw. h j gegeben: A B b 1 b 2 b m h i a 1 h 11 h 12 h 1m h 1 a 2 h 21 h 22 h 2m h 2...... a l h l1 h l2 h lm h l h j h 1 h 2 h m n mit h i > 0 für i = 1,..., l und h j > 0 für j = 1,..., m. Man bezeichnet χ 2 XY := l i=1 j=1 m [h ij h i h j n h i h j n als quadratische Kontingenz der Merkmale X und Y, ] 2 ϕ 2 XY := 1 n χ2 XY als mittlere quadratische Kontingenz der Merkmale X und Y. C := + ϕ 2 XY 1 + ϕ 2 XY = χ 2 XY n + χ 2 XY als Pearsonschen Kontingenzkoeffizienten und min{l, m} C korr = C min{l, m} 1 als korrigierten Pearsonschen Kontingenzkoeffizienten.

1.9 Beliebiges Skalenniveau 39 Folgerung 1.9.15 Gegeben seien die Bezeichnungen und Voraussetzungen aus Definition (1.9.14) und l, m > 1. Dann gilt: (1) ϕ 2 XY = l m [r ij r i r j ] 2 i=1 j=1 r i r j ) (2) ϕ 2 XY = ( l i=1 m j=1 r 2 ij r i r j 1, mit r ij = h ij n, r i = h i n, r j = h j n, (3) 0 ϕ 2 XY min{l, m} 1, (4) 0 C < 1, (5) 0 C korr 1, (6) X und Y sind genau dann unabhängig, falls ϕ 2 XY = C = C korr = 0.

Kapitel 2 Wahrscheinlichkeitsrechnung 2.1 Einleitung Wohl jedem ist seit früher Jugend das Auftreten des Zufalls bei Glücks- und Gesellschaftsspielen wie Lotto-Ziehungen, Roulette oder Skat bzw. Mensch ärgere dich nicht geläufig. Hierbei tritt der Zufall in einer besonders einfachen und durchsichtigen Form auf. Ziel dieser Vorlesung ist es, dem Zuhörer einen ersten Einstieg in die Welt des Zufalls zu vermitteln und ihn in die Lage zu versetzen, stochastische Phänomene korrekt zu beurteilen. Natürlich beschränkt sich der Anwendungsbereich der Stochastik nicht nur auf Glücksspiele. Stochastische Fragestellungen treten in unterschiedlichen Anwendungsbereichen auf wie z. B. Informatik (z. B. Auslastung in Telefon- und Daten-Netzen) Medizin (z. B. Vergleich des Erfolges verschiedener Therapien) Versicherungswesen (Prämienkalkulation) Produktion (z. B. statistische Qualitätskontrolle, Lagerhaltung) Wirtschaft (Portfolioanalyse, Marketing-Strategien) Verkehrswesen (Studium von Warteschlangensystemen) Biologie (Planung und Auswertung von Versuchen) Meinungsforschung (Gewinnung repräsentativer Stichproben und Hochrechnen auf die Grundgesamtheit.) Diese Anwendungsbereiche unterstreichen die wachsende Bedeutung der Stochastik für die berufliche Laufbahn. Zum Schluss der Einleitung noch ein Beispiel aus dem Gebiet der Meinungsforschung. 40

2.1. EINLEITUNG 41 Beispiel 2.1.1 Bundestagswahl am 18. September 2005 Vorläufiges amtliches Endergebnis der Bundestagswahl: Prognose des ZDF um 18.00 Uhr: Prognose der ARD um 18.00 Uhr: SPD CDU/CSU GRÜNE FDP LINKE ANDERE 34.3 35.2 8.1 9.8 8.7 3.9 SPD CDU/CSU GRÜNE FDP LINKE ANDERE 33.0 37.0 8.0 10.5 8.0 3.5 SPD CDU/CSU GRÜNE FDP LINKE ANDERE 34.0 35.5 8.5 10.5 7.5 4.0 Aus diesen beiden Prognosen wird ersichtlich, dass mit Hilfe der Stochastik schon kurz nach Schließung der Wahllokale sehr verlässliche Ergebnisse bzgl. des vorläufigen amtlichen Endergebnisses durch Hochrechnung geliefert werden konnten.

2.2. DAS WAHRSCHEINLICHKEITSTHEORETISCHE MODELL 42 2.2 Das wahrscheinlichkeitstheoretische Modell 2.2.1 Der Ergebnisraum Ω Um Vorgänge und Situationen der wirklichen Welt mathematisch beschreiben zu können, muss man durch Abstraktion mathematische Modelle konstruieren, die die wesentlichen Eigenschaften der Wirklichkeit wiedergeben. Ein erster Schritt bei der Modellbildung besteht darin, die zu betrachtenden Ergebnisse eines Zufallsexperimentes zu einer mathematischen Menge zusammenzufassen. Es ist üblich, diese Menge als Ergebnisraum zu bezeichen und durch Ω zu symbolisieren. Einige Beispiele mögen dies untermauern: Zufallsexperiment Ergebnisraum 1. Werfen mit einem Würfel Ω = {1, 2, 3, 4, 5, 6} 2. Zweimaliges Werfen einer Münze Ω = {(W, W ), (W, Z), (Z, W ), (Z, Z)} 3. Erfassung der Ausschussteile, die auf einer Maschine während einer Schicht produziert werden Ω = {0, 1, 2, 3,..., n} 4. Ermittlung der Lebensdauer von PKW-Reifen Ω = {t : t 0, t R} Erster Schritt der Modellbildung: Für jedes Zufallsexperiment wird eine Menge Ω von Ergebnissen so festgelegt, dass jedes dieser Ergebnisse als ein möglicher Versuchsausgang interpretiert werden kann. Dabei soll Ω so gewählt werden, dass bei jeder Durchführung des Versuchs der Ausgang durch eines und nur eines dieser Ergebnisse gekennzeichnet ist. Da jeder Ergebnisraum durch einen Abstraktionsprozess aus dem realen Zufallsexperiment gewonnen wird, ist es verständlich, dass umgekehrt zu einem mathematischen Ergebnisraum Ω durchaus verschiedene reale Zufallsexperimente gehören können. So kann Ω = {0, 1} i. a. aufgefasst werden als Ergebnisraum folgender realer Zufallsexperimente: 1. Münzwurf mit den Ergebnissen 0 := Wappen und 1 := Zahl 2. Würfelwurf mit den Ergebnissen 0 := gerade Augenzahl und 1 := ungerade Augenzahl 3. Ziehen einer Kugel aus einer Urne mit roten und schwarzen Kugeln mit den Ergebnissen 0 := rot und 1 := schwarz 4. Qualitätskontrolle mit den Ergebnissen 0 := brauchbar und 1 := unbrauchbar 5. Ziehen eines Loses mit den Ergebnissen 0 := Niete und 1 := Treffer

2.2 Ereignisse und Ereignisraum F 43 2.2.2 Ereignisse und Ereignisraum F Reale Fragestellungen beziehen sich meist nicht auf einzelne Ergebnisse, die bei einem Zufallsexperiment auftreten, sondern auf gewisse Teilmengen von Ω. Dies soll an einem Beispiel erläutert werden. Beispiel 2.2.1 Eine Urne enthalte 3 rote Kugeln, 2 schwarze Kugeln und 1 grüne Kugel. Es werden 2 Kugeln nacheinander ohne Zurücklegen gezogen. Für dieses Zufallsexperiment eignet sich folgender Ergebnisraum: Ω = {(r, r), (r, s), (r, g), (s, r), (s, s), (s, g), (g, r), (g, s)}. Interessiert man sich z. B. dafür, dass zwei gleichfarbige Kugeln gezogen werden, kann dies durch die Menge A 1 = {(r, r), (s, s)} dargestellt werden. Solche interessierenden Teilmengen von Ω nennt man Ereignisse. Interessiert man sich dafür, mindestens eine rote Kugel zu ziehen, so kann dieses Ereignis durch die Menge A 2 = {(r, r), (r, s), (r, g), (s, r), (g, r)} dargestellt werden. Interessiert man sich für das Ereignis, keine rote Kugel zu ziehen, so kann dieses Ereignis durch die Menge A 3 = {(s, s), (s, g), (g, s)} dargestellt werden. Wie man leicht sieht, kann man das Ereignis A 3 auch mittels Komplement darstellen. Es gilt nämlich A 3 = Ā2 = {(s, s), (s, g), (g, s)}. Interessiert man sich für das Ereignis, genau zwei rote Kugeln zu ziehen, so kann dieses Ereignis durch die Menge A 4 = {(r, r)} dargestellt werden. Das Ereignis A 4 lässt sich aber auch als Durchschnitt darstellen, nämlich A 4 = A 1 A 2. Man sieht, dass die Menge {(r, r)} eine einelementige Teilmenge aus Ω ist. Solche einelementigen Teilmengen aus Ω nennt man häufig Elementarereignisse. Interessiert man sich für das Ereignis, genau zwei gleichfarbige Kugeln oder genau eine schwarze und grüne Kugel zu ziehen, so kann dieses Ereignis durch die Menge A 5 = {(r, r), (s, s), (s, g), (g, s)} dargestellt werden. Auch hier sieht man leicht, dass sich das Ereignis A 5 als Vereinigung darstellen lässt, nämlich A 5 = A 1 A 3.

2.2 Mengenalgebra 44 2.2.3 Mengenalgebra Definition 2.2.2 Ω sei eine beliebige Menge. Eine Menge A heißt Teilmenge von Ω, i. Z.: A Ω, wenn jedes Element von A auch Element von Ω ist, d. h. ω A ω Ω für alle ω A. 9 ) Definition 2.2.3 Ω sei eine beliebige Menge und A, B seien Teilmengen von Ω. Die Vereinigung von A und B, i. Z.: A B ist wie folgt definiert: A B := {ω Ω : ω A ω B}. 9 ) 9 * ) *

2.2 Mengenalgebra 45 Definition 2.2.4 Ω sei eine beliebige Menge und A, B seien Teilmengen von Ω. Der Durchschnitt von A und B, i. Z.: A B ist wie folgt definiert: A B := {ω Ω : ω A ω B}. 9 ) 8 * ) * Definition 2.2.5 Ω sei eine beliebige Menge und A, B seien Teilmengen von Ω. Die Differenz von A und B, i. Z.: A \ B ist wie folgt definiert: A \ B := {ω Ω : ω A ω / B}. 9 ) * ) *

2.2 Mengenalgebra 46 Definition 2.2.6 Ω sei eine beliebige Menge und A eine Teilmenge von Ω. Das Komplement von A, i. Z.: Ā ist wie folgt definiert: Ā := {ω Ω : ω / A}. 9 ) ) Definition 2.2.7 Ω sei eine beliebige Menge. Die Gesamtheit aller Teilmengen von Ω heißt Potenzmenge, i. Z.: P(Ω), d. h.: P(Ω) = {A : A Ω}. Beispiel 2.2.8 Ω = {1, 2, 3} P(Ω) = {, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, Ω} Satz 2.2.9 Ist Ω endlich mit n Elementen, d. h. ist Ω = {ω 1,..., ω n }, dann besitzt die Potenzmenge P(Ω) 2 n Elemente. Satz 2.2.10 (Rechenregeln) Ω sei eine beliebige Menge und A, B, C seien Teilmengen von Ω. Dann gilt: (1) (2) (3) A = A A A = A A B = B A A B = B A A (B C) = (A B) C A (B C) = (A B) C A = A Ω = Ω A A = A A Ω = A } Kommutativgesetz } Assoziativgesetz A B A A B B

2.2 Mengenalgebra 47 (4) (5) A (B C) = (A B) (A C) A (B C) = (A B) (A C) (A B) = Ā B (A B) = Ā B) } } Distributivgesetz De Morgansche Gesetze (6) A = (A B) (A B) mit (A B) (A B) = Für die Verknüpfung von Ereignissen ergeben sich daraus die folgenden Darstellungen: A oder B oder beide treten ein entspricht ω A B A und B treten (beide) ein entspricht ω A B A und B treten nie gleichzeitig ein entspricht A B = A tritt nicht ein entspricht ω Ā ω / A A tritt ein, aber B tritt nicht entspricht ω A \ B mindestens ein A i tritt ein entspricht ω alle A i treten ein entspricht ω A i i=1 A i i=1 Bemerkung 2.2.11 Statt A B = sagt man auch A und B sind disjunkt.

2.2 Mengenalgebra 48 Zweiter Schritt der Modellbildung: Ist die Ergebnismenge wie in Beispiel 2.2.1 endlich oder ist die Ergebnismenge Ω auch abzählbar unendlich, dann bezeichnet man jede Teilmenge A Ω als Ereignis. Die Menge aller Ereignisse ist die Potenzmenge und heißt in diesem Kontext Ereignisalgebra. Die leere Menge nennt man unmögliches Ereignis, da ω nie auftritt. Das Ereignis Ω nennt man sicheres Ereignis, da Ω immer eintritt. Ein Ereignis der Form A = {ω} für ein ω Ω heißt Elementarereignis. Bei der Ermittlung der Lebensdauer von PKW Reifen ist Ω = {t : t 0, t R}, d. h. Ω ist überabzählbar. Ein tiefliegendes Ergebnis der Mathematik zeigt, dass bei überabzählbaren Ergebnismengen Ω nicht allen Teilmengen von Ω eine Wahrscheinlichkeit zugeordnet werden kann. Als Ausweg betrachtet man nicht alle Teilmengen von Ω, sondern eine kleinere Auswahl F P(Ω), so dass Ereignisse sinnvoll kombiniert werden können. Dies führt dann zu folgender Definition: Definition 2.2.12 (σ-algebra, Ereignisalgebra) Es sei Ω eine Menge und F eine Menge von Teilmengen von Ω, d. h. F P(Ω). F heißt σ-algebra (Ereignisalgebra) über Ω, wenn gilt: (1) Ω F, (2) A F Ā F, (3) A 1, A 2,... F j N A j F. Satz 2.2.13 Es sei F eine σ-algebra über Ω. Dann gilt (1) F, (2) A 1, A 2,... F j N A j F. Bemerkung 2.2.14 Eine σ-algebra ist somit stabil bezüglich (1) Komplementbildung (2) abzählbar unendlicher Vereinigungsbildung (3) abzählbar unendlicher Durchschnittsbildung

2.2 Mengenalgebra 49 Folgerung 2.2.15 Es sei F eine σ-algebra über Ω, weiterhin sei n N. Dann gilt: (1) A 1,..., A n F n j=1 (2) A 1,..., A n F n j=1 (3) A, B F A \ B F. A j F, A j F, Bemerkung 2.2.16 Ist E P(Ω) irgendeine Teilmenge von Ω, dann gibt es eine kleinste σ-algebra, bezeichnet mit σ(e), die E umfasst, nämlich den Durchschnitt aller σ-algebren, die E umfassen. E nennt man Erzeuger. Beispiel 2.2.17 Die Potenzmenge P(Ω) ist die größte σ-algebra über Ω. F ={, Ω} ist die kleinste σ-algebra über Ω. Es sei A Ω und Ω A, dann ist F ={A, Ā,, Ω} die kleinste σ-algebra über Ω, die A enthält. Es sei Ω = {(x, y) : x 2 + y 2 1}. Weiterhin betrachtet man die folgenden Ereignisse: R 1 = {(x, y) : x 2 + y 2 1 3 }, R 2 = {(x, y) : 1 3 < x2 + y 2 2 3 } und R 3 = {(x, y) : 2 3 < x 2 + y 2 1}, dann ist F ={R 1, R 2, R 3, R 1 R 2, R 1 R 3, R 2 R 3,, Ω} die kleinste σ-algebra über Ω, die R 1, R 2, R 3 enthält. Bemerkung 2.2.18 Für uns sind die folgenden Fälle wichtig: Ω endlich oder abzählbar unendlich. Dann nimmt man als Ereignisalgebra F = P(Ω). Ω = R. Hier konstruiert man die sogenannte Borelsche σ-algebra B, indem man als Erzeuger die Menge aller endlichen Intervalle der Form (a, b] nimmt mit a b, a, b R. Die Elemente von B heißen Borelsche Mengen des R. Ω = X R. Ereignisse sind hier alle Mengen der Form B X, wobei B eine Borelsche Teilmenge von R ist. Man wählt daher die Ereignisalgebra B(X) = {B X : B B}. B(X) heißt auch Spur-σ-Algebra. Ω = R n. Hier konstruiert man die sogenannte Borelsche σ-algebra B n, indem man als Erzeuger die Menge aller Rechtecke der Form (a, b] = (a 1, b 1 ] (a 2, b 2 ] (a n, b n ] nimmt mit a = (a 1,..., a n ), b = (b 1,..., b n ) R n. Die Elemente von B n heißen Borelsche Mengen des R n.

2.2 Mengenalgebra 50 Ω = X R n. Ereignisse sind hier alle Mengen der Form B X, wobei B eine Borelsche Teilmenge von R n ist. Man wählt daher die Ereignisalgebra B(X) = {B X : B B n }. B(X) heißt ebenfalls Spur-σ-Algebra. Bemerkung 2.2.19 Die Borel σ Algebra B besitzt folgende Eigenschaften: (1) Jede einelementige Teilmenge von R ist Element von B. (2) Jede endliche Teilmenge von R ist Element von B. (3) Jede abzählbar unendliche Teilmenge von R ist Element von B. (4) Jedes beliebige Intervall (halboffen, abgeschlossen) aus R ist Element von B. Bemerkung 2.2.20 Die Borel σ Algebra B n besitzt folgende Eigenschaften: (1) A B n, falls A abzählbare Teilmenge von R n, (2) I n B n, falls I n = (a 1, b 1 ] (a 2, b 2 ] (a n, b n ] ein beliebiges n-dimensionales Rechteck im R n ist. (4) O B n für alle offenen Teilmengen O R n, (5) G B n für alle abgeschlossenen Teilmengen G R n. Definition 2.2.21 Ein Paar (Ω, F) bestehend aus einer nichtleeren Menge Ω und einer σ Algebra F über Ω nennt man Messraum. Ω heißt Ergebnisraum und die Elemente von Ω heißen Ergebnisse, F heißt Ereignisraum und die Elemente von F heißen Ereignisse. Bemerkung 2.2.22 Jedes Ereignis ist Teilmenge von Ω, aber nicht jede Teilmenge von Ω ist auch ein Ereignis.

2.2 Wahrscheinlichkeitsräume 51 2.2.4 Wahrscheinlichkeitsräume 3. Schritt der Modellbildung Die Aufgabe im 3. Schritt wird darin bestehen, jedem Ereignis A aus dieser σ-algebra bzw. Ereignisalgebra eine geeignete Zahl zuzuordnen, die uns die Chance dafür angibt, dieses Ereignis bei einem Zufallsexperiment zu erhalten, d. h. man sucht eine auf der Menge der Ereignisse derart definierte Funktion, dass die einzelnen Funktionswerte sinnvollerweise Wahrscheinlichkeiten heißen dürfen. Aufgrund dieser 3 Schritte ist man jetzt in der Lage, ein Zufallsexperiment bzw. einen Wahrscheinlichkeitsraum zu definieren. Definition 2.2.23 Es sei (Ω, F) ein Messraum und P : F R eine Abbildung. Das Tripel (Ω, F, P) heißt Wahrscheinlichkeitsraum oder Zufallsexperiment, wenn gilt: (A1) A F P(A) 0, (A2) (A 1, A 2,... F) und (A i A j = für i j) P( A i ) = P(A i ), i=1 i=1 (A3) P(Ω) = 1. P heißt Wahrscheinlichkeit oder Wahrscheinlichkeitsmaß. Bemerkung 2.2.24 (A1) ist die Forderung der Nichtnegativität einer Wahrscheinlichkeit, (A2) ist die Forderung der σ-additivität, (A3) ist die Forderung der Normierung. Bemerkung 2.2.25 (A1), (A2) und (A3) heißen auch die Axiome von Kolmogoroff. Bemerkung 2.2.26 Wird ein Wahrscheinlichkeitsraum (Ω, F, P) zur Beschreibung eines Zufallsexperimentes benutzt, so sagt man, ein bestimmtes Ereignis A F sei bei einer Durchführung des Experimentes eingetreten, wenn das beobachtete Ergebnis ω Ω ein Element von A ist, d. h. wenn gilt ω A. Satz 2.2.27 Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A, B F. Dann gilt: (1) P(Ā) = 1 P(A); (2) P(A B) = P(A) + P(B) P(A B); (3) P(A B C) = P(A) + P(B) + P(C) P(A B) P(A C) P(B C) + P(A B C); (4) P(A B) P(A) + P(B);

2.2 Wahrscheinlichkeitsräume 52 (5) A B P(A) P(B); (6) P(A B) = P(A) P(A B); (7) P(A B) 1 (P(Ā) + P( B)); (8) P(A) 1. Satz 2.2.28 Es seien Ω ein endlicher oder abzählbar unendlicher Ergebnisraum und F := P(Ω). Weiterhin sei p : Ω [0, 1] eine Abbildung mit p(ω) 0 für alle ω Ω und ω Ω p(ω) = 1. Dann ist durch P(A) := p(ω) für alle A F ω A eine Wahrscheinlichkeit P : F R definiert und damit (Ω, F, P) ein Wahrscheinlichkeitsraum. Insbesondere gilt P({ω}) = p(ω) für alle ω Ω. Definition 2.2.29 (Diskreter Wahrscheinlichkeitsraum) Der Wahrscheinlichkeitsraum (Ω, F, P) mit F := P(Ω) aus dem Satz (2.2.28) und auch das Wahrscheinlichkeitsmaß P heißen diskret. Die Abbildung p : Ω [0, 1] heißt Wahrscheinlichkeitsfunktion. Bemerkung 2.2.30 Ein diskreter Wahrscheinlichkeitsraum ist durch Angabe von Ω und p(ω) vollständig bestimmt.

2.2 Laplace-Experimente und Grundlagen der Kombinatorik 53 2.2.5 Laplace-Experimente und Grundlagen der Kombinatorik Definition 2.2.31 Es sei (Ω, P(Ω), P) ein diskreter Wahrscheinlichkeitsraum mit endlichem Ergebnisraum Ω und der Wahrscheinlichkeitsfunktion p(ω) = 1 für alle ω Ω. Das durch Ω ( ) P(A) = ω A p(ω) = A Ω A P(Ω) definierte Wahrscheinlichkeitsmaß heißt Laplacesches Wahrscheinlichkeitsmaß über Ω und der Wahrscheinlichkeitsraum (Ω, P(Ω), P) Laplacescher Wahrscheinlichkeitsraum. Bemerkung 2.2.32 Die Gleichung (*) formuliert man auch P(A) = Anzahl der für A günstigen F älle. Anzahl der möglichen F älle Satz 2.2.33 (Additionsprinzip der Kombinatorik) Es seien Ω 1, Ω 2,..., Ω r endliche Mengen mit r N endlich und Ω i Ω j = für i j. Dann gilt: Ω 1 Ω 2... Ω r = Ω 1 + Ω 2 +... + Ω r. Satz 2.2.34 (Multiplikationsprinzip der Kombinatorik) Es seien Ω 1, Ω 2,..., Ω r endliche Mengen mit r N endlich. Dann gilt mit Ω 1 Ω 2... Ω r = {(ω 1,..., ω r ) : ω 1 Ω 1,..., ω r Ω r } : Ω 1 Ω 2... Ω r = Ω 1 Ω 2... Ω r. Definition 2.2.35 Es sei Ω eine endliche Menge und r N. Man bezeichnet jedes r-tupel (ω 1,..., ω r ) Ω r als geordnete Probe (Variation) mit Wiederholung vom Umfang r aus Ω. Folgerung 2.2.36 Es sei Ω eine endliche Menge mit Ω = n, n N, und es sei r N. Dann gibt es w V r n = n r geordnete Proben (Variationen) mit Wiederholung vom Umfang r aus Ω.

2.2 Laplace-Experimente und Grundlagen der Kombinatorik 54 Beispiel 2.2.37 In einer Urne befinden sich 10 Kugeln mit den Nummern 0, 1,..., 9. Es werden 3 Kugeln gezogen, wobei vor dem nächsten Zug die bereits zuvor gezogene Kugel wieder in die Urne zurückgelegt wird ( Ziehen mit Zurücklegen ). Wieviel verschiedene Möglichkeiten gibt es, 3 Kugeln zu ziehen? Antwort: w V r n = n r = 10 3 = 1000. Definition 2.2.38 (1) Für jedes n N {0} definiert man die Zahl n! N (gelesen,,n-fakultät ) durch 0! := 1 und (n + 1)! := (n + 1) n! für alle n N, (2) Für n, r N {0} mit 0 r n definiert man die Zahl (n) r (gelesen,,n tief r ) durch (n) r := n! = n (n 1) (n r + 1), (n r)! (3) Für n, r N {0} und 0 r n definiert man den Binomialkoeffizienten ( n r ) (gelesen,,n über r ) durch ( ) n n! := r (n r)! r!. Definition 2.2.39 Es sei Ω eine endliche Menge und r N. Man bezeichnet jedes r-tupel (ω 1,..., ω r ) Ω r mit ω i ω j für i j als geordnete Probe (Variation) ohne Wiederholung vom Umfang r aus Ω. Satz 2.2.40 Es sei Ω eine endliche Menge mit Ω = n, n N und es sei r N mit 1 r n. Dann gibt es V r n = n(n 1)...(n r + 1) = (n) r geordnete Proben (Variationen) ohne Wiederholung vom Umfang r aus Ω. Beispiel 2.2.41 In einer Urne befinden sich 10 Kugeln mit den Nummern 0, 1,..., 9. Es werden nacheinander 3 Kugeln gezogen, wobei die bereits zuvor gezogenen Kugeln nicht wieder in die Urne zurückgelegt werden ( Ziehen ohne Zurücklegen ). Wieviel verschiedene Möglichkeiten gibt es, 3 Kugeln zu ziehen? Antwort: Vn r n! = (n) r = (n r)! = 10! (10 3)! = 10! = 10 9 8 = 720. 7!

2.2 Laplace-Experimente und Grundlagen der Kombinatorik 55 Definition 2.2.42 Es sei Ω eine endliche Menge mit Ω = n, n N. Jedes n-tupel heißt eine Permutation von Ω. (ω 1,..., ω n ) Ω n mit ω i ω j für i j Folgerung 2.2.43 Es sei Ω eine endliche Menge mit Ω = n, n N. Dann gibt es n! Permutationen von Ω. Bemerkung 2.2.44 Jede endliche Menge kann man ordnen. Definition 2.2.45 Es sei Ω eine endliche Menge und r N. Man bezeichnet jedes r-tupel (ω 1,..., ω r ) Ω r mit ω 1 < ω 2 <... < ω r als ungeordnete Probe (Kombination) ohne Wiederholung vom Umfang r aus Ω. Satz 2.2.46 Es sei Ω eine endliche Menge mit Ω = n, n N und es sei r N mit 1 r n. Dann gibt es ( ) n Cn r = r ungeordnete Proben (Kombinationen) ohne Wiederholung vom Umfang r aus Ω. Beispiel 2.2.47 In einer Urne befinden sich 10 Kugeln mit den Nummern 0, 1,..., 9. Es werden gleichzeitig 3 Kugeln gezogen ( Gleichzeitiges Ziehen ). Wieviel verschiedene Möglichkeiten gibt es, 3 Kugeln zu ziehen? Antwort: C r n = ( n r ) = n! r! (n r)! = 10! 3! (10 3)! = 10! 3! 7! = 120. Definition 2.2.48 Es sei Ω eine endliche Menge und r N. Man bezeichnet jedes r-tupel (ω 1,..., ω r ) Ω r mit ω 1 ω 2... ω r als ungeordnete Probe (Kombination) mit Wiederholung vom Umfang r aus Ω. Satz 2.2.49 Es sei Ω eine endliche Menge mit Ω = n, n N und es sei r N. Dann gibt es ( ) n + r 1 w Cn r = r ungeordnete Proben (Kombinationen) mit Wiederholung vom Umfang r aus Ω.

2.2 Laplace-Experimente und Grundlagen der Kombinatorik 56 Beispiel 2.2.50 Es wird mit 3 gleichartigen Würfeln gleichzeitig gewürfelt. Wieviele verschiedene Zahlenkombinationen sind möglich? ( ) ( ) ( ) n + r 1 6 + 3 1 8 Antwort: w Cn r = = = = 56 r 3 3 Bemerkung 2.2.51 Die Interpretation der zuvor behandelten Kombinationen und Variationen anhand geeigneter Urnenmodelle ist im folgenden Tableau gegeben: Interpretation als Urnenmodell n N Urnen, r N Kugeln Bedingung Kugeln sind in jeder Kugelverteilung Anzahl der über r Urne sind entspricht Kugelverteilungen 1 r n 1 r n unterscheidbar maximal geordnete Probe (durchnumeriert) r Kugeln mit Wiederholung unterscheidbar höchstens geordnete Probe (durchnumeriert) eine Kugel ohne Wiederholung nicht maximal ungeordnete Probe unterscheidbar r Kugeln mit Wiederholung nicht höchstens ungeordnete Probe unterscheidbar eine Kugel ohne Wiederholung w V r n := n r V r n := (n) r w Cn r := ( ) n+r 1 r Cn r := ( ) n r Definition 2.2.52 (Multinomialkoeffizient) Es seien k, k 1,..., k r N {0} mit r i=1 k i = k. Dann heißt Multinomialkoeffizient. ( ) k := k 1,..., k r k! k 1!... k r! Beispiel 2.2.53 In einer Urne befinden sich sich 18 Kugeln, von denen 3 rot, 4 blau, 5 weiß und 6 schwarz sind. Wieviele verschiedene ( ) Möglichkeiten gibt es, diese 18 Kugeln anzuordnen? k k! Antwort: := k 1,... k r k 1!... k r! = 18! 3! 4! 5! 6! = 514594080.

2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 57 2.2.6 Bedingte Wahrscheinlichkeit und Unabhängigkeit Beispiel 2.2.54 (Motivation) Eine Firma bezieht 5000 Speicherchips von zwei verschiedenen Firmen A und B. Firma A hat 1000 Speicherchips und Firma B 4000 Speicherchips geliefert. Unter den 5000 Speicherchips sind 300 Speicherchips defekt. 100 defekte Speicherchips stammen von Firma A, 200 defekte Speicherchips stammen von Firma B. Ein geeignetes Modell zur Beschreibung des zufälligen Ziehens eines Speicherchips aus der gesamten Lieferung ist das folgende: Ω : Menge aller Speicherchips, Ω = 5000 A : Menge der Speicherchips von Firma A, A = 1000 B : Menge der Speicherchips von Firma B, B = 4000 D : Menge der defekten Speicherchips, D = 300 A D : Menge der defekten Speicherchips von Firma A, A D = 100 B D : Menge der defekten Speicherchips von Firma B, B D = 200 Ein Speicherchip wird nun rein zufällig gezogen. Dieses Zufallsexperiment wird durch ein Laplace-Modell beschrieben. Wie groß ist die Wahrscheinlichkeit, dass der Speicherchip defekt ist, wenn er von Firma A stammt? P(D A) := D A A = D A Ω A Ω = P(D A) P(A) = 100 5000 1000 5000 = 1 10. Umgekehrt lässt sich auch nach der Wahrscheinlichkeit fragen, dass der Speicherchip von Firma A stammt, wenn er defekt ist. A D 100 A D Ω P(A D) P(A D) := = = = 5000 = 1 D D P(D) 300 3. Ω 5000 Diese Vorüberlegungen legen die folgende allgemeine Definition für den Begriff der bedingten Wahrscheinlichkeit nahe. Definition 2.2.55 Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A, B F mit P(A) > 0. Man nennt P(B A) := P(B A) P(A) die bedingte Wahrscheinlichkeit von B unter der Bedingung A. Bemerkung 2.2.56 Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum und A F mit P(A) > 0. Man kann leicht nachweisen, dass die bedingte Wahrscheinlichkeit P( A) als Abbildung P( A) : F R die Eigenschaften (A1), (A2), (A3) einer Wahrscheinlichkeit hat, die Begriffsbildung in Definition (2.2.55) somit berechtigt ist. Also ist durch (Ω, F, P( A)) ein weiterer Wahrscheinlichkeitsraum gegeben.

2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 58 Bemerkung 2.2.57 Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A, B F. P(A B) Aus P(B A) = mit P(A) > 0 folgt: P(A) ( ) P (A B) = P (A) P (B A). Nach Satz (2.2.27) (5) gilt wegen A B A stets P(A B) P(A), insbesondere folgt aus P(A) = 0 auch P(A B) = 0. Allerdings ist P(B A) für P(A) = 0 nicht definiert, man setzt deshalb fest P(A) P(B A) := 0 für P(A) = 0, so dass die Gleichung ( ) für alle A F gültig ist. Satz 2.2.58 (Multiplikationssatz) Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A 1, A 2,..., A n F für n N. Dann gilt: P(A 1... A n ) = P(A 1 ) P(A 2 A 1 ) P(A 3 A 1 A 2 )... P(A n A 1... A n 1 ). Dabei sei vereinbart, die untere Zeile gleich Null zu setzen, wenn mindestens eine der Wahrscheinlichkeiten P ( k i=1 A i) für k = 1, 2,..., n 1 verschwindet, also mindestens eine der bedingten Wahrscheinlichkeiten nicht definiert ist. Beispiel 2.2.59 Eine Urne enthält 12 Kugeln, von denen 4 weiß und 8 schwarz sind. Es werden nacheinander ohne Zurücklegen 3 Kugeln entnommen. Wie groß ist die Wahrscheinlichkeit dafür, dass alle 3 gezogenen Kugeln schwarz sind? Lösung: Es sei A i das Ereignis, dass beim i-ten Zug eine schwarze Kugel gezogen wird. Gesucht ist also die folgende Wahrscheinlichkeit: P(A 1 A 2 A 3 ) = P(A 1 ) P(A 2 A 1 ) P(A 3 A 1 A 2 ) = 8 12 7 11 6 10 = 14 55. Satz 2.2.60 (Satz der totalen Wahrscheinlichkeit) Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A 1, A 2,..., A n F für n N eine Folge von Ereignissen mit A i A j = für i j und n j=1 A j = Ω. Für jedes B F gilt dann: P(B) = n P(B A j ) P(A j ). j=1

2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 59 9 ) )! * ) ) ) Beispiel 2.2.61 In einem Betrieb wird ein Massenartikel auf drei Maschinen M 1, M 2 und M 3 hergestellt. Die Maschinen sind an der Gesamtproduktion wie folgt beteiligt: M 1 mit 50%, M 2 mit 40% und M 3 mit 10%. Die Maschinen arbeiten nicht fehlerfrei. Der Ausschussanteil beträgt bei M 1 3%, bei M 2 6% und bei M 3 11%. Wie groß ist der Ausschussanteil an der Gesamtproduktion? Lösung: Wir betrachten die Ereignisse: A i : Ein zufällig aus der Gesamtproduktion gewähltes Stück wurde von Maschine M i hergestellt (i = 1, 2, 3). B : Ein zufällig aus der Gesamtproduktion gewähltes Stück gehört zum Ausschuss. Aus den gegebenen Daten liest man folgendes ab: P(A 1 ) = 0.5 und P(B A 1 ) = 0.03, P(A 2 ) = 0.4 und P(B A 2 ) = 0.06, P(A 3 ) = 0.1 und P(B A 3 ) = 0.11. Somit erhalten wir: Satz der totalen Wahrscheinlichkeit: P(B) = P(B A 1 ) P(A 1 ) + P(B A 2 ) P(A 2 ) + P(B A 3 ) P(A 3 ) = 0.03 0.5 + 0.06 0.4 + 0.11 0.1 = 0.05. Der Ausschussanteil an der Gesamtproduktion beträgt 5%. Satz 2.2.62 (Bayes) Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A 1, A 2,..., A n F eine Folge von Ereignissen mit A i A j = für i j und n j=1 A j = Ω. Weiter sei B F mit P(B) > 0. Dann gilt: P(B A k ) P(A k ) P(A k B) = n j=1 P(B A, k = 1, 2,..., n. j) P(A j )

2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 60 Beispiel 2.2.63 (Fortsetzung von Beispiel 1.4.2) Ein zufällig aus der Gesamtproduktion gewähltes Stück wird überprüft und zum Ausschuss gerechnet. Wie groß ist die Wahrscheinlichkeit dafür, dass ein derartiges Stück von Maschine M j (j = 1, 2, 3) hergestellt wurde? Lösung: Satz von Bayes: P(B A 1 ) P(A 1 ) 0.03 0.5 P(A 1 B) = 3 j=1 P(B A = = 0.30, j) P(A j ) 0.05 P(A 2 B) = P(A 3 B) = P(B A 2 ) P(A 2 ) 0.06 0.4 3 j=1 P(B A = = 0.48, j) P(A j ) 0.05 P(B A 3 ) P(A 3 ) 0.11 0.1 3 j=1 P(B A = = 0.22. j) P(A j ) 0.05 Definition 2.2.64 Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum, und es seien A, B F. A und B heißen stochastisch unabhängig bzgl. P, wenn gilt: P(A B) = P(A) P(B). Satz 2.2.65 Es seien (Ω, F, P ) ein Wahrscheinlichkeitsraum, A, B F mit P(A) > 0, P(B) > 0. Dann sind die folgenden Aussagen äquivalent: (1) A und B sind stochastisch unabhängig, (2) P(A B) = P(A), (3) P(B A) = P(B).

2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 61 Satz 2.2.66 Es seien (Ω, F, P ) ein Wahrscheinlichkeitsraum und A, B F. Dann sind die folgenden Aussagen äquivalent: (1) A, B sind stochastisch unabhängig, (2) A, B sind stochastisch unabhängig, (3) Ā, B sind stochastisch unabhängig, (4) Ā, B sind stochastisch unabhängig. Definition 2.2.67 Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und (A i ) i I eine Familie von Ereignissen aus F. Die Familie heißt stochastisch unabhängig, wenn für jede endliche Teilmenge K I gilt: P( P(A i ). i K A i ) = i K Bemerkung 2.2.68 Für 3 Ereignisse A 1, A 2, A 3 lautet die Definition (2.2.67): A 1, A 2, A 3 sind stochastisch unabhängig, wenn gilt: (1) P(A 1 A 2 ) = P(A 1 ) P(A 2 ), (2) P(A 1 A 3 ) = P(A 1 ) P(A 3 ), (3) P(A 2 A 3 ) = P(A 2 ) P(A 3 ), (4) P(A 1 A 2 A 3 ) = P(A 1 ) P(A 2 ) P(A 3 ). Beispiel 2.2.69 Es wird mit 2 unverfälschten Münzen geworfen. Dieses Zufallsexperiment wird durch ein Laplace-Modell beschrieben mit W Wappen und Z Zahl. Ω = {(W, W ), (W, Z), (Z, W ), (Z, Z)} Gegeben seien weiterhin die folgenden Ereignisse: A 1 := {Wappen auf der ersten Münze} = {(W, W ), (W, Z)} A 2 := {Wappen auf der zweiten Münze} = {(W, W ), (Z, W )} A 3 := {Wappen auf genau einer Münze} = {(W, Z), (Z, W )} Es gilt: Daher gilt: P(A 1 ) = P(A 2 ) = P(A 3 ) = 2 4 = 1 2, P(A 1 A 2 ) = P({(W, W )}) = 1 4, P(A 1 A 3 ) = P({(W, Z)}) = 1 4, P(A 2 A 3 ) = P({(Z, W )}) = 1 4.

2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 62 P(A 1 A 2 ) = P(A 1 ) P(A 2 ), P(A 1 A 3 ) = P(A 1 ) P(A 3 ), P(A 2 A 3 ) = P(A 2 ) P(A 3 ). Damit sind die Ereignisse A 1, A 2 und A 3 paarweise unabhängig. Es gilt aber weiterhin P(A 1 A 2 A 3 ) = P( ) P(A 1 ) P(A 2 ) P(A 3 ) = 1 8. Daher sind die Ereignisse A 1, A 2 und A 3 stochastisch abhängig. Merke: Aus der paarweisen Unabhängigkeit der Ereignisse folgt nicht die Unabhängigkeit aller Ereignisse! Bemerkung 2.2.70 Durch vollständige Induktion kann man zeigen, dass auch die Verallgemeinerung von Satz (2.2.66) auf n N Ereignisse gilt.

Kapitel 3 Messbare Abbildungen und Zufallsvektoren 3.1 Allgemeine Begriffe Definition 3.1.1 Es seien X : Ω R n eine Abbildung und B R n. Man bezeichnet als Urbild von B bzgl. X. X 1 (B) = {ω Ω : X(ω) B} Definition 3.1.2 Es seien (Ω, F) und (R n, B n ) zwei Messräume. Eine Abbildung X : Ω R n heißt F B n messbar, wenn gilt: X 1 (B) F für alle B B n. Bemerkung 3.1.3 Für B 1 schreiben wir im folgenden B. Definition 3.1.4 Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Eine F B n messbare Abbildung X : Ω R n, ω X(ω) = (X 1 (ω),..., X n (ω)) heißt n-dimensionaler Zufallsvektor. Im Falle n = 1 spricht man von einer Zufallsariablen über (Ω, F, P). Bemerkung 3.1.5 Ist F = P(Ω), dann ist jede Abbildung X : Ω R n n-dimensionaler Zufallsvektor. Ebenso ist jede stetige Funktion X : Ω R n n-dimensionaler Zufallsvektor. 63

3.1. ALLGEMEINE BEGRIFFE 64 Satz 3.1.6 Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und X ein n-dimensionaler Zufallsvektor. Dann ist durch P X (B) := P(X 1 (B)) für alle B B n eine Wahrscheinlichkeit P X : B n R definiert und (R n, B n, P X ) ist ein Wahrscheinlichkeitsraum. Definition 3.1.7 Man bezeichnet die durch P X (B) := P(X 1 (B)) für alle B B n definierte Wahrscheinlichkeit P X : B n R als Wahrscheinlichkeitsverteilung des Zufallsvektors X.

Kapitel 4 Eindimensionale Zufallsvariablen 4.1 Einführung Beispiel 4.1.1 Dreimaliger Münzwurf mit einer unverfälschten Münze Ω = {(W, W, W ), (W, W, Z), (W, Z, W ), (Z, W, W ), (W, Z, Z), (Z, W, Z), (Z, Z, W ), (Z, Z, Z)}, F = P(Ω) P : F R mit P(A) = A für alle A F. Ω X : Ω R mit X Anzahl der Wappen (W, W, W ) 3 (W, W, Z) 2 (W, Z, W ) 2 (Z, W, W ) 2 X := (W, Z, Z) 1 (Z, W, Z) 1 (Z, Z, W ) 1 (Z, Z, Z) 0 P X ({3}) := P(X 1 ({3})) = P({(W, W, W )}) = 1 8, P X ({2}) := P(X 1 ({2})) = P({(W, W, Z), (W, Z, W ), (Z, W, W )}) = 3 8, P X ({1}) := P(X 1 ({1})) = P({(W, Z, Z), (Z, W, Z), (Z, Z, W )}) = 3 8, P X ({0}) := P(X 1 ({0})) = P({(Z, Z, Z)}) = 1 8. 65

4.1. EINFÜHRUNG 66 Bemerkung 4.1.2 Man führt für das Urbild X 1 (B) = {ω Ω : X(ω) B} auch die folgenden Kurzschreibweise ein: {ω Ω : X(ω) B} =: {X B}. Speziell schreibt man: {ω Ω : X(ω) a} =: {X a}, {ω Ω : X(ω) = a} =: {X = a} usw.

4.2. DISKRETE ZUFALLSVARIABLEN 67 4.2 Diskrete Zufallsvariablen Definition 4.2.1 Eine eindimensionale Zufallsvariable X mit der Wahrscheinlichkeitsverteilung P X heißt diskret, wenn es eine endliche oder abzählbar unendliche Teilmenge B R gibt mit P X (B) = P{X B} = 1. Definition 4.2.2 Es sei X eine eindimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x 1, x 2,...} und der Wahrscheinlichkeitsverteilung P X. Dann heißt die Abbildung p : R [0, 1] mit p(x) = { PX {x} für x X(Ω) 0 für x R \ X(Ω) Wahrscheinlichkeitsfunktion von X. Die Menge T = {x R : p(x) > 0} heißt Träger, die Elemente x T heißen Trägerpunkte und die Werte p(x) die zugehörenden Punktwahrscheinlichkeiten. Bemerkung 4.2.3 Es gilt: P X (B) = x B p(x) für alle B X(Ω). Satz 4.2.4 Es sei X eine eindimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x 1, x 2,...}. Dann erfüllt die Wahrscheinlichkeitsfunktion p(x) die folgenden Bedingungen: (1) p(x) 0 für x R, (2) x X(Ω) p(x) = 1. Umgekehrt gibt es zu jeder Funktion p(x) mit den Eigenschaften (1) und (2) eine Zufallsvariable X mit der Wahrscheinlichkeitsfunktion p(x). Bemerkung 4.2.5 Es sei X eine eindimensionale diskrete Zufallsvariable mit dem endlichen Wertebereich X(Ω) := {x 1, x 2,..., x n } und der Wahrscheinlichkeitsfunktion p(x i ), i = 1, 2,..., n. Dann lässt sich die Verteilung von X stets mittels der folgenden Tabelle darstellen: x 1 x 2...... x n p(x 1 ) p(x 2 )...... p(x n )

4.2. DISKRETE ZUFALLSVARIABLEN 68 Beispiel 4.2.6 Dreimaliger Münzwurf mit einer unverfälschten Münze (siehe Beispiel 4.1.1). Für die Darstellung der Verteilung von X erhält man die folgende Tabelle: x i 0 1 2 3 p(x i ) = P X {x i } 1 8 3 8 3 8 1 8 Definition 4.2.7 Eine diskrete Zufallsvariable heißt symmetrisch verteilt um a R, wenn mit jedem Trägerpunkt x i auch 2a x i Trägerpunkt ist und weiterhin gilt. P X {x i } = P X {2a x i } für alle i I N Beispiel 4.2.8 Gegeben sei eine diskrete Zufallsvariable X mit der Wahrscheinlichkeitsfunktion p(x) : x i 1 2 3 4 5 p(x i ) = P X {x i } 1 9 2 9 3 9 2 9 1 9 F N N Es gilt gilt für alle Trägerpunkte x i = 1, 2, 3, 4, 5 : P X {x i } = P X {2 3 x i }. Damit ist X symmetrisch um 3 verteilt.

4.3. STETIGE ZUFALLSVARIABLEN 69 4.3 Stetige Zufallsvariablen Definition 4.3.1 Jede Riemann-integrierbare Funktion f : R R mit f(x) 0, x R und f(x)dx = 1 heißt Riemann-Dichtefunktion (Riemann-Dichte oder auch kurz Dichtefunktion bzw. Dichte). Beispiel 4.3.2 Gegeben sei die Funktion f(x) : 6x(1 x) für 0 x 1 f(x) = 0 sonst Es gilt f(x) 0, x R und f(x)dx = 1 0 6x(1 x)dx = 1. Damit ist f(x) eine Dichte. f X (x) 1.4 1.2 1.0 0.8 0.6 0.4 0.2 0.0 0.2 0.0 0.2 0.4 0.6 0.8 1.0 1.2 x Definition 4.3.3 Es sei X eine eindimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung P X und der Dichtefunktion f X. Die Zufallsvariable X heißt stetig, wenn für alle Intervalle (a, b] R gilt: P X (a, b] = P{a < X b} = b a f X (x)dx.

4.3. STETIGE ZUFALLSVARIABLEN 70 f X (x) P((a,b]) a b x Definition 4.3.4 Eine stetige Zufallsvariable X heißt symmetrisch um a R verteilt, wenn es eine Dichte f X gibt mit: f X (a x) = f X (a + x) für alle x R, bzw. f X (x) = f X (2a x) für alle x R. Beispiel 4.3.5 Es sei f X (x) eine Dichte mit 6x(1 x) für 0 x 1 f X (x) = 0 sonst Es gilt: f X (x) = f X (2 1 2 x) für alle x R, daher ist X symmetrisch um 1 2 verteilt.

4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 71 4.4 Die Verteilungsfunktion von eindimensionalen Zufallsvariablen Definition 4.4.1 Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit der Wahrscheinlichkeitsverteilung P X. Die Abbildung mit F X : R R F X (x) := P X ((, x]) = P({X x}) für alle x R heißt Verteilungsfunktion der Zufallsvariablen X. Vereinbarung 4.4.2 Im folgenden schreiben wir für P X ((, x]) =: P X (, x] und für P({X x}) =: P{X x}. Bemerkung 4.4.3 Aufgrund der Definition einer Verteilungsfunktion gilt: i:x i x p(x i) F X (x) = x f X(t)dt falls X diskret falls X stetig Bemerkung 4.4.4 Die Verteilungsfunktion einer diskreten Zufallsvariablen ist eine Treppenfunktion. Die Verteilungsfunktion einer stetigen Zufallsvariablen ist eine totalstetige Funktion.

4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 72 Beispiel 4.4.5 (Diskrete Zufallsvariable) Dreimaliger Münzwurf mit einer unverfälschten Münze (siehe Beispiel 4.1.1). Mit Hilfe der folgenden Tabelle: x i 0 1 2 3 p(x i ) = P {X = x i } erhält man die Verteilungsfunktion wie folgt: 0 für x < 0 1 für 0 x < 1 F X (x) = 8 i:x i x p(x 4 i) = für 1 x < 2 8 7 für 2 x < 3 8 1 für x 3. 1 8 3 8 3 8 1 8. N :! " # N

4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 73 Beispiel 4.4.6 (Stetige Zufallsvariable) Es sei f X (x) eine Dichte mit 6x(1 x) für 0 x 1 f X (x) = 0 sonst Für die Verteilungsfunktion F X erhält man: x 0 für x < 0 F X (x) = f X (t)dt = 3x 2 2x 3 für 0 x 1 1 für x > 1. N : % # # # # # # N

4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 74 Satz 4.4.7 (Eigenschaften einer Verteilungsfunktion) Es sei F X ( ) Verteilungsfunktion einer eindimensionalen Zufallsvariablen X. Dann gilt: (1) F X ist monoton wachsend, d. h.: x < y => F X (x) F X (y), (2) F X ist rechtsseitig stetig, d. h.: lim F X (x + h) = F X (x) für alle x R, h 0 h>0 (3) lim x F X(x) =: F X ( ) = 1, (4) lim x F X(x) =: F X ( ) = 0. Satz 4.4.8 Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit der Wahrscheinlichkeitsverteilung P X und der Verteilungsfunktion F X ( ) und a, b R mit a < b. Dann gilt: P X (a, b] = P{a < X b} = F X (b) F X (a). Satz 4.4.9 Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit der Wahrscheinlichkeitsverteilung P X und der Verteilungsfunktion F X ( ) und a R. Dann gilt: P X {a} = P X [a, a] = P{X = a} = F X (a) F X (a 0) mit F X (a 0) := lim F X (a h). h 0 h>0 Folgerung 4.4.10 Es sei X eine stetige Zufallsvariable mit der Wahrscheinlichkeitsverteilung P X. Dann gilt: P X {x} = 0 für alle x R. Satz 4.4.11 Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit der Wahrscheinlichkeitsverteilung P X und der Verteilungsfunktion F X ( ) und a, b R mit a < b. Dann gilt: (1) P X (a, b) = P{a < X < b} = F X (b 0) F X (a); (2) P X [a, b] = P{a X b} = F X (b) F X (a 0); (3) P X [a, b) = P{a X < b} = F X (b 0) F X (a 0); (4) P X (, b) = P{X < b} = F X (b 0);

4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 75 (5) P X (a, ) = P{X > a} = 1 P{X a} = 1 F X (a); (6) P X [a, ) = P{X a} = 1 P{X < a} = 1 F X (a 0). Bemerkung 4.4.12 Aufgrund von Folgerung 4.4.10 gilt bei einer stetigen Zufallsvariablen X stets F X (x 0) = F X (x) für alle x R. Definition 4.4.13 Es sei X eine Zufallsvariable mit der Wahrscheinlichkeitsverteilung P X und der Verteilungsfunktion F X ( ). Gilt für ein x R P X {x} = P{X = x} = F X (x) F X (x 0) > 0, so heißt x eine Sprungstelle von F X und P X {x} die zugehörige Sprunghöhe. Bemerkung 4.4.14 Eine Verteilungsfunktion hat höchstens abzählbar unendlich viele Sprungstellen. Bemerkung 4.4.15 Besitzt eine diskrete Zufallsvariable X die Sprungstellen x i, i N, und die Verteilungsfunktion F X (x), dann erhält man die Wahrscheinlichkeitsfunktion p(x i ), i N, mittels der folgenden Formel: p(x i ) = F X (x i ) F X (x i 0) Satz 4.4.16 Es sei X eine Zufallsvariable mit der Verteilungsfunktion F X. X ist symmetrisch um a R verteilt, genau dann, wenn gilt. F X (a + x) = 1 F X (a x 0) für alle x R Satz 4.4.17 Ist F X : R [0, 1] eine totalstetige Verteilungsfunktion, die auf dem Komplement einer endlichen oder leeren Menge C stetig differenzierbar ist, so wird durch f X (x) = df X(x) dx (x R \ C) eine Dichte f X zu F X definiert. (Auf C kann man f X beliebig festsetzen.)

4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 76 Beispiel 4.4.18 Es sei X eine Zufallsvariable mit der Verteilungsfunktion F X (x) : F X (x) = 0 für x < 1 1 4 x 1 4 x 5 2 für 1 x < 3 für 3 x < 7 2 1 für x 7 2. N : % # # #! " # N f X (x) = df X(x) dx = 1 für 1 < x < 3 4 1 für 3 < x < 7 2 0 für x < 1 oder x > 7 2

4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 77 B N : % # # #! " # N Hier ist C = {1, 3, 7 2 }.

4.5. LINEARE TRANSFORMATIONEN VON EINDIMENSIONALEN ZUFALLSVARIABLEN 78 4.5 Lineare Transformationen von eindimensionalen Zufallsvariablen Satz 4.5.1 (a) Es seien X eine eindimensionale Zufallsvariable, a, b R mit a 0 und G : R R die Abbildung mit G(x) = ax + b für alle x R. Dann ist Y := G(X) = ax + b ebenfalls eine Zufallsvariable und es gilt: F X ( y b F Y (y) = a ) für a > 0 1 F X ( y b 0) für a < 0 a für alle y R. (b) Ist F X totalstetig, dann ist auch F Y totalstetig und für eine Dichte f Y ( ) gilt an allen Stetigkeitsstellen y y b von f Y ( ), für die Stetigkeitsstelle von f X ist: a f Y ( y) = 1 a f y b X( a ). Beispiel 4.5.2 Es sei X eine Zufallsvariable mit der Verteilungsfunktion F X : F X (x) = 0 für x < 0 1 4 1 2 3 4 für 0 x < 1 für 1 x < 2 für 2 x < 3 1 für x 3 Dann gilt für die Verteilungsfunktion von Y = 2X + 4 : F Y (y) = 1 F X ( y 4 2 0) = 0 für y < 2 1 für 2 y < 0 4 1 für 0 y < 2 2 3 für 2 y < 4 4 1 für y 4

4.6. MOMENTE VON EINDIMENSIONALEN ZUFALLSVARIABLEN 79 4.6 Momente von eindimensionalen Zufallsvariablen Definition 4.6.1 Es sei X eine diskrete eindimensionale Zufallsvariable mit den Trägerpunkten x i und den Punktwahrscheinlichkeiten P X {x i } = p(x i ), (i J N). Gilt (1) i J x i p(x i ) <, dann heißt (2) E(X) := i J x i p(x i ) der Erwartungswert (Mittelwert) der Zufallsvariable X. Gilt (1) nicht, so sagt man, der Erwartungswert existiert nicht. Bemerkung 4.6.2 Hat eine diskrete Zufallsvariable nur endlich viele Trägerpunkte, so ist (4.6.1) (1) trivialerweise erfüllt, d. h. der Erwartungswert existiert dann immer. Folgerung 4.6.3 Die Zufallsvariable X habe eine Einpunktverteilung auf a R, d. h. P X {a} = 1. Dann gilt: E(X) = a. Definition 4.6.4 Es sei X eine stetige eindimensionale Zufallsvariable und f X : R R eine Dichte von X. Gilt (1) x f X(x)dx <, dann heißt (2) E(X) := x f X(x)dx der Erwartungswert (Mittelwert) der Zufallsvariable X. Gilt (1) nicht, so sagt man, der Erwartungswert existiert nicht. Vereinbarung 4.6.5 Zur Vereinfachung soll im Folgenden bei der Benutzung des Symbols E(X) und nicht spezifizierter Verteilung von X die Existenz des Erwartungswertes ohne ausdrückliche Erwähnung vorausgesetzt werden.

4.6. MOMENTE VON EINDIMENSIONALEN ZUFALLSVARIABLEN 80 Satz 4.6.6 Es seien X eine eindimensionale Zufallsvariable und G : R R eine B B messbare Abbildung. (a) Ist X diskret verteilt mit den Trägerpunkten x i und den Punktwahrscheinlichkeiten P X {x i } = p(x i ) und gilt weiterhin i G(x i) p(x i ) <, dann existiert der Erwartungswert E(G(X)) und es gilt: E(G(X)) = G(x i ) p(x i ) = G(x i ) P X {x i }. i i (b) Ist X stetig verteilt mit einer Dichte f X und gilt G(x) f X(x)dx <, dann existiert der Erwartungswert E(G(X)), und es gilt: E(G(X)) = G(x) f X (x)dx. Satz 4.6.7 Es seien X eine eindimensionale Zufallsvariable und G : R R, H : R R B B messbare Abbildungen. Existieren E( G(X) ) und E( H(X) ), dann gilt: E(G(X) + H(X)) = E(G(X)) + E(H(X)). Satz 4.6.8 Es sei X eine Zufallsvariable mit dem Erwartungswert E(X) und G : R R die Abbildung mit G(x) = ax + b, a, b R. Dann existiert auch der Erwartungswert der Zufallsvariable G(X) = ax + b und es gilt: E(aX + b) = ae(x) + b. Satz 4.6.9 Ist die Zufallsvariable X symmetrisch um a R verteilt und existiert ihr Erwartungswert, so gilt: E(X) = a. Definition 4.6.10 Es sei X eine eindimensionale Zufallsvariable. Man bezeichnet den Erwartungswert E(X k ), k = 0, 1, 2,..., falls er existiert, als das Moment k-ter Ordnung um Null von X und schreibt: µ k := E(X k ) =: µ k (X). Weiterhin bezeichnet man den Erwartungswert E[(X E(X)) k ], k = 0, 1, 2,..., falls er existiert, als das zentrale Moment k-ter Ordnung von X und schreibt σ k := E[(X E(X)) k ] =: σ k (X).

4.6. MOMENTE VON EINDIMENSIONALEN ZUFALLSVARIABLEN 81 Satz 4.6.11 Die zentralen Momente sind translationsinvariant, d. h. σ k (X) = σ k (X + a) für a R, k = 0, 1, 2,... Definition 4.6.12 Das zweite zentrale Moment einer Zufallsvariable X bezeichnet man als Streuung oder Varianz von X und schreibt: E[(X E(X)) 2 ] =: Var(X) =: σ 2 X =: σ 2. Die positive Wurzel aus der Streuung bezeichnet man als Standardabweichung von X und schreibt + E[(X E(X)) 2 ] =: σ X =: σ. Satz 4.6.13 Es sei X eine Zufallsvariable mit dem Erwartungswert E(X) und der Varianz Var(X). Dann gilt: (1) Var(aX + b) = a 2 Var(X) für alle a, b R, (2) Var(X) = E(X 2 ) [E(X)] 2 (Varianzzerlegungssatz). Satz und Definition 4.6.14 Es sei X eine Zufallsvariable mit dem Erwartungswert E(X) und der Varianz Var(X) > 0. Weiterhin sei Y := X E(X). Var(X) Dann gilt: E(Y ) = 0 und Var(Y ) = 1. Man nennt Y eine standardisierte Zufallsvariable.

4.7. MODUS UND QUANTILE VON EINDIMENSIONALEN ZUFALLSVARIABLEN 82 4.7 Modus und Quantile von eindimensionalen Zufallsvariablen Definition 4.7.1 Als wahrscheinlichsten Wert, häufigsten Wert, Modus oder Modalwert einer Zufallsvariablen X bezeichnet man (1) im diskreten Fall: jeden Trägerpunkt x i, dessen Wahrscheinlichkeitsmasse P X {x i } =: p(x i ) maximal ist, (2) im stetigen Fall: jeden Punkt x, zu dem es eine Dichte f X gibt, die dort maximal und mindestens halbseitig stetig ist. Nach der Anzahl der Modalwerte heißt die Wahrscheinlichkeitsverteilung P X uni-, bi- bzw. multimodal. Definition 4.7.2 Es sei X eine eindimensionale Zufallsvariable. Jeder Wert x R mit P {X x} 1 2 und P {X x} 1 2 heißt Median oder Zentralwert der Zufallsvariablen X. Man bezeichnet einen solchen Wert auch mit x Med oder x 0,5. Definition 4.7.3 Es sei X eine eindimensionale Zufallsvariable und p (0, 1). Jeder Wert x R mit P {X x} p und P {X x} 1 p heißt Quantil p-ter Ordnung, p-quantil oder p-fraktil von X. Man bezeichnet einen solchen Wert oft mit dem Symbol q p. Insbesondere spricht man vom unteren Quartil für p = 0, 25 und vom oberen Quartil für p = 0, 75. Folgerung 4.7.4 Für eine Zufallsvariable X mit der Verteilungsfunktion F X ist x R genau dann ein p-quantil, falls gilt: F X (x 0) p F X (x), für eine stetige Verteilungsfunktion also insbesondere genau dann, wenn gilt: F X (x) = p. Bemerkung 4.7.5 Für die Lageparameter gelten folgende Empfehlungen: Skalierung nominal ordinal kardinal zu verwendender Lageparameter Modalwert Median Erwartungswert

4.8. SPEZIELLE DISKRETE ZUFALLSVARIABLEN 83 4.8 Spezielle diskrete Zufallsvariablen 4.8.1 Bernoulli-Verteilung (Zweipunktverteilung) Die Zufallsvariable X habe nur die beiden Realisationen 0 und 1. Es mag ein Zufallsexperiment zugrunde liegen, das ausschließlich nur die beiden Ausgänge A und Ā kennt, wobei A als Erfolg und Ā als Misserfolg bezeichnet werde. Das Ereignis A trete mit der Wahrscheinlichkeit p und das Ereignis Ā mit der Wahrscheinlichkeit 1 p auf. Solche Experimente heißen Bernouli-Experimente. Tritt ein Erfolg ein, wird durch die Zufallsvariable der Wert 1 zugeordnet, tritt ein Misserfolg ein, wird der Wert 0 zugeordnet. Definition 4.8.1 Die Zufallsvariable X besitzt eine Bernoulli-Verteilung mit dem Parameter p (0, 1) und dem Träger T = {0, 1}, falls die Wahrscheinlichkeitsfunktion durch gegeben ist. 1 p für x = 0 p(x) = P X {x} = p für x = 1 0 sonst F N F F N

4.8 Bernoulli-Verteilung (Zweipunktverteilung) 84 Satz 4.8.2 Besitzt X eine Bernoulli-Verteilung mit dem Parameter p (0, 1) und dem Träger T = {0, 1}, dann lautet deren Verteilungsfunktion 0 für x < 0 F X (x) = 1 p für 0 x < 1 1 für x 1 Satz 4.8.3 Besitzt X eine Bernoulli-Verteilung mit dem Parameter p (0, 1) und dem Träger T = {0, 1}, dann gilt für deren Erwartungswert und Varianz E(X) = p; Var(X) = p(1 p).

4.8 Binomialverteilung 85 4.8.2 Binomialverteilung Ein Bernoulli-Experiment wird mehrmals durchgeführt, wobei wieder nur interessiert, ob ein bestimmtes Ereignis eintritt (Erfolg) oder nicht eintritt (Misserfolg). Es werden folgende Bedingungen vorausgesetzt: (1) Die Wiederholungen werden jeweils unter gleichen Bedingungen durchgeführt. Insbesondere bleibt die Erfolgswahrscheinlichkeit p konstant. (2) Die Wiederholungen beeinflussen sich nicht, d. h. sie sind unabhängig voneinander. Es sei X die Zufallsvariable, welche die Anzahl der Erfolge in n Bernoulli-Versuchen mit der Erfolgswahrscheinlichkeit p angibt. Dann ist die Wahrscheinlichkeitsfunktion von X gegeben durch: ( ) n P{X = k} = p k (1 p) n k, k = 0, 1,..., n. k Definition 4.8.4 Die Zufallsvariable X besitzt eine Binomialverteilung mit den Parametern p (0, 1) und n N und dem Träger T = {0, 1,... n}, falls die Wahrscheinlichkeitsfunktion durch ( ) n p p(x) = P X {x} = x (1 p) n x für x {0, 1,... n} x 0 sonst gegeben ist. Satz 4.8.5 Besitzt X eine Binomialverteilung mit den Parametern p (0, 1) und n N und dem Träger T = {0, 1,... n}, dann lautet deren Verteilungsfunktion 0 für x < 0 k ( F X (x) = n ) i p i (1 p) n i für k x < k + 1, k = 0,..., n 1 i=0 1 für x n Satz 4.8.6 Besitzt X eine Binomialverteilung mit den Parametern p (0, 1) und n N und dem Träger T = {0, 1,... n}, dann gilt für deren Erwartungswert und Varianz E(X) = n p; Var(X) = n p(1 p).

4.8 Binomialverteilung 86 F N N Beispiel: p = 0.4, n = 6 Beispiel 4.8.7 (Urnenmodell mit Zurücklegen) In einer Urne befinden sich N N Kugeln. M Kugeln sind weiß, 0 M N, und N M Kugeln sind schwarz. Aus der Urne werden n N Kugeln mit Zurücklegen gezogen. Da mit Zurücklegen gezogen wird, ist die Wahrscheinlichkeit eine weise Kugel zu ziehen bei jedem Zug gegeben durch p = M. Die Wahrscheinlichkeit bei n Ziehungen mit Zurücklegen k weiße N Kugeln zu ziehen ist gegeben durch: ( ) n P X {k} = P{X = k} = p k (1 p) n k, k = 0, 1,..., n. k

4.8 Hypergeometrische Verteilung 87 4.8.3 Hypergeometrische Verteilung Beispiel 4.8.8 (Urnenmodell ohne Zurücklegen) In einer Urne befinden sich N N Kugeln. M Kugeln sind weiß, 0 M N, und N M Kugeln sind schwarz. Aus der Urne werden n N Kugeln ohne Zurücklegen gezogen. Da ohne Zurücklegen gezogen wird, ändert sich die Wahrscheinlichkeit eine weiße Kugel zu ziehen bei jedem Zug. Die Wahrscheinlichkeit bei n Ziehungen ohne Zurücklegen k weiße Kugeln zu ziehen ist gegeben durch: ( ) ( ) M N M k n k P X {k} = P{X = k} = ( ), max(0, n + M N) k min(n, M) N n Definition 4.8.9 Die Zufallsvariable X besitzt eine hypergeometrische Verteilung mit den Parametern N, M, n N, 0 M N, n N und dem Träger T = {k : max{0, n + M N} k min{n, M}}, falls die Wahrscheinlichkeitsfunktion durch ( )( ) M N M x n x ( ) für x T p(x) = P X {x} = N n 0 sonst gegeben ist.

4.8 Hypergeometrische Verteilung 88 F N N Beispiel: N = 20, M = 8, n = 6 Satz 4.8.10 Besitzt X eine hypergeometrische Verteilung mit den Parametern N, M, n N, 0 M N, n N und dem Träger T = {k : max{0, n + M N} k min{n, M}}, dann lautet deren Verteilungsfunktion F X (x) = 0 ( )( ) für x < max{0, n + M N} M N M k i n i k x < k + 1, ( ) für N max{0, n + M N} k min{n, M} 1 i=max{0,n+m N} n 1 für x min{n, M} Satz 4.8.11 Besitzt X eine hypergeometrische Verteilung mit den Parametern N, M, n N, 0 M N, n N und dem Träger T = {k : max{0, n + M N} k min{n, M}}, dann gilt für deren Erwartungswert und Varianz E(X) = n M N ; Var(X) = n M N (1 M N ) N n N 1.

4.8 Geometrische Verteilung 89 4.8.4 Geometrische Verteilung Ein Bernoulli-Experiment mit der Erfolgswahrscheinlichkeit p werde so oft durchgeführt, bis zum ersten Mal Erfolg eintritt. Es sei X die Anzahl der vorausgegangenen Misserfolge. Die Wahrscheinlichkeit dabei genau k Misserfolge zu erzielen ist gegeben durch: P X {k} := P{X = k} = (1 p) k p für k = 0, 1,.... Definition 4.8.12 Die Zufallsvariable X besitzt eine geometrische Verteilung mit dem Parameter p (0, 1) und dem Träger T = N {0}, falls die Wahrscheinlichkeitsfunktion durch { (1 p) p(x) = P X {x} = x p für x T 0 sonst gegeben ist. F N N Beispiel: p = 0.4 Satz 4.8.13 Besitzt X eine geometrische Verteilung mit dem Parameter p (0, 1) und dem Träger T = N {0}, dann lautet deren Verteilungsfunktion { F X (x) = 0 für x < 0 1 (1 p) k+1 für k x < k + 1, k = 0, 1,....

4.8 Geometrische Verteilung 90 Satz 4.8.14 Besitzt X eine geometrische Verteilung mit dem Parameter p (0, 1) und dem Träger T = N {0}, dann gilt für deren Erwartungswert und Varianz E(X) = 1 p p ; Var(X) = 1 p p 2. Beispiel 4.8.15 (Urnenmodell) In einer Urne befinden sich N N Kugeln. M Kugeln sind weiß, 0 M N, und N M Kugeln sind schwarz. Aus der Urne werden solange Kugeln mit Zurücklegen gezogen, bis zum ersten Mal eine weiße Kugel gezogen wird. Da mit Zurücklegen gezogen wird, ist die Wahrscheinlichkeit eine weiße Kugel zu ziehen bei jedem Zug gegeben durch p = M N. Die Wahrscheinlichkeit k schwarze Kugeln zu ziehen bis zum ersten Mal eine weiße Kugel gezogen wird, ist gegeben durch: P X {k} := P{X = k} = (1 p) k p für k = 0, 1,.... Bemerkung 4.8.16 Betrachtet man die Zufallsvariable Y, die die Anzahl der Versuche angibt bis zum ersten Mal ein Erfolg eintritt, dann ist die Wahrscheinlichkeitsfunktion von Y gegeben durch: P Y {k} := P{Y = k} = (1 p) k 1 p für k = 1, 2,.....

4.8 Poisson-Verteilung 91 4.8.5 Poisson-Verteilung Die Poissonverteilung eignet sich zur Modellierung der Anzahl von bestimmten Vorkommnissen (z. B. Maschinenausfall während der Produktion, eingehender Notruf bei der Feuerwehr, Meldung eines Versicherungsschadens) während eines festgelegten Zeitintervalls. Wir gehen wieder von einer Bernoulli-Versuchsreihe aus. Wir nehmen an, dass das Bernoulli-Experiment sehr häufig wiederholt wird, n also groß ist. Andererseits sei die Wahrscheinlichkeit p für einen Erfolg sehr klein. Die Anzahl X der Erfolge bei n Versuchen ist dann binomialverteilt, d. h. ( ) n P X {k} = P{X = k} = p k (1 p) n k, k = 0, 1,..., n. k Lässt man nun n gegen unendlich gehen und zugleich p gegen Null gehen, derart, dass np gegen eine positive Zahl λ konvergiert, dann kann man zeigen, dass folgendes gilt: lim n p 0 np=λ ( n )p i (1 p) n i = λi i i! e λ. Definition 4.8.17 Die Zufallsvariable X besitzt eine Poissonverteilung mit dem Parameter λ > 0 und dem Träger T = N {0}, falls die Wahrscheinlichkeitsfunktion durch gegeben ist. p(x) = P X {x} = { λ x x! e λ für x T 0 sonst

4.8 Poisson-Verteilung 92 F N N Beispiel: λ = 2.0 Satz 4.8.18 Besitzt X eine Poissonverteilung mit dem Parameter λ > 0 und dem Träger T = N {0}, dann lautet deren Verteilungsfunktion 0 für x < 0 F X (x) = k λ i. i! e λ für k x < k + 1, k = 0, 1,... i=0 Satz 4.8.19 Besitzt X eine Poissonverteilung mit dem Parameter λ > 0 und dem Träger T = N {0}, dann gilt für deren Erwartungswert und Varianz E(X) = λ; Var(X) = λ.

4.9. SPEZIELLE STETIGE VERTEILUNGEN 93 4.9 Spezielle stetige Verteilungen 4.9.1 Stetige Gleichverteilung Definition 4.9.1 Die Zufallsvariable X besitzt eine stetige Gleichverteilung im Intervall [a, b] mit a, b R; a < b, falls die Dichte durch { 1 für f X (x) = b a 0 sonst a x b gegeben ist. B N > = = > N Satz 4.9.2 Besitzt X eine stetige Gleichverteilung im Intervall [a, b], dann lautet deren Verteilungsfunktion 0 für x < a x a F X (x) = für a x b b a 1 für x > b

4.9 Stetige Gleichverteilung 94. N = > N Satz 4.9.3 Besitzt X eine stetige Gleichverteilung im Intervall [a, b], dann gilt für deren Erwartungswert und Varianz E(X) = a + b 2 (b a)2 ; Var(X) =. 12

4.9 Gaußverteilung N(0, 1) : (Standardnormalverteilung) 95 4.9.2 Gaußverteilung N(0, 1) : (Standardnormalverteilung) Definition 4.9.4 Die Zufallsvariable X besitzt eine Standardnormalverteilung (Gaußverteilung), i. Z.: X N(0, 1 2 ), falls die Dichte durch gegeben ist. ϕ(x) = 1 2π e x2 2 für < x < N N

4.9 Gaußverteilung N(0, 1) : (Standardnormalverteilung) 96 Satz 4.9.5 Besitzt X eine Standardnormalverteilung, dann lautet deren Verteilungsfunktion Φ(x) = x ϕ(y)dy für x R. N N Bemerkung 4.9.6 Die Verteilungsfunktion liegt vertafelt vor und ist in der folgenden Tabelle gegeben:

4.9 Gaußverteilung N(0, 1) : (Standardnormalverteilung) 97 Tabelle zur Standardnormalverteilung Φ(z) = 1 2π z e 1 2 x2 dx z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359 0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753 0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141 0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517 0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879 0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224 0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549 0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852 0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133 0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389 1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621 1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830 1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015 1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177 1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319 1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441 1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545 1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633 1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706 1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767 2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817 2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857 2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890 2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916 2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936 2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952 2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964 2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974 2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.998 0.9981 2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986 3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990 3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993 3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995 3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997 3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998

4.9 Gaußverteilung N(0, 1) : (Standardnormalverteilung) 98 Satz 4.9.7 Besitzt X eine Standardnormalverteilung, dann gilt für deren Erwartungswert und Varianz E(X) = 0; Var(X) = 1. Satz 4.9.8 Besitzt X eine Standardnormalverteilung, dann gilt: (1) ϕ(x) = ϕ( x) für alle x R, (2) Φ( x) = 1 Φ(x) für alle R

4.9 Normalverteilung N(µ, σ 2 ) 99 4.9.3 Normalverteilung N(µ, σ 2 ) Definition 4.9.9 Die Zufallsvariable X besitzt eine Normalverteilung mit den Parametern µ R und σ > 0, i. Z.: X N(µ, σ 2 ), falls die Dichte durch 1 x µ f X (x) = 1 σ 2π e 2 σ 2 für < x < gegeben ist. B N I I N

4.9 Normalverteilung N(µ, σ 2 ) 100 B N I I N Satz 4.9.10 Besitzt X eine Normalverteilung mit den Parametern µ und σ, dann lautet deren Verteilungsfunktion F X (x) = x f X(t)dt = Φ( x µ σ ) für x R Satz 4.9.11 Besitzt X eine Normalverteilung mit den Parametern µ und σ, dann gilt für deren Erwartungswert und Varianz E(X) = µ; Var(X) = σ 2. Satz 4.9.12 Besitzt X eine Standardnormalverteilung, dann besitzt Y = σx + µ eine Normalverteilung mit den Parametern µ und σ. Satz 4.9.13 Besitzt X eine Normalverteilung mit den Parametern µ und σ, dann besitzt Y = X µ σ Standardnormalverteilung. eine

4.9 Exponentialverteilung 101 4.9.4 Exponentialverteilung Die Anwendung der Exponentialverteilung als Verteilung von Wartezeiten (Zeit bis zum nächsten Vorkommnis, oder Zeit zwischen zwei Vorkommnissen, sogenannte Zwischenankunftszeit) ist immer dann möglich, wenn die Anzahl der Vorkommnisse einer Poissonverteilung folgt. Typische Vorkommnisse sind z.b. Eintreten von Schadensfällen, Maschinenstörungen, Ankunft einer Person an einem Bedienungsschalter, Anrufe in einer Telefonzentrale usw. Der Parameter λ, der als mittlere Anzahl von Vorkommnissen in der Zeiteinheit eine spezielle Poissonverteilung festlegt, charakterisiert auch die zugehörige Exponentialverteilung der Wartezeiten. Um die Exponentialverteilung zu formulieren, betrachten wir zunächst die beiden Zufallsvariablen X (Anzahl der Vorkommnisse in einer Zeiteinheit) und X(t) (Anzahl der Vorkommnisse in einer Zeitspanne der Länge t): (1) E(X) = λ, P{X = k} = λk k! e λ, insbesondere P{X = 0} = e λ (2) E(X(t)) = λt, P{X(t) = k} = (λt)k e λt k! insbesondere P{X(t) = 0} = e λt = ( e λ) t Wir bezeichnen die Wartezeit bis zum nächsten Vorkommnis mit Y. Dann ist Y > t gleichbedeutend damit, dass über die Zeitspanne t die Anzahl der Vorkommnisse gleich 0 ist, also P{Y > t} = P{X(t) = 0} = e λt und somit F Y (t) = P{Y t} = { 1 e λt für t > 0 0 für t 0 Dies ist die Verteilungsfunktion der Exponentialverteilung. Die Dichtefunktion ergibt sich durch die Ableitung der Verteilungsfunktion.

4.9 Exponentialverteilung 102 Definition 4.9.14 Die Zufallsvariable X besitzt eine Exponentialverteilung mit dem Parameter a > 0, falls die Dichte durch { a e ax für x 0 f X (x) = 0 sonst gegeben ist. B N = N

4.9 Exponentialverteilung 103 Satz 4.9.15 Besitzt X eine Exponentialverteilung mit dem Parameter a > 0, dann lautet deren Verteilungsfunktion { } 0 für x < 0 F X (x) = 1 e ax für x 0. N N Satz 4.9.16 Besitzt X eine Exponentialverteilung mit dem Parameter a > 0, dann gilt für deren Erwartungswert und Varianz E(X) = 1 a ; Var(X) = 1 a 2.

4.9 Exponentialverteilung 104 Bemerkung 4.9.17 Während die Exponentialverteilung als Wartezeitverteilung mit stetiger Zeit verwendet werden kann, ist die geometrische Verteilung ein diskretes Gegenstück dazu. Wenn in einer Folge von Bernoulliversuchen die einzelnen Versuche mit Zeitperioden identifiziert werden und Y die Anzahl der Versuche (=Perioden) bis zum nächsten Treffer bezeichnet, dann ist Y > k gleichbedeutend damit, dass k Perioden hintereinander kein Treffer erzielt wird, also P {Y > k} = (1 p) k wobei 1 p die Wahrscheinlichkeit ist, dass in einer Periode kein Treffer erzielt wird. D. h. 1 p entspricht e λ. Die Verteilungsfunktion der geometrisch verteilten diskreten Wartezeit Y ist dann in den Sprungstellen k = 1, 2, 3,... gegeben mit F Y (k) = P {Y k} = 1 P {Y > k} = 1 (1 p) k. Beachte dabei die Ähnlichkeit mit der Verteilungsfunktion der Exponentialverteilung F X (t) = P {X t} = 1 P {Y > t} = 1 ( e a) t. Die Wahrscheinlichkeitsfunktion hat wie schon in (2.8.5) gesehen einen fallenden Verlauf, ähnlich wie die Dichte der Exponentialverteilung.

Kapitel 5 Zweidimensionale Zufallsvariablen 5.1 Einführung Beispiel 5.1.1 (Roulette) Spieler Einsatz Auszahlung bei Gewinn A (plain) 1 e 36 e B (carré) 2 e 18 e! 5 F E A A H ) " # $ 5 F E A A H * % 105

5.1. EINFÜHRUNG 106 Ω = {0, 1, 2,..., 36}, F = P(Ω), P : F R mit P(E) = E für alle E F. Ω X sei die Auszahlung an Spieler A und B : X : Ω R 2 mit ω 2 3 5 6 sonst X(ω) (36, 18) (0, 18) (0, 18) (0, 18) (0, 0) (Ω, F, P) X (R 2, B 2, P X ), P X (B) = P(X 1 (B)) für alle B B 2, insbesondere gilt: P X ({(x, y)}) = P(X 1 ({(x, y)})) = P{ω Ω : X(ω) = (x, y)}, (x, y) (0, 0) (0, 18) (36, 18) P X ((x, y)) 33 37 3 37 1 37 Bemerkung 5.1.2 Bei einer zweidimensionalen Zufallsvariablen gilt: Deshalb schreibt man auch X = (X 1, X 2 ). X(ω) = (X 1 (ω), X 2 (ω)) für alle ω Ω.

5.2. ZWEIDIMENSIONALE DISKRETE ZUFALLSVARIABLE 107 5.2 Zweidimensionale diskrete Zufallsvariable Definition 5.2.1 Eine zweidimensionale Zufallsvariable X mit der Wahrscheinlichkeitsverteilung P X heißt diskret, wenn es eine endliche oder abzählbar unendliche Teilmenge B R 2 gibt mit P X (B) = P{X B} = 1. Definition 5.2.2 Es sei X eine zweidimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x 1, x 2,...} und der Wahrscheinlichkeitsverteilung P X. Dann heißt die Abbildung p : R 2 [0, 1] mit p((x 1, x 2 )) = { PX {(x 1, x 2 )} für (x 1, x 2 ) X(Ω) 0 für (x 1, x 2 ) R 2 \ X(Ω) gemeinsame Wahrscheinlichkeitsfunktion von X. Die Menge T = {(x 1, x 2 ) R 2 : p((x 1, x 2 )) > 0} heißt Träger, die Elemente (x 1, x 2 ) T heißen Trägerpunkte und die Werte p((x 1, x 2 )) die zugehörenden Punktwahrscheinlichkeiten. Bemerkung 5.2.3 Es gilt: P X (B) = (x 1,x 2) B p((x 1, x 2 )) für alle B X(Ω). Satz 5.2.4 Es sei X eine zweidimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x 1, x 2,...}. Dann erfüllt die Wahrscheinlichkeitsfunktion p(x) die folgenden Bedingungen: (1) p(x) 0 für x R 2, (2) x X(Ω) p(x) = 1. Umgekehrt gibt es zu jeder Funktion p(x) mit den Eigenschaften (1) und (2) eine zweidimensinale Zufallsvariable X mit der Wahrscheinlichkeitsfunktion p(x). Bemerkung 5.2.5 Um nicht zuviele Indizes zu gebrauchen, setzen wir oft für einen zweidimensionalen Zufallvektor X =: (X, Y ).

5.2. ZWEIDIMENSIONALE DISKRETE ZUFALLSVARIABLE 108 Bemerkung 5.2.6 Ist X = (X, Y ) eine 2-dimensionale diskrete Zufallsvariable mit den endlich vielen Trägerpunkten (x i, y j ) und den zugehörenden Punktwahrscheinlichkeiten p(x i, y j ) =: p ij, i = 1,..., m, j = 1,..., n, dann lässt sich die Wahrscheinlichkeitsfunktion leicht mit Hilfe der folgenden Matrix darstellen: Y y 1 y j y n X Dabei setzt man p i j x 1 p 11 p 1j... p 1n...... x i p i1 p ij p in...... x m p m1 p mj p mn = 0, falls (x i ; y j ) kein Trägerpunkt von X ist.

5.3. ZWEIDIMENSIONALE STETIGE ZUFALLSVARIABLE 109 5.3 Zweidimensionale stetige Zufallsvariable Definition 5.3.1 Jede Riemann-integrierbare Funktion f : R 2 R mit f(x 1, x 2 ) 0, (x 1, x 2 ) R 2 und f(x 1, x 2 )dx 1 dx 2 = 1 heißt Riemann-Dichtefunktion (Riemann-Dichte oder auch kurz Dichtefunktion bzw. Dichte). Beispiel 5.3.2 Gegeben sei die Funktion f(x 1, x 2 ) : 1 für 0 x 1 1, 0 x 2 1 f(x 1, x 2 ) = 0 sonst f(x 1, x 2 )dx 1 dx 2 = 1 0 Es gilt f(x 1, x 2 ) 0, (x 1, x 2 ) R 2 und ist f(x 1, x 2 ) eine Dichte. 1 0 1dx 1dx 2 = 1. Damit Definition 5.3.3 Es sei X = (X 1, X 2 ) eine zweidimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung P X und der Dichtefunktion f X. Die Zufallsvariable X heißt stetig, wenn für alle Intervalle (a 1, b 1 ] (a 2, b 2 ] R 2 gilt: P X ((a 1, b 1 ] (a 2, b 2 ]) = P{a 1 < X 1 b 1, a 2 < X 2 b 2 } = b1 b2 a 1 a 2 f X (x 1, x 2 )dx 2 dx 1. Bemerkung 5.3.4 Die Wahrscheinlichkeit ist zunächst nur für zweidimensionale Intervalle definiert. Man kann aber für alle reguläre Mengen, worunter alle bekannten geometrischen Objekte wie z. B. Kreis, Dreieck oder Vieleck durch Quadrate von unten und oben approximieren und damit die Wahrscheinlichkeit berechnen.

5.3. ZWEIDIMENSIONALE STETIGE ZUFALLSVARIABLE 110 Beispiel 5.3.5 Gegeben sei die Dichte einer 2-dimensionalen Zufallsvariablen X = (X, Y ) : { 2 für 0 x y 1 f X (x, y) = 0 sonst f(x,y) P X ((0, 0.5] (0, 0.5]) = P{0 < X 0.5, 0 < Y 0.5} = 0.5 0 0.5 x 2dydx = 0.5 0 [2y] 0.5 x dx = 0.5 0 (1 2x)dx = [x x 2 ] 0 0.5 = 0.25 0.5 0 0.5 0 f X (x, y)dydx =