Kompaktskript. Deskriptive Statistik. und Wahrscheinlichkeitsrechnung. Rolf Hauser

Größe: px
Ab Seite anzeigen:

Download "Kompaktskript. Deskriptive Statistik. und Wahrscheinlichkeitsrechnung. Rolf Hauser"

Transkript

1 Kompaktskript zu der Vorlesung Deskriptive Statistik und Wahrscheinlichkeitsrechnung von Rolf Hauser Universität des Saarlandes SS 2009

2 i Wichtiger Hinweis! Das vorliegende Kompaktskriptum ist kein Lehrbuch, sondern es soll die Hörer der Vorlesung Deskriptive Statistik und Wahrscheinlichkeitsrechnung von dem ablenkenden und oft fehlerhaften Mitschreiben der Formeln entlasten und es ihnen erleichtern, sich auf die vorgetragenen Motivationen und Erläuterungen zu konzentrieren und hierüber individuelle Notizen anzufertigen. Dementsprechend sind in diesem Skriptum nur formale Definitionen und Sätze und einige Beispiele enthalten. Die Bemerkungen dienen zur Ergänzung des Stoffes. Die Motivation und Erläuterung der aufgeführten Begriffe und Aussagen sowie die Behandlung von Beispielen bleiben der Vorlesung und auch der begleitenden Übung vorbehalten. Ebenso werden Hinweise auf ergänzende und vertiefende Literatur im Verlauf der Vorlesung gegeben.

3 Inhaltsverzeichnis 1 Deskriptive Statistik Einleitung Grundbegriffe Skalen und Merkmalstypen Tabellarische und grafische Darstellungen eindimensionaler Merkmale Grafische Darstellung bei klassierten Daten Stem-Leaf-Diagramm (Stamm-Blatt-Diagramm) Lage- und Streuungsmaße Lagemaße Einige Bemerkungen zu den Lagemaßen Streuungsmaße Box-Plot Häufigkeitsverteilungen zweidimensionaler Merkmale Grundlagen Bedingte Häufigkeitsverteilungen und Unabhängigkeit Abhängigkeitsmaße Kardinalskalierte Merkmale Ordinalskalierte Merkmale Beliebiges Skalenniveau Wahrscheinlichkeitsrechnung Einleitung Das wahrscheinlichkeitstheoretische Modell Der Ergebnisraum Ω Ereignisse und Ereignisraum F Mengenalgebra Wahrscheinlichkeitsräume Laplace-Experimente und Grundlagen der Kombinatorik Bedingte Wahrscheinlichkeit und Unabhängigkeit ii

4 INHALTSVERZEICHNIS iii 3 Messbare Abbildungen und Zufallsvektoren Allgemeine Begriffe Eindimensionale Zufallsvariablen Einführung Diskrete Zufallsvariablen Stetige Zufallsvariablen Die Verteilungsfunktion von eindimensionalen Zufallsvariablen Lineare Transformationen von eindimensionalen Zufallsvariablen Momente von eindimensionalen Zufallsvariablen Modus und Quantile von eindimensionalen Zufallsvariablen Spezielle diskrete Zufallsvariablen Bernoulli-Verteilung (Zweipunktverteilung) Binomialverteilung Hypergeometrische Verteilung Geometrische Verteilung Poisson-Verteilung Spezielle stetige Verteilungen Stetige Gleichverteilung Gaußverteilung N(0, 1) : (Standardnormalverteilung) Normalverteilung N(µ, σ 2 ) Exponentialverteilung Zweidimensionale Zufallsvariablen Einführung Zweidimensionale diskrete Zufallsvariable Zweidimensionale stetige Zufallsvariable Die Verteilungsfunktion von zweidimensionalen Zufallsvariablen Randverteilungen zweidimensionaler Zufallsvariablen Bedingte Verteilungen und Unabhängigkeit von Zufallsvariablen Momente zweidimensionaler Zufallsvariablen Mehrdimensionale Zufallsvariablen Allgemeine Definitionen und Sätze Summen von unabhängigen Zufallsvariablen Bernoulli-, Binomial-, Poisson- und Normalverteilungen

5 INHALTSVERZEICHNIS iv 8 Ungleichung von Tschebyscheff und das schwache Gesetz der großen Zahlen Ungleichung von Tschebyscheff Das schwache Gesetz der großen Zahlen Zentraler Grenzwertsatz Zentraler Grenzwertsatz von de Moivre-Laplace Zentraler Grenzwertsatz von Lindeberg-Lévy Statistische Tabellen 142

6 Kapitel 1 Deskriptive Statistik 1.1 Einleitung Die deskriptive Statistik befasst sich zunächst mit der Erhebung von Daten, deren Aufbereitung sowie Darstellung. Im Allgemeinen kann man von folgenden vier Phasen ausgehen: 1. Vorbereitung Zweck der Untersuchung bestimmen Über welche Untersuchungseinheiten welche Informationen gewonnen werden sollen 2. Datenerhebung Primärerhebung Befragung persönliche Befragung postalische Befragung Beobachtung Experiment Sekundärerhebung Es wird auf vorhandenes Datenmaterial zurückgegriffen Vollerhebung Teilerhebung 1

7 1.1. EINLEITUNG 2 3. Datenaufbereitung und -darstellung tabellarisch grafisch 4. Datenauswertung und -analyse Berechnung von Maßzahlen Entdecken von Strukturen und Zusammenhängen

8 1.2. GRUNDBEGRIFFE Grundbegriffe Definition Die statistische Einheit (Merkmalsträger, Untersuchungseinheit) ω i, i = 1,..., n ist das Einzelobjekt einer Untersuchung. Sie ist Träger der Informationen, für die man sich interessiert. Bemerkung Jede statistische Einheit muss im Hinblick auf das Untersuchungsziel durch (1) sachliche (2) räumliche (3) zeitliche Kriterien eindeutig festgelegt (abgegrenzt) sein. Man bezeichnet diese Kriterien auch als identifizierende Merkmale. Beispiel Soll im Stadtverband Saarbrücken eine Untersuchung über das Freizeitverhalten Berufstätiger durchgeführt werden, so sind die Identifikationskriterien: sachlich: räumlich: zeitlich: berufstätige Person Gebiet des Stadtverbandes Saarbrücken Untersuchungszeitraum Definition Die statistische Masse oder Grundgesamtheit Ω ist die Menge aller statistischen Einheiten, die die vorgegebenen Abgrenzungskriterien erfüllen. Ω = {ω i ω i erfüllt die festgelegten Kriterien, i = 1,..., n} Definition Es sei Ω = {ω 1, ω 2,..., ω n } eine statistische Masse und eine Abbildung mit X : Ω M R X(ω i ) = x i, i = 1,..., n. X heißt 1-dimensionales Merkmal und die resultierenden Werte x i, i = 1,..., n, Beobachtungswerte oder Merkmalswerte. Die Menge A := {a M : ω Ω mit X(ω) = a} = X(Ω) heißt Merkmalsraum und die Elemente von A heißen Merkmalsausprägungen.

9 1.2. GRUNDBEGRIFFE 4 Beispiel Personen werden nach dem Schulabschluss befragt. Man erhielt als Ergebnis (1 Hauptschule, 2 Fachoberschule, 3 Abitur, 4 Fachhochschule, 5 Universität) die Beobachtungswerte X(ω i ) = x i, i = 1,..., 20 : ω i ω 1 ω 2 ω 3 ω 4 ω 5 ω 6 ω 7 ω 8 ω 9 ω 10 X(ω i ) = x i ω i ω 11 ω 12 ω 13 ω 14 ω 15 ω 16 ω 17 ω 18 ω 19 ω 20 X(ω i ) = x i Der Merkmalsraum A ist in diesem Beispiel gegeben durch A = {1, 2, 3, 4, 5}. Bemerkung Die Menge A ist wegen X(Ω) Ω stets abzählbar, so dass A als endliche Menge A = {a 1, a 2,..., a m } darstellbar ist. In der Regel wird die Anzahl der Merkmalsausprägungen m kleiner als die Zahl der Beobachtungswerte n sein. Bemerkung In der Definition sind die Merkmalswerte bzw. Merkmalsausprägungen durch reelle Zahlen dargestellt. Dies ist immer möglich. Z. B. kann das Merkmal Familienstand (ledig, verheiratet, geschieden, verwitwet) auf die Zahlen 0 ledig, 1 verheiratet, 2 geschieden, 3 verwitwet abgebildet werden. Bemerkung Auch wenn Merkmalsausprägungen meistens als reelle Zahlen dargestellt werden, so ist vor der Durchführung algebraischer Operationen stets zu untersuchen, ob sie aufgrund des Skalierungsniveaus des Merkmals überhaupt sinnvoll sind.

10 1.3. SKALEN UND MERKMALSTYPEN Skalen und Merkmalstypen Definition (Nominalskala) Eine Skala, deren Skalenwerte nur nach dem Kriterium gleich oder verschieden geordnet werden können, heißt Nominalskala. Beispiel Nominal messbare Merkmale sind z. B.: Geschlecht Beruf, Haarfarbe, Religionszugehörigkeit Definition (Ordinalskala, Rangskala) Eine Skala, deren Skalenwerte nicht nur nach dem Kriterium gleich oder verschieden, sondern außerdem in einer natürlichen Reihenfolge geordnet werden können, heißt Ordinalskala oder Rangskala. Beispiel Ordinal messbare Merkmale sind z. B.: Zensuren: sehr gut, gut, befriedigend, usw. Güteklassen von Hotels: ein Stern, zwei Sterne, usw. Platzziffer bei einem Tanzturnier Definition (Kardinalskala, metrische Skala) Eine Skala, deren Skalenwerte reelle Zahlen sind und die die Ordnungseigenschaften der reellen Zahlen besitzt, heißt Kardinalskala oder metrische Skala. Beispiel Kardinal messbare Merkmale sind z. B.: Lebensdauern Gewichte

11 1.3. SKALEN UND MERKMALSTYPEN 6 Stromstärke Größen Bei einer Kardinalskala unterscheidet man weiterhin: Definition (Intervallskala) Eine metrische Skala, die keinen natürlichen Nullpunkt und keine natürliche Einheit besitzt, heißt Intervallskala. Beispiel Kalender besitzen keinen natürlichen Nullpunkt und keine natürliche Einheit. Z. B. wird die heutige Einteilung der Zeitskala nach dem gregorianischen Kalender vorgenommen. Zeitabstände (Intervalle) auf der Skala können miteinander verglichen werden. Definition (Verhältnisskala) Eine metrische Skala, die einen natürlichen Nullpunkt, aber keine natürliche Einheit besitzt besitzt, heißt Verhältnisskala. Beispiel Bei Währungen existiert ein natürlicher Nullpunkt. Null Geldeinheiten sind überall in der Welt Null Geldeinheiten. Jedoch sind 100 $ in der Regel nicht gleich 100 e Das Verhältnis zweier Währungen ist interpretierbar und wird als Wechselkurs bezeichnet. Definition (Absolutskala) Eine metrische Skala mit einem natürlichen Nullpunkt und einer natürlichen Einheit heißt Absolutskala. Beispiel Stückzahlen oder Anzahl von Personen besitzen einen natürlichen Nullpunkt und eine natürliche Einheit. Definition (Qualitative Merkmale) Ein Merkmal heißt qualitativ, wenn die zugehörigen Merkmalsausprägungen nominal bzw. ordinal skaliert sind. Bemerkung Werden zur Bewertung die Noten sehr gut, gut, befriedigend, ausreichend und mangelhaft verwendet und in den Zahlen 1, 2, 3, 4, 5 angegeben, so bleibt das ordinalskalierte Merkmal Note doch qualitativer Natur.

12 1.3. SKALEN UND MERKMALSTYPEN 7 Definition (Quantitative Merkmale) Ein Merkmal heißt quantitativ, wenn die zugehörigen Merkmalsausprägungen metrisch skaliert sind. Definition (diskretes Merkmal) Ein Merkmal das nur abzählbar viele Werte annehmen kann heißt diskretes Merkmal. Definition (stetiges Merkmal) Ein Merkmal das überabzählbar viele Werte annehmen kann heißt stetiges Merkmal.

13 1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE Tabellarische und grafische Darstellungen eindimensionaler Merkmale Definition Gegeben sei eine statistische Masse Ω = {ω 1,..., ω n } und das eindimensionale Merkmal X. Man bezeichnet die tabellarische Darstellung ω i ω 1 ω 2 ω n X(ω i ) = x i x 1 x 2 x n der Untersuchungseinheiten mit ihren zugehörigen Beobachtungswerten als Urliste. Beispiel Personen wurden nach dem Schulabschluss befragt. Man erhielt als Ergebnis (1 Hauptschule, 2 Realschule, 3 Abitur, 4 Fachhochschule, 5 Universität) die folgende Urliste: ω i ω 1 ω 2 ω 3 ω 4 ω 5 ω 6 ω 7 ω 8 ω 9 ω 10 X(ω i ) = x i ω i ω 11 ω 12 ω 13 ω 14 ω 15 ω 16 ω 17 ω 18 ω 19 ω 20 X(ω i ) = x i Definition Gegeben sei eine statistische Masse Ω = {ω 1,..., ω n } und das eindimensionale Merkmal X mit dem Merkmalsraum A = {a 1,..., a m }. Man bezeichnet h(a i ) := {ω Ω : X(ω) = a i }, i = 1,..., m, als absolute Häufigkeit der Merkmalsausprägung a i, i = 1,..., m und r(a i ) := h(a i), i = 1,..., m, n als relative Häufigkeit der Merkmalsausprägung a i, i = 1,..., m.

14 1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE 9 Definition Gegeben sei ein Merkmal X mit Merkmalsraum A = {a 1,..., a m } sowie den absoluten Häufigkeiten h(a i ) bzw. den relativen Häufigkeiten r(a i ), i = 1,..., m. Man nennt die tabellarische Darstellung a i a 1 a 2 a m h(a i ) h(a 1 ) h(a 2 ) h(a m ) r(a i ) r(a 1 ) r(a 2 ) r(a m ) der Merkmalsausprägungen mit ihren absoluten bzw. relativen Häufigkeiten Häufigkeitstabelle. Beispiel (Fortsetzung) Man erhält aus Beispiel folgende Häufigkeitstabelle und grafische Darstellungen: Schulabschluss a i Absolute Häufigkeit h(a i ) Relative Häufigkeit r(a i ) Kreisdiagramm Universität Hauptschule Fachhochschule Realschule Abitur

15 1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE 10 Balkendiagramm Relative Häufigkeit Hauptschule Realschule Abitur Fachhochsch. Universität Schulabschluss Bemerkung Zur graphischen Darstellung von Häufigkeiten bei nominalskalierten Merkmalen benutzt man Kreis- bzw. Balkendiagramme Bemerkung Es gilt stets: m h(a i ) = n und i=1 m r(a i ) = 1. i=1 Definition Gegeben sei ein Merkmal X mit den Beobachtungswerten x 1, x 2,..., x n bzw. mit dem Merkmalsraum A = {a 1,..., a m } sowie den jeweiligen relativen Häufigkeiten r(a i ), wobei die Beobachtungswerte x 1, x 2,..., x n bzw. die Merkmalsausprägungen a i, i = 1,..., m, mindestens

16 1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE 11 ordinalskaliert sind. Dann heißt ˆF X (x) = i:a i x empirische Verteilungsfunktion von X. r(a i ) = i {1,..., n} : x i x n Vereinbarung ˆF X (x 0) := lim ˆF X (x h) = h 0 h>0 i:a i <x r(a i ) = i {1,..., n} : x i < x. n Beispiel Ehepaare wurden nach der Zahl ihrer Kinder gefragt. Man erhielt folgende Häufigkeitstabelle: Zahl der Kinder a i Relative Häufigkeit r(a i ) Stabdiagramm 0.3 r(a) a

17 1.4. TABELLARISCHE UND GRAFISCHE DARSTELLUNGEN EINDIMENSIONALER MERKMALE 12 Bemerkung Zur grafischen Darstellung der relativen Häufigkeiten r(a i ) bei ordinalskalierten bzw. bei diskreten Merkmalen benutzt man das Stabdiagramm ˆF X (x) = i:a i x r(a i ) = 0 für x < für 0 x < für 1 x < für 2 x < für 3 x < 4 1 für x 4 empirische Verteilungsfunktion F^(x) x Bemerkung Die empirische Verteilungsfunktion ist bei ordinalskalierten bzw. bei diskreten Merkmalen eine Treppenfunktion.

18 1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN Grafische Darstellung bei klassierten Daten Bemerkung Treten bei einem kardinalskalierten Untersuchungsmerkmal viele - oft auch paarweise verschiedene - Merkmalsausprägungen auf, so kann man die Anschaulichkeit von Tabellen und graphischen Darstellungen unter Inkaufnahme eines Informationsverlustes durch Klassierung der Merkmalsausprägungen erhöhen. Vereinbarung Gegeben sei ein Merkmal X mit der Urliste: ω i ω 1 ω 2 ω n X(ω i ) = x i x 1 x 2 x n Man wähle für festes l N Zahlen k 0, k 1,..., k l R mit k 0 < k 1 < < k l und k 0 < x i k l für alle i = 1,..., n. Man bezeichnet K j := (k j 1, k j ], j = 1,..., l, als Klasse Nr. j, b j := k j k j 1, j = 1,..., l, als zugehörige Klassenbreite, m j := k j 1 + k j, j = 1,..., l, als zugehörigen Klassenmittelpunkt oder zugehörige Klassenmitte, 2 h j = i : k j 1 < x i k j, j = 1,..., l, als absolute Häufigkeit der Beobachtungswerte in der j-ten Klasse, r j = h j, j = 1,..., l, als relative Häufigkeit der Beobachtungswerte in der j-ten Klasse, n f j = r j b j, j = 1,..., l, als Häufigkeitsdichte der j-ten Klasse. Definition Gegeben sei ein Merkmal X mit der Urliste: ω i ω 1 ω 2 ω n X(ω i ) = x i x 1 x 2 x n sowie die Bezeichnungen aus Vereinbarung (1.5.2), dann heißt { f j für k j 1 < x k j, j = 1,..., l ˆf X (x) = 0 sonst, x R Histogramm.

19 1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN 14 Bemerkung Für die Verteilungsfunktion ˆF X von klassierten Daten gilt an der jeweiligen Klassenobergrenze k j : ˆF X (k j ) = j i=1 r i = i : x i k j n Definition Gegeben sei ein Merkmal X mit der Urliste: ω i ω 1 ω 2 ω n X(ω i ) = x i x 1 x 2 x n sowie die Bezeichnungen aus Vereinbarung (1.5.2), dann heißt 0 für x k 0 ˆF X (x) = ˆF X (k j 1 ) + (x k j 1 ) f j für k j 1 < x k j ; j = 1,..., l, x R 1 für x > k l Verteilungsfunktion des klassierten Merkmales X. Beispiel (Allgemeine zeichnerische Darstellung) Gegeben seien die Bezeichnungen aus Vereinbarung (1.5.2). Als Histogramm zu einer gegebenen Klassierung bezeichnet man die folgende graphische Darstellung: In einem rechtwinkligen Koordinatensystem werden auf der Abszisse die Klassengrenzen k 0,..., k l eingezeichnet. Über jeder Klasse K j = (k j 1, k j ] zeichnet man ein Rechteck mit der Breite b j und der Höhe f j. Wegen b j f j = r j stimmt also der Flächeninhalt des j-ten Rechtecks mit der relativen Häufigkeit r j der j-ten Klasse überein. Die Summe der Flächeninhalte aller Rechtecke ist somit 1.

20 1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN 15 f i f 4 Histogramm f 3 f 2 f 1 k 0 k 1 k 2 k 3 k 4 k 5 k 6 x Verteilungsfunktion ˆF X (x) r 1 + r 2 + r 3 + r 4 + r 5 + r 6 1. r 1 + r 2 + r 3 + r 4 + r 5 r 1 + r 2 + r 3 + r 4 r 1 + r 2 + r 3 r 1 + r 2 r 1 x k 0 k 1 k 2 k 3 k 4 k 5 k 6

21 1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN 16 Beispiel In einer Bank wurde die Zeit X (in Minuten) notiert, die für die Beratung eines Kunden aufgewandt wurde. Man erhielt bei 100 Kunden folgende Urliste: 2.9, 1.5, 2.1, 2.6, 3.1, 3.5, 4.2, 5.1, 6.2, 7.1, 8.0, 2.0, 9.1, 10.1, 11.1, 4.3, 5.3, 6.4, 7.3, 10.8, 2.2, 3.1, 3.6, 1.4, 5.5, 6.5, 7.6, 8.4, 9.2, 10.3, 11.2, 12.5, 15.0, 2.2, 2.7, 3.2, 3.7, 1.7, 1.1, 11.9, 2.3, 2.7, 3.2, 3.4, 5.7, 6.6, 7.7, 12.9, 13.2, 1.1, 2.4, 8.6, 1.2, 4.6, 2.4, 2.8, 3.2, 3.8, 5.8, 18.8, 6.8, 0.8, 1.3, 13.8, 14.3, 2.5, 2.9, 3.3, 9.1, 1.2, 1.5, 9.5, 10.6, 1.3, 4.8, 1.4, 4.9, 14.9, 3.3, 19.7, 1.6, 4.1, 2.5, 1.7, 3.0, 1.8, 8.8, 5.9, 15.8, 16.4, 6.9, 7.9, 8.1, 3.0, 3.9, 2.0, 9.9, 17.6, 3.4, 1.9. Es werde die folgende Klasseneinteilung vorgenommen: (0 ; 2], (2 ; 4], (4 ; 8], (8 ; 12], (12 ; 20]. Klasse Klassen- Klassen- absolute relative Häufigkeits- Verteilungs- K j breite mitte Häufigkeit Häufigkeit dichte funktion (k j 1 ; k j ] b j m i h j r j = h j n f j = r j b j ˆF (kj ) (0 ; 2] (2 ; 4] (4 ; 8] (8 ; 12] (12 ; 20]

22 1.5. GRAFISCHE DARSTELLUNG BEI KLASSIERTEN DATEN 17 Histogramm f(x) Ausprägungen x Verteilungsfunktion F(x) Ausprägungen x

23 1.6. STEM-LEAF-DIAGRAMM (STAMM-BLATT-DIAGRAMM) Stem-Leaf-Diagramm (Stamm-Blatt-Diagramm) Eine weitere Möglichkeit größere Datensätze einschließlich ihrer Häufigkeitsverteilung graphisch übersichtlich darzustellen, ist durch das Stamm- und Blatt-Diagramm gegeben. Um ein Stamm- und Blatt-Diagramm zu erstellen, geht man wie folgt vor: (1) Ordnen der Daten der Größe nach und Feststellung des Wertebereiches, der durch x (1) und x (n) gegeben ist. (2) Unterteilen des Wertebereiches in Intervalle gleicher Breite, wobei die Breite das 0.5, 1 oder 2 fache einer Zehnerpotenz ist. (3) Zerlegen der Beobachtungswerte in einen Stamm- und einen Blattanteil. (4) Auftragen der Beobachtungswerte. Die Vorgehensweise soll an einem Beispiel erläutert werden: Gegeben seien die folgenden geordneten Beobachtungswerte: Wir unterteilen den Wertebereich in die gleichbreiten Intervalle [0, 10), [10, 20),..., [40, 50). Damit erhalten wir den Stamm: Die beobachteten Werte werden dann als Blätter eingetragen, wobei z. B. der Beobachtungswert 38 durch eine 8 hinter der 3 des Stammes wiedergegeben wird (3 8). Gleiche Beobachtungswerte werden mehrfach eingetragen. Mit den obigen Daten erhält man dann das folgende Stamm- und Blatt-Diagramm: Bei diesem Diagramm kann man leicht sehen, in welchem Bereich sich die Daten häufen.

24 1.7. LAGE- UND STREUUNGSMASSE Lage- und Streuungsmaße Lagemaße Definition Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten x 1, x 2,..., x n. Dann heißt x := 1 n n i=1 x i arithmetischer Mittelwert sowie bei gegebenen Gewichten w i x w := n w i x i i=1 mit n w i = 1 und 0 w i 1 i=1 gewichteter arithmetischer Mittelwert. Bemerkung (Eigenschaften des arithmetischen Mittelwertes) Es gilt 1. n i=1 (x i x) = n i=1 (x i t) 2 n i=1 (x i x) 2 für alle t R. Bemerkung Liegen bei einem Merkmal X die Merkmalsausprägungen a i, i = 1,..., m, mit ihren relativen Häufigkeiten r(a i ) vor, dann kann man den arithmetischen Mittelwert x auch wie folgt berechnen: m x = a i r(a i ) =: ā i=1 Bemerkung Liegt ein klassiertes Merkmal X vor, dann gilt mit den Bezeichnungen aus Vereinbarung (1.5.2) für die Berechnung des Mittelwertes die folgende Approximation x = l m i r i i=1 Definition Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten x 1, x 2,..., x n.

25 1.7 Lagemaße 20 Dann heißt x h := n n i=1 = 1 x i 1 1 n i=1 n 1 x i harmonischer Mittelwert sowie bei gegebenen Gewichten w i x w h := 1 n i=1 w i x i mit n w i = 1 und 0 w i 1 i=1 gewichteter harmonischer Mittelwert. Beispiel (Anwendung des harmonischen Mittelwertes) Es sei U = Gesamtumsatz M = Gesamtmenge P = durchschnittlicher Preis pro Mengeneinheit u i = Einzelumsatz des i-ten Gutes m i = umgesetzte Menge des i-ten Gutes x i = Einzelpreis pro Mengeneinheit des i-ten Gutes Mit U = M P, U = n i=1 u i, M = n i=1 m i und u i = x i m i ergibt sich der durchschnittliche Preis pro Mengeneinheit P wie folgt: P = U n M = i=1 u n i i=1 n i=1 m = u i u i n i i=1 u. i n i=1 u i = x i 1 n i=1 w i x i mit w i = Definition Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten x 1, x 2,..., x n. Dann heißt x g := n x 1 x 2... x n geometrischer Mittelwert sowie bei gegebenen Gewichten w i x w g := x w 1 1 x w x wn n gewichteter geometrischer Mittelwert. mit n w i = 1 und 0 w i 1 i=1

26 1.7 Lagemaße 21 Beispiel (Anwendung des geometrischen Mittelwertes) Gegeben seien die Produktionssteigerungen eines Betriebes in 4 Jahren: Jahr 1. Jahr 2. Jahr 3. Jahr 4. Jahr Produktionssteigerung 2% 11% 4% 7% Die durchschnittliche Produktionssteigerung pro Jahr x g it gegeben durch: x g = = 1.06 Definition Gegeben sei das mindestens ordinal skalierte Merkmal X mit den geordneten Beobachtungswerten x (1) x (2)... x (n). Jeder Wert x p, mit 0 < p < 1, für den gilt: i {1,..., n} : x i x p n p und i {1,..., n} : x i x p n 1 p heißt p Quantil. D. h. ein p Quantil x p ist ein Wert, für den mindestens ein Anteil p der Daten x p und mindestens ein Anteil 1 p der Daten x p ist. Bemerkung Ist für ein Merkmal X die empirische Verteilungsfunktion ˆF X gegeben, dann ist x p ein p Quantil, wenn gilt: ˆF X (x p 0) < p ˆF X (x p ). Bemerkung Aufgrund der Definition (1.7.9) ist ein p Quantil oft nicht eindeutig. Daher definiert man, um Eindeutigkeit zu erhalten, das p Quantil wie folgt: Definition Gegeben sei das mindestens ordinal skalierte Merkmal X mit den geordneten Beobachtungswerten x (1) x (2)... x (n). Weiterhin sei [y] die größte ganze Zahl y. Dann heißt: { x x p = ([n p]+1) für n p / N 1 2 (x (n p) + x (n p+1) ) für n p N p Quantil. Speziell heißen x 0,5 Median, x 0,25 unteres Quartil und x 0,75 oberes Quartil. Bemerkung Aufgrund der Definition (1.7.12) gilt somit für den Median x : { x ( n+1 x := x 0.5 = 2 ) für n ungerade 1 2 (x ( n 2 ) + x ( n 2 +1) ) für n gerade

27 1.7 Lagemaße 22 Bemerkung (Eigenschaft des Medians) Es gilt stets n i=1 x i t n i=1 x i x für alle t R. Bemerkung Liegt ein klassiertes Merkmal X vor, dann gilt mit den Bezeichnungen aus Vereinbarung (1.5.2) für das p Quantil x p = k i 1 + p ˆF (k i 1 ) f i mit ˆF (k i 1 ) p < ˆF (k i ). Definition Gegeben sei ein Merkmal X mit Merkmalsraum A = {a 1,..., a m } sowie den jeweiligen relativen Häufgkeiten r(a i ), i = 1,..., m. Dann heißt ein Wert a mod mit Modus oder Modalwert. r(a mod ) r(a i ) für alle i = 1,..., m Beispiel Schulabschluss a i Volksschule Realschule Abitur Fachhochschule Universität Verschlüsselung Relative Häufigkeit r(a i ) r(4) r(a i ) für alle a i 4. Daher ist der Modus x mod = 4.

28 1.7 Einige Bemerkungen zu den Lagemaßen Einige Bemerkungen zu den Lagemaßen Die Verteilung ist rechtsschief oder linkssteil, falls x > x 0.5 f(x) Rechtsschiefe Verteilung Ausprägungen x Die Verteilung ist linksschief oder rechtssteil, falls x < x 0.5 f(x) Linksschiefe Verteilung Ausprägungen x

29 1.7 Einige Bemerkungen zu den Lagemaßen 24 Die Verteilung ist symmetrisch, falls x = x 0.5 f(x) Symmetrische Verteilung Ausprägungen x

30 1.7 Streuungsmaße Streuungsmaße Definition Gegeben sei das metrisch skalierte Merkmal X mit den Beobachtungswerten Dann heißt s 2 X = 1 n Varianz oder Streuung und s X = x 1, x 2,..., x n, n 2. n (x i x) 2 mit x = 1 n i=1 n i=1 x i s 2 X Standardabweichung. Bemerkung Für die Berechnung verwendet man häufig die äquivalente Formel s 2 X = 1 n ( n i=1 x 2 i ) x 2. Bemerkung Liegen bei einem Merkmal X die Merkmalsausprägungen a i mit ihren relativen Häufigkeiten r(a i ), i = 1,..., m, vor, dann kann man die Varianz s 2 X auch wie folgt berechnen: ( m m ) m s 2 X = (a i ā) 2 r(a i ) = a 2 i r(a i ) ā 2 mit ā = a i r(a i ). i=1 i=1 i=1 Bemerkung Liegt ein klassiertes Merkmal X vor, dann gilt mit den Bezeichnungen aus Vereinbarung (1.5.2) für die Berechnung des Mittelwertes die folgende Approximation: s 2 X = ( l l ) (m i x) 2 r i = m 2 i r i x 2 mit x = i=1 i=1 l m i r i. i=1 Definition Gegeben seien das metrisch skalierte Merkmal X mit den Beobachtungswerten x 1, x 2,..., x n, n 2 und dem Median x. Dann heißt d = 1 n n x i x i=1 mittlere absolute Abweichung.

31 1.7 Streuungsmaße 26 Definition Gegeben sei das mindestens ordinal skalierte Merkmal X mit den geordneten Beobachtungswerten x (1) x (2)... x (n).dann heißt x (n) x (1) Spannweite und x 0,75 x 0,25 Interquartilsabstand.

32 1.7 Box-Plot Box-Plot Eine kompakte graphische Darstellung, die besonders zum Vergleich wichtiger Kenngrößen mehrerer Datensätze geeignet ist, liegt in dem sogenannten Box-Plot vor. Als Box wird das Rechteck bezeichnet, welches durch das obere und untere Quartil begrenzt wird. Die Box umfasst 50% der Daten. Durch die Länge der Box ist der Interquartilsabstand abzulesen. Dies ist ein Maß der Streuung, welches durch die Differenz des oberen und unteren Quartils bestimmt ist. Als weiteres Quartil ist der Median in der Box eingezeichnet, welcher durch seine Lage innerhalb der Box einen Eindruck von der Schiefe der den Daten zugrunde liegenden Verteilung vermittelt.der Boxplot wird über einem Zahlenstrahl dargestellt und fasst verschiedene Maße der zentralen Tendenz, Streuung und Schiefe in einem Diagramm zusammen. Alle Werte der Fünf-Punkte-Zusammenfassung, also der Median, die zwei Quartile und die beiden Extremwerte, sind dargestellt. Als Whisker werden die horizontalen/vertikalen Linien bezeichnet. Die Länge der Whisker beträgt maximal das 1,5-fache des Interquartilsabstands und wird immer durch einen Wert aus den Daten bestimmt. Werte, die über dieser Grenze liegen, werden separat in das Diagramm eingetragen und als Ausreißer bezeichnet. Gibt es keine Werte außerhalb der Whisker, so wird die Länge des Whiskers durch den maximalen bzw. minimalen Wert festgelegt. Definition Gegeben sei ein metrisch skaliertes Merkmal X mit den geordneten Beobachtungswerten x (1) x (2)... x (n) und die aus diesen Daten berechneten Lagemaße: (1) Unteres Quartil: x 0,25 (2) Median: x 0,5 (3) Oberes Quartil: x 0,75. (4) Interquartilsabstand: x 0,75 x 0,25. (5) Whiskers: 1.5 (x 0,75 x 0,25 ). (6) Kleinster Wert x (1) und größter Wert x (n). Dann heißt die folgende graphische Darstellung Box-Plot. K JA HA I 3 K = HJE E= > A HA I 3 K = HJE ) K I HA E A H K JA HA H 9 D EI A HI > A HA H 9 D EI A HI N N

33 1.7 Box-Plot 28 Bemerkung Um mehr extreme Beobachtungswerte explizit sichtbar zu machen, zieht man bisweilen die links und rechts an die Box angesetzten Linien nicht bis x (1) bzw. x (n) durch, sondern für ein geeignet gewähltes k N bis x (k+1) bzw. x (n k) und zeichnet x (1),..., x (k) und x (n k+1),..., x (n) einzeln ein. Beispiel Gegeben seien die Daten aus Beispiel Der Boxplot ist dann wie folgt gegeben: Box Plot

34 1.8. HÄUFIGKEITSVERTEILUNGEN ZWEIDIMENSIONALER MERKMALE Häufigkeitsverteilungen zweidimensionaler Merkmale Grundlagen Definition Gegeben sei eine statistische Masse Ω = {ω 1,..., ω n } und eine Abbildung mit X := (X 1, X 2 ) : Ω M R 2 X(ω) =: (X 1 (ω), X 2 (ω)) = (x i, y i ), i = 1,..., n. X heißt 2-dimensonales Merkmal und die resultierenden Werte (x i, y i ) Beobachtungswerte oder Merkmalswerte. Die Menge A := {a M : ω Ω mit X 1 (ω) = a} = X 1 (Ω) heißt Merkmalsraum von X 1 und die Elemente von A heißen Merkmalsausprägungen von X 1. Entsprechend heißt die Menge B := {b M : ω Ω mit X 2 (ω) = b} = X 2 (Ω) Merkmalsraum von X 2 und die Elemente von B heißen Merkmalsausprägungen von X 2. Definition Gegeben sei eine statistische Masse Ω = {ω 1,..., ω n } und das 2-dimensionale Merkmal X = (X 1, X 2 ). Man bezeichnet die tabellarische Darstellung ω i ω 1 ω 2 ω n X(ω i ) = (x i, y i ) (x 1, y 1 ) (x 2, y 2 ) (x n, y n ) der Untersuchungseinheiten mit ihren zugehörigen Beobachtungswerten als Urliste. Beispiel Von 28 Studienanfängern wurden die Abiturnoten in Mathematik und Englisch erfasst. Man erhielt folgende Urliste (Mathematiknote, Englischnote): (4, 2); (3, 1); (3, 3); (2, 3); (4, 4); (3, 4); (3, 3); (1, 3); (3, 2); (5, 3); (3, 3); (3, 4); (3, 3); (3, 4); (2, 3); (2, 1); (2, 2); (3, 4); (3, 3); (3, 3); (1, 1); (4, 5); (5, 4); (2, 5); (2, 2); (2, 3); (2, 3); (3, 4). Definition Gegeben sei eine statistische Masse Ω = {ω 1,..., ω n } und das zweidimensionale Merkmal X = (X 1, X 2 ) mit den Merkmalsräumen A = {a 1,..., a l } und B = {b 1,..., b m }. Man bezeichnet h ij := h(a i, b j ) := ω Ω : X(ω) = (a i, b j ), (a i, b j ) A B, i = 1,..., l, j = 1,..., m als absolute Häufigkeit der Merkmalsausprägung (a i, b j ), i = 1,..., l, j = 1,..., m und r ij := r(a i, b j ) := h(a i, b j ), i = 1,..., l, j = 1,..., m, n als relative Häufigkeit der Merkmalsausprägung (a i, b j ), i = 1,..., l, j = 1,..., m.

35 1.8 Grundlagen 30 Bemerkung Es gilt: l m h ij = n i=1 j=1 und l m r ij = 1. i=1 j=1 Definition Gegeben sei ein zweidimensionales Merkmal X = (X 1, X 2 ) mit den Merkmalsräumen A = {a 1,..., a l }, B = {b 1,..., b m } und den absoluten Häufigkeiten h ij, i = 1,..., l, j = 1,..., m. Man nennt die tabellarische Darstellung A B b 1 b 2 b m a 1 h 11 h 12 h 1m a 2 h 21 h 22 h 2m..... a l h l1 h l2 h lm Kontingenztabelle. Beispiel (Fortsetzung von Beispiel 1.8.3) Englischnote b j Mathematiknote a i Bemerkung An Stelle der absoluten Häufigkeiten h ij in der Kontingenztabelle können auch die relativen Häufigkeiten r ij stehen. Bemerkung Im Gegensatz zur eindimensionalen Häufigkeitstabelle aus Definition sind in der Tabelle von Definition nicht alle relativen Häufigkeiten h ij größer als Null, da nicht jedes Paar (a i, b j ) auch Trägerpunkt, d. h. Bildpunkt eines ω Ω sein muss.

36 1.8 Grundlagen 31 Definition Gegeben sei ein zweidimensionales Merkmal X = (X 1, X 2 ) mit den absoluten Häufigkeiten h ij bzw. mit den relativen Häufigkeiten r ij. Dann heißt h i := m j=1 h ij, i = 1,..., l, absolute Randhäufigkeit des Merkmals X 1 und h j := l i=1 h ij, j = 1,..., m, absolute Randhäufigkeit des Merkmals X 2 bzw. r i := m j=1 r ij, i = 1,..., l, relative Randhäufigkeit des Merkmals X 1 und r j := l i=1 r ij, j = 1,..., m, relative Randhäufigkeit des Merkmals X 2. Beispiel (Fortsetzung von Beispiel 1.8.3) Englischnote Mathematiknote h i := m j=1 h ij h j := l i=1 h ij l i=1 h i = m j=1 h j = 28

37 1.8 Bedingte Häufigkeitsverteilungen und Unabhängigkeit Bedingte Häufigkeitsverteilungen und Unabhängigkeit Definition Es sei X = (X 1, X 2 ) ein zweidimensionales Merkmal mit den entsprechenden relativen Häufigkeiten r ij. Dann heißt für festes j r(a i b j ) := r ij r j = h ij h j für alle a i bedingte relative Häufigkeit von a i unter der Bedingung b j. Entsprechend ist für ein festes i r(b j a i ) := r ij r i = h ij h i für alle b j die bedingte relative Häufigkeit von b j unter der Bedingung a i definiert. Beispiel (Fortsetzung von Beispiel 1.8.3) Es sei a 2 Mathematiknote 2 und b 3 Englischnote 3. Dann gilt für die bedingte relative Häufigkeit: r(a 2 b 3 ) = h 23 = 4 h 3 12 = 1 3 Definition Es sei X =(X 1, X 2 ) ein zweidimensionales Merkmal mit den entsprechenden relativen Häufigkeiten r ij. Die Merkmale X 1 und X 2 heißen unabhängig, wenn für die entsprechenden relativen Häufigkeiten die folgende Beziehung gilt: r ij = r i r j für alle i und j. Folgerung Sind die Merkmale a und b unabhängig, dann gilt für die bedingten relativen Häufigkeiten r(a i b j ) = r(a i ) für alle b j und i bzw. r(b j a i ) = r(b j ) für alle a i und j.

38 1.9. ABHÄNGIGKEITSMASSE Abhängigkeitsmaße Kardinalskalierte Merkmale Definition Gegeben sei ein zweidimensionales Merkmal X = (X, Y ) mit den Beobachtungswerten (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Dann heißt n n n s XY = 1 n i=1 (x i x) (y i ȳ) mit x = 1 n i=1 x i und ȳ = 1 n i=1 y i empirische Kovarianz zwischen X und Y. Folgerung Für die empirische Kovarianz zwischen X und Y gilt die folgende Formel: ( n ) s XY = 1 x i y i x ȳ n i=1 Folgerung Liegt für das zweidimensionale Merkmal X = (X, Y ) die absolute Häufigkeitstabelle mit den Randverteilungen vor, A B b 1 b 2 b m h i a 1 h 11 h 12 h 1m h 1 a 2 h 21 h 22 h 2m h a l h l1 h l2 h lm h l h j h 1 h 2 h m n dann gilt für die empirische Kovarianz s XY = 1 l m (a i ā)(b j n b) h ij = 1 n mit ā = 1 n i=1 j=1 l a i h i und b = 1 n i=1 m b j h j. j=1 l i=1 j=1 m a i b j h ij ā b

39 1.9 Kardinalskalierte Merkmale 34 Definition Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den Beobachtungswerten (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Dann heißt 1 n i=1 r XY = n (x i x) (y i ȳ) [ ] [ ] 1 n 1 i=1 n (x i x) 2 n i=1 n (y i ȳ) 2 mit x = 1 n x i und ȳ = 1 n y i n n Pearson scher Korrelationskoeffizient zwischen X und Y. i=1 i=1 Folgerung Liegt für das zweidimensionale Merkmal X =(X, Y ) die Häufigkeitstabelle mit den Randverteilungen vor, A B b 1 b 2 b m h i a 1 h 11 h 12 h 1m h 1 a 2 h 21 h 22 h 2m h a l h l1 h l2 h lm h l h j h 1 h 2 h m n dann gilt für den empirischen Korrelationskoeffizienten r XY = l m i=1 j=1 (a i ā)(b j b) h ij [ l [ i=1 (a m i ā) 2 h i ] j=1 (b j b) ] 2 h j mit ā = 1 n l a i h i und b = 1 n i=1 m b j h j j=1 Bemerkung Liegt ein klassiertes Merkmal vor, dann sind die a i bzw. b j als Klassenmitten zu interpretieren.

40 1.9 Kardinalskalierte Merkmale 35 der Pearson sche Korrelations- Satz Es seien X =(X, Y ) ein zweidimensionales Merkmal und r XY koeffizient. Dann gilt: (1) 1 r XY 1, (2) r XY = 1, (bzw. = 1), genau dann wenn Y = a X + b mit a > 0, (bzw. mit a < 0), gilt. (3) Sind X und Y unabhängig, so gilt r XY = 0.

41 1.9 Ordinalskalierte Merkmale Ordinalskalierte Merkmale Definition Gegeben sei eine mindestens ordinal skalierte Beobachtungsreihe x 1, x 2,... x n. Dann heißt Rang von x i, i = 1,..., n. r i := Rang(x i ) := 1 + d(u) = 0 für u < für u = 0 1 für u > 0 n d(x i x j ) mit j=1 j i Definition Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den mindestens ordinalskalierten Beobachtungswerten (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ) und den Rängen r i := Rang(x i ) und s i := Rang(y i ), i = 1,..., n. Dann heißt 1 n i=1 r S = n (r i r) (s i s) [ ] [ ] 1 n 1 i=1 n (r i r) 2 n i=1 n (s i s) 2 mit r = 1 n r i und s = 1 n s i n n i=1 Spearmanscher Rangkorrelationskoeffizient zwischen X und Y. i=1 Satz Gegeben seien die Voraussetzungen aus Definition (1.9.9). Dann gilt: r S = [ n i=1 r2 i n i=1 r n (n + 1)2 i s i 4 ] [ ]. n (n + 1)2 n n (n + i=1 4 s2 1)2 i 4 Satz Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den mindestens ordinalskalierten Beobachtungswerten (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ) mit x i x j für i j und y i y j für i j und den Rängen r i := Rang(x i ) und s i := Rang(y i ). Dann gilt: r S = 1 6 n i=1 d2 i n (n 2 1) mit d i = r i s i.

42 1.9 Ordinalskalierte Merkmale 37 Satz Gegeben sei ein zweidimensionales Merkmal X =(X, Y ) mit den mindestens ordinalskalierten Beobachtungswerten (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ) und den Rängen r i := Rang(x i ) und s i := Rang(y i ). Dann gilt: (1) 1 r S 1, (2) r S = 1 ist äquivalent mit r i = s i für alle i, (3) r S = 1 ist äquivalent mit r i = n + 1 s i für alle i. Bemerkung Da der Spearmansche Rangkorrelationskoeffizient nur auf die Ränge der Messwerte angewendet wird, deutet ein Wert in der Nähe von ±1 auch bei kardinal skalierten Merkmalen nicht unbedingt auf einen starken linearen Zusammenhang der Messwerte hin, sondern möglicherweise nur auf ein monotones Verhalten der beiden Messwertefolgen. Werte in der Nähe von 0 deuten darauf hin, dass wenig oder kein monotoner Zusammenhang zwischen den Messwertefolgen vorliegt.

43 1.9 Beliebiges Skalenniveau Beliebiges Skalenniveau Definition Für das zweidimensionale Merkmal X = (X, Y ) mit beliebigem Skalierungsniveau der Komponenten sei die Tabelle der absoluten Häufigkeiten h ij und den absoluten Randhäufigkeiten h i bzw. h j gegeben: A B b 1 b 2 b m h i a 1 h 11 h 12 h 1m h 1 a 2 h 21 h 22 h 2m h a l h l1 h l2 h lm h l h j h 1 h 2 h m n mit h i > 0 für i = 1,..., l und h j > 0 für j = 1,..., m. Man bezeichnet χ 2 XY := l i=1 j=1 m [h ij h i h j n h i h j n als quadratische Kontingenz der Merkmale X und Y, ] 2 ϕ 2 XY := 1 n χ2 XY als mittlere quadratische Kontingenz der Merkmale X und Y. C := + ϕ 2 XY 1 + ϕ 2 XY = χ 2 XY n + χ 2 XY als Pearsonschen Kontingenzkoeffizienten und min{l, m} C korr = C min{l, m} 1 als korrigierten Pearsonschen Kontingenzkoeffizienten.

44 1.9 Beliebiges Skalenniveau 39 Folgerung Gegeben seien die Bezeichnungen und Voraussetzungen aus Definition (1.9.14) und l, m > 1. Dann gilt: (1) ϕ 2 XY = l m [r ij r i r j ] 2 i=1 j=1 r i r j ) (2) ϕ 2 XY = ( l i=1 m j=1 r 2 ij r i r j 1, mit r ij = h ij n, r i = h i n, r j = h j n, (3) 0 ϕ 2 XY min{l, m} 1, (4) 0 C < 1, (5) 0 C korr 1, (6) X und Y sind genau dann unabhängig, falls ϕ 2 XY = C = C korr = 0.

45 Kapitel 2 Wahrscheinlichkeitsrechnung 2.1 Einleitung Wohl jedem ist seit früher Jugend das Auftreten des Zufalls bei Glücks- und Gesellschaftsspielen wie Lotto-Ziehungen, Roulette oder Skat bzw. Mensch ärgere dich nicht geläufig. Hierbei tritt der Zufall in einer besonders einfachen und durchsichtigen Form auf. Ziel dieser Vorlesung ist es, dem Zuhörer einen ersten Einstieg in die Welt des Zufalls zu vermitteln und ihn in die Lage zu versetzen, stochastische Phänomene korrekt zu beurteilen. Natürlich beschränkt sich der Anwendungsbereich der Stochastik nicht nur auf Glücksspiele. Stochastische Fragestellungen treten in unterschiedlichen Anwendungsbereichen auf wie z. B. Informatik (z. B. Auslastung in Telefon- und Daten-Netzen) Medizin (z. B. Vergleich des Erfolges verschiedener Therapien) Versicherungswesen (Prämienkalkulation) Produktion (z. B. statistische Qualitätskontrolle, Lagerhaltung) Wirtschaft (Portfolioanalyse, Marketing-Strategien) Verkehrswesen (Studium von Warteschlangensystemen) Biologie (Planung und Auswertung von Versuchen) Meinungsforschung (Gewinnung repräsentativer Stichproben und Hochrechnen auf die Grundgesamtheit.) Diese Anwendungsbereiche unterstreichen die wachsende Bedeutung der Stochastik für die berufliche Laufbahn. Zum Schluss der Einleitung noch ein Beispiel aus dem Gebiet der Meinungsforschung. 40

46 2.1. EINLEITUNG 41 Beispiel Bundestagswahl am 18. September 2005 Vorläufiges amtliches Endergebnis der Bundestagswahl: Prognose des ZDF um Uhr: Prognose der ARD um Uhr: SPD CDU/CSU GRÜNE FDP LINKE ANDERE SPD CDU/CSU GRÜNE FDP LINKE ANDERE SPD CDU/CSU GRÜNE FDP LINKE ANDERE Aus diesen beiden Prognosen wird ersichtlich, dass mit Hilfe der Stochastik schon kurz nach Schließung der Wahllokale sehr verlässliche Ergebnisse bzgl. des vorläufigen amtlichen Endergebnisses durch Hochrechnung geliefert werden konnten.

47 2.2. DAS WAHRSCHEINLICHKEITSTHEORETISCHE MODELL Das wahrscheinlichkeitstheoretische Modell Der Ergebnisraum Ω Um Vorgänge und Situationen der wirklichen Welt mathematisch beschreiben zu können, muss man durch Abstraktion mathematische Modelle konstruieren, die die wesentlichen Eigenschaften der Wirklichkeit wiedergeben. Ein erster Schritt bei der Modellbildung besteht darin, die zu betrachtenden Ergebnisse eines Zufallsexperimentes zu einer mathematischen Menge zusammenzufassen. Es ist üblich, diese Menge als Ergebnisraum zu bezeichen und durch Ω zu symbolisieren. Einige Beispiele mögen dies untermauern: Zufallsexperiment Ergebnisraum 1. Werfen mit einem Würfel Ω = {1, 2, 3, 4, 5, 6} 2. Zweimaliges Werfen einer Münze Ω = {(W, W ), (W, Z), (Z, W ), (Z, Z)} 3. Erfassung der Ausschussteile, die auf einer Maschine während einer Schicht produziert werden Ω = {0, 1, 2, 3,..., n} 4. Ermittlung der Lebensdauer von PKW-Reifen Ω = {t : t 0, t R} Erster Schritt der Modellbildung: Für jedes Zufallsexperiment wird eine Menge Ω von Ergebnissen so festgelegt, dass jedes dieser Ergebnisse als ein möglicher Versuchsausgang interpretiert werden kann. Dabei soll Ω so gewählt werden, dass bei jeder Durchführung des Versuchs der Ausgang durch eines und nur eines dieser Ergebnisse gekennzeichnet ist. Da jeder Ergebnisraum durch einen Abstraktionsprozess aus dem realen Zufallsexperiment gewonnen wird, ist es verständlich, dass umgekehrt zu einem mathematischen Ergebnisraum Ω durchaus verschiedene reale Zufallsexperimente gehören können. So kann Ω = {0, 1} i. a. aufgefasst werden als Ergebnisraum folgender realer Zufallsexperimente: 1. Münzwurf mit den Ergebnissen 0 := Wappen und 1 := Zahl 2. Würfelwurf mit den Ergebnissen 0 := gerade Augenzahl und 1 := ungerade Augenzahl 3. Ziehen einer Kugel aus einer Urne mit roten und schwarzen Kugeln mit den Ergebnissen 0 := rot und 1 := schwarz 4. Qualitätskontrolle mit den Ergebnissen 0 := brauchbar und 1 := unbrauchbar 5. Ziehen eines Loses mit den Ergebnissen 0 := Niete und 1 := Treffer

48 2.2 Ereignisse und Ereignisraum F Ereignisse und Ereignisraum F Reale Fragestellungen beziehen sich meist nicht auf einzelne Ergebnisse, die bei einem Zufallsexperiment auftreten, sondern auf gewisse Teilmengen von Ω. Dies soll an einem Beispiel erläutert werden. Beispiel Eine Urne enthalte 3 rote Kugeln, 2 schwarze Kugeln und 1 grüne Kugel. Es werden 2 Kugeln nacheinander ohne Zurücklegen gezogen. Für dieses Zufallsexperiment eignet sich folgender Ergebnisraum: Ω = {(r, r), (r, s), (r, g), (s, r), (s, s), (s, g), (g, r), (g, s)}. Interessiert man sich z. B. dafür, dass zwei gleichfarbige Kugeln gezogen werden, kann dies durch die Menge A 1 = {(r, r), (s, s)} dargestellt werden. Solche interessierenden Teilmengen von Ω nennt man Ereignisse. Interessiert man sich dafür, mindestens eine rote Kugel zu ziehen, so kann dieses Ereignis durch die Menge A 2 = {(r, r), (r, s), (r, g), (s, r), (g, r)} dargestellt werden. Interessiert man sich für das Ereignis, keine rote Kugel zu ziehen, so kann dieses Ereignis durch die Menge A 3 = {(s, s), (s, g), (g, s)} dargestellt werden. Wie man leicht sieht, kann man das Ereignis A 3 auch mittels Komplement darstellen. Es gilt nämlich A 3 = Ā2 = {(s, s), (s, g), (g, s)}. Interessiert man sich für das Ereignis, genau zwei rote Kugeln zu ziehen, so kann dieses Ereignis durch die Menge A 4 = {(r, r)} dargestellt werden. Das Ereignis A 4 lässt sich aber auch als Durchschnitt darstellen, nämlich A 4 = A 1 A 2. Man sieht, dass die Menge {(r, r)} eine einelementige Teilmenge aus Ω ist. Solche einelementigen Teilmengen aus Ω nennt man häufig Elementarereignisse. Interessiert man sich für das Ereignis, genau zwei gleichfarbige Kugeln oder genau eine schwarze und grüne Kugel zu ziehen, so kann dieses Ereignis durch die Menge A 5 = {(r, r), (s, s), (s, g), (g, s)} dargestellt werden. Auch hier sieht man leicht, dass sich das Ereignis A 5 als Vereinigung darstellen lässt, nämlich A 5 = A 1 A 3.

49 2.2 Mengenalgebra Mengenalgebra Definition Ω sei eine beliebige Menge. Eine Menge A heißt Teilmenge von Ω, i. Z.: A Ω, wenn jedes Element von A auch Element von Ω ist, d. h. ω A ω Ω für alle ω A. 9 ) Definition Ω sei eine beliebige Menge und A, B seien Teilmengen von Ω. Die Vereinigung von A und B, i. Z.: A B ist wie folgt definiert: A B := {ω Ω : ω A ω B}. 9 ) 9 * ) *

50 2.2 Mengenalgebra 45 Definition Ω sei eine beliebige Menge und A, B seien Teilmengen von Ω. Der Durchschnitt von A und B, i. Z.: A B ist wie folgt definiert: A B := {ω Ω : ω A ω B}. 9 ) 8 * ) * Definition Ω sei eine beliebige Menge und A, B seien Teilmengen von Ω. Die Differenz von A und B, i. Z.: A \ B ist wie folgt definiert: A \ B := {ω Ω : ω A ω / B}. 9 ) * ) *

51 2.2 Mengenalgebra 46 Definition Ω sei eine beliebige Menge und A eine Teilmenge von Ω. Das Komplement von A, i. Z.: Ā ist wie folgt definiert: Ā := {ω Ω : ω / A}. 9 ) ) Definition Ω sei eine beliebige Menge. Die Gesamtheit aller Teilmengen von Ω heißt Potenzmenge, i. Z.: P(Ω), d. h.: P(Ω) = {A : A Ω}. Beispiel Ω = {1, 2, 3} P(Ω) = {, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, Ω} Satz Ist Ω endlich mit n Elementen, d. h. ist Ω = {ω 1,..., ω n }, dann besitzt die Potenzmenge P(Ω) 2 n Elemente. Satz (Rechenregeln) Ω sei eine beliebige Menge und A, B, C seien Teilmengen von Ω. Dann gilt: (1) (2) (3) A = A A A = A A B = B A A B = B A A (B C) = (A B) C A (B C) = (A B) C A = A Ω = Ω A A = A A Ω = A } Kommutativgesetz } Assoziativgesetz A B A A B B

52 2.2 Mengenalgebra 47 (4) (5) A (B C) = (A B) (A C) A (B C) = (A B) (A C) (A B) = Ā B (A B) = Ā B) } } Distributivgesetz De Morgansche Gesetze (6) A = (A B) (A B) mit (A B) (A B) = Für die Verknüpfung von Ereignissen ergeben sich daraus die folgenden Darstellungen: A oder B oder beide treten ein entspricht ω A B A und B treten (beide) ein entspricht ω A B A und B treten nie gleichzeitig ein entspricht A B = A tritt nicht ein entspricht ω Ā ω / A A tritt ein, aber B tritt nicht entspricht ω A \ B mindestens ein A i tritt ein entspricht ω alle A i treten ein entspricht ω A i i=1 A i i=1 Bemerkung Statt A B = sagt man auch A und B sind disjunkt.

53 2.2 Mengenalgebra 48 Zweiter Schritt der Modellbildung: Ist die Ergebnismenge wie in Beispiel endlich oder ist die Ergebnismenge Ω auch abzählbar unendlich, dann bezeichnet man jede Teilmenge A Ω als Ereignis. Die Menge aller Ereignisse ist die Potenzmenge und heißt in diesem Kontext Ereignisalgebra. Die leere Menge nennt man unmögliches Ereignis, da ω nie auftritt. Das Ereignis Ω nennt man sicheres Ereignis, da Ω immer eintritt. Ein Ereignis der Form A = {ω} für ein ω Ω heißt Elementarereignis. Bei der Ermittlung der Lebensdauer von PKW Reifen ist Ω = {t : t 0, t R}, d. h. Ω ist überabzählbar. Ein tiefliegendes Ergebnis der Mathematik zeigt, dass bei überabzählbaren Ergebnismengen Ω nicht allen Teilmengen von Ω eine Wahrscheinlichkeit zugeordnet werden kann. Als Ausweg betrachtet man nicht alle Teilmengen von Ω, sondern eine kleinere Auswahl F P(Ω), so dass Ereignisse sinnvoll kombiniert werden können. Dies führt dann zu folgender Definition: Definition (σ-algebra, Ereignisalgebra) Es sei Ω eine Menge und F eine Menge von Teilmengen von Ω, d. h. F P(Ω). F heißt σ-algebra (Ereignisalgebra) über Ω, wenn gilt: (1) Ω F, (2) A F Ā F, (3) A 1, A 2,... F j N A j F. Satz Es sei F eine σ-algebra über Ω. Dann gilt (1) F, (2) A 1, A 2,... F j N A j F. Bemerkung Eine σ-algebra ist somit stabil bezüglich (1) Komplementbildung (2) abzählbar unendlicher Vereinigungsbildung (3) abzählbar unendlicher Durchschnittsbildung

54 2.2 Mengenalgebra 49 Folgerung Es sei F eine σ-algebra über Ω, weiterhin sei n N. Dann gilt: (1) A 1,..., A n F n j=1 (2) A 1,..., A n F n j=1 (3) A, B F A \ B F. A j F, A j F, Bemerkung Ist E P(Ω) irgendeine Teilmenge von Ω, dann gibt es eine kleinste σ-algebra, bezeichnet mit σ(e), die E umfasst, nämlich den Durchschnitt aller σ-algebren, die E umfassen. E nennt man Erzeuger. Beispiel Die Potenzmenge P(Ω) ist die größte σ-algebra über Ω. F ={, Ω} ist die kleinste σ-algebra über Ω. Es sei A Ω und Ω A, dann ist F ={A, Ā,, Ω} die kleinste σ-algebra über Ω, die A enthält. Es sei Ω = {(x, y) : x 2 + y 2 1}. Weiterhin betrachtet man die folgenden Ereignisse: R 1 = {(x, y) : x 2 + y }, R 2 = {(x, y) : 1 3 < x2 + y } und R 3 = {(x, y) : 2 3 < x 2 + y 2 1}, dann ist F ={R 1, R 2, R 3, R 1 R 2, R 1 R 3, R 2 R 3,, Ω} die kleinste σ-algebra über Ω, die R 1, R 2, R 3 enthält. Bemerkung Für uns sind die folgenden Fälle wichtig: Ω endlich oder abzählbar unendlich. Dann nimmt man als Ereignisalgebra F = P(Ω). Ω = R. Hier konstruiert man die sogenannte Borelsche σ-algebra B, indem man als Erzeuger die Menge aller endlichen Intervalle der Form (a, b] nimmt mit a b, a, b R. Die Elemente von B heißen Borelsche Mengen des R. Ω = X R. Ereignisse sind hier alle Mengen der Form B X, wobei B eine Borelsche Teilmenge von R ist. Man wählt daher die Ereignisalgebra B(X) = {B X : B B}. B(X) heißt auch Spur-σ-Algebra. Ω = R n. Hier konstruiert man die sogenannte Borelsche σ-algebra B n, indem man als Erzeuger die Menge aller Rechtecke der Form (a, b] = (a 1, b 1 ] (a 2, b 2 ] (a n, b n ] nimmt mit a = (a 1,..., a n ), b = (b 1,..., b n ) R n. Die Elemente von B n heißen Borelsche Mengen des R n.

55 2.2 Mengenalgebra 50 Ω = X R n. Ereignisse sind hier alle Mengen der Form B X, wobei B eine Borelsche Teilmenge von R n ist. Man wählt daher die Ereignisalgebra B(X) = {B X : B B n }. B(X) heißt ebenfalls Spur-σ-Algebra. Bemerkung Die Borel σ Algebra B besitzt folgende Eigenschaften: (1) Jede einelementige Teilmenge von R ist Element von B. (2) Jede endliche Teilmenge von R ist Element von B. (3) Jede abzählbar unendliche Teilmenge von R ist Element von B. (4) Jedes beliebige Intervall (halboffen, abgeschlossen) aus R ist Element von B. Bemerkung Die Borel σ Algebra B n besitzt folgende Eigenschaften: (1) A B n, falls A abzählbare Teilmenge von R n, (2) I n B n, falls I n = (a 1, b 1 ] (a 2, b 2 ] (a n, b n ] ein beliebiges n-dimensionales Rechteck im R n ist. (4) O B n für alle offenen Teilmengen O R n, (5) G B n für alle abgeschlossenen Teilmengen G R n. Definition Ein Paar (Ω, F) bestehend aus einer nichtleeren Menge Ω und einer σ Algebra F über Ω nennt man Messraum. Ω heißt Ergebnisraum und die Elemente von Ω heißen Ergebnisse, F heißt Ereignisraum und die Elemente von F heißen Ereignisse. Bemerkung Jedes Ereignis ist Teilmenge von Ω, aber nicht jede Teilmenge von Ω ist auch ein Ereignis.

56 2.2 Wahrscheinlichkeitsräume Wahrscheinlichkeitsräume 3. Schritt der Modellbildung Die Aufgabe im 3. Schritt wird darin bestehen, jedem Ereignis A aus dieser σ-algebra bzw. Ereignisalgebra eine geeignete Zahl zuzuordnen, die uns die Chance dafür angibt, dieses Ereignis bei einem Zufallsexperiment zu erhalten, d. h. man sucht eine auf der Menge der Ereignisse derart definierte Funktion, dass die einzelnen Funktionswerte sinnvollerweise Wahrscheinlichkeiten heißen dürfen. Aufgrund dieser 3 Schritte ist man jetzt in der Lage, ein Zufallsexperiment bzw. einen Wahrscheinlichkeitsraum zu definieren. Definition Es sei (Ω, F) ein Messraum und P : F R eine Abbildung. Das Tripel (Ω, F, P) heißt Wahrscheinlichkeitsraum oder Zufallsexperiment, wenn gilt: (A1) A F P(A) 0, (A2) (A 1, A 2,... F) und (A i A j = für i j) P( A i ) = P(A i ), i=1 i=1 (A3) P(Ω) = 1. P heißt Wahrscheinlichkeit oder Wahrscheinlichkeitsmaß. Bemerkung (A1) ist die Forderung der Nichtnegativität einer Wahrscheinlichkeit, (A2) ist die Forderung der σ-additivität, (A3) ist die Forderung der Normierung. Bemerkung (A1), (A2) und (A3) heißen auch die Axiome von Kolmogoroff. Bemerkung Wird ein Wahrscheinlichkeitsraum (Ω, F, P) zur Beschreibung eines Zufallsexperimentes benutzt, so sagt man, ein bestimmtes Ereignis A F sei bei einer Durchführung des Experimentes eingetreten, wenn das beobachtete Ergebnis ω Ω ein Element von A ist, d. h. wenn gilt ω A. Satz Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A, B F. Dann gilt: (1) P(Ā) = 1 P(A); (2) P(A B) = P(A) + P(B) P(A B); (3) P(A B C) = P(A) + P(B) + P(C) P(A B) P(A C) P(B C) + P(A B C); (4) P(A B) P(A) + P(B);

57 2.2 Wahrscheinlichkeitsräume 52 (5) A B P(A) P(B); (6) P(A B) = P(A) P(A B); (7) P(A B) 1 (P(Ā) + P( B)); (8) P(A) 1. Satz Es seien Ω ein endlicher oder abzählbar unendlicher Ergebnisraum und F := P(Ω). Weiterhin sei p : Ω [0, 1] eine Abbildung mit p(ω) 0 für alle ω Ω und ω Ω p(ω) = 1. Dann ist durch P(A) := p(ω) für alle A F ω A eine Wahrscheinlichkeit P : F R definiert und damit (Ω, F, P) ein Wahrscheinlichkeitsraum. Insbesondere gilt P({ω}) = p(ω) für alle ω Ω. Definition (Diskreter Wahrscheinlichkeitsraum) Der Wahrscheinlichkeitsraum (Ω, F, P) mit F := P(Ω) aus dem Satz (2.2.28) und auch das Wahrscheinlichkeitsmaß P heißen diskret. Die Abbildung p : Ω [0, 1] heißt Wahrscheinlichkeitsfunktion. Bemerkung Ein diskreter Wahrscheinlichkeitsraum ist durch Angabe von Ω und p(ω) vollständig bestimmt.

58 2.2 Laplace-Experimente und Grundlagen der Kombinatorik Laplace-Experimente und Grundlagen der Kombinatorik Definition Es sei (Ω, P(Ω), P) ein diskreter Wahrscheinlichkeitsraum mit endlichem Ergebnisraum Ω und der Wahrscheinlichkeitsfunktion p(ω) = 1 für alle ω Ω. Das durch Ω ( ) P(A) = ω A p(ω) = A Ω A P(Ω) definierte Wahrscheinlichkeitsmaß heißt Laplacesches Wahrscheinlichkeitsmaß über Ω und der Wahrscheinlichkeitsraum (Ω, P(Ω), P) Laplacescher Wahrscheinlichkeitsraum. Bemerkung Die Gleichung (*) formuliert man auch P(A) = Anzahl der für A günstigen F älle. Anzahl der möglichen F älle Satz (Additionsprinzip der Kombinatorik) Es seien Ω 1, Ω 2,..., Ω r endliche Mengen mit r N endlich und Ω i Ω j = für i j. Dann gilt: Ω 1 Ω 2... Ω r = Ω 1 + Ω Ω r. Satz (Multiplikationsprinzip der Kombinatorik) Es seien Ω 1, Ω 2,..., Ω r endliche Mengen mit r N endlich. Dann gilt mit Ω 1 Ω 2... Ω r = {(ω 1,..., ω r ) : ω 1 Ω 1,..., ω r Ω r } : Ω 1 Ω 2... Ω r = Ω 1 Ω 2... Ω r. Definition Es sei Ω eine endliche Menge und r N. Man bezeichnet jedes r-tupel (ω 1,..., ω r ) Ω r als geordnete Probe (Variation) mit Wiederholung vom Umfang r aus Ω. Folgerung Es sei Ω eine endliche Menge mit Ω = n, n N, und es sei r N. Dann gibt es w V r n = n r geordnete Proben (Variationen) mit Wiederholung vom Umfang r aus Ω.

59 2.2 Laplace-Experimente und Grundlagen der Kombinatorik 54 Beispiel In einer Urne befinden sich 10 Kugeln mit den Nummern 0, 1,..., 9. Es werden 3 Kugeln gezogen, wobei vor dem nächsten Zug die bereits zuvor gezogene Kugel wieder in die Urne zurückgelegt wird ( Ziehen mit Zurücklegen ). Wieviel verschiedene Möglichkeiten gibt es, 3 Kugeln zu ziehen? Antwort: w V r n = n r = 10 3 = Definition (1) Für jedes n N {0} definiert man die Zahl n! N (gelesen,,n-fakultät ) durch 0! := 1 und (n + 1)! := (n + 1) n! für alle n N, (2) Für n, r N {0} mit 0 r n definiert man die Zahl (n) r (gelesen,,n tief r ) durch (n) r := n! = n (n 1) (n r + 1), (n r)! (3) Für n, r N {0} und 0 r n definiert man den Binomialkoeffizienten ( n r ) (gelesen,,n über r ) durch ( ) n n! := r (n r)! r!. Definition Es sei Ω eine endliche Menge und r N. Man bezeichnet jedes r-tupel (ω 1,..., ω r ) Ω r mit ω i ω j für i j als geordnete Probe (Variation) ohne Wiederholung vom Umfang r aus Ω. Satz Es sei Ω eine endliche Menge mit Ω = n, n N und es sei r N mit 1 r n. Dann gibt es V r n = n(n 1)...(n r + 1) = (n) r geordnete Proben (Variationen) ohne Wiederholung vom Umfang r aus Ω. Beispiel In einer Urne befinden sich 10 Kugeln mit den Nummern 0, 1,..., 9. Es werden nacheinander 3 Kugeln gezogen, wobei die bereits zuvor gezogenen Kugeln nicht wieder in die Urne zurückgelegt werden ( Ziehen ohne Zurücklegen ). Wieviel verschiedene Möglichkeiten gibt es, 3 Kugeln zu ziehen? Antwort: Vn r n! = (n) r = (n r)! = 10! (10 3)! = 10! = = !

60 2.2 Laplace-Experimente und Grundlagen der Kombinatorik 55 Definition Es sei Ω eine endliche Menge mit Ω = n, n N. Jedes n-tupel heißt eine Permutation von Ω. (ω 1,..., ω n ) Ω n mit ω i ω j für i j Folgerung Es sei Ω eine endliche Menge mit Ω = n, n N. Dann gibt es n! Permutationen von Ω. Bemerkung Jede endliche Menge kann man ordnen. Definition Es sei Ω eine endliche Menge und r N. Man bezeichnet jedes r-tupel (ω 1,..., ω r ) Ω r mit ω 1 < ω 2 <... < ω r als ungeordnete Probe (Kombination) ohne Wiederholung vom Umfang r aus Ω. Satz Es sei Ω eine endliche Menge mit Ω = n, n N und es sei r N mit 1 r n. Dann gibt es ( ) n Cn r = r ungeordnete Proben (Kombinationen) ohne Wiederholung vom Umfang r aus Ω. Beispiel In einer Urne befinden sich 10 Kugeln mit den Nummern 0, 1,..., 9. Es werden gleichzeitig 3 Kugeln gezogen ( Gleichzeitiges Ziehen ). Wieviel verschiedene Möglichkeiten gibt es, 3 Kugeln zu ziehen? Antwort: C r n = ( n r ) = n! r! (n r)! = 10! 3! (10 3)! = 10! 3! 7! = 120. Definition Es sei Ω eine endliche Menge und r N. Man bezeichnet jedes r-tupel (ω 1,..., ω r ) Ω r mit ω 1 ω 2... ω r als ungeordnete Probe (Kombination) mit Wiederholung vom Umfang r aus Ω. Satz Es sei Ω eine endliche Menge mit Ω = n, n N und es sei r N. Dann gibt es ( ) n + r 1 w Cn r = r ungeordnete Proben (Kombinationen) mit Wiederholung vom Umfang r aus Ω.

61 2.2 Laplace-Experimente und Grundlagen der Kombinatorik 56 Beispiel Es wird mit 3 gleichartigen Würfeln gleichzeitig gewürfelt. Wieviele verschiedene Zahlenkombinationen sind möglich? ( ) ( ) ( ) n + r Antwort: w Cn r = = = = 56 r 3 3 Bemerkung Die Interpretation der zuvor behandelten Kombinationen und Variationen anhand geeigneter Urnenmodelle ist im folgenden Tableau gegeben: Interpretation als Urnenmodell n N Urnen, r N Kugeln Bedingung Kugeln sind in jeder Kugelverteilung Anzahl der über r Urne sind entspricht Kugelverteilungen 1 r n 1 r n unterscheidbar maximal geordnete Probe (durchnumeriert) r Kugeln mit Wiederholung unterscheidbar höchstens geordnete Probe (durchnumeriert) eine Kugel ohne Wiederholung nicht maximal ungeordnete Probe unterscheidbar r Kugeln mit Wiederholung nicht höchstens ungeordnete Probe unterscheidbar eine Kugel ohne Wiederholung w V r n := n r V r n := (n) r w Cn r := ( ) n+r 1 r Cn r := ( ) n r Definition (Multinomialkoeffizient) Es seien k, k 1,..., k r N {0} mit r i=1 k i = k. Dann heißt Multinomialkoeffizient. ( ) k := k 1,..., k r k! k 1!... k r! Beispiel In einer Urne befinden sich sich 18 Kugeln, von denen 3 rot, 4 blau, 5 weiß und 6 schwarz sind. Wieviele verschiedene ( ) Möglichkeiten gibt es, diese 18 Kugeln anzuordnen? k k! Antwort: := k 1,... k r k 1!... k r! = 18! 3! 4! 5! 6! =

62 2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit Bedingte Wahrscheinlichkeit und Unabhängigkeit Beispiel (Motivation) Eine Firma bezieht 5000 Speicherchips von zwei verschiedenen Firmen A und B. Firma A hat 1000 Speicherchips und Firma B 4000 Speicherchips geliefert. Unter den 5000 Speicherchips sind 300 Speicherchips defekt. 100 defekte Speicherchips stammen von Firma A, 200 defekte Speicherchips stammen von Firma B. Ein geeignetes Modell zur Beschreibung des zufälligen Ziehens eines Speicherchips aus der gesamten Lieferung ist das folgende: Ω : Menge aller Speicherchips, Ω = 5000 A : Menge der Speicherchips von Firma A, A = 1000 B : Menge der Speicherchips von Firma B, B = 4000 D : Menge der defekten Speicherchips, D = 300 A D : Menge der defekten Speicherchips von Firma A, A D = 100 B D : Menge der defekten Speicherchips von Firma B, B D = 200 Ein Speicherchip wird nun rein zufällig gezogen. Dieses Zufallsexperiment wird durch ein Laplace-Modell beschrieben. Wie groß ist die Wahrscheinlichkeit, dass der Speicherchip defekt ist, wenn er von Firma A stammt? P(D A) := D A A = D A Ω A Ω = P(D A) P(A) = = Umgekehrt lässt sich auch nach der Wahrscheinlichkeit fragen, dass der Speicherchip von Firma A stammt, wenn er defekt ist. A D 100 A D Ω P(A D) P(A D) := = = = 5000 = 1 D D P(D) Ω 5000 Diese Vorüberlegungen legen die folgende allgemeine Definition für den Begriff der bedingten Wahrscheinlichkeit nahe. Definition Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A, B F mit P(A) > 0. Man nennt P(B A) := P(B A) P(A) die bedingte Wahrscheinlichkeit von B unter der Bedingung A. Bemerkung Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum und A F mit P(A) > 0. Man kann leicht nachweisen, dass die bedingte Wahrscheinlichkeit P( A) als Abbildung P( A) : F R die Eigenschaften (A1), (A2), (A3) einer Wahrscheinlichkeit hat, die Begriffsbildung in Definition (2.2.55) somit berechtigt ist. Also ist durch (Ω, F, P( A)) ein weiterer Wahrscheinlichkeitsraum gegeben.

63 2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 58 Bemerkung Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A, B F. P(A B) Aus P(B A) = mit P(A) > 0 folgt: P(A) ( ) P (A B) = P (A) P (B A). Nach Satz (2.2.27) (5) gilt wegen A B A stets P(A B) P(A), insbesondere folgt aus P(A) = 0 auch P(A B) = 0. Allerdings ist P(B A) für P(A) = 0 nicht definiert, man setzt deshalb fest P(A) P(B A) := 0 für P(A) = 0, so dass die Gleichung ( ) für alle A F gültig ist. Satz (Multiplikationssatz) Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A 1, A 2,..., A n F für n N. Dann gilt: P(A 1... A n ) = P(A 1 ) P(A 2 A 1 ) P(A 3 A 1 A 2 )... P(A n A 1... A n 1 ). Dabei sei vereinbart, die untere Zeile gleich Null zu setzen, wenn mindestens eine der Wahrscheinlichkeiten P ( k i=1 A i) für k = 1, 2,..., n 1 verschwindet, also mindestens eine der bedingten Wahrscheinlichkeiten nicht definiert ist. Beispiel Eine Urne enthält 12 Kugeln, von denen 4 weiß und 8 schwarz sind. Es werden nacheinander ohne Zurücklegen 3 Kugeln entnommen. Wie groß ist die Wahrscheinlichkeit dafür, dass alle 3 gezogenen Kugeln schwarz sind? Lösung: Es sei A i das Ereignis, dass beim i-ten Zug eine schwarze Kugel gezogen wird. Gesucht ist also die folgende Wahrscheinlichkeit: P(A 1 A 2 A 3 ) = P(A 1 ) P(A 2 A 1 ) P(A 3 A 1 A 2 ) = = Satz (Satz der totalen Wahrscheinlichkeit) Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A 1, A 2,..., A n F für n N eine Folge von Ereignissen mit A i A j = für i j und n j=1 A j = Ω. Für jedes B F gilt dann: P(B) = n P(B A j ) P(A j ). j=1

64 2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 59 9 ) )! * ) ) ) Beispiel In einem Betrieb wird ein Massenartikel auf drei Maschinen M 1, M 2 und M 3 hergestellt. Die Maschinen sind an der Gesamtproduktion wie folgt beteiligt: M 1 mit 50%, M 2 mit 40% und M 3 mit 10%. Die Maschinen arbeiten nicht fehlerfrei. Der Ausschussanteil beträgt bei M 1 3%, bei M 2 6% und bei M 3 11%. Wie groß ist der Ausschussanteil an der Gesamtproduktion? Lösung: Wir betrachten die Ereignisse: A i : Ein zufällig aus der Gesamtproduktion gewähltes Stück wurde von Maschine M i hergestellt (i = 1, 2, 3). B : Ein zufällig aus der Gesamtproduktion gewähltes Stück gehört zum Ausschuss. Aus den gegebenen Daten liest man folgendes ab: P(A 1 ) = 0.5 und P(B A 1 ) = 0.03, P(A 2 ) = 0.4 und P(B A 2 ) = 0.06, P(A 3 ) = 0.1 und P(B A 3 ) = Somit erhalten wir: Satz der totalen Wahrscheinlichkeit: P(B) = P(B A 1 ) P(A 1 ) + P(B A 2 ) P(A 2 ) + P(B A 3 ) P(A 3 ) = = Der Ausschussanteil an der Gesamtproduktion beträgt 5%. Satz (Bayes) Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und A 1, A 2,..., A n F eine Folge von Ereignissen mit A i A j = für i j und n j=1 A j = Ω. Weiter sei B F mit P(B) > 0. Dann gilt: P(B A k ) P(A k ) P(A k B) = n j=1 P(B A, k = 1, 2,..., n. j) P(A j )

65 2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 60 Beispiel (Fortsetzung von Beispiel 1.4.2) Ein zufällig aus der Gesamtproduktion gewähltes Stück wird überprüft und zum Ausschuss gerechnet. Wie groß ist die Wahrscheinlichkeit dafür, dass ein derartiges Stück von Maschine M j (j = 1, 2, 3) hergestellt wurde? Lösung: Satz von Bayes: P(B A 1 ) P(A 1 ) P(A 1 B) = 3 j=1 P(B A = = 0.30, j) P(A j ) 0.05 P(A 2 B) = P(A 3 B) = P(B A 2 ) P(A 2 ) j=1 P(B A = = 0.48, j) P(A j ) 0.05 P(B A 3 ) P(A 3 ) j=1 P(B A = = j) P(A j ) 0.05 Definition Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum, und es seien A, B F. A und B heißen stochastisch unabhängig bzgl. P, wenn gilt: P(A B) = P(A) P(B). Satz Es seien (Ω, F, P ) ein Wahrscheinlichkeitsraum, A, B F mit P(A) > 0, P(B) > 0. Dann sind die folgenden Aussagen äquivalent: (1) A und B sind stochastisch unabhängig, (2) P(A B) = P(A), (3) P(B A) = P(B).

66 2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 61 Satz Es seien (Ω, F, P ) ein Wahrscheinlichkeitsraum und A, B F. Dann sind die folgenden Aussagen äquivalent: (1) A, B sind stochastisch unabhängig, (2) A, B sind stochastisch unabhängig, (3) Ā, B sind stochastisch unabhängig, (4) Ā, B sind stochastisch unabhängig. Definition Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und (A i ) i I eine Familie von Ereignissen aus F. Die Familie heißt stochastisch unabhängig, wenn für jede endliche Teilmenge K I gilt: P( P(A i ). i K A i ) = i K Bemerkung Für 3 Ereignisse A 1, A 2, A 3 lautet die Definition (2.2.67): A 1, A 2, A 3 sind stochastisch unabhängig, wenn gilt: (1) P(A 1 A 2 ) = P(A 1 ) P(A 2 ), (2) P(A 1 A 3 ) = P(A 1 ) P(A 3 ), (3) P(A 2 A 3 ) = P(A 2 ) P(A 3 ), (4) P(A 1 A 2 A 3 ) = P(A 1 ) P(A 2 ) P(A 3 ). Beispiel Es wird mit 2 unverfälschten Münzen geworfen. Dieses Zufallsexperiment wird durch ein Laplace-Modell beschrieben mit W Wappen und Z Zahl. Ω = {(W, W ), (W, Z), (Z, W ), (Z, Z)} Gegeben seien weiterhin die folgenden Ereignisse: A 1 := {Wappen auf der ersten Münze} = {(W, W ), (W, Z)} A 2 := {Wappen auf der zweiten Münze} = {(W, W ), (Z, W )} A 3 := {Wappen auf genau einer Münze} = {(W, Z), (Z, W )} Es gilt: Daher gilt: P(A 1 ) = P(A 2 ) = P(A 3 ) = 2 4 = 1 2, P(A 1 A 2 ) = P({(W, W )}) = 1 4, P(A 1 A 3 ) = P({(W, Z)}) = 1 4, P(A 2 A 3 ) = P({(Z, W )}) = 1 4.

67 2.2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 62 P(A 1 A 2 ) = P(A 1 ) P(A 2 ), P(A 1 A 3 ) = P(A 1 ) P(A 3 ), P(A 2 A 3 ) = P(A 2 ) P(A 3 ). Damit sind die Ereignisse A 1, A 2 und A 3 paarweise unabhängig. Es gilt aber weiterhin P(A 1 A 2 A 3 ) = P( ) P(A 1 ) P(A 2 ) P(A 3 ) = 1 8. Daher sind die Ereignisse A 1, A 2 und A 3 stochastisch abhängig. Merke: Aus der paarweisen Unabhängigkeit der Ereignisse folgt nicht die Unabhängigkeit aller Ereignisse! Bemerkung Durch vollständige Induktion kann man zeigen, dass auch die Verallgemeinerung von Satz (2.2.66) auf n N Ereignisse gilt.

68 Kapitel 3 Messbare Abbildungen und Zufallsvektoren 3.1 Allgemeine Begriffe Definition Es seien X : Ω R n eine Abbildung und B R n. Man bezeichnet als Urbild von B bzgl. X. X 1 (B) = {ω Ω : X(ω) B} Definition Es seien (Ω, F) und (R n, B n ) zwei Messräume. Eine Abbildung X : Ω R n heißt F B n messbar, wenn gilt: X 1 (B) F für alle B B n. Bemerkung Für B 1 schreiben wir im folgenden B. Definition Es sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Eine F B n messbare Abbildung X : Ω R n, ω X(ω) = (X 1 (ω),..., X n (ω)) heißt n-dimensionaler Zufallsvektor. Im Falle n = 1 spricht man von einer Zufallsariablen über (Ω, F, P). Bemerkung Ist F = P(Ω), dann ist jede Abbildung X : Ω R n n-dimensionaler Zufallsvektor. Ebenso ist jede stetige Funktion X : Ω R n n-dimensionaler Zufallsvektor. 63

69 3.1. ALLGEMEINE BEGRIFFE 64 Satz Es seien (Ω, F, P) ein Wahrscheinlichkeitsraum und X ein n-dimensionaler Zufallsvektor. Dann ist durch P X (B) := P(X 1 (B)) für alle B B n eine Wahrscheinlichkeit P X : B n R definiert und (R n, B n, P X ) ist ein Wahrscheinlichkeitsraum. Definition Man bezeichnet die durch P X (B) := P(X 1 (B)) für alle B B n definierte Wahrscheinlichkeit P X : B n R als Wahrscheinlichkeitsverteilung des Zufallsvektors X.

70 Kapitel 4 Eindimensionale Zufallsvariablen 4.1 Einführung Beispiel Dreimaliger Münzwurf mit einer unverfälschten Münze Ω = {(W, W, W ), (W, W, Z), (W, Z, W ), (Z, W, W ), (W, Z, Z), (Z, W, Z), (Z, Z, W ), (Z, Z, Z)}, F = P(Ω) P : F R mit P(A) = A für alle A F. Ω X : Ω R mit X Anzahl der Wappen (W, W, W ) 3 (W, W, Z) 2 (W, Z, W ) 2 (Z, W, W ) 2 X := (W, Z, Z) 1 (Z, W, Z) 1 (Z, Z, W ) 1 (Z, Z, Z) 0 P X ({3}) := P(X 1 ({3})) = P({(W, W, W )}) = 1 8, P X ({2}) := P(X 1 ({2})) = P({(W, W, Z), (W, Z, W ), (Z, W, W )}) = 3 8, P X ({1}) := P(X 1 ({1})) = P({(W, Z, Z), (Z, W, Z), (Z, Z, W )}) = 3 8, P X ({0}) := P(X 1 ({0})) = P({(Z, Z, Z)}) =

71 4.1. EINFÜHRUNG 66 Bemerkung Man führt für das Urbild X 1 (B) = {ω Ω : X(ω) B} auch die folgenden Kurzschreibweise ein: {ω Ω : X(ω) B} =: {X B}. Speziell schreibt man: {ω Ω : X(ω) a} =: {X a}, {ω Ω : X(ω) = a} =: {X = a} usw.

72 4.2. DISKRETE ZUFALLSVARIABLEN Diskrete Zufallsvariablen Definition Eine eindimensionale Zufallsvariable X mit der Wahrscheinlichkeitsverteilung P X heißt diskret, wenn es eine endliche oder abzählbar unendliche Teilmenge B R gibt mit P X (B) = P{X B} = 1. Definition Es sei X eine eindimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x 1, x 2,...} und der Wahrscheinlichkeitsverteilung P X. Dann heißt die Abbildung p : R [0, 1] mit p(x) = { PX {x} für x X(Ω) 0 für x R \ X(Ω) Wahrscheinlichkeitsfunktion von X. Die Menge T = {x R : p(x) > 0} heißt Träger, die Elemente x T heißen Trägerpunkte und die Werte p(x) die zugehörenden Punktwahrscheinlichkeiten. Bemerkung Es gilt: P X (B) = x B p(x) für alle B X(Ω). Satz Es sei X eine eindimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x 1, x 2,...}. Dann erfüllt die Wahrscheinlichkeitsfunktion p(x) die folgenden Bedingungen: (1) p(x) 0 für x R, (2) x X(Ω) p(x) = 1. Umgekehrt gibt es zu jeder Funktion p(x) mit den Eigenschaften (1) und (2) eine Zufallsvariable X mit der Wahrscheinlichkeitsfunktion p(x). Bemerkung Es sei X eine eindimensionale diskrete Zufallsvariable mit dem endlichen Wertebereich X(Ω) := {x 1, x 2,..., x n } und der Wahrscheinlichkeitsfunktion p(x i ), i = 1, 2,..., n. Dann lässt sich die Verteilung von X stets mittels der folgenden Tabelle darstellen: x 1 x x n p(x 1 ) p(x 2 ) p(x n )

73 4.2. DISKRETE ZUFALLSVARIABLEN 68 Beispiel Dreimaliger Münzwurf mit einer unverfälschten Münze (siehe Beispiel 4.1.1). Für die Darstellung der Verteilung von X erhält man die folgende Tabelle: x i p(x i ) = P X {x i } Definition Eine diskrete Zufallsvariable heißt symmetrisch verteilt um a R, wenn mit jedem Trägerpunkt x i auch 2a x i Trägerpunkt ist und weiterhin gilt. P X {x i } = P X {2a x i } für alle i I N Beispiel Gegeben sei eine diskrete Zufallsvariable X mit der Wahrscheinlichkeitsfunktion p(x) : x i p(x i ) = P X {x i } F N N Es gilt gilt für alle Trägerpunkte x i = 1, 2, 3, 4, 5 : P X {x i } = P X {2 3 x i }. Damit ist X symmetrisch um 3 verteilt.

74 4.3. STETIGE ZUFALLSVARIABLEN Stetige Zufallsvariablen Definition Jede Riemann-integrierbare Funktion f : R R mit f(x) 0, x R und f(x)dx = 1 heißt Riemann-Dichtefunktion (Riemann-Dichte oder auch kurz Dichtefunktion bzw. Dichte). Beispiel Gegeben sei die Funktion f(x) : 6x(1 x) für 0 x 1 f(x) = 0 sonst Es gilt f(x) 0, x R und f(x)dx = 1 0 6x(1 x)dx = 1. Damit ist f(x) eine Dichte. f X (x) x Definition Es sei X eine eindimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung P X und der Dichtefunktion f X. Die Zufallsvariable X heißt stetig, wenn für alle Intervalle (a, b] R gilt: P X (a, b] = P{a < X b} = b a f X (x)dx.

75 4.3. STETIGE ZUFALLSVARIABLEN 70 f X (x) P((a,b]) a b x Definition Eine stetige Zufallsvariable X heißt symmetrisch um a R verteilt, wenn es eine Dichte f X gibt mit: f X (a x) = f X (a + x) für alle x R, bzw. f X (x) = f X (2a x) für alle x R. Beispiel Es sei f X (x) eine Dichte mit 6x(1 x) für 0 x 1 f X (x) = 0 sonst Es gilt: f X (x) = f X (2 1 2 x) für alle x R, daher ist X symmetrisch um 1 2 verteilt.

76 4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN Die Verteilungsfunktion von eindimensionalen Zufallsvariablen Definition Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit der Wahrscheinlichkeitsverteilung P X. Die Abbildung mit F X : R R F X (x) := P X ((, x]) = P({X x}) für alle x R heißt Verteilungsfunktion der Zufallsvariablen X. Vereinbarung Im folgenden schreiben wir für P X ((, x]) =: P X (, x] und für P({X x}) =: P{X x}. Bemerkung Aufgrund der Definition einer Verteilungsfunktion gilt: i:x i x p(x i) F X (x) = x f X(t)dt falls X diskret falls X stetig Bemerkung Die Verteilungsfunktion einer diskreten Zufallsvariablen ist eine Treppenfunktion. Die Verteilungsfunktion einer stetigen Zufallsvariablen ist eine totalstetige Funktion.

77 4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 72 Beispiel (Diskrete Zufallsvariable) Dreimaliger Münzwurf mit einer unverfälschten Münze (siehe Beispiel 4.1.1). Mit Hilfe der folgenden Tabelle: x i p(x i ) = P {X = x i } erhält man die Verteilungsfunktion wie folgt: 0 für x < 0 1 für 0 x < 1 F X (x) = 8 i:x i x p(x 4 i) = für 1 x < für 2 x < für x N :! " # N

78 4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 73 Beispiel (Stetige Zufallsvariable) Es sei f X (x) eine Dichte mit 6x(1 x) für 0 x 1 f X (x) = 0 sonst Für die Verteilungsfunktion F X erhält man: x 0 für x < 0 F X (x) = f X (t)dt = 3x 2 2x 3 für 0 x 1 1 für x > 1. N : % # # # # # # N

79 4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 74 Satz (Eigenschaften einer Verteilungsfunktion) Es sei F X ( ) Verteilungsfunktion einer eindimensionalen Zufallsvariablen X. Dann gilt: (1) F X ist monoton wachsend, d. h.: x < y => F X (x) F X (y), (2) F X ist rechtsseitig stetig, d. h.: lim F X (x + h) = F X (x) für alle x R, h 0 h>0 (3) lim x F X(x) =: F X ( ) = 1, (4) lim x F X(x) =: F X ( ) = 0. Satz Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit der Wahrscheinlichkeitsverteilung P X und der Verteilungsfunktion F X ( ) und a, b R mit a < b. Dann gilt: P X (a, b] = P{a < X b} = F X (b) F X (a). Satz Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit der Wahrscheinlichkeitsverteilung P X und der Verteilungsfunktion F X ( ) und a R. Dann gilt: P X {a} = P X [a, a] = P{X = a} = F X (a) F X (a 0) mit F X (a 0) := lim F X (a h). h 0 h>0 Folgerung Es sei X eine stetige Zufallsvariable mit der Wahrscheinlichkeitsverteilung P X. Dann gilt: P X {x} = 0 für alle x R. Satz Es sei X eine eindimensionale Zufallsvariable über dem Wahrscheinlichkeitsraum (Ω, F, P) mit der Wahrscheinlichkeitsverteilung P X und der Verteilungsfunktion F X ( ) und a, b R mit a < b. Dann gilt: (1) P X (a, b) = P{a < X < b} = F X (b 0) F X (a); (2) P X [a, b] = P{a X b} = F X (b) F X (a 0); (3) P X [a, b) = P{a X < b} = F X (b 0) F X (a 0); (4) P X (, b) = P{X < b} = F X (b 0);

80 4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 75 (5) P X (a, ) = P{X > a} = 1 P{X a} = 1 F X (a); (6) P X [a, ) = P{X a} = 1 P{X < a} = 1 F X (a 0). Bemerkung Aufgrund von Folgerung gilt bei einer stetigen Zufallsvariablen X stets F X (x 0) = F X (x) für alle x R. Definition Es sei X eine Zufallsvariable mit der Wahrscheinlichkeitsverteilung P X und der Verteilungsfunktion F X ( ). Gilt für ein x R P X {x} = P{X = x} = F X (x) F X (x 0) > 0, so heißt x eine Sprungstelle von F X und P X {x} die zugehörige Sprunghöhe. Bemerkung Eine Verteilungsfunktion hat höchstens abzählbar unendlich viele Sprungstellen. Bemerkung Besitzt eine diskrete Zufallsvariable X die Sprungstellen x i, i N, und die Verteilungsfunktion F X (x), dann erhält man die Wahrscheinlichkeitsfunktion p(x i ), i N, mittels der folgenden Formel: p(x i ) = F X (x i ) F X (x i 0) Satz Es sei X eine Zufallsvariable mit der Verteilungsfunktion F X. X ist symmetrisch um a R verteilt, genau dann, wenn gilt. F X (a + x) = 1 F X (a x 0) für alle x R Satz Ist F X : R [0, 1] eine totalstetige Verteilungsfunktion, die auf dem Komplement einer endlichen oder leeren Menge C stetig differenzierbar ist, so wird durch f X (x) = df X(x) dx (x R \ C) eine Dichte f X zu F X definiert. (Auf C kann man f X beliebig festsetzen.)

81 4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 76 Beispiel Es sei X eine Zufallsvariable mit der Verteilungsfunktion F X (x) : F X (x) = 0 für x < x 1 4 x 5 2 für 1 x < 3 für 3 x < für x 7 2. N : % # # #! " # N f X (x) = df X(x) dx = 1 für 1 < x < für 3 < x < für x < 1 oder x > 7 2

82 4.4. DIE VERTEILUNGSFUNKTION VON EINDIMENSIONALEN ZUFALLSVARIABLEN 77 B N : % # # #! " # N Hier ist C = {1, 3, 7 2 }.

83 4.5. LINEARE TRANSFORMATIONEN VON EINDIMENSIONALEN ZUFALLSVARIABLEN Lineare Transformationen von eindimensionalen Zufallsvariablen Satz (a) Es seien X eine eindimensionale Zufallsvariable, a, b R mit a 0 und G : R R die Abbildung mit G(x) = ax + b für alle x R. Dann ist Y := G(X) = ax + b ebenfalls eine Zufallsvariable und es gilt: F X ( y b F Y (y) = a ) für a > 0 1 F X ( y b 0) für a < 0 a für alle y R. (b) Ist F X totalstetig, dann ist auch F Y totalstetig und für eine Dichte f Y ( ) gilt an allen Stetigkeitsstellen y y b von f Y ( ), für die Stetigkeitsstelle von f X ist: a f Y ( y) = 1 a f y b X( a ). Beispiel Es sei X eine Zufallsvariable mit der Verteilungsfunktion F X : F X (x) = 0 für x < für 0 x < 1 für 1 x < 2 für 2 x < 3 1 für x 3 Dann gilt für die Verteilungsfunktion von Y = 2X + 4 : F Y (y) = 1 F X ( y 4 2 0) = 0 für y < 2 1 für 2 y < für 0 y < für 2 y < für y 4

84 4.6. MOMENTE VON EINDIMENSIONALEN ZUFALLSVARIABLEN Momente von eindimensionalen Zufallsvariablen Definition Es sei X eine diskrete eindimensionale Zufallsvariable mit den Trägerpunkten x i und den Punktwahrscheinlichkeiten P X {x i } = p(x i ), (i J N). Gilt (1) i J x i p(x i ) <, dann heißt (2) E(X) := i J x i p(x i ) der Erwartungswert (Mittelwert) der Zufallsvariable X. Gilt (1) nicht, so sagt man, der Erwartungswert existiert nicht. Bemerkung Hat eine diskrete Zufallsvariable nur endlich viele Trägerpunkte, so ist (4.6.1) (1) trivialerweise erfüllt, d. h. der Erwartungswert existiert dann immer. Folgerung Die Zufallsvariable X habe eine Einpunktverteilung auf a R, d. h. P X {a} = 1. Dann gilt: E(X) = a. Definition Es sei X eine stetige eindimensionale Zufallsvariable und f X : R R eine Dichte von X. Gilt (1) x f X(x)dx <, dann heißt (2) E(X) := x f X(x)dx der Erwartungswert (Mittelwert) der Zufallsvariable X. Gilt (1) nicht, so sagt man, der Erwartungswert existiert nicht. Vereinbarung Zur Vereinfachung soll im Folgenden bei der Benutzung des Symbols E(X) und nicht spezifizierter Verteilung von X die Existenz des Erwartungswertes ohne ausdrückliche Erwähnung vorausgesetzt werden.

85 4.6. MOMENTE VON EINDIMENSIONALEN ZUFALLSVARIABLEN 80 Satz Es seien X eine eindimensionale Zufallsvariable und G : R R eine B B messbare Abbildung. (a) Ist X diskret verteilt mit den Trägerpunkten x i und den Punktwahrscheinlichkeiten P X {x i } = p(x i ) und gilt weiterhin i G(x i) p(x i ) <, dann existiert der Erwartungswert E(G(X)) und es gilt: E(G(X)) = G(x i ) p(x i ) = G(x i ) P X {x i }. i i (b) Ist X stetig verteilt mit einer Dichte f X und gilt G(x) f X(x)dx <, dann existiert der Erwartungswert E(G(X)), und es gilt: E(G(X)) = G(x) f X (x)dx. Satz Es seien X eine eindimensionale Zufallsvariable und G : R R, H : R R B B messbare Abbildungen. Existieren E( G(X) ) und E( H(X) ), dann gilt: E(G(X) + H(X)) = E(G(X)) + E(H(X)). Satz Es sei X eine Zufallsvariable mit dem Erwartungswert E(X) und G : R R die Abbildung mit G(x) = ax + b, a, b R. Dann existiert auch der Erwartungswert der Zufallsvariable G(X) = ax + b und es gilt: E(aX + b) = ae(x) + b. Satz Ist die Zufallsvariable X symmetrisch um a R verteilt und existiert ihr Erwartungswert, so gilt: E(X) = a. Definition Es sei X eine eindimensionale Zufallsvariable. Man bezeichnet den Erwartungswert E(X k ), k = 0, 1, 2,..., falls er existiert, als das Moment k-ter Ordnung um Null von X und schreibt: µ k := E(X k ) =: µ k (X). Weiterhin bezeichnet man den Erwartungswert E[(X E(X)) k ], k = 0, 1, 2,..., falls er existiert, als das zentrale Moment k-ter Ordnung von X und schreibt σ k := E[(X E(X)) k ] =: σ k (X).

86 4.6. MOMENTE VON EINDIMENSIONALEN ZUFALLSVARIABLEN 81 Satz Die zentralen Momente sind translationsinvariant, d. h. σ k (X) = σ k (X + a) für a R, k = 0, 1, 2,... Definition Das zweite zentrale Moment einer Zufallsvariable X bezeichnet man als Streuung oder Varianz von X und schreibt: E[(X E(X)) 2 ] =: Var(X) =: σ 2 X =: σ 2. Die positive Wurzel aus der Streuung bezeichnet man als Standardabweichung von X und schreibt + E[(X E(X)) 2 ] =: σ X =: σ. Satz Es sei X eine Zufallsvariable mit dem Erwartungswert E(X) und der Varianz Var(X). Dann gilt: (1) Var(aX + b) = a 2 Var(X) für alle a, b R, (2) Var(X) = E(X 2 ) [E(X)] 2 (Varianzzerlegungssatz). Satz und Definition Es sei X eine Zufallsvariable mit dem Erwartungswert E(X) und der Varianz Var(X) > 0. Weiterhin sei Y := X E(X). Var(X) Dann gilt: E(Y ) = 0 und Var(Y ) = 1. Man nennt Y eine standardisierte Zufallsvariable.

87 4.7. MODUS UND QUANTILE VON EINDIMENSIONALEN ZUFALLSVARIABLEN Modus und Quantile von eindimensionalen Zufallsvariablen Definition Als wahrscheinlichsten Wert, häufigsten Wert, Modus oder Modalwert einer Zufallsvariablen X bezeichnet man (1) im diskreten Fall: jeden Trägerpunkt x i, dessen Wahrscheinlichkeitsmasse P X {x i } =: p(x i ) maximal ist, (2) im stetigen Fall: jeden Punkt x, zu dem es eine Dichte f X gibt, die dort maximal und mindestens halbseitig stetig ist. Nach der Anzahl der Modalwerte heißt die Wahrscheinlichkeitsverteilung P X uni-, bi- bzw. multimodal. Definition Es sei X eine eindimensionale Zufallsvariable. Jeder Wert x R mit P {X x} 1 2 und P {X x} 1 2 heißt Median oder Zentralwert der Zufallsvariablen X. Man bezeichnet einen solchen Wert auch mit x Med oder x 0,5. Definition Es sei X eine eindimensionale Zufallsvariable und p (0, 1). Jeder Wert x R mit P {X x} p und P {X x} 1 p heißt Quantil p-ter Ordnung, p-quantil oder p-fraktil von X. Man bezeichnet einen solchen Wert oft mit dem Symbol q p. Insbesondere spricht man vom unteren Quartil für p = 0, 25 und vom oberen Quartil für p = 0, 75. Folgerung Für eine Zufallsvariable X mit der Verteilungsfunktion F X ist x R genau dann ein p-quantil, falls gilt: F X (x 0) p F X (x), für eine stetige Verteilungsfunktion also insbesondere genau dann, wenn gilt: F X (x) = p. Bemerkung Für die Lageparameter gelten folgende Empfehlungen: Skalierung nominal ordinal kardinal zu verwendender Lageparameter Modalwert Median Erwartungswert

88 4.8. SPEZIELLE DISKRETE ZUFALLSVARIABLEN Spezielle diskrete Zufallsvariablen Bernoulli-Verteilung (Zweipunktverteilung) Die Zufallsvariable X habe nur die beiden Realisationen 0 und 1. Es mag ein Zufallsexperiment zugrunde liegen, das ausschließlich nur die beiden Ausgänge A und Ā kennt, wobei A als Erfolg und Ā als Misserfolg bezeichnet werde. Das Ereignis A trete mit der Wahrscheinlichkeit p und das Ereignis Ā mit der Wahrscheinlichkeit 1 p auf. Solche Experimente heißen Bernouli-Experimente. Tritt ein Erfolg ein, wird durch die Zufallsvariable der Wert 1 zugeordnet, tritt ein Misserfolg ein, wird der Wert 0 zugeordnet. Definition Die Zufallsvariable X besitzt eine Bernoulli-Verteilung mit dem Parameter p (0, 1) und dem Träger T = {0, 1}, falls die Wahrscheinlichkeitsfunktion durch gegeben ist. 1 p für x = 0 p(x) = P X {x} = p für x = 1 0 sonst F N F F N

89 4.8 Bernoulli-Verteilung (Zweipunktverteilung) 84 Satz Besitzt X eine Bernoulli-Verteilung mit dem Parameter p (0, 1) und dem Träger T = {0, 1}, dann lautet deren Verteilungsfunktion 0 für x < 0 F X (x) = 1 p für 0 x < 1 1 für x 1 Satz Besitzt X eine Bernoulli-Verteilung mit dem Parameter p (0, 1) und dem Träger T = {0, 1}, dann gilt für deren Erwartungswert und Varianz E(X) = p; Var(X) = p(1 p).

90 4.8 Binomialverteilung Binomialverteilung Ein Bernoulli-Experiment wird mehrmals durchgeführt, wobei wieder nur interessiert, ob ein bestimmtes Ereignis eintritt (Erfolg) oder nicht eintritt (Misserfolg). Es werden folgende Bedingungen vorausgesetzt: (1) Die Wiederholungen werden jeweils unter gleichen Bedingungen durchgeführt. Insbesondere bleibt die Erfolgswahrscheinlichkeit p konstant. (2) Die Wiederholungen beeinflussen sich nicht, d. h. sie sind unabhängig voneinander. Es sei X die Zufallsvariable, welche die Anzahl der Erfolge in n Bernoulli-Versuchen mit der Erfolgswahrscheinlichkeit p angibt. Dann ist die Wahrscheinlichkeitsfunktion von X gegeben durch: ( ) n P{X = k} = p k (1 p) n k, k = 0, 1,..., n. k Definition Die Zufallsvariable X besitzt eine Binomialverteilung mit den Parametern p (0, 1) und n N und dem Träger T = {0, 1,... n}, falls die Wahrscheinlichkeitsfunktion durch ( ) n p p(x) = P X {x} = x (1 p) n x für x {0, 1,... n} x 0 sonst gegeben ist. Satz Besitzt X eine Binomialverteilung mit den Parametern p (0, 1) und n N und dem Träger T = {0, 1,... n}, dann lautet deren Verteilungsfunktion 0 für x < 0 k ( F X (x) = n ) i p i (1 p) n i für k x < k + 1, k = 0,..., n 1 i=0 1 für x n Satz Besitzt X eine Binomialverteilung mit den Parametern p (0, 1) und n N und dem Träger T = {0, 1,... n}, dann gilt für deren Erwartungswert und Varianz E(X) = n p; Var(X) = n p(1 p).

91 4.8 Binomialverteilung 86 F N N Beispiel: p = 0.4, n = 6 Beispiel (Urnenmodell mit Zurücklegen) In einer Urne befinden sich N N Kugeln. M Kugeln sind weiß, 0 M N, und N M Kugeln sind schwarz. Aus der Urne werden n N Kugeln mit Zurücklegen gezogen. Da mit Zurücklegen gezogen wird, ist die Wahrscheinlichkeit eine weise Kugel zu ziehen bei jedem Zug gegeben durch p = M. Die Wahrscheinlichkeit bei n Ziehungen mit Zurücklegen k weiße N Kugeln zu ziehen ist gegeben durch: ( ) n P X {k} = P{X = k} = p k (1 p) n k, k = 0, 1,..., n. k

92 4.8 Hypergeometrische Verteilung Hypergeometrische Verteilung Beispiel (Urnenmodell ohne Zurücklegen) In einer Urne befinden sich N N Kugeln. M Kugeln sind weiß, 0 M N, und N M Kugeln sind schwarz. Aus der Urne werden n N Kugeln ohne Zurücklegen gezogen. Da ohne Zurücklegen gezogen wird, ändert sich die Wahrscheinlichkeit eine weiße Kugel zu ziehen bei jedem Zug. Die Wahrscheinlichkeit bei n Ziehungen ohne Zurücklegen k weiße Kugeln zu ziehen ist gegeben durch: ( ) ( ) M N M k n k P X {k} = P{X = k} = ( ), max(0, n + M N) k min(n, M) N n Definition Die Zufallsvariable X besitzt eine hypergeometrische Verteilung mit den Parametern N, M, n N, 0 M N, n N und dem Träger T = {k : max{0, n + M N} k min{n, M}}, falls die Wahrscheinlichkeitsfunktion durch ( )( ) M N M x n x ( ) für x T p(x) = P X {x} = N n 0 sonst gegeben ist.

93 4.8 Hypergeometrische Verteilung 88 F N N Beispiel: N = 20, M = 8, n = 6 Satz Besitzt X eine hypergeometrische Verteilung mit den Parametern N, M, n N, 0 M N, n N und dem Träger T = {k : max{0, n + M N} k min{n, M}}, dann lautet deren Verteilungsfunktion F X (x) = 0 ( )( ) für x < max{0, n + M N} M N M k i n i k x < k + 1, ( ) für N max{0, n + M N} k min{n, M} 1 i=max{0,n+m N} n 1 für x min{n, M} Satz Besitzt X eine hypergeometrische Verteilung mit den Parametern N, M, n N, 0 M N, n N und dem Träger T = {k : max{0, n + M N} k min{n, M}}, dann gilt für deren Erwartungswert und Varianz E(X) = n M N ; Var(X) = n M N (1 M N ) N n N 1.

94 4.8 Geometrische Verteilung Geometrische Verteilung Ein Bernoulli-Experiment mit der Erfolgswahrscheinlichkeit p werde so oft durchgeführt, bis zum ersten Mal Erfolg eintritt. Es sei X die Anzahl der vorausgegangenen Misserfolge. Die Wahrscheinlichkeit dabei genau k Misserfolge zu erzielen ist gegeben durch: P X {k} := P{X = k} = (1 p) k p für k = 0, 1,.... Definition Die Zufallsvariable X besitzt eine geometrische Verteilung mit dem Parameter p (0, 1) und dem Träger T = N {0}, falls die Wahrscheinlichkeitsfunktion durch { (1 p) p(x) = P X {x} = x p für x T 0 sonst gegeben ist. F N N Beispiel: p = 0.4 Satz Besitzt X eine geometrische Verteilung mit dem Parameter p (0, 1) und dem Träger T = N {0}, dann lautet deren Verteilungsfunktion { F X (x) = 0 für x < 0 1 (1 p) k+1 für k x < k + 1, k = 0, 1,....

95 4.8 Geometrische Verteilung 90 Satz Besitzt X eine geometrische Verteilung mit dem Parameter p (0, 1) und dem Träger T = N {0}, dann gilt für deren Erwartungswert und Varianz E(X) = 1 p p ; Var(X) = 1 p p 2. Beispiel (Urnenmodell) In einer Urne befinden sich N N Kugeln. M Kugeln sind weiß, 0 M N, und N M Kugeln sind schwarz. Aus der Urne werden solange Kugeln mit Zurücklegen gezogen, bis zum ersten Mal eine weiße Kugel gezogen wird. Da mit Zurücklegen gezogen wird, ist die Wahrscheinlichkeit eine weiße Kugel zu ziehen bei jedem Zug gegeben durch p = M N. Die Wahrscheinlichkeit k schwarze Kugeln zu ziehen bis zum ersten Mal eine weiße Kugel gezogen wird, ist gegeben durch: P X {k} := P{X = k} = (1 p) k p für k = 0, 1,.... Bemerkung Betrachtet man die Zufallsvariable Y, die die Anzahl der Versuche angibt bis zum ersten Mal ein Erfolg eintritt, dann ist die Wahrscheinlichkeitsfunktion von Y gegeben durch: P Y {k} := P{Y = k} = (1 p) k 1 p für k = 1, 2,.....

96 4.8 Poisson-Verteilung Poisson-Verteilung Die Poissonverteilung eignet sich zur Modellierung der Anzahl von bestimmten Vorkommnissen (z. B. Maschinenausfall während der Produktion, eingehender Notruf bei der Feuerwehr, Meldung eines Versicherungsschadens) während eines festgelegten Zeitintervalls. Wir gehen wieder von einer Bernoulli-Versuchsreihe aus. Wir nehmen an, dass das Bernoulli-Experiment sehr häufig wiederholt wird, n also groß ist. Andererseits sei die Wahrscheinlichkeit p für einen Erfolg sehr klein. Die Anzahl X der Erfolge bei n Versuchen ist dann binomialverteilt, d. h. ( ) n P X {k} = P{X = k} = p k (1 p) n k, k = 0, 1,..., n. k Lässt man nun n gegen unendlich gehen und zugleich p gegen Null gehen, derart, dass np gegen eine positive Zahl λ konvergiert, dann kann man zeigen, dass folgendes gilt: lim n p 0 np=λ ( n )p i (1 p) n i = λi i i! e λ. Definition Die Zufallsvariable X besitzt eine Poissonverteilung mit dem Parameter λ > 0 und dem Träger T = N {0}, falls die Wahrscheinlichkeitsfunktion durch gegeben ist. p(x) = P X {x} = { λ x x! e λ für x T 0 sonst

97 4.8 Poisson-Verteilung 92 F N N Beispiel: λ = 2.0 Satz Besitzt X eine Poissonverteilung mit dem Parameter λ > 0 und dem Träger T = N {0}, dann lautet deren Verteilungsfunktion 0 für x < 0 F X (x) = k λ i. i! e λ für k x < k + 1, k = 0, 1,... i=0 Satz Besitzt X eine Poissonverteilung mit dem Parameter λ > 0 und dem Träger T = N {0}, dann gilt für deren Erwartungswert und Varianz E(X) = λ; Var(X) = λ.

98 4.9. SPEZIELLE STETIGE VERTEILUNGEN Spezielle stetige Verteilungen Stetige Gleichverteilung Definition Die Zufallsvariable X besitzt eine stetige Gleichverteilung im Intervall [a, b] mit a, b R; a < b, falls die Dichte durch { 1 für f X (x) = b a 0 sonst a x b gegeben ist. B N > = = > N Satz Besitzt X eine stetige Gleichverteilung im Intervall [a, b], dann lautet deren Verteilungsfunktion 0 für x < a x a F X (x) = für a x b b a 1 für x > b

99 4.9 Stetige Gleichverteilung 94. N = > N Satz Besitzt X eine stetige Gleichverteilung im Intervall [a, b], dann gilt für deren Erwartungswert und Varianz E(X) = a + b 2 (b a)2 ; Var(X) =. 12

100 4.9 Gaußverteilung N(0, 1) : (Standardnormalverteilung) Gaußverteilung N(0, 1) : (Standardnormalverteilung) Definition Die Zufallsvariable X besitzt eine Standardnormalverteilung (Gaußverteilung), i. Z.: X N(0, 1 2 ), falls die Dichte durch gegeben ist. ϕ(x) = 1 2π e x2 2 für < x < N N

101 4.9 Gaußverteilung N(0, 1) : (Standardnormalverteilung) 96 Satz Besitzt X eine Standardnormalverteilung, dann lautet deren Verteilungsfunktion Φ(x) = x ϕ(y)dy für x R. N N Bemerkung Die Verteilungsfunktion liegt vertafelt vor und ist in der folgenden Tabelle gegeben:

102 4.9 Gaußverteilung N(0, 1) : (Standardnormalverteilung) 97 Tabelle zur Standardnormalverteilung Φ(z) = 1 2π z e 1 2 x2 dx z

103 4.9 Gaußverteilung N(0, 1) : (Standardnormalverteilung) 98 Satz Besitzt X eine Standardnormalverteilung, dann gilt für deren Erwartungswert und Varianz E(X) = 0; Var(X) = 1. Satz Besitzt X eine Standardnormalverteilung, dann gilt: (1) ϕ(x) = ϕ( x) für alle x R, (2) Φ( x) = 1 Φ(x) für alle R

104 4.9 Normalverteilung N(µ, σ 2 ) Normalverteilung N(µ, σ 2 ) Definition Die Zufallsvariable X besitzt eine Normalverteilung mit den Parametern µ R und σ > 0, i. Z.: X N(µ, σ 2 ), falls die Dichte durch 1 x µ f X (x) = 1 σ 2π e 2 σ 2 für < x < gegeben ist. B N I I N

105 4.9 Normalverteilung N(µ, σ 2 ) 100 B N I I N Satz Besitzt X eine Normalverteilung mit den Parametern µ und σ, dann lautet deren Verteilungsfunktion F X (x) = x f X(t)dt = Φ( x µ σ ) für x R Satz Besitzt X eine Normalverteilung mit den Parametern µ und σ, dann gilt für deren Erwartungswert und Varianz E(X) = µ; Var(X) = σ 2. Satz Besitzt X eine Standardnormalverteilung, dann besitzt Y = σx + µ eine Normalverteilung mit den Parametern µ und σ. Satz Besitzt X eine Normalverteilung mit den Parametern µ und σ, dann besitzt Y = X µ σ Standardnormalverteilung. eine

106 4.9 Exponentialverteilung Exponentialverteilung Die Anwendung der Exponentialverteilung als Verteilung von Wartezeiten (Zeit bis zum nächsten Vorkommnis, oder Zeit zwischen zwei Vorkommnissen, sogenannte Zwischenankunftszeit) ist immer dann möglich, wenn die Anzahl der Vorkommnisse einer Poissonverteilung folgt. Typische Vorkommnisse sind z.b. Eintreten von Schadensfällen, Maschinenstörungen, Ankunft einer Person an einem Bedienungsschalter, Anrufe in einer Telefonzentrale usw. Der Parameter λ, der als mittlere Anzahl von Vorkommnissen in der Zeiteinheit eine spezielle Poissonverteilung festlegt, charakterisiert auch die zugehörige Exponentialverteilung der Wartezeiten. Um die Exponentialverteilung zu formulieren, betrachten wir zunächst die beiden Zufallsvariablen X (Anzahl der Vorkommnisse in einer Zeiteinheit) und X(t) (Anzahl der Vorkommnisse in einer Zeitspanne der Länge t): (1) E(X) = λ, P{X = k} = λk k! e λ, insbesondere P{X = 0} = e λ (2) E(X(t)) = λt, P{X(t) = k} = (λt)k e λt k! insbesondere P{X(t) = 0} = e λt = ( e λ) t Wir bezeichnen die Wartezeit bis zum nächsten Vorkommnis mit Y. Dann ist Y > t gleichbedeutend damit, dass über die Zeitspanne t die Anzahl der Vorkommnisse gleich 0 ist, also P{Y > t} = P{X(t) = 0} = e λt und somit F Y (t) = P{Y t} = { 1 e λt für t > 0 0 für t 0 Dies ist die Verteilungsfunktion der Exponentialverteilung. Die Dichtefunktion ergibt sich durch die Ableitung der Verteilungsfunktion.

107 4.9 Exponentialverteilung 102 Definition Die Zufallsvariable X besitzt eine Exponentialverteilung mit dem Parameter a > 0, falls die Dichte durch { a e ax für x 0 f X (x) = 0 sonst gegeben ist. B N = N

108 4.9 Exponentialverteilung 103 Satz Besitzt X eine Exponentialverteilung mit dem Parameter a > 0, dann lautet deren Verteilungsfunktion { } 0 für x < 0 F X (x) = 1 e ax für x 0. N N Satz Besitzt X eine Exponentialverteilung mit dem Parameter a > 0, dann gilt für deren Erwartungswert und Varianz E(X) = 1 a ; Var(X) = 1 a 2.

109 4.9 Exponentialverteilung 104 Bemerkung Während die Exponentialverteilung als Wartezeitverteilung mit stetiger Zeit verwendet werden kann, ist die geometrische Verteilung ein diskretes Gegenstück dazu. Wenn in einer Folge von Bernoulliversuchen die einzelnen Versuche mit Zeitperioden identifiziert werden und Y die Anzahl der Versuche (=Perioden) bis zum nächsten Treffer bezeichnet, dann ist Y > k gleichbedeutend damit, dass k Perioden hintereinander kein Treffer erzielt wird, also P {Y > k} = (1 p) k wobei 1 p die Wahrscheinlichkeit ist, dass in einer Periode kein Treffer erzielt wird. D. h. 1 p entspricht e λ. Die Verteilungsfunktion der geometrisch verteilten diskreten Wartezeit Y ist dann in den Sprungstellen k = 1, 2, 3,... gegeben mit F Y (k) = P {Y k} = 1 P {Y > k} = 1 (1 p) k. Beachte dabei die Ähnlichkeit mit der Verteilungsfunktion der Exponentialverteilung F X (t) = P {X t} = 1 P {Y > t} = 1 ( e a) t. Die Wahrscheinlichkeitsfunktion hat wie schon in (2.8.5) gesehen einen fallenden Verlauf, ähnlich wie die Dichte der Exponentialverteilung.

110 Kapitel 5 Zweidimensionale Zufallsvariablen 5.1 Einführung Beispiel (Roulette) Spieler Einsatz Auszahlung bei Gewinn A (plain) 1 e 36 e B (carré) 2 e 18 e! 5 F E A A H ) " # $ 5 F E A A H * % 105

111 5.1. EINFÜHRUNG 106 Ω = {0, 1, 2,..., 36}, F = P(Ω), P : F R mit P(E) = E für alle E F. Ω X sei die Auszahlung an Spieler A und B : X : Ω R 2 mit ω sonst X(ω) (36, 18) (0, 18) (0, 18) (0, 18) (0, 0) (Ω, F, P) X (R 2, B 2, P X ), P X (B) = P(X 1 (B)) für alle B B 2, insbesondere gilt: P X ({(x, y)}) = P(X 1 ({(x, y)})) = P{ω Ω : X(ω) = (x, y)}, (x, y) (0, 0) (0, 18) (36, 18) P X ((x, y)) Bemerkung Bei einer zweidimensionalen Zufallsvariablen gilt: Deshalb schreibt man auch X = (X 1, X 2 ). X(ω) = (X 1 (ω), X 2 (ω)) für alle ω Ω.

112 5.2. ZWEIDIMENSIONALE DISKRETE ZUFALLSVARIABLE Zweidimensionale diskrete Zufallsvariable Definition Eine zweidimensionale Zufallsvariable X mit der Wahrscheinlichkeitsverteilung P X heißt diskret, wenn es eine endliche oder abzählbar unendliche Teilmenge B R 2 gibt mit P X (B) = P{X B} = 1. Definition Es sei X eine zweidimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x 1, x 2,...} und der Wahrscheinlichkeitsverteilung P X. Dann heißt die Abbildung p : R 2 [0, 1] mit p((x 1, x 2 )) = { PX {(x 1, x 2 )} für (x 1, x 2 ) X(Ω) 0 für (x 1, x 2 ) R 2 \ X(Ω) gemeinsame Wahrscheinlichkeitsfunktion von X. Die Menge T = {(x 1, x 2 ) R 2 : p((x 1, x 2 )) > 0} heißt Träger, die Elemente (x 1, x 2 ) T heißen Trägerpunkte und die Werte p((x 1, x 2 )) die zugehörenden Punktwahrscheinlichkeiten. Bemerkung Es gilt: P X (B) = (x 1,x 2) B p((x 1, x 2 )) für alle B X(Ω). Satz Es sei X eine zweidimensionale diskrete Zufallsvariable mit dem Wertebereich X(Ω) := {x 1, x 2,...}. Dann erfüllt die Wahrscheinlichkeitsfunktion p(x) die folgenden Bedingungen: (1) p(x) 0 für x R 2, (2) x X(Ω) p(x) = 1. Umgekehrt gibt es zu jeder Funktion p(x) mit den Eigenschaften (1) und (2) eine zweidimensinale Zufallsvariable X mit der Wahrscheinlichkeitsfunktion p(x). Bemerkung Um nicht zuviele Indizes zu gebrauchen, setzen wir oft für einen zweidimensionalen Zufallvektor X =: (X, Y ).

113 5.2. ZWEIDIMENSIONALE DISKRETE ZUFALLSVARIABLE 108 Bemerkung Ist X = (X, Y ) eine 2-dimensionale diskrete Zufallsvariable mit den endlich vielen Trägerpunkten (x i, y j ) und den zugehörenden Punktwahrscheinlichkeiten p(x i, y j ) =: p ij, i = 1,..., m, j = 1,..., n, dann lässt sich die Wahrscheinlichkeitsfunktion leicht mit Hilfe der folgenden Matrix darstellen: Y y 1 y j y n X Dabei setzt man p i j x 1 p 11 p 1j... p 1n x i p i1 p ij p in x m p m1 p mj p mn = 0, falls (x i ; y j ) kein Trägerpunkt von X ist.

114 5.3. ZWEIDIMENSIONALE STETIGE ZUFALLSVARIABLE Zweidimensionale stetige Zufallsvariable Definition Jede Riemann-integrierbare Funktion f : R 2 R mit f(x 1, x 2 ) 0, (x 1, x 2 ) R 2 und f(x 1, x 2 )dx 1 dx 2 = 1 heißt Riemann-Dichtefunktion (Riemann-Dichte oder auch kurz Dichtefunktion bzw. Dichte). Beispiel Gegeben sei die Funktion f(x 1, x 2 ) : 1 für 0 x 1 1, 0 x 2 1 f(x 1, x 2 ) = 0 sonst f(x 1, x 2 )dx 1 dx 2 = 1 0 Es gilt f(x 1, x 2 ) 0, (x 1, x 2 ) R 2 und ist f(x 1, x 2 ) eine Dichte dx 1dx 2 = 1. Damit Definition Es sei X = (X 1, X 2 ) eine zweidimensionale Zufallsvariable mit der Wahrscheinlichkeitsverteilung P X und der Dichtefunktion f X. Die Zufallsvariable X heißt stetig, wenn für alle Intervalle (a 1, b 1 ] (a 2, b 2 ] R 2 gilt: P X ((a 1, b 1 ] (a 2, b 2 ]) = P{a 1 < X 1 b 1, a 2 < X 2 b 2 } = b1 b2 a 1 a 2 f X (x 1, x 2 )dx 2 dx 1. Bemerkung Die Wahrscheinlichkeit ist zunächst nur für zweidimensionale Intervalle definiert. Man kann aber für alle reguläre Mengen, worunter alle bekannten geometrischen Objekte wie z. B. Kreis, Dreieck oder Vieleck durch Quadrate von unten und oben approximieren und damit die Wahrscheinlichkeit berechnen.

115 5.3. ZWEIDIMENSIONALE STETIGE ZUFALLSVARIABLE 110 Beispiel Gegeben sei die Dichte einer 2-dimensionalen Zufallsvariablen X = (X, Y ) : { 2 für 0 x y 1 f X (x, y) = 0 sonst f(x,y) P X ((0, 0.5] (0, 0.5]) = P{0 < X 0.5, 0 < Y 0.5} = x 2dydx = [2y] 0.5 x dx = (1 2x)dx = [x x 2 ] = f X (x, y)dydx =

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Teil II. Wahrscheinlichkeitsrechnung

Teil II. Wahrscheinlichkeitsrechnung Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5 Inhaltsverzeichnis Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite 1.0 Erste Begriffsbildungen 1 1.1 Merkmale und Skalen 5 1.2 Von der Urliste zu Häufigkeitsverteilungen 9 1.2.0 Erste Ordnung

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Skalenniveaus =,!=, >, <, +, -

Skalenniveaus =,!=, >, <, +, - ZUSAMMENHANGSMAßE Skalenniveaus Nominalskala Ordinalskala Intervallskala Verhältnisskala =,!= =,!=, >, < =,!=, >, ,

Mehr

Statistik. Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz. Der Weg zur Datenanalyse. Springer. Zweite, verbesserte Auflage

Statistik. Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz. Der Weg zur Datenanalyse. Springer. Zweite, verbesserte Auflage Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz Statistik Der Weg zur Datenanalyse Zweite, verbesserte Auflage Mit 165 Abbildungen und 34 Tabellen Springer Inhaltsverzeichnis Vorwort v 1 Einführung

Mehr

Beschreibende Statistik

Beschreibende Statistik Beschreibende Aufgaben der beschreibenden : Erhebung von Daten Auswertung von Daten Darstellung von Daten Erhebung von Daten Bei der Erhebung von Daten geht es um die Erfassung von Merkmalen (Variablen)

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Bitte am PC mit Windows anmelden!

Bitte am PC mit Windows anmelden! Einführung in SPSS Plan für heute: Grundlagen/ Vorwissen für SPSS Vergleich der Übungsaufgaben Einführung in SPSS http://weknowmemes.com/generator/uploads/generated/g1374774654830726655.jpg Standardnormalverteilung

Mehr

Tabellarische und graphie Darstellung von univariaten Daten

Tabellarische und graphie Darstellung von univariaten Daten Part I Wrums 1 Motivation und Einleitung Motivation Satz von Bayes Übersetzten mit Paralleltext Merkmale und Datentypen Skalentypen Norminal Ordinal Intervall Verältnis Merkmalstyp Diskret Stetig Tabellarische

Mehr

Elementare Wahrscheinlichkeitsrechnung

Elementare Wahrscheinlichkeitsrechnung Johann Pfanzagl Elementare Wahrscheinlichkeitsrechnung 2., überarbeitete und erweiterte Auflage W DE G Walter de Gruyter Berlin New York 1991 Inhaltsverzeichnis 1. Zufallsexperimente und Wahrscheinlichkeit

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Univariate Häufigkeitsverteilungen Kühnel, Krebs 2001: Statistik für die Sozialwissenschaften, S.41-66

Univariate Häufigkeitsverteilungen Kühnel, Krebs 2001: Statistik für die Sozialwissenschaften, S.41-66 Univariate Häufigkeitsverteilungen Kühnel, Krebs 2001: Statistik für die Sozialwissenschaften, S.41-66 Gabriele Doblhammer: Empirische Sozialforschung Teil II, SS 2004 1/19 Skalenniveaus Skalenniveau Relation

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 1 Vorbemerkungen

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 26.02.2008 1 Warum Statistik und Wahrscheinlichkeits rechnung im Ingenieurwesen? Zusammenfassung der letzten Vorlesung Statistik und Wahrscheinlichkeitsrechnung

Mehr

Fachrechnen für Tierpfleger

Fachrechnen für Tierpfleger Z.B.: Fachrechnen für Tierpfleger A10. Statistik 10.1 Allgemeines Was ist Statistik? 1. Daten sammeln: Durch Umfragen, Zählung, Messung,... 2. Daten präsentieren: Tabellen, Grafiken 3. Daten beschreiben/charakterisieren:

Mehr

3. Deskriptive Statistik

3. Deskriptive Statistik 3. Deskriptive Statistik Eindimensionale (univariate) Daten: Pro Objekt wird ein Merkmal durch Messung / Befragung/ Beobachtung erhoben. Resultat ist jeweils ein Wert (Merkmalsausprägung) x i : - Gewicht

Mehr

Empirische Verteilungsfunktion

Empirische Verteilungsfunktion Empirische Verteilungsfunktion H(x) := Anzahl der Werte x ist. Deskriptive

Mehr

WISTA WIRTSCHAFTSSTATISTIK

WISTA WIRTSCHAFTSSTATISTIK WISTA WIRTSCHAFTSSTATISTIK PROF. DR. ROLF HÜPEN FAKULTÄT FÜR WIRTSCHAFTSWISSENSCHAFT Seminar für Theoretische Wirtschaftslehre Vorlesungsprogramm 04.06.2013 Zweidimensionale Datensätze 1. Kontingenztabelle

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

WISTA WIRTSCHAFTSSTATISTIK

WISTA WIRTSCHAFTSSTATISTIK WISTA WIRTSCHAFTSSTATISTIK PROF DR ROLF HÜPEN FAKULTÄT FÜR WIRTSCHAFTSWISSENSCHAFT Seminar für Theoretische Wirtschaftslehre Vorlesungsprogramm 23042013 Datenlagen und Darstellung eindimensionaler Häufigkeitsverteilungen

Mehr

3. Merkmale und Daten

3. Merkmale und Daten 3. Merkmale und Daten Ziel dieses Kapitels: Vermittlung des statistischen Grundvokabulars Zu klärende Begriffe: Grundgesamtheit Merkmale (Skalenniveau etc.) Stichprobe 46 3.1 Grundgesamtheiten Definition

Mehr

Grundlagen der Statistik

Grundlagen der Statistik Grundlagen der Statistik Übung 2 2010 FernUniversität in Hagen Alle Rechte vorbehalten Fakultät für Wirtschaftswissenschaft Übersicht über die mit den Übungsaufgaben geprüften Lehrzielgruppen Lehrzielgruppe

Mehr

3 Häufigkeitsverteilungen

3 Häufigkeitsverteilungen 3 Häufigkeitsverteilungen 3.1 Absolute und relative Häufigkeiten 3.2 Klassierung von Daten 3.3 Verteilungsverläufe 3.1 Absolute und relative Häufigkeiten Datenaggregation: Bildung von Häufigkeiten X nominal

Mehr

Wiederholung Statistik I. Statistik für SozialwissenschaftlerInnen II p.8

Wiederholung Statistik I. Statistik für SozialwissenschaftlerInnen II p.8 Wiederholung Statistik I Statistik für SozialwissenschaftlerInnen II p.8 Konstanten und Variablen Konstante: Merkmal hat nur eine Ausprägung Variable: Merkmal kann mehrere Ausprägungen annehmen Statistik

Mehr

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet Kapitel 10 Zufall und Wahrscheinlichkeit 10.1. Grundbegriffe Wahrscheinlichkeitsrechnung Zufallsvorgang Klein-Omega ω Groß-Omega Ω Stellt Modelle bereit, die es erlauben zufallsabhängige Prozesse abzuschätzen

Mehr

Kapitel 2. Häufigkeitsverteilungen

Kapitel 2. Häufigkeitsverteilungen 6 Kapitel 2 Häufigkeitsverteilungen Ziel: Darstellung bzw Beschreibung (Exploration) einer Variablen Ausgangssituation: An n Einheiten ω,, ω n sei das Merkmal X beobachtet worden x = X(ω ),, x n = X(ω

Mehr

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007 Mathematik IV für Maschinenbau und Informatik Stochastik Universität Rostock, Institut für Mathematik Sommersemester 007 Prof. Dr. F. Liese Dipl.-Math. M. Helwich Serie Termin: 9. Juni 007 Aufgabe 3 Punkte

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Einführung in die computergestützte Datenanalyse

Einführung in die computergestützte Datenanalyse Karlheinz Zwerenz Statistik Einführung in die computergestützte Datenanalyse 6., überarbeitete Auflage DE GRUYTER OLDENBOURG Vorwort Hinweise zu EXCEL und SPSS Hinweise zum Master-Projekt XI XII XII TEIL

Mehr

Statistik Klausur Wintersemester 2012/2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik Klausur Wintersemester 2012/2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik 1 1. Klausur Wintersemester 2012/2013 Hamburg, 19.03.2013 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................

Mehr

WISTA WIRTSCHAFTSSTATISTIK

WISTA WIRTSCHAFTSSTATISTIK WISTA WIRTSCHAFTSSTATISTIK PROF DR ROLF HÜPEN FAKULTÄT FÜR WIRTSCHAFTSWISSENSCHAFT Seminar für Theoretische Wirtschaftslehre Vorlesungsprogramm 07052013 Mittelwerte und Lagemaße II 1 Anwendung und Berechnung

Mehr

Kapitel 1 Beschreibende Statistik

Kapitel 1 Beschreibende Statistik Beispiel 1.25: fiktive Aktienkurse Zeitpunkt i 0 1 2 Aktienkurs x i 100 160 100 Frage: Wie hoch ist die durchschnittliche Wachstumsrate? Dr. Karsten Webel 53 Beispiel 1.25: fiktive Aktienkurse (Fortsetzung)

Mehr

Statistik. Datenanalyse mit EXCEL und SPSS. R.01denbourg Verlag München Wien. Von Prof. Dr. Karlheinz Zwerenz. 3., überarbeitete Auflage

Statistik. Datenanalyse mit EXCEL und SPSS. R.01denbourg Verlag München Wien. Von Prof. Dr. Karlheinz Zwerenz. 3., überarbeitete Auflage Statistik Datenanalyse mit EXCEL und SPSS Von Prof. Dr. Karlheinz Zwerenz 3., überarbeitete Auflage R.01denbourg Verlag München Wien Inhalt Vorwort Hinweise zu EXCEL und SPSS Hinweise zum Master-Projekt

Mehr

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011 Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011 Es können von den Antworten alle, mehrere oder keine Antwort(en) richtig sein. Nur bei einer korrekten Antwort (ohne Auslassungen

Mehr

MATHEMATIK MTA 12 SCHULJAHR 07/08 STATISTIK

MATHEMATIK MTA 12 SCHULJAHR 07/08 STATISTIK MATHEMATIK MTA 12 SCHULJAHR 07/08 STATISTIK PROF. DR. CHRISTINA BIRKENHAKE Inhaltsverzeichnis 1. Merkmale 2 2. Urliste und Häufigkeitstabellen 9. Graphische Darstellung von Daten 10 4. Lageparameter 1

Mehr

Wahrscheinlichkeits - rechnung und Statistik

Wahrscheinlichkeits - rechnung und Statistik Michael Sachs Mathematik-Studienhilfen Wahrscheinlichkeits - rechnung und Statistik für Ingenieurstudenten an Fachhochschulen 4., aktualisierte Auflage 2.2 Eindimensionale Häufigkeitsverteilungen 19 absolute

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Über den Autor 7 Über den Fachkorrektor 7. Einführung 19

Über den Autor 7 Über den Fachkorrektor 7. Einführung 19 Inhaltsverzeichnis Über den Autor 7 Über den Fachkorrektor 7 Einführung 19 Über dieses Buch 19 Törichte Annahmen über den Leser 20 Wie dieses Buch aufgebaut ist 20 Teil I: Ein paar statistische Grundlagen

Mehr

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/

Mehr

1. Grundlagen der Wahrscheinlichkeitsrechnung

1. Grundlagen der Wahrscheinlichkeitsrechnung 1. Grundlagen der Wahrscheinlichkeitsrechnung Ereignisse und Wahrscheinlichkeiten Zufälliger Versuch: Vorgang, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang innerhalb einer

Mehr

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Institut für Biometrie und klinische Forschung. WiSe 2012/2013 Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive

Mehr

Beispiel für Anwendung: z-tabelle kann genutzt werden, um z.b. Poissonverteilung näherungsweise zu integrieren. Beispiel: wie wahrscheinlich ist es

Beispiel für Anwendung: z-tabelle kann genutzt werden, um z.b. Poissonverteilung näherungsweise zu integrieren. Beispiel: wie wahrscheinlich ist es Beispiel für Anwendung: z-tabelle kann genutzt werden, um z.b. Poissonverteilung näherungsweise zu integrieren. Beispiel: wie wahrscheinlich ist es beim radioaktiven Zerfall, zwischen 100 und 110 Zerfälle

Mehr

Basiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)

Mehr

Keine Panik vor Statistik!

Keine Panik vor Statistik! Markus Oestreich I Oliver Romberg Keine Panik vor Statistik! Erfolg und Spaß im Horrorfach nichttechnischer Studiengänge STUDIUM 11 VIEWEG+ TEUBNER Inhaltsverzeichnis 1 Erstmal locker bleiben: Es längt

Mehr

Kapitel 5 Kenngrößen empirischer Verteilungen 5.1. Lagemaße. x mod (lies: x-mod) Wofür? Lageparameter. Modus/ Modalwert Zentrum. Median Zentralwert

Kapitel 5 Kenngrößen empirischer Verteilungen 5.1. Lagemaße. x mod (lies: x-mod) Wofür? Lageparameter. Modus/ Modalwert Zentrum. Median Zentralwert Kapitel 5 Kenngrößen empirischer Verteilungen 5.1. Lagemaße Wofür? Lageparameter Modus/ Modalwert Zentrum Median Zentralwert Im Datensatz stehende Informationen auf wenige Kenngrößen verdichten ermöglicht

Mehr

Grundbegriffe. Bibliografie

Grundbegriffe. Bibliografie Grundbegriffe Merkmale und Merkmalsausprägungen Skalen und Skalentransformation Einführung und Grundbegriffe II 1 Bibliografie Bleymüller / Gehlert / Gülicher Verlag Vahlen Statistik für Wirtschaftswissenschaftler

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Statistik. Datenanalyse mit EXCEL und SPSS. Prof. Dr. Karlheinz Zwerenz. R.Oldenbourg Verlag München Wien. Von

Statistik. Datenanalyse mit EXCEL und SPSS. Prof. Dr. Karlheinz Zwerenz. R.Oldenbourg Verlag München Wien. Von Statistik Datenanalyse mit EXCEL und SPSS Von Prof. Dr. Karlheinz Zwerenz R.Oldenbourg Verlag München Wien Inhalt Vorwort Hinweise zu EXCEL und SPSS Hinweise zum Master-Projekt XI XII XII TEIL I GRUNDLAGEN

Mehr

Statistik II: Grundlagen und Definitionen der Statistik

Statistik II: Grundlagen und Definitionen der Statistik Medien Institut : Grundlagen und Definitionen der Statistik Dr. Andreas Vlašić Medien Institut (0621) 52 67 44 vlasic@medien-institut.de Gliederung 1. Hintergrund: Entstehung der Statistik 2. Grundlagen

Mehr

Teil I: Deskriptive Statistik

Teil I: Deskriptive Statistik Teil I: Deskriptive Statistik 2 Grundbegriffe 2.1 Merkmal und Stichprobe 2.2 Skalenniveau von Merkmalen 2.3 Geordnete Stichproben und Ränge 2.1 Merkmal und Stichprobe An (geeignet ausgewählten) Untersuchungseinheiten

Mehr

Kapitel 2. Zufällige Versuche und zufällige Ereignisse. 2.1 Zufällige Versuche

Kapitel 2. Zufällige Versuche und zufällige Ereignisse. 2.1 Zufällige Versuche Kapitel 2 Zufällige Versuche und zufällige Ereignisse In diesem Kapitel führen wir zunächst anschaulich die grundlegenden Begriffe des zufälligen Versuchs und des zufälligen Ereignisses ein und stellen

Mehr

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Rumpfskript Elementare Wahrscheinlichkeitsrechnung Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Vorbemerkung Vorbemerkung Das vorliegende Skript heißt nicht nur Rumpf skript, sondern

Mehr

Dr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung

Dr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung Vorlesungscharts Vorlesung 1 Grundbegriffe der Wahrscheinlichkeitsrechnung Zufallsvorgänge und Zufallsereignisse Definitionen der Wahrscheinlichkeit Seite 1 von 11 Chart 1: Vorgänge deterministisch zufällig

Mehr

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests

Mehr

Anteile Häufigkeiten Verteilungen Lagemaße Streuungsmaße Merkmale von Verteilungen. Anteile Häufigkeiten Verteilungen

Anteile Häufigkeiten Verteilungen Lagemaße Streuungsmaße Merkmale von Verteilungen. Anteile Häufigkeiten Verteilungen DAS THEMA: VERTEILUNGEN LAGEMAßE - STREUUUNGSMAßE Anteile Häufigkeiten Verteilungen Lagemaße Streuungsmaße Merkmale von Verteilungen Anteile Häufigkeiten Verteilungen Anteile und Häufigkeiten Darstellung

Mehr

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen Kapitel 5 Univariate Zufallsvariablen Im ersten Teil dieses Skriptes haben wir uns mit Daten beschäftigt und gezeigt, wie man die Verteilung eines Merkmals beschreiben kann. Ist man nur an der Population

Mehr

4 Statistische Maßzahlen

4 Statistische Maßzahlen 4 Statistische Maßzahlen 4.1 Maßzahlen der mittleren Lage 4.2 Weitere Maßzahlen der Lage 4.3 Maßzahlen der Streuung 4.4 Lineare Transformationen, Schiefemaße 4.5 Der Box Plot Ziel: Charakterisierung einer

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

Deskriptive Statistik 1 behaftet.

Deskriptive Statistik 1 behaftet. Die Statistik beschäftigt sich mit Massenerscheinungen, bei denen die dahinterstehenden Einzelereignisse meist zufällig sind. Statistik benutzt die Methoden der Wahrscheinlichkeitsrechnung. Fundamentalregeln:

Mehr

Statistik. Jan Müller

Statistik. Jan Müller Statistik Jan Müller Skalenniveau Nominalskala: Diese Skala basiert auf einem Satz von qualitativen Attributen. Es existiert kein Kriterium, nach dem die Punkte einer nominal skalierten Variablen anzuordnen

Mehr

Modul 04: Messbarkeit von Merkmalen, Skalen und Klassierung. Prof. Dr. W. Laufner Beschreibende Statistik

Modul 04: Messbarkeit von Merkmalen, Skalen und Klassierung. Prof. Dr. W. Laufner Beschreibende Statistik Modul 04: Messbarkeit von Merkmalen, Skalen und 1 Modul 04: Informationsbedarf empirische (statistische) Untersuchung Bei einer empirischen Untersuchung messen wir Merkmale bei ausgewählten Untersuchungseinheiten

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 8. Übung SS 16: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 8. Übung SS 16: Woche vom Übungsaufgaben 8. Übung SS 16: Woche vom 30. 5. 3.6. 2016 Stochastik II: Klassische Wkt.-Berechnung; Unabhängigkeit Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

3 Lage- und Streuungsmaße

3 Lage- und Streuungsmaße 3 Lage- und Streuungsmaße Grafische Darstellungen geben einen allgemeinen Eindruck der Verteilung eines Merkmals, u.a. von Lage und Zentrum der Daten, Streuung der Daten um dieses Zentrum, Schiefe / Symmetrie

Mehr

Verteilungsfunktion und Quantile

Verteilungsfunktion und Quantile Statistik 1 für SoziologInnen Verteilungsfunktion und Quantile Univ.Prof. Dr. Marcus Hudec Kumulierte Häufigkeiten Hinweis: Damit das Kumulieren inhaltlich sinnvoll ist, muss das Merkmal zumindest ordinal

Mehr

Deskriptive Statistik Kapitel VI - Lage- und Streuungsparameter

Deskriptive Statistik Kapitel VI - Lage- und Streuungsparameter Deskriptive Statistik Kapitel VI - Lage- und Streuungsparameter Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter, hoechstoetter@statistik.uni-karlsruhe.de Agenda 1. Ziele 2. Lageparameter 3.

Mehr

1 Wahrscheinlichkeitsrechnung und Zufallsvariablen

1 Wahrscheinlichkeitsrechnung und Zufallsvariablen 1 Wahrscheinlichkeitsrechnung und Zufallsvariablen Zoltán Zomotor Versionsstand: 18. Mai 2015, 09:29 Die nummerierten Felder bitte während der Vorlesung ausfüllen. This work is licensed under the Creative

Mehr

Verteilungen und ihre Darstellungen

Verteilungen und ihre Darstellungen Verteilungen und ihre Darstellungen Übung: Stamm-Blatt-Diagramme Wie sind die gekennzeichneten Beobachtungswerte eweils zu lesen? Tragen Sie in beiden Diagrammen den Wert 0.452 an der richtigen Stelle

Mehr

Lagemaße Übung. Zentrale Methodenlehre, Europa Universität - Flensburg

Lagemaße Übung. Zentrale Methodenlehre, Europa Universität - Flensburg Lagemaße Übung M O D U S, M E D I A N, M I T T E L W E R T, M O D A L K L A S S E, M E D I A N, K L A S S E, I N T E R P O L A T I O N D E R M E D I A N, K L A S S E M I T T E Zentrale Methodenlehre, Europa

Mehr

Übungsaufgaben, Statistik 1

Übungsaufgaben, Statistik 1 Übungsaufgaben, Statistik 1 Kapitel 3: Wahrscheinlichkeiten [ 4 ] 3. Übungswoche Der Spiegel berichtet in Heft 29/2007 von folgender Umfrage vom 3. und 4. Juli 2007:,, Immer wieder werden der Dalai Lama

Mehr

Vorlesung Grundlagen der Biometrie WS 2011/12 1. Grundbegriffe

Vorlesung Grundlagen der Biometrie WS 2011/12 1. Grundbegriffe Vorlesung Grundlagen der Biometrie WS 2011/12 1. Grundbegriffe Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 1. Grundbegriffe der beschreibenden Statistik Statistische Einheiten, Grundgesamtheit

Mehr

Inhaltsverzeichnis. Teil I Einführung

Inhaltsverzeichnis. Teil I Einführung Inhaltsverzeichnis Teil I Einführung 1 Statistik-Programme... 1.1 Kleine Einführung in R... 1.1.1 Installieren und Starten von R. 1.1.2 R-Konsole... 1.1.3 R-Workspace... 1.1.4 R-History... 1.1.5 R-Skripteditor...

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Univariates Datenmaterial

Univariates Datenmaterial Univariates Datenmaterial 1.6.1 Deskriptive Statistik Zufallstichprobe: Umfang n, d.h. Stichprobe von n Zufallsvariablen o Merkmal/Zufallsvariablen: Y = {Y 1, Y 2,..., Y n } o Realisationen/Daten: x =

Mehr

4. Kumulierte Häufigkeiten und Quantile

4. Kumulierte Häufigkeiten und Quantile 4. Kumulierte Häufigkeiten und Quantile Kumulierte Häufigkeiten Oft ist man nicht an der Häufigkeit einzelner Merkmalsausprägungen interessiert, sondern an der Häufigkeit von Intervallen. Typische Fragestellung:

Mehr

Beispiel 2 (Einige Aufgaben zu Lageparametern) Aufgabe 1 (Lageparameter)

Beispiel 2 (Einige Aufgaben zu Lageparametern) Aufgabe 1 (Lageparameter) Beispiel (Einige Aufgaben zu Lageparametern) Aufgabe 1 (Lageparameter) 1 Ein Statistiker ist zu früh zu einer Verabredung gekommen und vertreibt sich nun die Zeit damit, daß er die Anzahl X der Stockwerke

Mehr

Statistik eindimensionaler Größen

Statistik eindimensionaler Größen Statistik eindimensionaler Größen Michael Spielmann Inhaltsverzeichnis 1 Aufgabe der eindimensionalen Statistik 2 2 Grundbegriffe 2 3 Aufbereiten der Stichprobe 3 4 Die Kennzahlen Mittelwert und Streuung,

Mehr

Verteilungsfunktion und dquantile

Verteilungsfunktion und dquantile Statistik 1 für SoziologInnen Verteilungsfunktion und dquantile Univ.Prof. Dr. Marcus Hudec Kumulierte Häufigkeiten Hinweis: Damit die Kumulation inhaltlich sinnvoll ist, muss das Merkmal zumindest ordinal

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung. Semester Begleitendes Skriptum zur Vorlesung im FH-Masterstudiengang Technisches Management von Günther Karigl FH Campus Wien 206/7 Inhaltsverzeichnis. Semester: Wahrscheinlichkeitsrechnung

Mehr

STATISTIK FÜR STATISTIK-AGNOSTIKER Teil 1 (wie mich)

STATISTIK FÜR STATISTIK-AGNOSTIKER Teil 1 (wie mich) WS 07/08-1 STATISTIK FÜR STATISTIK-AGNOSTIKER Teil 1 (wie mich) Nur die erlernbaren Fakten, keine Hintergrundinfos über empirische Forschung etc. (und ich übernehme keine Garantie) Bei der Auswertung von

Mehr

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc. Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment

Mehr

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,

Mehr

Statistik für Ökonomen

Statistik für Ökonomen Wolfgang Kohn Riza Öztürk Statistik für Ökonomen Datenanalyse mit R und SPSS 2., überarbeitete Auflage 4ü Springer Gabler Inhaltsverzeichnis Teil I Einführung 1 Kleine Einführung in R '! 3 1.1 Installieren

Mehr

I. Zahlen, Rechenregeln & Kombinatorik

I. Zahlen, Rechenregeln & Kombinatorik XIV. Wiederholung Seite 1 I. Zahlen, Rechenregeln & Kombinatorik 1 Zahlentypen 2 Rechenregeln Brüche, Wurzeln & Potenzen, Logarithmen 3 Prozentrechnung 4 Kombinatorik Möglichkeiten, k Elemente anzuordnen

Mehr

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend oder eindeutig, wenn keine alternativen Interpretationsmöglichkeiten

Mehr

Grundlegende Eigenschaften von Punktschätzern

Grundlegende Eigenschaften von Punktschätzern Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur

Mehr

Inhaltsverzeichnis. 2 Kurzbeschreibung von SPSS Der SPSS-Dateneditor Statistische Analysen mit SPSS DieDaten...

Inhaltsverzeichnis. 2 Kurzbeschreibung von SPSS Der SPSS-Dateneditor Statistische Analysen mit SPSS DieDaten... Inhaltsverzeichnis Teil I Einführung 1 Kleine Einführung in R... 3 1.1 Installieren und Starten von R... 3 1.2 R-Befehleausführen... 3 1.3 R-Workspace speichern... 4 1.4 R-History sichern........ 4 1.5

Mehr

Wahrscheinlichkeitsrechnung und Quantentheorie

Wahrscheinlichkeitsrechnung und Quantentheorie Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten

Mehr

I. Deskriptive Statistik 1

I. Deskriptive Statistik 1 I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................

Mehr

Auf dem Schulfest bietet Peter als Spielleiter das Glücksspiel "GlücksPasch" an.

Auf dem Schulfest bietet Peter als Spielleiter das Glücksspiel GlücksPasch an. Aufgabe 4 Glückspasch" (16 Punkte) Auf dem Schulfest bietet Peter als Spielleiter das Glücksspiel "GlücksPasch" an. Spielregeln: Einsatz 1. Der Mitspieler würfelt mit 2 Oktaederwürfeln. Fällt ein Pasch,

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Wahrscheinlichkeitsrechnung Theorie Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem,

Mehr

1. Maße der zentralen Tendenz Beispiel: Variable Anzahl der Geschwister aus Jugend '92. Valid Cum Value Frequency Percent Percent Percent

1. Maße der zentralen Tendenz Beispiel: Variable Anzahl der Geschwister aus Jugend '92. Valid Cum Value Frequency Percent Percent Percent Deskriptive Statistik 1. Verteilungsformen symmetrisch/asymmetrisch unimodal(eingipflig) / bimodal (zweigipflig schmalgipflig / breitgipflig linkssteil / rechtssteil U-förmig / abfallend Statistische Kennwerte

Mehr

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3. 2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

STATISTIK I Übung 07 Box-Plots und Stem-and-Leaf-Diagramme. 1 Kurze Wiederholung. Warum nur zwei grafische Darstellungsformen?

STATISTIK I Übung 07 Box-Plots und Stem-and-Leaf-Diagramme. 1 Kurze Wiederholung. Warum nur zwei grafische Darstellungsformen? STATISTIK I Übung 07 Box-Plots und Stem-and-Leaf-Diagramme 1 Kurze Wiederholung Warum nur zwei grafische Darstellungsformen? Im Rahmen der Vorlesungen haben wir kurz eine ganze Reihe grafischer Darstellungsformen

Mehr