Stochastik. Prof. Dr. Ulrich Horst. Wintersemester 2013/2014

Größe: px
Ab Seite anzeigen:

Download "Stochastik. Prof. Dr. Ulrich Horst. Wintersemester 2013/2014"

Transkript

1 Stochastik Prof. Dr. Ulrich Horst Wintersemester 3/4 Institut für Mathematik Mathematisch-Naturwissenschaftliche Fakultät II Humboldt-Universität zu Berlin Dieses Skript wurde von Alexander Prang in Anlehnung an die Vorlesung erstellt. Für die Korrektheit des gesamten Inhaltes gibt es keine Garantie. Fragen, Fehler und Anmerkungen: Letzte Änderung: 7. Februar 4

2 Inhaltsverzeichnis Allgemeine Orientierung 4 Kombinatorische Analyse 5. Grundprinzip des Zählens Permutation Variation und Kombination Multinomialkoeffizient Anzahl der ganzzahligen Lösungen von Gleichungen Axiome der Wahrscheinlichkeitsrechnung 9. Mengenoperationen mit Ereignissen Axiome der Wahrscheinlichkeitsrechnung Einfache Eigenschaften des Wahrscheinlichkeitsmaß Laplace-Experimente Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit 4 3. Bedingte Wahrscheinlichkeit Gesetz der totalen Wahrscheinlichkeit und Satz von Bayes Stochastische Unabhängigkeit Formalisierung von Versuchsfolgen Diskrete Zufallsvariablen 4. Diskrete Zufallsvariablen Erwartungswert und Varianz diskreter Zufallsvariablen Spezielle diskrete Verteilungen Bernoulli-Verteilung Binomialverteilung Poisson-Verteilung Geometrische Verteilung Negative Binomialverteilung Hypergeometrische Verteilung Absolutstetige Zufallsvariablen Approximation der Binomialverteilung Absolutstetige Zufallsvariablen Erwartungswert und Varianz absolutstetiger Zufallsvariablen Spezielle absolutstetige Verteilungen Gleichverteilung Normalverteilung Exponentialverteilung Exkurs: Mehrdimensionale Differentiation und Integration 43 Mehrdimensionale Differentiation Mehrdimensionale Integration Gemeinsame Verteilung von Zufallsvariablen Gemeinsame Verteilungsfunktion Unabhängige Zufallsvariablen Summen unabhängiger Zufallsvariablen Statistik für unabhängige normalverteilte Zufallsvariablen Das schwache Gesetz der großen Zahlen Schätzer für µ bei bekanntem σ Schätzer für σ bei bekanntem µ Schätzer für σ bei bekanntem µ Schätzer für µ bei unbekannten σ Bedingte Verteilung von Zufallsvariablen Bedingte Verteilung diskreter Zufallsvariablen Bedingte Verteilung absolutstetiger Zufallsvariablen

3 7 Eigenschaften des Erwartungswertes Erwartungswert der Summe von Zufallsvariablen Varianz, Kovarianz und Korrelation Bedingte Erwartung von Zufallsvariablen Bedingte Erwartung diskreter Zufallsvariablen Bedingte Erwartung absolutstetiger Zufallsvariablen Quellen 7 3

4 Allgemeine Orientierung Ziel Bereitstellung eines mathematischen Modells mit dem zufällige Phänomene beschrieben und interpretiert werden können. Ein solches Modell ist durch das Tripel Ω, F, P gegeben, dem sogenannten Wahrscheinlichkeitsraum. Doch wofür stehen die Komponenten dieses Tripels? Ω ist eine nichtleere Menge, der Ergebnisraum. Die Elemente ω Ω heißen Ergebnisse und werden als mögliche Ausgänge des Zufallsexperiments interpretiert. F ist eine σ-algebra über der Grundmenge Ω, also eine Menge bestehend aus Teilmengen E von Ω, die Ω enthält und abgeschlossen gegenüber der Bildung von Komplementen und abzählbaren Vereinigungen ist. Die Elemente E F heißen Ereignisse. Sei ω Ω die Realisierung eines Experiments, dann sagen wir, dass das Ereignis E eingetreten ist, falls ω E gilt. Die σ-algebra F selbst wird auch Ereignisalgebra oder Ereignisfeld genannt. P ist eine Abbildung P: F [, ] und heißt Wahrscheinlichkeitsmaß auf dem Messraum Ω, F. Frage Wie groß ist die Wahrscheinlichkeit eines Full House z.b. 3 Damen und Könige beim Poker? Man erhält 5 von 5 Karten, welche aus vier verschiedenen Farben Kreuz, Herz, Pik, Karo und jeweils dreizehn Werten, 3,..., 9,, Bube, Dame, König, Ass bestehen. Antwort Die Menge der möglichen Versuchsausgänge Ω ist die Menge aller Pokerhände z.b. Kreuz 8, Kreuz Dame, Herz 8, Herz 9, Karo Ass. Das Ereignis E, welches von Interesse ist, ist das man ein Full House bekommt. PE E Ω 4

5 Kombinatorische Analyse. Grundprinzip des Zählens Lemma Wir betrachten zwei verschiedene Experimente. Das erste Experiment hat m N und das zweite Experiment hat n N mögliche Ausgänge. Dann können wir Ω als Matrix wie folgt darstellen.,, n..... m, m, n Nach dem Grundprinzip des Zählens gibt es also m n mögliche Versuchsausgänge. Satz Wir betrachten r verschiedene Einzelexperimente, wobei Experiment i mit i r genau n i mögliche Versuchsausgänge erlaubt. Dann gibt es nach dem verallgemeinerten Grundprinzip des Zählens r n i n... n r mit n i N mögliche Versuchsausgänge für die r Experimente. Beispiel Lösung Wie viele fünfstellige Berliner KFZ-Kennzeichen B- gibt es? Um diese Frage zu klären, geht man wie folgt vor. Lege den ersten Buchstaben fest. 6 Möglichkeiten Lege den zweiten Buchstaben fest. 6 Möglichkeiten Lege die erste Ziffer fest. 9 Möglichkeiten Lege die zweite Ziffer fest. Möglichkeiten Lege die dritte Ziffer fest. Möglichkeiten Damit ergeben sich verschiedene Möglichkeiten. Beispiel Lösung Wie viele fünfstellige Berliner KFZ-Kennzeichen B- gibt es ohne Wiederholungen? Um diese Frage zu klären, geht man wie folgt vor. Lege den ersten Buchstaben fest. 6 Möglichkeiten Lege den zweiten Buchstaben fest. 5 Möglichkeiten Lege die erste Ziffer fest. 9 Möglichkeiten Lege die zweite Ziffer fest. 9 Möglichkeiten Lege die dritte Ziffer fest. 8 Möglichkeiten Damit ergeben sich verschiedene Möglichkeiten.. Permutation Definition Gegeben sei eine Menge mit n N unterscheidbaren Objekten. Die möglichen Anordnungen aller n Elemente bezeichnet man als Permutation. Darf jedes der n Elemente jeweils nur einmal vorkommen Ziehen ohne Zurücklegen so gilt für die Anzahl der möglichen Anordnungen Folgendes. n! : n i n n... bzw. n! : n n! Beispiel Wie viele mögliche Tabellenstände in der Fußball-Bundesliga gibt es? 5

6 Lösung Beispiel Es gibt genau 8! mögliche Tabellenstände. Wie viele Tabellenstände gibt es, wo der BVB auf einem Abstiegsplatz steht? Lösung Um diese Frage zu klären, geht man wie folgt vor. Lege den Abstiegsplatz für den BVB fest. 3 Möglichkeiten Platziere die restlichen 7 Vereine. 7! Möglichkeiten Es gibt also 3 7! Tabellenstände. Beispiel Wie viele unterscheidbare Anordnungen können wir aus PEPPER bilden? Lösung Es gibt 6! Möglichkeiten P E P P 3 E R anzuordnen, jedoch liefern P E P P 3 E R und P 3 E P P E R dasselbe Wort. Wir legen also zunächst die Plätze für P und E fest und lassen dann unsere P s und E s permutieren. Wir haben also 3! Möglichkeiten die P s und! Möglichkeiten die E s zu permutieren. Die Anzahl der unterscheidbare Anordnungen beträgt damit also.3 Variation und Kombination 6! 3!! 6. Definition Gegeben sei eine Menge mit n N Objekten. Die möglichen Anordnungen aus je k n Elementen dieser Menge mit Berücksichtigung der Reihenfolge bezeichnet man als Variation. i Darf jedes Element jeweils nur einmal vorkommen ohne Zurücklegen so gilt n n... n k + n! n k! ii Darf jedes Element beliebig oft vorkommen mit Zurücklegen so gilt n }. {{.. n } n k k-mal Definition Gegeben sei eine Menge mit n N Objekten. Die möglichen Anordnungen aus je k n Elementen dieser Menge ohne Berücksichtigung der Reihenfolge bezeichnet man als Kombination. i Darf jedes Element jeweils nur einmal vorkommen ohne Zurücklegen so gilt n n! n k n k! k! n k ii Darf jedes Element beliebig oft vorkommen mit Zurücklegen so gilt n + k n + k! n + k k n! k! n Beispiel Es soll ein Komitee aus 3 Personen aus einer Gruppe von Personen gebildet werden. Wie viele verschiedene Komitees können gebildet werden? Lösung Es gibt verschiedene Möglichkeiten ein solches Komitee zu bilden. 3 3 Beispiel Es soll ein Komitee aus Frauen und 3 Männern aus einer Gruppe von 5 Frauen und 7 Männern gebildet werden. Wie viele verschiedene Komitees können gebildet werden? 5 7 Lösung Es gibt mögliche Gruppen aus Frauen und mögliche Gruppen aus 3 Männern. Aus dem Grundprinzip des Zählens folgt, dass es damit 35 mögliche Komitees gibt. 3 6

7 Beispiel Lösung Wie viele verschiedene Poker-Hände gibt es? Man bekommt 5 von 5 Karten. Es gibt damit als 5 Möglichkeiten. 5 Beispiel Wie viele Möglichkeiten für ein Full House, also 3 Karten von einem Wert und Karten von einem anderen Wert, gibt es? Lösung Um diese Frage zu klären, geht man wie folgt vor. Wähle den ersten Wert. 3 Möglichkeiten Wähle den zweiten Wert. Möglichkeiten Wähle 3 von 4 Farben für den ersten Wert. 4 3 Möglichkeiten Wähle von 4 Farben für den zweiten Wert. 4 Es gibt also insgesamt 3.4 Multinomialkoeffizient 4 3 Möglichkeiten 4 verschiedene Möglichkeiten ein Full House zu bekommen. Definition Gegeben sei eine Menge mit n N Objekten. Die möglichen Anordnungen in k n Gruppen mit jeweils n i N Objekten für i,..., k sind durch den Multinomialkoeffizienten gegeben. k n n! n,..., n k n!... n k! n! n i! mit k n i n Beispiel Lösung Beispiel Lösung Wie viele Möglichkeiten gibt es Studierende auf Teams A und B zu je 5 zu verteilen? Es gibt insgesamt! 5 verschiedene Möglichkeiten. 5, 5 5! 5! Wie viele Möglichkeiten gibt es Studierende auf Teams zu je 5 zu verteilen? Da die Teams nicht unterscheidbar sind, gibt es! 6 verschiedene Möglichkeiten. 5! 5!!.5 Anzahl der ganzzahligen Lösungen von Gleichungen Frage Wie viele positive ganzzahligen Lösungen gibt es, welche die folgende Gleichung erfüllen? k x i x x k n mit k n und x i N für i,..., k Lösung Gegeben seien n nicht unterscheidbare Objekte, welche aneinandergereiht sind. Diese Objekte sollen in k nichtleere Gruppen unterteilt werden. Man kann k der n Zwischenräume zwischen benachbarten Objekten als Teilungspunkte auswählen. Zum Beispiel erhält man für n 8 und k 3, mit der Wahl der zwei Teiler wie folgt, das folgende Schema. Sei x k die Anzahl der Sterne zwischen dem k -ten und k-ten gewählten Zwischenraum. Die so definierten x,..., x k liefern eine Lösung; umgekehrt ist jede Lösung von dieser Form. Die Anzahl der verschiedenen positiven ganzzahligen Lösungen ist damit wie folgt. n k 7

8 Proposition Die Anzahl der verschiedenen positiven ganzzahligen Lösungen, welche die Gleichung k x i x x k n mit k n und x i N für i,..., k erfüllen, ist durch den folgenden Binomialkoeffizienten gegeben. n k Frage Wie viele nichtnegativen ganzzahligen Lösungen gibt es, welche die folgende Gleichung erfüllen? k x i x x k n mit k n und x i N für i,..., k Lösung Sei x,..., x k mit x i N eine nichtnegative Lösung dieser Gleichung. Dann liefert y i x i + N für i,..., k eine Lösung der Gleichung k y i y y k n + r Die Anzahl der verschiedenen nichtnegativen ganzzahligen Lösungen ist damit wie folgt. n + k k Proposition Die Anzahl der verschiedenen nichtnegativen ganzzahligen Lösungen, welche die Gleichung k x i x x k n mit k n und x i N für i,..., k erfüllen, ist durch den folgenden Binomialkoeffizienten gegeben. n + k k Beispiel Sie investieren. e in 4 unterschiedliche Wertpapiere. Sie können in Vielfachen von. e investieren. Wie viele Möglichkeiten haben Sie? Lösung Sei x i für i,..., 4 das Investment in. e in Wertpapieren. Dann gilt x + x + x 3 + x 4 mit x i N für i,..., Es gibt also Möglichkeiten

9 Axiome der Wahrscheinlichkeitsrechnung. Mengenoperationen mit Ereignissen Definition Für zwei Ereignisse E und F seien folgende Mengenoperationen definiert. i E F {ω Ω ω E ω F } ii E F {ω Ω ω E ω F } iii E C {ω Ω ω / E} Vereinigung Schnitt Komplement Definition Definition Für eine Folge von Ereignissen E n n N sind Vereinigung und Schnitt wie folgt definiert. E n {ω Ω n N : ω E n } und E n {ω Ω n N : ω E n } n N n N Für drei Ereignisse E, F und G gelten folgende einfache Rechenregeln. i E F F E und E F F E ii E F G E F G und E F G E F G iii E F G E G F G Kommutativgesetz Assoziativgesetz Distributivgesetz Satz Für eine Folge von Ereignissen E i n gelten die De Morganschen Gesetze. n C n E i E C i und n C n E i E C i Es muss gezeigt werden, dass ein beliebiges Element ω in beiden Mengen enthalten ist. n C n n ω E i ω / E i ω / E i ω Ei C ω Um das zweite De Morganschen Gesetz zu beweisen, benutzt man das erste Gesetz. n C n n Ei C Ei C C Bildet man nun auf beiden Seiten das Komplement, so erhält man das zweite De Morganschen Gesetz. n C n E i E C i E i E C i Definition Sei E n eine Folge von Ereignissen. Die Folge heißt paarweise disjunkt, falls Folgendes gilt. i j : E i E j Bemerkung Für eine disjunkte Vereinigung zweier Ereignisse E und F schreibt man E F oder E F.. Axiome der Wahrscheinlichkeitsrechnung Definition Ein Wahrscheinlichkeitsmaß ist eine Funktion P: F [, ], die folgenden Axiome erfüllt. i PΩ ii Für eine Folge E n n N paarweise disjunkter Ereignisse aus F gilt P E n PE n n N n N Normierung σ-additivität 9

10 Beispiel Ein einfacher Münzwurf mit Ω {K, Z} und F PΩ {, {K}, {Z}, Ω} hat die folgenden Wahrscheinlichkeiten für die Ereignisse E {K} und E {Z}. PE PE.3 Einfache Eigenschaften des Wahrscheinlichkeitsmaß Proposition Es sei P ein Wahrscheinlichkeitsmaß auf dem Messraum Ω, F. Dann gilt i P ii Für eine Folge E i n paarweise disjunkter Ereignisse aus F gilt σ-additivität n P E i PE i i Wähle E n für alle n N. Dann ist die Folge E n n N paarweise disjunkt und es gilt E n Nach der σ-additivität aus den Axiomen des Wahrscheinlichkeitsmaßes gilt nun. P P E n PE n P n N n N n N n N Dies ist offensichtlich nur erfüllt, wenn P gilt. ii Sei E n+ E n+.... Dann ist E n n N eine Folge paarweise disjunkter Ereignisse. Nach der σ-additivität aus den Axiomen des Wahrscheinlichkeitsmaßes gilt nun. P E n n PE n P PE i P E i n N n N Proposition Für ein Ereignis E gilt für die Wahrscheinlichkeit des Gegenereignisses E C Folgendes. PE C PE Dazu werden die Axiome des Wahrscheinlichkeitsmaßes und die vorige Proposition verwendet. PΩ PE E C PE + PE C PE C PE Proposition Für zwei Ereignisse E und F mit E F gilt Folgendes. PE PF Da E F gilt, kann man F wie folgt ausdrücken. F E F E C Wendet man nun die σ-additivität des Wahrscheinlichkeitsmaßes an, so erhält man Folgendes. PF PE F E C PE + PF E C PE }{{} Frage Das Wahrscheinlichkeitsmaß ist für paarweise disjunkte Ereignisse σ-additiv. Was passiert jedoch für nicht paarweise disjunkte Ereignisse? Proposition Für zwei Ereignisse E und F gilt PE F PE + PF PE F.

11 Die beiden Ereignisse E und F kann man auch wie folgt ausdrücken. E E F E F C und F E F E C F Dann gilt für die Wahrscheinlichkeit der Vereinigung der beiden Ereignisse Folgendes. PE F PE F + PE F C + PE C F PE F + PE PE F + PF PE F PE + PF PE F Konsequenz Ist der Ergebnisraum Ω diskret endlich oder abzählbar unendlich, sprich es gilt Ω {ω k } n k mit n N { } und ω k ω l für k l, so folgt mit E n {ω n }, da E k E l für k l, aus der σ-additivität Folgendes. PE P E k :P k PE k k:ω k E k:ω k E Somit ist das Wahrscheinlichkeitsmaß P durch die Folge P k n k eindeutig festgelegt. P k [, ] und P k k Lemma Für zwei Ereignisse E und F gilt die Subadditivität PE F PE + PF. Der des Lemmas ist klar, da PE für alle E F gilt und damit PE F PE + PF PE F PE + PF Allgemeiner Für drei Ereignisse E, F und G gilt PE F G PE F G PE + PF + PG PE F PE G F G PE + PF + PG PE F PE G + PF G PE F G PE + PF + PG PE F PE G PF G + PE F G Proposition Für eine Folge von Ereignissen E i n gilt die Siebformel von Poincaré und Sylvester. n P E i PE i n PE i E i + PE i E i E i n+ P E i i <i i <i <i 3 Bemerkung Diese Formel wird auch das Prinzip von Inklusion und Exklusion, Prinzip der Einschließung und Ausschließung oder Einschluss-/Ausschluss-Verfahren genannt. Ein solcher würde per Induktion über n N geführt werden..4 Laplace-Experimente Definition Sei Ω {,..., n} ein endlicher Grundraum. Es heißt {ω} Ω ein Elementarereignis. Ein Zufallsexperiment wird Laplace-Experiment genannt, wenn alle Versuchsausgänge gleich wahrscheinlich sind, sprich alle Elementarereignisse die gleiche Wahrscheinlichkeit besitzen. PE ω E P{ω} E Ω mit P{ω} Ω n für i,..., n

12 Beispiel Ein fairer Würfel wird zweimal hintereinander geworfen. Wie hoch ist die Wahrscheinlichkeit, dass die Augensumme sieben beträgt? Lösung Der Grundraum ist Ω {,..., 6} {,..., 6} {,..., 6} mit der Mächtigkeit Ω 36. Das Ereignis E, dass die Augensumme sieben beträgt ist, besteht aus allen möglichen Tupeln, deren Summe der Komponenten sieben beträgt. E {m, n m + n 7} {, 6,, 5, 3, 4, 4, 3, 5,, 6, } Da jedes Elementarereignis gleich wahrscheinlich ist, folgt für die Wahrscheinlichkeit von E Folgendes. PE E Ω Beispiel Wie groß ist die Wahrscheinlichkeit für ein Full House beim Poker? Lösung Sei E das Ereignis, dass man ein Full House beim Poker besitzt. Die Anzahl der Möglichkeiten für ein Full House wurde bereits gezeigt. Somit gilt für die Mächtigkeit von Ω und E Folgendes Ω und E Da jede der Möglichkeiten auf ein Full House gleich wahrscheinlich ist, gilt Folgendes. PE E Ω 465,4 5 5 Beispiel Wie groß ist die Wahrscheinlichkeit, dass von n Personen keine zwei Personen am gleichen Tag Geburtstag haben? Dieses Problem ist bekannt als das Geburtstagsparadoxon. Lösung Sei Ω {,..., 365} n der Ergebnisraum und E das Ereignis, dass keine zwei Personen am gleichen Tag Geburtstag haben. Die Wahrscheinlichkeit von E ist damit gegeben durch PE n 365 n Beispiel Sei Ω die Menge aller bijektiven Funktionen f : {,..., n} {,..., n}. Eine Funktion f besitzt einen Fixpunkt, falls fx x für ein x {,..., n} gilt. Wie groß ist die Wahrscheinlichkeit, dass eine zufällig gewählte Funktion keinen Fixpunkt besitzt? Lösung Zunächst einmal wird das Problem weniger abstrakt formuliert. Die n Hüte von n Personen werden gemischt und jeder zieht zufällig einen. Wie groß ist die Wahrscheinlichkeit, dass keiner der Besucher seinen eigenen Hut erhält? Sei Ω {i,..., i n i j n, j k : i j i k }, wobei ω i,..., i N bedeutet, dass Besucher k den Hut i k nimmt. Sei E j das Ereignis, dass Besucher j den Hut i j j bekommt, also seinen eigenen. E j {i,..., i n Ω i j j} für j,..., n Somit wird die folgende Wahrscheinlichkeit gesucht. n P n P j E C j j E j C n P Im Folgenden muss die Siebformel von Poincaré und Sylvester angewendet werden. Es gilt n P E j PE j n PE j E j n+ P E j j j j <j j j E j

13 Für m n seien j <... < j m n gegeben. Dann ist E j... E jm {i,..., i n Ω k,..., n : i jk j k } Somit folgt für den Schnitt der Ereignisse die folgende Wahrscheinlichkeit. n P E jk E j... E jn n k! Ω n! k Damit gilt dann für die Wahrscheinlichkeit der Vereinigung der Ereignisse Folgendes. n n k! n! P E i n {j, j j < j n} n+ n! n! n! n n! n n 3! n+ n! 3 n! n!! + 3!... + n+ n! k k! k Für hinreichend große n folgt damit mit Hilfe der Reihendarstellung der Exponentialfunktion Folgendes. n lim P E i lim n n k k k! k k! k e Somit gilt für große n, um die Ausgangsfrage zu beantworten, angenähert die folgende Wahrscheinlichkeit. C n P n P n P e Ej C E j j j j E j 3

14 3 Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit 3. Bedingte Wahrscheinlichkeit Beispiel Ein fairer Würfel wird zweimal hintereinander geworfen Laplace-Experiment. Angenommen der erste Wurf ist eine drei. Wie hoch ist die Wahrscheinlichkeit, dass die Augensumme acht beträgt? Lösung Sei F das Ereignis, dass der erste Wurf eine drei war und E das Ereignis, dass die Augensumme acht ist. Als Nächstes definiert man sich nun einen neuen Grundraum Ω F {3,,..., 3, 6} und ein neues Wahrscheinlichkeitsmaß P F auf Ω F. Dann gilt damit ω F Ω F : P F ω F Ω F Die Wahrscheinlichkeit, dass die Augensumme acht beträgt, ist damit die Folgende. P F E 6 Definition Seien E und F zwei Ereignisse und P F >. Dann ist die bedingte Wahrscheinlichkeit des Eintretens von E unter der Bedingung, dass das Eintreten von F bereits bekannt ist, wie folgt definiert. PE F PE F PF Für den Fall, dass PF ist, setzt man PE F. Beispiel In einem Korb befinden sich 5 Glühbirnen. Von diesen 5 Glühbirnen sind 5 Glühbirnen gut und haben eine Lebensdauer von mehr als 3 Tagen, Glühbirnen teilweise defekt und haben eine Lebensdauer von einem Tag, Glühbirnen vollkommen defekt. Sie wählen eine funktionierende Glühbirne aus. Wie groß ist die Wahrscheinlichkeit, dass die Birne in einer Woche noch brennt? Lösung Sei G das Ereignis, dass die Glühbirne gut ist und D das Ereignis, dass die Glühbirne teilweise oder vollkommen defekt ist. Gesucht ist die Wahrscheinlichkeit PG D C, welche sich wie folgt berechnet. PG D C PG DC PD C 5/5 5/5 3 Beispiel Frau Müllers Firma gibt ein Essen für alle Angestellten, die mindestens eine Tochter haben. Frau Müller hat zwei Kinder. Wie groß ist die Wahrscheinlichkeit, das beides Mädchen sind, wenn Frau Müller eingeladen wird? Lösung Sei E das Ereignis, dass Frau Müller eingeladen wird, d. h. sie hat mindestens eine Tochter. Sei Z das Ereignis, dass sie zwei Töchter hat. PZ E PZ E PE PZ PE /4 3/4 3 Beispiel Sie sind indifferent zwischen einem Französisch- und einem Chemiekurs. Sie erwarten eine in Französisch mit einer Wahrscheinlichkeit von /, Chemie mit einer Wahrscheinlichkeit von /3. Wir treffen eine Auswahl per Münzwurf. Wie groß ist die Wahrscheinlichkeit für eine in Chemie? 4

15 Lösung Sei C das Ereignis, dass der Chemiekurs gewählt worden ist und E jenes für eine. PC E PE C PC 3 3 Proposition Sei PF >. Dann ist P F ein Wahrscheinlichkeitsmaß auf dem Messraum Ω, F. Um dies zu beweisen, müssen die Axiome des Wahrscheinlichkeitsmaßes verifiziert werden. i Sei E F. Dann gilt PE F PE F PF ii PΩ F PΩ F PF PF PF [, ], da PE F PF. iii Sei E n n N eine Folge paarweiser disjunkter Ereignisse. Dann ist E n F n N eine Folge paarweiser disjunkter Ereignisse und somit gilt Folgendes. P E n F P n N E n F P n N E n F PF PF n N n N PE n F PE n F PF n N Allgemeiner Seien E,..., E n Ereignisse. Dann gilt für die bedingte Wahrscheinlichkeit Folgendes. n n i P E i P E i E k PE PE E... PE n E... E n k Beispiel Wir betrachten 5 Karten in 4 Haufen. Wie groß ist die Wahrscheinlichkeit, dass sich in jedem Haufen ein Ass befindet? Lösung Zuerst betrachten wir die Ereignisse E, E, E 3 und E 4, die wie folgt gegeben sind. E sei das Ereignis, dass ein Pik Ass in einem Haufen ist. E sei das Ereignis, dass Pik Ass und Herz Ass in unterschiedlichen Haufen sind. E 3 sei das Ereignis, dass Pik Ass, Herz Ass und Kreuz Ass in unterschiedlichen Haufen sind. E 4 sei das Ereignis, dass alle Asse in unterschiedlichen Haufen sind. Die Wahrscheinlichkeit des Schnittes der Ereignisse ist genau die gesuchte Wahrscheinlichkeit. PE... E 4 PE PE E PE 3 E E PE 4 E E E 3 PE 4 Ferner gilt für die bedingten Wahrscheinlichkeiten Folgendes. PE, PE E 39 5, PE 3 E E 6 5 Damit ergibt sich für die gesuchte Wahrscheinlichkeit PE 4,5. 3. Gesetz der totalen Wahrscheinlichkeit und Satz von Bayes Satz und PE 4 E E E Für zwei Ereignisse E und F gilt das Gesetz der totalen Wahrscheinlichkeit. PE PE F PF + PE F C PF C Für zwei Ereignisse E und F gilt für die Wahrscheinlichkeit des Ereignisses E Folgendes. PE PE F + PE F C Die Wahrscheinlichkeiten lassen sich mit der bedingten Wahrscheinlichkeit wie folgt schreiben. PE F PE F PF und PE F C PE F C PF C Damit gilt das Gesetz der totalen Wahrscheinlichkeit. PE PE F PF + PE F C PF C 5

16 Satz Für zwei Ereignisse E und F mit PF > lässt sich mit Hilfe des Satzes von Bayes die Wahrscheinlichkeit von E unter der Bedingung, dass F eingetreten ist, angeben durch die Wahrscheinlichkeit von F unter der Bedingung, dass E eingetreten ist. PE F PF E PE PF Für zwei Ereignisse E und F mit PF > gilt unter Nutzung der bedingten Wahrscheinlichkeit und der Kommutativität des Schnittes zweier Ereignisse Folgendes. PE F PE F PF PF E PE PF E PE F PF PE PF E PE PF PF PE PE PE F PE PE PF Beispiel Eine Versicherung unterteilt Kunden in Gruppen mit hohem und niedrigen Unfallrisiko. Kunden mit einem hohem Unfallrisiko haben einen Unfall mit einer Wahrscheinlichkeit von,4. Kunden mit einem niedrigen Risiko haben einen Unfall mit einer Wahrscheinlichkeit von,. Insgesamt haben 3% der Kunden ein hohes Unfallrisiko. Wie groß ist die Wahrscheinlichkeit, dass ein zufällig gewählter Kunde einen Unfall hat? Lösung Sei H das Ereignis, dass es sich um einen Kunden mit einem hohen Risiko handelt und sei U jenes, dass ein Kunde einen Unfall hat. Gesucht wird also PU. Bekannt ist bereits PU H,4, PU H C,, sowie PH,3 und somit auch PH C,7. Damit lässt sich die Wahrscheinlichkeit mittels des Gesetzes der totalen Wahrscheinlichkeit ermitteln. PU P U H PH + PU H C PH C,4,3 +,,7,6 Beispiel Angenommen ein Kunde hat einen Unfall. Mit welcher Wahrscheinlichkeit gehört diese Person zur Klasse mit dem hohen Risiko? Lösung Um diese Frage zu klären, wird der Satz von Bayes verwendet. PH U PU H PH PU,4,3,6 6 3 Beispiel Im Folgenden wird ein Multiple-Choice-Test mit jeweils m möglichen Antworten betrachtet, wobei immer nur eine richtig ist. Ein Student kennt die richtige Antwort mit einer Wahrscheinlichkeit von p, andernfalls muss er raten. Angenommen eine Antwort ist richtig. Mit welcher Wahrscheinlichkeit kannte der Student die Antwort? Lösung Sei R das Ereignis, dass die Antwort richtig ist und sei W das Ereignis, dass der Prüfling die Antwort kennt und nicht geraten hat. Dann gilt mit dem Satz von Bayes Folgendes. PW R PR W PW PR Nun gilt nach dem Gesetz der totalen Wahrscheinlichkeit für die Wahrscheinlichkeit von R Folgendes. PR PR W PW + PR W C PW C p /m Damit ergibt sich für die gesuchte Wahrscheinlichkeit Folgendes. PW R p p p + /m p m p + p m Für m 5 und p / ergibt sich damit PW R 5/6. 6

17 Proposition Sei F i n eine Partition des Grundraums Ω n F i in paarweise disjunkte Ereignisse und sei E ein weiteres Ereignis. Dann gelten folgende Verallgemeinerungen. i Für i,..., n gilt das verallgemeinertes Gesetz der totalen Wahrscheinlichkeit. PE PE F i PF i ii Für i,..., n gilt der verallgemeinerter Satz von Bayes. PF i E PE F i PF i n j PE F j PF j Es gelten die Voraussetzungen der obigen Proposition. i Dann gilt für das verallgemeinertes Gesetz der totalen Wahrscheinlichkeit Folgendes. n PE P E F i PE F i PE F i PF i ii Unter der Nutzung von i lässt sich der verallgemeinerter Satz von Bayes beweisen. PF i E PF i E PE 3.3 Stochastische Unabhängigkeit PE F i PF i PE i PE F i PF i n j PE F j PF j Definition Zwei Ereignisse E und F heißen unabhängig, falls die Wahrscheinlichkeit des Schnittes dem Produkt der beiden Einzelwahrscheinlichkeiten entspricht. Proposition PE F PE PF bzw. PE F PE Seien E und F zwei unabhängige Ereignisse. i Dann sind auch E und F C unabhängige Ereignisse. ii Dann sind auch E C und F C unabhängige Ereignisse. Seien E und F zwei unabhängige Ereignisse. i Das Ereignis E lässt sich auch wie folgt darstellen. PE PE F + PE F C PE PF + PE F C Stellt man diese Gleichung nach PE F C um und formt weiter um, so erhält man Folgendes. PE F C PE PE PF PE PF PE PF C Damit sind die Ereignisse E und F C unabhängig. ii Setzt man E F C und F E, so folgt aus i sofort die Unabhängigkeit von E C und F C. PE C F C PE F C PE PF C PF C PE C PE C PF C Beispiel Es wird eine Karte aus einem Stapel von 5 Karten gezogen. Sei E das Ereignis, dass eine Karte ein Ass ist und sei F das Ereignis, dass eine Karte ein Pik ist. Sind diese Ereignisse unabhängig? Lösung Um die Unabhängigkeit der Ereignisse zu untersuchen, betrachten wir die folgenden Wahrscheinlichkeiten. PE 4 und PF 3 und PE F Wie man leicht nachrechnen kann, gilt die Unabhängigkeit der Ereignisse. PE F PE PF 5 7

18 Beispiel Wir betrachten einen zweifachen Würfelwurf. Sei E das Ereignis, dass die Augensumme sechs ist und sei E das Ereignis, dass der erste Wurf eine vier ist. Sind diese Ereignisse unabhängig? Lösung Die Ereignisse E und E lassen sich wie folgt modellieren. E {, 5,, 4, 3, 3, 4,, 5, } und E {4,,..., 4, 6} Der Schnitt der beiden Ereignisse hat somit die folgende Form. E E {4, } Wie man leicht nachrechnen kann, gilt die Unabhängigkeit der Ereignisse nicht. PE E PE PE Beispiel Wir betrachten einen zweifachen Würfelwurf. Sei E das Ereignis, dass die Augensumme sieben ist, F das Ereignis, dass der erste Wurf eine vier ist und G das Ereignis, dass der zweite Wurf eine drei ist. Sind diese Ereignisse unabhängig? Lösung Die drei Ereignisse E, F und G lassen sich wie folgt modellieren. E {i, j i + j 7}, F {i, j i 4 j 6} und G {i, j i 6 j 3} Für die einzelnen Schnitte der Ereignisse untereinander gilt somit. E F E G F G {4, 3} Ferner gilt für die Mächtigkeit der Ereignisse Folgendes. E F G 6 Somit gilt für die Wahrscheinlichkeit der einzelnen Schnitte Folgendes. PE PF PE F PE PG PE G 36 PF PG PF G 36 Das heißt die drei Ereignisse E, F und G sind paarweise unabhängig. Jedoch gilt PE F G PE PF G 36 Das heißt die Ereignisse E und F G sind nicht unabhängig. Definition Seien E k n k bzw. E k k N Folgen von Ereignissen. Die Ereignisse i E k n k heißen unabhängig, falls für r n und k <... < k r n Folgendes gilt. r r P PE kj E kj j j ii E k k N heißen unabhängig, falls für jede endliche Menge S N mit S < Folgendes gilt. P E i PE i i S i S 8

19 3.4 Formalisierung von Versuchsfolgen Teilexperimente, die sich gegenseitig nicht beeinflussen, nennen wir Versuche. Im Folgenden konstruieren wir ein Modell für die unabhängige Wiederholung n-fach oder -oft eines Experiments. Sei Ω {,..., n} der endliche Grundraum des ersten Experiments und P ein Wahrscheinlichkeitsmaß auf Ω unser Ausgangsmodell. Der Grundraum für die zweifache Ausführung des Experiments ist Ω Ω Ω {i, j i Ω j Ω } mit Ω Ω und P P Wir setzen für E Ω das Wahrscheinlichkeitsmaß P wie folgt. PE P {i} P {j} i,j E Für F i Ω i setzen wir E i F i Ω 3 i für i,, das heißt E i hängt nur von der Realisierung im i-ten Experiment ab. Es folgt nach Definition die Unabhängigkeit der beiden Ereignisse E und E. PE E P {i} P {j} P {i} P {j} P {i} P {j} i,j E E i F i F j F j F P {i} P {j} PE PE i F j F Der letzte Schritt der Umformung wird für den ersten Term noch einmal genauer betrachtet. P {i} P {i} P {k} i F i F k Ω P {i} P {k} i F k Ω P {i} P {k} mit P {k} i F k Ω k Ω i F P {i} PE Außerdem gilt die Gleichung, da P ein Wahrscheinlichkeitsmaß auf Ω ist und somit auch die Axiome der Wahrscheinlichkeitsrechnung gelten. Dasselbe lässt sich analog für den zweiten Term anstellen. Bemerkung Wir haben P und P zu einem Produktmaß auf Ω Ω Ω verknüpft. Dies lässt sich auf Folgen von n bzw. unendlich vielen Versuchen verallgemeinern. Dabei gilt immer: sind E i i n bzw. E i i N Ereignisse, für die E i nur von Versuch Nr. i abhängt, so sind E i i n bzw. E i i N unabhängig. Das heißt Ereignisse, die jeweils nur von einem Teilexperiment abhängig sind, sind damit unter P unabhängig. Beispiel Eine unendliche Folge von Versuchen wird durchgeführt. Jeder Versuch hat zwei mögliche Ausgänge Erfolg und Misserfolg. Die Wahrscheinlichkeit für einen Erfolg sei p, die für Misserfolg p, für eine Zahl p [, ]. Wie groß ist die Wahrscheinlichkeit, dass a mindestens ein Erfolg in den ersten n Versuchen erzielt wird? b genau k Erfolge für k n in den ersten n Versuchen erzielt werden? Lösung a Sei Ω i {, } und P i {} p für i,..., n. Der Grundraum für die n-fache Wiederholung ist Ω Ω n i {, } n Das Wahrscheinlichkeitsmaß P auf Ω ist für ω ω,..., ω n gegeben durch n P{ω} P i {ω i } p #Erfolge p n #Erfolge 9

20 Sei nun E das Ereignis für mindestens einen Erfolg. Dann gilt für dessen Wahrscheinlichkeit Folgendes. PE PE C p p n p n b Sei T {,..., n} mit T k. T ist die Menge aller Zeitpunkte zu denen ein Erfolg eintritt. Sei E i das Ereignis, dass der i-te Versuch ein Erfolg ist. Dann gilt aufgrund der Unabhängigkeit Folgendes. P E i Ei C PE i P E C i pk p n k i T i T i/ T Sei schließlich E das Ereignis für genau k Erfolge in n Versuchen. Dann ist E wie folgt gegeben. [ ] E E i T {,...,n} T k Also gilt für die gesuchte Wahrscheinlich des Ereignisses E Folgendes. n PE {T {,..., n} T k} p k p n k p k p n k k i T i / T i / T E C i

21 4 Diskrete Zufallsvariablen 4. Diskrete Zufallsvariablen Definition Eine Zufallsvariable auf dem Maßraum Ω, F, P ist eine messbare Abbildung X : Ω, F R n, BR n, wobei BR n die Borel-σ-algebra auf R n bezeichnet und F selbst eine σ-algebra ist. A BR n : X A F Für diskrete Grundräume Ω {ω i } n wird F meistens als die Potenzmenge von Ω gewählt. F PΩ Damit wäre die Forderung, dass die verwendete Funktion messbar ist, automatisch erfüllt. Für Ω R n wählt man F als die Borel-σ-Algebra BR n, sprich F BR n. Definition Eine Zufallsvariable X heißt diskret, falls sie nur endlich viele oder abzählbar unendlich viele Werte {x i } mit positiver Wahrscheinlichkeit annimmt. XΩ {x ω Ω : X ω x} {x i },...,n mit n N { } Definition Eine Massenfunktion bzw. Wahrscheinlichkeitsverteilung von X unter dem Maß P gibt die Wahrscheinlichkeiten für die einzelnen Werte x an. p X x i : px i P[X x i ] Beispiel Gegeben ist eine Urne mit nummerierten Kugeln. Es wird dreimal ohne Zurücklegen gezogen. Wie groß ist die Wahrscheinlichkeit, dass eine Kugel mit einer Nummer 7 gezogen wird? Lösung Sei Ω {ω, ω, ω 3 ω i {,, 3} : ω i,..., } und sei Xω max i 3 ω i. Gesucht wird P[X 7] 7 P[X i] Für P[X ] finden wir die Wahrscheinlichkeit durch die Gegenwahrscheinlichkeit. P[X ] Es gibt 3 mögliche Realisierungen. Von diesen Realisierungen sind nur 9 günstig. 9 P[X ] 3 Analog gilt für i 7, 8, 9 die folgende Wahrscheinlichkeit. P[X i] i 3 3 für i 7, 8, 9 Damit lässt sich die gesuchte Wahrscheinlichkeit wie folgt ermitteln. P[X 7] 7 i 3,58 Beispiel Wir werfen ein Münze solange bis Kopf erscheint, maximal jedoch nur n-mal. Kopf erscheint mit einer Wahrscheinlichkeit von p,. Sei X die Anzahl der Würfe. Gesucht ist die Wahrscheinlichkeit für m-mal Kopf für m,..., n.

22 Lösung Gesucht ist die Wahrscheinlichkeit P[X m] für m,..., n. P[X ] P{K} p P[X ] P{Z, K} p p P[X k] p k p P[X n ] p n p P[X n] p n p Damit gilt für die Vereinigung der einzelnen Wahrscheinlichkeiten Folgendes. [ n ] n P {X i} P[X i] p p i + p n Die geometrische Reihe besitzt für α, den folgenden Grenzwert. i α i α Unter Nutzung dieser Tatsache ergibt sich damit Folgendes. n p i p i p i pn p p i pn p Also gilt für die Vereinigung der Ereignisse der folgende Ausdruck. [ n ] [ ] pn P {X i} p + p n p p in p i Beispiel Es gebe N verschiedene Arten von Coupons, die wir unabhängig von den vorhergehenden Versuchen beliebig oft erhalten. Bei jedem Versuch erhalten wir mit gleicher Wahrscheinlichkeit einen der N Coupons. Sei T die Anzahl von Coupons, die nötig sind, bis man einen kompletten Satz aller N besitzt. Gesucht wird die Verteilung von T, d. h. P[T n] für n. i Lösung Es ist einfacher P[T > n] zu berechnen und dann die folgende Formel zu nutzen. P[T n] P[T > n ] P[T > n] Sei dazu A j das Ereignis, dass man keinen j-ten Coupon in den ersten n Zügen bekommt. Dann gilt N N P[T > n] P A j PA j PA j A j N+ PA... A N j j j <j Nun gilt für für j,..., N Folgendes. N PA j N Allgemeiner gilt für j <... < j k N Folgendes. N k PA j... A jk N Damit gilt für n N für die Wahrscheinlichkeit von {T > n} Folgendes. n N N N P[T > n] N N N N n N N i i+ i N n n n N+ N N n N

23 4. Erwartungswert und Varianz diskreter Zufallsvariablen Definition Es sei X eine diskrete Zufallsvariable. Der Erwartungswert von X ist definiert durch EX : x p X x, x:px> falls diese Reihe konvergiert, das heißt falls folgende Bedingung gilt. x p X x < x:px> Der Erwartungswert beschreibt das gewichtete Mittel der Realisierungen. Beispiel Für ein Ereignis A sei die Indikatorfunktion von A durch A : Ω R mit {, falls ω A ω Aω, sonst gegeben. Für diese Indikatorfunktion gelten folgende Wahrscheinlichkeiten. Der Erwartungswert ist damit gegeben durch p A PA C PA und p A PA EA PA + PA PA Proposition Sei X eine diskrete Zufallsvariable mit den Werten {x i } i N und der Massenfunktion p X. Sei g : R R eine reellwertige Funktion. Dann gilt für den Erwartungswert von gx Folgendes. EgX gx i p X x i Die Bedingung dafür ist, dass die Reihe konvergiert, sprich Folgendes erfüllt ist. gx i p X x i < Sei g : R R, so nimmt y gx: Ω R die Wert {y j } j {gx i } i mit i, j an. gx i px i gx i px i y j px i i j i:gx iy j j i:gx iy j y j px i y j P[gX y j ] EgX j i:gx iy j j Lemma Seien a, b R, sowie X und Y diskrete Zufallsvariablen mit den Massenfunktionen p X und p Y und existierenden Erwartungswerten. Dann gelten die folgenden Rechenregeln. i EaX + b a EX + b Lineare Transformation ii EX + Y EX + EY Additivität Es gelten die Voraussetzungen des obigen Lemmas. i Um diese Rechenregel zu beweisen, wird lediglich die Definition des Erwartungswertes angewendet. EaX + b ax + b px a x px + b px a Ex + b x:px> x:px> x:px> ii Um diese Rechenregel zu beweisen, wird lediglich die Definition des Erwartungswertes angewendet. EX + Y x + y px x px + y px EX + EY x:px> x:px> x:px> 3

24 Definition Sei X eine diskrete Zufallsvariable mit der Verteilung p X und sei gx X n. Dann heißt EgX EX n x n p X x mit n N x:px> das n-te Moment von X, falls folgende Bedingung erfüllt ist. x n p X x < Definition x:px> Sei X eine diskrete Zufallsvariable und gx X EX. Dann heißt EgX E[X EX ] : VarX die Varianz von X. Diese beschreibt die mittlere quadratische Abweichung vom Erwartungswert. Lemma Seien a, b R und X eine diskrete Zufallsvariable mit existierender Varianz. Dann gelten die folgenden Rechenregeln. i VaraX + b a VarX ii Var X VarX iii VarX EX EX Seien a, b R und X eine diskrete Zufallsvariablen mit existierender Varianz. Lineare Transformation Verschiebungssatz i Die lineare Transformation ergibt sich durch Anwenden der Definition der Varianz und der Rechenregeln für den Erwartungswert. VaraX + b E[aX + b EaX + b ] E[aX + b aex b ] a E[X EX ] a VarX ii Diese Rechenregel folgt direkt aus der Regel i als Spezialfall mit a und b. iii Der Verschiebungssatz ergibt sich durch Anwenden der Definition der Varianz und der Rechenregeln für den Erwartungswert. VarX E[X EX ] E[X XEX + EX ] EX EXEX + EX EX EXEX + EX EX EX Lemma Nach dem Verschiebungssatz gilt EX EX. Da VarX gilt, sprich EX EX gilt, folgt direkt per Umstellen das zu Zeigende. EX EX Satz Sei X eine Zufallsvariable und g : R R konvex, dann gilt die Jensensche Ungleichung. EgX gex Sei t die Tangente an die Kurve der Funktion g im Punkt x. Dann gilt folgende Ungleichung. gx tx mit tx g x x x + gx Setzt man nun x X und x EX, so erhält man Folgendes. gx gex + g EX X EX Daraus lässt sich wiederum Folgendes schlussfolgern. EgX EgEX + g EX X EX gex + g EX EX EX gex 4

25 Definition Sei X eine diskrete Zufallsvariable und VarX ihre Varianz. Dann heißt σx VarX E[X EX ] die Standardabweichung von X. Sie ist ein Maß für die Streuung der Werte einer Zufallsvariablen X um ihren Erwartungswert EX. Beispiel Ein Produkt, welches saisonabhängig verkauft wird, bringt einen Nettogewinn von b e für jede verkaufte Einheit und einen Nettoverlust von l e für jede nicht verkaufte Einheit am Saisonende ein. Die Anzahl der Einheiten des Produktes, welches in einem bestimmten Kaufhaus zu jeder Jahreszeit bestellt werden kann, ist eine Zufallsvariable X mit der Massenfunktion p. Mit wie viele Einheiten sollte der Laden sich eindecken, wenn das Geschäft dieses Produkt im Voraus bestellen muss, um den erwarteten Gewinn zu maximieren? Lösung Sei s > die Lagerhaltung. Der Profit kann dann wie folgt ausgedrückt werden. { bx s X l, falls X s P s b s, falls X > s Es soll s EP s maximiert werden. Dazu berechnet man zunächst den erwarteten Profit. EP s s b i s i l pi + i b + l b + l s i pi sl i is+ b s pi s pi + bs i s i pi b + ls i b s + b + l s pi + bs i s i s pi i s pi Um den optimalen Wert von s zu bestimmen, wird untersucht, was mit dem Gewinn passiert, wenn man s um eine Einheit erhöht. [ s+ ] s EP s + EP s b + b + l i s + pi i s pi b b + l i s pi Folglich ist es besser s + Einheiten als s Einheiten zu führen. i EP s + EP s i i i s pi < b b + l Da die linke Seite der zweiten Ungleichung wachsend mit s ist während die rechte Seite der zweiten Ungleichung konstant ist, wird die Ungleichung für alle s s erfüllt, wobei s wie folgt gegeben ist. { } s s max s N pi < b b + l 4.3 Spezielle diskrete Verteilungen 4.3. Bernoulli-Verteilung Definition Eine diskrete Zufallsvariable X : Ω R mit den Einzelwahrscheinlichkeiten PE P[X ] p und PE C P[X ] p q mit q p heißt Bernoulli-verteilt mit dem Parameter p. i 5

26 Lemma Sei X eine Bernoulli-verteilte Zufallsvariable. i Der Erwartungswert der Zufallsvariable X ist dann wie folgt gegeben. EX p ii Das zweite Moment der Zufallsvariable X ist dann wie folgt gegeben. EX p Sei X eine Bernoulli-verteilte Zufallsvariable. i Um den Erwartungswert zu beweisen, wird lediglich dessen Definition verwendet. EX x px p + p p + p p x:px> ii Um das zweite Moment zu beweisen, wird lediglich dessen Definition verwendet. EX x px p + p p + p p x:px> Lemma Die Varianz einer Bernoulli-verteilten Zufallsvariable X ist gegeben durch VarX p p p q mit q p Um die Varianz zu beweisen, wird der Verschiebungssatz verwendet. VarX E X EX p p p p p q mit q p Bemerkung Die Bernoulli-Verteilung benutzt man zur Beschreibung von zufälligen Ereignissen, bei denen es nur zwei mögliche Versuchsausgänge gibt. Einer der Versuchsausgänge wird meistens mit Erfolg bezeichnet und der komplementäre Versuchsausgang mit Misserfolg. Bemerkung Die Bernoulli-Verteilung ist ein Spezialfall der Binomialverteilung für n. Die Summe von unabhängigen Bernoulli-verteilten Zufallsvariablen mit identischem Parameter p genügt der Binomialverteilung. Dazu seien für i,..., n {, Eintritt von E im i-ten Versuch X i, sonst und sei X die Anzahl der Erfolge in n unabhängigen Versuchen. X 4.3. Binomialverteilung Definition Eine diskrete Zufallsvariable X : Ω R mit der Massenfunktion p X, gegeben durch n p X k P[X k] p k p n k, k heißt binomialverteilt mit den Parametern n und p. In diesem Fall schreibt man auch Lemma X i X Bn, p Sei X Bn, p eine binomialverteilte Zufallsvariable. i Der Erwartungswert der Zufallsvariable X ist dann wie folgt gegeben. EX n p ii Das zweite Moment der Zufallsvariable X ist dann wie folgt gegeben. EX n p [n p + ] 6

27 Sei X Bn, p eine binomialverteilte Zufallsvariable. Um nun das Lemma zu beweisen, benötigt man die folgende Umformung des Binomialkoeffizienten. n n i n i i Im Folgenden kann somit das k-te Moment berechnet werden. n EX k i k p i p n i i i [ n i k i i [ n i k n i n n p i k i n n n p j + k j j ] p p i p n i + ] p p i p n i p i p n i n p E[Y + k ] mit Y Bn, p p j p n j mit j i Damit kann der Erwartungswert und das zweite Moment direkt gezeigt werden. i EX n p E[Y + ] n p ii EX n p E[Y + ] n p [n p + ] Lemma Die Varianz einer binomialverteilten Zufallsvariable X Bn, p ist gegeben durch VarX n p p Um die Varianz zu beweisen, wird der Verschiebungssatz verwendet. VarX EX EX n p p n + n p n p p Proposition Sei X Bn, p eine binomialverteilte Zufallsvariable. Dann ist die Massenfunktion p X k i monoton wachsend für k [n + p]. ii monoton fallend für k [n + p]. Diese Proposition wird bewiesen indem man P[X k]/p[x k ] betrachtet und bestimmt für welche Werte von k der Term größer oder kleiner ist. n p k p n k P[X k] P[X k ] k n p k k p n k+ [ ] n! p k p n k k! n k! [ ] n! p k! n k +! k p n k+ n k + p k p Folglich gilt P[X k] P[X k ], falls und auch nur falls Folgendes gilt. n k + p k p k n + p 7

28 Bemerkung Die Binomialverteilung beschreibt die Anzahl der Erfolge in einer Serie von gleichartigen und unabhängigen Versuchen, die jeweils genau zwei mögliche Ergebnisse haben Poisson-Verteilung Definition Eine diskrete Zufallsvariable X : Ω R mit der Massenfunktion p X, gegeben durch p X k P[X k] λk k! e λ, heißt Poisson-verteilt mit dem Parameter λ >. In diesem Fall schreibt man auch Lemma X πλ Sei X πλ eine Poisson-verteilte Zufallsvariable. i Der Erwartungswert der Zufallsvariable X ist dann wie folgt gegeben. EX λ ii Das zweite Moment der Zufallsvariable X ist dann wie folgt gegeben. EX λ + λ Sei X πλ eine Poisson-verteilte Zufallsvariable. i Um den Erwartungswert zu beweisen, wird lediglich dessen Definition verwendet. EX k λk k! e λ e λ λ k λ k! λ λ k e λ k! λ e λ e λ λ k k ii Um das zweite Moment zu beweisen, wird lediglich dessen Definition verwendet. EX k λk k! e λ e λ k k + k λk k! e λ k k λk k! + λ k λ e λ k k λ k k! + λ λ e λ k k k λ k k! + λ λ e λ e λ + λ λ + λ Lemma Die Varianz einer Poisson-verteilten Zufallsvariable X πλ ist gegeben durch VarX λ Um die Varianz zu beweisen, wird der Verschiebungssatz verwendet. VarX EX EX λ + λ λ λ Bemerkung Mit der Poisson-Verteilung kann die Anzahl von Ereignissen modelliert werden, die mit konstanter Rate und unabhängig voneinander in einem festen Zeitintervall oder räumlichen Gebiet eintreten. Sie sagt ebenso wie die Binomialverteilung das zu erwartende Ergebnis einer Serie von Bernoulli- Experimenten voraus. Während der Beobachtung, die in beliebig viele Augenblicke, sprich Bernoulli- Experimente, unterteilt werden kann, geschieht fast immer nichts und hin und wieder etwas. Die Poisson- Verteilung wird deshalb manchmal als die Verteilung der seltenen Ereignisse bezeichnet Gesetz der kleinen Zahlen. Bemerkung Die Poisson-Verteilung ist ein Grenzfall der Binomialverteilung. Für eine Folge X n n N binomialverteilter Zufallsvariablen zu den Parametern {n, p n } n N mit Massenfunktionen p Xn n N gilt [ ] n lim p X n k lim p k n p n n k λk n n k k! e λ für k, sofern das Produkt n p n gegen einen endlichen Grenzwert λ konvergiert, sprich Folgendes gilt. lim n p n λ n Die Poisson-Verteilung findet als Approximation der Binomialverteilung Anwendung, wenn die Erfolgswahrscheinlichkeiten klein sind. 8

29 4.3.4 Geometrische Verteilung Definition Eine diskrete Zufallsvariable X : Ω R mit der Massenfunktion p X, gegeben durch p X n P[X n] p n p, heißt geometrisch verteilt mit dem Parameter p. In diesem Fall schreibt man auch X Gp Lemma Sei X Gp eine geometrisch verteilte Zufallsvariable. i Der Erwartungswert der Zufallsvariable X ist dann wie folgt gegeben. EX p ii Das zweite Moment der Zufallsvariable X ist dann wie folgt gegeben. EX p p Sei X Gp eine geometrisch verteilte Zufallsvariable. i Um den Erwartungswert zu beweisen, benötigt man die Kenntnis über den folgenden Grenzwert. k k q k q q k Wendet man nun die Definition des Erwartungswertes an, so erhält man Folgendes. EX k p k p p k p k p p p p p p ii Um das zweite Moment zu beweisen, benötigt man die Kenntnis über den folgenden Grenzwert. k k q k k q + q q 3 Wendet man nun die Definition des Erwartungswertes an, so erhält man Folgendes. EX k p k p p k p k p [ ] p p p p p 3 k k p p Lemma Die Varianz einer geometrisch verteilten Zufallsvariable X Gp ist gegeben durch VarX p p Um die Varianz zu beweisen, wird der Verschiebungssatz verwendet. VarX EX EX p p p p p p p p Bemerkung Die geometrische Verteilung beschreibt die Wartezeit auf den ersten Erfolg bei der unabhängigen Wiederholung eines Experiments Negative Binomialverteilung Definition Eine diskrete Zufallsvariable X : Ω R mit der Massenfunktion p X, gegeben durch n p X n P[X n] p r p n r, r heißt negativ binomialverteilt mit den Parametern r und p. In diesem Fall schreibt man auch X NBr, p 9

30 Lemma Sei X N Br, p eine negativ binomialverteilte Zufallsvariable. i Der Erwartungswert der Zufallsvariable X ist dann wie folgt gegeben. EX r p ii Das zweite Moment der Zufallsvariable X ist dann wie folgt gegeben. EX r r + p p Sei X N Br, p eine negativ binomialverteilte Zufallsvariable. Um nun das Lemma zu beweisen, benötigt man die folgende Umformung des Binomialkoeffizienten. n n n r r r Im Folgenden kann somit das k-te Moment berechnet werden. n EX k n k r nr [ n n k n r nr [ n n k r r nr r n n k p r nr r m m k p r mr+ p r p n r ] pr+ p n r p ] pr+ p n r p p r+ p n r r p E[Y k ] mit Y NBr +, p p r+ p m r+ mit m n + Damit kann der Erwartungswert und das zweite Moment direkt gezeigt werden. i EX r p E[Y ] r p ii EX r p E[Y ] r r + p p Lemma Die Varianz einer negativ binomialverteilten Zufallsvariable X N Br, p ist gegeben durch VarX r p p Um die Varianz zu beweisen, wird der Verschiebungssatz verwendet. VarX EX EX p p p p p p p p Bemerkung Die negative Binomialverteilung beschreibt die Anzahl der Versuche, die erforderlich sind, um in einem Bernoulli-Prozess eine vorgegebene Anzahl von Erfolgen zu erzielen. 3

31 4.3.6 Hypergeometrische Verteilung Definition Eine diskrete Zufallsvariable X : Ω R mit der Massenfunktion p X, gegeben durch m N m i n i p X i P[X i], N n heißt hypergeometrisch verteilt mit den Parametern n, N und m. In diesem Fall schreibt man auch Lemma X hn, N, m Sei X hn, N, m eine hypergeometrisch verteilte Zufallsvariable. i Der Erwartungswert der Zufallsvariable X ist dann wie folgt gegeben. EX n m N ii Das zweite Moment der Zufallsvariable X ist dann wie folgt gegeben. EX n m [ N n m ] N + Sei X hn, N, m eine hypergeometrisch verteilte Zufallsvariable. Um nun das Lemma zu beweisen, benötigt man die folgenden Umformungen des Binomialkoeffizienten. m m i m i i N N n N n n Im Folgenden kann somit das k-te Moment berechnet werden. m N m EX k i k i n i N i n [ ] m N m i i k i n i [ ] N n n n [ ] m N m m n i k i n i [ ] N n n m N m n m i k i n i [ ] N N n m N m n m i k i n i N N n m N m n m n j + k j n j mit j i N j N n n m N E[Y + k ] mit Y hn, N, m Damit kann der Erwartungswert und das zweite Moment direkt gezeigt werden. 3

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Teil II. Wahrscheinlichkeitsrechnung

Teil II. Wahrscheinlichkeitsrechnung Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) Teil II Wahrscheinlichkeitsrechnung 5 Zufallsexperimente Ergebnisse Ereignisse Wahrscheinlichkeiten Deskriptive Statistik und Wahrscheinlichkeitsrechnung

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung

Mehr

Übungen Abgabetermin: Freitag, , 10 Uhr

Übungen Abgabetermin: Freitag, , 10 Uhr Universität Münster Institut für Mathematische Statistik Stochastik für Lehramtskandidaten SoSe 015, Blatt 1 Löwe/Heusel Übungen Abgabetermin: Freitag, 10.7.015, 10 Uhr Hinweis: Dies ist nur eine Beispiellösung.

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 1

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 1 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/ Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie svorschläge zu

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) (oder eine Teilmenge davon) ist. Es existiere

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der

Mehr

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. 2 Zufallsvariable 2.1 Einführung Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. Eine Zufallsvariable X ordnet jedem elementaren Versuchsausgang

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

1.3 Zufallsgrößen und Verteilungsfunktionen

1.3 Zufallsgrößen und Verteilungsfunktionen .3 Zufallsgrößen und Verteilungsfunktionen.3. Einführung Vielfach sind die Ergebnisse von Zufallsversuchen Zahlenwerte. Häufig möchte man aber auch in den Fällen, wo dies nicht so ist, Zahlenwerte zur

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19 Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert

Mehr

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Gegeben Menge Ω (Wahscheinlichkeitsraum, Menge aller möglichen Ausgänge eines Zufallsexperiments), Abbildung P : P(Ω) [0, 1] (Wahrscheinlichkeit): Jeder Teilmenge

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie

Zentralübung Diskrete Wahrscheinlichkeitstheorie Zentralübung Diskrete Wahrscheinlichkeitstheorie Christian Ivicevic (christian.ivicevic@tum.de) Technische Universität München 14. Juni 2017 Agenda Disclaimer und wichtige Hinweise Übungsaufgaben Disclaimer

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Diskrete Strukturen WiSe 2012/13 in Trier

Diskrete Strukturen WiSe 2012/13 in Trier Diskrete Strukturen WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 11. Januar 2013 1 Diskrete Strukturen Gesamtübersicht Organisatorisches und Einführung Mengenlehre Relationen

Mehr

3.3 Bedingte Wahrscheinlichkeit

3.3 Bedingte Wahrscheinlichkeit 28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

K3 (Diskrete) Zufallsvariablen 3.1 Basis

K3 (Diskrete) Zufallsvariablen 3.1 Basis K3 (Diskrete) Zufallsvariablen 3.1 Basis Ω = {ω}, X(ω) ist eine Größe die durch ω bestimmt ist. Bei der zufälligen Auswahl von ω bekommen wir den Wert, X(ω). Definition: Ist (Ω, F, P) ein Wahrscheinlichkeitsraum

Mehr

7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen

7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen 7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen 7.7.1 Die Laplace-Verteilung Sei X eine gleich verteilte Zufallsvariable mit den Werten in der Menge Ω X = {x i R : i = 1,...,n}, d.h. f (x i = 1

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Grundlagen der Wahrscheinlichkeitstheorie

Grundlagen der Wahrscheinlichkeitstheorie Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)

Mehr

i Pr(X = i). Bsp: Sei X die Summe zweier Würfe eines Würfels. Dann gilt E[X] =

i Pr(X = i). Bsp: Sei X die Summe zweier Würfe eines Würfels. Dann gilt E[X] = Erwartungswert Definition Erwartungswert Der Erwartungswert einer diskreten ZV ist definiert als E[X] = i i Pr(X = i). E[X] ist endlich, falls i i Pr(X = i) konvergiert, sonst unendlich. Bsp: Sei X die

Mehr

Ausgewählte spezielle Verteilungen

Ausgewählte spezielle Verteilungen Ausgewählte spezielle Verteilungen In Anwendungen werden oft Zufallsvariablen betrachtet, deren Verteilung einem Standardmodell entspricht. Zu den wichtigsten dieser Modelle gehören: diskrete Verteilungen:

Mehr

Kapitel 5. Stochastik

Kapitel 5. Stochastik 76 Kapitel 5 Stochastik In diesem Kapitel wollen wir die Grundzüge der Wahrscheinlichkeitstheorie behandeln. Wir beschränken uns dabei auf diskrete Wahrscheinlichkeitsräume Ω. Definition 5.1. Ein diskreter

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Basiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012 Weihnachtszettel zur Vorlesung Stochastik I Wintersemester 0/0 Aufgabe. Der Weihnachtsmann hat vergessen die Weihnachtsgeschenke mit Namen zu beschriften und muss sie daher zufällig verteilen. Dabei enthält

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Kapitel 5 Stochastische Unabhängigkeit

Kapitel 5 Stochastische Unabhängigkeit Kapitel 5 Stochastische Unabhängigkeit Vorlesung Wahrscheinlichkeitsrechnung I vom SoSe 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 5.1 Das Konzept der stochastischen Unabhängigkeit. 1 Herleitung anhand

Mehr

1.5 Erwartungswert und Varianz

1.5 Erwartungswert und Varianz Ziel: Charakterisiere Verteilungen von Zufallsvariablen durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere: a) durchschnittlicher Wert Erwartungswert, z.b.

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Unabhängigkeit Prof. Dr. Achim Klenke http://www.aklenke.de 6. Vorlesung: 02.12.2011 1/30 Inhalt 1 Wahrscheinlichkeit 2 2/30 Wahrscheinlichkeit

Mehr

Hauptklausur zur Stochastik für Lehramt

Hauptklausur zur Stochastik für Lehramt Universität Duisburg-Essen Essen, den 20.02.203 Fakultät für Mathematik Dr. Daniel Herden Dipl.-Inf. Christian Thiel Matthias aus der Wiesche Hauptklausur zur Stochastik für Lehramt Bearbeitungszeit: mind.

Mehr

1.5 Erwartungswert und Varianz

1.5 Erwartungswert und Varianz Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung

Mehr

Zuverlässigkeitstheorie

Zuverlässigkeitstheorie 3. Grundbegriffe der Wahrscheinlichkeitsrechnung Prof. Jochen Seitz Fachgebiet Kommunikationsnetze 20. November 2008 Übersicht Gesetz der großen Zahlen von Bernoulli 1 Gesetz der großen Zahlen von Bernoulli

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Ü b u n g s b l a t t 10

Ü b u n g s b l a t t 10 Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel. 6. 2007 Ü b u n g s b l a t t 0 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben

Mehr

Probeklausur Statistik II

Probeklausur Statistik II Prof. Dr. Chr. Müller PROBE-KLAUSUR 1 1 2 3 4 5 6 7 8 Gesamt: 15 8 16 16 7 8 15 15 100 Probeklausur Statistik II Name: Vorname: Fachrichtung: Matrikel-Nummer: Bitte beachten Sie folgendes: 1) Die Klausur

Mehr

Stochastik und Statistik für Ingenieure Vorlesung 4

Stochastik und Statistik für Ingenieure Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl

Mehr

Zusammenfassung Stochastik

Zusammenfassung Stochastik Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl

Mehr

Psychologische Methodenlehre und Statistik I

Psychologische Methodenlehre und Statistik I Psychologische Methodenlehre und Statistik I Pantelis Christodoulides & Karin Waldherr SS 2013 Pantelis Christodoulides & Karin Waldherr Psychologische Methodenlehre und Statistik I 1/61 Zufallsexperiment

Mehr

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck

Mehr

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binären Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhängigen

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Unabhängigkeit von Ereignissen A, B unabhängig:

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Sabrina Kallus, Eva Lotte Reinartz, André Salé

Sabrina Kallus, Eva Lotte Reinartz, André Salé Sabrina Kallus, Eva Lotte Reinartz, André Salé } Wiederholung (Zufallsvariable) } Erwartungswert Was ist das? } Erwartungswert: diskrete endliche Räume } Erwartungswert: Räume mit Dichten } Eigenschaften

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Diskrete Verteilungen

Diskrete Verteilungen KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder

Mehr

WAHRSCHEINLICHKEITSRECHNUNG

WAHRSCHEINLICHKEITSRECHNUNG WAHRSCHEINLICHKEITSRECHNUNG Mathematischer Teil In der Wahrscheinlichkeitsrechnung haben wir es mit Zufallsexperimenten zu tun, d.h. Ausgang nicht vorhersagbar. Grundbegriffe Zufallsexperiment und Ergebnisse

Mehr

Statistik für Ingenieure Vorlesung 2

Statistik für Ingenieure Vorlesung 2 Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen

Mehr

Vorlesung 4b. Die Varianz

Vorlesung 4b. Die Varianz Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ Die Varianz von X ist definiert als Var[X] := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 11. November 2010 1 Erwartungswert und Varianz Erwartungswert Varianz und Streuung Rechenregeln Binomialverteilung

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

Klausur: Diskrete Strukturen I

Klausur: Diskrete Strukturen I Universität Kassel Fachbereich 10/1 13.03.2013 Klausur: Diskrete Strukturen I Name: Vorname: Matrikelnummer: Versuch: Unterschrift: Bitte fangen Sie für jede Aufgabe ein neues Blatt an. Beschreiben Sie

Mehr

67 Zufallsvariable, Erwartungswert, Varianz

67 Zufallsvariable, Erwartungswert, Varianz 67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In

Mehr

1 Grundbegriffe der Wahrscheinlichkeitsrechnung

1 Grundbegriffe der Wahrscheinlichkeitsrechnung 4 1 Grundbegriffe der Wahrscheinlichkeitsrechnung 1.1 Grundlegende Begriffe Der Begriff wahrscheinlich wird im Alltag in verschiedenen Situationen verwendet, hat dabei auch unterschiedliche Bedeutung.

Mehr

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen. Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.

Mehr

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests

Mehr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung

Mehr

SS 2017 Torsten Schreiber

SS 2017 Torsten Schreiber 173 Diese Lücken sollten nicht auch bei Ihnen vorhanden sein: Wird die Anordnung von unterschiedlichen Objekten eines Experiments untersucht, so handelt es sich um eine. Möchte man die Anzahl der möglichen

Mehr

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? 2. Übung: Wahrscheinlichkeitsrechnung Aufgabe 1 Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? a) P ist nichtnegativ. b) P ist additiv. c) P ist multiplikativ.

Mehr

1 Stochastische Konvergenz 2

1 Stochastische Konvergenz 2 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Übungen zur Wahrscheinlichkeitstheorie und Statistik

Übungen zur Wahrscheinlichkeitstheorie und Statistik Übungen zur Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank Blatt 0 vom 16. April 2012 Aufgabe 1 (Wahrscheinlichkeitsräume). Welche der folgenden Aussagen sind wahr? Begründen Sie jeweils

Mehr