Folien zur Vorlesung. Statistik II (Wahrscheinlichkeitsrechnung und schließende Statistik)

Größe: px
Ab Seite anzeigen:

Download "Folien zur Vorlesung. Statistik II (Wahrscheinlichkeitsrechnung und schließende Statistik)"

Transkript

1 Folien zur Vorlesung Statistik II (Wahrscheinlichkeitsrechnung und schließende Statistik) Sommersemester 2014 Montag, Uhr Hörsaal: H 1 und H 3 Prof. Dr. Bernd Wilfling Westfälische Wilhelms-Universität Münster

2 Inhalt 1 Einleitung 1.1 Organisatorisches 1.2 Was ist Schließende Statistik? 2 Zufallsvorgänge und Wahrscheinlichkeiten 2.1 Zufallsvorgänge und Ereignisse 2.2 Wahrscheinlichkeiten 2.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit 2.4 Totale Wahrscheinlichkeit und das Bayes-Theorem 3 Zufallsvariable und Verteilungen 3.1 Grundbegriffe und Definitionen 3.2 Erwartungswert und Varianz einer Zufallsvariablen 3.3 Spezielle diskrete Verteilungen 3.4 Spezielle stetige Verteilungen 4 Gemeinsame Verteilung und Grenzwertsätze 4.1 Gemeinsame Verteilung von Zufallsvariablen 4.2 Grenzwertsätze 5 Stichproben und Statistiken 5.1 Zufallsstichprobe 5.2 Statistiken 5.3 Exkurs: χ 2 - und t-verteilung 5.4 Statistiken bei normalverteilter Stichprobe 6 Schätzverfahren für Parameter 6.1 Punktschätzung 6.2 Eigenschaften von Punktschätzern 6.3 Intervallschätzung 7 Hypothesentests 7.1 Grundbegriffe des Testens 7.2 Tests für Erwartungswerte 7.3 Tests für Varianzen i

3 Literatur Deutschsprachig: Hartung, J. (2009). Statistik (15. Auflage). Oldenbourg Verlag, München. Mosler, K. und F. Schmid (2011). Wahrscheinlichkeitsrechnung und schließende Statistik (4. Auflage). Springer Verlag, Heidelberg. Schira, J. (2012). Statistische Methoden der VWL und BWL Theorie und Praxis (4. Auflage). Pearson Studium, München. Englischsprachig: Barrow, M. (2009). Statistics for Economics, Accounting and Business Studies (5th Edition). Prentice Hall, Singapore. Mood, A.M., Graybill, F.A. and D.C. Boes (1974). Introduction to the Theory of Statistics (3rd Edition). McGraw-Hill, Tokyo. ii

4 1. Einleitung 1.1 Organisatorisches Ziel der Vorlesung: Einführung in die Wahrscheinlichkeitsrechnung schließende Statistik (auch: induktive Statistik) 1

5 Internet-Seite der Vorlesung: Studium Veranstaltungen im Sommersemester 2014 Bachelor Statistik II Vorlesungsstil: Freier Vortrag anhand von Projektor-Folien Folien stehen als PDF-Dateien auf Internetseite zur Verfügung (Beschaffung der Folien wird unbedingt empfohlen) 2

6 Literatur: Mosler, K., Schmid, F. (2011). Wahrscheinlichkeitsrechnung und schließende Statistik (4. Auflage), Springer-Verlag Formelsammlung Definitionen, Formeln und Tabellen zur Statistik (7. Auflage) von Bomsdorf/Gröhn/Mosler/Schmid (notwendiges Hilfsmittel, in der Klausur zugelassen) 3

7 Klausurvorbereitung: Stoff der Vorlesung Aufgaben der Tutoriums Ansprechpartner: Herr Fabian Gößling Klausurtraining durch Ferienarbeitsgruppen 4

8 Zugelassene Hilfsmittel in der Klausur: Taschenrechner (nicht programmierbar) Formelsammlung Definitionen, Formeln und Tabellen zur Statistik von Bomsdorf/Gröhn/Mosler/Schmid, 7. (aktuelle und frühere) Auflage(n) Akzeptierte äußere Form für die Klausur: Zulässig sind nur Unter- bzw. Überstreichungen, Verweise auf Seiten bzw. Nummern Nicht zulässig sind somit z.b. verbale Erläuterungen, mathematische Umformungen, grafische Darstellungen u.ä., die als Lösungshilfen für Klausuraufgaben angesehen werden können 5

9 Ansprechpartner: Herr Fabian Gößling (Koordinator der Tutorien) Tutorinnen und Tutoren (Adressen und Nummern: siehe Tutorien) 6

10 1.2 Was ist Schließende Statistik? Stoff der VL Statistik I : Deskriptive Statistik Ziel: Beschreibung erhobener Daten x 1,..., x n Problem: Erhobene Daten x 1,..., x n sind i.d.r. nur Stichprobe (keine Vollerhebung) 7

11 Deshalb Frage: Wie können (deskriptive) Ergebnisse für die Stichprobe zur Beurteilung der (unbekannten) Grundgesamtheit genutzt werden? Antwort: Mit Methoden der Schließenden Statistik Synonyme Bezeichnungen: Induktive Statistik Statistische Inferenz 8

12 Wesenszüge der schließenden Statistik: Schlussfolgerung von Stichprobe auf Grundgesamtheit Statistische Schlüsse sind nicht sicher, sondern gelten nur mit bestimmter Wahrscheinlichkeit Unbedingtes Erfordernis: Beschäftigung mit Wahrscheinlichkeitsrechnung 9

13 Zwischenfazit: Schließende Statistik überträgt Stichprobenergebnisse auf GG basiert auf Wahrscheinlichkeitsrechnung Man beachte: Wahrscheinlichkeitsrechnung ist mehr als Grundlage der schließenden Statistik hat enorme eigenständige ökonomische Bedeutung z.b. in Mikroökonomik Investition und Finanzierung Portfoliotheorie 10

14 Praktische Anwendungen der schließenden Statistik Beispiel 1: (Qualitätskontrolle): Unternehmen produziert 5000 Glühbirnen pro Tag Frage: Wie hoch ist der Anteil p defekter Glühbirnen in der Tagesproduktion? Statistisches Problem: Schätzen des Anteils p aufgrund einer Stichprobe 11

15 Beispiel 2: (Ausgabenplanung des Staates): Wichtigste Einnahmequelle des Staates: Steuern Problem: Für Ausgabenplanung sind Steuereinnahmen zu schätzen (Steuereinnahmen sind aufgrund von Erhebungsproblemen lange Zeit unbekannt) Statistisches Problem: Angabe eines (möglichst engen) Intervalls, das den tatsächlichen unbekannten Wert der Steuereinnahmen mit hoher Wahrscheinlichkeit überdeckt 12

16 Beispiel 3: (Effizienz von Werbung) [I] Einfluss von Werbemaßnahmen auf den Absatz von 84 US- Unternehmen (vgl. Statistik I) Statistisches Modell (Y = Absatz, X = Werbeausgaben) y i = α + β x i + u i (α, β unbekannte Parameter, u i Fehler) 13

17 Stichprobenergebnisse für 84 Unternehmen Schätzung: Absatz = * Werbeausgaben 560 Absatz in Mill. US-$ Werbeausgaben in Mill. US-$ 14

18 Beispiel 3: (Effizienz von Werbung) [II] Eine mögliche Schätzung von α, β über KQ-Methode: a = , b = Statistische Fragen: Sind die KQ-Werte a, b zuverlässige Schätzwerte für die (unbekannten) tatsächlichen Parameter α, β? Ist der wahre unbekannte Steigungsparameter β wirklich von Null verschieden, d.h. gilt β = 0 oder β 0? (Im Falle von β = 0 hätten Werbeausgaben keinen Einfluss auf den Absatz) 15

19 Fazit: Grundlegende Aufgaben der schließenden Statistik: Punktschätzungen von unbekannten Parametern Intervallschätzungen von unbekannten Parametern Testen von Hypothesen über unbekannte Parameter 16

20 2. Zufallsvorgänge und Wahrscheinlichkeiten Ziel des Kapitels: Einführung elementarer Begriffe der Wahrscheinlichkeitsrechnung (definitorisch) Ziel der Wahrscheinlichkeitsrechnung: Modellierung von zufälligen Vorgängen, wie z.b. (zukünftiger) Umsatz eines Unternehmens (zukünftige) Rendite einer Kapitalanlage (zukünftige) Wachstumsraten einer VW (zukünftige) Arbeitslosenquote 17

21 Zu präzisierende Begriffe: Zufallsvorgang, Zufallsexperiment (Zufalls)Ereignis, Wahrscheinlichkeit Mathematische Hilfsmittel: Mengenlehre, Kombinatorik Analysis (Differential-, Integralrechnung) 18

22 2.1 Zufallsvorgänge und Ereignisse Definition 2.1: (Zufallsvorgang, Zufallsexperiment) Unter einem Zufallsvorgang verstehen wir einen Vorgang, bei dem (a) im Voraus feststeht, welche möglichen Ausgänge dieser theoretisch haben kann, (b) der sich einstellende, tatsächliche Ausgang im Voraus jedoch unbekannt ist. Zufallsvorgänge, die geplant sind und kontrolliert ablaufen, heißen Zufallsexperimente. 19

23 Beispiele für Zufallsexperimente: Ziehung der Lottozahlen Roulette, Münzwurf, Würfelwurf Technische Versuche (Härtetest von Stahlproben etc.) In der VWL: Oft keine Zufallsexperimente (historische Daten, Bedingungen nicht kontrollierbar) Moderne VWL-Disziplin: Experimentelle Ökonomik 20

24 Definition 2.2: (Ergebnis, Ergebnismenge) Die Menge aller möglichen Ausgänge eines Zufallsvorgangs heißt Ergebnismenge und wird mit Ω bezeichnet. Ein einzelnes Element ω Ω heißt Ergebnis. Wir notieren die Anzahl aller Elemente von Ω (d.h. die Anzahl aller Ergebnisse) mit Ω. Beispiele: [I] Zufallsvorgang Werfen eines Würfels : Ω = {1, 2, 3, 4, 5, 6} Zufallsvorgang Werfen einer Münze solange, bis Kopf erscheint : Ω = {K, ZK, ZZK, ZZZK, ZZZZK,...} 21

25 Beispiele: [II] Zufallsvorgang Bestimmung des morgigen Wechselkurses zwischen Euro und US-$ : Ω = [0, ) Offensichtlich: Die Anzahl der Elemente von Ω kann endlich, abzählbar unendlich oder nicht abzählbar unendlich sein Jetzt: Mengentheoretische Definition des Begriffes Ereignis 22

26 Definition 2.3: (Ereignis) Unter einem Ereignis verstehen wir eine Zusammenfassung von Ergebnissen eines Zufallsvorgangs, d.h. ein Ereignis ist eine Teilmenge der Ergebnismenge Ω. Man sagt Das Ereignis A tritt ein, wenn der Zufallsvorgang ein ω A als Ergebnis hat. Bemerkungen: [I] Notation von Ereignissen: A, B, C,... oder A 1, A 2,... A = Ω heißt das sichere Ereignis (denn für jedes Ergebnis ω gilt: ω A) 23

27 Bemerkungen: [II] A = (leere Menge) heißt das unmögliche Ereignis (denn für jedes ω gilt: ω / A) Falls das Ereignis A eine Teilmenge des Ereignisses B ist (A B), so sagt man: Das Eintreten von A impliziert das Eintreten von B (denn für jedes ω A folgt ω B) Offensichtlich: Ereignisse sind Mengen Anwendung von Mengenoperationen auf Ereignisse ist sinnvoll 24

28 Ereignisverknüpfungen (Mengenoperationen): [I] Durchschnittsereignis (-menge): C = A B tritt ein, wenn A und B eintreten Vereinigungsereignis (-menge): C = A B tritt ein, wenn A oder B eintritt Differenzereignis (-menge): C = A\B tritt ein, wenn A eintritt, aber B nicht 25

29 Ereignisverknüpfungen (Mengenoperationen): [II] Komplementärereignis: C = Ω\A A tritt ein, wenn A nicht eintritt Die Ereignisse A und B heißen unvereinbar oder disjunkt, wenn A B = (beide Ereignisse können nicht gleichzeitig eintreten) Jetzt: Übertragung der Konzepte von 2 auf n Mengen A 1,..., A n 26

30 Ereignisverknüpfungen: [I] Durchschnittsereignis: n i=1 A i tritt ein, wenn alle A i eintreten Vereinigungsereignis: n i=1 A i tritt ein, wenn mindestens ein A i eintritt 27

31 Ereignisverknüpfungen: [II] Die Mengen A 1,..., A n heißen Partition (oder vollständige Zerlegung) von Ω, falls gilt: n i=1 A i = Ω A i A j = für alle i j A i für alle i 28

32 Wichtige Rechenregeln für Mengen (Ereignisse): Kommutativ-, Assoziativ-, Distributivgesetze De Morgansche Regeln: A B = A B A B = A B 29

33 2.2 Wahrscheinlichkeiten Ziel: Jedem Ereignis A soll eine Zahl P (A) zugeordnet werden, welche die Wahrscheinlichkeit für das Eintreten von A repräsentiert Formal: P : A P (A) Frage: Welche Eigenschaften sollte die Zuordnung (Mengenfunktion) P besitzen? 30

34 Definition 2.4: (Kolmogorov sche Axiome) werden als Kol- Die folgenden 3 Mindestanforderungen an P mogorov sche Axiome bezeichnet: Nichtnegativität: Für alle A soll gelten: P (A) 0 Normierung: P (Ω) = 1 Additivität: Für zwei disjunkte Ereignisse A und B (d.h. für A B = ) soll gelten: P (A B) = P (A) + P (B) 31

35 Es ist leicht zu zeigen: Die 3 Kolmogorov schen Axiome implizieren bestimmte Eigenschaften und Rechenregeln für Wahrscheinlichkeiten von Ereignissen 32

36 Satz 2.5: (Eigenschaften von Wahrscheinlichkeiten) Aus den Kolmogorov schen Axiomen ergeben sich folgende Eigenschaften für die Wahrscheinlichkeit beliebiger Ereignisse: Wahrscheinlichkeit des Komplimentärereignisses: P (A) = 1 P (A) Wahrscheinlichkeit des unmöglichen Ereignisses: P ( ) = 0 Wertebereich der Wahrscheinlichkeit: 0 P (A) 1 33

37 Satz 2.6: (Rechenregeln für Wahrscheinlichkeiten) [I] Aus den Kolmogorov schen Axiomen ergeben sich die folgenden Rechenregeln für die Wahrscheinlichkeit von beliebigen Ereignissen A, B, C: Additionssatz für Wahrscheinlichkeiten: P (A B) = P (A) + P (B) P (A B) (Wahrscheinlichkeit, dass A oder B eintritt) Additionssatz für 3 Ereignisse: P (A B C) = P (A) + P (B) + P (C) P (A B) P (B C) P (A C) + P (A B C) (Wahrscheinlichkeit, dass A oder B oder C eintritt) 34

38 Satz 2.6: (Rechenregeln für Wahrscheinlichkeiten) [II] Wahrscheinlichkeit des Differenzereignisses: P (A\B) = P (A B) = P (A) P (A B) Man beachte: Wenn das Ereignis B das Ereignis A impliziert (d.h. wenn B A gilt), dann folgt P (A\B) = P (A) P (B) 35

39 Beispiel: [I] In einer Stadt erscheinen 2 Lokalzeitungen, die Morgenpost und der Stadtspiegel. Die Wahrscheinlichkeit, dass ein Bewohner der Stadt die Morgenpost liest (Ereignis A) sei 0.6, den Stadtspiegel liest (Ereignis B) sei 0.5, die Morgenpost oder den Stadtspiegel liest sei

40 Beispiel: [II] Die Wskt., dass jemand beide Blätter liest, beträgt P (A B) = P (A) + P (B) P (A B) = = 0.2 Die Wskt., dass jemand kein Blatt liest, beträgt P (A B) = 1 P (A B) = = 0.1 Die Wskt., dass jemand genau eines der beiden Blätter liest, beträgt P ((A B)\(A B)) = P (A B) P (A B) = =

41 Bisher: Formale Anforderungen an Wahrscheinlichkeiten Eigenschaften und grundlegende Rechenregeln Noch ungeklärt: Wie wird eine explizite Wskt. für ein bestimmtes Ereignis A überhaupt festgelegt? Verschiedene Wahrscheinlichkeitsbegriffe: Klassische Wahrscheinlichkeit (Laplace-Experiment) Statistische Wahrscheinlichkeit (Häufigkeitstheorie) Subjektive Wahrscheinlichkeit (durch Experimente) 38

42 Zentraler Begriff der VL: Der Laplace-sche Wahrscheinlichkeitsbegriff: Pierre-Simon Marquis de Laplace, 1812: Wenn ein Experiment eine Anzahl verschiedener und gleich möglicher Ausgänge hervorbringen kann und einige davon als günstig anzusehen sind, dann ist die Wahrscheinlichkeit eines günstigen Ausgangs gleich dem Verhältnis der Anzahl der günstigen zur Anzahl der möglichen Ausgänge. 39

43 Offensichtlich: Dem Laplace-schen Wahrscheinlichkeitsbegriff liegt die Vorstellung eines Zufallsexperimentes zugrunde, bei dem die Ergebnismenge Ω aus n Ergebnissen ω 1,..., ω n besteht, die alle die gleiche Eintrittswahrscheinlichkeit 1/n aufweisen Jetzt: Formale Definition 40

44 Definition 2.7: (Laplace-Experiment, -Wahrscheinlichkeit) Ein Zufallsexperiment heißt Laplace-Experiment, wenn die Ergebnismenge Ω aus n Ergebnissen besteht (d.h. Ω = {ω 1,..., ω n }) und jedes Ergebnis ω i die gleiche Wahrscheinlichkeit 1/n besitzt, d.h. P ({ω i }) = 1 n für alle i = 1,..., n. Die Laplace-Wahrscheinlichkeit eines Ereignisses A Ω ist dann definiert als P (A) = Anzahl der Elemente von A Anzahl der Elemente von Ω = A Ω = A n. 41

45 Offensichtlich: Laplace-Wahrscheinlichkeit erfüllt die Kolmogorov schen Axiome (Definition 2.4), denn P (A) 0 P (Ω) = n n = 1 Für die Ereignisse A, B mit A B = gilt: P (A B) = A + B n = A n + B n = P (A) + P (B) 42

46 Fairer Würfelwurf als Beispiel für Laplace-Experiment: Es ist: Es gilt: Ω = {ω 1, ω 2, ω 3, ω 4, ω 5, ω 6 } = {1, 2, 3, 4, 5, 6} P ({ω i }) = 1 6 für alle i = 1,..., 6 Laplace-Wahrscheinlichkeit für das Ereignis A = Würfeln einer geraden Zahl Es ist: Laplace-Wahrscheinlichkeit: A = {2, 4, 6} P (A) = A / Ω = 3/6 =

47 Offensichtlich: Laplace-Wahrscheinlichkeit erfordert Berechnung von Anzahlen Mathematische Technik hierfür: Kombinatorik Einige grundsätzliche Fragen der Kombinatorik: Wie Möglichkeiten gibt es, bestimmte Objekte anzuordnen? Wie viele Möglichkeiten gibt es, bestimmte Objekte aus einer Menge auszuwählen? 44

48 Mathematische Werkzeuge der Kombinatorik: Fakultät Binomialkoeffizient Zunächst: Definitionen von Fakultät und Binomialkoeffizient 45

49 Definition 2.8: (Fakultät) Es sei n N eine natürliche Zahl. Unter der Fakultät von n, in Zeichen n!, versteht man das Produkt der natürlichen Zahlen von 1 bis n, d.h. n! = n. Für n = 0 wird die Fakultät definitorisch festgelegt als Beispiele: 2! = 1 2 = 2 5! = = 120 0! = 1. 10! = =

50 Offensichtlich: Fakultäten wachsen sehr schnell an Definition 2.9: (Binomialkoeffizient) Es seien n, k N zwei natürliche Zahlen mit n > 0, k 0 und n k. Unter dem Binomialkoeffizienten, gesprochen als n über k, versteht man den Ausdruck ( n ) = n! k k! (n k)! 47

51 Beispiele: Einfaches Rechenbeispiel : ( 3 ) 3! = 2 2! (3 2)! = = 3 Komplizierteres Rechenbeispiel : ) 9! = 4 4! 5! = = = 126 ( 9 Formales Beispiel : ( n k ) = n! k! (n k)! = n! (n k)! (n (n k))! = ( n n k ) 48

52 Jetzt: Inhaltliche (kombinatorische) Bedeutung von Fakultät und Binomialkoeffizient für die Bestimmung der Anzahl von Anordnungs- bzw. Auswahlmöglichkeiten Bestimmung von Laplace-Wahrscheinlichkeiten Zunächst Fundamentalprinzip der Kombinatorik: Wenn ein erster Sachverhalt auf n 1 Arten erfüllt werden kann und ein zweiter Sachverhalt unabhängig davon auf n 2 Arten, so ist die Gesamtzahl der Möglichkeiten, gleichzeitig beide Sachverhalte zu erfüllen, gerade gleich dem Produkt n 1 n 2 49

53 Beispiel: Ein Fußballtrainer hat für den Posten des Torwarts 3 Kandidaten und für die Besetzung des Mittelstürmers 4 (andere) Kandidaten zur Auswahl. Insgesamt kann er also das Mannschaftsgespann (Torwart, Mittelstürmer) auf 3 4 = 12 Arten besetzen Verallgemeinerung: Gegeben seien k Sachverhalte, die unabhängig voneinander auf jeweils n 1, n 2,..., n k Arten erfüllt werden können Anzahl der Möglichkeiten, die k Sachverhalte gleichzeitig zu erfüllen, beträgt n 1 n 2... n k 50

54 Spezialfall: n 1 = n 2 =... = n k n Anzahl der Möglichkeiten, die k Sachverhalte gleichzeitig zu erfüllen, beträgt Beispiel: n 1 n 2... n k = n n... n }{{} k mal = n k Wie viele Autokennzeichen kann die Stadt Münster vergeben, wenn nach dem Stadtkürzel MS 1 oder 2 Buchstaben und eine 1 bis 3 stellige Zahl vergeben wird? Lösung: =

55 Zwischenfazit: Die Bestimmung von Laplace-Wahrscheinlichkeiten erfordert die Bestimmung von Anzahlen. Die Kombinatorik liefert Methoden zur Berechnung der Anzahlen möglicher Anordnungen von Objekten (Permutationen) der Möglichkeiten, Objekte aus einer vorgegebenen Menge auszuwählen (Variationen, Kombinationen) 52

56 Definition 2.10: (Permutation) Gegeben sei eine Menge mit n Elementen. Jede Anordnung all dieser Elemente in irgendeiner Reihenfolge heißt eine Permutation dieser n Elemente. Beispiel: Aus der Menge {a, b, c} lassen sich die folgenden 6 Permutationen bilden: abc bac cab acb bca cba Allgemein gilt: Die Anzahl aller Permutationen von n verschiedenen Objekten beträgt n (n 1) (n 2)... 1 = n! 53

57 Jetzt: Von den n Objekten sollen nicht alle verschieden sein. Vielmehr sollen sich die n Objekte in J Kategorien aufteilen mit den Kategorienanzahlen n 1 (z.b. Anzahl weiße Kugeln), n 2 (Anzahl rote Kugeln) bis n J (Anzahl schwarze Kugeln) Es gilt: n = n 1 + n n J Die Anzahl aller Permutationen der n Objekte ist gegeben durch n! n 1! n 2!... n J! 54

58 Bemerkungen: Die Anordnungen, bei denen Objekte der gleichen Art permutiert werden, sind nicht unterscheidbar Sind alle n Objekte verschieden, so ist die Anzahl aller möglichen Permutationen gleich n! (vgl. Folie 54) Beispiel: Die Anzahl der Permutationen der n = 9 Buchstaben des Wortes STATISTIK beträgt 9! 2! 3! 1! 2! 1! =

59 Jetzt: Auswahl von Objekten aus einer vorgegebenen Menge Definition 2.11: (Kombination) Gegeben sei eine Menge mit n unterscheidbaren Elementen (z.b. Kugeln mit den Nummern 1, 2,..., n). Jede Zusammenstellung (bzw. Auswahl) von k Elementen aus dieser Menge heißt Kombination der Ordnung k. 56

60 Unterscheidungsmerkmale von Kombinationen: Berücksichtigung der Auswahl-Reihenfolge Ja Kombination wird Variation genannt Nein Keine besond. Bezeichnung (Kombination) Auswahl mit oder ohne Zurücklegen Insgesamt also 4 alternative Fälle: Variationen mit Zurücklegen Variationen ohne Zurücklegen Kombinationen ohne Zurücklegen Kombinationen mit Zurücklegen 57

61 1. Fall: Variationen mit Zurücklegen Beim Ziehen mit Zurücklegen unter Berücksichtigung der Reihenfolge gibt es nach dem Fundamentalprinzip der Kombinatorik } n n {{... n} k Faktoren verschiedene Möglichkeiten Beispiel: = n k Ein fairer Würfel werde 4 mal hintereinander geworfen und das Ergebnis in einer 4-Sequenz notiert (z.b. 1, 5, 1, 2). Die Anzahl aller möglichen Ergebnissequenzen beträgt }{{} 4 Würfe = 6 4 =

62 2. Fall: Variationen ohne Zurücklegen Beim Ziehen ohne Zurücklegen unter Berücksichtigung der Reihenfolge gibt es nach dem Fundamentalprinzip der Kombinatorik n (n 1) (n 2)... (n k + 1) }{{} k Faktoren verschiedene Möglichkeiten (k n) Beispiel: = n! (n k)! Im olympischen Finale eines 100-Meter-Laufes starten 8 Teilnehmer. Die Anzahl der verschiedenen Kombinationen für Gold, Silber und Bronze beträgt 8! (8 3)! = =

63 3. Fall: Kombinationen ohne Zurücklegen Beim Ziehen ohne Zurücklegen ohne Berücksichtigung der Reihenfolge ist die Anzahl der verschiedenen Kombinationen gleich der Anzahl der Möglichkeiten, aus einer Menge vom Umfang n eine Teilmenge vom Umfang k (k n) zu entnehmen. Die Anzahl dieser Möglichkeiten beträgt n! k! (n k)! = ( n) k (Binomialkoeffizient, vgl. Definition 2.9, Folie 47) 60

64 Begründung: Betrachte die Formel für Variationen ohne Zurücklegen aus Fall 2. Die dort bestimmte Anzahl n!/(n k)! muss nun noch durch k! dividiert werden, da es in jeder Menge mit k Elementen auf die Reihenfolge der Elemente nicht ankommt Beispiel: Ziehung der Lotto-Zahlen 6 aus 49. Anzahl der möglichen Kombinationen beträgt: ( 49) =

65 4. Fall: Kombinationen mit Zurücklegen Beim Ziehen mit Zurücklegen ohne Berücksichtigung der Reihenfolge beträgt die Anzahl der verschiedenen Kombinationen (n + k 1)! (n 1)! k! = ( n + k 1) ( n + k 1 = k n 1 (Binomialkoeffizient, vgl. Definition 2.9, Folie 47) ) Begründung: Etwas technisch, vgl. eines der angegebenen Standardlehrbücher, z.b. Mosler / Schmid (2008) 62

66 Beispiel: (Häufungswahl) Bei einer Wahl stehen 10 Kandidaten zur Auswahl. Ein Wähler hat 3 Stimmen und das Recht, bei einem Kandidaten mehr als 1 Kreuz zu machen. Die Anzahl der Möglichkeiten Kreuze zu setzen beträgt somit ( ) ( 12) = =

67 Überblick Kombinationen Anzahl der Möglichkeiten, aus n verschiedenen Objekten k auszuwählen ohne Berücksichtigung der Reihenfolge (Kombinationen) mit Berücksichtigung der Reihenfolge (Variationen) ohne Zurücklegen ( n ) n! k (n k)! mit Zurücklegen ( n + k 1 k ) n k 64

68 Beispiel für die Berechnung einer Laplace-Wskt: [I] Wskt. für 4 Richtige im Lotto Zunächst: Anzahl aller möglichen Kombinationen beträgt ( 49) = Jetzt gesucht: Anzahl von Kombinationen, die einen Vierer darstellen Für einen Vierer müssen 4 von den 6 Richtigen und gleichzeitig 2 von den 43 Falschen zusammenkommen 65

69 Beispiel für die Berechnung einer Laplace-Wskt: [II] Nach dem Fundamentalprinzip der Kombinatorik ergeben sich ( 6) (43 ) = = verschiedene Viererkombinationen Hieraus folgt für die Laplace-Wahrscheinlichkeit: P ( 4 Richtige im Lotto ) = =

70 2.3 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Jetzt: Berechnung von Wahrscheinlichkeiten unter Zusatzinformationen Genauer: Berechnung der Wahrscheinlichkeit des Ereignisses A, wenn bekannt ist, dass ein anderes Ereignis B bereits eingetreten ist 67

71 Beispiel: Betrachte fairen Würfelwurf Ereignis A: Würfeln der 6. Es gilt zunächst P (A) = 1/6 Ereignis B: Würfeln einer geraden Zahl soll bereits eingetreten sein (Vorinformation) Wskt. von A unter der Bedingung B ist P (A B) = 1/3 Grund: Müssen zur Berechnung der Wskt. von A nur noch die Ergebnisse {2}, {4}, {6} aus B betrachten 68

72 Andererseits: Betrachte Ereignis C: Würfeln der 3 Offensichtlich gilt: P (C B) = 0 Grund: Ereignisse B und C können nicht gemeinsam eintreten, d.h. P (B C) = 0 Frage: Wie kommt man mathematisch zur bedingten Wskt. P (A B) = 1/3 69

73 Antwort: Indem man die Wskt. des gemeinsamen Eintretens von A und B (d.h. von A B) zur Wskt. des Eintretens von B in Beziehung setzt Definition 2.12: (Bedingte Wahrscheinlichkeit) Es seien A und B zwei Ereignisse, wobei P (B) > 0 gelten soll. Die Wahrscheinlichkeit für das Eintreten von A unter der Bedingung, dass B bereits eingetreten ist, kurz: die bedingte Wahrscheinlichkeit von A unter der Bedingung B, ist definiert als P (A B) = P (A B). P (B) 70

74 Beispiel 1 (Fairer Würfelwurf): A: Würfeln der 6, d.h. A = {6} B: Würfeln einer geraden Zahl, d.h. B = {2, 4, 6} A B = {6} P (A B) = P (A B) P (B) = P ({6}) P ({2, 4, 6}) = 1/6 3/6 =

75 Beispiel 2 (2-facher fairer Würfelwurf): [I] Ein Würfel werde zweimal geworfen und das Ergebnis in einer 2-Sequenz notiert. Wie groß ist die Laplace-Wahrscheinlichkeit, dass in einer der beiden Würfe eine 6 fällt unter der Bedingung, dass die Augensumme der beiden Würfe größer als 9 ist? Mögliche Ergebnisse des Experimentes: (1, 1) (1, 2) (1, 3) (1, 4) (1, 5) (1, 6) (2, 1) (2, 2) (2, 3) (2, 4) (2, 5) (2, 6) (3, 1) (3, 2) (3, 3) (3, 4) (3, 5) (3, 6) (4, 1) (4, 2) (4, 3) (4, 4) (4, 5) (4, 6) (5, 1) (5, 2) (5, 3) (5, 4) (5, 5) (5, 6) (6, 1) (6, 2) (6, 3) (6, 4) (6, 5) (6, 6) 72

76 Beispiel 2 (2-facher fairer Würfelwurf): [II] A = mindestens eine 6, d.h. A = {(6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6), (1, 6), (2, 6), (3, 6), (4, 6), (5, 6)} B = Augensumme > 9, d.h. B = {(6, 4), (6, 5), (6, 6), (5, 5), (5, 6), (4, 6)} Somit gilt P (B) = 6 36 =

77 Beispiel 2 (2-facher fairer Würfelwurf): [III] Der Schnitt ergibt sich zu A B = {(6, 4), (6, 5), (6, 6), (5, 6), (4, 6)} Somit gilt P (A B) = 5 36 Für die bedingte Wahrscheinlichkeit ergibt sich: P (A B) = P (A B) P (B) = 5/36 6/36 =

78 Jetzt verallgemeinerte Sichtweise: Betrachte die bedingte Wskt. P (A B) für beliebige Ereignisse A Ω (in Zeichen: P ( B)) Es gilt: Die bedingte Wskt. P ( B) erfüllt die Kolmogorov schen Axiome (vgl. Definition 2.4, Folie 31) Beweis: [I] Für jedes A gilt: P (A B) = P (A B) P (B) 0 75

79 Beweis: [II] Für das sichere Ereignis Ω gilt: P (Ω B) P (Ω B) = P (B) = P (B) P (B) = 1 Für A 1 A 2 = gilt: P (A 1 A 2 B) = P ((A 1 A 2 ) B) P (B) = P ((A 1 B) (A 2 B)) P (B) = P (A 1 B) P (B) + P (A 2 B) P (B) = P (A 1 B) + P (A 2 B) 76

80 Konsequenz: Die aus den Kolmogorov schen Axiomen folgenden Rechenreglen für Wahrscheinlichkeiten gelten weiter, z.b. P (A B) = 1 P (A B) P ( B) = 0 0 P (A B) 1 P (A 1 A 2 B) = P (A 1 B) + P (A 2 B) P (A 1 A 2 B)... 77

81 Aus Definition 2.12 folgt unmittelbar: Ebenso gilt: Fazit: P (A B) = P (A B) P (B) P (A B) = P (B A) = P (B A) P (A) Die Wskt. für das gleichzeitige Eintreten zweier Ereignisse A und B (d.h. für A B) ist jeweils das Produkt einer bedingten Wskt. mit der unbedingten Wskt. des bedingenden Ereignisses Die beiden obigen Formeln heißen Multiplikationssatz für zwei Ereignisse 78

82 Natürliche Erweiterung: Multiplikationssatz für n Ereignisse A 1,..., A n (d.h. Formel für Wskt. des gleichzeitigen Eintretens) nicht hier, siehe z.b. Mosler / Schmid (2008) Hier: Multiplikationssatz für 3 Ereignisse A, B, C: P (A B C) = P (A B C) P (B C) = P (A B C) P (B C) P (C) 79

83 Beispiel (Bestehen der Statistik-II-Klausur): [I] Für den Erwerb des Statistik-II-Scheines hat man 3 Versuche. Für die 3 Ereignisse A i : StudentIN besteht beim i-ten Versuch, (i = 1,..., 3), seien folgende Wahrscheinlichkeiten bekannt: P (A 1 ) = 0.6 P (A 2 A 1 ) = 0.5 P (A 3 A 1 A 2 ) = 0.4 Frage: Wie hoch ist die Wskt., den Schein zu erwerben? 80

84 Beispiel (Bestehen der Statistik-II-Klausur): [II] Die gesuchte Wskt. ergibt sich zu: P (A 1 A 2 A 3 ) = 1 P (A 1 A 2 A 3 ) = 1 P (A 1 A 2 A 3 ) = 1 P (A 3 A 2 A 1 ) = 1 P (A 3 A 1 A 2 ) P (A 2 A 1 ) P (A 1 ) = 1 (1 0.4) (1 0.5) (1 0.6) =

85 Betrachte nun den folgenden Fall: Das Eintreten des Ereignisses A hat keinerlei Einfluss auf das Eintreten des Ereignisses B (und umgekehrt) Begriff der stochastischen Unabhängigkeit Definition 2.13: (Stochastische Unabhängigkeit) Zwei Ereignisse A und B heißen stochastisch unabhängig (oder kurz: unabhängig), falls P (A B) = P (A) P (B) gilt. A und B heißen abhängig, falls die Ereignisse nicht unabhängig sind. 82

86 Bemerkungen: [I] In Definition 2.13 sind die Rollen von A und B vertauschbar Unter der Annahme P (B) > 0 gilt: A und B sind unabhängig P (A B) = P (A) Unter der Annahme P (A) > 0 gilt: A und B sind unabhängig P (B A) = P (B) (Bei Unabhängigkeit hängen die bedingten Wskt. en nicht von den jeweils bedingenden Ereignissen ab) 83

87 Bemerkungen: [II] Mit A und B sind auch die folgenden Ereignisse jeweils unabhängig: A und B, A und B, A und B Ist A ein Ereignis mit P (A) = 0 oder P (A) = 1, so ist A von jedem beliebigen Ereignis B unabhängig Wenn A und B disjunkt (d.h. A B = ) und die Wskt. en P (A), P (B) > 0 sind, können A und B nicht unabhängig sein 84

88 Beispiel: [I] Betrachte zweimaligen Münzwurf (Z=Zahl, K=Kopf). Ergebnisse des Laplace-Experimentes werden als 2-Sequenzen notiert. Es ist Ω = {(Z, Z), (Z, K), (K, Z), (K, K)} Betrachte die Ereignisse A : B : C : Zahl beim ersten Wurf Kopf beim zweiten Wurf Kopf bei beiden Würfen 85

89 Beispiel: [II] Für die Ereignisse A und B gilt: P (A B) = P ({(Z, K)}) = 1/4 sowie P (A) P (B) = P ({(Z, Z), (Z, K)}) P ({(Z, K), (K, K)}) = 1/2 1/2 = 1/4 = P (A B) = A und B sind stochastisch unabhängig 86

90 Beispiel: [III] Für die Ereignisse B und C gilt: P (B C) = P ({(K, K)}) = 1/4 sowie P (B) = P ({(Z, K), (K, K)}) = 1/2 P (C) = P ({(K, K)}) = 1/4 = P (B) P (C) = 1/2 1/4 = 1/8 1/4 = P (B C) = B und C sind stochastisch abhängig 87

91 Jetzt: Verallgemeinerung des Unabhängigkeitsbegriffes von 2 auf n Ereignisse Definition 2.14: (Unabhängigkeit von n Ereignissen) Die n Ereignisse A 1, A 2,..., A n heißen paarweise unabhängig, falls für alle i, j = 1,..., n mit i j gilt P (A i A j ) = P (A i ) P (A j ). Die n Ereignisse A 1, A 2,..., A n heißen vollständig unabhängig, falls für jede Auswahl von m Indizes, gilt i 1, i 2,..., i m {1, 2,..., n}, 2 m n, P (A i1 A i2... A im ) = P (A i1 ) P (A i2 )... P (A im ). 88

92 Bemerkungen: Für den Fall n = 3 ist die paarweise Unabhängigkeit gegeben, falls gilt P (A 1 A 2 ) = P (A 1 ) P (A 2 ) P (A 1 A 3 ) = P (A 1 ) P (A 3 ) P (A 2 A 3 ) = P (A 2 ) P (A 3 ) Die 3 Ereignisse sind vollständig unabhängig, falls gilt P (A 1 A 2 A 3 ) = P (A 1 ) P (A 2 ) P (A 3 ) Vorsicht: vollständige und paarweise Unabhängigkeit sind nicht das gleiche. Das Konzept der vollständigen Unabhängigkeit ist strenger 89

93 Beispiel: [I] Betrachte das Laplace-Experiment des zweifachen Würfelwurfes mit den Ereignissen A 1 : A 2 : A 3 : Augenzahl beim 1. Wurf ist ungerade Augenzahl beim 2. Wurf ist ungerade Augensumme ungerade Es gilt zunächst: P (A 1 A 2 ) = 1/4 = 1/2 1/2 = P (A 1 ) P (A 2 ) P (A 1 A 3 ) = 1/4 = 1/2 1/2 = P (A 1 ) P (A 3 ) P (A 2 A 3 ) = 1/4 = 1/2 1/2 = P (A 2 ) P (A 3 ) = A 1, A 2, A 3 sind paarweise unabhängig 90

94 Beispiel: [II] Es gilt weiterhin: P (A 1 A 2 A 3 ) = 0 1/8 = 1/2 1/2 1/2 = P (A 1 ) P (A 2 ) P (A 3 ) = A 1, A 2, A 3 sind nicht vollständig unabhängig 91

95 2.4 Totale Wahrscheinlichkeit und das Bayes- Theorem Idee des Konzeptes der totalen Wahrscheinlichkeit: Man kann die (unbedingte) Wskt. des Ereignisses A ausrechnen, wenn man bestimmte bedingte Wskt. en von A und die zugehörigen Wskt. en der Bedingungen kennt Satz 2.15: (Satz von der totalen Wahrscheinlichkeit) Es seien A 1,..., A n eine Partition der Ergebnismenge Ω und B ein beliebiges Ereignis. Dann gilt für die (unbedingte) Wahrscheinlichkeit von B: P (B) = n i=1 P (B A i ) P (A i ). 92

96 Herleitung: [I] Da A 1,..., A n eine vollständige Zerlegung von Ω darstellt, folgt B = (B A 1 ) (B A 2 )... (B A n ) Man beachte, dass die Mengen paarweise disjunkt sind (B A 1 ), (B A 2 ),..., (B A n ) 93

97 Herleitung: [II] Aus der paarweisen Disjunktheit, dem 3. Kolmogorov schen Axiom (vgl. Folie 31) sowie der Definition der bedingten Wahrscheinlichkeit folgt: P (B) = P = n i=1 n i=1 (B A i ) = P (B A i ) P (A i ) n i=1 P (B A i ) Fazit: Die (unbedingte) Wskt. von B ergibt sich aus gewichteten bedingten Wskt. en von B 94

98 Beispiel: [I] Ein und derselbe Massenartikel werde auf zwei Maschinen gefertigt. Die schnellere Maschine M 1 hinterläßt 10% Ausschuss, produziert aber doppelt soviel wie die langsamere Maschine M 2, die aber nur einen Ausschuss von 7% aufweist. Wie groß ist die Wskt., dass ein zufällig aus der Gesamtproduktion gezogenes Einzelstück defekt ist? Definition der Ereignisse: B: Stück ist defekt A 1 : Stück auf M1 produziert A 2 : Stück auf M2 produziert 95

99 Beispiel: [I] Folgende Wskt. en sind gegeben: P (B A 1 ) = 0.1 P (B A 2 ) = 0.07 P (A 1 ) = 2/3 P (A 2 ) = 1/3 Daraus folgt: P (B) = 2 i=1 P (B A i ) P (A i ) = 0.1 2/ /3 =

100 Jetzt: Verbindung zwischen bedingten Wahrscheinlichkeiten, bei denen die Rollen zwischen bedingtem und bedingendem Ereignis vertauscht sind (etwa Zusammenhang zwischen P (A B) und P (B A)) Bayes-Theorem 97

101 Herleitung des Bayes-Theorems: [I] Betrachte den Multiplikationssatz für zwei Ereignisse (vgl. Folie 78) P (A B) = P (A B) P (B) = P (B A) P (A) Daraus folgt: P (A B) = P (A) P (B A) P (B) Diese Beziehung gilt für zwei beliebige Ereignisse und deshalb auch für jedes A i, i = 1,..., n, einer beliebigen Partition der Grundmenge Ω: P (A i B) = P (A i) P (B A i ) P (B) 98

102 Herleitung des Bayes-Theorems: [II] Ersetzt man P (B) durch den Ausdruck aus dem Satz 2.15 der totalen Wahrscheinlichkeit (vgl. Folie 92), so erhält man das Bayes-Theorem Satz 2.16: (Bayes-Theorem) Es seien A 1,..., A n eine Partition der Ergebnismenge Ω und B ein beliebiges Ereignis mit P (B) > 0. Dann gilt für jedes A i : P (A i B) = P (B A i) P (A i ) n i=1 P (B A i ) P (A i ). 99

103 Beispiel: [I] An Patienten einer bestimmten Population wird durch einen Labortest untersucht, ob eine bestimmte Krankheit vorliegt oder nicht. Der Anteil der Kranken in der Population ist bekannt und wird mit π bezeichnet. Falls ein konkret untersuchter Patient krank ist, zeigt der Test die Krankheit mit einer Wskt. von 99% an (Ergebnis positiv ). Falls er nicht krank ist, zeigt der Test die Krankheit (fälschlicherweise) mit einer Wskt. von 2% an. Wie groß ist die Wskt., dass die Krankheit vorliegt unter der Bedingung, dass der Test positiv ausfällt? 100

104 Beispiel: [II] Definition der Ereignisse: A 1 : Krankheit liegt vor A 2 = A 1 : Krankheit liegt nicht vor B: Test zeigt Krankheit an Folgende Wskt. en sind gegeben: P (B A 1 ) = 0.99 P (B A 2 ) = 0.02 P (A 1 ) = π Gesucht: P (A 1 B) 101

105 Beispiel: [III] Mit dem Bayes-Theorem gilt: P (A 1 B) = = P (B A 1 ) P (A 1 ) P (B A 1 ) P (A 1 ) + P (B A 2 ) P (A 2 ) 0.99 π 0.99 π (1 π) Offensichtlich: Krankenanteil π hat starken Einfluss auf die gesuchte Wahrscheinlichkeit 102

106 Beispiel: [III] Beispielswerte: P (A 1 B) = (π = 0.1) P (A 1 B) = (π = 0.01) P (A 1 B) = (π = 0.001) P (A 1 B) = (π = ) 103

107 3. Zufallsvariable und Verteilungen Häufige Situation in der Praxis: Es interessiert nicht so sehr das konkrete Ergebnis ω Ω eines Zufallsexperimentes, sondern eine Zahl, die von ω abhängt Beispiele: Gewinn in Euro im Roulette Gewinn einer Aktie an der Börse Monatsgehalt einer zufällig ausgewählten Person 104

108 Intuitive Bedeutung einer Zufallsvariablen: Vorschrift, die das abstrakte ω in eine Zahl übersetzt Begrifflichkeiten: Deskriptive Statistik Wskt.-Rechnung Grundgesamtheit Ergebnismenge Merkmal Zufallsvariable Messwert Realisation 105

109 3.1 Grundbegriffe und Definitionen Definition 3.1: (Zufallsvariable [kurz: ZV]) Unter einer Zufallsvariablen versteht man formal eine (mathematische) Funktion X : Ω R ω X(ω). Bemerkungen: Eine Zufallsvariable ordnet jedem Ergebnis ω Ω eine reelle Zahl zu 106

110 Zufallsvariable als Abbildung der Ergebnismenge auf die reelle Zahlenachse (vgl. Schira, 2009, S. 258) 107

111 Bemerkungen: [I] Intuition: Eine Zufallsvariable X charakterisiert eine Zahl, deren Wert man noch nicht kennt Nach der Durchführung des Zufallsexperimentes realisiert sich die Zufallsvariable X im Wert x x heißt die Realisation oder Realisierung der ZV X nach Durchführung des zugehörigen Zufallsexperimentes In dieser VL: Zufallsvariablen werden immer mit Großbuchstaben, Realisationen immer mit Kleinbuchstaben bezeichnet 108

112 Bemerkungen: [II] Die Zufallsvariable X beschreibt die Situation ex ante, d.h. vor der tatsächlichen Durchführung des Zufallsexperimentes Die Realisation x beschreibt die Situation ex post, d.h. nach der Durchführung des Zufallsexperimentes Wahrscheinlichkeitsaussagen kann man nur über die Zufallsvariable X treffen Für den Rest der VL sind Zufallsvariablen von zentraler Bedeutung 109

113 Beispiel 1: Betrachte den 1-maligen Münzwurf (Z=Zahl, K=Kopf). Die ZV X bezeichne die Anzahl der Köpfe bei diesem Zufallsexperiment Es gilt: Ω = {K, Z} Die ZV X kann 2 Werte annehmen: X(Z) = 0, X(K) = 1 110

114 Beispiel 2: Betrachte den 3-maligen Münzwurf. erneut die Anzahl der Köpfe Die ZV X bezeichne Es gilt: Ω = {(K, K, K), (K, K, Z),..., (Z, Z, Z) }{{}}{{}}{{} =ω 1 =ω 2 Die Zufallsvariable X ist definiert durch X(ω) = Anzahl der K in ω =ω 8 } Offensichtlich: X ordnet verschiedenen ω dieselbe Zahl zu, z.b. X((K, K, Z)) = X((K, Z, K)) = X((Z, K, K)) = 2 111

115 Beispiel 3: Aus einer Personengruppe werde zufällig 1 Person ausgewählt. Die ZV X soll den Erwerbsstatus der ausgewählten Person bezeichnen Es gilt: Ω = { erwerbstätig }{{}, } nicht erwerbstätig {{} =ω 1 =ω 2 } Die ZV X kann definiert werden durch (Codierung) X(ω 1 ) = 1, X(ω 2 ) = 0 112

116 Beispiel 4: Das Zufallsexperiment bestehe in der Messung des morgigen Kurses einer bestimmten Aktie. Die ZV X bezeichne diesen Aktienkurs Es gilt: Ω = [0, ) X ist definiert durch X(ω) = ω 113

117 Zwischenfazit: Die ZV X kann verschiedene Werte annehmen und zwar mit bestimmten Wskt en Vereinfachende Schreibweise: (a, b, x R) P (X = a) P ({ω X(ω) = a}) P (a < X < b) P ({ω a < X(ω) < b}) P (X x) P ({ω X(ω) x}) 114

118 Frage: Wie kann man diese Wskt en bestimmen und mit diesen rechnen? Lösung: Die Berechnung solcher Wskt en kann über die sogenannte Verteilungsfunktion der ZV en X erfolgen Intuition: Die Verteilungsfunktion der ZV en X charakterisiert die Wahrscheinlichkeiten, mit denen sich die potenziellen Realisationen x auf der reellen Zahlenachse verteilen (die sogenannte Verteilung der ZV en X) 115

119 Definition 3.2: (Verteilungsfunktion [kurz: VF]) Gegeben sei die Zufallsvariable X. Unter der Verteilungsfunktion der ZV en X (in Zeichen: F X ) versteht man die folgende Abbildung: F X : R [0, 1] x F X (x) = P ({ω X(ω) x}) = P (X x). 116

120 Beispiel: [I] Betrachte das Laplace-Experiment des 3-fachen Münzwurfes. Die ZV X messe die Anzahl Kopf. Zunächst gilt: Ω = {(K, K, K), (K, K, Z),..., (Z, Z, Z) } }{{}}{{}}{{} = ω 1 = ω 2 = ω 8 Für die Wskt en der ZV X errechnet sich: P (X = 0) = P ({(Z, Z, Z)}) = 1/8 P (X = 1) = P ({(Z, Z, K), (Z, K, Z), (K, Z, Z)}) = 3/8 P (X = 2) = P ({(Z, K, K), (K, Z, K), (K, K, Z)}) = 3/8 P (X = 3) = P ({(K, K, K)}) = 1/8 117

121 Beispiel: [II] Daraus ergibt sich die VF: F X (x) = für x < für 0 x < für 1 x < für 2 x < 3 1 für x 3 Graph der Verteilungsfunktion 118

122 Bemerkungen: Es genügt (fast immer), lediglich die VF F X der ZV X zu kennen Oft ist es in praxi gar nicht möglich, den Grundraum Ω oder die explizite Abbildung X : Ω R anzugeben (jedoch kann man meistens die VF F X aus sachlogischen Überlegungen heraus angeben) 119

123 Allgemeingültige Eigenschaften von F X : F X (x) ist monoton wachsend Es gilt stets: lim x F X(x) = 0 und lim F X(x) = 1 x + F X ist rechtsseitig stetig, d.h. lim z x z>x F X (z) = F X (x) (vgl. Eigenschaften der empirischen Verteilungsfunktion aus der VL Statistik I) 120

124 Fazit: VF F X (x) der ZV en X gibt Antwort auf die Frage Wie hoch ist die Wahrscheinlichkeit, dass X höchstens den Wert x annimmt? Jetzt: Antwort auf die Frage Welchen Wert wird die ZV e X mit einer vorgegebenen Wahrscheinlichkeit p (0, 1) nicht überschreiten? Quantilfunktion der ZV en X 121

125 Definition 3.3: (Quantilfunktion) Gegeben sei die ZV X mit VF F X. Für jeden reellen Wert p (0, 1) versteht man unter der Quantilfunktion von X (in Zeichen: Q X (p)) die folgende Abbildung: Q X : (0, 1) R p Q X (p) = min{x F X (x) p}. Der Wert der Quantilfunktion x p = Q X (p) heißt p Quantil der ZV en X. 122

126 Bemerkungen: Das p-quantil x p ist die kleinste Zahl x R mit der Eigenschaft, dass F X (x) den Wert p erreicht oder überschreitet. Interpretiert man p (0, 1) als eine Wahrscheinlichkeit, so ist das p-quantil x p die kleinste Realisation der ZV en X, die X mit Wskt. p nicht überschreitet. Spezielle Quantile: Median: p = 0.5 Quartile: p = 0.25, 0.5, 0.75 Quintile: p = 0.2, 0.4, 0.6, 0.8 Dezile: p = 0.1, 0.2,...,

127 Frage: Warum diese scheinbar komplizierte Definition? Betrachte 3 Fälle: Stetige, streng monoton wachsende VF F X Stetige, teilweise konstante VF F X Rechtsseitig stetige Treppen-VF F X 124

128 Stetige, streng monoton wachsende Verteilungsfunktion 125

129 Stetige, teilweise konstante Verteilungsfunktion 126

130 Rechtsseitig stetige Treppen-Verteilungsfunktion 127

131 Jetzt: Typisierung von ZV en (diskrete vs. stetige ZV en) Grund: Unterschiedliche mathematische Methoden zur Behandlung von ZV en Bei diskreten ZV en: Endliche und unendliche Summen Bei stetigen ZV en: Differential- und Integralrechnung 128

132 Definition 3.4: (Diskrete Zufallsvariable) Die ZV X heißt diskret, wenn sie entweder 1. nur endlich viele Realisationen x 1, x 2,..., x J oder 2. abzählbar unendlich viele Realisationen x 1, x 2,... mit streng positiver Wahrscheinlichkeit annehmen kann, d.h. falls für alle j = 1,..., J,... gilt P (X = x j ) > 0 und J,... j=1 P (X = x j ) =

133 Typische diskrete Merkmale sind: Zählmerkmale ( X = Anzahl von... ) Codierte qualitative Merkmale Definition 3.5: (Träger einer diskreten Zufallsvariablen) Die Menge aller Realisationen, die eine diskrete ZV X mit streng positiver Wskt. annehmen kann, heißt Träger von X (in Zeichen: T X ): T X = {x 1,..., x J } bzw. T X = {x 1, x 2,...}. 130

134 Definition 3.6: (Wahrscheinlichkeitsfunktion) Für eine diskrete ZV X heißt die Funktion f X (x) = P (X = x) die Wahrscheinlichkeitsfunktion von X. Bemerkungen: [I] Die Wahrscheinlichkeitsfunktion f X der ZV X nimmt nur für die Elemente des Träger T X positive Werte an. Für Werte außerhalb des Trägers, d.h. für x / T X, gilt f X (x) = 0: f X (x) = { P (X = xj ) > 0 für x = x j T X 0 für x / T X 131

135 Bemerkungen: [II] Die Wahrscheinlichkeitsfkt. f X hat die Eigenschaften f X (x) 0 für alle x x j T X f X (x j ) = 1 Für eine beliebige Menge B R berechnet sich die Wskt. des Ereignisses {ω X(ω) B} = {X B} durch P (X B) = x j B f X (x j ) 132

136 Beispiel: [I] Betrachte 3-fachen Münzwurf und X = Anzahl Kopf Offensichtlich: X ist diskret mit dem Träger T X = {0, 1, 2, 3} Die Wahrscheinlichkeitsfunktion ist gegeben durch f X (x) = P (X = 0) = für x = 0 P (X = 1) = für x = 1 P (X = 2) = für x = 2 P (X = 3) = für x = 3 0 für x / T X 133

137 Beispiel: [II] Die Verteilungsfunktion ist gegeben durch (vgl. Folie 118) F X (x) = für x < für 0 x < für 1 x < für 2 x < 3 1 für x 3 134

138 Wahrscheinlichkeits- und Verteilungsfunktion 135

139 Offensichtlich: Für die Verteilungsfunktion gilt F X (x) = P (X x) = {x j T X x j x} =P (X=x j ) {}}{ f X (x j ) Fazit: Die VF einer diskreten ZV en X ist eine Treppenfunktion mit Sprüngen an den Stellen x j T X. Die Sprunghöhe an der Stelle x j beträgt F X (x j ) lim x xj x<x j F (x) = P (X = x j ) = f X (x j ), d.h. die Sprunghöhe ist der Wert der Wskt.-Funktion (Beziehung: Verteilungs- und Wahrscheinlichkeitsfunktion) 136

140 Jetzt: Definition von stetigen Zufallsvariablen Intuition: Im Gegensatz zu diskreten ZV en (vgl. Definition 3.4, Folie 129) sind stetige ZV e solche, die überabzählbar viele Realisationen (z.b. jede reelle Zahl in einem Intervall) annehmen können Tatsächlich: Definition stetiger ZV en komplizierter (technischer) 137

141 Definition 3.7: (Stetige ZV, Dichtefunktion) Eine ZV X heißt stetig, wenn sich ihre Verteilungsfunktion F X als Integral einer Funktion f X : R [0, ) schreiben lässt: x F X (x) = f X(t)dt für alle x R. Die Funktion f X (x) heißt Dichtefunktion [kurz: Dichte] von X. Bemerkungen: Die VF F X einer stetigen ZV en X ist (eine) Stammfunktion der Dichtefunktion f X F X (x) = P (X x) ist gleich dem Flächeninhalt unter der Dichtefunktion f X von bis zur Stelle x 138

142 Verteilungsfunktion F X und Dichte f X P(X x) = F X (x) f X (t) x t 139

143 Eigenschaften der Dichtefunktion f X : 1. Die Dichte f X ist niemals negativ, d.h. f X (x) 0 für alle x R 2. Die Fläche unter der Dichte ist gleich 1, d.h. + f X(x)dx = 1 3. Wenn F X (x) differenzierbar ist, gilt f X (x) = F X (x) 140

144 Beispiel: (Gleichverteilung über [0, 10]) [I] Gegeben sei die ZV X mit Dichtefunktion f X (x) = { 0, für x / [0, 10] 0.1, für x [0, 10] Berechnung der VF F X : [I] Für x < 0 gilt: F X (x) = x f X(t) dt = x 0 dt = 0 141

145 Beispiel: (Gleichverteilung über [0, 10]) [II] Berechnung der VF F X : [II] Für x [0, 10] gilt: F X (x) = = x f X(t) dt 0 0 dt }{{} =0 + x dt = [0.1 t] x 0 = 0.1 x = 0.1 x 142

146 Beispiel: (Gleichverteilung über [0, 10]) [III] Berechnung der VF F X : [III] Für x > 10 gilt: F X (x) = x f X(t) dt = = dt }{{} = dt + } 0 {{ } =1 x 10 0 dt }{{} =0 143

147 Verteilungsfunktion und Dichte der Gleichverteilung über [0, 10] 144

148 Jetzt: Wskt. en für Intervalle, d.h. (für a, b R, a < b) P (X (a, b]) = P (a < X b) Es gilt: P (a < X b) = P ({ω a < X(ω) b}) = P ({ω X(ω) > a} {ω X(ω) b}) = 1 P ({ω X(ω) > a} {ω X(ω) b}) = 1 P ({ω X(ω) > a} {ω X(ω) b}) = 1 P ({ω X(ω) a} {ω X(ω) > b}) 145

149 = 1 [P (X a) + P (X > b)] = 1 [F X (a) + (1 P (X b))] = 1 [F X (a) + 1 F X (b)] = F X (b) F X (a) = b f X(t) dt a f X(t) dt = b a f X(t) dt 146

150 Intervall-Wahrscheinlichkeit mit den Grenzen a und b f X (x) P(a < X b) a b x 147

151 Wichtiges Ergebnis für stetige ZV X: P (X = a) = 0 für alle a R Begründung: Fazit: P (X = a) = lim b a P (a < X b) = lim b a = a a f X(x)dx = 0 b a f X(x) dx Die Wskt., dass eine stetige ZV X einen einzelnen Wert annimmt, ist immer Null!! 148

152 Punkt-Wahrscheinlichkeit bei stetiger ZV f X (x) a b 3 b 2 b 1 x 149

153 Vorsicht: Das bedeutet nicht, dass dieses Ereignis unmöglich ist Konsequenz: Da bei stetigen ZV en für alle a R stets P (X = a) = 0 gilt, folgt für stetige ZV stets P (a < X < b) = P (a X < b) = P (a X b) = P (a < X b) = F X (b) F X (a) (Ob Intervalle offen oder geschlossen sind, spielt für die Wskt.-Bestimmung bei stetigen ZV keine Rolle) 150

154 3.2 Erwartungswert und Varianz einer Zufallsvariablen Jetzt: Beschreibung der Wskt.-Verteilung der ZV en X durch bestimmte Kenngrößen In dieser VL lediglich Betrachtung von Erwartungswert Varianz 151

155 Zunächst: Der Erwartungswert einer ZV en X ist eine Maßzahl für die Lage der Verteilung Der Erwartungswert einer ZV en X ähnelt in seiner Bedeutung dem arithmetischen Mittel einer Datenreihe (vgl. deskriptive Statistik, VL Statistik I) 152

156 Wiederholung: Für eine gegebene Datenreihe x 1,..., x n ist das arithmetische Mittel definiert als x = 1 n n i=1 x i = n i=1 ( x i 1 n ) Jeder Summand x i 1/n entspricht einem Datenpunkt relativer Häufigkeit Jetzt: Übertragung dieses Prinzips auf die ZV X 153

157 Definition 3.8: (Erwartungswert) Der Erwartungswert der ZV en X (in Zeichen: E(X)) ist definiert als E(X) = {x j T X } + x j P (X = x j ), falls X diskret ist x f X(x) dx, falls X stetig ist. Bemerkungen: [I] Der Erwartungswert der ZV en X entspricht also (in etwa) der Summe aller möglichen Realisationen jeweils gewichtet mit der Wskt. ihres Eintretens 154

158 Bemerkungen: [II] Anstelle von E(X) schreibt man häufig µ X Anstelle der Formulierung Erwartungswert der ZV en X sagt man häufig Erwartungswert der Verteilung von X Es gibt ZV en, die keinen Erwartungswert besitzen (kein Gegenstand dieser VL) 155

159 Beispiel 1: (Diskrete ZV) [I] Man betrachte den 2-maligen Würfelwurf. Die ZV X stehe für die (betragliche) Differenz der Augenzahlen. Man berechne den Erwartungswert von X Zunächst ergibt sich als Träger der Zufallsvariablen T X = {0, 1, 2, 3, 4, 5} Die Wahrscheinlichkeitsfunktion ist gegeben durch f X (x) = P (X = 0) = 6/36 für x = 0 P (X = 1) = 10/36 für x = 1 P (X = 2) = 8/36 für x = 2 P (X = 3) = 6/36 für x = 3 P (X = 4) = 4/36 für x = 4 P (X = 5) = 2/36 für x = 5 0 für x / T X 156

160 Beispiel 1: (Diskrete ZV) [II] Als Erwartungswert ergibt sich E(X) = = = Achtung: In diesem Beispiel ist E(X) eine Zahl, die die ZV X selbst gar nicht annehmen kann 157

161 Beispiel 2: (Stetige ZV) Es sei X eine stetige ZV mit der Dichte x, für 1 x 3 f X (x) = 4 0, sonst Zur Berechnung des Erwartungswertes spaltet man das Integral auf: E(X) = = + x f X(x) dx = 3 1 = 1 4 x 2 4 dx = 1 4 ( ) 1 [ ] x dx + x x dx + 0 dx 3 = =

162 Häufige Situation: Kenne ZV X mit Wskt.- oder Dichtefunktion f X Suche den Erwartungswert der transformierten ZV Y = g(x) 159

163 Satz 3.9: (Erwartungswert einer Transformierten) Gegeben sei die ZV X mit Wskt.- oder Dichtefunktion f X. Für eine beliebige (Baire)Funktion g : R R berechnet sich der Erwartungswert der transformierten ZV Y = g(x) als E(Y ) = E(g(X)) = {x j T X } + g(x j ) P (X = x j ), falls X diskret ist g(x) f X(x) dx, falls X stetig ist. 160

164 Bemerkungen: Alle Funktionen, die im VWL- und/oder BWL-Studium auftauchen, sind Baire-Funktionen Für den Spezialfall g(x) = x (die Identitätsfunktion) fällt der Satz 3.9 mit der Definition 3.8 zusammen 161

165 Rechnen mit Erwartungswerten (Teil 1): Betrachte die (lineare) Transformation Y = g(x) = a + b X mit a, b R Ist X stetig mit Dichtefunktion f X, so gilt: E(Y ) = E(a + b X) = + (a + b x) f X(x) dx = + [a f X(x) + b x f X (x)] dx = a + f X(x) dx +b } {{ } =1 + x f X(x) dx } {{ } =E(X) = a + b E(X) 162

166 Bemerkung: Der Erwartungswert ist ein linearer Operator, d.h. E(a + b X) = a + b E(X) für reelle Zahlen a, b R (Spezialfälle: a = 0, b = 0 bzw. a = 0, b = 0) 163

167 Rechnen mit Erwartungswerten (Teil 2): Betrachte die aufgespaltene Funktion Y = g(x) = g 1 (X) + g 2 (X) Ist X stetig mit Dichtefunktion f X, so gilt: E(Y ) = E[g 1 (X) + g 2 (X)] = = + [g 1(x) + g 2 (x)] f X (x) dx + g 1(x) f X (x) dx + } {{ } =E[g 1 (X)] + g 2(x) f X (x) dx } {{ } =E[g 2 (X)] = E[g 1 (X)] + E[g 2 (X)] 164

168 Bemerkung: Für diskrete ZV en sind die Herleitungen analog Satz 3.10: (Zusammenfassung) Es seien X eine beliebige ZV (stetig oder diskret), a, b R reelle Zahlen und g 1, g 2 : R R (Baire)Funktionen. Dann gelten die folgenden Rechenregeln: 1. E(a + b X) = a + b E(X). 2. E[g 1 (X) + g 2 (X)] = E[g 1 (X)] + E[g 2 (X)]. 165

169 Jetzt: Beschreibung des Streuungsverhaltens einer ZV X Wiederholung aus deskriptiver Statistik: Für eine gegebene Datenreihe x 1,..., x n ist die empirische Varianz definiert durch s 2 = 1 n n i=1 (x i x) 2 = n i=1 [ (x i x) 2 1 n ] Jeder Summand entspricht der quadratischen Abweichung des Datenpunktes x i vom arithmetischen Mittel x gewichtet mit seiner relativen Häufigkeit 166

170 Definition 3.11: (Varianz, Standardabweichung) Für eine beliebige stetige oder diskrete ZV X ist die Varianz von X [in Zeichen: V (X)] definiert als die erwartete quadrierte Abweichung der ZV von ihrem Erwartungswert E(X), d.h. V (X) = E[(X E(X)) 2 ]. Unter der Standardabweichung von X [in Zeichen: σ(x)] versteht man die (positive) Wurzel aus der Varianz, d.h. σ(x) = + V (X). 167

2. Zufallsvorgänge und Wahrscheinlichkeiten

2. Zufallsvorgänge und Wahrscheinlichkeiten 2. Zufallsvorgänge und Wahrscheinlichkeiten Ziel des Kapitels: Einführung elementarer Begriffe der Wahrscheinlichkeitsrechnung (definitorisch) Ziel der Wahrscheinlichkeitsrechnung: Modellierung von zufälligen

Mehr

1. Einleitung. 1.1 Organisatorisches. Ziel der Vorlesung: Einführung in die. Wahrscheinlichkeitsrechnung

1. Einleitung. 1.1 Organisatorisches. Ziel der Vorlesung: Einführung in die. Wahrscheinlichkeitsrechnung 1. Einleitung 1.1 Organisatorisches Ziel der Vorlesung: Einführung in die Wahrscheinlichkeitsrechnung schließende Statistik (auch: induktive Statistik) 1 Internet-Seite der Vorlesung: http://www1.wiwi.uni-muenster.de/oeew/

Mehr

2. Zufallsvariable, Verteilungsfunktion, Erwartungswert,

2. Zufallsvariable, Verteilungsfunktion, Erwartungswert, 2. Zufallsvariable, Verteilungsfunktion, Erwartungswert, momentenerzeugende Funktion Ziel des Kapitels: Mathematische Präzisierung der Konzepte Zufallsvariable Verteilungsfunktion Dichtefunktion Erwartungswerte

Mehr

3. Zufallsvariable und Verteilungen

3. Zufallsvariable und Verteilungen 3. Zufallsvariable und Verteilungen Häufige Situation in der Praxis: Es interessiert nicht so sehr das konkrete Ergebnis ω Ω eines Zufallsexperimentes, sondern eine Zahl, die von ω abhängt Beispiele: Gewinn

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 1 Vorbemerkungen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Rumpfskript Elementare Wahrscheinlichkeitsrechnung Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Vorbemerkung Vorbemerkung Das vorliegende Skript heißt nicht nur Rumpf skript, sondern

Mehr

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet Kapitel 10 Zufall und Wahrscheinlichkeit 10.1. Grundbegriffe Wahrscheinlichkeitsrechnung Zufallsvorgang Klein-Omega ω Groß-Omega Ω Stellt Modelle bereit, die es erlauben zufallsabhängige Prozesse abzuschätzen

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Eindimensionale Zufallsvariablen

Eindimensionale Zufallsvariablen Eindimensionale Grundbegriffe Verteilungstypen Diskrete Stetige Spezielle Maßzahlen für eindimensionale Erwartungswert Varianz Standardabweichung Schwankungsintervalle Bibliografie Bleymüller / Gehlert

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Statistik I (Deskriptive Statistik)

Statistik I (Deskriptive Statistik) Folien zur Vorlesung Statistik I (Deskriptive Statistik) Wintersemester 2011/2012 Donnerstag, 10.15-11.45 Uhr Hörsaal: Aula am Aasee Dr. Andrea Beccarini Westfälische Wilhelms-Universität Münster Inhalt

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Teil II. Wahrscheinlichkeitsrechnung

Teil II. Wahrscheinlichkeitsrechnung Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

Teil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129

Teil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129 Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) Teil II Wahrscheinlichkeitsrechnung 5 Zufallsexperimente Ergebnisse Ereignisse Wahrscheinlichkeiten Deskriptive Statistik und Wahrscheinlichkeitsrechnung

Mehr

Wahrscheinlichkeitstheorie

Wahrscheinlichkeitstheorie Kapitel 2 Wahrscheinlichkeitstheorie Wir betrachten Ereignisse, die in fast gleicher Form öfter auftreten oder zumindest öfter auftreten können. Beispiele: Werfen eines Würfels, Sterben an Herzversagen

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 20. April 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 18.

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Hypothesentests. 5 Regression

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Hypothesentests. 5 Regression 0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests 5 Regression Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen

Mehr

Stochastik für Ingenieure

Stochastik für Ingenieure Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:

Mehr

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis Stochastische Prozesse: Grundlegende Begriffe bei zufälligen Prozessen In diesem Abschnitt beschäftigen wir uns mit den grundlegenden Begriffen und Definitionen von Zufallsexperimenten, also Prozessen,

Mehr

1 Wahrscheinlichkeitsrechnung und Zufallsvariablen

1 Wahrscheinlichkeitsrechnung und Zufallsvariablen 1 Wahrscheinlichkeitsrechnung und Zufallsvariablen Zoltán Zomotor Versionsstand: 18. Mai 2015, 09:29 Die nummerierten Felder bitte während der Vorlesung ausfüllen. This work is licensed under the Creative

Mehr

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Inhaltsverzeichnis (Ausschnitt)

Inhaltsverzeichnis (Ausschnitt) 8 Messbarkeit und Bildwahrscheinlichkeit Inhaltsverzeichnis (Ausschnitt) 8 Messbarkeit und Bildwahrscheinlichkeit Messbare Abbildungen Bildwahrscheinlichkeit Deskriptive Statistik und Wahrscheinlichkeitsrechnung

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Institut für Biometrie und klinische Forschung. WiSe 2012/2013 Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive

Mehr

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: 24.01.2011 Autor: René Pecher Inhaltsverzeichnis 1 Permutation 1 1.1 ohne Wiederholungen........................... 1 1.2

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

Wahrscheinlichkeitsrechnung und schließende Statistik

Wahrscheinlichkeitsrechnung und schließende Statistik Karl Mosler Friedrich Schmid Wahrscheinlichkeitsrechnung und schließende Statistik Vierte, verbesserte Auflage Springer Inhaltsverzeichnis 0 Einführung 1 1 Zufalls Vorgänge und Wahrscheinlichkeiten 5 1.1

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenho Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare

Mehr

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007 . Grundlagen der Wahrscheinlichkeitstheorie. Zufallsereignisse, Ereignisraum und Ereignismenge Zufallsexperiment: nach einer bestimmten Vorschrift ausgeführter, unter gleichen edingungen beliebig oft wiederholbarer

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Basiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 stheorie: Grundbegriffe Prof. Dr. Achim Klenke http://www.aklenke.de 5. Vorlesung: 25.11.2011 1/33 Inhalt 1 Zufallsvariablen 2 Ereignisse 3 2/33 Zufallsvariablen Eine Zufallsvariable

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Unabhängigkeit von Ereignissen A, B unabhängig:

Mehr

Diskrete Zufallsvariablen (Forts.) I

Diskrete Zufallsvariablen (Forts.) I 9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig

Mehr

Diskrete Zufallsvariablen (Forts.) I

Diskrete Zufallsvariablen (Forts.) I 9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig

Mehr

Vorlesung Gesamtbanksteuerung Mathematische Grundlagen II Dr. Klaus Lukas Carsten Neundorf. Vorlesung 04 Mathematische Grundlagen II,

Vorlesung Gesamtbanksteuerung Mathematische Grundlagen II Dr. Klaus Lukas Carsten Neundorf. Vorlesung 04 Mathematische Grundlagen II, Vorlesung Gesamtbanksteuerung Mathematische Grundlagen II Dr. Klaus Lukas Carsten Neundorf 1 Was sollen Sie heute lernen? 2 Agenda Wiederholung stetige Renditen deskriptive Statistik Verteilungsparameter

Mehr

Wahrscheinlichkeitsrechnung [probability]

Wahrscheinlichkeitsrechnung [probability] Wahrscheinlichkeitsrechnung [probability] Hinweis: Die Wahrscheinlichkeitsrechnung ist nicht Gegenstand dieser Vorlesung. Es werden lediglich einige Begriffsbildungen bereitgestellt und an Beispielen erläutert,

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II

Allgemeine diskrete Wahrscheinlichkeitsräume II 6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume I

Allgemeine diskrete Wahrscheinlichkeitsräume I 6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 08.01.2009 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 32 Einführung Wahrscheinlichkeit Verteilungen

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Wahrscheinlichkeitsrechnung und schließende Statistik

Wahrscheinlichkeitsrechnung und schließende Statistik Springer-Lehrbuch Wahrscheinlichkeitsrechnung und schließende Statistik Bearbeitet von Karl Mosler, Friedrich Schmid 4., verb. Aufl. 2010. Taschenbuch. XII, 347 S. Paperback ISBN 978 3 642 15009 8 Format

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 112 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Modelle diskreter Zufallsvariablen

Modelle diskreter Zufallsvariablen Statistik 2 für SoziologInnen Modelle diskreter Zufallsvariablen Univ.Prof. Dr. Marcus Hudec Zufallsvariable Eine Variable (Merkmal) X, deren numerische Werte als Ergebnisse eines Zufallsvorgangs aufgefasst

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Statistik I für Betriebswirte Vorlesung 2

Statistik I für Betriebswirte Vorlesung 2 Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

7. Hypothesentests. Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang. X habe die unbekannte VF F X (x)

7. Hypothesentests. Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang. X habe die unbekannte VF F X (x) 7. Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von X 350 Bisher:

Mehr

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler Philipp Sibbertsen Hartmut Lehne Statistik Einführung für Wirtschafts- und Sozialwissenschaftler 2., überarbeitete Auflage 4^ Springer Gabler Inhaltsverzeichnis Teil I Deskriptive Statistik 1 Einführung

Mehr

1.5 Erwartungswert und Varianz

1.5 Erwartungswert und Varianz Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie Kapitel 4 Christoph Hindermann Vorkurs Mathematik 1 4.0 Motivation Wenn 100 Münzen geworfen werden, wie ist dann die Wahrscheinlichkeit, dass genau 50 davon Kopf zeigen? Angenommen, es befinden sich 300

Mehr

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests

Mehr

5.4 Verteilungsfunktion Verteilungsfunktion diskreten Zufallsvariablen stetigen Zufallsvariablen Verteilungsfunktion

5.4 Verteilungsfunktion Verteilungsfunktion diskreten Zufallsvariablen stetigen Zufallsvariablen Verteilungsfunktion 5. Verteilungsfunktion Die Verteilungsfunktion gibt an welche Wahrscheinlichkeit sich bis zu einem bestimmten Wert der Zufallsvarialben X kumuliert Die Verteilungsfunktion F() gibt an, wie groß die die

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

Sachrechnen/Größen WS 14/15-

Sachrechnen/Größen WS 14/15- Kapitel Daten & Wahrscheinlichkeit 3.1 Kombinatorische Grundlagen 3.2 Kombinatorik & Wahrscheinlichkeit in der Grundschule 3.3 Daten Darstellen 3.1 Kombinatorische Grundlagen Verschiedene Bereiche der

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

KAPITEL 3 DISKRETE ZUFALLSVARIABLEN UND VERTEILUNGEN

KAPITEL 3 DISKRETE ZUFALLSVARIABLEN UND VERTEILUNGEN htw saar 1 KAPITEL 3 DISKRETE ZUFALLSVARIABLEN UND VERTEILUNGEN htw saar 2 Gliederung 18.01. Was sind Zufallsvariablen? Charakteristika einer Zufallsvariablen: Verteilung, Erwartungswert und Varianz Ausgewählte

Mehr

Wie hoch ist das Risiko, dass ein System, das aus mehreren Komponenten besteht, ausfällt?

Wie hoch ist das Risiko, dass ein System, das aus mehreren Komponenten besteht, ausfällt? In diesem Kapitel werden wir den egriff Wahrscheinlichkeit und die Grundlagen der Wahrscheinlichkeitsrechnung kennenlernen, um z.. folgende Fragestellungen zu beantworten. Wie hoch ist das Risiko, dass

Mehr

Statistik für Ingenieure Vorlesung 2

Statistik für Ingenieure Vorlesung 2 Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen

Mehr

5 Binomial- und Poissonverteilung

5 Binomial- und Poissonverteilung 45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1

Mehr

Wahrscheinlichkeitsrechnung und Quantentheorie

Wahrscheinlichkeitsrechnung und Quantentheorie Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte

Mehr