Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Größe: px
Ab Seite anzeigen:

Download "Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)"

Transkript

1 Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Ein Wahrscheinlichkeitsraum (Ω, P) ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments) versehen mit einer Abbildung P : P(Ω) [0, 1] (Wahrscheinlichkeit): Jeder Teilmenge von Ω (Ereignis) wird eine Zahl zwischen 0 und 1 zugeordnet (Wahrscheinlichkeit, dass das Ereignis eintritt) mit folgenden Eigenschaften (KolmogorovAxiome): 1. P(Ω) = 1 (sicheres Ereignis), 2. P(A B) = P(A) + P(B), falls A B = (Additionsregel für unvereinbare Ereignisse). wahrscheinlichkeit13.pdf, Seite 1

2 Beispiel fairer Würfel Ω = {1,..., 6} mit P({i}) = P(i) = 1 für jede der möglichen 6 Augenzahlen i = 1, 2,..., 6. bzw. allgemeiner P(A) = 1 #A für jede Teilmenge A Ω 6 (#A bezeichnet die Anzahl der Elemente von A). Z. B. entspricht das Ereignis Augenzahl ist nicht durch 3 teilbar der Menge A = {1, 2, 4, 5} mit P(A) = 4 6 = 2 3. Für die Ereignisse B: Augenzahl durch 3 teilbar und C : Augenzahl durch 5 teilbar gilt B = {3, 6}, C = {5} B C = und B C = {3, 5, 6} und somit P(B C) = P(B) + P(C) = = 1 2 = 50%. wahrscheinlichkeit13.pdf, Seite 2

3 Folgerungen aus den KolmogorovAxiomen P(A B) = P(A) + P(B) P(A B) für beliebige A, B, P(A) P(B), falls A B (Monotonie), P(A) = 1 P(A), wobei A = A c = Ω \ A das Komplementärereignis zu A bezeichnet. P( ) = 0 (unmögliches Ereignis) Beispiel P(Augenzahl durch 2 oder 3 teilbar ) = P({2, 4, 6}) + P({3, 6}) P({6}) = = 2 3. wahrscheinlichkeit13.pdf, Seite 3

4 Bestimmung von Wahrscheinlichkeiten ist auf unterschiedliche Weise möglich. Die wichtigsten sind: durch ein Symmetrieprinzip: Ein Zufallsexperiment hat endlich viele mögliche Ausgänge, die alle als gleichwahrscheinlich angenommen werden (Beispiel Augenzahl eines Würfels). Man spricht von einem LaplaceExperiment. durch Schätzung anhand von Beobachtungen durch Berechnung ausgehend von bekannten Wahrscheinlichkeiten (Beispiel: Wahrscheinlichkeit, bei dreimaligem Würfeln mindestens eine 6 zu erhalten) wahrscheinlichkeit13.pdf, Seite 4

5 Ein Laplace-Experiment ist ein Zufallsexperiment, bei dem alle möglichen Ausgänge gleich wahrscheinlich sind. Ω ist dabei endliche Menge mit n Elementen mit P({x}) = 1 n für alle x A (Gleichverteilung). Für eine beliebige Teilmenge A Ω folgt dann P(A) = 1 n #A = 1 n mal Zahl der Elemente von A Beispiele = Zahl der günstigen durch Zahl der möglichen Fälle. fairer Würfel Münzwurf: P(Wappen) = P(Zahl) = 1 2 = 50% Ziehen einer Spielkarte aus 32: Die Wahrscheinlichkeit, dass ein Ass gezohen wird, ist 4/32 = 1 8 = 12, 5%. wahrscheinlichkeit13.pdf, Seite 5

6 Beispiel Lotto Es gibt ( 49 6 ) Möglichkeiten, 6 aus 49 Zahlen zu ziehen. Die Wahrscheinlichkeit für eine bestimmte Zahlenkombination ist damit 1/ ( 49 6 ) = 1/ < 0, 00001% (Ziehen ohne Zurücklegen ohne Berücksichtigung der Reihenfolge) Andere Urnenmodelle Mit Berücksichtung der Reihenfolge gibt es beim Ziehen von 6 aus 49 Zahlen = 49! 43! Möglichkeiten P({x}) = 43! 49! = 1/ Mit Zurücklegen (d. h. Zahlen können mehrfach gezogen werden) und Berücksichtigung der Reihenfolge gibt es 49 6 Möglichkeiten P({x}) = 49 6 = 1/ wahrscheinlichkeit13.pdf, Seite 6

7 Zwei Würfel Es gibt 36 Möglichkeiten, jede hat Wahrscheinlichkeit 1/36. Ω = {(i, j) : 1 i, j 6} mit P(i, j) = Mit A = {(2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6)} (erster Würfel 2) und B = {(1, 3), (2, 3), (3, 3), (4, 3), (5, 3), (6, 3)} (zweiter Würfel 3) ist P(A) = P(B) = 1 6 und P(A B) = P(2, 3) = 1 = P(A) P(B) 36 Unabhängigkeit A und B heiÿen unabhängig, wenn P(A B) = P(A) P(B) Interpretation: Das Eintreten von Ereignis A hat keinen Einuss auf die Wahrscheinlichkeit von B und umgekehrt. wahrscheinlichkeit13.pdf, Seite 7

8 Beispiele Mit A = Augenzahl des ersten Würfels gerade und B = Augensumme gerade ist P(A) = P(B) = 1 2 und P(A B) = 1 4, also sind die beiden Ereignisse unabhängig. Mit A = erster Würfel 4 und B = Augensumme 10 ist P(A) = 1, P(B) = 1 und 6 12 P(A B) = P(4, 6) = 1 1 1, also sind A und B nicht unabhängig. Mit A = erste gezogene Spielkarte ist ein Ass und B = zweite Karte ist ein Bube ist P(A) = P(B) = 1 und 8 P(A B) = 1 4 = 1 1 1, d. h. die beiden Ereignisse sind nicht unabhängig. wahrscheinlichkeit13.pdf, Seite 8

9 Bedingte Wahrscheinlichkeit Unabhängigkeit umformuliert: P(A B) = P(A) P(B) P(A) = P(A B)/P(B). Allgemein deniert man die bedingte Wahrscheinlichkeit von A unter B als P(A B) P(A B) =. P(B) Interpretation: Wahrscheinlichkeit für A, wenn bekannt ist, dass B eingetreten ist. Bemerkungen P(A B) ist nur deniert, wenn P(B) > 0. Falls P(A), P(B) > 0, so gilt A und B unabhängig P(A B) = P(A) P(B A) = P(B). wahrscheinlichkeit13.pdf, Seite 9

10 Beispiele bei zwei Würfeln A: Augensumme 10, B: erster Würfel 4, Dann ist P(A) = 3 36 = 1 12, P(B) = 1 6, P(A B) = 1 36 P(A B) = 1/36 1/6 = 1 6 P(A) = 1 12 sowie P(B A) = 1/36 1/12 = 1 3 P(B) = 1 6. A: Augensumme 7, B: erster Würfel 6, P(A B) = 1/36 = 1 = P(A) sowie 1/6 6 P(B A) = 1 = P(B), 6 d. h. A und B sind unabhängig. A: 6 Richtige beim Lotto, B: die ersten 5 gezogenen Zahlen stimmen, P(A B) = 1 2, 27% > P(A) sowie 44 P(B A) = 1 P(B). wahrscheinlichkeit13.pdf, Seite 10

11 Beispiel Kartenspiel (mit 32 Karten) Es werden zwei Karten (ohne Zurücklegen) gezogen. Wie groÿ ist die Wahrscheinlichkeit, dass zwei Asse gezogen werden? Mit A = erste Karte ist ein Ass und B = zweite Karte ist ein Ass ist P(A) = 4 32 = 1 8 und P(B A) = 3 31 (da unter der Annahme, dass A eingetreten ist, unter den verbleibenden 31 Karten noch 3 Asse sind). Daraus kann jetzt die gesuchte Wahrscheinlichkeit berechnet werden: P(A B) = P(A) P(B A) = 1 3 = 3 0, 012 = 1, 2% wahrscheinlichkeit13.pdf, Seite 11

12 Totale Wahrscheinlichkeit Sind A und B Ereignisse, so gilt B = (A B) (A B) sowie (A B) (A B) =. Aus den KolmogorovAxiomen folgt daher P(B) = P(A B) + P(A B) = P(A) P(B A) + P(A) P(B A). Allgemeiner gilt P(B) = n k=1 P(A k) P(B A k ), wenn Ω = A 1... A n mit A i A j = eine Zerlegung des Wahrscheinlichkeitsraumes ist. Im letzten Kartenbeispiel Mit P(B A) = 4 31 erhält man P(B) = P(A) P(B A) + P(A) P(B A) = = 1 8. wahrscheinlichkeit13.pdf, Seite 12

13 Weiteres Beispiel Es werden s untersucht, die zum Teil Spam sind. Betrachtet werden die Ereignisse S =Mail ist Spam sowie G =Mail enthält das Wort Gewinn Aus Erfahrungswerten seien folgende Wahrscheinlichkeiten bekannt: P(S) = 0, 25, P(G S) = 0, 19 und P(G S) = 0, 01, d. h. jede 4. Mail ist Spam und 19% aller Spammails sowie 1% aller NichtSpamMails enthalten das Wort Gewinn. Es folgt P(G) = P(S) P(G S) + P(S) P(G S) = 0, 055, also enthalten 5, 5% aller Mails das Wort Gewinn. wahrscheinlichkeit13.pdf, Seite 13

14 Formel von Bayes Nach Denition der bedingten Wahrscheinlichkeit gilt für Ereignisse A und B P(A B) = P(A) P(B A) sowie P(A B) = P(B) P(A B) Durch Gleichsetzen dieser beiden Ausdrücke erhält man mit der Formel der totalen Wahrscheinlichkeit den Satz von Bayes: P(A B) = P(A) P(B A) P(B) = P(A) P(B A) P(A) P(B A) + P(A) P(B A), bzw. bei einer Zerlegung Ω = A 1... A n P(A k B) = P(A k) P(B A k ) n i=1 P(A i) P(B A i ). wahrscheinlichkeit13.pdf, Seite 14

15 Anwendung: Bayes'scher Spamlter Im letzten Beispiel: P(S) = 0, 25 (25% SpamMails), P(G S) = 0, 19 (19% davon enthalten das Wort Gewinn) P(G S) = 0, 01 (1% der übrigen Mails enthalten das Wort Gewinn) Dann folgt P(S G) = = P(S) P(G S) P(S) P(G S) + P(S) P(G S) 0, 25 0, 19 0, 864, 0, 25 0, , 75 0, 01 d. h. eine Mail mit dem Wort Gewinn ist zu 86, 4% Spam. wahrscheinlichkeit13.pdf, Seite 15

16 Zuvallsvariablen (Teschl/Teschl Kap. 27) Eine (reellwertige) Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, P) ist eine Abbildung X : Ω R, d. h. jedem Elementarereignis ω Ω wird eine reelle Zahl X (ω) zugeordnet. Damit ist jeder Teilmenge A R eine Wahrscheinlichkeit P(X A) = P({ω Ω : X (ω) A}) zugeordnet. Man spricht von von der Wahrscheinlichkeitsverteilung (oder kurz Verteilung) von X. wahrscheinlichkeit13.pdf, Seite 16

17 Ereignisse Ein Ereignis entspricht jetzt einer Teilmenge A R, der die Wahrscheinlichkeit P(X A) zugeordnet wird. Ist A = [a, b] ein Intervall, so schreibt man P(X [a, b]) = P(a X b). Beispiel Augensumme von zwei Würfeln Gegeben Ω = {1,..., 6} {1,..., 6} = {(i, j) : 1 i, j 6} mit P(i, j) = 1 für alle (i, j) (Gleichverteilung). 36 Die Augensumme wird beschrieben durch die Zuvallsvariable X (i, j) = i + j für alle (i, j) Ω. Mit A : Augensumme 10 ist dann z. B. P(X A) = P(X 10) = P{ω : X (ω) 10} = P{(4, 6), (5, 5), (5, 6), (6, 4), (6, 5), (6, 6)} = 6 36 = 1 6 wahrscheinlichkeit13.pdf, Seite 17

18 Bemerkungen In Anwendungen beschreiben Zufallsvariablen in der Regel beobachtete bzw. zu untersuchende Zufallsgröÿen, während der zugrunde liegende Wahrscheinlichkeitsraum im Hintergrund den Mechanismus modelliert, der die Wahrscheinlichkeiten festlegt. In der Praxis werden oft nur Zufallsvariablen und ihre Verteilung betrachtet, ohne dass dazu ein Wahrscheinlichkeitsraum explizit angegeben wird. Die Verteilung einer Zufallsvariable X entspricht einer Wahrscheinlichkeitsfunktion P mit R als Wahrscheinlichkeitsraum, die Teilmengen A R Wahrscheinlichkeiten P(A) = P(X A) zuordnet, welche den KolmogorovAxiomen genügen. wahrscheinlichkeit13.pdf, Seite 18

19 Diskrete Zufallsvariablen Eine Zufallsvariable heiÿt diskret, wenn sie nur endlich oder abzählbar viele Werte x 1, x 2, x 3,... annimmt mit p i = P(X = x i ) > 0 und P(X = x i ) = 1 i (im Fall von abzählbar unendlich vielen Werten handelt es sich bei der Summe formal um eine unendliche Reihe). Die Verteilung von X ist durch die p i = P(X = x i ) eindeutig festgelegt. Beispiel Die Augenzahl X eines fairen Würfels nimmt die Werte 1, 2, 3, 4, 5 und 6 an mit P(X = 1) = P(X = 2) = P(X = 3) = P(X = 4) = P(X = 5) = P(X = 6) = 1 6. wahrscheinlichkeit13.pdf, Seite 19

20 Weitere Beispiele Die Augensumme von zwei Würfeln ist eine diskrete Zufallsvariable mit Werten 2, 3,..., 12. Z. B. ist P(X = 2) = 1 36 und P(X = 7) = 6 36 = 1 6. Man würfelt mit einem Würfel so lange, bis die erste Sechs fällt. Gibt X die benötigte Zahl der Würfe an, so ist p i = P(X = i) = 1 ( ) i für i 1 6 Begründung: X = i bedeutet dass die ersten i 1 Würfe keine Sechs sind,wofür die Wahrscheinlichkeit ( 5 i 1 6) ist, und im iten Wurf dann eine Sechs fällt, wofür die Wahrscheinlichkeit 1 ist. Unter der Annahme, dass die 6 einzelnen Augenzahlen unabhängig sind, erhält man die Gesamtwahrscheinlichkeit als Produkt. Man spricht von einer geometrischen Verteilung. wahrscheinlichkeit13.pdf, Seite 20

21 Bemerkung zur geometrischen Verteilung ) i 1 mit P(X = i) = 1 ( X kann beliebige Werte i N annehmen, es handelt sich somit um eine diskrete Verteilung mit abzählbar unendlich vielen Werten. Betrachtet man die Summe über alle Einzelwahrscheinlichkeiten, so erhält man die aus unendlich vielen Summanden bestehende Summe (Reihe) P(X = 1) + P(X = 2) + P(X = 3) + P(X = 4) +... = ( ) ( ) +... [ = ( ) ( ] ) +... wahrscheinlichkeit13.pdf, Seite 21

22 Fortsetzung geometrische Verteilung Beim Ausdruck in eckigen Klammern handelt es sich um eine geometrische Reihe der Form k=0 qk = 1 + q + q = lim n (1 + q + q q n ) = lim n 1 q n+1 1 q = 1 1 q mit q = 5 (die vorletzte Gleichheit kann durch vollständige 6 Induktion nach n bewiesen werden). Es folgt, dass der Klammerausdruck den Wert hat = 1 1/6 = 6 Die Gesamtsumme der Wahrscheinlichkeiten beträgt somit 1 6 = 1, womit gezeigt ist, dass es sich tatsächlich um eine 6 Wahrscheinlichkeitsverteilung handelt. wahrscheinlichkeit13.pdf, Seite 22

23 Graphische Darstellung Die Verteilung einer diskreten Zufallsvariable kann graphisch in einem Stabdiagramm dargestellt werden. Verteilung der Augensumme zweier Würfel. wahrscheinlichkeit13.pdf, Seite 23

24 Geometrische Verteilung Verteilung der Anzahl X der bis zur ersten Sechs benötigten Würfe. wahrscheinlichkeit13.pdf, Seite 24

25 Bemerkung Die Verteilung einer diskreten Zufallsvariable deniert eine Wahrscheinlichkeitsfunktion auf der endlichen (oder abzählbaren) Menge M = {x 1, x 2, x 3,...} R. In den meisten Anwendungen ist M eine Teilmenge der ganzen Zahlen. Für eine beliebige Teilmenge A R gilt dann P(X A) = P(A M) = x i A P(X = x i), wobei die Summe über diejenigen i gebildet wird, für die x i A liegt. Beispiel: Ist X die Augenzahl eines (fairen) Würfels, so gilt für das Intervall A = ( 2; 3) P(X A) = P( 2 < X < 3) = P(X = 1) + P(X = 2) = = 1 3. wahrscheinlichkeit13.pdf, Seite 25

26 Stetige Zufallsvariablen In vielen Anwendungen (z. B. bei der Modellierung zufälliger Zeiten, Längen etc.) ist es sinnvoll, Zufallsgröÿen zu betrachten, die beliebige Werte in einem reellen Intervall annehmen können. In solchen Fällen kann die Verteilung nicht mehr durch die Wahrscheinlichkeit P(X = x i ) einzelner Punkte festgelegt werden. Man spricht von einer stetigen Zufallsvariablen X, wenn einzelne Punkte die Wahrscheinlichkeit Null haben, d. h. P(X = x) = 0 für alle x R gilt. wahrscheinlichkeit13.pdf, Seite 26

27 Beispiel Die Gleichverteilung im Intervall [0, 1] ist dadurch charakterisiert, dass die Wahrscheinlichkeit, dass X einen Wert in einem Teilintervall annmimmt, gleich der Länge dieses Teilintervalls ist: P(X [a, b]) = b a für alle a, b mit 0 a b 1. So ist z. B. die Wahrscheinlichkeit, dass eine in [0; 1] gleichverteilte Zufallsvariable X einen Wert zwischen 0,25 und 0,4 annimmt, gleich 0, 15 = 15%. (15% aller reellen Zahlen zwischen aus dem Intervall [0; 1] liegen zwischen 0,25 und 0,4.) wahrscheinlichkeit13.pdf, Seite 27

28 Dichten Bei stetigen Zufallsvariablen X kann die Wahrscheinlichkeit eines Teilintervalls oft als Fläche unter einem Funktionsgraphen f (x) interpretiert werden. Eine solche Funktion f heiÿt Dichte der Wahrscheinlichkeitsverteilung von X. Denition Eine Wahrscheinlichkeitsdichte ist eine Funktion f : R R mit folgenden Eigenschaften: f : R R ist stückweise stetig f (x) 0 f ist auf (, ) uneigentlich integrierbar mit f (x) dx = 1. wahrscheinlichkeit13.pdf, Seite 28

29 Dichte einer Zufallsvariable Eine Zufallsvariable X hat die Dichte f, wenn für alle a, b R mit a b gilt Beispiel P(X [a, b]) = P(a X b) = b a f (x) dx. Die auf [0, 1] gleichverteilte Zufallsvariable X hat die Dichte { 1 für 0 x 1 f (x) =. 0 sonst Bemerkung Hat X die Dichte f, so folgt P(X = a) = a f (x) dx = 0 für a alle a R, d. h. nur stetige Zufallsvariablen können eine Dichte haben. Auÿerdem folgt P(X [a, b]) = P(X (a, b)) = P(a < x < b) für alle a < b. wahrscheinlichkeit13.pdf, Seite 29

30 Beispiel Gleichverteilung Die Gleichverteilung auf dem Intervall [a, b] hat die Dichte f (x) = { 1 b a für a < x < b 0 für x < a und für x > b Der Funktionswert von f an den Unstetigkeitsstellen x = a und x = b kann dabei beliebig deniert werden. Beispiel Normalverteilung Die StandardNormalverteilung hat die Dichte f (x) = 1 2π e x 2 /2 für x R (Gauÿsche Glockenkurve) wahrscheinlichkeit13.pdf, Seite 30

31 Dichte der StandardNormalverteilung Die gelbe Fläche entspricht der Wahrscheinlichkeit, dass eine standardnormalverteilte Zufallsvariable einen Wert zwischen a und b annimmt. wahrscheinlichkeit13.pdf, Seite 31

32 Exponentialverteilung Die Exponentialverteilung mit Parameter k > 0 hat die Dichte { ke f (x) = kx für für x < 0 Dichte f (x) mit Parameter k = 3, die markierte Fläche 2 entspricht der Wahrscheinlichkeit, dass eine Zufallsvariable mit Dichte f (x) einen Wert zwischen 1 und 2 annimmt. wahrscheinlichkeit13.pdf, Seite 32

33 Beispiel zur Berechnung der Wahrscheinlichkeiten Ist die Zufallsvariable X exponentialverteilt mit Parameter k = 3, so ist die Wahrscheinlichkeit, dass X einen Wert 2 zwischen 1 und 2 annimmt P(1 X 2) = P(1 < X < 2) = 2 1 f (x) dx = 2 = e 3 x 2 2 = e 3 + e 3/2 0, , 22 = 17% e x 2 dx (Stammfunktion mit linearer Substitution). Analog erhält man P(X 2) = 2 Bemerkung 3 2 e 3 x 2 dx = e 3 x 2 2 = 0 + e 3 5% Durch die Exponentialverteilung kann die Lebensdauer von Bauteilen modelliert werden, die keinem Verschleiÿ unterliegen. wahrscheinlichkeit13.pdf, Seite 33

34 Der Erwartungswert einer diskreten Zufallsvariable X ist deniert als µ = EX = E(X ) = x i P(X = x i ), i d. h. die Summe wird gebildet über alle möglichen Werte der Zufallsvariablen, die mit ihrer jeweiligen Wahrscheinlichkeit multipliziert werden. Interpretation: Der Erwartungswert entspricht dem durchschnittlichen Wert, den eine Zufallsgröÿe annimmt. Beispiele Erwartungswert der Augenzahl eines Würfels: EX = = 3 1 2, Augensumme zweier Würfel: EX = = wahrscheinlichkeit13.pdf, Seite 34

35 Bemerkung Im Fall einer diskreten Zufallsvariablen mit unendlich vielen Werten führt die Berechnung des Erwartungswertes auf eine unendliche Reihe, d. h. eine Summe mit unendlich vielen Summanden, die als Grenzwert deniert ist. Dieser Grenzwert existiert nicht in allen Fällen. Somit ist der Erwartungswert einer diskreten Zufallsvariable nur dann deniert, wenn der entsprechende Grenzwert existiert (die Reihe konvergiert). wahrscheinlichkeit13.pdf, Seite 35

36 Beispiel Wie oft muss man durchschnittlich würfeln, bis die erste 6 fällt? Antwort: 6 mal, denn: Für die Anzahl X der benötigten Würfe gilt P(X = i) = 1 6 ( 5 6) i 1 für i = 1, 2, 3,... Für den Erwartungswert folgt EX = 1 1 ( ) ( = i=1 i 1 6 ( 5 6 ) ( 5 ) i 1 = 1 6 i=1 i ( 5 6) i 1 6) = 1 36 = 6. 6 Dabei wurde benutzt, dass für jede reelle Zahl x mit x < 1 gilt i=1 i x i 1 = lim n (1 + 2x + 3x (n 1) x n ) = 1 (1 x) 2 Diese Identität kann mit durch Betrachtung von Potenzreihen hergeleitet werden. wahrscheinlichkeit13.pdf, Seite 36

37 Erwartungswert einer Zufallsvariable mit Dichte Hat X die Dichte f, so ist der Erwartungswert deniert als µ = EX = E(X ) = falls das uneigentliche Integral existiert. Beispiel x f (x) dx, Ist X gleichverteilt in [0; 1], so erhält man mit der Dichte f (x) = 1 für 0 x 1 und f (x) = 0 sonst EX = x f (x) dx = 1 0 x 1 dx = 1 2 x = = 1 2 wahrscheinlichkeit13.pdf, Seite 37

38 Bemerkung Nicht jede Zufallsvariable hat einen Erwartungswert. Voraussetzung dafür ist, dass die entsprechende Reihe bzw. das uneigentliche Integral konvergiert. Beispiel Wegen dx = arctan x 1+x 2 = π 2 π 2 = π ist f (x) = 1 1 eine Wahrscheinlichkeitsdichte. Eine π 1+x 2 Zufallsvariable X mit der Dichte f (x) heiÿt Cauchyverteilt. Da das Integral x f (x) dx = x dx = 1 1+x ln(1 + x 2 ) 2 2 divergiert, ist der Erwartungswert einer Cauchyverteilten Zufallsvariable nicht deniert. wahrscheinlichkeit13.pdf, Seite 38

39 Beispiel: Erwartungswert der Exponentialverteilung Ist X exponentialverteilt mit Parameter k = 1, so liefert die 5 Dichte f (x) = 1 5 e x/5 für x 0 sowie f (x) = 0 für x < 0 mit partieller Integration EX = x f (x) dx = 1 5 = 1 x 5 ( 5e x/5 ) 0 0 x e x/5 dx ( 0 e x/5 dx ) = 0 + ( 5e x/5) = = 5 Allgemeiner 0 Ist X exponentialverteilt mit Parameter k, so ist EX = 0 x ke kx dx = lim b ( xe kx 1k e kx ) b 0 = 1 k wahrscheinlichkeit13.pdf, Seite 39

40 Linearität des Erwartungswertes Sind X und Y Zufallsvariablen und ist c R, so gilt E(X + Y ) = E(X ) + E(Y ) sowie E(cX ) = ce(x ). Beispiel zwei Würfel: Stellen X und Y die Augenzahl jeweils eines Würfels dar, so gilt für die Augensumme E(X + Y ) = EX + EY = 3, 5 + 3, 5 = 7. Verallgemeinerung E(c 1 X c n X n ) = c 1 EX c n EX n für Zufallsvariablen X 1,..., X n und c 1,..., c n R. Monotonie des Erwartungswertes X Y EX EY. wahrscheinlichkeit13.pdf, Seite 40

41 Satz Ist X eine Zufallsvariable und g : R R eine (stetige) Funktion, so ist durch g(x ) = g X : Ω R wieder eine Zufallsvariable deniert. Für deren Erwartungswert gilt { i Eg(X ) = g(x i) P(X = x i ), g(x) f (x) dx, falls X diskret ist, falls X die Dichte f hat Beispiel: (1) Ist X die Augenzahl eines Würfels, so gilt E (X 2 ) = = 91 = 15, (2) Ist X gleichverteilt in [0; 1], so ist EX 3 = 1 0 x 3 dx = 1 4 x = 1 4 wahrscheinlichkeit13.pdf, Seite 41

42 Varianz Die Varianz (mittlere quadratische Abweichung) Var(X ) = V (X ) = σ 2 einer Zufallsvariable X ist ein Maÿ für die Streuung der Werte von X um dem Erwartungswert µ = E(X ). Sie ist deniert als σ 2 = σ 2 X = Var(X ) = E(X µ) 2 = E ( X 2) (EX ) 2 0. Die Standardabweichung ist deniert als σ = σ X = Var(X ). Bemerkung Die Varianz σ 2 einer diskreten Zufallsvariable mit Erwartungswert µ kann auf zweierlei Weise berechnet werden: [ ] σ 2 = E(X 2 ) µ 2 = i P(X = x i) xi 2 µ 2 oder σ 2 = E(X µ) 2 = i P(X = x i) (x i µ) 2 Beide Rechnungen liefern (natürlich) das selbe Ergebnis. wahrscheinlichkeit13.pdf, Seite 42

43 Beispiel Für die Varianz der Augenzahl eines fairen Würfels erhält man σ 2 = E(X 2 ) (EX ) 2 ) 1 ( ( ) = = = 35 = 2, σ 2 = E(X µ) 2 = ( i P(X = x i) (x i µ) 2 = 1 (1 3, 5) 2 + (2 3, 5) 2 + (3 3, 5) 2 6 ) + (4 3, 5) 2 + (5 3, 5) 2 + (6 3, 5) 2 = 1 6 = 1 6 (6, , , , , , 25) 17, 5 = Die Standardabweichung wird dann in jedem Fall als σ = σ 2 und hat den Wert σ = σ 2 1, 708. wahrscheinlichkeit13.pdf, Seite 43

44 Weiteres Beispiel Beim Werfen eines Würfels betrage der Gewinn 6 Euro bei einer gewürfelten 6 und 2 Euro, falls die gewürfelte Augenzahl ungerade (d. h. 1, 3 oder 5) ist. Bei einer 2 oder 4 ist der Gewinn Null. Ist X die Zufallsvariable, die den Gewinn beschreibt, so kann X die Werte 0, 2 und 6 annehmen mit P(X = 6) = 1 6, P(X = 2) = 3 6 = 1 2 und P(X = 0) = 2 6 = 1 3. Es folgt µ = EX = = 2 Der Erwartungswert des Gewinns entspricht einem fairen Einsatz, bei dem keiner der beteiligten Spieler einen strukturellen Vorteil hätte. wahrscheinlichkeit13.pdf, Seite 44

45 Fortsetzung Beispiel Zur Berechnung der Varianz σ 2 des Gewinns kann zunächst E(X 2 ) berechnet werden: E(X 2 ) = = = 8 σ 2 = E(X 2 ) µ 2 = = 4. Alternativ kann gerechnet werden σ 2 = E(X µ) 2 = 1(0 3 2)2 + 1(2 2 2)2 + 1 (6 2)2 6 = = 12 3 = 4 Für die Standardabweichung gilt σ = 4 = 2. wahrscheinlichkeit13.pdf, Seite 45

46 Varianz von Zufallsvariablen mit Dichte f (x) Auch hier gibt es analog zwei Rechenwege: σ 2 = E(X 2 ) (EX ) 2 = x 2 f (x) dx µ 2 oder σ 2 = E(X µ) 2 = (x µ)2 f (x) dx Beispiel Gleichverteilung Ist X die Gleichverteilung { im Intervall [0; 10], so hat X die 1, falls 0 x 10, Dichte f (x) = 10 0, falls x < 0 oder x > 10 Es folgt µ = EX = 10 0 x 0, 1 dx = 1 20 x = 5 0 = 5. wahrscheinlichkeit13.pdf, Seite 46

47 Berechnung der Varianz im Beispiel Mit E(X 2 ) = erhält man 10 0 x 2 0, 1 dx = x 3 10 = = 33, 3 σ 2 = V (X ) = E(X 2 ) µ 2 = 33, = 25 3 Alternativ rechnet man (mit linearer Substitution) σ 2 = E(X µ) 2 = 10 0 = 8, 3. (x 5) dx = 1 30 (x 5)3 10 = ( 53 ) = = Die Standardabweichung ist σ = = , wahrscheinlichkeit13.pdf, Seite 47

48 Weiteres Beispiel Ist X exponentialverteilt mit Parameter k = 1, so ist EX = 1 k = 1 und E(X 2 ) = 0 x 2 e x dx = (x 2 + 2x + 2) e x = 0 ( 2) = 2 (mit zweimaliger partieller Integration) Es folgt V (X ) = E(X 2 ) (EX ) 2 = 2 1 = 1 Bemerkung Ebenso wie nicht jede Zufallsvariable einen Erwartungswert hat, hat auch nicht jede Zufallsvariable eine endliche Varianz. Die Varianz ist nur deniert, wenn der Erwartungswert µ = EX deniert ist und EX 2 endlich ist, d. h. die zugehörige Summe bzw. das uneigentliche Integral konvergiert. 0 wahrscheinlichkeit13.pdf, Seite 48

49 Varianz transformierter Zufallsvariablen Für eine Zufallsvariable X und eine Konstante d R gilt V (X + d) = V (X ), d. h. eine Verschiebung ändert die Varianz nicht. Weiter gilt für c R V (c X ) = c 2 V (X ), d. h. eine Skalierung um den Faktor c wirkt sich quadratisch auf die Varianz aus, die Standardabweichung ändert sich entsprechend um den Faktor c. Allgemein gilt damit V (c X + d) = c 2 V (X ) für c, d, R. wahrscheinlichkeit13.pdf, Seite 49

50 Beispiel Ist X die Augenzahl eines Würfels und beträgt der Gewinn G = 5X 18 die fünache Augenzahl minus einem Einsatz von 18 Euro, so ist die Varianz des Gewinns V (G) = V (5X 18) = 5 2 V (X ) = , 9, 12 die Standardabweichung ist σ = V (X ) 8, 54. Dabei hat der Einsatz keinen Einuss auf Varianz und Standardabweichung. Standardisierung Ist X eine Zufallsvariable mit Erwartungswert EX = µ und Varianz V (X ) = σ 2, so hat die standardisierte Zufallsvariable Z = X µ σ Erwartungswert 0 und Varianz 1. wahrscheinlichkeit13.pdf, Seite 50

51 Weiteres Beispiel Ist X gleichverteilt in [0; 1], so ist EX = 1 2 und E(X 2 ) = 1 0 x 2 dx = 1 3 V (X ) = 1 3 ( 1 2) 2 = Für beliebige a, b R ist die Zufallsvariable Y = a + (b a) X gleichverteilt im Intervall [a, b], Es ist EY = a + (b a) 1 2 = b a 2 und V (Y ) = (b a)2 12. Insbesondere ist für b = a = 3 die im Intervall [ 3; 3] gleichverteilte Zufallsvariable Z = X 1 2 = 12 X 1 1/ = X standardisiert. wahrscheinlichkeit13.pdf, Seite 51

52 Unabhängigkeit Zwei Zufallsvariablen X und Y sind unabhängig, wenn für beliebige Teilmengen A, B R gilt P(X A und Y B) = P(X A) P(Y B). Satz X und Y sind genau dann unabhängig, wenn für alle x, y R gilt P(X x und Y y) = P(X x) P(Y y). Zwei diskrete Zufallsvariablen X und Y sind genau dann unabhängig, wenn für alle x, y gilt P(X = x und Y = y) = P(X = x) P(Y = y). Sind X und Y unabhängig, so auch g(x ) und h(y ) für Funktionen g und h. wahrscheinlichkeit13.pdf, Seite 52

53 Bemerkung In Anwendungen muss die Unabhängigkeit von Zufallsvariablen in der Regel nicht nachgerechnet werden, sondern ist eine Konsequenz von Modellannahmen. Wenn aus dem Modell hervorgeht, dass der Wert einer Zufallsvariable X keinen Einuss auf die Verteilung einer anderen Zufallsvariablen Y hat, so werden X und Y als unabhängig angenommen. Beispiel Bezeichnen X und Y die jeweiligen Augenzahlen zweier Würfel, so werden sie (in der Regel) als unabhängig vorausgesetzt. Unter dieser Annahme lassen sich dann weitere Wahrscheinlichkeiten wie z. B. die Verteilung der Augensumme X + Y berechnen. wahrscheinlichkeit13.pdf, Seite 53

54 Satz Sind X und Y unabhängig, so gilt E(X Y ) = E(X ) E(Y ) sowie V (X + Y ) = V (X ) + V (Y ). Beispiel Die Augensumme zweier Würfel hat die Varianz und die Standardabweichung σ = 2, (da die Augenzahl eines Würfels Varianz hat). Warnungen = Während E(X + Y ) = EX + EY für beliebige Zufallsvariablen gilt, setzten die Gleichungen E(X Y ) = EX EX und V (X + Y ) = V (X ) + V (Y ) die Unabhängigkeit von X und Y voraus. Da die Standardabweichung mit Hilfe der nichtlinearen Wurzelfunktion berechnet wird, gilt nicht σ X +Y = σ X + σ Y wahrscheinlichkeit13.pdf, Seite 54

55 Erweiterung Sind X 1, X 2,..., X n unabhängige Zufallsvariablen, so gilt V (X 1 + X X n ) = V (X 1 ) + V (X 2 ) V (X n ) Beispiel Die Augensumme von 12 Würfeln hat Erwartungswert 12 3, 5 = 42, Varianz = 35 und 12 Standardabweichung 35 5, 916. Die Augensumme von 420 Würfeln hat Erwartungswert 1470, Varianz 1225 und Standardabweichung 35. Betrachtet man dagegen die 12fache Augenzahl 12X eines Würfels, so gilt für die Varianz V (12X ) = 12 2 V (X ) = 420 und die Standardabweichung σ 12X = , 49. wahrscheinlichkeit13.pdf, Seite 55

56 Beispiel: 2 Würfel Beschreiben X und Y die Augenzahl jeweils eines Würfels, so folgt aus der Unabhängigkeit, dass für das Produkt XY der Augenzahlen gilt E(XY ) = E(X ) E(Y ) = 3, 5 2 = 12, 25 Ist Z die Zufallsvariable mit { 1, falls beide Augenzahlen gerade, Z =, so sind X und Z 0 sonst nicht unabhängig. Es ist EZ = 0 P(Z = 0) + P(Z = 1) = = E(X Z) bestimmt man wie folgt: Mit Wahrscheinlichkeit jeweils 1 ist X Z = 2, 4 bzw. 6 (erster Würfel 2, 4 oder 6 12 und zweiter Würfel gerade), in allen anderen Fällen ist X Z = 0. Es folgt E(X Z) = = 1 E(X ) E(Z) wahrscheinlichkeit13.pdf, Seite 56

57 Die Kovarianz zweier beliebiger Zufallsvariablen X und Y ist deniert als Cov(X, Y ) = E(X Y ) E(X ) E(Y ) Sind X und Y unabhängig, so ist E(XY ) = E(X ) E(Y ) Cov(X, Y ) = 0. Die Umkehrung gilt nicht allgemein, zwei Zufallsvariablen mit Kovarianz 0 müssen nicht unabhängig sein. X und Y heiÿen unkorreliert, falls Cov(X, Y ) = 0, positiv korreliert, falls Cov(X, Y ) > 0 und negativ korreliert, falls Cov(X, Y ) < 0. wahrscheinlichkeit13.pdf, Seite 57

58 Satz Für beliebige Zufallsvariablen X und Y gilt V (X + Y ) = V (X ) + V (Y ) + 2Cov(X, Y ) Cov(X, Y ) 2 V (X ) V (Y ) mit Gleichheit genau dann, wenn eine der beiden Zufallsvariablen konstant ist oder es Konstanten c, d R gibt, sodass Y = cx + d. Der Korrelationskoezient zweier Zufallsvariablen mit X und Y mit Standardabweichungen σ X und σ Y ist deniert als ρ(x, Y ) = ρ XY = Cov(X, Y ) σ X σ Y wahrscheinlichkeit13.pdf, Seite 58

59 Beispiel X und Y bezeichnen die Augenzahlen zweier Würfel, Z die Zufallsvariable mit Z = 1 falls beide Augenzahlen gerade sind und Z = 0 sonst. Dann ist Cov(X, Z) = E(XZ) E(X )E(Z) = = 1 8 Folglich sind X und Z positiv korreliert. Mit V (X ) = und V (Z) = 3 16 folgt weiter = 0, 125. ρ XY = = , 169 wahrscheinlichkeit13.pdf, Seite 59

60 Eigenschaften Cov(X, Y ) 2 V (X ) V (Y ) besagt, dass der Korrelationskoezient immer zwischen 1 und 1 liegt. ρ XY = 1 bedeutet eine positive lineare Korrelation der Form Y = cx + d mit c > 0, ρ XY = 1 eine negative lineare Korrelation Y = cx + d mit c < 0. Ein Korrelationskoezient nahe 1 oder 1 bedeutet, dass zwischen X und Y annähernd ein linearer Zusammenhang besteht. Mit den standardisierten Zufallsvariablen ˆX = X EX σ X Ŷ = Y EY ist σ Y ρ XY = Cov( ˆX, Ŷ ) = ρ( ˆX, Ŷ ). und wahrscheinlichkeit13.pdf, Seite 60

61 Verteilungsfunktion Ist X eine Zufallsvariable mit der Dichte f (x), so ist F (x) = x f (ξ) dξ eine Stammfunktion von f (x). Damit gilt für a, b R mit a < b P(a < X < b) = P(a X b) = b a f (x) dx = F (b) F (a). Die oben denierte Funktion F (x) heiÿt Verteilungfunktion der stetigen Zufallsvariale X. Für x R ist F (x) = x f (ξ) dξ = P(X x). Beispiel Eine in [0, 1] gleichverteilte Zufallsvariable hat die Verteilungsfunktion 0 für x 0, F (x) = x für 0 < x < 1, 1 für x 1 wahrscheinlichkeit13.pdf, Seite 61

62 Verteilungsfunktion F (x) einer im Intervall [0, 1] gleichverteilten Zufallsvariable wahrscheinlichkeit13.pdf, Seite 62

63 Weitere Beispiele Eine in [a, b] gleichverteilte Zufallsvariable hat die Verteilungsfunktion F (x) = 0 für x a, x a b a für a < x < x, 1 für x b Eine exponentialverteilte Zufallsvariable mit Parameter k > 0 hat die Verteilungsfunktion F (x) = x 0 ke kξ dξ = 1 e kx für x 0 Für die Verteilungsfunktion Φ(x) = x 1 2π e ξ2 /2 dξ de Standardnormalverteilung lässt sich kein expliziter Ausdruck angeben. wahrscheinlichkeit13.pdf, Seite 63

64 Verteilungsfunktion der Exponentialverteilung F (x) = 1 e kx für k = 5, k = 1 und k = 0, 2. wahrscheinlichkeit13.pdf, Seite 64

65 Verteilungsfunktion der Standardnormalverteilung wahrscheinlichkeit13.pdf, Seite 65

66 Verteilungsfunktion einer diskreten Zufallsvariable Durch F (x) = P(X x) kann die Verteilungsfunktion für beliebige reellwertige, also auch diskrete, Zufallsvariablen deniert werden. Beispiel Augensumme X zweier Würfel Ist x < 2, so gilt F (x) = P(X x) = 0. Für 2 x < 3 ist F (x) = P(X x) = P(X = 2) = Für 3 x < 4 ist F (x) = P(X x) = P(X = 2) + P(X = 3) = 3 36 = Für x 12 ist F (x) = P(X 12) = 1. Somit hat F (x) an den Stellen x = 2, 3, 4,..., 12 jeweils eine Sprungstelle und ist zwischen diesen Sprungstellen konstant. wahrscheinlichkeit13.pdf, Seite 66

67 Verteilungsfunktion Augensumme zweier Würfel F (x) hat Sprungstellen an den Stellen x = 2, 3, 4,..., 12 und ist auf den Intervallen dazwischen jeweils konstant. wahrscheinlichkeit13.pdf, Seite 67

68 Eigenschaften von Verteilungsfunktionen F Für die Verteilungsfunktion F (x) einer beliebigen Zufallsvariable X gilt 0 F (x) 1 für alle x R x F (x) ist monoton wachsend. Die rechts- und linksseitigen Grenzwerte lim x x0 + F (x) und lim x x0 F (x) existieren für alle x 0 R und es ist F (x 0 ) = lim x x0 + F (x) (F ist rechtsseitig stetig). lim x F (x) = 0 und lim x F (x) = 1. Bemerkungen Jede Funktion mit den obigen Eigenschaften ist Verteilungsfunktion einer Zufallsvariable. Jede reellwertige Zufallsvariable besitzt eine Verteilungsfunktion. wahrscheinlichkeit13.pdf, Seite 68

69 Weitere Eigenschaften Für a < b ist P(X (a, b]) = P(a < X b) = F (b) F (a) (denn P(a < X b) = P(X b) P(X a)) Für alle x 0 R ist P(X = x 0 ) = Folgerung lim F (x) lim F (x) = F (x 0) lim F (x) x x 0 + x x 0 x x 0 F ist genau dann stetig in x 0, wenn P(X = x 0 ) = 0 gilt. Hat F an der Stelle x 0 eine Sprungstelle, so entspricht P(X = x 0 ) der Sprunghöhe. F ist genau dann stetig auf R, wenn P(X = x) = 0 für alle x R. In diesem Fall ist F Verteiungsfunktion einer stetigen Zufallsvariablen. wahrscheinlichkeit13.pdf, Seite 69

70 Bemerkungen Nicht jede stetige Zufallsvariable besitzt eine Dichte f (x). Ist die Verteilungsfunktion F (x) von X (eventuell mit Ausnahme endlich vieler Punkte, die dann die Sprungstellen von f sind) dierenzierbar, so ist f (x) = F (x) Dichte von X. Es gibt aber auch Zufallsvariablen, deren Verteilungsfunktionen stetig, aber nicht dierenzierbar sind. Die für Anwendungen wichtigsten Zufallsvariablen sind jedoch entweder diskret oder haben eine Dichte. Ist X stetig, so gilt P(X = x) = 0 für alle x R. Für a < b folgt dann P ( (a, b) ) = P(a < X < b) = P ( [a, b] ) = P(a X b) = P ( (a, b] ) = P ( [a, b) ) = F (b) F (a). wahrscheinlichkeit13.pdf, Seite 70

71 Zusammenfassung (Berechnung von Wahrscheinlichkeiten) Ist X eine Zufallsvariable mit Verteilungsfunktion F (x), so gilt für a, b R mit a < b: P(X b) = F (b), sowie P(X > a) = 1 F (a). P(a < X b) = F (b) F (a) Ist X stetig, so kann < und > durch und ersetzt werden und umgekehrt. Im allgemeinen Fall ist P(a X b) = F (b) F (a) + P(X = a), P(a < X < b) = F (b) F (a) P(X = b), P(X < b) = F (b) P(X = b) und P(X a) = 1 F (a) + P(X = a). wahrscheinlichkeit13.pdf, Seite 71

72 Gesetz der groÿen Zahlen Beispiel Für die Augensumme S n = X X n beim nmaligen Würfeln gilt ES n = n EX i = n 3, 5 und V (S n ) = i=1 n i=1 V (X i ) = n Für die durchschnittliche Augenzahl X = 1 n S n = 1 n (X X n ) folgt EX = 1 n ES n = 3, 5 = EX 1 =... = EX n und V (X ) = 1 n 2 V (S n ) = 1 n Für die Standardabweichung erhält man σ X = V (X ) = 1 35 n 0 für n 12 wahrscheinlichkeit13.pdf, Seite 72

73 Gesetz der groÿen Zahlen Voraussetzungen Sie (X i ) eine Folge unabhängiger identisch verteilter (iid) Zufallsvariablen mit Erwartunswert µ R und Varianz σ 2 <. (d. h. X 1, X 2, X 3,... haben alle die gleiche Verteilung und insbesondere den gleichen Erwartungswert, unabhängig bedeutet P(X 1 A 1 ; X 2 A 2 ;...; X k A x ) = P(X 1 A 1 ) P(X 2 A 2 )... P(X k A k ) für beliebige k und A 1,..., A k R) Das arithmetische Mittel X n = 1 n n X i = 1 n (X 1 + X X n ) i=1 ist dann für alle n 1 eine Zufallsvariable mit Erwartungswert µ und Varianz σ2 n. wahrscheinlichkeit13.pdf, Seite 73

74 Gesetz der groÿen Zahlen Satz Für beliebiges ε > 0 gilt ( ) lim P 1 n n (X 1 + X X n ) µ ε = 0, d. h. die Folge (X n ) konvergiert stochastisch bzw. in Wahrscheinlichkeit gegen µ. Der Beweis erfolgt mit Hilfe der Ungleichung von Tschebysche. wahrscheinlichkeit13.pdf, Seite 74

75 Bemerkungen Das Gesetz der groÿen Zahlen gilt auch noch unter schwächeren Voraussetzungen, wo die X i nicht unabhängig und/oder nicht identisch verteilt sind. Das starke Gesetz der groÿen Zahlen besagt lim n X n = µ fast sicher (mit Wahrscheinlichkeit 1), d. h. lim n X n (ω) = µ für alle ω aus einer Teilmenge Ω des zugrundeliegenden ) Wahrscheinlickeitsraumes Ω mit P ( Ω = 1. wahrscheinlichkeit13.pdf, Seite 75

76 Bemerkung und Beispiel Eine Zufallsvariable X mit Dichte f (x) = 1 π 1 1+x 2 für x R heiÿt (standard)cauchyverteilt. Sind X 1, X 2,... unabhängig und Cauchyverteilt, so ist für alle n 1 auch X n = 1 n (X X n ) standardcauchyverteilt. Insbesondere gilt das Gesetz der groÿen Zahlen nicht für Cauchyverteilte Zufallsvariablen. Dies liegt daran, dass diese keinen Erwartungswert haben (das entsprechende uneigentliche Integral x f (x) dx divergiert). wahrscheinlichkeit13.pdf, Seite 76

77 Erweiterung: Hauptsatz der Statistik Zu Zufallsvariablen X 1,..., X n ist die empirische Verteilungsfunktion deniert als F n (x) = 1 n mal Anzahl der X i mit X i < x. Für festes x ist F n (x) eine Zufallsvariable. Sie gibt den relativen Anteil der X i wieder, deren Wert x ist. Satz Sind die X i unabhängig und identisch verteilt mit Verteilungsfunktion F (x), so gilt für festes x R und ε > 0 lim P ( F n (x) F (x) ) > ε = 0, n d. h. die empirischen Verteilungsfunktionen F n nähern sich für n der erwarteten Verteilungsfunktion F an. wahrscheinlichkeit13.pdf, Seite 77

78 Beispiel Empirische Verteilungsfunktion F 5 (x) einer exponentialverteilten Zufallsvariable mit Parameter λ = 1. wahrscheinlichkeit13.pdf, Seite 78

79 Hauptsatz der Statistik F 50 (x) und theoretische Verteilungsfunktion F (x) = 1 e x. wahrscheinlichkeit13.pdf, Seite 79

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Gegeben Menge Ω (Wahscheinlichkeitsraum, Menge aller möglichen Ausgänge eines Zufallsexperiments), Abbildung P : P(Ω) [0, 1] (Wahrscheinlichkeit): Jeder Teilmenge

Mehr

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19 Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Spezielle stetige Verteilungen

Spezielle stetige Verteilungen Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Sabrina Kallus, Eva Lotte Reinartz, André Salé

Sabrina Kallus, Eva Lotte Reinartz, André Salé Sabrina Kallus, Eva Lotte Reinartz, André Salé } Wiederholung (Zufallsvariable) } Erwartungswert Was ist das? } Erwartungswert: diskrete endliche Räume } Erwartungswert: Räume mit Dichten } Eigenschaften

Mehr

Ausgewählte spezielle Verteilungen

Ausgewählte spezielle Verteilungen Ausgewählte spezielle Verteilungen In Anwendungen werden oft Zufallsvariablen betrachtet, deren Verteilung einem Standardmodell entspricht. Zu den wichtigsten dieser Modelle gehören: diskrete Verteilungen:

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5 4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Psychologische Methodenlehre und Statistik I

Psychologische Methodenlehre und Statistik I Psychologische Methodenlehre und Statistik I Pantelis Christodoulides & Karin Waldherr SS 2013 Pantelis Christodoulides & Karin Waldherr Psychologische Methodenlehre und Statistik I 1/61 Zufallsexperiment

Mehr

Eindimensionale Zufallsvariablen

Eindimensionale Zufallsvariablen Eindimensionale Grundbegriffe Verteilungstypen Diskrete Stetige Spezielle Maßzahlen für eindimensionale Erwartungswert Varianz Standardabweichung Schwankungsintervalle Bibliografie Bleymüller / Gehlert

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009 Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Statistik für Ingenieure Vorlesung 2

Statistik für Ingenieure Vorlesung 2 Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen

Mehr

Lernzusammenfassung für die Klausur. Inhaltsverzeichnis. Stochastik im SS 2001 bei Professor Sturm

Lernzusammenfassung für die Klausur. Inhaltsverzeichnis. Stochastik im SS 2001 bei Professor Sturm Stochastik im SS 2001 bei Professor Sturm Lernzusammenfassung für die Klausur Hallo! In diesem Text habe ich die wichtigsten Dinge der Stochastikvorlesung zusammengefaÿt, jedenfalls soweit, wie ich bis

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 1. Dezember 21 1 Integralrechnung Flächeninhalt Stammfunktion Rechenregeln 2 Dichten von Erwartungswert und Varianz

Mehr

1.5 Erwartungswert und Varianz

1.5 Erwartungswert und Varianz Ziel: Charakterisiere Verteilungen von Zufallsvariablen durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere: a) durchschnittlicher Wert Erwartungswert, z.b.

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 11. November 2010 1 Erwartungswert und Varianz Erwartungswert Varianz und Streuung Rechenregeln Binomialverteilung

Mehr

15.5 Stetige Zufallsvariablen

15.5 Stetige Zufallsvariablen 5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen Kapitel 6 Verteilungsparameter Wie bei einem Merkmal wollen wir nun die Lage und die Streuung der Verteilung einer diskreten Zufallsvariablen durch geeignete Maßzahlen beschreiben. Beginnen wir mit Maßzahlen

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Mathematik 3 für Informatik

Mathematik 3 für Informatik Gunter Ochs Wintersemester 20/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt 4 Lösungshinweise (ohne Ganantie auf Fehlerfreiheit. Wenn man beim Roulette auf Rot oder Schwarz setzt, erhält

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

1.5 Erwartungswert und Varianz

1.5 Erwartungswert und Varianz Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus

Mehr

Mathematik für Naturwissenschaften, Teil 2

Mathematik für Naturwissenschaften, Teil 2 Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe

9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe Übungsmaterial 9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe 9. Erwartungswert Fragt man nach dem mittleren Wert einer Zufallsgröÿe X pro Versuch, so berechnet man den Erwartungswert

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Zusatzmaterial zur Vorlesung Statistik II

Zusatzmaterial zur Vorlesung Statistik II Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November

Mehr

8. Stetige Zufallsvariablen

8. Stetige Zufallsvariablen 8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse

Mehr

Übungsscheinklausur,

Übungsscheinklausur, Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 23. Dezember 2011 1 Stetige Zufallsvariable, Normalverteilungen Der zentrale Grenzwertsatz und die 3-Sigma Regel

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

3.3 Bedingte Wahrscheinlichkeit

3.3 Bedingte Wahrscheinlichkeit 28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Zuverlässigkeitstheorie

Zuverlässigkeitstheorie 3. Grundbegriffe der Wahrscheinlichkeitsrechnung Prof. Jochen Seitz Fachgebiet Kommunikationsnetze 20. November 2008 Übersicht Gesetz der großen Zahlen von Bernoulli 1 Gesetz der großen Zahlen von Bernoulli

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

Diskrete Zufallsvariablen (Forts.) I

Diskrete Zufallsvariablen (Forts.) I 9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig

Mehr

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm.

Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm. Veranstaltung: Statistik für das Lehramt 16.12.2016 Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm Erwartungswert Varianz Standardabweichung Die Wahrscheinlichkeitsverteilung

Mehr

Grundlagen der Wahrscheinlichkeitstheorie

Grundlagen der Wahrscheinlichkeitstheorie Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)

Mehr

Kapitel 5. Stochastik

Kapitel 5. Stochastik 76 Kapitel 5 Stochastik In diesem Kapitel wollen wir die Grundzüge der Wahrscheinlichkeitstheorie behandeln. Wir beschränken uns dabei auf diskrete Wahrscheinlichkeitsräume Ω. Definition 5.1. Ein diskreter

Mehr

12 Erwartungswerte. Erwartungswerte 111. Überblick

12 Erwartungswerte. Erwartungswerte 111. Überblick Erwartungswerte 111 12 Erwartungswerte Zur Motivation der Begrisbildung wird zunächst der Erwartungswert im diskreten Fall als Reihenwert eingeführt. Der allgemeine, auf dem Integral basierende Erwartungswert

Mehr

Verteilung von Summen

Verteilung von Summen Verteilung von Summen Beispiel: Würfelwurf Frage: Wie verhält sich die Verteilung der Augensumme von -Würfeln bei wachsendem? Zur Beantwortung führen wir ein Simulationseperiment durch. 6 Würfe mit 1 Würfel

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()

Mehr

Zufallsvariable: Verteilungen & Kennzahlen

Zufallsvariable: Verteilungen & Kennzahlen Mathematik II für Biologen 12. Juni 2015 Zufallsvariable Kennzahlen: Erwartungswert Kennzahlen: Varianz Kennzahlen: Erwartungstreue Verteilungsfunktion Beispiel: Exponentialverteilung Kennzahlen: Erwartungswert

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

5.4 Verteilungsfunktion Verteilungsfunktion diskreten Zufallsvariablen stetigen Zufallsvariablen Verteilungsfunktion

5.4 Verteilungsfunktion Verteilungsfunktion diskreten Zufallsvariablen stetigen Zufallsvariablen Verteilungsfunktion 5. Verteilungsfunktion Die Verteilungsfunktion gibt an welche Wahrscheinlichkeit sich bis zu einem bestimmten Wert der Zufallsvarialben X kumuliert Die Verteilungsfunktion F() gibt an, wie groß die die

Mehr

1.3 Zufallsgrößen und Verteilungsfunktionen

1.3 Zufallsgrößen und Verteilungsfunktionen .3 Zufallsgrößen und Verteilungsfunktionen.3. Einführung Vielfach sind die Ergebnisse von Zufallsversuchen Zahlenwerte. Häufig möchte man aber auch in den Fällen, wo dies nicht so ist, Zahlenwerte zur

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr