4. Gemeinsame Verteilung und Grenzwertsätze

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "4. Gemeinsame Verteilung und Grenzwertsätze"

Transkript

1 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen (X und Y ) 220

2 Beispiele: Zufällig ausgewählter Haushalt: X = Haushaltsgröße Y = Anzahl Autos Tagesrenditen zweier Aktien: X = Rendite der VW-Aktie Y = Rendite der BASF-Aktie 2-facher Würfelwurf: X = Minimum der Augenzahlen Y = Maximum der Augenzahlen 221

3 4.1 Gemeinsame Verteilung von Zufallsvariablen Situation: Betrachte zwei ZV en X und Y zu ein und demselben Zufallsexperiment, d.h. X : Ω R Y : Ω R 222

4 Definition 4.1: (Gemeinsame Verteilungsfunktion) Für die beiden ZV en X und Y heißt die Funktion F X,Y : R 2 [0, 1] mit F X,Y (x, y) = P ({ω X(ω) x und Y (ω) y}) = P (X x, Y y) die gemeinsame Verteilungsfunktion von X und Y. 223

5 Bemerkung: Die gemeinsame VF von X und Y ist die Wskt. dafür, dass sich gleichzeitig 1. X kleiner oder gleich dem Wert x und 2. Y kleiner oder gleich dem Wert y realisieren Einige Eigenschaften der gemeinsamen Verteilungsfunktion: F X,Y (x, y) ist monoton steigend in x und y lim x +,y + F X,Y (x, y) = 1 224

6 Jetzt: Unterscheidung zwischen 1. diskreten gemeinsamen Verteilungen 2. stetigen gemeinsamen Verteilungen 225

7 Definition 4.2: (Gemeinsam diskrete Zufallsvariablen) Die beiden ZV en X und Y heißen gemeinsam diskret verteilt, falls es endlich viele oder abzählbar unendlich viele Realisationen x 1, x 2,... und y 1, y 2,... gibt, so dass mit j=1 k=1 p jk P (X = x j, Y = y k ) > 0 p jk = j=1 k=1 P (X = x j, Y = y k ) = 1 gilt. Für die gemeinsam diskret verteilten ZV en X und Y heißt die Funktion f X,Y (x, y) = { pjk = P (X = x j, Y = y k ), für x = x j und y = y k 0, sonst die gemeinsame Wahrscheinlichkeitsfunktion der diskreten ZV en X und Y. 226

8 Bemerkung: Die gemeinsame Wahrscheinlichkeitsfunktion kann in einer Wahrscheinlichkeitstabelle dargestellt werden: X/Y y 1 y 2 y 3... x 1 p 11 p 12 p x 2. p 21. p 22. p

9 Beispiel: [I] X = Haushaltsgröße, Y = Anzahl Autos Wahrscheinlichkeitstabelle X/Y

10 Beispiel: [II] Berechnung der gemeinsamen Verteilungsfunktion: F X,Y (x, y) = p jk {j x j x} {k y k y} Z.B. gilt oder F X,Y (3, 1) = P (X 3, Y 1) = = 0.56 F X,Y (1.5, 3.2) = P (X 1.5, Y 3.2) = =

11 Jetzt: X = und Y seien beides stetige Zufallsvariablen Definition 4.3: (Gemeinsam stetige Zufallsvariablen) Die beiden ZV en X und Y heißen gemeinsam stetig verteilt, falls sich ihre gemeinsame Verteilungsfunktion F X,Y als Doppelintegral einer Funktion f X,Y : R 2 [0, ) schreiben lässt, d.h. wenn gilt F X,Y (x, y) = P (X x, Y y) = y x f X,Y (u, v) du dv für alle (x, y) R 2. Die Funktion f X,Y (x, y) heißt gemeinsame Dichtefunktion von X und Y. 230

12 Gemeinsame Dichtefunktion der Zufallsvariablen X und Y 231

13 Bemerkungen: [I] Rechnen mit gemeinsamen stetigen Verteilungen erfordert Differential- und Integralrechnung mit Funktionen mehrerer Veränderlicher (partielles Differenzieren, Doppelintegrale) Bei partieller Differenzierbarkeit gilt f X,Y (x, y) = 2 x y F X,Y (x, y) (Zusammenhang: gemeinsame Dichte- und gemeinsame VF) 232

14 Bemerkungen: [II] Für alle (x, y) R 2 gilt f X,Y (x, y) 0 (gemeinsame Dichte ist überall positiv) Das Volumen unter der Dichte ist 1, d.h. + + f X,Y (x, y) dx dy = 1 Durch Doppelintegration der Dichte erhält man Intervallwahrscheinlichkeiten, z.b. P (x 1 X x 2, y 1 Y y 2 ) = y2 x2 y 1 x 1 f X,Y (x, y) dx dy (vgl. eindimensionalen stetigen Fall auf Folien 145, 146) 233

15 Gemeinsame Dichte- und Verteilungsfunktion der ZV en X = Rendite VW-Aktie und Y = Rendite BASF-Aktie 234

16 Jetzt folgende Ausgangssituation: X und Y seien (diskret oder stetig) gemeinsam verteilt mit der gemeinsamen Verteilungsfunktion F X,Y (x, y) Gesucht: Verteilung von X bzw. von Y, wenn man die jeweils andere Verteilung ignoriert (die sogenannten Randverteilungen) 235

17 Es gilt: [I] 1. Randverteilungsfunktionen F X bzw. F Y F X (x) = lim y + F X,Y (x, y) = P (X x, Y R) F Y (y) = lim x + F X,Y (x, y) = P (X R, Y y) 2. Randwahrscheinlichkeiten gemeinsam diskreter ZV en p j, P (X = x j ) = p,k P (Y = y k ) =... k=1... j=1 P (X = x j, Y = y k ) = P (X = x j, Y = y k ) =... p jk k=1... p jk j=1 236

18 Es gilt: [II] 3. Randdichten gemeinsam stetiger ZV en f X (x) = + f X,Y (x, y) dy f Y (y) = + f X,Y (x, y) dx Wichtig: Die Randverteilungen ergeben sich eindeutig aus der gemeinsamen Verteilung von X und Y ABER: Die gemeinsame Verteilung ist nicht eindeutig durch die Randverteilungen bestimmt 237

19 Relevanz der Randverteilungen: Mit den Randverteilungen einer gemeinsamen Verteilung definiert man den Begriff der Stochastischen Unabhängigkeit von Zufallsvariablen (vgl. Definition 2.13, Folie 82) Definition 4.4: (Unabhängigkeit von Zufallsvariablen) Die ZV en X und Y heißen (stochastisch) unabhängig, falls ihre gemeinsame Wahrscheinlichkeitsfunktion (diskreter Fall) bzw. ihre gemeinsame Dichtefunktion (stetiger Fall) dem Produkt der Randverteilungen entspricht, d.h. falls f X,Y (x, y) = f X (x) f Y (y) für alle x, y R. 238

20 Bemerkungen: Für gemeinsam diskret verteilte ZV en X und Y bedeutet die Definition 4.4: X und Y sind stochastisch unabhängig, wenn für alle j = 1, 2,... und k = 1, 2,... gilt: P (X = x j, Y = y k ) = P (X = x j ) P (Y = y k ) Alternativ drückt man die stochastische Unabhängigkeit über die gemeinsame Verteilungsfunktion aus: Satz 4.5: (Stochastische Unabhängigkeit) Die ZV en X und Y sind genau dann stochastisch unabhängig, falls sich ihre gemeinsame Verteilungsfunktion als Produkt der Randverteilungsfunktionen darstellen lässt, d.h. falls F X,Y (x, y) = F X (x) F Y (y) für alle x, y R. 239

21 Beispiel 1: (Diskreter Fall) [I] Es bezeichnen X die Haushaltsgröße Y die Anzahl Autos pro Haushalt 240

22 Beispiel 1: (Diskreter Fall) [II] Wahrscheinlichkeitstabelle: X/Y y 1 = 0 y 2 = 1 y 3 = 2 p j = P (X = x j ) x 1 = x 2 = x 3 = x 4 = x 5 = p k = P (Y = y k )

23 Beispiel 1: (Diskreter Fall) [III] X und Y sind stochastisch abhängig, denn P (X = 1, Y = 0) = 0.10 aber P (X = 1) P (Y = 0) = = 0.05 d.h. P (X = 1, Y = 0) = = P (X = 1) P (Y = 0) 242

24 Beispiel 2: (Stetiger Fall) [I] stetig verteilt mit gemeinsamer Dichte- Es seien X und Y funktion f X,Y (x, y) = { x + y, für 0 x 1, 0 y 1 0, sonst 243

25 Beispiel 2: (Stetiger Fall) [II] Die Randdichte von X ergibt sich als { + 10 f X (x) = f (x + y) dy, für 0 x 1 X,Y (x, y) dy = 0, sonst = [ x y y 2] 1 0 0, sonst, für 0 x 1 = { x (x ), für 0 x 1 0, sonst = { x + 1 2, für 0 x 1 0, sonst 244

26 Beispiel 2: (Stetiger Fall) [III] Auf analoge Art errechnet sich die Randdichte von Y : f Y (y) = + f X,Y (x, y) dx = { y + 1 2, für 0 y 1 0, sonst X und Y sind stochastisch abhängig, denn f X (0.2) f Y (0.2) = ( ) ( ) = 0.49 aber f X,Y (0.2, 0.2) = = 0.4 d.h. f X,Y (0.2, 0.2) = = f X (x) f Y (y) 245

27 Weiteres wichtiges Konzept: Bedingte Verteilung (vgl. Abschnitt 2.3, Folie 67 ff.) Grundlegende Frage: Wie ist die ZV X verteilt, wenn der Wert der ZV en Y bekannt ist Hier: Beschränkung auf diskrete ZV en 246

28 Definition 4.6: (Bedingte Wahrscheinlichkeit) Es seien X und Y zwei gemeinsam diskret verteilte ZV en mit der gemeinsamen Wahrscheinlichkeitsfunktion f X,Y (x, y) = { pjk = P (X = x j, Y = y k ), für x = x j und y = y k 0, sonst Dann ist die bedingte Wahrscheinlichkeit für X = x j unter der Bedingung Y = y k definiert durch. P (X = x j Y = y k ) = P (X = x j, Y = y k ) P (Y = y k ) für alle Realisationen x 1, x 2,... der ZV en X. 247

29 Bemerkungen: [I] Die Definition 4.6 entspricht exakt der Definition 2.12 auf Folie 70 für die Ereignisse (Mengen) A und B Wenn die ZV en X und Y stochastisch unabhängig im Sinne der Definition 4.4 von Folie 238 sind, so gilt: P (X = x j Y = y k ) = P (X = x j, Y = y k ) P (Y = y k ) = P (X = x j) P (Y = y k ) P (Y = y k ) = P (X = x j ) Bei stochastischer Unabhängigkeit sind die bedingten Wahrscheinlichkeiten von X unter Y = y k gleich den unbedingten Wahrscheinlichkeiten von X 248

30 Bemerkungen: [III] Mit der bedingten Wahrscheinlichkeitsfunktion aus Definition 4.6 definiert man die bedingte Verteilungsfunktion F X Y =yk (x) = {j x j x} den bedingten Erwartungswert E(X Y = y k ) = {x j T X } P (X = x j Y = y k ) x j P (X = x j Y = y k ) 249

31 Beispiel: [I] X = Haushaltsgröße, Y = Anzahl Autos pro Haushalt Wahrscheinlichkeitstabelle: X/Y y 1 = 0 y 2 = 1 y 3 = 2 p j = P (X = x j ) x 1 = x 2 = x 3 = x 4 = x 5 = p k = P (Y = y k )

32 Beispiel: [II] Bedingte Verteilung von Y unter der Bedingung X = 2: y k P (Y = y k X = 2) /0.30 = /0.30 = /0.30 = Bedingter Erwartungswert von Y unter der Bedingung X = 2: E(Y X = 2) = =

33 Jetzt: Definition des Erwartungswertes einer Funktion g : R 2 R (x, y) g(x, y) zweier gemeinsam verteilter Zufallsvariablen X und Y (d.h. E[g(X, Y )]) Bedeutung: Gewinnung diverser praktischer Ergebnisse und hilfreicher Rechenregeln 252

34 Definition 4.7: (E-Wert einer Funktion) Es seien X und Y zwei gemeinsam (diskret oder stetig) verteilte ZV en mit Wahrscheinlichkeits- bzw. Dichtefunktion f X,Y (x, y) und g(x, y) eine Funktion. Dann ist der Erwartungswert der Funktion definiert als E[g(X, Y )] = {x j T X } {y k T Y } falls X und Y gemeinsam diskret bzw. E[g(X, Y )] = + + g(x j, y k ) P (X = x j, Y = y k ), g(x, y) f X,Y (x, y) dx dy, falls X und Y gemeinsam stetig verteilt sind. 253

35 Beispiel 1: [I] Es seien X und Y gemeinsam stetig verteilte ZV en mit Dichtefunktion f X,Y (x, y) Für g(x, y) = y gilt: E[g(X, Y )] = + + g(x, y) f X,Y (x, y) dx dy = = y ( + y f X,Y (x, y) dx dy f X,Y (x, y) dx ) }{{} = f Y (y) (Randdichte) dy 254

36 Beispiel 1: [II] und somit E[g(X, Y )] = + y f Y (y) dy = E(Y ) Ebenso erhält man für g(x, y) = x: E[g(X, Y )] = E(X) Analoges Ergebnis für diskrete ZV en X und Y 255

37 Beispiel 2: [I] Für g(x, y) = x + y gilt: E[g(X, Y )] = E(X + Y ) = + + (x + y) f X,Y (x, y) dx dy = + + [ x fx,y (x, y) + y f X,Y (x, y) ] dx dy = + + x f X,Y (x, y) dx dy y f X,Y (x, y) dx dy = + x f X(x) dx + + y f Y (y) dy = E(X) + E(Y ) 256

38 Bemerkung: Unter bestimmten (hier erfüllten) Voraussetzungen kann die Integrationsreihenfolge vertauscht werden Jetzt: Maßzahl zur Messung des Zusammenhangs zwischen zwei ZV en X und Y Konzept: [I] Betrachte Abweichung einer jeden ZV en vom jeweiligen Erwartungswert, d.h. X E(X) sowie Y E(Y ) 257

39 Konzept: [II] Das Produkt der Abweichungen, [X E(X)] [Y E(Y )] ist eine ZV und gibt Auskunft darüber, ob die beiden ZV en X und Y tendenziell in die gleiche oder in unterschiedliche Richtungen von ihren jeweiligen Erwartungswerten abweichen Der Erwartungswert dieser ZV en, d.h. E[(X E(X)) (Y E(Y ))] ist ein plausibles Maß für den Zusammenhang zwischen X und Y 258

40 Definition 4.8: (Kovarianz) Es seien X und Y zwei ZV en mit den jeweiligen Erwartungswerten E(X) und E(Y ). Dann heißt die Größe Cov(X, Y ) E[(X E(X)) (Y E(Y ))] die Kovarianz zwischen X und Y. Bemerkungen: [I] Die Kovarianz ist der Erwartungswert der Funktion g(x, Y ) = (X E(X)) (Y E(Y )) 259

41 Bemerkungen: [II] Gemäß Definition 4.7 (Folie 253) berechnet sich dieser Erwartungswert als Cov(X, Y ) = ( xj E(X) ) (y k E(Y )) p jk {x j T X } {y k T Y } mit p jk = P (X = x j, Y = y k ) falls X und Y gemeinsam diskret bzw. Cov(X, Y ) = + + (x E(X)) (y E(Y )) f X,Y (x, y) dx dy, falls X und Y gemeinsam stetig verteilt sind Nützliche Umformung: Cov(X, Y ) = E(X Y ) E(X) E(Y ) 260

42 Zentrales Resultat: Zusammenhang zwischen stochastischer Unabhängigkeit der ZV en X und Y und deren Kovarianz Satz 4.9: (Unabhängigkeit und Kovarianz) Es seien X und Y zwei ZV en mit den jeweiligen Erwartungswerten E(X) und E(Y ). Sind X und Y stochastisch unabhängig, so folgt Cov(X, Y ) =

43 Beweis: (für stetige ZV en) [I] Zunächst gilt: E(X Y ) = + + x y f X,Y (x, y) dx dy = + + x y f X(x) f Y (y) dx dy = + y f Y (y) dy } {{ } =E(Y ) + x f X(x) dx } {{ } =E(X) = E(X) E(Y ) 262

44 Beweis: (für stetige ZV en) [II] Damit gilt: Cov(X, Y ) = E(X Y ) E(X) E(Y ) = E(X) E(Y ) E(X) E(Y ) = 0 Vorsicht: Die Umkehrung gilt nicht, d.h. aus Cov(X, Y ) = 0 folgt nicht die Unabhängigkeit von X und Y 263

45 Aber: Aus Cov(X, Y ) = 0 folgt, dass X und Y stochastisch abhängig sind Nachteil der Kovarianz: Cov(X, Y ) ist nicht normiert Normierung der Kovarianz führt zum Korrelationskoeffizienten 264

46 Definition 4.10: (Korrelationkoeffizient) Es seien X und Y zwei ZV en mit den Erwartungswerten E(X), E(Y ) und den Varianzen V (X), V (Y ). Dann ist der Korrelationskoeffizient zwischen X und Y definiert durch Corr(X, Y ) = Cov(X, Y ). V (X) V (Y ) Eigenschaften des Korrelationskoeffizienten: [I] Corr(X, Y ) ist dimensionslos Corr(X, Y ) ist symmetrisch, d.h. Corr(X, Y ) = Corr(Y, X) 265

47 Eigenschaften des Korrelationskoeffizienten: [II] Sind X und X stochastisch unabhängig, so gilt Corr(X, Y ) = 0 (Vorsicht: Die Umkehrung gilt nicht) Der Korrelationskoeffizient ist normiert, d.h. es gilt stets 1 Corr(X, Y ) 1 Der Korrelationskoeffizient misst die Stärke des linearen Zusammenhangs zwischen den ZV en X und Y 266

48 Bisher gezeigt: Sind X und Y zwei (diskrete oder stetige) ZV, so gilt: E(X + Y ) = E(X) + E(Y ) (vgl. Folie 256) E(X Y ) = E(X) E(Y ) + Cov(X, Y ) (vgl. Folie 260) Jetzt: Varianz einer Summe von ZV en 267

49 Varianz einer Summe von ZV en: V (X + Y ) = E { [X + Y E (X + Y )] 2} = E { [(X E(X)) + (Y E(Y ))] 2} = E [X E(X)] 2 }{{} =V (X) + E [Y E(Y )] 2 }{{} =V (Y ) +2 E {[X E(X)] [Y E(Y )]} }{{} =Cov(X,Y ) = V (X) + V (Y ) + 2 Cov(X, Y ) 268

50 Satz 4.11: (Rechenregeln) Sind X und Y (diskrete oder stetige) ZV en mit Erwartungswerten E(X), E(Y ) und Varianzen V (X), V (Y ), so gilt: 1. E(X + Y ) = E(X) + E(Y ), 2. E(X Y ) = E(X) E(Y ) + Cov(X, Y ), 3. V (X + Y ) = V (X) + V (Y ) + 2 Cov(X, Y ). Sind X und Y zusätzlich stochastisch unabhängig, so folgt wegen Cov(X, Y ) = 0: E(X Y ) = E(X) E(Y ) V (X + Y ) = V (X) + V (Y ). 269

51 Bemerkung: Es seien X und Y (diskrete oder stetige) ZV en und a, b R reelle Zahlen a X + b Y ist ebenfalls eine ZV und es gilt: E (a X + b Y ) = a E(X) + b E(Y ) V (a X + b Y ) = a 2 V (X) + b 2 V (Y ) + 2 a b Cov(X, Y ) 270

52 Beispiel: [I] In einem Portfolio befinden sich 2 Aktien X : Jahresrendite der Aktie A (in %) Y : Jahresrendite der Aktie B (in %) Bekannt seien E(X) = 7 σ(x) = V (X) = 25 E(Y ) = 15 σ(y ) = V (Y ) = 45 Corr(X, Y ) = 0.4 a = 70% des Vermögens wurden in Aktie A investiert b = 30% des Vermögens wurden in Aktie B investiert 271

53 Beispiel: [II] Die Jahresrendite des Portfolios ist Z = a X + b Y Für die erwartete Rendite des Portfolios folgt: E(Z) = E(a X + b Y ) = a E(X) + b E(Y ) = =

54 Beispiel: [III] Für die Varianz des Portfolios gilt: V (Z) = V (a X + b Y ) = a 2 V (X) + b 2 V (Y ) + 2 a b Cov(X, Y ) = a 2 V (X) + b 2 V (Y ) + 2 a b σ(x) σ(y ) Corr(X, Y ) = ( 0.4) = Für die Standardabweichung folgt: σ(z) = V (Z) = =

55 Offensichtlich: Durch Diversifikation erreicht man σ(z) = < 25 = σ(x) < 45 = σ(y ), (Standardabweichung des Portfolios ist geringer als die Standardabweichungen der Einzelaktien) Nobelpreise für H. Markowitz (1990) J. Tobin (1981) 274

56 Jetzt: Erweiterung der Rechenregeln auf n ZV en Beachte zunächst: Es seien X 1, X 2,..., X n ZV en und a 1,..., a n R Es folgt: Z = n i=1 ist ebenfalls eine Zufallsvariable a i X i = a 1 X a n X n 275

57 Satz 4.12: (Rechenregeln für gewichtete Summen) Es seien X 1,..., X n (diskrete oder stetige) Zufallsvariablen und a 1,..., a n R reelle Zahlen. Dann gelten für den Erwartungswert bzw. die Varianz der gewichteten Summe: E V n i=1 n i=1 a i X i a i X i = = n i=1 n i=1 a i E(X i ) a 2 i V (X i) + n i=1 n j=1 j i a i a j Cov(X i, X j ). 276

58 Bemerkungen: [I] Für n = 2 gilt: V (X 1 + X 2 ) = 2 i=1 a 2 i V (X i) + 2 i=1 2 j=1 j i a i a j Cov(X i, X j ) = a 2 1 V (X 1) + a 2 2 V (X 2) +a 1 a 2 Cov(X 1, X 2 ) + a 2 a 1 Cov(X 2, X 1 ) = a 2 1 V (X 1) + a 2 2 V (X 2) + 2 a 1 a 2 Cov(X 1, X 2 ) 277

59 Bemerkungen: [I] Sind X 1,..., X n paarweise stochastisch unabhängig, so folgt Cov(X i, X j ) = 0 für alle i = j, und damit V n i=1 a i X i = n i=1 a 2 i V (X i) 278

60 4.2 Grenzwertsätze Situation: Gegeben sei eine unendliche Folge von ZV en X 1, X 2, X 3,..., die alle die gleiche Verteilung besitzen und alle paarweise stochastisch unabhängig sind (d.h. Cov(X i, X j ) = 0 für alle i j) Betrachte für gegebenes n das arithmetische Mittel sowie die Variablensumme X n = 1 n n i=1 X i S n = n X i i=1 279

61 Man beachte: X n und S n sind selbst ZV en Inhalt von Grenzwertsätzen: Was passiert mit der Verteilung von X n und S n für n? Wichtige Grenzwertsätze: Schwaches bzw. starkes Gesetz der großen Zahlen Glivenko-Cantelli-Grenzwertsätze Hier nur: Zentraler Grenzwertsatz 280

62 Satz 4.13: (E-Werte und Varianzen von X n und S n ) Angenommen, jede ZV der unendlichen Folge X 1, X 2,... (alle paarweise unabhängig) hat die gleiche Verteilung wie die ZV X, wobei E(X) = µ und V (X) = σ 2. Dann gilt: E(S n ) = E V (S n ) = V E(X n ) = E V (X n ) = V n n X i = i=1 i=1 n n X i = i=1 i=1 1 n n X i i=1 1 n n X i i=1 = 1 n = 1 n 2 E(X i ) = n µ, V (X i ) = n σ 2, n i=1 n i=1 E(X i ) = µ, V (X i ) = σ2 n. 281

63 Jetzt: Essenz des zentralen Grenzwertsatzes Begründung für die Wichtigkeit der Normalverteilung Dazu: Betrachte Folge von ZV en X 1, X 2,..., X n mit folgenden Eigenschaften: X 1, X 2,..., X n sind paarweise stochastisch unabhängig (d.h. Cov(X i, X j ) = 0 für alle i j) Jede der ZV en X i hat eine beliebige Verteilung mit Erwartungswert E(X i ) und Varianz V (X i ) 282

64 Bemerkung: Dieses Szenario ist allgemeiner als die dargestellte Situation auf Folie 279 Dort hatten alle X i die gleiche Verteilung und damit alle den gleichen Erwartungswert und alle die gleiche Varianz 283

65 Beispiel: (Vier unabhängige Gleichverteilungen) Betrachte die 4 ZV en X 1 U(0, 1) X 2 U(0, 2) X 3 U(0, 3) X 4 U(0, 4) Erzeuge je 1000 Realisationen der ZV en durch einen Zufallszahlengenerator (z.b. in Excel) Darstellung der Realisationen in Histogrammen 284

66 Histogramme der 4000 Realisationen Series: R1 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Series: R2 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probability Jarque-Bera Probability Series: R3 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probability Series: R4 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probability

67 Offensichtlich: Histogramme ähneln den Dichtefunktionen Frage: Was passiert, wenn die ZV en sukzessive aufsummiert werden? Betrachte dazu S 1 = X 1, S 2 = 2 i=1 X i S 3 = 3 i=1 X i S 4 = 4 X i i=1 286

68 Histogramme der Summenrealisationen der ZV en S 1, S 2, S 3, S Series: R1 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probability Series: R1_R2 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probability Series: R1_R2_R3 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probability Series: R1_R2_R3_R4 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probability

69 Offensichtlich: Histogramme der Summenrealisationen ähneln dem Histogramm einer Normalverteilung Erwartungswert der Summenverteilung S 4 : E(S 4 ) = E(X X 4 ) = = = i=1 E(X i ) 288

70 Varianz der Summenverteilung S 4 : V (S 4 ) = V (X X 4 ) Unabh. = = 4 i=1 = 2.5 V (X i ) = 5 2 Daraus ergibt sich die Standardabweichung σ(s 4 ) = 2.5 =

71 Ergebnis: Wird die Summe S n sehr groß (d.h. n ), so ist diese annähernd normalverteilt Dies ist die Essenz des zentralen Grenzwertsatzes Fazit: Setzt sich ein Zufallsvorgang additiv aus vielen kleinen unabhängigen Einflüssen zusammen, so ist der Zufallsvorgang annähernd normalverteilt Aus diesem Grund spielt die Normalverteilung in der Praxis eine entscheidende Rolle 290

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Übung/Tutorate Statistik II: Schließende Statistik SS 2007

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Übung/Tutorate Statistik II: Schließende Statistik SS 2007 . Zufallsvariable und Verteilungsfunktion Aufgabe.1 Wahrscheinlichkeitsfunktion und Verteilungsfunktion Die Zufallsvariable X sei das Ergebnis eines Würfels a. Wie lautet die Wahrscheinlichkeitsfunktion?

Mehr

2. Zufallsvariable, Verteilungsfunktion, Erwartungswert,

2. Zufallsvariable, Verteilungsfunktion, Erwartungswert, 2. Zufallsvariable, Verteilungsfunktion, Erwartungswert, momentenerzeugende Funktion Ziel des Kapitels: Mathematische Präzisierung der Konzepte Zufallsvariable Verteilungsfunktion Dichtefunktion Erwartungswerte

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Übungsblatt 9. f(x) = e x, für 0 x

Übungsblatt 9. f(x) = e x, für 0 x Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable

Mehr

K8 Stetige Zufallsvariablen Theorie und Praxis

K8 Stetige Zufallsvariablen Theorie und Praxis K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests

Mehr

8. Stetige Zufallsvariablen

8. Stetige Zufallsvariablen 8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse

Mehr

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc. Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment

Mehr

15.5 Stetige Zufallsvariablen

15.5 Stetige Zufallsvariablen 5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme)

8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) 8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) Annahme B4: Die Störgrößen u i sind normalverteilt, d.h. u i N(0, σ 2 ) Beispiel: [I] Neoklassisches Solow-Wachstumsmodell Annahme einer

Mehr

Kenngrößen von Zufallsvariablen

Kenngrößen von Zufallsvariablen Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457. Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Univariates Datenmaterial

Univariates Datenmaterial Univariates Datenmaterial 1.6.1 Deskriptive Statistik Zufallstichprobe: Umfang n, d.h. Stichprobe von n Zufallsvariablen o Merkmal/Zufallsvariablen: Y = {Y 1, Y 2,..., Y n } o Realisationen/Daten: x =

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

Kapitel 2 Wahrscheinlichkeitsrechnung

Kapitel 2 Wahrscheinlichkeitsrechnung Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt

Mehr

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009 Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

Beispiel: Zweidimensionale Normalverteilung I

Beispiel: Zweidimensionale Normalverteilung I 10 Mehrdimensionale Zufallsvariablen Bedingte Verteilungen 10.6 Beispiel: Zweidimensionale Normalverteilung I Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale (multivariate) Normalverteilung

Mehr

Gemeinsame Verteilung von Zufallsvariablen

Gemeinsame Verteilung von Zufallsvariablen Kapitel 6 Gemeinsame Verteilung von Zufallsvariablen 6. Gemeinsame Verteilungen zweier Zufallsvariablen Bisher haben wir nur die Verteilung einer Zufallsvariablen betrachtet. Zur Beschreibung des stochastischen

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient 11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

2.1 Gemeinsame-, Rand- und bedingte Verteilungen Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

Kapitel 5. Stochastik

Kapitel 5. Stochastik 76 Kapitel 5 Stochastik In diesem Kapitel wollen wir die Grundzüge der Wahrscheinlichkeitstheorie behandeln. Wir beschränken uns dabei auf diskrete Wahrscheinlichkeitsräume Ω. Definition 5.1. Ein diskreter

Mehr

Ü b u n g s b l a t t 13

Ü b u n g s b l a t t 13 Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben

Mehr

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind: Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

9 Die Normalverteilung

9 Die Normalverteilung 9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen Kapitel 5 Univariate Zufallsvariablen Im ersten Teil dieses Skriptes haben wir uns mit Daten beschäftigt und gezeigt, wie man die Verteilung eines Merkmals beschreiben kann. Ist man nur an der Population

Mehr

Übungsaufgaben, Statistik 1

Übungsaufgaben, Statistik 1 Übungsaufgaben, Statistik 1 Kapitel 3: Wahrscheinlichkeiten [ 4 ] 3. Übungswoche Der Spiegel berichtet in Heft 29/2007 von folgender Umfrage vom 3. und 4. Juli 2007:,, Immer wieder werden der Dalai Lama

Mehr

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig

Mehr

Wahrscheinlichkeitsrechnung und Quantentheorie

Wahrscheinlichkeitsrechnung und Quantentheorie Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten

Mehr

I. Deskriptive Statistik 1

I. Deskriptive Statistik 1 I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................

Mehr

3.3 Bedingte Wahrscheinlichkeit

3.3 Bedingte Wahrscheinlichkeit 28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Institut für Biometrie und klinische Forschung. WiSe 2012/2013 Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive

Mehr

Stochastik für die Naturwissenschaften

Stochastik für die Naturwissenschaften Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 5. Erwartungswert E und Varianz V Literatur Kapitel 5 * Storrer: (37.9)-(37.12), (38.4), (40.6)-(40.9), (41.2) * Stahel: Kapitel 5 und 6 (nur

Mehr

Copula Funktionen. Eine Einführung. Nils Friewald

Copula Funktionen. Eine Einführung. Nils Friewald Copula Funktionen Eine Einführung Nils Friewald Institut für Managementwissenschaften Abteilung Finanzwirtschaft und Controlling Favoritenstraße 9-11, 1040 Wien friewald@imw.tuwien.ac.at 13. Juni 2005

Mehr

Tabellarische und graphie Darstellung von univariaten Daten

Tabellarische und graphie Darstellung von univariaten Daten Part I Wrums 1 Motivation und Einleitung Motivation Satz von Bayes Übersetzten mit Paralleltext Merkmale und Datentypen Skalentypen Norminal Ordinal Intervall Verältnis Merkmalstyp Diskret Stetig Tabellarische

Mehr

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Satz 18 (Satz von der totalen Wahrscheinlichkeit) Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte

Mehr

Vorlesung 8a. Kovarianz und Korrelation

Vorlesung 8a. Kovarianz und Korrelation Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere

Mehr

Inhaltsverzeichnis. 2 Kurzbeschreibung von SPSS Der SPSS-Dateneditor Statistische Analysen mit SPSS DieDaten...

Inhaltsverzeichnis. 2 Kurzbeschreibung von SPSS Der SPSS-Dateneditor Statistische Analysen mit SPSS DieDaten... Inhaltsverzeichnis Teil I Einführung 1 Kleine Einführung in R... 3 1.1 Installieren und Starten von R... 3 1.2 R-Befehleausführen... 3 1.3 R-Workspace speichern... 4 1.4 R-History sichern........ 4 1.5

Mehr

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5

Inhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5 Inhaltsverzeichnis Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite 1.0 Erste Begriffsbildungen 1 1.1 Merkmale und Skalen 5 1.2 Von der Urliste zu Häufigkeitsverteilungen 9 1.2.0 Erste Ordnung

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe

9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe Übungsmaterial 9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe 9. Erwartungswert Fragt man nach dem mittleren Wert einer Zufallsgröÿe X pro Versuch, so berechnet man den Erwartungswert

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Statistik Klausur Wintersemester 2012/2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik Klausur Wintersemester 2012/2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik 1 1. Klausur Wintersemester 2012/2013 Hamburg, 19.03.2013 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................

Mehr

Bedingte Wahrscheinlichkeiten und Unabhängigkeit

Bedingte Wahrscheinlichkeiten und Unabhängigkeit Kapitel 5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Mitunter erhält man über das Ergebnis eines zufälligen Versuches Vorinformationen. Dann entsteht die Frage, wie sich für den Betrachter, den man

Mehr

Induktive Statistik mit möglichst wenig Formeln

Induktive Statistik mit möglichst wenig Formeln Induktive Statistik mit möglichst wenig Formeln Friedrich-Alexander Universität Erlangen-Nürnberg WS 2012/13 (WS 2012/13) Ingo Klein WS 2012/13 1 / 160 Download http://www.statistik.wiso.uni-erlangen.de/lehre/sonstige-veranstaltungen/induktivestatistik-fast-ohne-formeln.shtml

Mehr

Appendix: Stetige Verteilungen

Appendix: Stetige Verteilungen Anhang A Appendix: Stetige Verteilungen In diesem Appendix werden der üblichen statistischen Praxis folgend Zufallsvariablen mit Großbuchstaben und Realisationen mit Kleinbuchstaben bezeichnet. A. Gleichverteilung

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 11. Mai 2011 Inhaltsverzeichnis 1 Deterministische und zufällige

Mehr

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet Kapitel 10 Zufall und Wahrscheinlichkeit 10.1. Grundbegriffe Wahrscheinlichkeitsrechnung Zufallsvorgang Klein-Omega ω Groß-Omega Ω Stellt Modelle bereit, die es erlauben zufallsabhängige Prozesse abzuschätzen

Mehr

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

Bachelor BEE Statistik Übung: Blatt 1 Ostfalia - Hochschule für angewandte Wissenschaften Fakultät Versorgungstechnik Aufgabe (1.1): Gegeben sei die folgende Messreihe: Nr. ph-werte 1-10 6.4 6.3 6.7 6.5

Mehr

Allgemeine Wahrscheinlichkeitsräume

Allgemeine Wahrscheinlichkeitsräume Kapitel 3 Allgemeine Wahrscheinlichkeitsräume 3. Einleitung Wir hatten schon bemerkt, dass der Begriff des diskreten Wahrscheinlichkeitsraums nicht ausreicht, um das unendliche Wiederholen eines Zufallsexperiments

Mehr

I. Zahlen, Rechenregeln & Kombinatorik

I. Zahlen, Rechenregeln & Kombinatorik XIV. Wiederholung Seite 1 I. Zahlen, Rechenregeln & Kombinatorik 1 Zahlentypen 2 Rechenregeln Brüche, Wurzeln & Potenzen, Logarithmen 3 Prozentrechnung 4 Kombinatorik Möglichkeiten, k Elemente anzuordnen

Mehr

Mathematische Ökonometrie

Mathematische Ökonometrie Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch

Mehr

Gemeinsame Wahrscheinlichkeitsverteilungen

Gemeinsame Wahrscheinlichkeitsverteilungen Gemeinsame Wahrscheinlichkeitsverteilungen Worum geht es in diesem Modul? Gemeinsame Wahrscheinlichkeits-Funktion zweier Zufallsvariablen Randverteilungen Bedingte Verteilungen Unabhängigkeit von Zufallsvariablen

Mehr

Statistik für Ökonomen

Statistik für Ökonomen Wolfgang Kohn Riza Öztürk Statistik für Ökonomen Datenanalyse mit R und SPSS 2., überarbeitete Auflage 4ü Springer Gabler Inhaltsverzeichnis Teil I Einführung 1 Kleine Einführung in R '! 3 1.1 Installieren

Mehr

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 / Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =

Mehr

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012 Weihnachtszettel zur Vorlesung Stochastik I Wintersemester 0/0 Aufgabe. Der Weihnachtsmann hat vergessen die Weihnachtsgeschenke mit Namen zu beschriften und muss sie daher zufällig verteilen. Dabei enthält

Mehr

Elementare Wahrscheinlichkeitsrechnung

Elementare Wahrscheinlichkeitsrechnung Johann Pfanzagl Elementare Wahrscheinlichkeitsrechnung 2., überarbeitete und erweiterte Auflage W DE G Walter de Gruyter Berlin New York 1991 Inhaltsverzeichnis 1. Zufallsexperimente und Wahrscheinlichkeit

Mehr

Inhaltsverzeichnis. Teil I Einführung

Inhaltsverzeichnis. Teil I Einführung Inhaltsverzeichnis Teil I Einführung 1 Statistik-Programme... 1.1 Kleine Einführung in R... 1.1.1 Installieren und Starten von R. 1.1.2 R-Konsole... 1.1.3 R-Workspace... 1.1.4 R-History... 1.1.5 R-Skripteditor...

Mehr

Das Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern.

Das Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern. 10. Stetige Zufallsvariable, Normalverteilung 55 Die in den folgenden Beispielen dargestellten Verteilungen haben ungefähr Glockenform. Sie können durch die sogenannte Normalverteilung oder Gaussverteilung

Mehr

Diskrete Wahrscheinlichkeitstheorie - Probeklausur

Diskrete Wahrscheinlichkeitstheorie - Probeklausur Diskrete Wahrscheinlichkeitstheorie - robeklausur Sommersemester 2007 - Lösung Name: Vorname: Matrikelnr.: Studiengang: Hinweise Sie sollten insgesamt Blätter erhalten haben. Tragen Sie bitte Ihre Antworten

Mehr

Tabelle 11.2 zeigt die gemeinsame Wahrscheinlichkeitsfunktion und die Randverteilungen

Tabelle 11.2 zeigt die gemeinsame Wahrscheinlichkeitsfunktion und die Randverteilungen Kapitel 11 Stichprobenfunktionen Um eine Aussage über den Wert eines unbekannten Parameters θ zu machen, zieht man eine Zufallsstichprobe vom Umfang n aus der Grundgesamtheit. Das Merkmal wird in diesem

Mehr

Spezielle stetige Verteilungen

Spezielle stetige Verteilungen Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte

Mehr

STETIGE VERTEILUNGEN

STETIGE VERTEILUNGEN STETIGE VERTEILUNGEN. Die Näherungsformel von Moivre Laplace Betrachtet man die Binomialverteilungen Bnp für wachsendes n bei konstantem p, so werden die Histogramme einer binomialverteilten Zufallsvariablen

Mehr

Hilfsmittel aus Mathematik und Statistik - Materialien zu Investition und Finanzierung -

Hilfsmittel aus Mathematik und Statistik - Materialien zu Investition und Finanzierung - Hilfsmittel aus Mathematik und Statistik - Materialien zu Investition und Finanzierung - Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Finanzierung Universität Passau 2006 Inhaltsverzeichnis Statistik

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Lernzusammenfassung für die Klausur. Inhaltsverzeichnis. Stochastik im SS 2001 bei Professor Sturm

Lernzusammenfassung für die Klausur. Inhaltsverzeichnis. Stochastik im SS 2001 bei Professor Sturm Stochastik im SS 2001 bei Professor Sturm Lernzusammenfassung für die Klausur Hallo! In diesem Text habe ich die wichtigsten Dinge der Stochastikvorlesung zusammengefaÿt, jedenfalls soweit, wie ich bis

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+

Mehr

0, t 0,5

0, t 0,5 XIII. Die Normalverteilung ==================================================================. Der lokale Grenzwertsatz --------------------------------------------------------------------------------------------------------------

Mehr

Aufgaben zu Kapitel 38

Aufgaben zu Kapitel 38 Aufgaben zu Kapitel 38 Aufgaben zu Kapitel 38 Verständnisfragen Aufgabe 38. Welche der folgenden vier Aussagen sind richtig:. Kennt man die Verteilung von X und die Verteilung von Y, dann kann man daraus

Mehr

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007 Mathematik IV für Maschinenbau und Informatik Stochastik Universität Rostock, Institut für Mathematik Sommersemester 007 Prof. Dr. F. Liese Dipl.-Math. M. Helwich Serie Termin: 9. Juni 007 Aufgabe 3 Punkte

Mehr

Folien zur Vorlesung. Statistik II (Wahrscheinlichkeitsrechnung und schließende Statistik)

Folien zur Vorlesung. Statistik II (Wahrscheinlichkeitsrechnung und schließende Statistik) Folien zur Vorlesung Statistik II (Wahrscheinlichkeitsrechnung und schließende Statistik) Sommersemester 2014 Montag, 16.15-17.45 Uhr Hörsaal: H 1 und H 3 Prof. Dr. Bernd Wilfling Westfälische Wilhelms-Universität

Mehr