4. Gemeinsame Verteilung und Grenzwertsätze
|
|
- Sven Huber
- vor 6 Jahren
- Abrufe
Transkript
1 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen (X und Y ) 220
2 Beispiele: Zufällig ausgewählter Haushalt: X = Haushaltsgröße Y = Anzahl Autos Tagesrenditen zweier Aktien: X = Rendite der VW-Aktie Y = Rendite der BASF-Aktie 2-facher Würfelwurf: X = Minimum der Augenzahlen Y = Maximum der Augenzahlen 221
3 4.1 Gemeinsame Verteilung von Zufallsvariablen Situation: Betrachte zwei ZV en X und Y zu ein und demselben Zufallsexperiment, d.h. X : Ω R Y : Ω R 222
4 Definition 4.1: (Gemeinsame Verteilungsfunktion) Für die beiden ZV en X und Y heißt die Funktion F X,Y : R 2 [0, 1] mit F X,Y (x, y) = P ({ω X(ω) x und Y (ω) y}) = P (X x, Y y) die gemeinsame Verteilungsfunktion von X und Y. 223
5 Bemerkung: Die gemeinsame VF von X und Y ist die Wskt. dafür, dass sich gleichzeitig 1. X kleiner oder gleich dem Wert x und 2. Y kleiner oder gleich dem Wert y realisieren Einige Eigenschaften der gemeinsamen Verteilungsfunktion: F X,Y (x, y) ist monoton steigend in x und y lim x +,y + F X,Y (x, y) = 1 224
6 Jetzt: Unterscheidung zwischen 1. diskreten gemeinsamen Verteilungen 2. stetigen gemeinsamen Verteilungen 225
7 Definition 4.2: (Gemeinsam diskrete Zufallsvariablen) Die beiden ZV en X und Y heißen gemeinsam diskret verteilt, falls es endlich viele oder abzählbar unendlich viele Realisationen x 1, x 2,... und y 1, y 2,... gibt, so dass mit j=1 k=1 p jk P (X = x j, Y = y k ) > 0 p jk = j=1 k=1 P (X = x j, Y = y k ) = 1 gilt. Für die gemeinsam diskret verteilten ZV en X und Y heißt die Funktion f X,Y (x, y) = { pjk = P (X = x j, Y = y k ), für x = x j und y = y k 0, sonst die gemeinsame Wahrscheinlichkeitsfunktion der diskreten ZV en X und Y. 226
8 Bemerkung: Die gemeinsame Wahrscheinlichkeitsfunktion kann in einer Wahrscheinlichkeitstabelle dargestellt werden: X/Y y 1 y 2 y 3... x 1 p 11 p 12 p x 2. p 21. p 22. p
9 Beispiel: [I] X = Haushaltsgröße, Y = Anzahl Autos Wahrscheinlichkeitstabelle X/Y
10 Beispiel: [II] Berechnung der gemeinsamen Verteilungsfunktion: F X,Y (x, y) = p jk {j x j x} {k y k y} Z.B. gilt oder F X,Y (3, 1) = P (X 3, Y 1) = = 0.56 F X,Y (1.5, 3.2) = P (X 1.5, Y 3.2) = =
11 Jetzt: X = und Y seien beides stetige Zufallsvariablen Definition 4.3: (Gemeinsam stetige Zufallsvariablen) Die beiden ZV en X und Y heißen gemeinsam stetig verteilt, falls sich ihre gemeinsame Verteilungsfunktion F X,Y als Doppelintegral einer Funktion f X,Y : R 2 [0, ) schreiben lässt, d.h. wenn gilt F X,Y (x, y) = P (X x, Y y) = y x f X,Y (u, v) du dv für alle (x, y) R 2. Die Funktion f X,Y (x, y) heißt gemeinsame Dichtefunktion von X und Y. 230
12 Gemeinsame Dichtefunktion der Zufallsvariablen X und Y 231
13 Bemerkungen: [I] Rechnen mit gemeinsamen stetigen Verteilungen erfordert Differential- und Integralrechnung mit Funktionen mehrerer Veränderlicher (partielles Differenzieren, Doppelintegrale) Bei partieller Differenzierbarkeit gilt f X,Y (x, y) = 2 x y F X,Y (x, y) (Zusammenhang: gemeinsame Dichte- und gemeinsame VF) 232
14 Bemerkungen: [II] Für alle (x, y) R 2 gilt f X,Y (x, y) 0 (gemeinsame Dichte ist überall positiv) Das Volumen unter der Dichte ist 1, d.h. + + f X,Y (x, y) dx dy = 1 Durch Doppelintegration der Dichte erhält man Intervallwahrscheinlichkeiten, z.b. P (x 1 X x 2, y 1 Y y 2 ) = y2 x2 y 1 x 1 f X,Y (x, y) dx dy (vgl. eindimensionalen stetigen Fall auf Folien 145, 146) 233
15 Gemeinsame Dichte- und Verteilungsfunktion der ZV en X = Rendite VW-Aktie und Y = Rendite BASF-Aktie 234
16 Jetzt folgende Ausgangssituation: X und Y seien (diskret oder stetig) gemeinsam verteilt mit der gemeinsamen Verteilungsfunktion F X,Y (x, y) Gesucht: Verteilung von X bzw. von Y, wenn man die jeweils andere Verteilung ignoriert (die sogenannten Randverteilungen) 235
17 Es gilt: [I] 1. Randverteilungsfunktionen F X bzw. F Y F X (x) = lim y + F X,Y (x, y) = P (X x, Y R) F Y (y) = lim x + F X,Y (x, y) = P (X R, Y y) 2. Randwahrscheinlichkeiten gemeinsam diskreter ZV en p j, P (X = x j ) = p,k P (Y = y k ) =... k=1... j=1 P (X = x j, Y = y k ) = P (X = x j, Y = y k ) =... p jk k=1... p jk j=1 236
18 Es gilt: [II] 3. Randdichten gemeinsam stetiger ZV en f X (x) = + f X,Y (x, y) dy f Y (y) = + f X,Y (x, y) dx Wichtig: Die Randverteilungen ergeben sich eindeutig aus der gemeinsamen Verteilung von X und Y ABER: Die gemeinsame Verteilung ist nicht eindeutig durch die Randverteilungen bestimmt 237
19 Relevanz der Randverteilungen: Mit den Randverteilungen einer gemeinsamen Verteilung definiert man den Begriff der Stochastischen Unabhängigkeit von Zufallsvariablen (vgl. Definition 2.13, Folie 82) Definition 4.4: (Unabhängigkeit von Zufallsvariablen) Die ZV en X und Y heißen (stochastisch) unabhängig, falls ihre gemeinsame Wahrscheinlichkeitsfunktion (diskreter Fall) bzw. ihre gemeinsame Dichtefunktion (stetiger Fall) dem Produkt der Randverteilungen entspricht, d.h. falls f X,Y (x, y) = f X (x) f Y (y) für alle x, y R. 238
20 Bemerkungen: Für gemeinsam diskret verteilte ZV en X und Y bedeutet die Definition 4.4: X und Y sind stochastisch unabhängig, wenn für alle j = 1, 2,... und k = 1, 2,... gilt: P (X = x j, Y = y k ) = P (X = x j ) P (Y = y k ) Alternativ drückt man die stochastische Unabhängigkeit über die gemeinsame Verteilungsfunktion aus: Satz 4.5: (Stochastische Unabhängigkeit) Die ZV en X und Y sind genau dann stochastisch unabhängig, falls sich ihre gemeinsame Verteilungsfunktion als Produkt der Randverteilungsfunktionen darstellen lässt, d.h. falls F X,Y (x, y) = F X (x) F Y (y) für alle x, y R. 239
21 Beispiel 1: (Diskreter Fall) [I] Es bezeichnen X die Haushaltsgröße Y die Anzahl Autos pro Haushalt 240
22 Beispiel 1: (Diskreter Fall) [II] Wahrscheinlichkeitstabelle: X/Y y 1 = 0 y 2 = 1 y 3 = 2 p j = P (X = x j ) x 1 = x 2 = x 3 = x 4 = x 5 = p k = P (Y = y k )
23 Beispiel 1: (Diskreter Fall) [III] X und Y sind stochastisch abhängig, denn P (X = 1, Y = 0) = 0.10 aber P (X = 1) P (Y = 0) = = 0.05 d.h. P (X = 1, Y = 0) = = P (X = 1) P (Y = 0) 242
24 Beispiel 2: (Stetiger Fall) [I] stetig verteilt mit gemeinsamer Dichte- Es seien X und Y funktion f X,Y (x, y) = { x + y, für 0 x 1, 0 y 1 0, sonst 243
25 Beispiel 2: (Stetiger Fall) [II] Die Randdichte von X ergibt sich als { + 10 f X (x) = f (x + y) dy, für 0 x 1 X,Y (x, y) dy = 0, sonst = [ x y y 2] 1 0 0, sonst, für 0 x 1 = { x (x ), für 0 x 1 0, sonst = { x + 1 2, für 0 x 1 0, sonst 244
26 Beispiel 2: (Stetiger Fall) [III] Auf analoge Art errechnet sich die Randdichte von Y : f Y (y) = + f X,Y (x, y) dx = { y + 1 2, für 0 y 1 0, sonst X und Y sind stochastisch abhängig, denn f X (0.2) f Y (0.2) = ( ) ( ) = 0.49 aber f X,Y (0.2, 0.2) = = 0.4 d.h. f X,Y (0.2, 0.2) = = f X (x) f Y (y) 245
27 Weiteres wichtiges Konzept: Bedingte Verteilung (vgl. Abschnitt 2.3, Folie 67 ff.) Grundlegende Frage: Wie ist die ZV X verteilt, wenn der Wert der ZV en Y bekannt ist Hier: Beschränkung auf diskrete ZV en 246
28 Definition 4.6: (Bedingte Wahrscheinlichkeit) Es seien X und Y zwei gemeinsam diskret verteilte ZV en mit der gemeinsamen Wahrscheinlichkeitsfunktion f X,Y (x, y) = { pjk = P (X = x j, Y = y k ), für x = x j und y = y k 0, sonst Dann ist die bedingte Wahrscheinlichkeit für X = x j unter der Bedingung Y = y k definiert durch. P (X = x j Y = y k ) = P (X = x j, Y = y k ) P (Y = y k ) für alle Realisationen x 1, x 2,... der ZV en X. 247
29 Bemerkungen: [I] Die Definition 4.6 entspricht exakt der Definition 2.12 auf Folie 70 für die Ereignisse (Mengen) A und B Wenn die ZV en X und Y stochastisch unabhängig im Sinne der Definition 4.4 von Folie 238 sind, so gilt: P (X = x j Y = y k ) = P (X = x j, Y = y k ) P (Y = y k ) = P (X = x j) P (Y = y k ) P (Y = y k ) = P (X = x j ) Bei stochastischer Unabhängigkeit sind die bedingten Wahrscheinlichkeiten von X unter Y = y k gleich den unbedingten Wahrscheinlichkeiten von X 248
30 Bemerkungen: [III] Mit der bedingten Wahrscheinlichkeitsfunktion aus Definition 4.6 definiert man die bedingte Verteilungsfunktion F X Y =yk (x) = {j x j x} den bedingten Erwartungswert E(X Y = y k ) = {x j T X } P (X = x j Y = y k ) x j P (X = x j Y = y k ) 249
31 Beispiel: [I] X = Haushaltsgröße, Y = Anzahl Autos pro Haushalt Wahrscheinlichkeitstabelle: X/Y y 1 = 0 y 2 = 1 y 3 = 2 p j = P (X = x j ) x 1 = x 2 = x 3 = x 4 = x 5 = p k = P (Y = y k )
32 Beispiel: [II] Bedingte Verteilung von Y unter der Bedingung X = 2: y k P (Y = y k X = 2) /0.30 = /0.30 = /0.30 = Bedingter Erwartungswert von Y unter der Bedingung X = 2: E(Y X = 2) = =
33 Jetzt: Definition des Erwartungswertes einer Funktion g : R 2 R (x, y) g(x, y) zweier gemeinsam verteilter Zufallsvariablen X und Y (d.h. E[g(X, Y )]) Bedeutung: Gewinnung diverser praktischer Ergebnisse und hilfreicher Rechenregeln 252
34 Definition 4.7: (E-Wert einer Funktion) Es seien X und Y zwei gemeinsam (diskret oder stetig) verteilte ZV en mit Wahrscheinlichkeits- bzw. Dichtefunktion f X,Y (x, y) und g(x, y) eine Funktion. Dann ist der Erwartungswert der Funktion definiert als E[g(X, Y )] = {x j T X } {y k T Y } falls X und Y gemeinsam diskret bzw. E[g(X, Y )] = + + g(x j, y k ) P (X = x j, Y = y k ), g(x, y) f X,Y (x, y) dx dy, falls X und Y gemeinsam stetig verteilt sind. 253
35 Beispiel 1: [I] Es seien X und Y gemeinsam stetig verteilte ZV en mit Dichtefunktion f X,Y (x, y) Für g(x, y) = y gilt: E[g(X, Y )] = + + g(x, y) f X,Y (x, y) dx dy = = y ( + y f X,Y (x, y) dx dy f X,Y (x, y) dx ) }{{} = f Y (y) (Randdichte) dy 254
36 Beispiel 1: [II] und somit E[g(X, Y )] = + y f Y (y) dy = E(Y ) Ebenso erhält man für g(x, y) = x: E[g(X, Y )] = E(X) Analoges Ergebnis für diskrete ZV en X und Y 255
37 Beispiel 2: [I] Für g(x, y) = x + y gilt: E[g(X, Y )] = E(X + Y ) = + + (x + y) f X,Y (x, y) dx dy = + + [ x fx,y (x, y) + y f X,Y (x, y) ] dx dy = + + x f X,Y (x, y) dx dy y f X,Y (x, y) dx dy = + x f X(x) dx + + y f Y (y) dy = E(X) + E(Y ) 256
38 Bemerkung: Unter bestimmten (hier erfüllten) Voraussetzungen kann die Integrationsreihenfolge vertauscht werden Jetzt: Maßzahl zur Messung des Zusammenhangs zwischen zwei ZV en X und Y Konzept: [I] Betrachte Abweichung einer jeden ZV en vom jeweiligen Erwartungswert, d.h. X E(X) sowie Y E(Y ) 257
39 Konzept: [II] Das Produkt der Abweichungen, [X E(X)] [Y E(Y )] ist eine ZV und gibt Auskunft darüber, ob die beiden ZV en X und Y tendenziell in die gleiche oder in unterschiedliche Richtungen von ihren jeweiligen Erwartungswerten abweichen Der Erwartungswert dieser ZV en, d.h. E[(X E(X)) (Y E(Y ))] ist ein plausibles Maß für den Zusammenhang zwischen X und Y 258
40 Definition 4.8: (Kovarianz) Es seien X und Y zwei ZV en mit den jeweiligen Erwartungswerten E(X) und E(Y ). Dann heißt die Größe Cov(X, Y ) E[(X E(X)) (Y E(Y ))] die Kovarianz zwischen X und Y. Bemerkungen: [I] Die Kovarianz ist der Erwartungswert der Funktion g(x, Y ) = (X E(X)) (Y E(Y )) 259
41 Bemerkungen: [II] Gemäß Definition 4.7 (Folie 253) berechnet sich dieser Erwartungswert als Cov(X, Y ) = ( xj E(X) ) (y k E(Y )) p jk {x j T X } {y k T Y } mit p jk = P (X = x j, Y = y k ) falls X und Y gemeinsam diskret bzw. Cov(X, Y ) = + + (x E(X)) (y E(Y )) f X,Y (x, y) dx dy, falls X und Y gemeinsam stetig verteilt sind Nützliche Umformung: Cov(X, Y ) = E(X Y ) E(X) E(Y ) 260
42 Zentrales Resultat: Zusammenhang zwischen stochastischer Unabhängigkeit der ZV en X und Y und deren Kovarianz Satz 4.9: (Unabhängigkeit und Kovarianz) Es seien X und Y zwei ZV en mit den jeweiligen Erwartungswerten E(X) und E(Y ). Sind X und Y stochastisch unabhängig, so folgt Cov(X, Y ) =
43 Beweis: (für stetige ZV en) [I] Zunächst gilt: E(X Y ) = + + x y f X,Y (x, y) dx dy = + + x y f X(x) f Y (y) dx dy = + y f Y (y) dy } {{ } =E(Y ) + x f X(x) dx } {{ } =E(X) = E(X) E(Y ) 262
44 Beweis: (für stetige ZV en) [II] Damit gilt: Cov(X, Y ) = E(X Y ) E(X) E(Y ) = E(X) E(Y ) E(X) E(Y ) = 0 Vorsicht: Die Umkehrung gilt nicht, d.h. aus Cov(X, Y ) = 0 folgt nicht die Unabhängigkeit von X und Y 263
45 Aber: Aus Cov(X, Y ) = 0 folgt, dass X und Y stochastisch abhängig sind Nachteil der Kovarianz: Cov(X, Y ) ist nicht normiert Normierung der Kovarianz führt zum Korrelationskoeffizienten 264
46 Definition 4.10: (Korrelationkoeffizient) Es seien X und Y zwei ZV en mit den Erwartungswerten E(X), E(Y ) und den Varianzen V (X), V (Y ). Dann ist der Korrelationskoeffizient zwischen X und Y definiert durch Corr(X, Y ) = Cov(X, Y ). V (X) V (Y ) Eigenschaften des Korrelationskoeffizienten: [I] Corr(X, Y ) ist dimensionslos Corr(X, Y ) ist symmetrisch, d.h. Corr(X, Y ) = Corr(Y, X) 265
47 Eigenschaften des Korrelationskoeffizienten: [II] Sind X und X stochastisch unabhängig, so gilt Corr(X, Y ) = 0 (Vorsicht: Die Umkehrung gilt nicht) Der Korrelationskoeffizient ist normiert, d.h. es gilt stets 1 Corr(X, Y ) 1 Der Korrelationskoeffizient misst die Stärke des linearen Zusammenhangs zwischen den ZV en X und Y 266
48 Bisher gezeigt: Sind X und Y zwei (diskrete oder stetige) ZV, so gilt: E(X + Y ) = E(X) + E(Y ) (vgl. Folie 256) E(X Y ) = E(X) E(Y ) + Cov(X, Y ) (vgl. Folie 260) Jetzt: Varianz einer Summe von ZV en 267
49 Varianz einer Summe von ZV en: V (X + Y ) = E { [X + Y E (X + Y )] 2} = E { [(X E(X)) + (Y E(Y ))] 2} = E [X E(X)] 2 }{{} =V (X) + E [Y E(Y )] 2 }{{} =V (Y ) +2 E {[X E(X)] [Y E(Y )]} }{{} =Cov(X,Y ) = V (X) + V (Y ) + 2 Cov(X, Y ) 268
50 Satz 4.11: (Rechenregeln) Sind X und Y (diskrete oder stetige) ZV en mit Erwartungswerten E(X), E(Y ) und Varianzen V (X), V (Y ), so gilt: 1. E(X + Y ) = E(X) + E(Y ), 2. E(X Y ) = E(X) E(Y ) + Cov(X, Y ), 3. V (X + Y ) = V (X) + V (Y ) + 2 Cov(X, Y ). Sind X und Y zusätzlich stochastisch unabhängig, so folgt wegen Cov(X, Y ) = 0: E(X Y ) = E(X) E(Y ) V (X + Y ) = V (X) + V (Y ). 269
51 Bemerkung: Es seien X und Y (diskrete oder stetige) ZV en und a, b R reelle Zahlen a X + b Y ist ebenfalls eine ZV und es gilt: E (a X + b Y ) = a E(X) + b E(Y ) V (a X + b Y ) = a 2 V (X) + b 2 V (Y ) + 2 a b Cov(X, Y ) 270
52 Beispiel: [I] In einem Portfolio befinden sich 2 Aktien X : Jahresrendite der Aktie A (in %) Y : Jahresrendite der Aktie B (in %) Bekannt seien E(X) = 7 σ(x) = V (X) = 25 E(Y ) = 15 σ(y ) = V (Y ) = 45 Corr(X, Y ) = 0.4 a = 70% des Vermögens wurden in Aktie A investiert b = 30% des Vermögens wurden in Aktie B investiert 271
53 Beispiel: [II] Die Jahresrendite des Portfolios ist Z = a X + b Y Für die erwartete Rendite des Portfolios folgt: E(Z) = E(a X + b Y ) = a E(X) + b E(Y ) = =
54 Beispiel: [III] Für die Varianz des Portfolios gilt: V (Z) = V (a X + b Y ) = a 2 V (X) + b 2 V (Y ) + 2 a b Cov(X, Y ) = a 2 V (X) + b 2 V (Y ) + 2 a b σ(x) σ(y ) Corr(X, Y ) = ( 0.4) = Für die Standardabweichung folgt: σ(z) = V (Z) = =
55 Offensichtlich: Durch Diversifikation erreicht man σ(z) = < 25 = σ(x) < 45 = σ(y ), (Standardabweichung des Portfolios ist geringer als die Standardabweichungen der Einzelaktien) Nobelpreise für H. Markowitz (1990) J. Tobin (1981) 274
56 Jetzt: Erweiterung der Rechenregeln auf n ZV en Beachte zunächst: Es seien X 1, X 2,..., X n ZV en und a 1,..., a n R Es folgt: Z = n i=1 ist ebenfalls eine Zufallsvariable a i X i = a 1 X a n X n 275
57 Satz 4.12: (Rechenregeln für gewichtete Summen) Es seien X 1,..., X n (diskrete oder stetige) Zufallsvariablen und a 1,..., a n R reelle Zahlen. Dann gelten für den Erwartungswert bzw. die Varianz der gewichteten Summe: E V n i=1 n i=1 a i X i a i X i = = n i=1 n i=1 a i E(X i ) a 2 i V (X i) + n i=1 n j=1 j i a i a j Cov(X i, X j ). 276
58 Bemerkungen: [I] Für n = 2 gilt: V (X 1 + X 2 ) = 2 i=1 a 2 i V (X i) + 2 i=1 2 j=1 j i a i a j Cov(X i, X j ) = a 2 1 V (X 1) + a 2 2 V (X 2) +a 1 a 2 Cov(X 1, X 2 ) + a 2 a 1 Cov(X 2, X 1 ) = a 2 1 V (X 1) + a 2 2 V (X 2) + 2 a 1 a 2 Cov(X 1, X 2 ) 277
59 Bemerkungen: [I] Sind X 1,..., X n paarweise stochastisch unabhängig, so folgt Cov(X i, X j ) = 0 für alle i = j, und damit V n i=1 a i X i = n i=1 a 2 i V (X i) 278
60 4.2 Grenzwertsätze Situation: Gegeben sei eine unendliche Folge von ZV en X 1, X 2, X 3,..., die alle die gleiche Verteilung besitzen und alle paarweise stochastisch unabhängig sind (d.h. Cov(X i, X j ) = 0 für alle i j) Betrachte für gegebenes n das arithmetische Mittel sowie die Variablensumme X n = 1 n n i=1 X i S n = n X i i=1 279
61 Man beachte: X n und S n sind selbst ZV en Inhalt von Grenzwertsätzen: Was passiert mit der Verteilung von X n und S n für n? Wichtige Grenzwertsätze: Schwaches bzw. starkes Gesetz der großen Zahlen Glivenko-Cantelli-Grenzwertsätze Hier nur: Zentraler Grenzwertsatz 280
62 Satz 4.13: (E-Werte und Varianzen von X n und S n ) Angenommen, jede ZV der unendlichen Folge X 1, X 2,... (alle paarweise unabhängig) hat die gleiche Verteilung wie die ZV X, wobei E(X) = µ und V (X) = σ 2. Dann gilt: E(S n ) = E V (S n ) = V E(X n ) = E V (X n ) = V n n X i = i=1 i=1 n n X i = i=1 i=1 1 n n X i i=1 1 n n X i i=1 = 1 n = 1 n 2 E(X i ) = n µ, V (X i ) = n σ 2, n i=1 n i=1 E(X i ) = µ, V (X i ) = σ2 n. 281
63 Jetzt: Essenz des zentralen Grenzwertsatzes Begründung für die Wichtigkeit der Normalverteilung Dazu: Betrachte Folge von ZV en X 1, X 2,..., X n mit folgenden Eigenschaften: X 1, X 2,..., X n sind paarweise stochastisch unabhängig (d.h. Cov(X i, X j ) = 0 für alle i j) Jede der ZV en X i hat eine beliebige Verteilung mit Erwartungswert E(X i ) und Varianz V (X i ) 282
64 Bemerkung: Dieses Szenario ist allgemeiner als die dargestellte Situation auf Folie 279 Dort hatten alle X i die gleiche Verteilung und damit alle den gleichen Erwartungswert und alle die gleiche Varianz 283
65 Beispiel: (Vier unabhängige Gleichverteilungen) Betrachte die 4 ZV en X 1 U(0, 1) X 2 U(0, 2) X 3 U(0, 3) X 4 U(0, 4) Erzeuge je 1000 Realisationen der ZV en durch einen Zufallszahlengenerator (z.b. in Excel) Darstellung der Realisationen in Histogrammen 284
66 Histogramme der 4000 Realisationen Series: R1 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Series: R2 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probability Jarque-Bera Probability Series: R3 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probability Series: R4 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probability
67 Offensichtlich: Histogramme ähneln den Dichtefunktionen Frage: Was passiert, wenn die ZV en sukzessive aufsummiert werden? Betrachte dazu S 1 = X 1, S 2 = 2 i=1 X i S 3 = 3 i=1 X i S 4 = 4 X i i=1 286
68 Histogramme der Summenrealisationen der ZV en S 1, S 2, S 3, S Series: R1 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probability Series: R1_R2 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probability Series: R1_R2_R3 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probability Series: R1_R2_R3_R4 Sample Observations 1000 Mean Median Maximum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probability
69 Offensichtlich: Histogramme der Summenrealisationen ähneln dem Histogramm einer Normalverteilung Erwartungswert der Summenverteilung S 4 : E(S 4 ) = E(X X 4 ) = = = i=1 E(X i ) 288
70 Varianz der Summenverteilung S 4 : V (S 4 ) = V (X X 4 ) Unabh. = = 4 i=1 = 2.5 V (X i ) = 5 2 Daraus ergibt sich die Standardabweichung σ(s 4 ) = 2.5 =
71 Ergebnis: Wird die Summe S n sehr groß (d.h. n ), so ist diese annähernd normalverteilt Dies ist die Essenz des zentralen Grenzwertsatzes Fazit: Setzt sich ein Zufallsvorgang additiv aus vielen kleinen unabhängigen Einflüssen zusammen, so ist der Zufallsvorgang annähernd normalverteilt Aus diesem Grund spielt die Normalverteilung in der Praxis eine entscheidende Rolle 290
Zufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrLehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Übung/Tutorate Statistik II: Schließende Statistik SS 2007
. Zufallsvariable und Verteilungsfunktion Aufgabe.1 Wahrscheinlichkeitsfunktion und Verteilungsfunktion Die Zufallsvariable X sei das Ergebnis eines Würfels a. Wie lautet die Wahrscheinlichkeitsfunktion?
Mehr2. Zufallsvariable, Verteilungsfunktion, Erwartungswert,
2. Zufallsvariable, Verteilungsfunktion, Erwartungswert, momentenerzeugende Funktion Ziel des Kapitels: Mathematische Präzisierung der Konzepte Zufallsvariable Verteilungsfunktion Dichtefunktion Erwartungswerte
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
MehrÜbungsblatt 9. f(x) = e x, für 0 x
Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable
MehrK8 Stetige Zufallsvariablen Theorie und Praxis
K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R
MehrÜbung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrZufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten
Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests
Mehr8. Stetige Zufallsvariablen
8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse
MehrAbiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.
Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 24.02.2014 Holger Wuschke B.Sc. Siedler von Catan, Rühlow 2014 Organisatorisches 0. Begriffe in der Stochastik (1) Ein Zufallsexperiment
Mehr15.5 Stetige Zufallsvariablen
5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
Mehr8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme)
8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) Annahme B4: Die Störgrößen u i sind normalverteilt, d.h. u i N(0, σ 2 ) Beispiel: [I] Neoklassisches Solow-Wachstumsmodell Annahme einer
MehrKenngrößen von Zufallsvariablen
Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrBeweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.
Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
MehrUnivariates Datenmaterial
Univariates Datenmaterial 1.6.1 Deskriptive Statistik Zufallstichprobe: Umfang n, d.h. Stichprobe von n Zufallsvariablen o Merkmal/Zufallsvariablen: Y = {Y 1, Y 2,..., Y n } o Realisationen/Daten: x =
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrKapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung
Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion
MehrLösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
MehrKapitel 2 Wahrscheinlichkeitsrechnung
Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt
MehrÜbung zu Empirische Ökonomie für Fortgeschrittene SS 2009
Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrKapitel VI - Lage- und Streuungsparameter
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie
MehrBeispiel: Zweidimensionale Normalverteilung I
10 Mehrdimensionale Zufallsvariablen Bedingte Verteilungen 10.6 Beispiel: Zweidimensionale Normalverteilung I Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale (multivariate) Normalverteilung
MehrGemeinsame Verteilung von Zufallsvariablen
Kapitel 6 Gemeinsame Verteilung von Zufallsvariablen 6. Gemeinsame Verteilungen zweier Zufallsvariablen Bisher haben wir nur die Verteilung einer Zufallsvariablen betrachtet. Zur Beschreibung des stochastischen
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
Mehr11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
MehrEinführung in die Wahrscheinlichkeitsrechnung
Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
Mehr2.1 Gemeinsame-, Rand- und bedingte Verteilungen
Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die
MehrFüllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge
2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten
MehrKapitel 5. Stochastik
76 Kapitel 5 Stochastik In diesem Kapitel wollen wir die Grundzüge der Wahrscheinlichkeitstheorie behandeln. Wir beschränken uns dabei auf diskrete Wahrscheinlichkeitsräume Ω. Definition 5.1. Ein diskreter
MehrÜ b u n g s b l a t t 13
Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrStatistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:
Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
Mehr9 Die Normalverteilung
9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
MehrKapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen
Kapitel 5 Univariate Zufallsvariablen Im ersten Teil dieses Skriptes haben wir uns mit Daten beschäftigt und gezeigt, wie man die Verteilung eines Merkmals beschreiben kann. Ist man nur an der Population
MehrÜbungsaufgaben, Statistik 1
Übungsaufgaben, Statistik 1 Kapitel 3: Wahrscheinlichkeiten [ 4 ] 3. Übungswoche Der Spiegel berichtet in Heft 29/2007 von folgender Umfrage vom 3. und 4. Juli 2007:,, Immer wieder werden der Dalai Lama
MehrKapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion
Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig
MehrWahrscheinlichkeitsrechnung und Quantentheorie
Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten
MehrI. Deskriptive Statistik 1
I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................
Mehr3.3 Bedingte Wahrscheinlichkeit
28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit
MehrKlausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK
Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:
MehrInstitut für Biometrie und klinische Forschung. WiSe 2012/2013
Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 5. Erwartungswert E und Varianz V Literatur Kapitel 5 * Storrer: (37.9)-(37.12), (38.4), (40.6)-(40.9), (41.2) * Stahel: Kapitel 5 und 6 (nur
MehrCopula Funktionen. Eine Einführung. Nils Friewald
Copula Funktionen Eine Einführung Nils Friewald Institut für Managementwissenschaften Abteilung Finanzwirtschaft und Controlling Favoritenstraße 9-11, 1040 Wien friewald@imw.tuwien.ac.at 13. Juni 2005
MehrTabellarische und graphie Darstellung von univariaten Daten
Part I Wrums 1 Motivation und Einleitung Motivation Satz von Bayes Übersetzten mit Paralleltext Merkmale und Datentypen Skalentypen Norminal Ordinal Intervall Verältnis Merkmalstyp Diskret Stetig Tabellarische
MehrSatz 18 (Satz von der totalen Wahrscheinlichkeit)
Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
MehrInhaltsverzeichnis. 2 Kurzbeschreibung von SPSS Der SPSS-Dateneditor Statistische Analysen mit SPSS DieDaten...
Inhaltsverzeichnis Teil I Einführung 1 Kleine Einführung in R... 3 1.1 Installieren und Starten von R... 3 1.2 R-Befehleausführen... 3 1.3 R-Workspace speichern... 4 1.4 R-History sichern........ 4 1.5
MehrInhaltsverzeichnis. Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite. 1.0 Erste Begriffsbildungen Merkmale und Skalen 5
Inhaltsverzeichnis Inhalt Teil I: Beschreibende (Deskriptive) Statistik Seite 1.0 Erste Begriffsbildungen 1 1.1 Merkmale und Skalen 5 1.2 Von der Urliste zu Häufigkeitsverteilungen 9 1.2.0 Erste Ordnung
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
Mehr9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe
Übungsmaterial 9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe 9. Erwartungswert Fragt man nach dem mittleren Wert einer Zufallsgröÿe X pro Versuch, so berechnet man den Erwartungswert
Mehr1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...
Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,
MehrStatistik Klausur Wintersemester 2012/2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik 1 1. Klausur Wintersemester 2012/2013 Hamburg, 19.03.2013 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................
MehrBedingte Wahrscheinlichkeiten und Unabhängigkeit
Kapitel 5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Mitunter erhält man über das Ergebnis eines zufälligen Versuches Vorinformationen. Dann entsteht die Frage, wie sich für den Betrachter, den man
MehrInduktive Statistik mit möglichst wenig Formeln
Induktive Statistik mit möglichst wenig Formeln Friedrich-Alexander Universität Erlangen-Nürnberg WS 2012/13 (WS 2012/13) Ingo Klein WS 2012/13 1 / 160 Download http://www.statistik.wiso.uni-erlangen.de/lehre/sonstige-veranstaltungen/induktivestatistik-fast-ohne-formeln.shtml
MehrAppendix: Stetige Verteilungen
Anhang A Appendix: Stetige Verteilungen In diesem Appendix werden der üblichen statistischen Praxis folgend Zufallsvariablen mit Großbuchstaben und Realisationen mit Kleinbuchstaben bezeichnet. A. Gleichverteilung
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie
Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 11. Mai 2011 Inhaltsverzeichnis 1 Deterministische und zufällige
MehrSTATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet
Kapitel 10 Zufall und Wahrscheinlichkeit 10.1. Grundbegriffe Wahrscheinlichkeitsrechnung Zufallsvorgang Klein-Omega ω Groß-Omega Ω Stellt Modelle bereit, die es erlauben zufallsabhängige Prozesse abzuschätzen
MehrDefinition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion
Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere
MehrSatz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
Mehr4 Diskrete Wahrscheinlichkeitsverteilungen
4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder
MehrBachelor BEE Statistik Übung: Blatt 1 Ostfalia - Hochschule für angewandte Wissenschaften Fakultät Versorgungstechnik Aufgabe (1.1): Gegeben sei die folgende Messreihe: Nr. ph-werte 1-10 6.4 6.3 6.7 6.5
MehrAllgemeine Wahrscheinlichkeitsräume
Kapitel 3 Allgemeine Wahrscheinlichkeitsräume 3. Einleitung Wir hatten schon bemerkt, dass der Begriff des diskreten Wahrscheinlichkeitsraums nicht ausreicht, um das unendliche Wiederholen eines Zufallsexperiments
MehrI. Zahlen, Rechenregeln & Kombinatorik
XIV. Wiederholung Seite 1 I. Zahlen, Rechenregeln & Kombinatorik 1 Zahlentypen 2 Rechenregeln Brüche, Wurzeln & Potenzen, Logarithmen 3 Prozentrechnung 4 Kombinatorik Möglichkeiten, k Elemente anzuordnen
MehrMathematische Ökonometrie
Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch
MehrGemeinsame Wahrscheinlichkeitsverteilungen
Gemeinsame Wahrscheinlichkeitsverteilungen Worum geht es in diesem Modul? Gemeinsame Wahrscheinlichkeits-Funktion zweier Zufallsvariablen Randverteilungen Bedingte Verteilungen Unabhängigkeit von Zufallsvariablen
MehrStatistik für Ökonomen
Wolfgang Kohn Riza Öztürk Statistik für Ökonomen Datenanalyse mit R und SPSS 2., überarbeitete Auflage 4ü Springer Gabler Inhaltsverzeichnis Teil I Einführung 1 Kleine Einführung in R '! 3 1.1 Installieren
MehrAufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /
Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =
MehrWeihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012
Weihnachtszettel zur Vorlesung Stochastik I Wintersemester 0/0 Aufgabe. Der Weihnachtsmann hat vergessen die Weihnachtsgeschenke mit Namen zu beschriften und muss sie daher zufällig verteilen. Dabei enthält
MehrElementare Wahrscheinlichkeitsrechnung
Johann Pfanzagl Elementare Wahrscheinlichkeitsrechnung 2., überarbeitete und erweiterte Auflage W DE G Walter de Gruyter Berlin New York 1991 Inhaltsverzeichnis 1. Zufallsexperimente und Wahrscheinlichkeit
MehrInhaltsverzeichnis. Teil I Einführung
Inhaltsverzeichnis Teil I Einführung 1 Statistik-Programme... 1.1 Kleine Einführung in R... 1.1.1 Installieren und Starten von R. 1.1.2 R-Konsole... 1.1.3 R-Workspace... 1.1.4 R-History... 1.1.5 R-Skripteditor...
MehrDas Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern.
10. Stetige Zufallsvariable, Normalverteilung 55 Die in den folgenden Beispielen dargestellten Verteilungen haben ungefähr Glockenform. Sie können durch die sogenannte Normalverteilung oder Gaussverteilung
MehrDiskrete Wahrscheinlichkeitstheorie - Probeklausur
Diskrete Wahrscheinlichkeitstheorie - robeklausur Sommersemester 2007 - Lösung Name: Vorname: Matrikelnr.: Studiengang: Hinweise Sie sollten insgesamt Blätter erhalten haben. Tragen Sie bitte Ihre Antworten
MehrTabelle 11.2 zeigt die gemeinsame Wahrscheinlichkeitsfunktion und die Randverteilungen
Kapitel 11 Stichprobenfunktionen Um eine Aussage über den Wert eines unbekannten Parameters θ zu machen, zieht man eine Zufallsstichprobe vom Umfang n aus der Grundgesamtheit. Das Merkmal wird in diesem
MehrSpezielle stetige Verteilungen
Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für
Mehr1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte
MehrSTETIGE VERTEILUNGEN
STETIGE VERTEILUNGEN. Die Näherungsformel von Moivre Laplace Betrachtet man die Binomialverteilungen Bnp für wachsendes n bei konstantem p, so werden die Histogramme einer binomialverteilten Zufallsvariablen
MehrHilfsmittel aus Mathematik und Statistik - Materialien zu Investition und Finanzierung -
Hilfsmittel aus Mathematik und Statistik - Materialien zu Investition und Finanzierung - Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Finanzierung Universität Passau 2006 Inhaltsverzeichnis Statistik
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrLernzusammenfassung für die Klausur. Inhaltsverzeichnis. Stochastik im SS 2001 bei Professor Sturm
Stochastik im SS 2001 bei Professor Sturm Lernzusammenfassung für die Klausur Hallo! In diesem Text habe ich die wichtigsten Dinge der Stochastikvorlesung zusammengefaÿt, jedenfalls soweit, wie ich bis
MehrMathematische und statistische Methoden II
Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+
Mehr0, t 0,5
XIII. Die Normalverteilung ==================================================================. Der lokale Grenzwertsatz --------------------------------------------------------------------------------------------------------------
MehrAufgaben zu Kapitel 38
Aufgaben zu Kapitel 38 Aufgaben zu Kapitel 38 Verständnisfragen Aufgabe 38. Welche der folgenden vier Aussagen sind richtig:. Kennt man die Verteilung von X und die Verteilung von Y, dann kann man daraus
MehrMathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007
Mathematik IV für Maschinenbau und Informatik Stochastik Universität Rostock, Institut für Mathematik Sommersemester 007 Prof. Dr. F. Liese Dipl.-Math. M. Helwich Serie Termin: 9. Juni 007 Aufgabe 3 Punkte
MehrFolien zur Vorlesung. Statistik II (Wahrscheinlichkeitsrechnung und schließende Statistik)
Folien zur Vorlesung Statistik II (Wahrscheinlichkeitsrechnung und schließende Statistik) Sommersemester 2014 Montag, 16.15-17.45 Uhr Hörsaal: H 1 und H 3 Prof. Dr. Bernd Wilfling Westfälische Wilhelms-Universität
Mehr