Vorlesung 12a. Zerlegung der Varianz
|
|
- Jobst Hauer
- vor 6 Jahren
- Abrufe
Transkript
1 Vorlesung 12a Zerlegung der Varianz 1
2 Im zufälligen Paar (X, Y ) 2
3 Im zufälligen Paar (X, Y ) sei Y reellwertig mit endlicher Varianz.
4 Im zufälligen Paar (X, Y ) sei Y reellwertig mit endlicher Varianz. Die (bedingte) Varianz von Y, gegeben X = x
5 Im zufälligen Paar (X, Y ) sei Y reellwertig mit endlicher Varianz. Die (bedingte) Varianz von Y, gegeben X = x ist definiert als
6 Im zufälligen Paar (X, Y ) sei Y reellwertig mit endlicher Varianz. Die (bedingte) Varianz von Y, gegeben X = x ist definiert als E x [(Y E x [Y ]) 2 ]
7 Im zufälligen Paar (X, Y ) sei Y reellwertig mit endlicher Varianz. Die (bedingte) Varianz von Y, gegeben X = x ist definiert als E x [(Y E x [Y ]) 2 ] (Symbole: Var[Y X = x], Var x [Y ].)
8 Satz: 3
9 Satz: Var[Y ] = E[Var X [Y ]] + Var[E X [Y ]].
10 Satz: Var[Y ] = E[Var X [Y ]] + Var[E X [Y ]]. Beweis:
11 Satz: Var[Y ] = E[Var X [Y ]] + Var[E X [Y ]]. Beweis: E[(Y µ Y ) 2 ] = E[E X [(Y µ Y ) 2 ]
12 Satz: Var[Y ] = E[Var X [Y ]] + Var[E X [Y ]]. Beweis: E[(Y µ Y ) 2 ] = E[E X [(Y µ Y ) 2 ] = E[E X [(Y E X [Y ] + E X [Y ] µ Y ) 2 ]]
13 Satz: Var[Y ] = E[Var X [Y ]] + Var[E X [Y ]]. Beweis: E[(Y µ Y ) 2 ] = E[E X [(Y µ Y ) 2 ] = E[E X [(Y E X [Y ] + E X [Y ] µ Y ) 2 ]] = E[E X [(Y E X [Y ]) 2 ] + E[(E X [Y ] µ Y ) 2 ]
14 Satz: Var[Y ] = E[Var X [Y ]] + Var[E X [Y ]]. Beweis: E[(Y µ Y ) 2 ] = E[E X [(Y µ Y ) 2 ] = E[E X [(Y E X [Y ] + E X [Y ] µ Y ) 2 ]] = E[E X [(Y E X [Y ]) 2 ] + E[(E X [Y ] µ Y ) 2 ] +2E[E X [(Y E X [Y ])(E X [Y ] µ Y )]]
15 Nehmen wir uns die drei Terme gesondert unter die Lupe: 4
16 Nehmen wir uns die drei Terme gesondert unter die Lupe: E[E X [(Y E X [Y ]) 2 ] = E[Var X [Y ]],
17 Nehmen wir uns die drei Terme gesondert unter die Lupe: E[E X [(Y E X [Y ]) 2 ] = E[Var X [Y ]], E[(E X [Y ] µ Y ) 2 ] = Var[E X [Y ]],
18 Nehmen wir uns die drei Terme gesondert unter die Lupe: E[E X [(Y E X [Y ]) 2 ] = E[Var X [Y ]], E[(E X [Y ] µ Y ) 2 ] = Var[E X [Y ]], E[E X [(Y E X [Y ])(E X [Y ] µ Y )]] = 0,
19 Nehmen wir uns die drei Terme gesondert unter die Lupe: E[E X [(Y E X [Y ]) 2 ] = E[Var X [Y ]], E[(E X [Y ] µ Y ) 2 ] = Var[E X [Y ]], E[E X [(Y E X [Y ])(E X [Y ] µ Y )]] = 0, denn E x [(Y E x [Y ])(E x [Y ] µ Y )] = (E x [Y ] µ Y )E x [(Y E x [Y ]] = 0.
20 Beispiel 1. 5
21 Beispiel 1. Y := bisher erreichte Quizpunkt-Zahl
22 Beispiel 1. Y := bisher erreichte Quizpunkt-Zahl (einer/s zufällig ausgewählten Studierenden) E[Y ] = 14.6 =: µ Y, Var Y = 75.2 =: σy 2, σ Y = 8.7
23 Beispiel 1. Y := bisher erreichte Quizpunkt-Zahl (einer/s zufällig ausgewählten Studierenden) E[Y ] = 14.6 =: µ Y, Var Y = 75.2 =: σy 2, σ Y = 8.7 Zerlegung nach der Studienrichtung x:
24 Beispiel 1. Y := bisher erreichte Quizpunkt-Zahl (einer/s zufällig ausgewählten Studierenden) E[Y ] = 14.6 =: µ Y, Var Y = 75.2 =: σy 2, σ Y = 8.7 Zerlegung nach der Studienrichtung x: x Math Inf L3 L2 Andere n x E x [Y ]
25 Beispiel 1: Y := bisher erreichte Quizpunkt-Zahl (einer/s aus unseren n = 223 zufällig ausgewählten Studierenden) 6
26 Beispiel 1: Y := bisher erreichte Quizpunkt-Zahl (einer/s aus unseren n = 223 zufällig ausgewählten Studierenden) Gruppe Inf L2 L3 Math Sonst Quizpunkte
27 Beispiel 1: Y := bisher erreichte Quizpunkt-Zahl (einer/s aus unseren n = 223 zufällig ausgewählten Studierenden) E[Y ] = 14.6 =: µ Y, Var Y = 75.5 =: σy 2, σ Y = 8.7 Zerlegung nach der Studienrichtung x: x Math Inf L3 L2 Andere n x E x [Y ] Var x [Y ]
28 VarY = E[Var X [Y ]] + Var E X [Y ] 8
29 VarY = E[Var X [Y ]] + Var E X [Y ] 1 n 5 x=1 n x j=1 (y xj y.. ) 2
30 VarY = E[Var X [Y ]] + Var E X [Y ] 1 n 5 x=1 n x j=1 (y xj y.. ) 2 = 5 x=1 n x n 1 n x n x j=1 (y xj y x ) x=1 n x n (y x y.. ) 2
31 VarY = E[Var X [Y ]] + Var E X [Y ] 1 n 5 x=1 n x j=1 (y xj y.. ) 2 = 5 x=1 n x n 1 n x n x j=1 (y xj y x ) x=1 n x n (y x y.. ) 2 = Varianz innerhalb + zwischen den Gruppen.
32 VarY = E[Var X [Y ]] + Var E X [Y ] 1 n 5 x=1 n x j=1 (y xj y.. ) 2 = 5 x=1 n x n 1 n x n x j=1 (y xj y x ) x=1 n x n (y x y.. ) 2 = Varianz innerhalb + zwischen den Gruppen =
33 Beispiel 2: 9
34 Beispiel 2: Zufällige Anzahl unabhängiger Summanden:
35 Beispiel 2: Zufällige Anzahl unabhängiger Summanden: Y := N i=1 Z i,
36 Beispiel 2: Zufällige Anzahl unabhängiger Summanden: Y := N i=1 Z i, mit Z 1, Z 2,..., unabhängig und identisch verteilt,
37 Beispiel 2: Zufällige Anzahl unabhängiger Summanden: Y := N i=1 Z i, mit Z 1, Z 2,..., unabhängig und identisch verteilt, und unabhängig von N.
38 Beispiel 2: Zufällige Anzahl unabhängiger Summanden: Y := N i=1 Z i, mit Z 1, Z 2,..., unabhängig und identisch verteilt, und unabhängig von N. EZ 1 =: µ Z, VarZ 1 =: σz 2.
39 Beispiel 2: Zufällige Anzahl unabhängiger Summanden: Y := N i=1 Z i, mit Z 1, Z 2,..., unabhängig und identisch verteilt, und unabhängig von N. EZ 1 =: µ Z, VarZ 1 =: σz 2. Var[Y N = n] = nσz 2, E[Var N[Y ]] = E[N] σz 2
40 Beispiel 2: Zufällige Anzahl unabhängiger Summanden: Y := N i=1 Z i, mit Z 1, Z 2,..., unabhängig und identisch verteilt, und unabhängig von N. EZ 1 =: µ Z, VarZ 1 =: σz 2. Var[Y N = n] = nσz 2, E[Var N[Y ]] = E[N] σz 2 E[Y N = n] = nµ Z, Var[E N [Y ]] = Var[N] µ 2 Z.
41 Beispiel 2: Zufällige Anzahl unabhängiger Summanden: Y := N i=1 Z i, mit Z 1, Z 2,..., unabhängig und identisch verteilt, und unabhängig von N. EZ 1 =: µ Z, VarZ 1 =: σz 2. Var[Y N = n] = nσz 2, E[Var N[Y ]] = E[N] σz 2 E[Y N = n] = nµ Z, Var[E N [Y ]] = Var[N] µ 2 Z. Var Y = E[N] σz 2 + Var[N] µ2 Z
42 Satz. 10
43 Satz. Unter allen Zufallsvariablen der Form h(x) minimiert E X [Y ]
44 Satz. Unter allen Zufallsvariablen der Form h(x) minimiert E X [Y ] den erwarteten quadratischen Abstand E[(Y h(x)) 2 ].
45 Beweis des Satzes: 11
46 Beweis des Satzes: E[(Y h(x)) 2 ] = E[(Y E X [Y ] + E X [Y ] h(x)) 2 ]
47 Beweis des Satzes: E[(Y h(x)) 2 ] = E[(Y E X [Y ] + E X [Y ] h(x)) 2 ] = E[(Y E X [Y ]) 2 ] + E[(E X [Y ] h(x)) 2 ]
48 Beweis des Satzes: E[(Y h(x)) 2 ] = E[(Y E X [Y ] + E X [Y ] h(x)) 2 ] = E[(Y E X [Y ]) 2 ] + E[(E X [Y ] h(x)) 2 ] +2E[(Y E X [Y ])(E X [Y ] h(x))].
49 Beweis des Satzes: E[(Y h(x)) 2 ] = E[(Y E X [Y ] + E X [Y ] h(x)) 2 ] = E[(Y E X [Y ]) 2 ] + E[(E X [Y ] h(x)) 2 ] +2E[(Y E X [Y ])(E X [Y ] h(x))]. Der zweite Summand wird 0 für h(x) = E X [Y ].
50 Beweis des Satzes: E[(Y h(x)) 2 ] = E[(Y E X [Y ] + E X [Y ] h(x)) 2 ] = E[(Y E X [Y ]) 2 ] + E[(E X [Y ] h(x)) 2 ] +2E[(Y E X [Y ])(E X [Y ] h(x))]. Der zweite Summand wird 0 für h(x) = E X [Y ]. Und der dritte Summand ist gleich
51 Beweis des Satzes: E[(Y h(x)) 2 ] = E[(Y E X [Y ] + E X [Y ] h(x)) 2 ] = E[(Y E X [Y ]) 2 ] + E[(E X [Y ] h(x)) 2 ] +2E[(Y E X [Y ])(E X [Y ] h(x))]. Der zweite Summand wird 0 für h(x) = E X [Y ]. Und der dritte Summand ist gleich 2E[E X [(Y E X [Y ])(E X [Y ] h(x))].
52 Beweis des Satzes: E[(Y h(x)) 2 ] = E[(Y E X [Y ] + E X [Y ] h(x)) 2 ] = E[(Y E X [Y ]) 2 ] + E[(E X [Y ] h(x)) 2 ] +2E[(Y E X [Y ])(E X [Y ] h(x))]. Der zweite Summand wird 0 für h(x) = E X [Y ]. Und der dritte Summand ist gleich 2E[E X [(Y E X [Y ])(E X [Y ] h(x))]. Dieser Ausdruck ist aber jedenfalls gleich Null, wegen
53 Beweis des Satzes: E[(Y h(x)) 2 ] = E[(Y E X [Y ] + E X [Y ] h(x)) 2 ] = E[(Y E X [Y ]) 2 ] + E[(E X [Y ] h(x)) 2 ] +2E[(Y E X [Y ])(E X [Y ] h(x))]. Der zweite Summand wird 0 für h(x) = E X [Y ]. Und der dritte Summand ist gleich 2E[E X [(Y E X [Y ])(E X [Y ] h(x))]. Dieser Ausdruck ist aber jedenfalls gleich Null, wegen E x [(Y E x [Y ])(E x [Y ] h(x))]
54 Beweis des Satzes: E[(Y h(x)) 2 ] = E[(Y E X [Y ] + E X [Y ] h(x)) 2 ] = E[(Y E X [Y ]) 2 ] + E[(E X [Y ] h(x)) 2 ] +2E[(Y E X [Y ])(E X [Y ] h(x))]. Der zweite Summand wird 0 für h(x) = E X [Y ]. Und der dritte Summand ist gleich 2E[E X [(Y E X [Y ])(E X [Y ] h(x))]. Dieser Ausdruck ist aber jedenfalls gleich Null, wegen E x [(Y E x [Y ])(E x [Y ] h(x))] = (E x [Y ] h(x))e x [(Y E x [Y ]) = 0.
55 Rekapitulation: 12
56 Rekapitulation: (X, Y ) sei ein zufälliges Paar, mit reellwertigem Y von endlicher Varianz.
57 Rekapitulation: (X, Y ) sei ein zufälliges Paar, mit reellwertigem Y von endlicher Varianz. Frage: Welches h(x) prognostiziert Y am besten
58 Rekapitulation: (X, Y ) sei ein zufälliges Paar, mit reellwertigem Y von endlicher Varianz. Frage: Welches h(x) prognostiziert Y am besten im Sinn des kleinsten quadratischen Mittels?
59 Rekapitulation: (X, Y ) sei ein zufälliges Paar, mit reellwertigem Y von endlicher Varianz. Frage: Welches h(x) prognostiziert Y am besten im Sinn des kleinsten quadratischen Mittels? Antwort: h(x) = E x [Y ].
60 Rekapitulation: (X, Y ) sei ein zufälliges Paar, mit reellwertigem Y von endlicher Varianz. Frage: Welches h(x) prognostiziert Y am besten im Sinn des kleinsten quadratischen Mittels? Antwort: h(x) = E x [Y ]. X muss hierbei nicht reellwertig sein. Im Fall von reellwertigem X hatten wir dieselbe Frage schon früher für spezielle h, nämlich affin lineare, gestellt.
61 Frage: Welches h(x) = ax + b prognostiziert Y am besten 13
62 Frage: Welches h(x) = ax + b prognostiziert Y am besten im Sinn des kleinsten quadratischen Mittels?
63 Frage: Welches h(x) = ax + b prognostiziert Y am besten im Sinn des kleinsten quadratischen Mittels? Dafür war die Antwort:
64 Frage: Welches h(x) = ax + b prognostiziert Y am besten im Sinn des kleinsten quadratischen Mittels? Dafür war die Antwort: h(x) = µ Y + a(x µ X )
65 Frage: Welches h(x) = ax + b prognostiziert Y am besten im Sinn des kleinsten quadratischen Mittels? Dafür war die Antwort: h(x) = µ Y + a(x µ X ) mit a = σ Y σ X κ.
66 Wie rekapitulieren bei der Gelegenheit ein Beispiel aus Vorlesung 9a: 14
67 Wie rekapitulieren bei der Gelegenheit ein Beispiel aus Vorlesung 9a: (x 1, y 1 ),...,(x n, y n ) seien n Punkte im R 2.
68 Wie rekapitulieren bei der Gelegenheit ein Beispiel aus Vorlesung 9a: (x 1, y 1 ),...,(x n, y n ) seien n Punkte im R 2. Die gemeinsame Verteilung von (X, Y ) sei
69 Wie rekapitulieren bei der Gelegenheit ein Beispiel aus Vorlesung 9a: (x 1, y 1 ),...,(x n, y n ) seien n Punkte im R 2. Die gemeinsame Verteilung von (X, Y ) sei ν := 1 n n i=1 δ (xi,y i ).
70 Wie rekapitulieren bei der Gelegenheit ein Beispiel aus Vorlesung 9a: (x 1, y 1 ),...,(x n, y n ) seien n Punkte im R 2. Die gemeinsame Verteilung von (X, Y ) sei ν := 1 n n i=1 δ (xi,y i ). (Dabei ist δ z (B) := 1 für z B, und := 0 für z B.)
71 Wie rekapitulieren bei der Gelegenheit ein Beispiel aus Vorlesung 9a: (x 1, y 1 ),...,(x n, y n ) seien n Punkte im R 2. Die gemeinsame Verteilung von (X, Y ) sei ν := 1 n n i=1 δ (xi,y i ). (Dabei ist δ z (B) := 1 für z B, und := 0 für z B.) Vorstellung: ν gibt jedem Punkt (x i, y i ), i = 1,..., n, das Gewicht 1 n.
72 (X, Y ) hat Verteilung ν = 1 n n i=1 δ (xi,y i ). Dann ist 15
73 (X, Y ) hat Verteilung ν = 1 n n i=1 δ (xi,y i ). Dann ist EX = 1 n xi =: x
74 (X, Y ) hat Verteilung ν = 1 n n i=1 δ (xi,y i ). Dann ist EX = 1 n xi =: x σ 2 X = 1 n (xi x) 2
75 (X, Y ) hat Verteilung ν = 1 n n i=1 δ (xi,y i ). Dann ist EX = 1 n xi =: x σ 2 X = 1 n (xi x) 2 κ = (xi x)(y i ȳ) (xi x) 2 (yi ȳ) 2.
76 E[(Y ax b) 2 ] = 1 n n i=1 (y i ax i b i ) 2 16
77 E[(Y ax b) 2 ] = 1 n n i=1 (y i ax i b i ) 2 wird, wie wir in Vorlesung 9a gezeigt haben, minimiert durch
78 E[(Y ax b) 2 ] = 1 n n i=1 (y i ax i b i ) 2 wird, wie wir in Vorlesung 9a gezeigt haben, minimiert durch a := σ Y σ X κ = (xi x)(y i ȳ) (xi x) 2
79 E[(Y ax b) 2 ] = 1 n n i=1 (y i ax i b i ) 2 wird, wie wir in Vorlesung 9a gezeigt haben, minimiert durch a := σ Y σ X κ = (xi x)(y i ȳ) (xi x) 2 und b so, dass a x + b = ȳ.
80 E[(Y ax b) 2 ] = 1 n n i=1 (y i ax i b i ) 2 wird, wie wir in Vorlesung 9a gezeigt haben, minimiert durch a := σ Y σ X κ = (xi x)(y i ȳ) (xi x) 2 und b so, dass a x + b = ȳ. Diese Gerade y = ax + b heißt die Regressionsgerade zu den Punkten (x i, y i ), i = 1,..., n..
Vorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
MehrVorlesung 8b. Kovarianz, Korrelation und Regressionsgerade
Vorlesung 8b Kovarianz, Korrelation und Regressionsgerade 1 1. Die Kovarianz und ihre Eigenschaften 2 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und
MehrVorlesung 7b. Kovarianz und Korrelation
Vorlesung 7b Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X,Y]:= E [ (X EX)(Y EY) ] Insbesondere ist
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
MehrKapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
MehrVorlesung 4b. Die Varianz
Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert als Var X := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen
MehrZweitklausur. b p b. q a. c 1. p a
Elementare Stochastik SoSe 27 Zweitklausur Lösungen. Berechnen Sie für die angegebenen Übergangswahrscheinlichkeiten (mit p a,p b >, q a := p a, q b := p b ) die erwartete Anzahl von Schritten bis zum
MehrVorlesung 4b. Die Varianz
Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ Die Varianz von X ist definiert als Var[X] := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen
MehrVorlesung 5a. Varianz und Kovarianz
Vorlesung 5a Varianz und Kovarianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist
MehrVertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 5.6.2013 8. Unabhängigkeit von Zufallsgrößen, Erwartungswert und Varianz 8.1
Mehr0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrVorlesung 8b. Zweistufige Zufallsexperimente. Teil 1
Vorlesung 8b Zweistufige Zufallsexperimente Teil 1 1 Stellen wir uns ein zufälliges Paar X = (X 1, X 2 ) vor, das auf zweistufige Weise zustande kommt: es gibt eine Regel, die besagt, wie X 2 verteilt
MehrVorlesung 7a. Der Zentrale Grenzwertsatz
Vorlesung 7a Der Zentrale Grenzwertsatz als Erlebnis und Das Schwache Gesetz der Großen Zahlen Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrBeispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal
Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrÜ b u n g s b l a t t 13
Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
Mehr1.5 Erwartungswert und Varianz
Ziel: Charakterisiere Verteilungen von Zufallsvariablen durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere: a) durchschnittlicher Wert Erwartungswert, z.b.
MehrVorlesung 12a. Schätzen von Parametern. Teil 2
Vorlesung 12a Schätzen von Parametern Teil 2 1 Unser Logo der ersten Stunde: X P ϑ (X da) = ρ ϑ (da), ϑ Θ S 2 Ein Logo der Statistik: Θ ˆϑ t X S P ϑ (X da) = ρ ϑ (da), ϑ Θ Θ... Parameterraum S... Beobachtungsraum
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
MehrKapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen
Kapitel 6 Verteilungsparameter Wie bei einem Merkmal wollen wir nun die Lage und die Streuung der Verteilung einer diskreten Zufallsvariablen durch geeignete Maßzahlen beschreiben. Beginnen wir mit Maßzahlen
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrMultivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
MehrVorlesung 3b. Der Erwartungswert
Vorlesung 3b Der Erwartungswert von diskreten reellwertigen Zufallsvariablen Teil 2 0. Wiederholung X sei eine diskrete reellwertige Zufallsvariable X S R E[X] := a S a P(X = a). heißt Erwartungswert von
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
Mehr11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
MehrVorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine diskrete reellwertige Zufallsvariable, d.h. eine ZV e mit Wertebereich R (oder einer Teilmenge davon), sodass eine
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 29 UNIVERSITÄT KARLSRUHE Blatt 6 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 27: Sei X eine R + -wertige
MehrVorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen 0. Diskrete reellwertige Zufallsvariable X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) oder
MehrVorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) (oder eine Teilmenge davon) ist. Es existiere
MehrProf. Dr. Fred Böker
Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung
MehrWahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19
Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr
1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand
MehrKlausur zur Vorlesung
Institut für Mathematische Stochastik WS 2006/2007 Universität Karlsruhe 12. Februar 2007 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Aufgabe 1 (15 Punkte) Klausur zur Vorlesung Statistik für Biologen
MehrStochastik Aufgaben zum Üben: Teil 2
Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2
MehrKonvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen
Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess
MehrKapitel 3 Schließende Statistik
Motivation Grundgesamtheit mit unbekannter Verteilung F Stichprobe X 1,...,X n mit Verteilung F Realisation x 1,...,x n der Stichprobe Rückschluss auf F Dr. Karsten Webel 160 Motivation (Fortsetzung) Kapitel
Mehr68 Abschätzungen für Abweichungen vom Erwartungswert
68 Abschätzungen für Abweichungen vom Erwartungswert 68.1 Motivation Mit der Varianz bzw. Standardabweichungen kennen wir bereits ein Maß für die Fluktuation einer Zufallsvariablen um ihren Erwartungswert.
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrTechnische Universität Berlin
Technische Universität Berlin Fakultät II Institut für Mathematik SS 06 Prof. Dr. J-D Deuschel 0. Juli 006 Juli Klausur Stochastik für Informatiker Name:... Vorname:... Matr. Nr.:... Studiengang:... Als
Mehr67 Zufallsvariable, Erwartungswert, Varianz
67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
MehrEinführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
MehrMathematische Ökonometrie
Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
MehrStatistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz
1/65 Statistik für Informatiker, SS 2017 1.3 Erwartungswert, Varianz und Kovarianz Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 7.6.2017 / 14.6.2017 2/65 Der Erwartungswert ist eine
Mehr[ 2 ] Die Zufallsvariablen X und Y haben die in der Tabelle gegebene gemeinsame Wahrscheinlichkeitsfunktion
Paare von Zufallsvariablen Kapitel : Paare von Zufallsvariablen A: Übungsaufgaben: [ ] Die Zufallsvariable X kann die Werte, 2 und die Zufallsvariable Y die Werte 0,, 2 annehmen. Die gemeinsame Verteilungsfunktion
MehrWahrscheinlichkeit und Statistik BSc D-INFK
Prof. Dr. P. Bühlmann ETH Zürich Winter 2010 Wahrscheinlichkeit und Statistik BSc D-INFK 1. (10 Punkte) Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 22 Übersicht Weitere Hypothesentests in der Statistik 1-Stichproben-Mittelwert-Tests 1-Stichproben-Varianz-Tests 2-Stichproben-Tests Kolmogorov-Smirnov-Test
MehrRegression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
Mehr1.5 Mehrdimensionale Verteilungen
Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
Mehr1.5 Erwartungswert und Varianz
Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:
MehrStatistische Methoden
Statistische Methoden Dr. C.J. Luchsinger 2 Beweis CLT Literatur Kapitel 2: Krengel: 12 2.1 Einführung Wir repetieren aus WTS, Kapitel 5: Fragestellung: Was geschieht mit dem Ausdruck n k=1 X k nµ, (2.1)
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion f(x) =
MehrBiostatistik, Sommer 2017
1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrVorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a
Mehr1.4 Stichproben aus einer Normalverteilung
1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte
Mehr1 Grundlagen der Numerik
1 Grundlagen der Numerik 1.1 Gleitpunkt-Arithmetik Es gibt nur endlich viele Zahlen auf dem Computer. Gleitpunktzahl: x = σmb E σ: Vorzeichen B: Basis (feste Zahl >1); M: Mantisse E: Exponent B = 2 : Dualzahl
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt
MehrUniversität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt
Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert
MehrKlausur zur Vorlesung Stochastik II
Institut für Stochastik WS 007/008 Universität Karlsruhe. 0. 008 r. B. Klar Klausur zur Vorlesung Stochastik II Muster-Lösung auer: 90 Minuten Name: Vorname: Matrikelnummer: iese Klausur hat bestanden,
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
MehrStatistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz
Erwartungswert, Varianz und Kovarianz 1/65 Statistik für Informatiker, SS 2018 1.4 Erwartungswert, Varianz und Kovarianz Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo18/ 14.5.2018 / 28.5.2018
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
MehrSeminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie. Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze
Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie - Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze Klaus Kuchler 0. Januar 03 Zentraler Grenzwertsatz. Grundlagen,
Mehr7 Bedingte Erwartungswerte und Bedingte Verteilungen
7 edingte Erwartungswerte und edingte Verteilungen Sei (Ω,, P ein W Raum, (Ω, ein Messraum, Y : Ω Ω sei (, -messbar und nehme die Werte y 1,..., y n Ω an. Y 1 (y k {ω Ω Y (ω y k } : k Ω 1 + + n und σ(y
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009
MehrKapitel 12 Erwartungswert und Varianz
Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen
MehrKlausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 24/25 Universität Karlsruhe 7. März 25 Priv-Doz. Dr. D. Kadelka Klausur zur Vorlesung Stochastik II Dauer: 9 Minuten Name: Vorname: Matrikelnummer: Diese Klausur
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 08.01.2009 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 32 Einführung Wahrscheinlichkeit Verteilungen
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
Mehr3 Bedingte Erwartungswerte
3 Bedingte Erwartungswerte 3.3 Existenz und Eindeutigkeit des bedingten Erwartungswertes E A 0(X) 3.6 Konvexitätsungleichung für bedingte Erwartungswerte 3.9 Konvergenzsätze von Levi, Fatou und Lebesgue
MehrZufallsvariablen rekapituliert
Zufallsvariablen rekapituliert Wolfgang Konen TH Köln, Campus Gummersbach April 2016 Wolfgang Konen (TH Köln) Zufallsvariablen April 2016 1 / 11 1 Einleitung 2 Zufallsvariablen 3 Linearität und Varianz
Mehr6.1 Definition der multivariaten Normalverteilung
Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Review)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c
MehrVorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung
Vorlesung 7b Unabhängigkeit bei Dichten und die mehrdimensionale Standardnormalverteilung 0. Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4 4
MehrKlausur zu Statistik II
GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
MehrDer Zentrale Grenzwertsatz & Konfidenzintervalle
Der Zentrale Grenzwertsatz & Konfidenzintervalle Die Normalverteilung Dichte φ der Standardnormalverteilung φ(x) 0.0 0.1 0.2 0.3 0.4 4 2 0 2 4 x φ(x) 0.0 0.1 0.2 0.3 0.4 Die Gaußsche Glocke 4 2 0 2 4 x
MehrÜbungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression
Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen
MehrWahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom
Institut für Stochastik WS 009/10 Karlsruher Institut für Technologie (KIT) Dr. B. Klar Klausur Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom 08.0.010 Musterlösungen Aufgabe
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrZusatzmaterial zur Vorlesung Statistik II
Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November
Mehr