Kapitel 12 Erwartungswert und Varianz
|
|
- Reiner Biermann
- vor 6 Jahren
- Abrufe
Transkript
1 Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1
2 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen X : Ω R wurde definiert als der Mittelwert der Verteilung P X dieser Zufallsvariablen: EX = m 1 (P X ) = { y X y f X (y) falls P X diskret mit WF f X yf X (y)dy falls P X Dichte f X Für einen diskreten Wahrscheinlichkeitsraum (Ω, A, P) wurde eine alternative Berechnungsformel hergeleitet: EX = ω Ω X(ω) P{ω} Diese Formel erlaubt die Herleitung spezieller Rechenregeln, wie z.b. E(X + Y ) = EX + EY. P-Integral einer Zufallsvariablen: X(ω)P(dω) 12.2
3 Das P-Integral Eine kurze Darstellung der Konstruktion: 1. Schritt: Definition des P-Integrals einer Treppenfunktion. 2. Schritt: Definition des P-Integrals für allgemeine Zufallsvariable durch Approximation mit Treppenfunktionen. Die wichtigsten Rechenregeln Beziehung zwischen P- und L-Integral 12.3
4 Treppenfunktionen Definition Eine Zufallsvariable X : Ω R heißt eine Treppenfunktion, wenn sie nur abzählbar viele Werte annimmt. Ist X = {x 1, x 2, x 3,...} der Wertebereich von X mit paarweise verschiedenen reellen Zahlen x k, dann bilden die Mengen A k = (X = x k ) = {ω Ω ; X(ω) = x k } eine Partition von Ω und X besitzt die Darstellung X(ω) = k x k 1 Ak (ω) Bezeichung Diese Darstellung heißt die Normaldarstellung von X. 12.4
5 Treppenfunktionen Definition Eine Treppenfunktion mit der Normaldarstellung X(ω) = k x k1 Ak (ω) heißt P-integrierbar, wenn x k P(A k ) < k Ist X P-integrierbar, so heißt X(ω) P(dω) := k x k P(A k ) das P-Integral von X. 12.5
6 Treppenfunktionen P-Integral und Mittelwert Die Verteilung P X einer Treppenfunktion ist diskret mit der Ergebnismenge X und der Wahrscheinlichkeitsfunktion f X (x k ) = P X {x k } = P(X = x k ) = P(A k ) daher ist X(ω) P(dω) = k x k f X (x k ) = m 1 (P X ) der Mittelwert der Verteilung von X. 12.6
7 Allgemeine Zufallsvariable Zu einer beliebigen Zufallsvariablen X : Ω R auf einem Wahrscheinlichkeitsraum (Ω, A, P) gibt es eine Folge (X n ) von Treppenfunktionen, die gleichmäßig gegen X konvergiert: lim X X n = lim n sup n ω Ω X(ω) X n (ω) = 0 Theorem Ist wenigstens ein X n0 P-integrierbar, so sind alle X n P-integrierbar und die Folge der Integrale X n (ω) P(dω) konvergiert. Der Limes ist unabhängig von der verwendeten Folge und hängt nur von X und P ab. Bezeichnung In diesem Fall heißt X P-integrierbar und X dp = X(ω) P(dω) = lim n X n (ω) P(dω) das P-Integral von X. 12.7
8 Rechenregeln Direkt aus der Definition des P-Integrals einer Treppenfunktion und anschließend durch Grenzübergang leitet man die folgenden Eigenschaften ab: Rechenregeln 1 X(ω) = 1 ist P-integrierbar und es gilt 1 dp = 1. 2 Ist X P-integrierbar und X(ω) 0 P-fast überall, so ist X dp 0. 3 X ist P-integrierbar genau dann, wenn X (ω) := X(ω) P-integrierbar ist und es gilt X dp X dp Eine Aussage gilt P-fast überall (P-f.ü.), wenn sie für alle ω mit der eventuellen Ausnahme der Elemente einer Menge N mit P(N) = 0 richtig ist. 12.8
9 Rechenregeln (4) Additionsregel Sind X und Y P-integrierbar, dann auch jede Linearkombination ax + by und es gilt (ax + by ) dp = a X dp + b Y dp (5) Produktregel Sind X und Y P-integrierbar und stochastisch unabhängig, dann ist auch das Produkt X Y P-integrierbar und es gilt (X Y ) dp = X dp Y dp 12.9
10 Rechenregeln (Ω, A, P) X (R n, B n, P X ) Y = G X G (R, B, P Y ) (6) Kompositionssatz Ist X : Ω R n ein Zufallsvektor und G : R n R P X -integrierbar, dann ist Y = G X P-integrierbar und es gilt Y (ω) P(dω) = G(X(ω)) P(dω) = G(y) P X (dy) 12.10
11 P-Integral und L-Integral (7) Absolutstetige Verteilungen Ist P eine absolutstetige Verteilung auf dem R n mit der Dichte f (y) und X : R n R eine P-integrierbare Zufallsvariable, so gilt X(y)P(dy) = X(y)f (y)dy R n (8) Diskrete Verteilungen Ist P eine diskrete Verteilung auf einer abzählbaren Ergebnismenge X mit der Wahrscheinlichkeitsfunktion f (x) und Y : X R eine P-integrierbare Zufallsvariable, so gilt Y (x)p(dx) = x X Y (x)f (x) 12.11
12 Die Momente Definition Ist P eine eindimensionale Verteilung und ist die Funktion x x k P-integrierbar, so heißt m k (P) = x k P(dx) das k-te Moment der Verteilung P. Speziell m 1 (P) nennen wir den Mittelwert. Wahrscheinlichkeitsfunktion f (x), so ist nach den Eigenschaften (7) bzw. (8) m k (P) = y k f (y) dy bzw. m k (P) = x k f (x), x X d.h. die Definition ist eine Erweiterung der bisherigen Konzepte
13 Die Momente Definition Ist P eine eindimensionale Verteilung und ist die Funktion x (x m 1 (P)) k P-integrierbar, so heißt ˆm k (P) = (x m 1 (P)) k P(dx) das k-te zentrale Moment der Verteilung P. Speziell ˆm 2 (P) nennen wir die Varianz der Verteilung P. Ist P absolutstetig mit Dichte f (y) bzw. diskret mit Wahrscheinlichkeitsfunktion f (x), so ist nach den Eigenschaften (7) bzw. (8) ˆm k (P) = (y m 1 (P)) k f (y) dy bzw. ˆm k (P) = x X(x m 1 (P)) k f (x), d.h. die Definition ist eine Erweiterung der bisherigen Konzepte
14 Der Erwartungswert Bezeichnung In der Wahrscheinlichkeitsrechnung nennt man das P-Integral einer Zufallsvariablen X auf einem Wahrscheinlichkeitsraum (Ω, A, P) üblicherweise den Erwartungswert: EX = E P X = X(ω)P(dω) Mit G(x) = x ist Y (ω) := G(X(ω)) = X(ω), weshalb nach dem Kompositionssatz gilt X(ω)P(dω) = xp X (dx) Theorem Der Erwartungswert von X ist der Mittelwert von P X : EX = m 1 (P X ) 12.14
15 Der Erwartungswert Die Momente Für k = 1, 2, 3,... und G k (x) = x k bzw. G k (X(ω)) = X k (ω) ergibt sich entsprechend E(X k ) = m k (P X ) 12.15
16 Rechenregeln Die Rechenregeln für das P-Integral lauten dann 1 E1 = 1 2 EX E X 3 E(aX + by + c) = a EX + b EY + c 4 Sind X und Y stochastisch unabhängig, so gilt E(XY ) = (EX)(EY ) 5 Ist die Zufallsvariable X P-fast überall nichtnegativ, dann ist EX 0. 6 Gilt für zwei Zufallsvariable X Y P-fast überall, so ist EX EY
17 Funktionen von Zufallsvariablen Ist X = (X 1, X 2,..., X n ) ein Zufallsvektor mit absolutstetiger n-dimensionaler Verteilung P X und Dichte f (x), sowie Y = G(X 1, X 2,..., X n ) = G X, dann gilt E Y = = = G(X(ω))P(dω) G(x)P X (dx) G(x)f (x)dx 12.17
18 Berechnung des Erwartungswerts Es gibt also im wesentlichen zwei Methoden zur Berechnung des Erwartungswerts einer Zufallsvariablen der Form Y = G X: 1 Berechnung der Dichte g(y) der Verteilung P Y und des Mittelwerts E Y = m 1 (P Y ) = yg(y)dy 2 Auswertung des Integrals E Y = G(x)f (x)dx Die zweite Methode ist auch dann anwendbar, wenn P Y keine Dichte besitzt
19 Beispiel 1 Exercise In einer Eisdiele wird an jedem Abend bei der Eisfabrik die gesamte Menge q an Eis für den nächsten Tag bestellt. Der Einkaufspreis sei p 1 Euro pro Mengeneinheit. Die Tagesnachfrage ist unter anderem wetterbedingt zufällig. Wir nehmen an, dass es sich um eine exponentiell mit Parameter λ verteilte Zufallsvariable X handelt. Gemäß den gesetzlichen Vorschriften darf Eis, das am Abend noch nicht verkauft ist, nicht gelagert, sondern muss vernichtet werden. Welche Menge an Eis muss bei einem Verkaufspreis von p 2 Euro pro Mengeneinheit bestellt werden, damit der mittlere Gewinn maximal wird? 12.19
20 Beispiel 1 ω ist zufällig ausgewählter Tag, X(ω) ist Nachfrage an diesem Tag und q bestellte Menge. Absatz am Tag ω = min(x(ω), q). pro Mengeneinheit: Y (ω) = p 2 min(x(ω), q) p 1 q Erwartungswert des Gewinns: E Y = E(p 2 min(x(ω), q) p 1 q) = p 2 E(min(X(ω), q)) p 1 q Ansatz zur Berechnung: min(x(ω), q) = G X mit G(x) = min(x, q) 12.20
21 Beispiel 1 min(x(ω), q) = G X mit G(x) = min(x, q) E min(x(ω), q) = = G(x)P X (dx) G(x)f (x)dx = = 0 q min(x, q)λe λx dx xλe λx dx + 0 q qλe λx dx 12.21
22 Beispiel 1 E min(x(ω), q) = q xλe λx dx + 0 q qλe λx dx q 0 xλe λx dx = [ x( e λx ) ] q q e λx dx 0 = 0 [ ] q 1 qe λq λ e λx = qe λq + 1 λ 0 ( 1 e λq ) qλe λx dx = q q q λe λx dx = qe λq ( = E min(x(ω), q) = ) 1 λ 1 e λq 12.22
23 Beispiel 1 Mittlerer Gewinn als Funktion der Bestellmenge q: g(q) = p 2 E(min(X(ω), q)) p 1 q = p 2 λ Notwendige Bedingung für eine Extremalstelle: g (q) = p 2 λ ( 1 e λq ) p 1 q ( λe λq ) p 1 = p 2 e λq p 1 = 0 e λq = p 1 p 2 ( ) = q = 1 λ ln p2 p 1 q ist Maximalstelle, denn g (q) = λp 2 e λq <
24 Beispiel 2 X 1, X 2 seien N (0, 1)-verteilte Zufallsvariable, Y = X X 2 2. Ohne zusätzliche Voraussetzungen kann die Verteilung von X = (X 1, X 2 ) nicht berechnet werden. EY = E(X1 2 + X2 2 ) = E(X1 2 ) + E(X2 2 ) Xk 2 = G(X k) mit G(t) = t 2 E(Xk 2 ) = G(t)P X k (dt) = t 2 P X k (dt) = m 2 (P X k ) = m 2 (N (0, 1)) = t 2 ϕ(t)dt = 1 EY =
25 Die Varianz X : Ω R sei eine Zufallsvariable auf (Ω, A, P) mit der Verteilung P X. Erwartungswert: EX = m 1 (P X ) = xp X (dx) Zur Definition der Varianz einer Zufallsvariablen formen wir die Varianz von P X um: (x ˆm 2 (P X ) = m1 (P X ) ) 2 P X (dx) = (x EX) 2 P X (dx) = G(x)P X (dx) mit G(x) = (x EX) 2. ˆm 2 (P X ) = G(x)P X (dx) = Y (ω)p(dω) = EY mit Y (ω) = G(X(ω)) = (X(ω) EX) 2 ˆm 2 (P X ) = E(X EX)
26 Die Varianz Definition Ist X : Ω R eine Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, A, P) und existieren die entsprechenden Erwartungswerte, so heißt var P (X) = E P (X E P X) 2 die Varianz der Zufallsvariablen X. Kurzform: var(x) = E(X EX)
27 Die Ungleichung von Tschebyscheff Theorem P( X EX > ε) var(x) ε 2 Beweis. B = {ω Ω ; X(ω) EX > ε} = ( X EX > ε) Z (ω) = ε 2 1 B (ω) B (ω) EZ = Z dp = ε 2 P(B) = ε 2 P( X EX > ε) Z (ω) Y (ω) = (X(ω) EX) 2 EZ EY ε 2 P( X EX > ε) var(x) 12.27
28 Rechenregeln (1) var(x) 0 Y (ω) = (X(ω) EX) 2 0 var(x) = EY 0 (2) var(x) = 0 X(ω) = EX P-f. ü. B n = {ω Ω ; X(ω) EX > 1 n } 0 P(B n ) n 2 var(x) = 0 Ist X(ω) EX > 1 1 n, dann ist auch X(ω) EX > n+1, d.h. B n B n+1 B = n=1 B n = {ω Ω ; X(ω) EX > 0} = ( X EX > 0) P(B) = lim n P(B n ) = 0 P(B) = P(X = EX) =
29 Rechenregeln Algebraische Ausdrücke (X(ω) EX) 2 = (X(ω)) 2 2(EX) X(ω) + (EX) 2 (X EX) 2 = X 2 2(EX) X + (EX) 2 Algebraische Ausdrücke, in denen Zufallsvariablen vorkommen, kann man mit den aus der Algebra gewohnten Rechenregeln umformen. (3) var(x) = E(X 2 ) (EX) 2 Mit EX =: µ ist E(X EX) 2 = E [ X 2 2µX + µ 2] = E(X 2 ) 2µEX + µ 2 = E(X 2 ) 2(EX)(EX) + (EX) 2 = E(X 2 ) (EX)
30 Rechenregeln (4) var(ax + b) = a 2 var(x) var(y ) = E(Y EY ) 2 = E [(ax + b) E(aX + b)] 2 = E [ax + b aex b] 2 = E [ax aex] 2 = E [ a 2 (X EX) 2] = a 2 E (X EX)
31 Die Kovarianz Definition Für zwei Zufallsvariable X 1 und X 2 auf (Ω, A, P) heißt cov(x 1, X 2 ) = E [(X 1 EX 1 )(X 2 EX 2 )] die Kovarianz von X 1 und X 2. (5) var(x 1 + X 2 ) = var(x 1 ) + 2cov(X 1, X 2 ) + var(x 2 ) var(x 1 + X 2 ) = E [(X 1 + X 2 ) E(X 1 + X 2 )] 2 = E [(X 1 EX 1 ) + (X 2 EX 2 )] 2 = E(X 1 EX 1 ) 2 + 2E [(X 1 EX 1 )(X 2 EX 2 )] + E(X 2 EX 2 )
32 Rechenregeln (6) cov(x 1, X 2 ) = E(X 1 X 2 ) (EX 1 )(EX 2 ) cov(x 1, X 2 ) = E [(X 1 EX 1 )(X 2 EX 2 )] = E[X 1 X 2 (EX 1 )X 2 (EX 2 )X 1 + (EX 1 )(EX 2 )] = E(X 1 X 2 ) (EX 1 )EX 2 (EX 2 )EX 1 + (EX 1 )(EX 2 ) = E(X 1 X 2 ) (EX 1 )(EX 2 ) 12.32
33 Rechenregeln (7) Stochastisch unabhängige Zufallsvariable Sind X 1 und X 2 stochastisch unabhängig, so ist E(X 1 X 2 ) = (EX 1 )(EX 2 ) und daher sowie cov(x 1, X 2 ) = 0 var(x 1 + X 2 ) = var(x 1 ) + var(x 2 ) Achtung! Die Umkehrung dieser Aussage ist nicht immer richtig! Aus cov(x 1, X 2 ) = 0 folgt normalerweise nicht, dass die beiden Zufallsvariablen stochastisch unabhängig sind
34 Beispiel Der Zufallsvektor X = (X 1, X 2 ) sei auf M = {(x 1, x 2 ) R 2, x 1 + x 2 1} uniform verteilt. x 2 x
35 Beispiel M ist ein Quadrat mit der Kantenlänge 2 und der Fläche M = 2. Die Verteilung P X des Zufallsvektors X besitzt daher die Dichte { 1 f (x 1, x 2 ) = 2 falls x 1 + x sonst Marginaldichten: Die Dichte f ist in den beiden Argumenten symmetrisch: f (x 1, x 2 ) = f (x 2, x 1 ), Daher sind die beiden Marginaldichten gleich. f 2 (t) = f 1 (t) = f (t, x 2 )dx
36 Beispiel x 2 1 x 1 x 1 (1 x 1 ) 12.36
37 Beispiel Für t < 1 oder t > 1 ist f (t, x 2 ) = 0 für alle x 2, so dass f 2 (t) = f 1 (t) = 0. Für 1 t < 1 ist f (t, x 2 )dx 2 = 1 t (1 t ) 1 2 dx 2 = 1 t Erwartungswerte der Komponenten X 1 und X 2 : EX 2 = EX 1 = tf 1 (t)dt = 1 1 t(1 t )dt =
38 Beispiel Kovarianz: = = 1 2 = 1 2 cov(x 1, X 2 ) = E(X 1 X 2 ) = x 1 x 2 P X (d(x 1, x 2 )) x 1 x 2 f (x 1, x 2 )d(x 1, x 2 ) = 1 2 x 1x 2 d(x 1, x 2 ) x 1 ( 1 x1 (1 x 1 ) x 1 0dx 1 = 0 M x 2 dx 2 ) dx 1 Die Zufallsvariablen X 1, X 2 sind aber nicht stochastisch unabhängig! 12.38
39 Beispiel Z.B. auf dem Dreieck D = {(x 1, x 2 ) R 2 ; 0 < x 1 < 1, 1 x 1 < x 2 < 1} ist f (x 1, x 2 ) = 0, während f 1 (x 1 )f 2 (x 2 ) = (1 x 1 )(1 x 2 ) > 0. x 2 D x
40 Rechenregeln (8) cov(y, Y ) = var(y ) cov(y, Y ) = E[(Y EY )(Y EY )] = E(Y EY ) 2 = var(y ) (9) cov(x 1, X 2 ) = cov(x 2, X 1 ) E(X 1 X 2 ) (EX 1 )(EX 2 ) = E(X 2 X 1 ) (EX 2 )(EX 1 ) Anmerkung: Das gilt nur für reellwertige Zufallsvariable. Für komplexwertige ist die Kovarianz anders definiert. (10) cov(x 1 + a, X 2 + b) = cov(x 1, X 2 ) cov(x 1 + a, Y ) = E[((X 1 + a) E(X 1 + a))(y EY )] = E[(X 1 + a EX 1 a))(y EY )] = E[(X 1 EX 1 )(Y EY )] = cov(x 1, Y ) 12.40
41 Bilinearität (11) cov(a 1 X 1 + a 2 X 2, Y ) = a 1 cov(x 1, Y ) + a 2 cov(x 2, Y ) cov(a 1 X 1 + a 2 X 2, Y ) = E[a 1 X 1 + a 2 X 2 E(a 1 X 1 + a 2 X 2 )](Y EY ) = E(a 1 X 1 + a 2 X 2 a 1 EX 1 a 2 EX 2 )(Y EY ) = E[a 1 (X 1 EX 1 ) + a 2 (X 2 EX 2 )](Y EY ) = E[a 1 (X 1 EX 1 )(Y EY ) + a 2 (X 2 EX 2 )(Y EY )] = a 1 E(X 1 EX 1 )(Y EY ) + a 2 E(X 2 EX 2 )(Y EY ) = a 1 cov(x 1, Y ) + a 2 cov(x 2, Y ) 12.41
42 Bilinearität (12) cov(x, b 1 Y 1 + b 2 Y 2 ) = b 1 cov(x, Y 1 ) + b 2 cov(x, Y 2 ) cov(x, b 1 Y 1 + b 2 Y 2 ) = cov(b 1 Y 1 + b 2 Y 2, X) = b 1 cov(y 1, X) + b 2 cov(y 2, X) = b 1 cov(x, Y 1 ) + b 2 cov(x, Y 2 ) 12.42
43 Bilinearität Allgemein: ( m cov a i X i, i=1 ) n b k Y k = k=1 m n a i b k cov(x i, Y k ) = a C XY b i=1 k=1 wobei a der Zeilenvektor mit den Komponenten a i, b der Spaltenvektor mit den Komponenten b k und C XY die m n-matrix cov(x 1, Y 1 ) cov(x 1, Y 2 )... cov(x 1, Y n ) cov(x 2, Y 1 ) cov(x 2, Y 2 )... cov(x 2, Y n ) cov(x m, Y 1 ) cov(x m, Y 2 )... cov(x m, Y n ) 12.43
44 Bilinearität Exercise Die Zufallsvariablen X 1 und X 2 seien stochastisch unabhängig und exponentiell verteilt mit Parametern λ 1 = 1 bzw. λ 2 = 2. Welche Kovarianz besitzen die Zufallsvariablen Y 1 = 3X 1 + 2X 2 und Y 2 = X 1 X 2? cov(y 1, Y 2 ) = cov(3x 1 + 2X 2, Y 2 ) = 3cov(X 1, Y 2 ) + 2cov(X 2, Y 2 ) = 3cov(X 1, X 1 X 2 ) + 2cov(X 2, X 1 X 2 ) = 3cov(X 1, X 1 ) 3cov(X 1, X 2 ) +2cov(X 2, X 1 ) 2cov(X 2, X 2 ) X 1 und X 2 sind stochastisch unabhängig, daher cov(x 1, X 2 ) = cov(x 2, X 1 ) = 0: cov(y 1, Y 2 ) = 3cov(X 1, X 1 ) 2cov(X 2, X 2 ) 12.44
45 Beispiel cov(y 1, Y 2 ) = 3cov(X 1, X 1 ) 2cov(X 2, X 2 ) cov(x, X) = var(x): cov(y 1, Y 2 ) = 3var(X 1 ) 2var(X 2 ) var(x) = ˆm 2 (P X ): cov(y 1, Y 2 ) = 3 ˆm 2 (E(λ 1 )) 2 ˆm 2 (E(λ 2 )) = 3 1 λ λ 2 = =
46 Die Kovarianzmatrix Definition Für einen Zufallsvektor X = (X 1, X 2,..., X n ) heißt die Matrix cov(x 1, X 1 ) cov(x 1, X 2 )... cov(x 1, X n ) cov(x 2, X 1 ) cov(x 2, X 2 )... cov(x 2, X n ) C X = cov(x n, X 1 ) cov(x n, X 2 )... cov(x n, X n ) die Kovarianzmatrix von X
47 Eigenschaften C X ist symmetrisch Folgt aus cov(x i, X k ) = cov(x k, X i ) C X ist positiv semidefinit Ist a = (a 1, a 2,..., a n ) ein beliebiger reeller Zahlenvektor, so besitzt die Zufallsvariable Y = a 1 X 1 + a 2 X a n X n die Varianz ( n ) n var(y ) = cov(y, Y ) = cov a i X i, a k X k = a C X a Da Varianzen stets nichtnegativ sind, ist für beliebige Vektoren a a C X a 0 i=1 k=
48 Die Kovarianzmatrix Gibt es einen Vektor a 0 mit a C X a = 0, so besitzt die Zufallsvariable Y = a 1 X a n X n die Varianz Null und ist damit fast überall gleich einer Konstanten c bzw. sind die Zufallsvariablen X i fast überall affin linear abhängig
49 Cauchy-Schwarzsche Ungleichung Theorem cov(x 1, X 2 ) var(x 1 ) var(x 2 ) wobei die linke und rechte Seite genau dann gleich sind, wenn es Konstanten a, b und c mit a 2 + b 2 > 0 gibt, so dass ax 1 (ω) + bx 2 (ω) = c P-fast überall 12.49
50 Der Korrelationskoeffizient Definition Für positive Varianzen heißt ρ(x 1, X 2 ) = cov(x 1, X 2 ) var(x1 ) var(x 2 ) der Korrelationskoeffizient von X 1 und X 2. Aus der Cauchy-Schwarz-Ungleichung folgt, dass 1 ρ(x 1, X 2 ) 1 ρ(x 1, X 2 ) = ±1 besagt, dass X 1 und X 2 affin linear abhängig sind. Ist ρ(x 1, X 2 ) = 0 so heißen X 1 und X 2 unkorreliert
Varianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
MehrÜbung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
Mehr11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
Mehr8. Stetige Zufallsvariablen
8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse
MehrBeispiel: Zweidimensionale Normalverteilung I
10 Mehrdimensionale Zufallsvariablen Bedingte Verteilungen 10.6 Beispiel: Zweidimensionale Normalverteilung I Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale (multivariate) Normalverteilung
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
MehrKapitel 5. Stochastik
76 Kapitel 5 Stochastik In diesem Kapitel wollen wir die Grundzüge der Wahrscheinlichkeitstheorie behandeln. Wir beschränken uns dabei auf diskrete Wahrscheinlichkeitsräume Ω. Definition 5.1. Ein diskreter
MehrEinführung in die Statistik Gliederung zur Vorlesung im Sommersemester Markus Reiß Universität Heidelberg
Einführung in die Statistik Gliederung zur Vorlesung im Sommersemester 2005 Markus Reiß Universität Heidelberg 9. Januar 2006 Inhaltsverzeichnis 1 Diskrete Wahrscheinlichkeitsräume 1 1.1 Grundbegriffe.............................
MehrKenngrößen von Zufallsvariablen
Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert
MehrZufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten
Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests
MehrKapitel VI - Lage- und Streuungsparameter
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie
MehrMathematische Ökonometrie
Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
Mehr3.3 Bedingte Wahrscheinlichkeit
28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit
Mehr2.1 Gemeinsame-, Rand- und bedingte Verteilungen
Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrHilfsmittel aus Mathematik und Statistik - Materialien zu Investition und Finanzierung -
Hilfsmittel aus Mathematik und Statistik - Materialien zu Investition und Finanzierung - Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Finanzierung Universität Passau 2006 Inhaltsverzeichnis Statistik
MehrAllgemeine Wahrscheinlichkeitsräume
Kapitel 3 Allgemeine Wahrscheinlichkeitsräume 3. Einleitung Wir hatten schon bemerkt, dass der Begriff des diskreten Wahrscheinlichkeitsraums nicht ausreicht, um das unendliche Wiederholen eines Zufallsexperiments
MehrK8 Stetige Zufallsvariablen Theorie und Praxis
K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
MehrQuantitatives Risikomanagement
Quantitatives Risikomanagement Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer von Jan Hahne und Wolfgang Tischer -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften
MehrStatistische Thermodynamik I Lösungen zur Serie 1
Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen
MehrAufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /
Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =
MehrBeweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.
Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf
MehrEinführung in die Statistik
Einführung in die Statistik Dr. C.J. Luchsinger 3 Erwartungswerte Literatur Kapitel 3 * Statistik in Cartoons: Kapitel 4 * Krengel: 3.3 und 3.5 in 3 und (Honours Program) 11.4 in 11 * Storrer: 37, 38,
MehrÜbungsblatt 9. f(x) = e x, für 0 x
Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable
MehrZusammenfassung Stochastik I + II
Zusammenfassung Stochastik I + II Stephan Kuschel Vorlesung von Dr. Nagel Stochastik I: WS 007/08 Stochastik II: SS 008 zuletzt aktualisiert: 7. Juli 009 Da diese Zusammenfassung den Menschen, die sie
MehrStochastik für Studierende der Informatik
Stochastik für Studierende der Informatik von Peter Pfaffelhuber Version: 28. September 2013 Inhaltsverzeichnis 1 Grundlegendes 3 1.1 Häufige Modelle: Münzwurf, Würfeln, Urnen.................. 3 1.2 Kombinatorik....................................
MehrWahrscheinlichkeitsrechnung und Quantentheorie
Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten
Mehr6.1 Definition der multivariaten Normalverteilung
Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer
MehrFaltung und Approximation von Funktionen
Faltung und Approximation von Funktionen Lisa Bauer und Anja Moldenhauer 9. Juni 2008 1 Die Faltung von Funktionen 1.1 Die Faltung Eine kleine Widerholung mit einem Zusatz: Vergleiche den Vortrag von Benjamin
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
Mehreine Zufallsvariable. Eine der Definitionen des Erwartungswerts war:
8.4. Definition und Eigenschaften des Erwartungswerts Wir haben den Erwartungswert nur für Zufallsvariablen auf einem diskreten Wahrscheinlichkeitsraum definiert. Sei (Ω, F, P) ein diskreter Wahrscheinlichkeitsraum
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie
Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 11. Mai 2011 Inhaltsverzeichnis 1 Deterministische und zufällige
Mehr5 Optimale erwartungstreue Schätzer
33 5 Optimale erwartungstreue Schätzer 5.1 Definition Seien X 1,..., X n reelle Zufallsvariablen, T T (X 1,..., X n ) reellwertige Statistik. T heißt linear : c 1,..., c n R mit T n c j X j 5.2 Satz Seien
MehrKapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen
Kapitel 5 Univariate Zufallsvariablen Im ersten Teil dieses Skriptes haben wir uns mit Daten beschäftigt und gezeigt, wie man die Verteilung eines Merkmals beschreiben kann. Ist man nur an der Population
MehrAufgabensammlung zu Wahrscheinlichkeitsrechnung I
Aufgabensammlung zu Wahrscheinlichkeitsrechnung I Friedrich Graef Juli 27 Inhaltsverzeichnis Aufgaben 3. Ereignisse, Laplace-Experimente.................. 3.2 Bedingte Wahrscheinlichkeiten...................
MehrAufgaben zu Kapitel 38
Aufgaben zu Kapitel 38 Aufgaben zu Kapitel 38 Verständnisfragen Aufgabe 38. Welche der folgenden vier Aussagen sind richtig:. Kennt man die Verteilung von X und die Verteilung von Y, dann kann man daraus
MehrZusammenfassung der Lebesgue-Integrationstheorie
Zusammenfassung der Lebesgue-Integrationstheorie Das Lebesguesche Integral verallgemeinert das Riemannsche Integral. Seine Vorteile liegen für unsere Anwendungen vor allem bei den wichtigen Konvergenzsätzen,
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
MehrStochastik. Prof. Dr. Ulrich Horst. Wintersemester 2013/2014
Stochastik Prof. Dr. Ulrich Horst Wintersemester 3/4 Institut für Mathematik Mathematisch-Naturwissenschaftliche Fakultät II Humboldt-Universität zu Berlin Dieses Skript wurde von Alexander Prang in Anlehnung
MehrDefinition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion
Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere
Mehr9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe
Übungsmaterial 9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe 9. Erwartungswert Fragt man nach dem mittleren Wert einer Zufallsgröÿe X pro Versuch, so berechnet man den Erwartungswert
MehrGesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
MehrSchätzer und Konfidenzintervalle
Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 5. Erwartungswert E und Varianz V Literatur Kapitel 5 * Storrer: (37.9)-(37.12), (38.4), (40.6)-(40.9), (41.2) * Stahel: Kapitel 5 und 6 (nur
MehrCopula Funktionen. Eine Einführung. Nils Friewald
Copula Funktionen Eine Einführung Nils Friewald Institut für Managementwissenschaften Abteilung Finanzwirtschaft und Controlling Favoritenstraße 9-11, 1040 Wien friewald@imw.tuwien.ac.at 13. Juni 2005
MehrDiskrete Strukturen WiSe 2012/13 in Trier
Diskrete Strukturen WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 11. Januar 2013 1 Diskrete Strukturen Gesamtübersicht Organisatorisches und Einführung Mengenlehre Relationen
MehrÜ b u n g s b l a t t 13
Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 1 Repetition Wahrscheinlichkeitstheorie (WT) Bitte arbeiten Sie dieses Kapitel wenn notwendig vor Semesterbeginn durch. Es ist eine Zusammenfassung der aktuellsten
MehrMusterlösung Klausur,,Einführung in die W theorie
Institut für angewandte Mathematik Wintersemester 3/4 Andreas Eberle, Lisa Hartung / Patrick Müller Musterlösung Klausur,,Einführung in die W theorie. (Zufallsvariablen und ihre Verteilung) a) Was ist
MehrÜbungen zur Stochastik, Blatt Nr. 1
Prof. Dr. A. Stoffel SS 202 Übungen zur Stochastik, Blatt Nr. ) Zwei Würfel werden gleichzeitig oder nacheinander geworfen. a) Schreiben Sie alle Elemente des Grundraums in Form einer Matrix auf. b) Wie
MehrLösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
MehrVorlesung Einführung in die Wahrscheinlichkeit
Vorlesung Einführung in die Wahrscheinlichkeit Prof. C. Mazza Wintersemester 007/008 Literatur W. Feller, An introduction to probability theory and some of its applications I Wiley 1968. K.L. Chung, Elementary
MehrStatistik Workshop. 12. und 14. Januar Prof. Dr. Stefan Etschberger HSA
Workshop Mini-Einführung und Auffrischung zu einigen Teilen der angewandten 12. und 14. Prof. Dr. Stefan Etschberger HSA Outline 1 : Einführung Fehler durch Gute und schlechte Grafiken Begriff Grundbegriffe
MehrZusammenfassung: Einführung in die Stochastik für Informatiker Prof. Dr. Udo Kamps - SS04. February 15, 2005
Zusammenfassung: Einführung in die Stochastik für Informatiker Prof. Dr. Udo Kamps - SS04 February 5, 2005 Inhaltsverzeichnis Inhaltsverzeichnis Diskrete Wahrscheinlichkeitsräume und deren Erweiterung
MehrGrundbegriffe der Wahrscheinlichkeit
Kapitel 0 Grundbegriffe der Wahrscheinlichkeit 0.1 Der Wahrscheinlichkeitsraum Definition 0.1.1. Ein Wahrscheinlichkeitsraum ist ein Tripel (Ω, F, P), wobei Ω eine nichtleere Menge, F eine σ-algebra von
Mehr2. Zufallsvariable, Verteilungsfunktion, Erwartungswert,
2. Zufallsvariable, Verteilungsfunktion, Erwartungswert, momentenerzeugende Funktion Ziel des Kapitels: Mathematische Präzisierung der Konzepte Zufallsvariable Verteilungsfunktion Dichtefunktion Erwartungswerte
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrÜbungsaufgaben zu Partielle Differentialgleichungen Blatt III vom
Prof. Dr. M. Kaßmann Fakultät für Mathematik Wintersemester 2011/2012 Universität Bielefeld Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom 27.10.2011 Aufgabe III.1 (4 Punkte) Sei Ω R
MehrVorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a
Mehr40 Lokale Extrema und Taylor-Formel
198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:
MehrBeispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen
4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.
MehrEuklidische und unitäre Vektorräume
Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein
MehrScheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik
Universität Karlsruhe (TH) Institut für Stochastik Dr. Bernhard Klar Dipl.-Math. oec. Volker Baumstark Name Vorname Matr.-Nr.: Scheinklausur Stochastik für Studierende des Lehramts und der Diplom-Pädagogik
MehrStochastische Eingangsprüfung, 17.05.2008
Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)
MehrKlausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK
Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:
MehrDiskrete Wahrscheinlichkeitstheorie - Probeklausur
Diskrete Wahrscheinlichkeitstheorie - robeklausur Sommersemester 2007 - Lösung Name: Vorname: Matrikelnr.: Studiengang: Hinweise Sie sollten insgesamt Blätter erhalten haben. Tragen Sie bitte Ihre Antworten
MehrBedingte Wahrscheinlichkeiten und Unabhängigkeit
Kapitel 5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Mitunter erhält man über das Ergebnis eines zufälligen Versuches Vorinformationen. Dann entsteht die Frage, wie sich für den Betrachter, den man
MehrA: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen:
5 Diskrete Verteilungen 1 Kapitel 5: Diskrete Verteilungen A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen: 5 0.6 x 0.4 5 x (i) P x (x)
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
MehrVorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13)
1 Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13) Kapitel 5: Konvergenz Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Dezember 2011) Folgen Eine Folge x 0, x 1,
MehrDer Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.
Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrSTOCHASTIK A&B PHILIP HERRMANN
STOCHASTIK A&B PHILIP HERRMANN Inhaltsverzeichnis 1. Kombinatorik 2 2. Wahrscheinlichkeiten 2 3. Bedingte Wahrscheinlichkeiten 3 4. Unabhängige Ereignisse 4 5. Diskrete Zufallsvariablen 4 6. Erwartungswert
Mehr6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen
6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher: Diskrete Zufallsvariablen,
Mehrx, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
MehrMathematik I Herbstsemester 2014
Mathematik I Herbstsemester 2014 www.math.ethz.ch/education/bachelor/lectures/hs2014/other/mathematik1 BIOL Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/ farkas 1 / 32 1 Stetigkeit Grenzwert einer
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
Mehri=1 i=1,...,n x K f(x).
2. Normierte Räume und Banachräume Ein normierter Raum ist ein Vektorraum, auf dem wir Längen messen können. Genauer definieren wir: Definition 2.1. Sei X ein Vektorraum über C. Eine Abbildung : X [0,
MehrUnivariates Datenmaterial
Univariates Datenmaterial 1.6.1 Deskriptive Statistik Zufallstichprobe: Umfang n, d.h. Stichprobe von n Zufallsvariablen o Merkmal/Zufallsvariablen: Y = {Y 1, Y 2,..., Y n } o Realisationen/Daten: x =
MehrSTETIGE VERTEILUNGEN
STETIGE VERTEILUNGEN. Die Näherungsformel von Moivre Laplace Betrachtet man die Binomialverteilungen Bnp für wachsendes n bei konstantem p, so werden die Histogramme einer binomialverteilten Zufallsvariablen
MehrBegriffe aus der Informatik Nachrichten
Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung
MehrStetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch
6 Stetige Verteilungen 1 Kapitel 6: Stetige Verteilungen A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch dargestellt. 0.2 6
MehrKapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung
Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 7
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion
MehrMusterlösung zur ersten Klausur Stochastik für Lehramtskandidaten SS2012
Musterlösung zur ersten Klausur Stochasti für Lehramtsandidaten SS2012 Aufgabe 1 In einer Urne befinden sich 2n Kugeln, n N, die von 1 bis 2n durchnummeriert sind. Die Kugeln mit den Nummern 1 bis n sind
MehrTaylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe
Kapitel 9 Taylorreihen Josef Leydold c 2006 Mathematische Methoden IX Taylorreihen 1 / 25 Lernziele Taylorreihe und MacLaurinreihe Beispiele Alternative Schreibweisen Approimation der Veränderung einer
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der
Mehrist reelles lineares Funktional. x(t) ϕ(t) dt ist reelles lineares Funktional für alle ϕ L 2 (0, 1).
Kapitel 4 Stetige lineare Funktionale 4.1 Der Satz von Hahn - Banach Definition 4.1. Sei X ein linearer normierter Raum über dem Körper K (R oder C). Ein linearer Operator f : X K heißt (reelles oder komplexes)
Mehr