Kapitel 12 Erwartungswert und Varianz

Größe: px
Ab Seite anzeigen:

Download "Kapitel 12 Erwartungswert und Varianz"

Transkript

1 Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1

2 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen X : Ω R wurde definiert als der Mittelwert der Verteilung P X dieser Zufallsvariablen: EX = m 1 (P X ) = { y X y f X (y) falls P X diskret mit WF f X yf X (y)dy falls P X Dichte f X Für einen diskreten Wahrscheinlichkeitsraum (Ω, A, P) wurde eine alternative Berechnungsformel hergeleitet: EX = ω Ω X(ω) P{ω} Diese Formel erlaubt die Herleitung spezieller Rechenregeln, wie z.b. E(X + Y ) = EX + EY. P-Integral einer Zufallsvariablen: X(ω)P(dω) 12.2

3 Das P-Integral Eine kurze Darstellung der Konstruktion: 1. Schritt: Definition des P-Integrals einer Treppenfunktion. 2. Schritt: Definition des P-Integrals für allgemeine Zufallsvariable durch Approximation mit Treppenfunktionen. Die wichtigsten Rechenregeln Beziehung zwischen P- und L-Integral 12.3

4 Treppenfunktionen Definition Eine Zufallsvariable X : Ω R heißt eine Treppenfunktion, wenn sie nur abzählbar viele Werte annimmt. Ist X = {x 1, x 2, x 3,...} der Wertebereich von X mit paarweise verschiedenen reellen Zahlen x k, dann bilden die Mengen A k = (X = x k ) = {ω Ω ; X(ω) = x k } eine Partition von Ω und X besitzt die Darstellung X(ω) = k x k 1 Ak (ω) Bezeichung Diese Darstellung heißt die Normaldarstellung von X. 12.4

5 Treppenfunktionen Definition Eine Treppenfunktion mit der Normaldarstellung X(ω) = k x k1 Ak (ω) heißt P-integrierbar, wenn x k P(A k ) < k Ist X P-integrierbar, so heißt X(ω) P(dω) := k x k P(A k ) das P-Integral von X. 12.5

6 Treppenfunktionen P-Integral und Mittelwert Die Verteilung P X einer Treppenfunktion ist diskret mit der Ergebnismenge X und der Wahrscheinlichkeitsfunktion f X (x k ) = P X {x k } = P(X = x k ) = P(A k ) daher ist X(ω) P(dω) = k x k f X (x k ) = m 1 (P X ) der Mittelwert der Verteilung von X. 12.6

7 Allgemeine Zufallsvariable Zu einer beliebigen Zufallsvariablen X : Ω R auf einem Wahrscheinlichkeitsraum (Ω, A, P) gibt es eine Folge (X n ) von Treppenfunktionen, die gleichmäßig gegen X konvergiert: lim X X n = lim n sup n ω Ω X(ω) X n (ω) = 0 Theorem Ist wenigstens ein X n0 P-integrierbar, so sind alle X n P-integrierbar und die Folge der Integrale X n (ω) P(dω) konvergiert. Der Limes ist unabhängig von der verwendeten Folge und hängt nur von X und P ab. Bezeichnung In diesem Fall heißt X P-integrierbar und X dp = X(ω) P(dω) = lim n X n (ω) P(dω) das P-Integral von X. 12.7

8 Rechenregeln Direkt aus der Definition des P-Integrals einer Treppenfunktion und anschließend durch Grenzübergang leitet man die folgenden Eigenschaften ab: Rechenregeln 1 X(ω) = 1 ist P-integrierbar und es gilt 1 dp = 1. 2 Ist X P-integrierbar und X(ω) 0 P-fast überall, so ist X dp 0. 3 X ist P-integrierbar genau dann, wenn X (ω) := X(ω) P-integrierbar ist und es gilt X dp X dp Eine Aussage gilt P-fast überall (P-f.ü.), wenn sie für alle ω mit der eventuellen Ausnahme der Elemente einer Menge N mit P(N) = 0 richtig ist. 12.8

9 Rechenregeln (4) Additionsregel Sind X und Y P-integrierbar, dann auch jede Linearkombination ax + by und es gilt (ax + by ) dp = a X dp + b Y dp (5) Produktregel Sind X und Y P-integrierbar und stochastisch unabhängig, dann ist auch das Produkt X Y P-integrierbar und es gilt (X Y ) dp = X dp Y dp 12.9

10 Rechenregeln (Ω, A, P) X (R n, B n, P X ) Y = G X G (R, B, P Y ) (6) Kompositionssatz Ist X : Ω R n ein Zufallsvektor und G : R n R P X -integrierbar, dann ist Y = G X P-integrierbar und es gilt Y (ω) P(dω) = G(X(ω)) P(dω) = G(y) P X (dy) 12.10

11 P-Integral und L-Integral (7) Absolutstetige Verteilungen Ist P eine absolutstetige Verteilung auf dem R n mit der Dichte f (y) und X : R n R eine P-integrierbare Zufallsvariable, so gilt X(y)P(dy) = X(y)f (y)dy R n (8) Diskrete Verteilungen Ist P eine diskrete Verteilung auf einer abzählbaren Ergebnismenge X mit der Wahrscheinlichkeitsfunktion f (x) und Y : X R eine P-integrierbare Zufallsvariable, so gilt Y (x)p(dx) = x X Y (x)f (x) 12.11

12 Die Momente Definition Ist P eine eindimensionale Verteilung und ist die Funktion x x k P-integrierbar, so heißt m k (P) = x k P(dx) das k-te Moment der Verteilung P. Speziell m 1 (P) nennen wir den Mittelwert. Wahrscheinlichkeitsfunktion f (x), so ist nach den Eigenschaften (7) bzw. (8) m k (P) = y k f (y) dy bzw. m k (P) = x k f (x), x X d.h. die Definition ist eine Erweiterung der bisherigen Konzepte

13 Die Momente Definition Ist P eine eindimensionale Verteilung und ist die Funktion x (x m 1 (P)) k P-integrierbar, so heißt ˆm k (P) = (x m 1 (P)) k P(dx) das k-te zentrale Moment der Verteilung P. Speziell ˆm 2 (P) nennen wir die Varianz der Verteilung P. Ist P absolutstetig mit Dichte f (y) bzw. diskret mit Wahrscheinlichkeitsfunktion f (x), so ist nach den Eigenschaften (7) bzw. (8) ˆm k (P) = (y m 1 (P)) k f (y) dy bzw. ˆm k (P) = x X(x m 1 (P)) k f (x), d.h. die Definition ist eine Erweiterung der bisherigen Konzepte

14 Der Erwartungswert Bezeichnung In der Wahrscheinlichkeitsrechnung nennt man das P-Integral einer Zufallsvariablen X auf einem Wahrscheinlichkeitsraum (Ω, A, P) üblicherweise den Erwartungswert: EX = E P X = X(ω)P(dω) Mit G(x) = x ist Y (ω) := G(X(ω)) = X(ω), weshalb nach dem Kompositionssatz gilt X(ω)P(dω) = xp X (dx) Theorem Der Erwartungswert von X ist der Mittelwert von P X : EX = m 1 (P X ) 12.14

15 Der Erwartungswert Die Momente Für k = 1, 2, 3,... und G k (x) = x k bzw. G k (X(ω)) = X k (ω) ergibt sich entsprechend E(X k ) = m k (P X ) 12.15

16 Rechenregeln Die Rechenregeln für das P-Integral lauten dann 1 E1 = 1 2 EX E X 3 E(aX + by + c) = a EX + b EY + c 4 Sind X und Y stochastisch unabhängig, so gilt E(XY ) = (EX)(EY ) 5 Ist die Zufallsvariable X P-fast überall nichtnegativ, dann ist EX 0. 6 Gilt für zwei Zufallsvariable X Y P-fast überall, so ist EX EY

17 Funktionen von Zufallsvariablen Ist X = (X 1, X 2,..., X n ) ein Zufallsvektor mit absolutstetiger n-dimensionaler Verteilung P X und Dichte f (x), sowie Y = G(X 1, X 2,..., X n ) = G X, dann gilt E Y = = = G(X(ω))P(dω) G(x)P X (dx) G(x)f (x)dx 12.17

18 Berechnung des Erwartungswerts Es gibt also im wesentlichen zwei Methoden zur Berechnung des Erwartungswerts einer Zufallsvariablen der Form Y = G X: 1 Berechnung der Dichte g(y) der Verteilung P Y und des Mittelwerts E Y = m 1 (P Y ) = yg(y)dy 2 Auswertung des Integrals E Y = G(x)f (x)dx Die zweite Methode ist auch dann anwendbar, wenn P Y keine Dichte besitzt

19 Beispiel 1 Exercise In einer Eisdiele wird an jedem Abend bei der Eisfabrik die gesamte Menge q an Eis für den nächsten Tag bestellt. Der Einkaufspreis sei p 1 Euro pro Mengeneinheit. Die Tagesnachfrage ist unter anderem wetterbedingt zufällig. Wir nehmen an, dass es sich um eine exponentiell mit Parameter λ verteilte Zufallsvariable X handelt. Gemäß den gesetzlichen Vorschriften darf Eis, das am Abend noch nicht verkauft ist, nicht gelagert, sondern muss vernichtet werden. Welche Menge an Eis muss bei einem Verkaufspreis von p 2 Euro pro Mengeneinheit bestellt werden, damit der mittlere Gewinn maximal wird? 12.19

20 Beispiel 1 ω ist zufällig ausgewählter Tag, X(ω) ist Nachfrage an diesem Tag und q bestellte Menge. Absatz am Tag ω = min(x(ω), q). pro Mengeneinheit: Y (ω) = p 2 min(x(ω), q) p 1 q Erwartungswert des Gewinns: E Y = E(p 2 min(x(ω), q) p 1 q) = p 2 E(min(X(ω), q)) p 1 q Ansatz zur Berechnung: min(x(ω), q) = G X mit G(x) = min(x, q) 12.20

21 Beispiel 1 min(x(ω), q) = G X mit G(x) = min(x, q) E min(x(ω), q) = = G(x)P X (dx) G(x)f (x)dx = = 0 q min(x, q)λe λx dx xλe λx dx + 0 q qλe λx dx 12.21

22 Beispiel 1 E min(x(ω), q) = q xλe λx dx + 0 q qλe λx dx q 0 xλe λx dx = [ x( e λx ) ] q q e λx dx 0 = 0 [ ] q 1 qe λq λ e λx = qe λq + 1 λ 0 ( 1 e λq ) qλe λx dx = q q q λe λx dx = qe λq ( = E min(x(ω), q) = ) 1 λ 1 e λq 12.22

23 Beispiel 1 Mittlerer Gewinn als Funktion der Bestellmenge q: g(q) = p 2 E(min(X(ω), q)) p 1 q = p 2 λ Notwendige Bedingung für eine Extremalstelle: g (q) = p 2 λ ( 1 e λq ) p 1 q ( λe λq ) p 1 = p 2 e λq p 1 = 0 e λq = p 1 p 2 ( ) = q = 1 λ ln p2 p 1 q ist Maximalstelle, denn g (q) = λp 2 e λq <

24 Beispiel 2 X 1, X 2 seien N (0, 1)-verteilte Zufallsvariable, Y = X X 2 2. Ohne zusätzliche Voraussetzungen kann die Verteilung von X = (X 1, X 2 ) nicht berechnet werden. EY = E(X1 2 + X2 2 ) = E(X1 2 ) + E(X2 2 ) Xk 2 = G(X k) mit G(t) = t 2 E(Xk 2 ) = G(t)P X k (dt) = t 2 P X k (dt) = m 2 (P X k ) = m 2 (N (0, 1)) = t 2 ϕ(t)dt = 1 EY =

25 Die Varianz X : Ω R sei eine Zufallsvariable auf (Ω, A, P) mit der Verteilung P X. Erwartungswert: EX = m 1 (P X ) = xp X (dx) Zur Definition der Varianz einer Zufallsvariablen formen wir die Varianz von P X um: (x ˆm 2 (P X ) = m1 (P X ) ) 2 P X (dx) = (x EX) 2 P X (dx) = G(x)P X (dx) mit G(x) = (x EX) 2. ˆm 2 (P X ) = G(x)P X (dx) = Y (ω)p(dω) = EY mit Y (ω) = G(X(ω)) = (X(ω) EX) 2 ˆm 2 (P X ) = E(X EX)

26 Die Varianz Definition Ist X : Ω R eine Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, A, P) und existieren die entsprechenden Erwartungswerte, so heißt var P (X) = E P (X E P X) 2 die Varianz der Zufallsvariablen X. Kurzform: var(x) = E(X EX)

27 Die Ungleichung von Tschebyscheff Theorem P( X EX > ε) var(x) ε 2 Beweis. B = {ω Ω ; X(ω) EX > ε} = ( X EX > ε) Z (ω) = ε 2 1 B (ω) B (ω) EZ = Z dp = ε 2 P(B) = ε 2 P( X EX > ε) Z (ω) Y (ω) = (X(ω) EX) 2 EZ EY ε 2 P( X EX > ε) var(x) 12.27

28 Rechenregeln (1) var(x) 0 Y (ω) = (X(ω) EX) 2 0 var(x) = EY 0 (2) var(x) = 0 X(ω) = EX P-f. ü. B n = {ω Ω ; X(ω) EX > 1 n } 0 P(B n ) n 2 var(x) = 0 Ist X(ω) EX > 1 1 n, dann ist auch X(ω) EX > n+1, d.h. B n B n+1 B = n=1 B n = {ω Ω ; X(ω) EX > 0} = ( X EX > 0) P(B) = lim n P(B n ) = 0 P(B) = P(X = EX) =

29 Rechenregeln Algebraische Ausdrücke (X(ω) EX) 2 = (X(ω)) 2 2(EX) X(ω) + (EX) 2 (X EX) 2 = X 2 2(EX) X + (EX) 2 Algebraische Ausdrücke, in denen Zufallsvariablen vorkommen, kann man mit den aus der Algebra gewohnten Rechenregeln umformen. (3) var(x) = E(X 2 ) (EX) 2 Mit EX =: µ ist E(X EX) 2 = E [ X 2 2µX + µ 2] = E(X 2 ) 2µEX + µ 2 = E(X 2 ) 2(EX)(EX) + (EX) 2 = E(X 2 ) (EX)

30 Rechenregeln (4) var(ax + b) = a 2 var(x) var(y ) = E(Y EY ) 2 = E [(ax + b) E(aX + b)] 2 = E [ax + b aex b] 2 = E [ax aex] 2 = E [ a 2 (X EX) 2] = a 2 E (X EX)

31 Die Kovarianz Definition Für zwei Zufallsvariable X 1 und X 2 auf (Ω, A, P) heißt cov(x 1, X 2 ) = E [(X 1 EX 1 )(X 2 EX 2 )] die Kovarianz von X 1 und X 2. (5) var(x 1 + X 2 ) = var(x 1 ) + 2cov(X 1, X 2 ) + var(x 2 ) var(x 1 + X 2 ) = E [(X 1 + X 2 ) E(X 1 + X 2 )] 2 = E [(X 1 EX 1 ) + (X 2 EX 2 )] 2 = E(X 1 EX 1 ) 2 + 2E [(X 1 EX 1 )(X 2 EX 2 )] + E(X 2 EX 2 )

32 Rechenregeln (6) cov(x 1, X 2 ) = E(X 1 X 2 ) (EX 1 )(EX 2 ) cov(x 1, X 2 ) = E [(X 1 EX 1 )(X 2 EX 2 )] = E[X 1 X 2 (EX 1 )X 2 (EX 2 )X 1 + (EX 1 )(EX 2 )] = E(X 1 X 2 ) (EX 1 )EX 2 (EX 2 )EX 1 + (EX 1 )(EX 2 ) = E(X 1 X 2 ) (EX 1 )(EX 2 ) 12.32

33 Rechenregeln (7) Stochastisch unabhängige Zufallsvariable Sind X 1 und X 2 stochastisch unabhängig, so ist E(X 1 X 2 ) = (EX 1 )(EX 2 ) und daher sowie cov(x 1, X 2 ) = 0 var(x 1 + X 2 ) = var(x 1 ) + var(x 2 ) Achtung! Die Umkehrung dieser Aussage ist nicht immer richtig! Aus cov(x 1, X 2 ) = 0 folgt normalerweise nicht, dass die beiden Zufallsvariablen stochastisch unabhängig sind

34 Beispiel Der Zufallsvektor X = (X 1, X 2 ) sei auf M = {(x 1, x 2 ) R 2, x 1 + x 2 1} uniform verteilt. x 2 x

35 Beispiel M ist ein Quadrat mit der Kantenlänge 2 und der Fläche M = 2. Die Verteilung P X des Zufallsvektors X besitzt daher die Dichte { 1 f (x 1, x 2 ) = 2 falls x 1 + x sonst Marginaldichten: Die Dichte f ist in den beiden Argumenten symmetrisch: f (x 1, x 2 ) = f (x 2, x 1 ), Daher sind die beiden Marginaldichten gleich. f 2 (t) = f 1 (t) = f (t, x 2 )dx

36 Beispiel x 2 1 x 1 x 1 (1 x 1 ) 12.36

37 Beispiel Für t < 1 oder t > 1 ist f (t, x 2 ) = 0 für alle x 2, so dass f 2 (t) = f 1 (t) = 0. Für 1 t < 1 ist f (t, x 2 )dx 2 = 1 t (1 t ) 1 2 dx 2 = 1 t Erwartungswerte der Komponenten X 1 und X 2 : EX 2 = EX 1 = tf 1 (t)dt = 1 1 t(1 t )dt =

38 Beispiel Kovarianz: = = 1 2 = 1 2 cov(x 1, X 2 ) = E(X 1 X 2 ) = x 1 x 2 P X (d(x 1, x 2 )) x 1 x 2 f (x 1, x 2 )d(x 1, x 2 ) = 1 2 x 1x 2 d(x 1, x 2 ) x 1 ( 1 x1 (1 x 1 ) x 1 0dx 1 = 0 M x 2 dx 2 ) dx 1 Die Zufallsvariablen X 1, X 2 sind aber nicht stochastisch unabhängig! 12.38

39 Beispiel Z.B. auf dem Dreieck D = {(x 1, x 2 ) R 2 ; 0 < x 1 < 1, 1 x 1 < x 2 < 1} ist f (x 1, x 2 ) = 0, während f 1 (x 1 )f 2 (x 2 ) = (1 x 1 )(1 x 2 ) > 0. x 2 D x

40 Rechenregeln (8) cov(y, Y ) = var(y ) cov(y, Y ) = E[(Y EY )(Y EY )] = E(Y EY ) 2 = var(y ) (9) cov(x 1, X 2 ) = cov(x 2, X 1 ) E(X 1 X 2 ) (EX 1 )(EX 2 ) = E(X 2 X 1 ) (EX 2 )(EX 1 ) Anmerkung: Das gilt nur für reellwertige Zufallsvariable. Für komplexwertige ist die Kovarianz anders definiert. (10) cov(x 1 + a, X 2 + b) = cov(x 1, X 2 ) cov(x 1 + a, Y ) = E[((X 1 + a) E(X 1 + a))(y EY )] = E[(X 1 + a EX 1 a))(y EY )] = E[(X 1 EX 1 )(Y EY )] = cov(x 1, Y ) 12.40

41 Bilinearität (11) cov(a 1 X 1 + a 2 X 2, Y ) = a 1 cov(x 1, Y ) + a 2 cov(x 2, Y ) cov(a 1 X 1 + a 2 X 2, Y ) = E[a 1 X 1 + a 2 X 2 E(a 1 X 1 + a 2 X 2 )](Y EY ) = E(a 1 X 1 + a 2 X 2 a 1 EX 1 a 2 EX 2 )(Y EY ) = E[a 1 (X 1 EX 1 ) + a 2 (X 2 EX 2 )](Y EY ) = E[a 1 (X 1 EX 1 )(Y EY ) + a 2 (X 2 EX 2 )(Y EY )] = a 1 E(X 1 EX 1 )(Y EY ) + a 2 E(X 2 EX 2 )(Y EY ) = a 1 cov(x 1, Y ) + a 2 cov(x 2, Y ) 12.41

42 Bilinearität (12) cov(x, b 1 Y 1 + b 2 Y 2 ) = b 1 cov(x, Y 1 ) + b 2 cov(x, Y 2 ) cov(x, b 1 Y 1 + b 2 Y 2 ) = cov(b 1 Y 1 + b 2 Y 2, X) = b 1 cov(y 1, X) + b 2 cov(y 2, X) = b 1 cov(x, Y 1 ) + b 2 cov(x, Y 2 ) 12.42

43 Bilinearität Allgemein: ( m cov a i X i, i=1 ) n b k Y k = k=1 m n a i b k cov(x i, Y k ) = a C XY b i=1 k=1 wobei a der Zeilenvektor mit den Komponenten a i, b der Spaltenvektor mit den Komponenten b k und C XY die m n-matrix cov(x 1, Y 1 ) cov(x 1, Y 2 )... cov(x 1, Y n ) cov(x 2, Y 1 ) cov(x 2, Y 2 )... cov(x 2, Y n ) cov(x m, Y 1 ) cov(x m, Y 2 )... cov(x m, Y n ) 12.43

44 Bilinearität Exercise Die Zufallsvariablen X 1 und X 2 seien stochastisch unabhängig und exponentiell verteilt mit Parametern λ 1 = 1 bzw. λ 2 = 2. Welche Kovarianz besitzen die Zufallsvariablen Y 1 = 3X 1 + 2X 2 und Y 2 = X 1 X 2? cov(y 1, Y 2 ) = cov(3x 1 + 2X 2, Y 2 ) = 3cov(X 1, Y 2 ) + 2cov(X 2, Y 2 ) = 3cov(X 1, X 1 X 2 ) + 2cov(X 2, X 1 X 2 ) = 3cov(X 1, X 1 ) 3cov(X 1, X 2 ) +2cov(X 2, X 1 ) 2cov(X 2, X 2 ) X 1 und X 2 sind stochastisch unabhängig, daher cov(x 1, X 2 ) = cov(x 2, X 1 ) = 0: cov(y 1, Y 2 ) = 3cov(X 1, X 1 ) 2cov(X 2, X 2 ) 12.44

45 Beispiel cov(y 1, Y 2 ) = 3cov(X 1, X 1 ) 2cov(X 2, X 2 ) cov(x, X) = var(x): cov(y 1, Y 2 ) = 3var(X 1 ) 2var(X 2 ) var(x) = ˆm 2 (P X ): cov(y 1, Y 2 ) = 3 ˆm 2 (E(λ 1 )) 2 ˆm 2 (E(λ 2 )) = 3 1 λ λ 2 = =

46 Die Kovarianzmatrix Definition Für einen Zufallsvektor X = (X 1, X 2,..., X n ) heißt die Matrix cov(x 1, X 1 ) cov(x 1, X 2 )... cov(x 1, X n ) cov(x 2, X 1 ) cov(x 2, X 2 )... cov(x 2, X n ) C X = cov(x n, X 1 ) cov(x n, X 2 )... cov(x n, X n ) die Kovarianzmatrix von X

47 Eigenschaften C X ist symmetrisch Folgt aus cov(x i, X k ) = cov(x k, X i ) C X ist positiv semidefinit Ist a = (a 1, a 2,..., a n ) ein beliebiger reeller Zahlenvektor, so besitzt die Zufallsvariable Y = a 1 X 1 + a 2 X a n X n die Varianz ( n ) n var(y ) = cov(y, Y ) = cov a i X i, a k X k = a C X a Da Varianzen stets nichtnegativ sind, ist für beliebige Vektoren a a C X a 0 i=1 k=

48 Die Kovarianzmatrix Gibt es einen Vektor a 0 mit a C X a = 0, so besitzt die Zufallsvariable Y = a 1 X a n X n die Varianz Null und ist damit fast überall gleich einer Konstanten c bzw. sind die Zufallsvariablen X i fast überall affin linear abhängig

49 Cauchy-Schwarzsche Ungleichung Theorem cov(x 1, X 2 ) var(x 1 ) var(x 2 ) wobei die linke und rechte Seite genau dann gleich sind, wenn es Konstanten a, b und c mit a 2 + b 2 > 0 gibt, so dass ax 1 (ω) + bx 2 (ω) = c P-fast überall 12.49

50 Der Korrelationskoeffizient Definition Für positive Varianzen heißt ρ(x 1, X 2 ) = cov(x 1, X 2 ) var(x1 ) var(x 2 ) der Korrelationskoeffizient von X 1 und X 2. Aus der Cauchy-Schwarz-Ungleichung folgt, dass 1 ρ(x 1, X 2 ) 1 ρ(x 1, X 2 ) = ±1 besagt, dass X 1 und X 2 affin linear abhängig sind. Ist ρ(x 1, X 2 ) = 0 so heißen X 1 und X 2 unkorreliert

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Vorlesung 8a. Kovarianz und Korrelation

Vorlesung 8a. Kovarianz und Korrelation Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient 11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

8. Stetige Zufallsvariablen

8. Stetige Zufallsvariablen 8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse

Mehr

Beispiel: Zweidimensionale Normalverteilung I

Beispiel: Zweidimensionale Normalverteilung I 10 Mehrdimensionale Zufallsvariablen Bedingte Verteilungen 10.6 Beispiel: Zweidimensionale Normalverteilung I Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale (multivariate) Normalverteilung

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Kapitel 5. Stochastik

Kapitel 5. Stochastik 76 Kapitel 5 Stochastik In diesem Kapitel wollen wir die Grundzüge der Wahrscheinlichkeitstheorie behandeln. Wir beschränken uns dabei auf diskrete Wahrscheinlichkeitsräume Ω. Definition 5.1. Ein diskreter

Mehr

Einführung in die Statistik Gliederung zur Vorlesung im Sommersemester Markus Reiß Universität Heidelberg

Einführung in die Statistik Gliederung zur Vorlesung im Sommersemester Markus Reiß Universität Heidelberg Einführung in die Statistik Gliederung zur Vorlesung im Sommersemester 2005 Markus Reiß Universität Heidelberg 9. Januar 2006 Inhaltsverzeichnis 1 Diskrete Wahrscheinlichkeitsräume 1 1.1 Grundbegriffe.............................

Mehr

Kenngrößen von Zufallsvariablen

Kenngrößen von Zufallsvariablen Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert

Mehr

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

Mathematische Ökonometrie

Mathematische Ökonometrie Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch

Mehr

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:

Mehr

3.3 Bedingte Wahrscheinlichkeit

3.3 Bedingte Wahrscheinlichkeit 28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit

Mehr

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

2.1 Gemeinsame-, Rand- und bedingte Verteilungen Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Hilfsmittel aus Mathematik und Statistik - Materialien zu Investition und Finanzierung -

Hilfsmittel aus Mathematik und Statistik - Materialien zu Investition und Finanzierung - Hilfsmittel aus Mathematik und Statistik - Materialien zu Investition und Finanzierung - Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Finanzierung Universität Passau 2006 Inhaltsverzeichnis Statistik

Mehr

Allgemeine Wahrscheinlichkeitsräume

Allgemeine Wahrscheinlichkeitsräume Kapitel 3 Allgemeine Wahrscheinlichkeitsräume 3. Einleitung Wir hatten schon bemerkt, dass der Begriff des diskreten Wahrscheinlichkeitsraums nicht ausreicht, um das unendliche Wiederholen eines Zufallsexperiments

Mehr

K8 Stetige Zufallsvariablen Theorie und Praxis

K8 Stetige Zufallsvariablen Theorie und Praxis K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Quantitatives Risikomanagement

Quantitatives Risikomanagement Quantitatives Risikomanagement Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer von Jan Hahne und Wolfgang Tischer -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften

Mehr

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 / Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =

Mehr

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457. Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf

Mehr

Einführung in die Statistik

Einführung in die Statistik Einführung in die Statistik Dr. C.J. Luchsinger 3 Erwartungswerte Literatur Kapitel 3 * Statistik in Cartoons: Kapitel 4 * Krengel: 3.3 und 3.5 in 3 und (Honours Program) 11.4 in 11 * Storrer: 37, 38,

Mehr

Übungsblatt 9. f(x) = e x, für 0 x

Übungsblatt 9. f(x) = e x, für 0 x Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable

Mehr

Zusammenfassung Stochastik I + II

Zusammenfassung Stochastik I + II Zusammenfassung Stochastik I + II Stephan Kuschel Vorlesung von Dr. Nagel Stochastik I: WS 007/08 Stochastik II: SS 008 zuletzt aktualisiert: 7. Juli 009 Da diese Zusammenfassung den Menschen, die sie

Mehr

Stochastik für Studierende der Informatik

Stochastik für Studierende der Informatik Stochastik für Studierende der Informatik von Peter Pfaffelhuber Version: 28. September 2013 Inhaltsverzeichnis 1 Grundlegendes 3 1.1 Häufige Modelle: Münzwurf, Würfeln, Urnen.................. 3 1.2 Kombinatorik....................................

Mehr

Wahrscheinlichkeitsrechnung und Quantentheorie

Wahrscheinlichkeitsrechnung und Quantentheorie Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten

Mehr

6.1 Definition der multivariaten Normalverteilung

6.1 Definition der multivariaten Normalverteilung Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer

Mehr

Faltung und Approximation von Funktionen

Faltung und Approximation von Funktionen Faltung und Approximation von Funktionen Lisa Bauer und Anja Moldenhauer 9. Juni 2008 1 Die Faltung von Funktionen 1.1 Die Faltung Eine kleine Widerholung mit einem Zusatz: Vergleiche den Vortrag von Benjamin

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

eine Zufallsvariable. Eine der Definitionen des Erwartungswerts war:

eine Zufallsvariable. Eine der Definitionen des Erwartungswerts war: 8.4. Definition und Eigenschaften des Erwartungswerts Wir haben den Erwartungswert nur für Zufallsvariablen auf einem diskreten Wahrscheinlichkeitsraum definiert. Sei (Ω, F, P) ein diskreter Wahrscheinlichkeitsraum

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 11. Mai 2011 Inhaltsverzeichnis 1 Deterministische und zufällige

Mehr

5 Optimale erwartungstreue Schätzer

5 Optimale erwartungstreue Schätzer 33 5 Optimale erwartungstreue Schätzer 5.1 Definition Seien X 1,..., X n reelle Zufallsvariablen, T T (X 1,..., X n ) reellwertige Statistik. T heißt linear : c 1,..., c n R mit T n c j X j 5.2 Satz Seien

Mehr

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen Kapitel 5 Univariate Zufallsvariablen Im ersten Teil dieses Skriptes haben wir uns mit Daten beschäftigt und gezeigt, wie man die Verteilung eines Merkmals beschreiben kann. Ist man nur an der Population

Mehr

Aufgabensammlung zu Wahrscheinlichkeitsrechnung I

Aufgabensammlung zu Wahrscheinlichkeitsrechnung I Aufgabensammlung zu Wahrscheinlichkeitsrechnung I Friedrich Graef Juli 27 Inhaltsverzeichnis Aufgaben 3. Ereignisse, Laplace-Experimente.................. 3.2 Bedingte Wahrscheinlichkeiten...................

Mehr

Aufgaben zu Kapitel 38

Aufgaben zu Kapitel 38 Aufgaben zu Kapitel 38 Aufgaben zu Kapitel 38 Verständnisfragen Aufgabe 38. Welche der folgenden vier Aussagen sind richtig:. Kennt man die Verteilung von X und die Verteilung von Y, dann kann man daraus

Mehr

Zusammenfassung der Lebesgue-Integrationstheorie

Zusammenfassung der Lebesgue-Integrationstheorie Zusammenfassung der Lebesgue-Integrationstheorie Das Lebesguesche Integral verallgemeinert das Riemannsche Integral. Seine Vorteile liegen für unsere Anwendungen vor allem bei den wichtigen Konvergenzsätzen,

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Stochastik. Prof. Dr. Ulrich Horst. Wintersemester 2013/2014

Stochastik. Prof. Dr. Ulrich Horst. Wintersemester 2013/2014 Stochastik Prof. Dr. Ulrich Horst Wintersemester 3/4 Institut für Mathematik Mathematisch-Naturwissenschaftliche Fakultät II Humboldt-Universität zu Berlin Dieses Skript wurde von Alexander Prang in Anlehnung

Mehr

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere

Mehr

9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe

9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe Übungsmaterial 9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe 9. Erwartungswert Fragt man nach dem mittleren Wert einer Zufallsgröÿe X pro Versuch, so berechnet man den Erwartungswert

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

Schätzer und Konfidenzintervalle

Schätzer und Konfidenzintervalle Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl

Mehr

Stochastik für die Naturwissenschaften

Stochastik für die Naturwissenschaften Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 5. Erwartungswert E und Varianz V Literatur Kapitel 5 * Storrer: (37.9)-(37.12), (38.4), (40.6)-(40.9), (41.2) * Stahel: Kapitel 5 und 6 (nur

Mehr

Copula Funktionen. Eine Einführung. Nils Friewald

Copula Funktionen. Eine Einführung. Nils Friewald Copula Funktionen Eine Einführung Nils Friewald Institut für Managementwissenschaften Abteilung Finanzwirtschaft und Controlling Favoritenstraße 9-11, 1040 Wien friewald@imw.tuwien.ac.at 13. Juni 2005

Mehr

Diskrete Strukturen WiSe 2012/13 in Trier

Diskrete Strukturen WiSe 2012/13 in Trier Diskrete Strukturen WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 11. Januar 2013 1 Diskrete Strukturen Gesamtübersicht Organisatorisches und Einführung Mengenlehre Relationen

Mehr

Ü b u n g s b l a t t 13

Ü b u n g s b l a t t 13 Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 1 Repetition Wahrscheinlichkeitstheorie (WT) Bitte arbeiten Sie dieses Kapitel wenn notwendig vor Semesterbeginn durch. Es ist eine Zusammenfassung der aktuellsten

Mehr

Musterlösung Klausur,,Einführung in die W theorie

Musterlösung Klausur,,Einführung in die W theorie Institut für angewandte Mathematik Wintersemester 3/4 Andreas Eberle, Lisa Hartung / Patrick Müller Musterlösung Klausur,,Einführung in die W theorie. (Zufallsvariablen und ihre Verteilung) a) Was ist

Mehr

Übungen zur Stochastik, Blatt Nr. 1

Übungen zur Stochastik, Blatt Nr. 1 Prof. Dr. A. Stoffel SS 202 Übungen zur Stochastik, Blatt Nr. ) Zwei Würfel werden gleichzeitig oder nacheinander geworfen. a) Schreiben Sie alle Elemente des Grundraums in Form einer Matrix auf. b) Wie

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

Vorlesung Einführung in die Wahrscheinlichkeit

Vorlesung Einführung in die Wahrscheinlichkeit Vorlesung Einführung in die Wahrscheinlichkeit Prof. C. Mazza Wintersemester 007/008 Literatur W. Feller, An introduction to probability theory and some of its applications I Wiley 1968. K.L. Chung, Elementary

Mehr

Statistik Workshop. 12. und 14. Januar Prof. Dr. Stefan Etschberger HSA

Statistik Workshop. 12. und 14. Januar Prof. Dr. Stefan Etschberger HSA Workshop Mini-Einführung und Auffrischung zu einigen Teilen der angewandten 12. und 14. Prof. Dr. Stefan Etschberger HSA Outline 1 : Einführung Fehler durch Gute und schlechte Grafiken Begriff Grundbegriffe

Mehr

Zusammenfassung: Einführung in die Stochastik für Informatiker Prof. Dr. Udo Kamps - SS04. February 15, 2005

Zusammenfassung: Einführung in die Stochastik für Informatiker Prof. Dr. Udo Kamps - SS04. February 15, 2005 Zusammenfassung: Einführung in die Stochastik für Informatiker Prof. Dr. Udo Kamps - SS04 February 5, 2005 Inhaltsverzeichnis Inhaltsverzeichnis Diskrete Wahrscheinlichkeitsräume und deren Erweiterung

Mehr

Grundbegriffe der Wahrscheinlichkeit

Grundbegriffe der Wahrscheinlichkeit Kapitel 0 Grundbegriffe der Wahrscheinlichkeit 0.1 Der Wahrscheinlichkeitsraum Definition 0.1.1. Ein Wahrscheinlichkeitsraum ist ein Tripel (Ω, F, P), wobei Ω eine nichtleere Menge, F eine σ-algebra von

Mehr

2. Zufallsvariable, Verteilungsfunktion, Erwartungswert,

2. Zufallsvariable, Verteilungsfunktion, Erwartungswert, 2. Zufallsvariable, Verteilungsfunktion, Erwartungswert, momentenerzeugende Funktion Ziel des Kapitels: Mathematische Präzisierung der Konzepte Zufallsvariable Verteilungsfunktion Dichtefunktion Erwartungswerte

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom

Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom Prof. Dr. M. Kaßmann Fakultät für Mathematik Wintersemester 2011/2012 Universität Bielefeld Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom 27.10.2011 Aufgabe III.1 (4 Punkte) Sei Ω R

Mehr

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a

Mehr

40 Lokale Extrema und Taylor-Formel

40 Lokale Extrema und Taylor-Formel 198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik Universität Karlsruhe (TH) Institut für Stochastik Dr. Bernhard Klar Dipl.-Math. oec. Volker Baumstark Name Vorname Matr.-Nr.: Scheinklausur Stochastik für Studierende des Lehramts und der Diplom-Pädagogik

Mehr

Stochastische Eingangsprüfung, 17.05.2008

Stochastische Eingangsprüfung, 17.05.2008 Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr

Diskrete Wahrscheinlichkeitstheorie - Probeklausur

Diskrete Wahrscheinlichkeitstheorie - Probeklausur Diskrete Wahrscheinlichkeitstheorie - robeklausur Sommersemester 2007 - Lösung Name: Vorname: Matrikelnr.: Studiengang: Hinweise Sie sollten insgesamt Blätter erhalten haben. Tragen Sie bitte Ihre Antworten

Mehr

Bedingte Wahrscheinlichkeiten und Unabhängigkeit

Bedingte Wahrscheinlichkeiten und Unabhängigkeit Kapitel 5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Mitunter erhält man über das Ergebnis eines zufälligen Versuches Vorinformationen. Dann entsteht die Frage, wie sich für den Betrachter, den man

Mehr

A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen:

A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen: 5 Diskrete Verteilungen 1 Kapitel 5: Diskrete Verteilungen A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen: 5 0.6 x 0.4 5 x (i) P x (x)

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13)

Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13) 1 Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13) Kapitel 5: Konvergenz Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Dezember 2011) Folgen Eine Folge x 0, x 1,

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

STOCHASTIK A&B PHILIP HERRMANN

STOCHASTIK A&B PHILIP HERRMANN STOCHASTIK A&B PHILIP HERRMANN Inhaltsverzeichnis 1. Kombinatorik 2 2. Wahrscheinlichkeiten 2 3. Bedingte Wahrscheinlichkeiten 3 4. Unabhängige Ereignisse 4 5. Diskrete Zufallsvariablen 4 6. Erwartungswert

Mehr

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen 6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher: Diskrete Zufallsvariablen,

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

Mathematik I Herbstsemester 2014

Mathematik I Herbstsemester 2014 Mathematik I Herbstsemester 2014 www.math.ethz.ch/education/bachelor/lectures/hs2014/other/mathematik1 BIOL Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/ farkas 1 / 32 1 Stetigkeit Grenzwert einer

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

i=1 i=1,...,n x K f(x).

i=1 i=1,...,n x K f(x). 2. Normierte Räume und Banachräume Ein normierter Raum ist ein Vektorraum, auf dem wir Längen messen können. Genauer definieren wir: Definition 2.1. Sei X ein Vektorraum über C. Eine Abbildung : X [0,

Mehr

Univariates Datenmaterial

Univariates Datenmaterial Univariates Datenmaterial 1.6.1 Deskriptive Statistik Zufallstichprobe: Umfang n, d.h. Stichprobe von n Zufallsvariablen o Merkmal/Zufallsvariablen: Y = {Y 1, Y 2,..., Y n } o Realisationen/Daten: x =

Mehr

STETIGE VERTEILUNGEN

STETIGE VERTEILUNGEN STETIGE VERTEILUNGEN. Die Näherungsformel von Moivre Laplace Betrachtet man die Binomialverteilungen Bnp für wachsendes n bei konstantem p, so werden die Histogramme einer binomialverteilten Zufallsvariablen

Mehr

Begriffe aus der Informatik Nachrichten

Begriffe aus der Informatik Nachrichten Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung

Mehr

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch 6 Stetige Verteilungen 1 Kapitel 6: Stetige Verteilungen A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch dargestellt. 0.2 6

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

Musterlösung zur ersten Klausur Stochastik für Lehramtskandidaten SS2012

Musterlösung zur ersten Klausur Stochastik für Lehramtskandidaten SS2012 Musterlösung zur ersten Klausur Stochasti für Lehramtsandidaten SS2012 Aufgabe 1 In einer Urne befinden sich 2n Kugeln, n N, die von 1 bis 2n durchnummeriert sind. Die Kugeln mit den Nummern 1 bis n sind

Mehr

Taylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe

Taylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe Kapitel 9 Taylorreihen Josef Leydold c 2006 Mathematische Methoden IX Taylorreihen 1 / 25 Lernziele Taylorreihe und MacLaurinreihe Beispiele Alternative Schreibweisen Approimation der Veränderung einer

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der

Mehr

ist reelles lineares Funktional. x(t) ϕ(t) dt ist reelles lineares Funktional für alle ϕ L 2 (0, 1).

ist reelles lineares Funktional. x(t) ϕ(t) dt ist reelles lineares Funktional für alle ϕ L 2 (0, 1). Kapitel 4 Stetige lineare Funktionale 4.1 Der Satz von Hahn - Banach Definition 4.1. Sei X ein linearer normierter Raum über dem Körper K (R oder C). Ein linearer Operator f : X K heißt (reelles oder komplexes)

Mehr