STOCHASTIK A&B PHILIP HERRMANN

Größe: px
Ab Seite anzeigen:

Download "STOCHASTIK A&B PHILIP HERRMANN"

Transkript

1 STOCHASTIK A&B PHILIP HERRMANN Inhaltsverzeichnis 1. Kombinatorik 2 2. Wahrscheinlichkeiten 2 3. Bedingte Wahrscheinlichkeiten 3 4. Unabhängige Ereignisse 4 5. Diskrete Zufallsvariablen 4 6. Erwartungswert und Varianz von Zufallsvariablen 5 7. Stetige Zufallsvariablen 6 8. Die Chebyshev-Ungleichung 7 9. Gemeinsame Verteilungen Unabhängigkeit von Zufallsvariablen Summen von unabhängigen Zufallsvariablen Erwartungswert und Varianz von Summen Bedingte Verteilungen Erzeugende Funktionen Ein starkes Gesetz der großen Zahlen Statistik Test von Hypothesen - Das Neyman-Pearson Lemma Design von optimalen Tests für einfache Hypothesen Schätzer Markovketten Simulation von Markovketten Monte-Carlo-Simulation Der Poisson-Prozeß Martingale 20 Literatur 20 Entstanden aus einer Mitschrift der entsprechenden Vorlesungen an der Universität Bielefeld im WS 04/05 und SoSe pherrman@math.uni-bielefeld.de URL: 1

2 2 PHILIP HERRMANN 1. Kombinatorik Satz 1. (Grundlegendes Zählprinzip) Es werden n Experimente durchgeführt, dabei habe das i-te Experiment m i mögliche Ergebnisse, dann hat das n-stufige Experiment m 1... m n mögliche Ergebnisse. Definition 1. Eine Anordnung von n verschiedenen Objekten x 1,..., x n heißt Permutation von x 1,..., x n. Satz 2. Es gibt n! Permutationen von n verschieden Objekten. Satz 3. Seien s 1,..., s n verschiede Objekte, wobei jeweils n i Objekte vom Typ i nicht unterscheidbar sind, für 1 i k < n und k i=0 n i = n. Dann gibt es n! n 1!... n k! unterscheidbare Permutationen von s 1,..., s n. Definition 2. Seien x 1,..., x n verschiedene Elemente. Eine k-kombination von x 1,..., x n ist eine k-elementige Teilmenge von {x 1,..., x n }. Satz 4. Es gibt k-kombinationen n(n 1)... (n k + 1) k! = n! k!(n k)! =: ( ) n k Lemma 1. Es gilt: (1) ( ) ( n k = n ) n k (2) ( ) ( n k + n ) ( k+1 = n+1 ) k+1 2. Wahrscheinlichkeiten Definition 3. Sei Ω eine nicht-leere Menge. Ein System F von Teilmengen von Ω heißt σ-algebra, falls gilt: (1) Ω F (2) A F A c F (3) (A n ) n F n A n F (Ω, F) heißt dann Ereignisraum. Definition 4. Sei (Ω, F) ein Ereignisraum. Eine Funktion P : F [0, 1] heißt Wahrscheinlichkeitsmaß, falls: (1) P (ω) = 1 (Normierung). (2) Für alle A 1, A 2,... F paarweise disjunkt gilt P ( A n ) = n P (A n) (σ-additivität). (Ω, F, P ) heißt dann Wahrscheinlichkeitsraum.

3 STOCHASTIK A&B 3 Bemerkung 1. σ-additivität ist eine nicht völlig unumstrittene Forderung an Wahrscheinlichkeitsmaße und im Gegensatz zur schwächeren endlichen Additivität wenig intuitiv. Da σ-additivität aber in vielen Beweisen benutzt wird und die sich σ-additive Maße als sehr nützlich herausgestellt haben wird die Forderung im Allgemeinen akzeptiert. Im folgenden sei (Ω, F, P ) stets ein Wahrscheinlichkeitsraum. Satz 5. (Eigenschaften von Wahrscheinlichkeitsmaßen) Seien A, B, A 1, A 2,... F. Dann gilt (1) A B P (A) P (B) (2) P (A c ) = 1 P (A) (3) (Stetigkeit von Oben) A n A P (A n ) P (A) (4) (Stetigkeit von Unten) A n A P (A n ) P (A) (5) P (A B) = P (A) + P (B) P (A B) Satz 6. (inclusion-exclusion-formula) Seien A 1,..., A n F, dann gilt n P ( A i ) = P (A i ) P (A i1 A i2 ) ( 1) n+1 P ( A i ) i=1 1 i 1 <i 2 n 3. Bedingte Wahrscheinlichkeiten Definition 5. Seien A, B F mit P (B) > 0, dann definieren wir die bedingte Wahrscheinlichkeit von A gegeben B durch P (A B) = P (A B) P (B) Satz 7. (Multiplikationsregel) Seien A 1,..., A n F mit P ( n 1 i=1 A i) > 0, so gilt: P ( n i=1a i ) = P (A 1 )P (A 2 A 1 )P (A 3 A 1 A 2 )... P (A n n 1 i=1 A i) Satz 8. Seien A, B i F, i 1, so dass P (B i ) > 0 i und (B i ) i eine Partition von Ω ist, dh: (1) (B i B j ) = i j (2) i B i = Ω. Dann gilt n P (A) = P (A B i )P (B i ) i=1 Satz 9. (Bayessche Formel) Seien A, B i wie oben, dann für i = 1,... P (B j A) = P (A B j)p (B j ) i P (A B i)p (B i ) Satz 10. Sei B F mit P (B) > 0, dann ist P ( B) : F [0, 1] ein Wahrscheinlichkeitsmaß.

4 4 PHILIP HERRMANN 4. Unabhängige Ereignisse Definition 6. Zwei Ereignisse A, B F heißen unabhängig, falls P (A B) = P (A)P (B). Bemerkung 2. Unabhängig ist nicht nur eine Eigenschaft der Ereignisse, sondern auch der zugrunde liegenden Wahrscheinlichkeitsmaße, deswegen spricht man einschränkend auch von (stochastischer) Unabhängigkeit bezüglich P. Satz 11. Seien A, B F mit P (B) > 0. Dann sind A,B genau dann unabhängig, wenn gilt P (A B) = P (A). Satz 12. Sind A und B unabhängig, dann sind auch A und B c unabhängig. Definition 7. Ereignisse A 1,..., A n F heißen paarweise unabhängig, falls P (A i A j ) = P (A i )P (A j ) i j. Falls sogar gilt P (A i1... A ik ) = P (A i1 )... P (A ik ) 1 i 1 <... < i k n, so heißen die Ereignisse unabhängig. Unabhängigkeit impliziert paarweise Unabhängigkeit. 5. Diskrete Zufallsvariablen Definition 8. Eine diskrete Zufallsvariable auf (Ω, F, P ) ist eine Funktion X : Ω S, wobei S eine abzählbare Menge ist. Die Wahrscheinlichkeitsfunktion von X ist definiert durch p : S [0, 1], P (X = x) := P ({ω Ω : X(ω) = x}). Satz 13. Für die Wahrscheinlichkeitsfunktion einer diskreten Zufallsvariable X gilt stets x S P (X = x) = 1. Satz 14. Sei S abzählbar, p : S [0, 1] mit x S P (X = x) = 1, dann gibt es einen Wahrscheinlichkeitsraum (Ω, F, P ) und darauf eine Zufallsvariable, so dass p die Wahrscheinlichkeitsfunktion von X ist. Definition 9. Die (kummulative) Verteilungsfunktion F : R [0, 1] einer reellwertigen Zufallsvariablen X : Ω S R ist definiert durch F (x) = P (X x). Satz 15. Sei X eine diskrete Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, F, P ). Für die Verteilungsfunktion F von X gilt: (1) P (X > x) = 1 F (x) (2) P (x < X y) = F (y) F (x) (3) F ist monoton wachsend und rechtsseitig stetig lim F (x) = 1 und lim F (x) = 0 x x Satz 16. Sei X ein Zufallsvariable auf (Ω, F, P ). Dann gilt P (X = x) = F (x) F (x ) }{{} =lim y x F (y).

5 STOCHASTIK A&B 5 6. Erwartungswert und Varianz von Zufallsvariablen Definition 10. Sei X eine diskrete reellwertige Zufallsvariable mit Werten in S. Falls s S s P (X = s) <, so definieren wir den Erwartungswert von X: E[X] = s S sp (X = s). Schon für die Definition des Erwartungswertes wird also absolute Konvergenz benötigt. Definition 11. Eine Zufallsvariable heißt Bernoulli-p-verteilt, falls P (X = 1) = p und P (X = 0) = 1 p für ein p [0, 1] gilt. Satz 17. Seien X eine diskrete Zufallsvariable mit Werten in S R und g : R R. Gilt nun s S g(s) P (X = s), so gilt E[g(X)] = g(s)p (X = s). s S Satz 18. Sei X eine Zufallsvariable mit Erwartungswert, a, b R, dann gilt E[a + bx] = a + be[x]. Definition 12. Sei X eine Zufallsvariable mit endlichem Erwartungswert, dann ist die Varianz von X definiert durch V ar(x) = E[(X E[X]) 2 ]. Satz 19. Sei X eine Zufallsvariable mit endlichem Erwartungswert, dann gilt V ar(x) = E[X 2 ] E[X] 2. Satz 20. Sei X eine Zufallsvariable mit endlichem Erwartungswert, a, b R, dann gilt V ar(a + bx) = b 2 V ar(x). Bemerkung 3. Von einem Streuungsmaß würde man sich wünschen, dass es sich proportional zu X verhält, daher definiert man wie folgend die Standardabweichung. Ein praktischer Vorteil der Definition der Varianz, im vergleich zu einer möglichen Definition durch E[ X E[X] ] ist, dass gerade die störenden großen Abweichungen stärker bewertet werden. Definition 13. Die Standardabweichung (Streuung) einer Zufallsvariable X ist definiert durch SD(X) = V ar(x). Definition 14. Eine Zufallsvariable X heißt Binomial (n,p)-verteilt, falls P (X = k) = ( n k) p k (1 p) n k k = 1,..., n. Bemerkung 4. Eine Binomial (n,p)-verteilte Zufallsvariable ist die Summe von n Beroulli-p-verteilten Zufallsvariablen. Satz 21. Sei X Binomial (n,p)-verteilt, dann gilt E[X] = np und V ar(x) = np(1 p). Satz 22. Sei λ > 0 und X n eine Binomial (n, λ )-verteilte Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω n, F n, P n ) n N. Dann n gilt k N 0 lim n P n(x n = k) = e λ λk k!

6 6 PHILIP HERRMANN Definition 15. Eine Zufallsvariable X heißt Poisson (λ)-verteilt, falls λ λk P (X = k) = e, k N k! Bemerkung 5. Eine Poissonverteile Zufallsvariable kann also als Grenzwert einer Folge von Binomialverteilten Zufallsvariablen gesehen werden. Satz 23. Sei X eine Poisson (λ)-verteilte Zufallsvariable, dann gilt E[X] = λ und V ar(x) = λ. Definition 16. Eine Zufallsvariable X heißt geometrisch (p)-verteilt, falls P (X = k) = (1 p) k 1 p. Satz 24. Sei X geometrisch (p)-verteilt, dann gilt E[X] = 1 p V ar(x) = 1 p. p 2 7. Stetige Zufallsvariablen und Definition 17. Die Borelsche σ-algebra auch B(R n ) auf R n ist die kleinste σ-algebra auf Ω = R n, die alle offenen (oder abgeschlossenen, linkshalboffenen, rechtshalboffenen) Mengen enthält. Definition 18. Lebesguemaß/Lebesgueintegral. Definition 19. Eine Funktion f : R n [0, [ heißt Wahrscheinlichkeitsdichte, falls (1) {x R n : f(x) c} B(R n ), c R (2) R n fdx = 1 Jede Wahrscheinlichkeitsdichte f induziert ein Wahrscheinlichkeitsmaß P auf (R, B(R n )), durch P (A) = A f(x)dx, A B(Rn ). Definition 20. Sei (Ω, F, P ) ein Wahrscheinlichkeitsraum. Eine Funktion X : Ω R heißt stetige Zufallsvariable, falls (1) {ω Ω : X(ω) c} F, c R (2) es eine Wahrscheinlichkeitsdichte f : R [0, [ gibt, so dass P ({ω Ω : X(ω) A}) = f(x)dx, A B(R). A Definition 21. Die Verteilungsfunktion F : R [0, 1] einer Zufallsvariablen X ist gegeben durch F (x) = P ({ω Ω : X(ω) x}). Satz 25. Die Verteilungsfunktion besitzt folgende Eigenschaften: (1) F ist monoton und rechtsseitig stetig. (2) lim x F (x) = 0 und lim x F (x) = 1. (3) X besitzt genau dann eine Wahrscheinlichkeitsdichte f, wenn F (x) = x f(y)dy, x R gilt. Insbesondere besitzt f genau dann eine stetige Wahrscheinlichkeitsdichte, wenn F stetig differenzierbar ist. Es gilt dann F = f. Bemerkung 6. Sei X eine stetige Zufallsvariable. Dann gilt, anders als für diskrete Zufallsvariablen, a R:

7 (1) P (X = a) = 0 (2) P (X < a) = P (X a) STOCHASTIK A&B 7 Definition 22. Sei X eine stetige Zufallsvariable mit einer Wahrscheinlichkeitsdichte f. Der Erwartungswert von X ist definiert durch E[X] = xf(x)dx, falls x f(x)dx < oder P (X 0) = 1 oder P (X 0) = 1. Definition 23. Sei X eine Zufallsvariable mit endlichem Erwartungswert µ, dann ist die Varianz von X definiert durch V ar(x) = E[(X µ) 2 ]. Satz 26. Sei X eine stetige Zufallsvariable mit endlichem Erwartungswert, Dichte f und sei g : R R beliebig, dann ist (1) V ar(x) = E[X 2 ] E[X] 2 (2) E[g(X)] = g(x)f(x)dx Definition 24. Eine Zufallsvariable heißt Exponential (λ)-verteilt, falls ihre Wahrscheinlichkeitsdichte gegeben ist durch f(x) = λe λx I [0, [ (x) Satz 27. Sei X Exponential (λ)-verteilt, dann gilt E[X] = 1 λ und V ar(x) = 1 λ 2 Satz 28. Sei X Exponential (λ)-verteilt, dann gilt für alle 0 < s, t R P (X > s + t X > s) = P (X > t). Definition 25. Eine Zufallsvariable X heißt Cauchy-verteilt, falls ihre Wahrscheinlichkeitsdichte gegeben ist durch f(x) = 1 1 π 1+x 2 Bemerkung 7. Eine Cauchy-verteilte Zufallsvariable besitzt keinen Erwartungswert. 8. Die Chebyshev-Ungleichung Satz 29. (Markov-Ungleichung) Sei X eine reellwertige Zufallsvariable und sei f : [0, [ [0, [ eine monoton wachsende Funktion mit f(x) > 0 ( x > 0). Dann gilt P ( X a) E[f( X )], a > 0 f(a) Lemma 2. Seien X und Y Zufallsvariablen auf dem selben Wahrscheinlichkeitsraum (Ω, F, P ) mit (1) X(ω) Y (ω), ω Ω und (2) E[X] und E[Y ] sind wohldefiniert, so gilt E[X] E[Y ].

8 8 PHILIP HERRMANN Satz 30. (Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E[X 2 ] <, dann gilt für alle a > 0 P ( X E[X] a) V ar(x) a 2 Lemma 3. (Zur Vorbeitung für den Beweis von de Moivre-Laplace) (1) ( k {1,..., n}) gilt ( ) ( n k n ) n 2 (2) n! 2πn nn e n Definition 26. Eine Zufallsvariable mit der Wahrscheinlichkeitsdichte f(x) = 1 (x µ)2 e 2σ 2 2πσ heißt Normal (µ, σ 2 )-verteilt. 2 Satz 31. (de Moivre-Laplace) Seien S n Binomial (n, p)-verteilt und Sn := Sn E[Sn]. Dann existiert für alle a < b: V ar(sn) lim P (a n S n b) = 1 2π b a e x2 2 dx Bemerkung 8. Der Grenzwert ist also Normal (0,1)-verteilt. Der Satz von de Moivre-Laplace ist ein zentraler Grenzwertsatz und ein Spezialfall von dem zentralen Grenzwertsatz weiter unten in diesem Skript. Im Allgemeinen spricht man bei Aussagen über die Bedingungen dafür, dass der Grenzwert einer Summe von Zufallsvariablen normalverteilt ist, von zentralen Grenzwertsätzen. Satz 32. Sei X Normal (µ, σ 2 )-verteilt. Dann ist E[X] = µ und V ar(x) = σ Gemeinsame Verteilungen Definition 27. Seien X 1,..., X n : Ω R Zufallsvariablen auf dem selben Wahrscheinlichkeitesraum (Ω, F, P ), so definieren wir: (1) die gemeinsame (kumulative) Verteilungsfunktion von X 1,..., X n durch F : R n [0, 1], F (x 1,..., x n ) = P (X 1 x 1,..., X n x n ) (2) die gemeinsame Wahrscheinlichkeitsfunktion p : R n [0, 1] von X 1,..., X n durch p(x 1,..., x n ) = P (X 1 = x 1,..., X n = x n ), falls X 1,..., X n nur endlich viele Werte annehmen. (3) die gemeinsame Wahrscheinlichkeitsdichte f, falls es eine Funktion f : R n [o, [ gibt, so dass (a) {(x 1,..., x n ) R n : f(x 1,..., x n ) c} B(R n ), c R (b) P (X 1 A 1,..., X n A n ) = A 1... A n f(x)dx, A 1,..., A n B(R n ) Bemerkung 9. Seien X 1,..., X n diskrete ZV mit gemeinsamer Wahrscheinlichkeitsfunktion p. Dann ist die Wahrscheinlichkeitsfunktion p Xi

9 von X i gegeben durch p Xi (x) = STOCHASTIK A&B 9 x 1 S 1,...,x i 1 S i 1,x i+1 S i+1,...,x n S n p(x 1,..., x n ) Sei F die gemeinsame Verteilungsfunktion der zwei diskreten Zufallsvariablen X,Y, dann erhält man die Verteilungsfunktion von X folgendermaßen: F X (x) = P ( n N{X x, Y n} = }{{} lim n Stetigkeit von Unten F (x, n) Falls Zufallsvariablen X 1,..., X n eine gemeinsame Wahrscheinlichkeitsdichte besitzen, so sind sie stetig. Zur berechnung der Randdichte von X i ersetzt man das Summenzeichen in dieser Bemerkung oben, durch Integrale. 10. Unabhängigkeit von Zufallsvariablen Definition 28. Seien X 1,..., X n reellwertige Zufallsvariablen auf demselben Wahrscheinlichkeitsraum (Ω, F, P ). X 1,..., X n heißen unabhängig, falls n n P ( {X i A i }) = P ({X i A i }), A i B(R) i=1 Satz 33. Es gilt: i=1 (1) Diskrete Zufallsvariablen X 1,..., X n sind genau dann unabhängig, wenn p(x 1,..., x n ) = p X1 (x 1 ) p Xn (x n ), x 1,..., x n R (2) Stetige Zufallsvariablen X 1,..., X n sind genau dann unabhängig, wenn f(x 1,..., x n ) = f X1 (x 1 ) f Xn (x n ), für fast alle. x 1,..., x n R Summen von unabhängigen Zufallsvariablen. Satz 34. Seien X,Y stetige Zufallsvariablen mit Wahrscheinlichkeitsdichten f X, f Y. Dann ist X+Y eine stetige Zufallsvariable mit Wahrscheinlichkeitsdichte f X+Y (z) = f X (z y)f Y (y)dy, y R Satz 35. Seien X,Y unabhängige Poisson-verteilte Zufallsvariablen mit Parametern µ und λ. Dann ist X+Y Poisson-verteilt mit Parameter µ + λ. Satz 36. Seien X,Y unabhängige normalverteilte Zufallsvariablen mit Parametern µ 1, σ 2 1 bzw. µ 2, σ 2 2, dann ist X+Y Normal (µ 1 +µ 2, σ 2 1 +σ 2 2)- verteilt.

10 10 PHILIP HERRMANN Erwartungswert und Varianz von Summen. Satz 37. Seien X 1,..., X n reelwertige Zufallsvariablen auf demselben Wahrscheinlichkeitsraum. (1) Falls X 1,..., X n diskret sind, mit gemeinsamer Wahrscheinlichkeitsfunktion p, so gilt für jedes g : R n R E[g(X 1,..., X n )] = g(x 1,..., x n )p(x 1,..., x n ) (x 1,...,x n) S 1... S n, falls g 0, g 0 oder diese Summe absolut konvergiert. (2) Falls X 1,..., X n stetig sind, mit gemeinsamer Wahrscheinlichkeitsdichte f, so gilt für jede meßbare Funktion g : R n R E[g(X 1,..., X n )] =... g(x 1,..., x n )p(x 1,..., x n )dx 1... dx n R, falls g 0, g 0 oder g f <. Bemerkung 10. Dies liefert E[ n i=1 X i] = n i=1 E[X i]. R Satz 38. Seien X,Y unabhängige Zufallsvariablen, g, h : R R meßbare Funktionen mit der Eigenschaft E[ g(x)h(y ) ] <, E[ g(x) ] < und E[ h(y ) ] <. Dann gilt: E[g(X)h(Y )] < E[g(X)]E[h(Y )] Definition 29. Seien X,Y Zufallsvariablen auf demselben Wahrscheinlichkeitsraum, E[X 2 ], E[Y 2 ] < Die Kovarianz von X und Y ist definiert durch Cov(X, Y ) = E[(X E[X])(Y E[Y ])] Satz 39. Es gelten die folgenden Rechenregel: (1) Cov(X, X) = V ar(x) (2) Cov(X, Y ) = E[XY ] E[X]E[Y ] (3) Sind X und Y unabhängig, so gilt: Cov(X, Y ) = 0. Satz 40. Seien X 1,..., X n, Y 1,..., Y m Zufallsvariablen auf demselben Wahrscheinlichkeitsraum mit E[Xi 2 ], E[Yi 2 ] < i, dann gilt: (1) Cov( n i=1 X i, m j=1 Y i) = n m i=1 j=1 Cov(X i, Y j ) (2) V ar( n i=1 X i) = n i=1 V ar(x i) + 2 i<j Cov(X i, Y j (3) Sind X 1,..., X n unabhängig, so gilt: V ar( n i=1 X i) = n i=1 V ar(x i) Satz 41. (Schwaches Gesetz der großen Zahlen) Seien X 1,..., X n unabhängige, identisch verteilte Zufallsvariablen auf demselben Wahrscheinlichkeitsraum mit endlichem Erwartungswert µ und endlicher Varianz σ 2. Sei S n = n i=1 X i. Dann gilt ε > 0: lim P ( S n µ ε) = 0 n n

11 STOCHASTIK A&B Bedingte Verteilungen Definition 30. Seien X und Y diskrete Zufallsvariablen. Die bedingte Wahrscheinlichkeitsfunktion p X Y von X, gegeben Y = y ist definiert durch: p X Y (x, y) = P (X = x Y = y) y : P (Y = y) > 0. Für y : P (Y = y) > 0 nennen wir E[X Y = y] = x S X xp X Y (x, y) die bedingte Erwartung von X gegeben Y = y. Bemerkung 11. E[X Y ] ist eine Zufallsvariable, die von Y (ω) abhängt. Für unabhängige X,Y gilt jedoch E[X Y ] = E[X], falls E[ X ] <. Satz 42. Für diskrete Zufallsvariablen X,Y gilt: E[X] = E[E[X Y ]], falls E[X] <. Satz 43. Sei g : R R eine Funktion und X eine diskrete Zufallsvariable, so dass E[ g(x) ] <, dann gilt: E[g(X) X] = g(x). Definition 31. Eine Folge von Zufallsvariablen (X i ) i heißt unabhängig, wenn jede endliche Teilfamilie X n1,..., X nk, 1 n 1 <... < n k unabhängig ist. Satz 44. Seien (X i ) i unabhängige Zufallsvariablen mit derselben Verteilung und mit endlichem Erwartungswert µ. Sei N eine Zufallsvariable mit Werten in N, unabhängig von (X i ), dann gilt: E[ N i=1 X i] = E[N]µ. Hier sollte 21 Mehr zu bedingten Verteilungen aus der Vorlesung vom angefügt werden 12. Erzeugende Funktionen Definition 32. Sei X eine diskrete Zufallsvariable mit Werten in N 0. Die erzeugende Funktion von X ist definiert durch G(s) = E[s X ], für alle s R, für die dieser Erwartungswert wohldefiniert ist. Bemerkung 12. Es ist dann G(s) = P (X = n)s n n=0 Wegen N P (X = n) = 1 konvergiert diese Reihe für s 1. Die erzeugende Funktion bestimmt die Wahrscheinlichkeitsfunktion von X aufgrund der Eindeutigkeit der Potenzreihenentwicklung eindeutig: P (X = i) = G(i) (0) i! Satz 45. Sei G die erzeugende Funktion von X. Es gilt (1) G(0) = P (X = 0) und G(1) = 1. (2) E[X] = lim x 1 G (x) (3) E[X(X 1) (X k + 1)] = lim x 1 G (k) (x)

12 12 PHILIP HERRMANN Bemerkung 13. Auf diese Weise lässt sich die Varianz (oft leichter als direkt aus der Verteilung) berechnen: V ar(x) = E[X 2 ] E[X] 2 = E[X(X 1)] + E[X] E[X] 2 = G (2) (1 ) + G (1 ) (G (1 )) 2 wobei G(1 ) := lim x 1 G(x) gesetzt wird. Satz 46. Sind X und Y unabhängig, so gilt G X+Y (s) = G X (S)G Y (s) für s Ein starkes Gesetz der großen Zahlen Hier ist die Vorlesung vom einzufügen! Satz 47. Sei (X i ) i eine Folge von unabhängigen Zufallsvariablen mit derselben Verteilung. Es sei E[Xi 4 ] < und E[X i ] =: µ. Dann gilt: 1 n P ( lim X i = µ) = 1 n n i=1 Bemerkung 14. Schwaches und starkes Gesetz großer Zahlen unterscheiden sich durch den verwendeten Konvergenzbegriff. Das schwache Gesetz großer Zahlen verwendet stochastische Konvergenz, das starke Gesetz großer Zahlen die fast-sichere Konvergenz. Fast-sichere implizierte stochastische Konvergenz, die Umkehrung gilt nicht. Das schwache Gesetz sagt, dass für große n der das Mittel der Summe nahe beim Erwartungswert liegt, aber nicht, dass die Folge auch nur für ein einziges ω Ω konvergiert. Satz 48. (Zentraler Grenzwertsatz) Seien X i, i 1 unabhängige identisch verteilte Zufallsvariablen mit endlicher Varianz σ 2 > 0. Dann gilt: S n := X X n und S n := S n E[S n ] V ar(sn ) P (a S n b) = Φ(b) Φ(a) wobei Φ die Verteilungsfunktion der Standard-Normalverteilung ist. 14. Statistik Wahrscheinlichkeitstheorie Wahrscheinlichkeitsmaß bekannt. Ergebnis des Zufallsexperiments ist unbekannt. Berechnen oder abschätzen von Wahrscheinlichkeiten von Ereignissen. Statistik Wahrscheinlichkeitsmaß unbekannt. Ergebnis des Zufallsexperimens ist bekannt. Testen von Hypothesen für die unbekannte Verteilung und schätzen von Parametern.

13 STOCHASTIK A&B 13 Definition 33. Sei Ω ein Ergebnisraum und P := {P θ : θ Θ} eine Familie von Verteilungen auf Ω mit Parameter θ. Dann heißt (Ω, P) statistisches Modell. Ist Θ R k, so spricht man von einem parametrischen Modell. Wir betrachten im folgenden nur statistische Standardmodelle, dh entweder sind alle P θ diskret, mit einer Wahrscheinlichkeitsfunktion p(x, θ) oder alle P θ besitzen eine Wahrscheinlichkeitsdichte f(x, θ). Definition 34. Sei X : Ω R n ein Zufallsvektor. Hat ein Experiment das Ergebnis ω, so heißt X (ω) Beobachtungen oder Daten. Eine Funktion der Daten heißt Statistik. Definition 35. Sei (Ω, P := {P θ : θ Θ}) ein statistisches Modell mit der Eigenschaft P θ1 P θ2, θ 1 θ 2, dann heißt die Parametrisierung identifizierbar. Jede Abbildung ˆθ : Ω Θ heißt Schätzer für θ. Bemerkung 15. Da die Daten und damit auch jede Statistik zufällig sind, können Schätzer und Test zu falschen Entscheidungen führen. 15. Test von Hypothesen - Das Neyman-Pearson Lemma Definition 36. Sei (Ω, P) ein statistisches Modell. Eine Hypothese H ist eine Teilmenge von P. Falls H = {P } für genau ein P P, so heißt die Hypothese einfach, sonst zusammengesetzt. Beim Testen von Hypothesen wollen wir zwischen zwei Alternativen unterscheiden. Die Null-Hypothese H 0 P und die Alternative H 1 P, wobei H 0 H 1 =. Definition 37. Ein statistischer Test für die Hypothesen H 0, H 1 ist gegeben durch einen Ablehnungsbereich R Ω. Das Komplement Ω R heißt Annahmebereich. In Abhängigkeit vom beobachteten Wert ω treffen wir eine Entscheidung: ω R Wir lehnen die Null-Hypothese ab. ω Ω \ R Wir nehmen die Null-Hypothese an. Definition 38. Falls H 0 oder H 1 die zugrundeliegende Verteilung beschreibt, so gibt es zwei Arten von Fehlern: H 0 angenommen H 1 angenommen H 0 gilt Korrekte Entscheidung Fehler 1. Art H 1 gilt Fehler 2. Art Korrekte Entscheidung Bemerkung 16. Ein Ziel beim Design von Tests ist es, das Risiko für einen Fehler 1.Art (P 0 (R) P 0 H 0 )bzw einen Fehler 2.Art (P 1 (Ω R) P 1 H 1 ) möglichst klein zu halten. Diese beiden Forderungen widersprechen einander. Definition 39. Für einen Test mit Ablehnungsbereich R ist das Signifikanzniveau definiert durch α := sup P0 H 0 P 0 (R). Für ein festes

14 14 PHILIP HERRMANN P 1 H 1 ist die Macht des Test für die Alternative P 1 definiert durch (1 β) := P 1 (R). β bescheibt das Risiko eines Fehlers 2.Art. Definition 40. Der Likelihood-Quotient von P 1 gegen P 0 ist definiert durch R(ω) = P 1({ω}) P 0 ({ω}). Bemerkung 17. Gegeben ein festes Signifikanzniveau α, das wir bereit sind zu akzeptieren und für ein festes P 1 H 1 wollen wir die Macht von P 1 unter alles Tests mit Signifikanzniveau α α maximieren Design von optimalen Tests für einfache Hypothesen. Satz 49. (Neyman-Pearson-Lemma) In einem Standardmodell (Ω, {P 0, P 1 }) mit einfacher Hypothese und Alternative gilt für jedes Niveau 0 < α < 1: (1) Ein bester Test Ψ zum Niveau α hat notwendiger Weise die Gestalt Ψ(x) = { 1 falls R(x) < c 0 falls R(x) > c für eine geeignetes c = c(α) 0, wobei R(x) den Likelihoodquotienten bezeichnet. Jeder solche Test heißt Neyman-Pearson- Test. (2) Es gibt einen Neyman-Pearson-Test ϕ mit E 0 [ϕ] = α, der also der Niveau voll ausschöpft. (3) Jeder Neyman-Pearson-Test ϕ mit E 0 [ϕ] = α ist ein bester Test zum Niveau α. 16. Schätzer Gegeben ein statistisches Modell (Ω, P := {P θ : θ Θ}) wollen wir den Parameter θ oder eine Funktion q : Θ R schätzen. Wir werden Schätzer für θ bzw q häufig mit ˆθ, bzw ˆq bezeichnen. Definition 41. Sei (Ω, P := {P θ : θ Θ}) ein statistisches Modell. Ein Schätzer ˆθ für θ heißt erwartungstreu, falls θ Θ: E θ [ˆθ] = θ Um eine Aussage über die Qualität eines gegeben Schätzers ˆq zu bekommen, betrachtet man häufig den Definition 42. (Mittlerer quadratischer Fehler) R(θ, q) := E Pθ [(ˆq q(θ)) 2 ] Bemerkung 18. Es ergibt sich dadruch die folgende Darstellung des mittleren quadratischen Fehlers: E Pθ [(ˆq q(θ)) 2 ] = V ar Pθ (ˆq) + b(θ, ˆq) 2 Ist ˆq erwartungstreu, so ist b(θ, ˆq) = 0. b(θ, ˆq) wird Bais des Schätzers ˆq genannt. V ar Pθ (ˆq) mißt, wie die Verteilung von ˆq um ihren Erwartungswert streut und wird oft Präzision von ˆq genannt.

15 STOCHASTIK A&B 15 Definition 43. L(θ, x) := p θ (x) heißt Likelihood-Funktion und gibt an, wie die Wahrscheinlichkeit ist, x unter der Verteilung P θ zu beobachten. ˆθ(x) = argmax p }{{} θ (x) heißt Maximum-Likelihood-Schätzer. θ Θ Satz 50. Sei L(θ, x) = ln(l(θ, x)). Sei Θ R offen und sei θ L(θ, x) für jedes x Ω differenzierbar. Falls der Maximum-Likelihood- Schätzer ˆθ(x) existiert, so erfüllt er die Likelihood-Gleichung L(θ, x) = 0 θ 17. Markovketten Definition 44. Eine Folge von Zufallsvariablen auf demselben Wahrscheinlichkeitsraum heißt stochastischer Prozeß (in diskreter Zeit). Definition 45. Ein stochastischer Prozeß heißt Markovkette (in diskreter Zeit), falls (1) eine abzählbare Menge S existiert, so dass alle X n nur Werte in S annehmen. S heißt Zustandsraum. (2) ( n > 1) ( i 0,..., i n+1 SmitP (X 0 = i 0,..., X n = i n ) > 0) gilt P (X n+1 X 0 = i 0,..., X n = i n ) = P (X n+1 X n = i n ). (Markoveigenschaft) Definition 46. Eine Markovkette (X n ) n heißt homogen in der Zeit, falls eine Matrix (p(i, j)) i,j S existiert, so dass P (X n+1 = j X n = i) = p(i, j) für alle n 0 i, j S mit P (X n = i) > 0 gilt. In diesem Fall heißt p(i, j) die Übergangswahrscheinlichkeit von Zustand i nach Zustand j. Satz 51. Es sei (X n ) n ein stochastischer Prozeß mit folgenden Eigenschaften: (1) Es existiert ein abzählbarer Zustandsraum S. (2) Es existiert eine Matrix (p(i, j)) i,j S existiert, so dass P (X n+1 = j X n = i) = p(i, j) für alle n 0 i, j S mit P (X n = i) > 0 gilt. Dann ist (X n ) n bereits eine Markovkette. Satz 52. p(i, j) i, j S sind genau dann die Übergangswahrscheinlichkeiten einer Markovketten, wenn (1) p(i, j) 0 i, j S und (2) j S p(i, j) = 1 i S. Definition 47. Ist (X n ) n eine Markovkette, so heißt der Zeilenvektor P ((X 0 = i)) i S die Startverteilung der Markovkette.

16 16 PHILIP HERRMANN Satz 53. Sei (X n ) n eine Markovkette mit Zustandsraum S, Startverteilung µ (0) und Übergangsmartix p. Dann ist µ (n) = (µ (n) (i) = P (X n = i)) i S, die Verteilung der Markovkette zur Zeit n, gegeben durch µ (n) = µ (0) p n Bemerkung 19. Die Startverteilung und die Übergangswahrscheinlichkeiten bestimmen die Verteilung der Markovkette bereits eindeutig. Im folgenden schreiben wir für die Verteilung einer Markovkette mit Startverteilung µ meistens P µ. Satz 54. Für n 1, i 0,... i n S gilt: P µ (X m = i m 0 m n) = µ(i 0 ) n 1 m=0 p(i m, i m+1 ) Lemma 4. Für m, n N, i, j, k S mit P (X m = j X 0 = i) > 0, dann gilt: P (X m+n = j X m = k, X 0 = i) = P (X n = j X 0 = k). Satz 55. (Chapman-Kolmogorov-Gleichung) Für eine Markovkette (X n ) n gilt für alle m, n 1, i, j S: P (X m+n = j X 0 = i) = k S P (X m = k X 0 = i)p (X n = j X 0 = k) Definition 48. Seien i, j S. Man sagt i kommuniziert mit j, falls ein n N existiert mit P (X n = j X 0 = i) > 0 und schreibt dann i j. Falls i j und j i, so kommunizieren i und j miteinander und man schreibt j i. Definition 49. Eine Markovkette heißt irreduzibel, falls für alle i, j S gilt i j. Anderenfalls heißt die Markovkette reduzibel. Bemerkung 20. Eine Markovkette ist genau dann irreduzibel, wenn ( i, j S)( n N) : p (n) (i, j) > 0. Definition 50. Die Periode d(i) eines Zustands i S ist definiert durch: d(i) := ggt {n N : p (n) (i, i) > 0} Ist d(i) = 1, so heißt der Zustand i aperiodisch. Eine Markovkette heißt aperiodisch, wenn alle Zustände aperiodisch sind und periodisch sonst. Satz 56. Sei (X n ) n eine aperiodische Markovkette mit endlichem Zustandsraum S. Dann existiert ein N N, so dass für alle n N und alle i S gilt: p (n) (i, i) > 0. Lemma 5. Sei (X n ) n eine irreduzible aperiodische Markovkette mit endlichem Zustandsraum S. Dann existiert ein N N, so dass für alle i, j S und n N gilt p (n) (i, j) > 0.

17 STOCHASTIK A&B 17 Definition 51. Ein Wahrscheinlichkeitsmaß π auf S heißt stationäre Verteilung für eine Markovkette mit Übergangsmatrix p, falls π(i)p(i, j) = π(j) j S. i S Bemerkung 21. π ist eine stationäre Verteilung (1) πp = π, wobei π als Zeilenvektor ausgefasst wird. (2) π(i) 0 i S (3) i π(i) = 1 Ist π eine stationäre Verteilung, so gilt P π (X n = i) = π(i). Definition 52. Für einen Zustand i S heißt T i := min{n N : X n = i} die Treffzeit von i. Falls X n i n N, so setzen wir T i =. Falls die Markovkette in i startet, so heißt T i die erste Rückkehrzeit. Der Erwartungswert E[T i ] heißt mittlere Treff-/Rückkehrzeit Lemma 6. Sei (X n ) n eine aperiodische und irreduzible Markovkette mit endlichem Zustandsraum S. Dann gilt für alle i, j S: P i (T j < ) = 1. Darüber hinaus gilt E i [T j ] <. Bemerkung 22. Für eine nicht-negative Zufallsvariable T gilt: E[T ] < P (T < ) = 1. Die Umkehrung ist aber i.a. falsch. Satz 57. (Existenz der stationären Verteilung) Für jede irreduzible und aperiodische Markovkette mit endlichem Zustandsraum existiert eine stationäre Verteilung. Definition 53. Sind µ und ν Wahrscheinlichkeitsmaße auf S, so ist der Abstand von µ und ν in Totalvariation definiert durch d T V := 1 µ(s) ν(s) 2 s S Bemerkung 23. d T V ist eine Metrik auf dem Raum der Wahrscheinlichkeitsmaße auf S. Definition 54. Seien (ν n ) n, ν eine (Folge von) Wahrscheinlichkeitsmaßen auf S, so konvergiert ν n gegen ν in Totalvariation, falls lim d T V (ν n, ν) = 0 n Satz 58. (Eindeutigkeit der stationären Verteilung) Jede aperiodische und irreduzible Markovkette mit endlichem Zustandsraum besitzt genau eine stationäre Verteilung. Satz 59. (Konvergenzsatz für Markovketten) Sei (X n ) n eine aperiodische und irreduzible Markovkette mit endlichem Zustandsraum. Dann gilt für die stationäre Verteilung π von (X n ) n und für jede Startverteilung µ: lim n d T V (µ (n), π) = 0

18 18 PHILIP HERRMANN Definition 55. Eine Übergangsmatrix p heißt doppelt stochastisch, falls i S p(i, j) = 1 j S, dh falls die Zeilen und Spalten jeweils zu 1 summieren. Satz 60. Die Übergangsmatrix einer Markovkette mit endlichem Zustandsraum ist genau dann doppelt stochastisch, wenn die Gleichverteilung auf S eine stationäre Verteilung der Markovkette ist. Definition 56. Ein Wahrscheinlichkeitsmaß auf S heißt reversibel für die Übergangsmatrix p (oder für die Markovkette mit Übergangsmatrix p), falls π(i)p(i, j) = π(j)p(j, i) i, j S. Bemerkung 24. Interpretiert man den stationären Zustand einer Markovkette als globales Gleichgewicht, so ist eine Markovkette in reversiblem Zustand sogar lokal im Gleichgewicht. Satz 61. Jedes reversible Wahrscheinlichkeitsmaß ist stationär. Vorlesung vom Simulation von Markovketten Monte-Carlo-Simulation. Vorlesung von 18. und Der Poisson-Prozeß In diesem Abschnitt werden die Aussagen über die Exponentialverteilung aus der Stochastik A in besonderem Maße benötigt. Satz 62. Seien X 1,..., X n unabhängige, exponential (λ i )-verteilte Zufallsvariablen, dann gilt: (1) S n := X X n ist gamma(n,λ)-verteilt, dh. S n hat die Wahrscheinlichkeitsdichte f(t) = λn (n 1)! tn 1 e λt 1 [0, [ falls alle λ i gleich sind. (2) [min 1 i n T i ist eine exponential ( λ i )-verteilte Zufallsvariable. (3) P (T j = min 1 i n T i ) = λ j P λi Bemerkung 25. (Motivation zur Definition des Poisson-Prozesses) Wir möchten z.b. folgende Phänomene simulieren: Zeiten zu denen ein Anruf in einer Telefonzelle eingeht Zeiten zu denen eine Stadt von einem Erdbeben heimgesucht wird... Erwünschte Eigenschaften dabei sind: Stationarität in der Zeit: im Verlauf der Zeit sollten sich die propabilistischen Eigenschaften des Prozeßes nicht ändern.

19 STOCHASTIK A&B 19 Unabhängigkeit gewisser Ereignisse Der Prozeß soll kein Gedächtnis haben. In jedem endlichen Zeitintervall sollten nur endlich viele Ereignisse eintreten. Definition 57. Sei λ > 0 und seien X i, i 1 unabhängige exponential(λ)- verteilte Zufallsvariablen. Wir setzen S 0 := 0 und S n = n i=1 X i. S n heißt n-te Ankunftszeit, X i heißt i-te Wartezeit. Definition 58. Wir definieren N(0) := 0 und N(t) := max{n N 0 : S n t}, 0 < t R. Dann heißt (N(t)) t R Poisson-Prozeß mit Intensität λ. Man beachte, dass ein Poisson-Prozeß ein stochastischer Prozeß in kontinuierlicher Zeit ist. Bemerkung 26. Sei t > 0 fest. Falls N(t) = k, so ist (1) die letze Ankunftszeit vor Zeit t zur Zeit S k passiert. (2) die erste Ankunftszeit nach Zeit t zur Zeit S k+1 passiert. Also ist die letzte Ankunftszeit vor Zeit t gerade S N(T ). Falls keine Ankunft vor Zeit t stattfindet, so ist S N(t) = S 0 = 0. Die erste Ankunft zur Zeit t ist zur Zeit S N(t)+1. V t := S N(t)+1 t ist die Wartezeit bis zur nächsten Ankunft nach Zeit t. Satz 63. Für alle t > 0 ist N(t) Poisson (λt)-verteilt, dh. P (N(t) = n) = e λt (λt) n n!, n N 0. Bemerkung 27. Aus dem Satz folgt, dass P (N(t) < ) = 1 t 0. Damit ist die Anzahl der Ankunftszeiten in jedem Zeitintervall ]s, s+t], nämlich N(s + t) N(s) endlich. Satz 64. Sei t > 0 und seien V t := S N(t)+1 t und Z i := X N(t)+i für i = 1, 2,.... Dann sind die Zufallsvariablen V t, N(t), Z 1,..., Z m unabhängig für alle m. Ferner sind V t, Z 1,..., Z m alle exponential (λ)- verteilt. Bemerkung 28. Intuitiv würde man denken, dass V t kleiner ist als eine exponential (λ)-verteilte Zufallsvariable. Dies ist aber nicht der Fall. Satz 65. Für alle t > 0 ist N(s + t) N(t) Poisson (λs)-verteilt. Ferner sind N(s + t) N(t) und N(t) unabhängig. Bemerkung 29. Damit ist gezeigt, dass die Zuwächse stationär sind: ( s > 0) hat N(s + t) N(t) dieselbe Verteilung, nämlich die Poisson (λs)-verteilung. Satz 66. (Ein starkes Gesetz der großen Zahlen) Sei (N(t)) t 0 ein Poisson-Prozeß mit Intensität λ. Dann gilt P ( lim t N(t) t = λ) = 1

20 20 PHILIP HERRMANN 20. Martingale Dieses Kapitel ist stark zusammengefasst. Definition 59. Sei X eine diskrete Zufallsvariable auf einem Wahrscheinlichkeitsraum (Ω, F, P ) mit Werten in einer abzählbaren Teilmenge S R. Für A F mit P (A) > 0 definieren wir: E[X A] = i S falls die rechte Seite wohldefiniert ist. ip (X = i A) Definition 60. Sei (M n ) n 0 ein stochastischer Prozeß mit Werten in einer abzählbaren Menge S. Der Prozeß (M n ) n heißt Martingal, wenn gilt: (1) E[ M n ] < (2) E[M n+1 M 0 = m 0,..., M n = m n ] = m n, m 0,..., m n S mit P (M 0 = m 0..., M n = m n ) > 0 Bemerkung 30. Man kann die zweite Bedingung auch so schreiben: E[M n+1 M n M 0 = m 0,..., M n = m n ] = 0, m 0,..., m n S mit P (M 0 = m 0..., M n = m n ) > 0. Gilt statt der Gleichheit nur bzw., so heißt (M n ) n Supermartingal bzw. Submartingal. Satz 67. Sei (X n ) n eine Markovkette mit Übergangsmatrix p. Sei h : S N 0 R eine Funktion mit den folgenden Eigenschaften: (1) h(i, n) = j S p(i, j)h(j, n + 1), i S, n N 0 (2) E[ h(x n, n) ] < n N 0 Dann ist (M n := h(x n, n)) n ein Martingal. Satz 68. Ist (M n ) n ein Super- bzw. Submartingal, so ist n E[M n ] monoton fallend bzw. wachsend. Definition 61. Eine Zufallsvariable T mit Werten in N 0 { } heißt Stoppzeit bzgl. (ξ n ) n, falls {T = n} meßbar bezüglich der von den ξ i erzeugten σ-algebren ist, für alle i N. Satz 69. (Optional Stopping Theorem) Sei (M n ) n ein Martingal bgzl. (ξ n ) n und sei T eine Stoppzeit bzgl. (ξ n ) n mit P (T < ) = 1. Falls es eine Konstante c gibt, so dass M T n c für alle n, so gilt E[M T ] = E[M 0 ] Literatur [1] Krengel, U., Einfürhung in die Wahrscheinlichkeitstheorie, Vieweg [2] Georgii, H.O., Stochastik, de Gruyter [3] Ross, S., A First Course in Probability, Prentice Hall

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Einführung in die angewandte Stochastik

Einführung in die angewandte Stochastik Einführung in die angewandte Stochastik Fabian Meyer 5. April 2018 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 3 1.1 Definitionen................................... 3 1.2 Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsverteilung,

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Stochastik für Studierende der Informatik

Stochastik für Studierende der Informatik Wiederholungs-/Fragestunde Peter Czuppon Uni Freiburg, 05. September 2016 Diese Zusammenfassung wurde mit Hilfe des Skriptes von Prof. Dr. Pfaffelhuber aus dem Sommersemester 2016 erstellt. Ferner deckt

Mehr

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: 24.01.2011 Autor: René Pecher Inhaltsverzeichnis 1 Permutation 1 1.1 ohne Wiederholungen........................... 1 1.2

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte

Mehr

Vorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden

Vorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden Vorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden Hansruedi Künsch Frühlingssemester 2013 Repetition vom 19. 2. Ein Wahrscheinlichkeitsraum besteht aus

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

4.2 Moment und Varianz

4.2 Moment und Varianz 4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p

Mehr

ALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke

ALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke ALMA II - ÜBERBLICK STOCHASTIK Jochen Garcke GRUNDBEGRIFFE Wahrscheinlichkeitsraum (Ω, A, P) beschreibt Zufallssituation Realisierung, Stichprobe, Elementarereignis ω Ω Ergebnisraum zufälliges Ereignis

Mehr

Stochastische Prozesse Stoffzusammenfassung

Stochastische Prozesse Stoffzusammenfassung Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 7. August 2018 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Grundlagen der Wahrscheinlichkeitstheorie

Grundlagen der Wahrscheinlichkeitstheorie Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)

Mehr

Wahrscheinlichkeitsrechnung. Sommersemester Kurzskript

Wahrscheinlichkeitsrechnung. Sommersemester Kurzskript Wahrscheinlichkeitsrechnung Sommersemester 2008 Kurzskript Version 1.0 S. Döhler 1. Juli 2008 In diesem Kurzskript sind Begriffe und Ergebnisse aus der Lehrveranstaltung zusammengestellt. Außerdem enthält

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Abgabetermin: 5. Mai 2017, Uhr

Abgabetermin: 5. Mai 2017, Uhr Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Stochastik. Frank Eckert und. Thomas Huppertz Letzte Änderung:

Stochastik. Frank Eckert und. Thomas Huppertz Letzte Änderung: Stochastik getext von Frank Eckert Frank.Eckert@post.rwth-aachen.de und Thomas Huppertz thuppert@fh-niederrhein.de Letzte Änderung: 4.Juli.2000 INHALTSVERZEICHNIS Inhaltsverzeichnis Kombinatorische Grundformeln

Mehr

Scheinklausur zur Vorlesung Stochastik II

Scheinklausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:

Mehr

Suffizienz und Vollständigkeit

Suffizienz und Vollständigkeit KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt

Mehr

Wahrscheinlichkeitsräume und Zufallsvariablen

Wahrscheinlichkeitsräume und Zufallsvariablen Kapitel Wahrscheinlichkeitsräume und Zufallsvariablen. W-Raum Unter einem Zufallsexperiment verstehen wir einen vom Zufall beeinflussten Vorgang, der ein entsprechend zufälliges Ergebnis hervorbringt.

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

Zufallsvariable, Verteilung, Verteilungsfunktion

Zufallsvariable, Verteilung, Verteilungsfunktion Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

i =1 i =2 i =3 x i y i 4 0 1

i =1 i =2 i =3 x i y i 4 0 1 Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x

Mehr

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Diskrete Strukturen II

Diskrete Strukturen II SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

1.5 Mehrdimensionale Verteilungen

1.5 Mehrdimensionale Verteilungen Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Zulassungsprüfung Stochastik,

Zulassungsprüfung Stochastik, Zulassungsprüfung Stochastik, 5.5. Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß auf

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 003/004 Universität Karlsruhe 05. 04. 004 Prof. Dr. G. Last Klausur zur Vorlesung Stochastik II Dauer: 90 Minuten Name: Vorname: Matrikelnummer: Diese Klausur hat

Mehr

Studienbegleitende Prüfung Stochastik 2

Studienbegleitende Prüfung Stochastik 2 Universität Karlsruhe (TH) Institut für Stochastik Prof. Dr. N. Bäuerle Name: Vorname: Matr.-Nr.: Studienbegleitende Prüfung Stochastik 2 27. März 2007 Diese Klausur hat bestanden, wer mindestens 20 Punkte

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

1 Bedingte Erwartungswerte

1 Bedingte Erwartungswerte Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,

Mehr

Sammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien

Sammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien Sammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien Prof. F. Merkl 23. Mai 2016 Zu Ihrer Information und als zusätzliches Übungsmaterial sind hier die Aufgaben

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

TU DORTMUND Sommersemester 2018

TU DORTMUND Sommersemester 2018 Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung

Mehr

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Definition: Erneuerungsprozess Sei {T n, n N} eine Folge unabhängiger, nichtnegativer Zufallsvariablen mit Verteilungsfunktion F, mit F () < 1. Dann heißt

Mehr

Ü b u n g s b l a t t 7

Ü b u n g s b l a t t 7 Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 21. 5. 2007 Ü b u n g s b l a t t 7 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben

Mehr

Stochastik Serie 11. ETH Zürich HS 2018

Stochastik Serie 11. ETH Zürich HS 2018 ETH Zürich HS 208 RW, D-MATL, D-MAVT Prof. Marloes Maathuis Koordinator Dr. Marvin Müller Stochastik Serie. Diese Aufgabe behandelt verschiedene Themenbereiche aus dem gesamten bisherigen Vorlesungsmaterial.

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Vorlesung 5a. Die Varianz

Vorlesung 5a. Die Varianz Vorlesung 5a Die Varianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert

Mehr

Vorlesung 7b. Der Zentrale Grenzwertsatz

Vorlesung 7b. Der Zentrale Grenzwertsatz Vorlesung 7b Der Zentrale Grenzwertsatz 1 Zentraler Grenzwertsatz (Tschebyscheff) Die standardisierte Summe von unabhängigen, identisch verteilten R-wertigen Zufallsvariablen konvergiert in Verteilung

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Freie Universität Berlin Institut für Mathematik Winter Semester 2015/16 Stochastik 1 29 Oktober Material

Freie Universität Berlin Institut für Mathematik Winter Semester 2015/16 Stochastik 1 29 Oktober Material Freie Universität Berlin Institut für Mathematik Winter Semester 2015/16 Stochastik 1 29 Oktober 2015 Dozent: Prof. Tibor Szabó, Tutoren: Jan Corsten, Fabian Fumagalli, Yizheng Yuan Material Jede Woche

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt. Normalverteilung Diskrete Stetige f(x) = 1 2πσ 2 e 1 2 ((x µ)2 σ 2 ) Gauß 91 / 169 Normalverteilung Diskrete Stetige Satz: f aus (1) ist Dichte. Beweis: 1. f(x) 0 x R und σ > 0. 2. bleibt z.z. lim F(x)

Mehr

3 Bedingte Erwartungswerte

3 Bedingte Erwartungswerte 3 Bedingte Erwartungswerte 3.3 Existenz und Eindeutigkeit des bedingten Erwartungswertes E A 0(X) 3.6 Konvexitätsungleichung für bedingte Erwartungswerte 3.9 Konvergenzsätze von Levi, Fatou und Lebesgue

Mehr

67 Zufallsvariable, Erwartungswert, Varianz

67 Zufallsvariable, Erwartungswert, Varianz 67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

5 Zufallsvariablen, Grundbegriffe

5 Zufallsvariablen, Grundbegriffe II. Zufallsvariablen 5 Zufallsvariablen, Grundbegriffe Def. 12 Es seien (Ω 1, E 1,P 1 ) und (Ω 2, E 2,P 2 ) Wahrscheinlichkeitsräume. Eine Abbildung X : Ω 1 Ω 2 heißt E 1 E 2 meßbar, falls für alle Ereignisse

Mehr

Stochastik Approximationen der Binomialverteilung

Stochastik Approximationen der Binomialverteilung Stochastik Approximationen der Binomialverteilung Stefan Englert stefan.englert@gmx.net 21. April 2007 Inhaltsverzeichnis 1 Approximation von n! und b n,p (k) 2 2 Der Satz von de Moivre-Laplace 6 3 Die

Mehr

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen

Mehr

Stochastik I - Formelsammlung

Stochastik I - Formelsammlung Stochastik I - Formelsammlung Ereignis Ergebnisraum: Ω von Julian Merkert, Wintersemester 2005/06, Prof. Bäuerle Ereignisse und Wahrscheinlichkeiten Ereignis: A Ω Elementarereignis: {ω}, ω Ω A B := AB

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ), 2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist

Mehr

3 Produktmaße und Unabhängigkeit

3 Produktmaße und Unabhängigkeit 3 Produktmaße und Unabhängigkeit 3.1 Der allgemeine Fall Im Folgenden sei I eine beliebige Indexmenge. i I sei (Ω i, A i ein messbarer Raum. Weiter sei Ω : i I Ω i ein neuer Ergebnisraum. Wir definieren

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr