Diskrete Wahrscheinlichkeitstheorie TUM Sommersemester 2012 Dozent: Javier Esparza. Janosch Maier 25. Juli 2012

Größe: px
Ab Seite anzeigen:

Download "Diskrete Wahrscheinlichkeitstheorie TUM Sommersemester 2012 Dozent: Javier Esparza. Janosch Maier 25. Juli 2012"

Transkript

1 Diskrete Wahrscheinlichkeitstheorie TUM Sommersemester 2012 Dozent: Javier Esparza Janosch Maier 25. Juli

2 Inhaltsverzeichnis I Diskrete Wahrscheinlichkeitsräume 6 1 Grundlagen Markov-Diagram Additionssatz Siebformel Bool sche Ungleichung Wahl der Wahrscheinlichkeiten Bedingte Wahrscheinlichkeiten Multiplikationssatz Geburtstagsproblem Satz von der totalen Wahrscheinlichkeit Unabhängigkeit 7 4 Satz von Bayes 8 5 Zufallsvariablen Grundlagen Erwartungswert & Varianz Monotonie des Erwartungswertes Erwartungswert bei Funktionen Linearität des Erwartungswertes Mehrere Zufallsvariablen Dichte Varianz Mehrere Zufallsvariablen Hypergeometrische Verteilung Gemeinsame Dichte Randdichte Gemeinsame Verteilung Randverteilung Unabhängigkeit von Zufallsvariablen Zusammengesetzte Zufallsvariablen Linearität des Erwartungswertes Multiplikativität des Erwartungswertes Addizivität der Varianz Indikatorvariable Formelsammlung 10 7 Wichtige diskrete Verteilungen Bernoulli-Verteilung Binomialverteilung Mehrere unabhängige Binomialverteilungen Geometrische Verteilung Negative Binomialverteilung

3 7.4 Poisson Verteilung Grenzwert für Binomialverteilung Summe von Poisson-verteilten Zufallsvariablen Abschätzen von Wahrscheinlichkeiten Ungleichungen von Markov und Chebyshev Markov-Ungleichung Chebishev-Ungleichung Gesetz der großen Zahlen Gesetz der großen Zahlen Wahrscheinlichkeit und relative Häufigkeit Chernoff-Schranken Chrenoff-Schranken für Summen von 0-1-Zufallsvariablen Weitere Abschätzungen Erzeugende Funktion Rechenregeln Beobachtung Eindeutigkeit Wichtige Erzeugende Funktionen Bernoulli-Verteilung Gleichverteilung auf {0,, n} Binomialverteilung Geometrische Verteilung Poisson-Verteilung Erzeugende Funktion und Momente II Kontinuierliche Wahrscheinlichkeitsräume Einführung Kolmogorov-Axiome und σ-algebren σ-algebren Borel sche Mengen Kolmogorov-Axiome Lebesgue-Integral Rechenregeln in (Ω, A, Pr) Additionssatz Kontinuierliche Zufallsvariablen Dichtefunktion Verteilungsfunktion Gleichverteilung Rechnen mit kontinuierlichen Zufallsvariablen Exponentialverteilung Lineare Zufallsvariablen Simulation von Zufallsvariablen Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Erwartungswert Varianz

4 Laplace-Prinzip Bertrand sches Paradoxon Mehrere kontinuierliche Zufallsvariablen Mehrdimensionale Dichten Randverteilung Randdichte Unabhängigkeit Summe von unabhängigen Zufallsvariablen Normalverteilung Erwartungswert und Varianz X N (0, 1) Allgemeiner Fall Normalverteilung als Grenzwert der Binomialverteilung Grenzwertsatz von de Moivre Konvergenz der Binomialverteilung Summe von Normalverteilungen Additivität der Normalverteilung Zentraler Grenzwertsatz Momentenerzeugende Funktion Gleichverteilung auf [a, b] Standardnormalverteilung Normalverteilung Y N (µ, σ 2 ) Zentraler Grenzwertsatz Elementarer Beweis des Grenzwertsatzes von de Moivre für p = Exponentialverteilung Erwartungswert und Varianz Exponentialverteilung als Grenzwert der geometrischen Verteilung Gedächtnislosigkeit Skalierung exponentialverteilter Variablen Gedächtnislosigkeit Minimum von Exponentialverteilungen Warten auf mehrere Ereignisse Poisson-Prozess Approximationen der Binomialverteilung Approximation durch Poisson-Verteilung Approximation durch Chrenoff-Schranken Approximation durch Normalverteilung III Induktive Statistik Einführung 26 4

5 16 Schätzvariablen Schätzer Erwartungstreue Bias Mittlere Quadratische Abweichung Konsistenz im quadratischen Mittel Schwache Konsistenz Schätzer für die Varianz Stichprobenmittel & Stichprobenvarianz Maximum-Likelihood-Prinzip Bernoulli-Verteilung Konfidenzintervalle Konfidenzintevall für Standardnormalverteilung γ-quantil Testen von Hypothesen Einführung Test Fehler Konstruktion eines einfachen Tests Praktische Anwendung statistischer Tests Vorgehen bei statistischen Tests Ausgewählte statistische Tests Das richtige Testverfahren Ein-Stichproben-Tests für Lageparameter Zwei-Stichproben-Tests für Lageparameter Nicht an Legeparametern orientierte Tests IV Stochastische Prozesse Einführung Prozesse mit diskreter Zeit Markov-Ketten Wahrscheinlichkeitsraum einer Markov-Kette Berechnung von Übergangswahrscheinlichkeiten Exponentiation von Matrizen Ankunftswahrscheinlichkeiten und Übergangszeiten Erwartete Übergangs-/ Rückkehrzeiten Erwartete Ankunfsts- / Rückkehrwahrscheinlichkeiten Gamblers Ruin Problem Stationäre Verteilung Absorbierende Zustände Transiente Zustände Rekurrente Zustände Irreduzible Markov-Ketten Aperiodizität Ergodische Markov-Ketten

6 Teil I Diskrete Wahrscheinlichkeitsräume 1 Grundlagen Diskreter Wahrscheinlichkeitsraum: Ω = {ω 1, ω 2, } von Elementarereignissen Elementarwahrscheinlichkeit: Pr[ω 1 ]. ω Ω Pr[ω] = 1 Ereignis: E Ω besteht aus Elementarereignissen Pr[E] = ω E Pr[ω] Mehrstufiges Experiment Reihe von Teilereignissen Wahrscheinlichkeit des Elementarereignisses ist Produkt der Wahrscheinlichkeiten der Teilereignisse 1.1 Markov-Diagram Graph mit Übergangswahrscheinlichkeit 1.2 Additionssatz Für paarweise disjunkte Ereignisse A i, i [n] gilt: [ n ] n Pr A i = Pr[A i ] (1) i=1 Für zwei disjunkte Ereignisse gilt somit: Pr[A B] = Pr[A] + Pr[B] i=1 1.3 Siebformel [ n ] n Pr A i = Pr[A i ] Pr[A i1 A i2 ] + +( 1) l 1 1 i 1 i l n i=1 i=1 i i 1 i 2 n Pr[A i1 A il ] + + ( 1) n 1 Pr[A 1 A n ] Für zwei Ereignisse gilt somit: Pr[A B] = Pr[A] + Pr[B] Pr[A B] (2) 1.4 Bool sche Ungleichung [ n ] n Pr A i Pr[A i ] (3) i=1 i=1 6

7 1.5 Wahl der Wahrscheinlichkeiten Laplace Experiment: Pr[E] = E Ω 2 Bedingte Wahrscheinlichkeiten Pr[A B] = Pr[A B] Pr[B] (4) 2.1 Multiplikationssatz Für Pr[A 1 A n ] > 0 gilt: Pr[A 1 A n ] = Pr[A 1 ] Pr[A 2 A 1 ] Pr[A 3 A 1 A 2 ] Pr[A n A 1 A n 1 ] (5) Für zwei Ereignisse gilt somit: Pr[A B] = Pr[A] Pr[B A] = Pr[B] Pr[A B] 2.2 Geburtstagsproblem m Bälle in n Körbe, W keit, dass schon ein Ball in Korb liegt? A i : Ball i in leerem Korb A: Alle Bälle alleine in Korb [ m ] Pr[A] = Pr A i i=1 Multiplikationssatz = m j=1 2.3 Satz von der totalen Wahrscheinlichkeit A i, i [n] paarweise disjunkt, B n i=1 A i P r[b] = 3 Unabhängigkeit ( 1 j 1 ) 1 x e x e m(m 1) 2n (6) n n Pr[B A i ] Pr[A i ] (7) i=1 Pr[A B] = Pr[A] Pr[B] A und B unabhängig (8) Für Pr[B] 0 gilt Pr[A B] = Pr[A]. Zwei unabhängige Ereignisse mit Pr > 0 sind nicht disjunkt. Mehrere Ereignisse sind unabhängig, wenn für alle Teilmengen aus der Ereignissmenge gilt: Pr[A i A j ] = Pr[A i ] Pr[A j ], 1 i j n (9) Wenn A, B unabhängig A, B; A, B; A, B sind unabhängig Wenn A, B, C unabhängig A B, C; A B, C sind unabhängig 7

8 4 Satz von Bayes Ereignisse A i, i [n] paarweise disjunkt, mit Pr[A i ] > 0. B i [n] A i Pr[A i B] = Pr[A i B] Pr[B] = Pr[B A i ] Pr[A i ] n j=1 Pr[B A j] Pr[A j ] (10) Für zwei Ereignisse gilt also: Pr[A B] = 5 Zufallsvariablen 5.1 Grundlagen Pr[B A] Pr[A] Pr[B] Zufallsvariable: X : Ω R (Diskret, wenn Ω endlich / abzählbar) Wertebereich einer ZV: W X = X(Ω) = {x R; ω Ω; X(ω) = x} Dichtefunktion: x Pr[X = x] Verteilungsfunktion: x Pr[X x] = x x Pr[X = x ] 5.2 Erwartungswert & Varianz Erwartungswert bei absoluter Konvergenz: E[X] = Monotonie des Erwartungswertes a X(ω) b a E[X] b Erwartungswert bei Funktionen Y = f(x) = f X ist ZV. x W X x Pr[X = x] (11) X(ω) Y (ω) E[X] E[Y ] (12) E[Y ] = E[f(X) = ω Ω f(x(ω)) Pr[ω] (13) Linearität des Erwartungswertes E[aX + b] = ae[x] + b (14) Mehrere Zufallsvariablen W X N 0 E[X] = Pr[X i] (15) i=1 8

9 5.2.5 Dichte f X A (x) = Pr[X = x A] = E[X A] = Pr[X = x A] Pr[A] (16) x W X xf X A (x) (17) Für paarweise disjunkte Ereignisse, die den ganzen Ereignissraum abdecken gilt: E[X] = n i=1 E[X A i] Pr[A i ] Neustart eines Experiments X als Experiment X mit selbem Aufbau. Erwartungswert des Experiments ist der Erwartungswert des neuen Experiments + 1: E[X K 1 ] = 1 + E[X ] = 1 + E[X] (18) Varianz Mit µ = E[X] gilt: E[X] = E[X K 1 ] Pr[K 1 ] + E[X K 1 ] Pr[K 1 ] (19) Var[X] = E[(X µ) 2 ] = σ = Var[X] heißt Standardabweichung von X x W X (x µ) 2 Pr[X = x] (20) Var[X] = E[X 2 ] E[X] 2 (21) Var[aX + b] = a 2 Var[X] (22) Für ZV X heißt: E[X k ] k-tes Moment E ist erstes Moment, E[(X E[X]) k ] k-tes zentrales Moment Var ist zweites zentrales Moment. 5.3 Mehrere Zufallsvariablen Hypergeometrische Verteilung Ziehe r Elemente ohne zurücklegen aus a + b Elementen, von denen b besonders gekennzeichnet sind. ( b a ) Pr[X = x] = x)( r x ) (23) Für zwei ZV: Pr[X = x, Y = y] = Gemeinsame Dichte ( b x)( a ( a+b r )( b x r 1 x y )( a (r1 x) r 2 y ( a+b r 1 )( (a+b) r1 r 2 ) (24) f X,Y (x, y) = Pr[X = x, Y = y] (25) ) Randdichte Analog für f Y (y) f X (x) = y W Y f X,Y (x, y) (26) 9

10 5.3.4 Gemeinsame Verteilung F X,Y (x, y) = Pr[X x, Y y] = f X,Y (x, y ) (27) x x y y Randverteilung F X (x) = f X (x ) = f X,Y (x, y) (28) x x x x y W Y Analog für F Y (y) Unabhängigkeit von Zufallsvariablen X i, i [n] heißen unabhängig, wenn gilt: Pr[X 1 = x 1,, X n = x n ] = Pr[X 1 = x 1 ] Pr[X n = x n ] f X1,,X n (x 1,, x n ) = f X1 (x 1 ) f Xn (x n ) (29) Zusammengesetzte Zufallsvariablen Z = X + Y, X, Y unabhängig. f Z (z) = f X (x)f Y (z x) (30) x W X Linearität des Erwartungswertes X = a 1 X a n X n E[X] = a 1 E[X 1 ] + + a n E[X n ] (31) Multiplikativität des Erwartungswertes Für unabhängige ZV gilt: E[X 1 X n ] = E[X 1 ] E[X n ] (32) Addizivität der Varianz Für X = i [n] X i, mit X i unabhängig gilt: Var[X] = Var[X 1 ] + + Var[X n ] (33) Indikatorvariable I A ist 1, wenn A, sonst 0 E[I A ] = Pr[A] (34) E[I A1 I An ] = Pr[A 1 A n ] (35) 6 Formelsammlung Siehe Foliensatz Seite 154 ff. 10

11 7 Wichtige diskrete Verteilungen 7.1 Bernoulli-Verteilung 1 Münzwurf. Erfolg (1) auf einer Seite, Misserfolg (0) bei anderer Seite ZV X mit: W X = {0, 1} { p, x = 1 f X (X) = 1 p, x = 0 (36) ist Bernoulli verteilt, mit Erfolgswahrscheinlichkeit p. q := 1 p 7.2 Binomialverteilung E[X] = p (37) Var[X] = p p 2 = pq (38) Reihe von Münzwürfen. Summe der Erfolge? X ist Summe von unabhängigen, gleichverteilten Bernoulli Experimenten X X n. X Bin(n, p) (39) Es gilt: X X = {0,, n} f X (x) = b(x; n, p) = ( ) n p x q n x (40) x E[X] = np (41) Var[X] = npq (42) Mehrere unabhängige Binomialverteilungen X Bin(n x, p), Y Bin(n y, p) unabhängig dann gilt für Z = X + Y Z Bin(n x + n y, p) 7.3 Geometrische Verteilung Reihe von Münzwürfen. Wann der erste Erfolg? f X (i) = pq i 1, i N (43) E[X] = 1 p (44) Var[X] = q p 2 (45) Pr[X > x] = (1 p) x (46) Pr[X > y + x X > x] = Pr[X > y] (47) 11

12 7.3.1 Negative Binomialverteilung n unabhängige Geometrische Verteilungen. Warten auf den n-ten Erfolg. z ist Anzahl der Versuche. Z ist negativ binomialverteilt mit Ordnung n ( ) z 1 f Z (z) = p n (1 p) z n (48) n Poisson Verteilung Parameter λ, Wertebereich W X = N 0, i N 0. X Po(λ) f X (i) = e λ λ i Grenzwert für Binomialverteilung i! (49) E[X] = λ (50) Var[X] = λ (51) lim X Bin(n, λ ) = Po(λ) (52) n n Summe von Poisson-verteilten Zufallsvariablen X, Y unabhängig. X Po(λ), Y Po(µ) Z = X + Y Po(λ + µ) (53) 8 Abschätzen von Wahrscheinlichkeiten 8.1 Ungleichungen von Markov und Chebyshev Markov-Ungleichung Für ZV X mit nur positiven Werten, t R + gilt: Pr[X t] E[X] t Pr[X te[x]] 1 t (54) (55) Chebishev-Ungleichung Für ZV X, t R + gilt: Pr[ X E[X] t] Var[X] t 2 (56) Pr[ X E[X] t Var X] 1 t 2 (57) 12

13 8.2 Gesetz der großen Zahlen Gesetz der großen Zahlen Für ZV X mit, ϵ, δ > 0 gilt für alle n Var[X] ϵδ, Wenn X 2 i, i [n] gleichverteilt, wie X mit Z := X1+ +Xn n, so gilt: Pr[ Z E[X] δ] ϵ (58) Wahrscheinlichkeit und relative Häufigkeit Z = 1 n (X X n ) (59) nähert sich für genügend große n beliebig an Pr[X] an. 8.3 Chernoff-Schranken Chrenoff-Schranken für Summen von 0-1-Zufallsvariablen Seien X i, i [n] unabhängige Bernoulli-ZVs, mit Pr[X i = 1] = p i und Pr[X i = 0] = 1 p 1. Dann gilt für X := n i=1 X i, µ := E[X] = n i=1 p i δ > 0 0 < δ < 1 0 δ < 1 ( e δ ) µ Pr[X (1 + δ)µ] (1 + δ) 1+δ (60) ( e δ ) µ Pr[X (1 δ)µ] (1 δ) 1 δ (61) (1 δ) 1 δ e δ+ δ2 2 (62) Weitere Abschätzungen Pr[X (1 + δ)µ] e µδ2 3, für 0 < δ 1 Pr[X (1 δ)µ] e µδ2 2, für 0 < δ 1 Pr[ X µ δµ] 2e µδ2 3, für 0 < δ 1 Pr[X (1 + δ)µ] ( e 1+δ )(1+δ)µ Pr[X t] 2 t, für t 2eµ (1 + δ) 1+δ e δ+ δ2 3 (63) 13

14 9 Erzeugende Funktion Für ZV X mit W X N 0 gilt: G X (s) = Pr[X = k]s k = E[s X ] (64) k=0 9.1 Rechenregeln Für Y = X + t, t N 0 gilt: G X (s) = E[s Y ] = E[s ( X + t)] = E[s t s X ] = s t G X (s) (65) Für ZVs X, Y gilt: G X+Y (s) = G X (s)g Y (s) (66) Beobachtung G X (s) = k=1 k Pr[X = k]sk 1 G X (0) = Pr[X = 1] G (i) X (0) = Pr[X = i]i! G(i) X (0) i! = Pr[X = i] 9.2 Eindeutigkeit Dichte und Verteilung einer ZV X sind durch wahrscheinlichkeitserzeugende Funktion eindeutig bestimmt. 9.3 Wichtige Erzeugende Funktionen Bernoulli-Verteilung G X (s) = (1 p)s 0 + ps 1 = 1 p + ps (67) Gleichverteilung auf {0,, n} Pr[X = k] = 1 n+1 G X (s) = n k=0 1 s n+1 1 n + 1 sk = (n + 1)(s 1) (68) Binomialverteilung n G X (s) = k=0 ( n k ) p k (1 p) n k s k = (1 p + ps) n (69) Geometrische Verteilung G X (s) = p(1 p) k 1 s k = ps ((1 p)s) k 1 ps = 1 (1 p)s k=1 k=1 (70) 14

15 9.3.5 Poisson-Verteilung λ λk G X (s) = e k! sk = e λ+λs = e λ(s 1) (71) k=0 9.4 Erzeugende Funktion und Momente G X(1) = k Pr[X = k] = E[X] (72) k=1 15

16 Teil II Kontinuierliche Wahrscheinlichkeitsräume 10 Einführung Elementarereignisse haben Wahrscheinlichkeit 0 Ereignissmenge muss σ-algebra sein Wahrscheinlichkeitsfunktion muss Kolmogorov-Axiome erfüllen 10.1 Kolmogorov-Axiome und σ-algebren σ-algebren A P(Ω) heißt σ-algebra über Ω, wenn gilt Ω A A A A A A n A n=1 A n A P(Ω) ist σ-algebra Borel sche Mengen B(Ω) mit Ω ist Intervall, bildet σ-algebra Jedes geschlossene Subintervall von Ω B(Ω) A B(Ω) A B(Ω) A n B(Ω) n=1 A n B(Ω) Kolmogorov-Axiome Wahrscheinlichkeitsmaß Pr[Ω] = 1 Pr[.] : A [0, 1] (73) A 1, A 2, paarweise disjunkt Pr[ i=1 A i] = i=1 Pr[A i] Wahrscheinlichkeitsraum (Ω, A, Pr) Beispiele Für f : Ω R erfüllt Pr[A] = ω A f(ω) die Kolomogorov-Axiome für alle ω Ω f(ω) = 1 Für Ω = [0, 1, ] gibt es nur eine Funktion B([0, 1]) R, mit F ([a, b]) = b a, die die Kolmogorov-Axiome erfüllt. 16

17 Lebesgue-Integral Ω ist Intervall. f : Ω R ist messbar, wenn Urbild einer Borel schen Menge auch Borel sche Menge. Jeder messbaren Funktion kann ein Lebesgue-Integral zuxgeordnet werden. fdλ (74) Stetige Funktion sind messbar. Summen, Produkte von Messbaren Funktionen sind messbar. Ist f : Ω R[+] 0 messbar, erfüllt Pr die Kolmogorov-Axiome für Pr : A fi A dλ (75) Für A = [a, b]; a, b R; f : A R beschränkt. fi A dλ = Rechenregeln in (Ω, A, Pr) Pr[ ] = 0 Pr[Ω] = 1 0 Pr[A] 1 Pr[A] = 1 Pr[A] A B Pr[A] Pr[B] Additionssatz A i, i [n] paarweise disjunkt [ n ] Pr A i = i=1 b a f(x)dx (76) n Pr[A 1 ] (77) Für zwei disjunkte Ereignisse gilt somit Pr[A B] = Pr[A] + Pr[B] i= Kontinuierliche Zufallsvariablen Ω = R, A = B(R) Dichtefunktion Dichtefunktion f X : R R + 0 mit der Eigenschaft: f X (x)dx = 1 (78) 17

18 Verteilungsfunktion Verteilungsfunktion F X : F X (x) := Pr[X x] = Pr[{t R t x}] = F X ist monoton steigend F X ist stetig lim x F (x) = 0, lim x F X = 1 x Differenzierbare Funktion F (x) besitzt Dichte f(x) = F (x) Pr[a < X b] = F X (b) F X (a) Gleichverteilung Gleichverteilung über [a, b]. Dichtefunktion: f X (t)dt (79) Verteilungsfunktion: F (x) = f(x) = x { 1 b a x [a, b] 0 sonst 0 x < a x a f(t)dt = b a a x b 1 x > b (80) (81) E[X] = a+b 2 Var[X] = 1 12 (a b) Rechnen mit kontinuierlichen Zufallsvariablen Y = g(x), g : R R, C = {t R g(t) y} Verteilungsfunktion: F X (y) = Pr[Y y] = Pr[g(X) y] = f X (t)dt (82) Dichte folgt durch Differenziation Exponentialverteilung X gleichverteilt auf ]0, 1[, λ > 0, Y := 1 λ ln X C F Y (y) = Pr[ 1 λ ln X y] = Pr[X e λy ] { = 1 F X (e λy 1 e λy y 0 ) = 0 sonst { f Y (y) = F Y λe λy y 0 (y) 0 sonst (83) (84) 18

19 Lineare Zufallsvariablen Y = ax + b; a, b > 0 F Y (y) = F X ( y b a ) (85) f y (y) = f X ( y b a ) 1 a (86) Simulation von Zufallsvariablen Erzeugung von Zufallswerten mit Verteilung X entsprechend, über verschieden große Intervalle einer Gleichverteilung U über ]0, 1[. X = F 1 X (U) (87) Pr[ X t] = Pr[U F X (t)] = F U (F X (t)) = F X (t) (88) Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen δ > 0, n Z: X δ = nδ X [nδ, (n + 1)δ[ (89) Pr[X δ = nδ] = F X ((n + 1)δ) F X (nδ) (90) Erwartungswert Y = g(x) Varianz E[X] = E[Y ] = Var[X] = E[(X E[X]) 2 ] = Laplace-Prinzip tf X (t)dt (91) g(t)f X (t)dt (92) Gleichwahrscheinlich im kontinuierlichen Fall eventuell unklar Bertrand sches Paradoxon (t E[X]) 2 f X (t)dt (93) Sehne im Einheitskreis länger, als 3 (Seite eines gleichseitiges Dreieck)? Lösungen: 1 2, 1 3,

20 Abbildung 1: 10.3 Mehrere kontinuierliche Zufallsvariablen Mehrdimensionale Dichten Integrierbare Dichtefunktion f X,Y : R 2 R + 0 mit: f X,Y (x, y)dxdy = 1 (94) Für A R 2 gilt: Pr[A] = f X,Y (x, y)dxdy (95) A Bereich B = {(x, y) R 2 a x b, c y d}; a, b, c, d R (96) Randverteilung von X Analog für Y möglich Randdichte F X (x) = Pr[X x] = [ ] f X,Y (u, v)dv du (97) von X Analog für Y möglich f X (x) = f X,Y (x, v)dv (98) Unabhängigkeit Mehrere Zufallsvariablen sind unabhängig, wenn gilt: F X1,,X n (x 1,, x n ) = F X1 (x 1 ) F Xn (x n ) f X1,,X n (x 1,, x n ) = f X1 (x 1 ) f Xn (x n ), x i R Für zwei Zufallsvariablen gilt insbesondere unabhängigkeit bei: Pr[X x, Y y] = Pr[X x] Pr[Y y]; x, y R F X,Y (x, y) = F X (x)f Y (y) f X,Y (x, y) = f X (x)f Y (y) (99) (100) 20

21 Summe von unabhängigen Zufallsvariablen Z = X + Y f Z (z) = f X (x)f Y (z x)dx (101) 11 Normalverteilung Kontinuierliche Analogie zur Binomialverteilung, wenn n. Dichtefunktion für X N (µ, σ 2 ): f(x) = 1 2πσ e (x µ)2 2σ 2 =: φ(x, µ, σ) (102) N (0, 1) ist Standardnormalverteilung. φ(x, 0, 1) = φ(x). ist Gauß sche Φ-Funktion. F (x) = 1 2πσ x 11.1 Erwartungswert und Varianz X N (0, 1) E[X] = 0, Var[X] = Allgemeiner Fall Lineare Transformation I := e (t µ) 2 2σ 2 dt =: Φ(x, µ, σ) (103) e x2 2 dx = 2π (104) X N (µ, σ 2 ), Y = ax + b Y N (aµ + b, a 2 σ 2 ) (105) Eigenschaften von X N (µ, σ 2 ): E[X] = µ Var[X] = σ 2 Y = X µ σ ist standardnormalverteilt 11.2 Normalverteilung als Grenzwert der Binomialverteilung Grenzwertsatz von de Moivre Seien X i, i [n] unabhängige Bernoulli-verteilte ZV, mit gleicher erfolgswarhscheinlichkeit p, dann gilt für H n := n i=1, n 1: H n = H n np np(1 p) (106) konvergiert für n gegen die Standardnormalverteilung. 21

22 Konvergenz der Binomialverteilung H n Bin(n, p): H n lim n n Für Folge Z n mit Verteilungsfunktionen F n gilt: p(1 p) = N (p, ) (107) n lim F n(x) = Φ(x), x R (108) n Z n konvergiert gegen Standardnormalverteilung für n 11.3 Summe von Normalverteilungen Additivität der Normalverteilung Seien X i, i [n] unabhängige ZV mit X i N (µ i, σi 2 ), dann gilt für Z = n i=1 a ix i, Z ist normalverteilt E[Z] = µ = n i=1 a iµ i Var[Z] = σ 2 = n i=1 a2 i σ2 i 12 Zentraler Grenzwertsatz Je mehr unabhängige Zufallsvariablen addiert werden, um so mehr nähert sich die Summe der Normalverteilung an Momentenerzeugende Funktion M X (s) = E[e Xs ] = Gleichverteilung auf [a, b] e ts f X (t)dt (109) M U (t) = etb e ta t(b a) (110) Standardnormalverteilung Normalverteilung Y N (µ, σ 2 ) M N (t) = e t2 2 (111) M Y (t) = e tµ+(tσ)2 2 (112) 22

23 12.2 Zentraler Grenzwertsatz Seien X i, i [n] ZV mit selber Verteilung, unabhängig. Y n = n i=1 X n, n 0. Dann folgt Z n = Y n nµ σ (113) n sind asymptotisch standardnormalverteilt, also Z n N (0, 1), für n. Für Folge H n mit Verteilungsfunktionen F n gilt: lim F n(x) = Φ(x), x R (114) n also H n konvergiert gegen die Standardnormalverteilung für n Elementarer Beweis des Grenzwertsatzes von de Moivre für p = 1 2 Zeige, das gilt: 13 Exponentialverteilung b Pr[a H2n b] φ(t)dt (115) Kontinuierliche Analogie zur geometrischen Verteilung. Ebenfalls gedächtnislos. a { λe λx x 0 f Y (x) = 0 sonst { 1 e λx x 0 F Y (x) = 0 sonst (116) (117) 13.1 Erwartungswert und Varianz E[X] = 1 λ Var[X] = 1 λ Exponentialverteilung als Grenzwert der geometrischen Verteilung Seien X n eine Folge geometrisch verteilter ZV mit p n = λ n. Für k N gilt: Für Y n = 1 n X n gilt: Pr[X n kn] = 1 (1 λ n )kn (118) lim Pr[Y n t] = 1 e λt (119) n Die Folge Y n von geometrisch verteilten ZV geht für n in eine exponentialverteilte ZV über. 23

24 13.3 Gedächtnislosigkeit Skalierung exponentialverteilter Variablen Für X exponentialverteilte ZV mit Parameter λ ist Y = ax wieder exponentialverteilt mit Parameter λ a Gedächtnislosigkeit ZV X mit Wertebereich R + ist exponentialverteilt gdw, x, y > 0 gilt: Pr[X > x + y X > y] = Pr[X > x] (120) 13.4 Minimum von Exponentialverteilungen Warten auf mehrere Ereignisse Seien X i, i [n] unabhängig, exponentialverteilt mit λ i. Dann gilt: X := min{x 1,, X n } ist exponentialverteilt mit Parameter i [n] λ i Poisson-Prozess Ergebnisse, zeitlicher Abstand exponentialverteilt Anzahl in fester Zeitspanne ist Poisson-verteilt. T 1, T 2, unabhängige exponentialverteilte ZV mit Parameter λ. T i ist die Zeit zwischen Treffer i 1 und i. So ist definiert: X(t) := max{n N T T n t} (121) X(t) ist Poisson-verteilt mit Parameter tλ. 14 Approximationen der Binomialverteilung Sei H n Bin(n, p) binomialverteilt mit Verteilungsfunktion F n. Für n gilt: [ Hn F n (t) = Pr n t ] Φ t n p ( ) t np = Φ (122) n p(1 p)n p(1 p) n Stetigkeitskorrektur: Ansatz +0, 5 im Zähler Approximation durch Poisson-Verteilung Bin(n, p) Po(np), bei seltenen Ereignissen. n 30, p 0, Approximation durch Chrenoff-Schranken Bei Berechnung der Ausläufer. Echte Abschätzung, nicht nur Approximation. 24

25 14.3 Approximation durch Normalverteilung F n (t) von Bin(n, p) approximiert durch: ( ) t np F n (t) Φ p(1 p)n (123) bei np 5, n(1 p) 5. 25

26 Teil III Induktive Statistik 15 Einführung Erschließen von Gesetzmäßigkeiten aus gemessenen Zufallsgrößen 16 Schätzvariablen Verteilung von X bekannt, Parameter nicht n Stichproben mit gleicher Verteilung, wie X, Stichprobenvariablen X i E[X] = 1 n n E[X i ] = 1 n i=1 X ist erwartungstreuer Schätzer für X Schätzer n E[X] = E[X] (124) ZV X mit Dichte f(x; θ). Schätzer U für θ ist ZV aus mehreren (unabhänigigen, identische verteilten) ZV Erwartungstreue i=1 Erwartungstreu, wenn gilt: E[U] = θ (125) Bias E[U θ] (126) 0, bei erwartungstreuen Schätzern Mittlere Quadratische Abweichung Bei Erwartungstreue: MSE := E[(U θ) 2 ] (127) MSE = E[(U E[U]) 2 ] = Var[U] (128) Schätzvariable ist effizienter, wenn kleinere mittlere quadratische Abweichung Konsistenz im quadratischen Mittel MSE 0 für n X ist also konsistent MSE(X) = V ar[x] = 1 V ar[x] (129) n 26

27 Schwache Konsistenz Folgt aus Konsistenz im quadratischen Mittel. Für n, ϵ > 0 beliebig: Pr[ X θ ϵ] 0 (130) Schätzer für die Varianz S := 1 n (X i X) n 1 2 (131) i=1 S 2 ist erwartungstreuer Schätzer für die Varianz E[S 2 ] = Var[X] (132) Stichprobenmittel & Stichprobenvarianz X = 1 n X i (133) n S 2 = 1 1 n i=1 n (X i X) 2 (134) sind erwartungstreue Schätzer für Erwartungswert bzw. Varianz i= Maximum-Likelihood-Prinzip X = (X 1,, X n ), x = (x 1,, x n ). f(x; θ) = Pr[X = x] mit θ als Parameter der Verteilung. L( x; θ) = n f(x i ; θ) = i=1 n i=1 Pr[X i = x i ] unabh. = Pr[X 1 = x 1,, X n = x n ] (135) θ θ L ist Likelihood-Funktion der Stichprobe. Wähle θ, dass L(x; θ) maximal. ˆθ ist Maximu-Likelihood(ML)-Schätzwert Bernoulli-Verteilung L( x; θ) L( x; ˆθ) θ (136) L( x; p) = n p xi (1 p) 1 xi (137) Logarithmieren (wegen Summe), Ableiten, Nullsetzen: p = x. Varianz: σ 2 = 1 n n i=1 (x i µ) 2 i=1 27

28 17 Konfidenzintervalle Konfidenzniveau 1 α: Pr[U 1 θ U 2 ] 1 α (138) Wahrscheinlichkeit, dass θ / [U 1, U 2 ] (Konfidenzintervall) Wahrscheinlichkeit α. Meist Schätzvariable U mit Konfidenzintervall [U δ, U + δ] 17.1 Konfidenzintevall für Standardnormalverteilung X N (µ, σ 2 ) X N (µ, σ2 n ) Z = n X µ σ N. Konfidenzintervall [ c, c]: Pr[ c Z c]! = 1 α. Nach µ Auflösen. [ K = X cσ, X + cσ ] n n (139) c = Φ 1 (1 α 2 ) γ-quantil ZV X mit Verteilung F X. F X (x y ) = γ (140) heißt γ-quantil. Für Standardnormalverteilung ist z γ das γ-quantil [ K = X z (1 α 2 ) σ, X + z ] (1 α 2 ) σ n n (141) 18 Testen von Hypothesen 18.1 Einführung Parameter nicht interessant, sondern damit verbundene Behauptung Test K = { x R n ; xablehnung der Hypothese} (142) heißts kritischer Bereich / Ablehnungsbereich Testvariable T aus Zusammenfassung der X 1,, X n. Einteilung von T in Bereiche, zur Ablehnung / Annahme der Hypothese. Zweiseitiger Test, bei geschlossenem Intervall; einseitig, bei einseitig halboffenem Intervall. K R ˆ=K aus T ist Abhlehnungsbereich. H 0 ist Nullhypothese, H 1 alternative Hypothese. Bei H 1 ˆ=H 0 gilt nicht, ist H 1 triviale Alternative Fehler 1. Art: H 0 gilt, wird aber abgelehnt ( x K) 2. Art: H 0 gilt nicht, wird aber angenommen ( x / K) Wahrscheinlichkeit für Fehler 1. Art, α heißt Signifikanzniveau. 28

29 Konstruktion eines einfachen Tests Test für p von X Ber(p). H 0 : p p 0, H 1 : p < p 0. Wähle k R für K := [0, k] optimal. T = T np (143) np(1 p) Signifikanzniveau α für Test mit k Fehlerwahrscheinlichkeit 1. Art = max p H0 Pr p [T k] Fehlerwahrscheinlichkeit 2. Art = sup p H1 Pr p [T > k] [ ] ( ) k np 0 k np α = Pr [T k] = Pr T Φ 0 p=p 0 np0 (1 p 0 ) np0 (1 p 0 (144) k vorgegeben: (k np 0 )/ np 0 (1 p 0 ) = z α Signifikanzniveau = α α vorgegeben: k = k(n) = z α np0 (1 p 0 ) + np 0 k kleiner Fehler 1. Art kleine, aber Wahrscheinlichkeit für Fehler 2. Art steigt. Alternativtest: Hinreichende Stichproben, beide Fehlerwahrscheinlichkeiten ausreichend klein 18.2 Praktische Anwendung statistischer Tests Siehe Vorlesungsfolien Seite Vorgehen bei statistischen Tests 1. Annahmen (über Verteilung, Unabhängigkeit) treffen 2. H 0 formulieren 3. Testverfahren wählen 4. Test durchführen & entscheiden 18.4 Ausgewählte statistische Tests Das richtige Testverfahren Beteiligte Zufallsgrößen: Ein-Stichproben-Test (Nur eine ZV) / Zwei-Stichproben- Test (Vergleichen von ZVs) Nullhypothese Lageparameter (Erwartungswert, Varianz, Median) Vorgegebene Verteilung Abhängigkeit Zufallsgrößen (Verteilung, Erwartungswert, Varianz bekannt?) 29

30 Ein-Stichproben-Tests für Lageparameter Gaußtest (n konvergiert gegen Normalverteilung). Varianz σ 2 muss bekannt sein. Siehe Vorlesungsfolien Seite 394. t-test Annäherung von σ 2 durch S 2. Für n 30 annäherung durch Normalverteilung Siehe Vorlesungsfolien Seite Zwei-Stichproben-Tests für Lageparameter Siehe Vorlesungsfolien Seite Nicht an Legeparametern orientierte Tests X 2 -Anpassungstest Untersuchung der Verteilung als ganzes. Siehe Vorlesungsfolien Seite

31 Teil IV Stochastische Prozesse 19 Einführung Stochastischer Prozess ist zeitliche Folge von Zufallsexperimenten 20 Prozesse mit diskreter Zeit 20.1 Markov-Ketten Markov-Kette über Zustandsmenge S = {0,, n 1} besteht aus unendlicher Folge von ZV (X t ) t N mit Wertemenge S, Startverteilung q 0 mit q0 T R n, mit Komponenten 0 und Summe 1. Für Indexmenge I {0,, t 1} und Zustände i, j, s k (k I) gilt: Pr[X t+1 = j X t = i, k I : X k = s k ] = Pr[X t+1 = j X t = i] =: p ij (145) Markov-Bedinung (145) besagt: Übergangswahrscheinlichkeit nur abhängig von aktuellem Zustand. p ij und t unabhängig: Markov-Kette ist (zeit)homogen. Übergangsmatrix: P = (p ij ) 0 i,j<n. Absolute Zeit t hat keinen Einfluss auf System S = N 0 möglich: unendliche Markov-Kette Wahrscheinlichkeitsraum einer Markov-Kette Mögliche Folge von Zuständen Ω S t0+1. Folge ω = (x 0, x 1,, x t0 ) Ω hat Wahrscheinlichkeit: Pr[ω] = (q 0 ) x0 t 0 i=1 Pr[X i = x i X i 1 = x i 1 ] (146) 20.2 Berechnung von Übergangswahrscheinlichkeiten Situation zum Zeitpunkt t ist Zeilenvektor q t, mit (q t ) i ist Wahrscheinlichkeit, dass sich Kette nach t Schritten in Zustand i befindet. n 1 Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i] (147) i=0 n 1 (q t+1 ) k = p ik (q t ) i (148) i=0 q t+1 = q t P (149) q t = q 0 P t (150) q t+k = q t P k (151) P k gibt an, mit welcher Wahrscheinlichkeit in k Schritten ein Übergang von i nach j erfolgt. p (k) ij = Pr[X t+k = j X t = i] = (P k ) ij (152) 31

32 Exponentiation von Matrizen Wenn P diagonalisierbar, so lässt sich P transformieren als: P k = B D k B 1 (153) Zur Berechnung: 1 ist immer Eigenwert von P Polynomdivision 20.3 Ankunftswahrscheinlichkeiten und Übergangszeiten Wahrscheinlichkeit irgendwann von i nach j zu kommen Mittel der Schritte um von i nach j zu kommen ZV T ij, Übergangszeit zählt Schritte von i nach j T ij = min{n 0 X n = j, wenn X 0 = i} (154) h ij = E[T ij ] (155) f ij, Ankunftswahrscheinlichkeit ist Wahrscheinlichkeit, in beliebig vielen Schritten von i nach j zu kommen: f ij = Pr[T ij < ] (156) T i, Rückkehrzeit zählt Schritte, um von i nach i zurückzukehren. T i = min{n 1 X n = j, wenn X 0 = i} (157) f i, Rückkehrwahrscheinlichkeit h i = E[T i ] (158) Erwartete Übergangs-/ Rückkehrzeiten f i = Pr[T i < ] (159) h ij = 1 + k j p ik h kj, i, j S, i j (160) h j = 1 + k j p jk h kj (161) Erwartete Ankunfsts- / Rückkehrwahrscheinlichkeiten f ij = p ij + k j p ik f kj, i, j S, i j (162) f j = p jj + k j p jk f kj (163) 32

33 20.4 Gamblers Ruin Problem Markov-Kette mit m Zuständen, entpsricht m Geldeinheiten im Spiel. Zuständsübergang mit Gewinnwahrscheinlichkeit von Spieler A p bzw. Spieler B 1 p. Wahrscheinlichkeit, dass Spieler A Spieler B bankrott treibt: f jm = 1 ( 1 p p )j 1 ( 1 p p )m, p 1 2 (164) Mittlere Spieldauer, bis ein Spieler Bankrott geht: d i = E[T i ] = qd i 1 + pd i mi m 2 (165) 20.5 Stationäre Verteilung Verhalten für t π mit π = π P ist Stationäre Verteilung Absorbierende Zustände lim P t = B lim (D t ) B 1 (166) t t π = lim t q t = lim t q 0 P t (167) Haben keine Ausgehenden kanten p ij = 0, j i p ii = Transiente Zustände Prozess kehrt mit positiver Wahrscheinlichkeit nach Besuch in i nie mehr zurück: f i Rekurrente Zustände f i = Irreduzible Markov-Ketten i, j S. n N.p (n) ij > 0. Jeder Zustand ist von jedem Zustand erreichbar. Endliche Markov-Kette Starke Zusammenhangskomponente. Für diese gilt: f ij = Pr[T ij < ] = 1. i, j S (168) Aperiodizität Periode ξ eines Zustands j ist die größte Zahl, so dass gilt (Rückkehr nur alle ξ Zustände möglich): {n N 0 p (n) jj } {i ξ i N 0} (169) Aperiodizität bei ξ = 1: Zustand besitzt Schleife 33

34 Zustand besitzt zwei Rückkehrwege, deren Längen teilerfremd sind. Zustand i ist aperiodisch, wenn gilt: n 0 N.p (n) ii > 0. n N, n n 0 (170) Markov-Kette ist aperiodisch, wenn alle Zustände aperiodisch sind Ergodische Markov-Ketten Für irreduzible aperiodische ( ˆ= ergodisch) endliche Markov-Ketten gilt unabhängig von q 0 : i S. t N.(q t ) i > 0 (171) Fundamentalsatz für ergodische Markov-Ketten lim n q n = π (172) 34

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

Satz 61 (Chebyshev-Ungleichung)

Satz 61 (Chebyshev-Ungleichung) Die folgende Abschätzung ist nach Pavnuty Lvovich Chebyshev (1821 1894) benannt, der ebenfalls an der Staatl. Universität in St. Petersburg wirkte. Satz 61 (Chebyshev-Ungleichung) Sei X eine Zufallsvariable,

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr 1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand

Mehr

Diskrete Strukturen II

Diskrete Strukturen II SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie

Zentralübung Diskrete Wahrscheinlichkeitstheorie Zentralübung Diskrete Wahrscheinlichkeitstheorie Christian Ivicevic (christian.ivicevic@tum.de) Technische Universität München 14. Juni 2017 Agenda Disclaimer und wichtige Hinweise Übungsaufgaben Disclaimer

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Korollar 116 (Grenzwertsatz von de Moivre)

Korollar 116 (Grenzwertsatz von de Moivre) Ein wichtiger Spezialfall das Zentralen Grenzwertsatzes besteht darin, dass die auftretenden Zufallsgrößen Bernoulli-verteilt sind. Korollar 116 (Grenzwertsatz von de Moivre) X 1,..., X n seien unabhängige

Mehr

FORMELSAMMLUNG STATISTIK B

FORMELSAMMLUNG STATISTIK B Somersemester 2012 FORMELSAMMLUNG STATISTIK B Prof. Kneip / Dr. Scheer / Dr. Arns Version vom April 2012 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 2 2 Diskrete Zufallsvariablen 5 3 Stetige Zufallsvariablen

Mehr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Diskrete Wahrscheinlichkeitstheorie

Diskrete Wahrscheinlichkeitstheorie SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil V Induktive Statistik Induktive Statistik

Mehr

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X].

7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X]. 7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := gilt G X(1) = Pr[X = k] s k = E[s X ], k=0 k Pr[X = k] = E[X]. k=1 DWT 7.1 Einführung 182/476 Beispiel 73 Sei X binomialverteilt

Mehr

Anzahl der Versuche, bei denen A eingetreten ist : Anzahl aller Versuche Mit Hilfe des obigen Gesetzes der groen Zahlen folgt Z = Pr[jZ pj ] ";

Anzahl der Versuche, bei denen A eingetreten ist : Anzahl aller Versuche Mit Hilfe des obigen Gesetzes der groen Zahlen folgt Z = Pr[jZ pj ] ; Wahrscheinlichkeit und relative Haugkeit. Sei X eine Indikatorvariable fur ein Ereignis A, Pr[A] = p. Somit ist X Bernoulli-verteilt mit E[X] = p. Z = 1 n (X 1 + : : : + X n ) gibt die relative Haugkeit

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin. Lemma 92 Beweis: Wir berechnen zunachst I 2 : I 2 = Z 1 I := e x2 =2 d x p = 2: 1 Z 1 1 Z 1 Z 1 = 1 1 Z 1 e x2 =2 d x 1 e (x2 +y 2 )=2 d x d y : e y2 =2 d y Wir gehen nun zu Polarkoordinaten uber und setzen

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck

Mehr

Zulassungsprüfung Stochastik,

Zulassungsprüfung Stochastik, Zulassungsprüfung Stochastik, 5.5. Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß auf

Mehr

FORMELSAMMLUNG STATISTIK B

FORMELSAMMLUNG STATISTIK B Somersemester 2010 FORMELSAMMLUNG STATISTIK B Dr. Scheer / J. Arns Version vom April 2010 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 2 2 Zufallsvariablen 5 3 Diskrete Verteilungsmodelle 7 4 Parameterschätzung

Mehr

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Wahrscheinlichkeitsrechnung. Sommersemester Kurzskript

Wahrscheinlichkeitsrechnung. Sommersemester Kurzskript Wahrscheinlichkeitsrechnung Sommersemester 2008 Kurzskript Version 1.0 S. Döhler 1. Juli 2008 In diesem Kurzskript sind Begriffe und Ergebnisse aus der Lehrveranstaltung zusammengestellt. Außerdem enthält

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Satz 104 (Skalierung exponentialverteilter Variablen)

Satz 104 (Skalierung exponentialverteilter Variablen) 2.3.1 Eigenschaften der Exponentialverteilung Satz 104 (Skalierung exponentialverteilter Variablen) Sei X eine exponentialverteilte Zufallsvariable mit dem Parameter λ. Für a > 0 ist die Zufallsvariable

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

DWT 6.1 Die Ungleichungen von Markov und Chebyshev 157/467 Ernst W. Mayr

DWT 6.1 Die Ungleichungen von Markov und Chebyshev 157/467 Ernst W. Mayr Die Markov-Ungleichung ist nach Andrey Andreyevich Markov (1856 1922) benannt, der an der Universität von St. Petersburg bei Chebyshev studierte und später dort arbeitete. Neben seiner mathematischen Tätigkeit

Mehr

ALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke

ALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke ALMA II - ÜBERBLICK STOCHASTIK Jochen Garcke GRUNDBEGRIFFE Wahrscheinlichkeitsraum (Ω, A, P) beschreibt Zufallssituation Realisierung, Stichprobe, Elementarereignis ω Ω Ergebnisraum zufälliges Ereignis

Mehr

Einführung in die angewandte Stochastik

Einführung in die angewandte Stochastik Einführung in die angewandte Stochastik Fabian Meyer 5. April 2018 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 3 1.1 Definitionen................................... 3 1.2 Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsverteilung,

Mehr

Satz 105 Seien X und Y unabhangige kontinuierliche Zufallsvariablen. Fur die Dichte von Z := X + Y gilt f Z (z) = f X (x) f Y (z x) d x :

Satz 105 Seien X und Y unabhangige kontinuierliche Zufallsvariablen. Fur die Dichte von Z := X + Y gilt f Z (z) = f X (x) f Y (z x) d x : 3.4 Summen von Zufallsvariablen Satz 105 Seien X und Y unabhangige kontinuierliche Zufallsvariablen. Fur die Dichte von Z := X + Y gilt Z 1 f Z (z) = f X (x) f Y (z x) d x : 1 Beweis: Nach Denition der

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik . Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen

Mehr

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig, Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig, wenn für alle (s 1,..., s n ) {0, 1} n gilt, dass wobei A 0 i = Āi und A 1 i = A i. Pr[A s 1 1... Asn n ] = Pr[A

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion f(x) =

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

Denition 101 Zwei kontinuierliche Zufallsvariablen X und Y heien unabhangig, wenn

Denition 101 Zwei kontinuierliche Zufallsvariablen X und Y heien unabhangig, wenn Denition 101 Zwei kontinuierliche Zufallsvariablen X und Y heien unabhangig, wenn fur alle x; y 2 R gilt. Pr[X x; Y y] = Pr[X x] Pr[Y y] Dies ist gleichbedeutend mit F X;Y (x; y) = F X (x) F Y (y) : Dierentiation

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

Stochastik für Studierende der Informatik

Stochastik für Studierende der Informatik Wiederholungs-/Fragestunde Peter Czuppon Uni Freiburg, 05. September 2016 Diese Zusammenfassung wurde mit Hilfe des Skriptes von Prof. Dr. Pfaffelhuber aus dem Sommersemester 2016 erstellt. Ferner deckt

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: 24.01.2011 Autor: René Pecher Inhaltsverzeichnis 1 Permutation 1 1.1 ohne Wiederholungen........................... 1 1.2

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/476 c Ernst W. Mayr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/476 c Ernst W. Mayr Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten

Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten Die Funktion f ;Y (x; y) := Pr[ = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen und Y. Aus der gemeinsamen Dichte f ;Y kann man ableiten f (x) = y2w Y f ;Y (x; y) bzw. f Y (y) = Die Funktionen

Mehr

Diskrete Zufallsvariable

Diskrete Zufallsvariable Diskrete Zufallsvariablen Slide 1 Diskrete Zufallsvariable Wir gehen von einem diskreten W.-raum Ω aus. Eine Abbildung X : Ω Ê heißt diskrete (numerische) Zufallsvariable oder kurz ZV. Der Wertebereich

Mehr

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.

Mehr

Vorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden

Vorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden Vorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden Hansruedi Künsch Frühlingssemester 2013 Repetition vom 19. 2. Ein Wahrscheinlichkeitsraum besteht aus

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Wahrscheinlichkeitsräume und Zufallsvariablen

Wahrscheinlichkeitsräume und Zufallsvariablen Kapitel Wahrscheinlichkeitsräume und Zufallsvariablen. W-Raum Unter einem Zufallsexperiment verstehen wir einen vom Zufall beeinflussten Vorgang, der ein entsprechend zufälliges Ergebnis hervorbringt.

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

4.2 Moment und Varianz

4.2 Moment und Varianz 4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte

Mehr

Grundlagen der Wahrscheinlichkeitstheorie

Grundlagen der Wahrscheinlichkeitstheorie Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Vorlesung 7a. Der Zentrale Grenzwertsatz

Vorlesung 7a. Der Zentrale Grenzwertsatz Vorlesung 7a Der Zentrale Grenzwertsatz als Erlebnis und Das Schwache Gesetz der Großen Zahlen Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt. . Grundbegri e Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis,

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Prüfungsfächer: Die Prüfung erstreckt sich auf die folgenden Prüfungsfächer: Maß- und Integrationstheorie Wahrscheinlichkeitstheorie Statistik

Prüfungsfächer: Die Prüfung erstreckt sich auf die folgenden Prüfungsfächer: Maß- und Integrationstheorie Wahrscheinlichkeitstheorie Statistik B Zulassungsprüfung in Stochastik Zielsetzung: Durch die Zulassungsprüfung in Stochastik soll der Nachweis geführt werden, dass die Bewerber über solide Grundkenntnisse in Wahrscheinlichkeitstheorie und

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

DWT 314/460 csusanne Albers

DWT 314/460 csusanne Albers 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schatzvariablen fur Parameter von Verteilungen. Sei ~X = (X 1 ; : : : ; X n ):

Mehr

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder

Mehr

p k (1 p) n k s k = (1 p + ps) n. k p(1 p) k 1 s k ((1 p)s) k 1 =

p k (1 p) n k s k = (1 p + ps) n. k p(1 p) k 1 s k ((1 p)s) k 1 = Binomialverteilung Für X Bin(n, p) gilt nach der binomischen Formel G X (s) = E[s X ] = n ( ) n p k (1 p) n k s k = (1 p + ps) n. k Geometrische Verteilung Sei X eine geometrisch verteilte Zufallsvariable

Mehr

Elementare Stochastik

Elementare Stochastik Mathematik Primarstufe und Sekundarstufe I + II Elementare Stochastik Mathematische Grundlagen und didaktische Konzepte Bearbeitet von Herbert Kütting, Martin J. Sauer, Friedhelm Padberg 3. Aufl. 2011.

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binären Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhängigen

Mehr

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler Philipp Sibbertsen Hartmut Lehne Statistik Einführung für Wirtschafts- und Sozialwissenschaftler 2., überarbeitete Auflage 4^ Springer Gabler Inhaltsverzeichnis Teil I Deskriptive Statistik 1 Einführung

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 10. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 10. Übung SS 18: Woche vom Übungsaufgaben 10. Übung SS 18: Woche vom 18. 6. 22. 6. 2016 Stochastik IV: ZG (diskret + stetig); Momente von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Stochastik I - Formelsammlung

Stochastik I - Formelsammlung Stochastik I - Formelsammlung Ereignis Ergebnisraum: Ω von Julian Merkert, Wintersemester 2005/06, Prof. Bäuerle Ereignisse und Wahrscheinlichkeiten Ereignis: A Ω Elementarereignis: {ω}, ω Ω A B := AB

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

3 Stetige Zufallsvariablen

3 Stetige Zufallsvariablen 3 Stetige Zufallsvariablen Eine Zufallsvariable heißt stetig, falls zu je zwei Werten a < b auch jeder Zwischenwert im Intervall [a, b] möglich ist Beispiele: X = Alter, X = Körpergröße, X = Temperatur,

Mehr