Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Ähnliche Dokumente
Kapitel 8: Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

Kapitel 12 Erwartungswert und Varianz

Unabhängige Zufallsvariablen

1 Multivariate Zufallsvariablen

5 Erwartungswerte, Varianzen und Kovarianzen

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER

Wirtschaftsmathematik

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Zusatzmaterial zur Vorlesung Statistik II

Varianz und Kovarianz

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

4. Verteilungen von Funktionen von Zufallsvariablen

Wahrscheinlichkeitsrechnung und Statistik

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

Diskrete Zufallsvariablen (Forts.) I

Wahrscheinlichkeitstheorie und Statistik

2 Zufallsvariable, Verteilungen, Erwartungswert

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Statistik für Ingenieure Vorlesung 3

Zufallsvariable: Verteilungen & Kennzahlen

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze

1. Grundbegri e der Stochastik

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

2 Zufallsvariable und Verteilungsfunktionen

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

Kapitel VII - Funktion und Transformation von Zufallsvariablen

1.5 Erwartungswert und Varianz

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen

Stochastik. 1. Wahrscheinlichkeitsräume

1.5 Erwartungswert und Varianz

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.

Erwartungswert und Varianz von Zufallsvariablen

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Stetige Verteilungen, Unabhängigkeit & ZGS

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

[ 2 ] Die Zufallsvariablen X und Y haben die in der Tabelle gegebene gemeinsame Wahrscheinlichkeitsfunktion

Wahrscheinlichkeitsrechnung. Sommersemester Kurzskript

Finanzmathematische Modelle und Simulation

2 Zufallsvariablen. 2.1 Induzierter Raum und Verteilung

Prüfungsvorbereitungskurs Höhere Mathematik 3

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XIII - Funktion und Transformation mehrdimensionaler Zufallsvariablen

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Vorlesung: Statistik II für Wirtschaftswissenschaft

Klausur zur Vorlesung Stochastik II

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Statistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz

7.2 Moment und Varianz

Beispiel: Zweidimensionale Normalverteilung I

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

FORMELSAMMLUNG STATISTIK B

Wichtige Definitionen und Aussagen

Zufallsvariablen [random variable]

5. Spezielle stetige Verteilungen

8. Stetige Zufallsvariablen

Die Varianz (Streuung) Definition

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Scheinklausur zur Vorlesung Stochastik II

Mathematik für Biologen

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Mehrdimensionale Zufallsvariablen

Probeklausur Statistik II

Mathematik 3 für Informatik

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

Reelle Zufallsvariablen

Wahrscheinlichkeitstheorie Kapitel XIII - Funktion und Transformation Mehrdimensionaler Zufallsvariablen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Prüfungsvorbereitungskurs Höhere Mathematik 3

Wahrscheinlichkeitsrechnung und Statistik

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Spezielle stetige Verteilungen

13 Grenzwertsätze Das Gesetz der großen Zahlen

Mathematik für Biologen

Satz 104 (Skalierung exponentialverteilter Variablen)

Unabhängigkeit von Zufallsvariablen

Erwartungswerte. Kapitel 5

Psychologische Methodenlehre und Statistik I

Stetige Verteilungen Rechteckverteilung

Mathematik für Biologen

0, t 0,5

Vorlesung 7a. Der Zentrale Grenzwertsatz

Übungsrunde 11, Gruppe 2 LVA , Übungsrunde 10, Gruppe 2, Markus Nemetz, TU Wien,

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm.

Transkript:

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte einer gamma-verteilten Zufallsvariable X mit Gestaltsparameter a > und Skalierungsparameter λ > ist gegeben durch { λ a x a 1 e λx, für x >, Γ(a) f X (x), sonst, wobei Γ(a) die Gamma-Funktion (siehe Mathematik B) beschreibt, welche gegeben ist durch Γ(a) x a 1 e x dx. Wirzeigenzunächst,daßf X (x)tatsächlicheinedichtefunktionist:offensichtlich ist f X (x), da Γ(a), und außerdem gilt mit Hilfe der Substitution y λx (und dadurch dy λdx): f X (x)dx yλx λ Γ(a) λ a x a 1 Γ(a) e λx dx λ Γ(a) y a 1 e ydy λ Γ(a) Γ(a) 1. (λx) a 1 e λx dx Aus dem Kapitel F zur Mathematik B wissen wir folgende Werte/Rechenregeln der Gamma-Funktion: Γ(1/2) π, Γ(1) 1, Γ(a+1) aγ(a), Γ(n+1) n! für n N,a >. Einige Dichte-Funktionen: α 2 und λ 1 (rot), α 2 und λ 3 (grün), α 1 und λ 1 (gelb).

Der Erwartungswert einer gamma-verteilten Zufallsvariablen X ergibt sich wieder mit Hilfe der der Substitution y λx (und dadurch dy λdx): EX yλx 1 Γ(a) xf X (x)dx λ a x a (λx) a Γ(a) e λx dx Γ(a) e λx dx y a e λxdy λ Γ(a+1) aγ(a) λγ(a) λγ(a) a λ. Das zweite Moment ergibt sich mit derselben Substitution nach einer partiellen Integration wie folgt: E(X 2 ) yλx x 2 f X (x)dx λ a 1 Γ(a) xa+1 }{{} λ e λx }{{} f :g λ a Γ(a) xa+1 }{{} e}{{} λx dx :f :g } {{ } a+1 λγ(a) (λx) a e λx dx a+1 y a e ydy λγ(a) λ λ a Γ(a) (a+1)xa }{{} f a+1 a+1 Γ(a+1) λ 2 Γ(a) λ 2 Γ(a) aγ(a) a2 +a. λ 2 1 λ e λx }{{} :g dx Somit ergibt sich die Varianz als Var(X) E(X 2 ) ( E(X) )2 a2 +a λ 2 a2 λ 2 a λ 2.

Weitere Bemerkungen: Eine integralfreie Darstellung der Verteilungsfunktion F X (x) existiert nur für a N. x f X (t)dt x λ a t a 1 Γ(a) e λt dt Im Spezialfall a 1 wird die Dichtefunktion wegen Γ(1) 1 zu { λe λx, für x >, f X (x), sonst D.h. die Gamma-Verteilung mit a 1 ist genau die Exponentialverteilung mit Parameter λ >. Sei X gamma-verteilt mit den Parametern a > und λ >. Betrachte nun die Zufallsvariable Z λx. Dann erhalten wir für die Verteilungsfunktion von Z: F Z (z) P[Z z] P[λX z] P[X z/λ] F X (x/λ). Daraus ergibt sich die Dichtefunktion von Z für z > als f Z (z) z F Z(z) z F X λa( ) z a 1 λ e λ z 1 λ Γ(a) λ za 1 Γ(a) e z. (z ) λ (z ) f X 1 λ λ D.h. Z λx ist wiederum eine Gamma-Verteilung mit den Parametern a und λ 1.

Grenzwertsatz von De Moivre-Laplace: Sei X binomialverteilt mit den Parametern n und p, d.h. ( ) n P[X k] p k (1 p) n k für k {,1,...,k}. k Dann kann man für ausreichend großes n N folgende Approximationen machen: (Faustregel: nmin{p,1 p} > 5) 1. Für k {,1,...,n}: P[X k] 1 e (k np) 2 2np(1 p) ϕ(k), 2πnp(1 p) wobei ϕ die Dichte einer Normalverteilung mit µ np und σ np(1 p) ist. 2. Für k,l {,1,...,n} mit l k: ( k + 1 2 P[l X k] Φ np ( l 1 2 ) Φ np ), np(1 p) np(1 p) wobei Φ die Verteilungsfunktion der Standardnormalverteilung ist. Die Terme ± 1 werden Stetigkeitskorrektur genannt (siehe Tafel!). 2 Beispiel: Ein spielsüchtiger Spieler setzt bei 2 Roulette-Spielen stets auf Rot. Wie groß ist die Wahrscheinlichkeit, daß er zwischen 98 und 12 mal gewinnt? Man berechne die Wahrscheinlichkeit approximativ über die Normalverteilung!

Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und Körpergewicht, Helligkeit und Lebensdauer von Glühbirnen, etc. Wir beschränken uns auf zwei Merkmale, wobei untenstehendes verallgemeinert werden kann auf n Merkmale. Grundlegende Begriffe: Definition: Ein zweidimensionaler Zufallsvektor (X, Y) ist eine Abbildung (X,Y) : Ω R 2. Beispiel: Ein Würfel wird 4 Mal geworfen. D.h. Ω { (i 1,i 2,i 3,i 4 ) i 1,i 2,i 3,i 4 {1,2,3,4,5,6} }. X seidieanzahldergeworfenensechsen; Y seidieaugensummeder4würfe. Definition: Die Verteilungsfunktion F : R 2 [,1] eines Zufallsvektors (X,Y) ist gegeben durch F X,Y (x,y) P[X x,y y]. Definition: (X, Y) ist ein diskreter Zufallsvektor, falls X und Y nur endlich viele oder abzählbar viele verschiedene Werte annehmen können. Falls W X {x 1,x 2,...} der Wertebereich von X ist und W Y {y 1,y 2,...} der Wertebereich von Y, so ist die gemeinsame Wahrscheinlichkeitsfunktion gegeben durch P X,Y [X x i,y y j ] x i W X,y j W Y. Die Verteilungsfunktion von (X, Y) ist gegeben durch F X,Y (x,y) P X,Y [X x i,y y j ] x W X,y W Y. x i W X : x i x y j W Y : y j y Definition: (X,Y) ist ein stetiger Zufallsvektor, falls eine Funktion f X,Y : R 2 R existiert mit und F X,Y (x,y) x f X,Y (x,y)dydx 1 y f X,Y (t 1,t 2 )dt 2 dt 1. f X,Y (x,y) wird dann die gemeinsame Dichte von (X,Y) genannt.

Eigenschaften der gemeinsamen Verteilungsfunktion: 1. F X,Y (x,y) ist in jeder Komponente monoton wachsend und rechtsseitig stetig: denn, falls x 1 x 2 und y 1 y 2 : F X,Y (x 1,y 1 ) P[X x 1,Y y 1 ] P[X x 2,Y y 2 ] F X,Y (x 2,y 2 ). Die rechtsseitige Stetigkeit folgt analog wie im eindimensionalen Fall. 2. Denn: lim F(x,y) x lim F(x,y) lim P[X x,y y] lim P[X x]. x x x 3. Analog: lim F(x,y) y 4. Denn: lim F(x,y) 1 x,y lim F(x,y) lim P[X x,y y] P[X R,Y R] 1. x,y x,y 5. Denn: lim F(x,y) F Y(y) x lim F(x,y) lim P[X x,y y] P[X R,Y y] P[Y y] F Y(y). x x 6. Analog: lim F(x,y) F X(x) y 7. Falls f X,Y stetig ist, so gilt: x y F X,Y(x,y) f X,Y (x,y).

Frage: Wie bekommt man aus der gemeinsamen Verteilung die Verteilungen von X und Y? Definition: Sei (X, Y) ein Zufallsvektor. Dann sind die Randverteilungen von X und Y wie folgt gegeben: 1. Falls (X,Y) diskret ist: Randverteilung von X: P[X x i ] Randverteilung von Y: P[Y y i ] 2. Falls (X,Y) stetig ist: y W Y P[X x i,y y] x i W X. x W X P[X x,y y i ] y i W Y. Randdichte von X (d.h. die Dichte von X): f X (x) f X,Y (x,y)dy x R Randdichte von Y (d.h. die Dichte von Y): f Y (y) f X,Y (x,y)dx y R Definition: Sei (X,Y) ein diskreter Zufallsvektor. Dann sind X und Y stochastisch unabhängig, falls für alle x i W X und alle y j W Y gilt: P[X x i,y y j ] P[X x i ] P[Y y j ]. Definition: Sei(X, Y) ein stetiger Zufallsvektor. Dann sind X und Y stochastisch unabhängig, falls für alle x,y R gilt: f X,Y (x,y) f X (x) f Y (y).

Definition: Sei (X,Y) ein Zufallsvektor und g : R 2 R eine Funktion. Dann definieren wir: { x W Eg(X,Y) X y W Y g(x,y) P[X x,y y], falls (X,Y) diskret g(x,y) f X,Y(x,y)dydx, falls (X,Y) stetig Eg(X, Y) ist definiert, falls die Summen bzw Integrale konvergieren! Definition: Sei (X,Y) ein Zufallsvektor. Dann ist die Kovarianz von (X,Y) definiert als Cov(X,Y) E [ (X EX)(Y EY) ]. Es gilt: Cov(X,Y) E [ (X EX)(Y EY) ] E[XY] E(X)E(Y) E(X)E(Y)+E(X)E(Y) E[XY] E(X)E(Y). Definition: Sei(X, Y) ein Zufallsvektor. Dann ist der Korrelationskoeffizient von (X,Y) definiert als (X,Y) Cov(X,Y) Var(X)Var(Y). Der Korrelationskoeffizient ist ein Maß, das den linearen Zusammenhang zwischen X und Y widerspiegelt. Eigenschaften von Erwartung und Varianz von Zufallsvektoren: Im Folgenden sei (X,Y) ein Zufallsvektor, wobei E(X 2 ),E(Y 2 ) <. Seien a,b,c,d R. Dann gelten folgende Rechenregeln: 1. E(aX +by) ae(x)+be(y) Denn: Falls X und Y diskret sind mit Wertebereichen W X bzw. W Y : E(aX +by) (ax i +by j )P[X x i,y y j ] x i W X y j W Y ax i P[X x i,y y j ]+ by j P[X x i,y y j ] x i W X y j W Y x i W X y j W Y ax i P[X x i ]+ by j P[Y y j ] x i W X y j W Y ae(x)+be(y) Falls X und Y stetig sind: E(aX +by) (ax+by)f (X,Y) (x,y)dxdy axf (X,Y ) (x,y)dxdy+ axf X (x)dx+ ae(x)+be(y) byf Y (y)dy byf (X,Y) (x,y)dxdy

2. Var(aX +by) a 2 Var(X)+b 2 Var(Y)+2abCov(X,Y) Denn: Var(aX +by) E ( (ax +by) 2) ( E((aX +by) ) 2 E ( a 2 X 2 +2abXY +b 2 Y 2) ( ae(x)+be(y) ) 2 a 2 E(X 2 )+2abE(XY)+b 2 E(Y 2 ) a 2 E(X) 2 +2abE(X)E(Y)+b 2 E(Y) 2 a 2 Var(X)+b 2 Var(Y)+2abCov(X,Y) 3. (X,Y) 1 Denn: Dies kann mit Hilfe der Cauchy-Schwarzschen Ungleichung bewiesen werden: ( ) 2 ( ) ( ) xi y i x 2 i y 2 i bzw. ( ) 2 ( ) ( ) f(x)g(x)dy f(x) 2 dx g(x) 2 dx 4. (ax +b,cy +d) (X,Y), (X,X) 1, (X, X) 1 Sind X und Y zusätzlich unabhänig, so gilt: 1. E(XY) E(X)E(Y) 2. Cov(X,Y) 3. (X,Y) 4. Var(aX +by) a 2 Var(X)+b 2 Var(Y)

Aufgaben zu Zufallsvektoren: 1. Die diskreten Zufallsvariablen X und Y nehmen die Werte, 1 und 2 an. Es sind folgende Wahrscheinlichkeiten gegeben: P[X,Y 1] 1 16, P[X 1,Y ] 1 8, P[X 1,Y 2] 1 16, P[X 2,Y ] 1 8, P[X 2,Y 1] 1 4, P[X 1] P[Y ] 5 16, P[X 2] 7 16. (a) Bestimmen Sie die Wahrscheinlichkeitsfunktionen von X und Y, sowie Erwartung und Varianz von X. (b) Sind X und Y unabhängig? (c) Bestimmen Sie die Wahrscheinlichkeitsfunktion der Zufallsvariablen Z X +Y. (d) Berechnen Sie die Kovarianz und den Korrelationskoeffizienten von (X,Y). 2. Man betrachte folgende Funktion, wobei c R: { c x y 2, falls x y 1 f(x,y), sonst. (a) Bestimmen Sie c so, daß f(x, y) eine Dichtefunktion einer Zufallsvektors (X,Y) ist. (b) Berechnen SiedieRanddichten von X undy,sowie dieerwartung und Varianz von X. Sind X und Y unabhängig? (c) Berechnen Sie die Kovarianz und den Korrelationskoeffizienten von (X,Y).